Está en la página 1de 57

Captulo 3

Sistemas de Ecuaciones Lineales


Sistemas de ecuaciones lineales se utilizan en muchos problemas de ingeniera y de las ciencias,
as como en aplicaciones de las matematicas a las ciencias sociales y al estudio cuantitativo de
problemas de administracion y economa.
En este captulo se examinan metodos iterativos y metodos
de ecuaciones lineales

a11 x1 + a12 x2 + + a1n xn =

a21 x1 + a22 x2 + + a2n xn =


..

an1 x1 + an2 x2 + + ann xn =

directos para resolver sistemas


b1
b2

(3.1)

bn .

Este sistema puede ser expresado en la forma matricial como


Ax = b,

(3.2)
T

donde A = (aij )nn M (n n, R) , b = (b1 , b2 , . . . , bn ) Rn y x = (x1 , x2 , . . . , xn )


Rn es la inc
ognita.

En la siguiente secci
on estudiaremos algunos metodos directos para resolver sistemas de
ecuaciones lineales, posteriormente abordaremos algunos metodos iterativos .

3.1

Normas matriciales

Para estudiar algunos metodos iterativos que nos permitan resolver sistemas de ecuaciones

lineales, necesitamos de algunos conceptos b


asicos de Algebra
Lineal.

3.1.1

Normas vectoriales

Sea V un espacio vectorial de dimension finita.


Definici
on 3.1 Una norma en V es una funci
on || || : V R que satisface
N1)

kxk > 0 para todo x V ,


96

97

Sergio Plaza

N2)

kaxk = |a| kxk para todo x V y todo a R ,

N3)

kx + yk 6 kxk + kyk para todo x, y V (desigualdad triangular).

Ejemplo 44 En Rn podemos definir las siguientes normas


Pn
1. k (x1 , x2 , . . . , xn ) k2 = ( i=1 x2i )1/2 (norma euclideana)

2. k (x1 , x2 , . . . , xn ) k = max { |xi | : 1 6 i 6 n }


3. k (x1 , x2 , . . . , xn ) k1 =

n
P

i=1

|xi |

Pn
4. ||(x1 , x2 , . . . , xn )||p = ( i=1 |xi |p )1/p (norma p ).

Ejemplo 45 Denotemos por V = M (n n, R) el espacio vectorial real de las matrices de


orden n n con entradas reales. Definimos las siguientes normas en V
1. ||A||2 =
2. ||A||F =

p
traza(AAT )
P
n

i,j=1

a2ij

1/2

P
n

i=1

Pn

j=1

a2ij

1/2

(norma de Fr
obenius)

3. ||A||, = sup{||Ax|| : x Rn , con kxk = 1} , donde || || y || || , denotan


normas cualesquiera norma sobre Rn . Esta norma es llamada norma subordinada a las
norma en Rn .
Notemos que tambien se tiene
kAk, = sup

kAxk
kxk

: x R , kxk 6= 0

La verificacion que lo anterior define una norma sobre el espacio vectorial M (n n, R)


no es difcil, por ejemplo N1 es inmediata, para verificar N2, usamos la propiedad siguiente del supremo de conjuntos en R , sup (A) = sup(A) , para todo > 0 , donde
A = {x : x A} . Finalmente, para verificar N3, usamos la propiedad sup (A + B) 6
sup(A) + sup(B) , donde A + B = { x + y : x A, y B } .
Observaci
on.
1. Si A M (n n, R) es no singular, esto es, det(A) 6= 0 , entonces
inf{||Ax|| : ||x|| = 1} =
2. ||A||2 =

1
.
||A1 ||

max , donde max es el mayor valor propio de AAT .

3. Si A M (n n, R) es no singular, entonces
||A1 ||2 =

1
1
,
=
inf{||Ax||2 : ||x||2 = 1}
min

donde min es el menor valor propio de AAT .

98

Sergio Plaza
4. ||A||2 = ||AT ||2 .
5.



A 0


0 B = max{||A||2 , ||B||2 } .
2

Teorema 3.1 Para A M (n n, R) y x Rn , se tiene que kAxk 6 kAk kxk .


Demostraci
on. Desde la definicion de norma matricial se tiene que ||A|| > ||Ax||
||x|| , para
todo x Rn , con x 6= 0 , de donde ||Ax|| 6 ||A|| ||x|| , y como esta u
ltima desigualdad vale
trivialmente para x = 0 , el resultado se sigue.
Ejemplo 46 Si en Rn elegimos la || || , entonces la norma matricial subordinada viene dada
por
||A||

=
=

sup {kAxk : kxk = 1}

n
n
n
n
X

X
X
X
max
|a1j |,
|a2j |, . . . ,
|aij |, . . . ,
|anj | .

j=1

j=1

j=1

j=1

Ejemplo 47 Si en Rn elegimos la || ||1 , entonces la norma matricial subordinada viene dada


por
||A||1

= sup {kAxk1 : kxk1 = 1}


( n
)
n
n
n
X
X
X
X
|ain | .
|aij |, . . . ,
|ai2 |, . . . ,
|ai1 |,
= max
i=1

i=1

i=1

i=1

Una de las normas mas usadas en Algebra Lineal es la norma de Fr


obenius la cual es dada
por

1/2
n X
m
X
||A||F =
a2ij
, A M (m n, R)
i=1 j=1

y tambien las p normas ( p > 1 ), las cuales son dadas por




||Ax||p
: x 6= 0 .
||A||p = sup
||x||p

Teorema 3.2 Para cualquier norma matricial subordinada se tiene


1. k I k = 1.
2. kABk 6 kAk kBk .
Demostraci
on. Del teorema (3.1) para todo x Rn se tiene que
||ABx|| 6 ||A|| ||Bx|| 6 ||A|| ||B|| ||x|| ,
de donde el resultado se sigue.

99

Sergio Plaza

Ejemplo 48 No toda norma matricial es subordinada a alguna norma en Rn . Para verlo,


usamos la parte 2 del teorema anterior.
Definamos la norma matricial
||A|| =

max

i,j=1,...,n

|ai,j | .

Afirmamos que esta es una norma matricial (se deja al lector la verificaci
on) y no es subordinada a ninguna norma en M (n n, R) .
En efecto, tomemos las matrices
A=B=

1
0

1
1

Tenemos ||A|| = ||B|| = 1 y como


AB =

1
0

2
1

se tiene que ||AB|| = 2 > ||A|| ||B|| = 1 .


Teorema 3.3 Para las normas matriciales definidas anteriormente valen las siguientes relaciones. Sea A M (n n, R) , entonces
1. ||A||2 6 ||A||F 6

n ||A||2

2. ||A|| 6 ||A||2 6 n ||A||

3. 1n ||A|| 6 ||A||2 6 n ||A||


4.

1
n

||A||1 6 ||A||2 6

n ||A||1 .

Teorema 3.4 Sea A M (n n, R) , con k A k < 1 , entonces I A es una matriz que tiene

P
inversa, la cual viene dada por (I A)1 =
Ak , donde A0 = I . Adem
as, se tiene que
k=0


1

1
.
(I A) 6
1 kAk
Demostraci
on. Es solo calculo y se deja a cargo del lector.

Teorema 3.5 Sean A, B M (n n, R) tales que kI ABk


 < 1 entonces
P A y B tienen

P
k

k
1
inversas, las cuales son dadas por A1 = B
y
B
=
A,
(I

AB)
k=0
k=0 (I AB)
respectivamente,.
Demostraci
on. Directa desde el teorema anterior.
Definici
on 3.2 Sea A M (n n, R) , decimos que C es un valor propio de A si la
matriz A I no es invertible, en otras palabras, es soluci
on de la ecuaci
on polinomial
pA () = det (A I) = 0,

100

Sergio Plaza

donde p () es el polinomio caracterstico de A . Se define el espectro de A como el conjunto


de sus valores propios, es decir,
(A) = { C : valor propio de A} .
Observaci
on. El polinomio caracterstico de A , p() , tiene grado menor o igual a n .
Definici
on 3.3 Sea A M (n n, R) , definimos el radio espectral de A por
(A) = max { || : (A)} .
Observaci
on. Geometricamente (A) es el menor radio tal que el crculo centrado en el origen
en el plano complejo con radio (A) contiene todos los valores propios de A .

Observaci
on. Si = a + ib C , su valor absoluto o norma es dado por | | = a2 + b2 .
Teorema 3.6 Se tiene (A) = inf kAk , donde el nfimo es tomado sobre todas las normas
matriciales definidas sobre el espacio vectorial M (n n, R) .
Observaci
on. Desde la definicion de las norma matriciales || || y || ||1 vemos que calcularlas
para una matriz dada es f
acil. Para lo norma || ||2 el calculo no es tan sencillo, pero tenemos
el siguiente resultado.
Teorema 3.7 Sea A M (n n, R) . Entonces

1/2
,
||A||2 = max || : (AT A)

en otras palabras, ||A||2 es la raz cuadrada del mayor valor propio de la matriz AT A .
Corolario 3.1 Si A M (n n, R) es simetrica, entonces
||A||2 = max{|| : (A)} .

3.2

N
umero de condici
on

Consideremos el sistema Ax = b , donde A es una matriz invertible, por lo tanto tenemos que
on exacta.
xT = A1 b es la soluci
Caso 1: Se perturba A1 para obtener una nueva matriz B , la soluci
on x = A1 b resulta
perturbada y se obtiene un vector xA = Bb que debera ser una solucion aproximada al sistema
original. Una pregunta natural es que ocurre con E(xA ) = kxT xA k ? Tenemos
kxT xA k = kxT Bbk = kxT BAxT k = k(I BA) xT k 6 kI BAk kxT k
de donde obtenemos que
E (xA ) = kxT xA k 6 kI BAk kxT k

101

Sergio Plaza

y para el error relativo ER (xA ) , tenemos


ER (xA ) =

kxT xA k
6 kI BAk .
kxT k

Caso 2: Si perturbamos b para obtener un nuevo vector bA . Si xT satisface Ax = b y xA


satisface Ax = bA . Una pregunta natural es determinar cotas para E(xA ) = kxT xA k y
T xA k
ER (xA ) = kxkx
. Tenemos que
Tk




kxT xA k = A1 b A1 bA = A1 (b bA ) 6 A1 kb bA k ,

por lo tanto

E (xA ) 6 kA1 k kb bA k = kA1 k E (bA ) ,


esto es,

y por otro lado se tiene



E (xA ) 6 kb bA k = A1 E (bA ) ,

(3.3)






kb bA k
kb bA k
kxT xA k 6 A1 kb bA k = A1 kAxT k
6 A1 kAk kxT k
kbk
kbk

luego

ER (xT ) =
esto es,



kb bA k
kxT xA k
6 A1 kAk
= A1 kAk ER (bA ) .
kxT k
kbk
ER (xA ) 6 ||A1 || ||A||ER (bA .

(3.4)

Definici
on 3.4 Sea A M (n n, R) una matriz invertible, el n
umero condici
on de A es
dado por


(3.5)
(A) = kAk A1 .
Observaci
on. Note que (A) > 1 , pues es evidente que (I) = 1 y que
1 = ||I|| 6 ||A|| ||A1 || = (A).
Ejemplo 49 Considere

A=

1
1

1+
1

con > 0, suficientemente peque


no. Tenemos que det(A) = 2 0 es muy peque
no, lo cual
significa que A es casi singular. Como

102

Sergio Plaza

A1 = 2

1
1
1 +
1



obtenemos que kAk = 2 + , A1 = 2 (2 + ) , por lo tanto
(A) =

(2 + )2
4
> .
2

Observe que si < 0.0001 , entonces k (A) > 40.000 .


Ejemplo 50 Consideremos la matriz
A=

1
1

1
1.00000001

Tenemos
1

1.0 108
1.0 108

1.0 108
1.0 108

Luego, ||A||1 = ||A||2 ||A|| = 2 , ||A1 ||1 = ||A1 || ||A1 ||2 2 108 , luego
1 (A) = (A) 4 108 .
Observaci
on. Si (A) es demasiado grande diremos que A esta mal condicionada.
Ejemplo 51 Consideremos la matriz

A=

1
0
..
.
0
0

1 1
1 1
..
..
..
.
.
.
0
0
0
0

1
1
..
.
1
1

La matriz A tiene solo unos en su diagonal, y sobre ella tiene s


olo menos unos. Tenemos que
det(A) = 1 , pero (A) = n2n1 , esta matriz esta mal condicionada.
Si resolvemos Ax = b numericamente no obtenemos una solucion exacta, xT , si no una
solucion aproximada xA . Una pregunta natural al resolver numericamente el sistema es que
tan cerca esta AxA de b ?
Para responder dicha interrogante definamos r = b AxA como el vector residual y e =
xT xA como el vector de error.
Observaci
on. Tenemos que
1. Ae = r.
2. xA es solucion exacta de AxA = bA = b r .

103

Sergio Plaza

Que relacion existe entre

k xT xA k
k xT k

k bbA k
k bk

k rk
k bk

Teorema 3.8 Para toda matriz invertible A M (n n, R) , se tiene que


k xT xA k
k b bA k
1 k b bA k
6
6 (A)
,
(A) k bk
k xT k
k bk

(3.6)

1 krk
kek
krk
6
6 (A)
.
(A) k b k
k xT k
k bk

(3.7)

es decir,

Observaci
on. Si tenemos una matriz B escrita en la forma
B = A(I + E)
donde I denota la matriz identidad y E es una matriz de error, entonces se tienen las siguientes
cotas para el error relativo

si ||AE|| < 1 y

||xT xA ||
(A)
||AE||
6
||AE|| ||A||
||xT ||
1 (A) ||A

(3.8)

||E||
||xT xA ||
6
||xT ||
1 ||E||

(3.9)

si ||E|| < 1 .
Observaci
on. Sea A M (n n, R) . Denotemos por max y min q
, respectivamente, el

maximo y el mnimo de los valores propios de AAT . Entonces 2 (A) =


Ejemplo 52 Determine ||A||2 , ||A1 ||2 y 2 (A) , donde

3
1

3
3

A=

0
3
Tenemos que

Luego

AT =

3
1

10
3

AAT I =

3

8

max
min

104

Sergio Plaza

Por lo tanto, det(AAT I) = 2 6 + 8 , de donde los valores propios de AAT son = 2


y = 4 , es decir, min = 2 y max = 4 . Luego
||A||2 =
y se tiene que 2 (A) =

3.3

2
2

p
max = 2

||A1 ||2 =

1
1
= ,
min
2

2.

Soluci
on de sistemas de ecuaciones lineales: m
etodos
directos

En esta parte estudiaremos metodos directos, es decir, algebraicos, para resolver sistemas de

ecuaciones lineales. Herramienta fundamental aqu es el Algebra


Lineal.

3.3.1

Conceptos b
asicos

La idea es reducir un sistema de ecuaciones lineales a otro que sea mas sencillo de resolver.
Definici
on 3.5 Sean A, B M (n n, R) . Decimos que dos sistemas de ecuaciones lineales
Ax = b y Bx = d son equivalentes si poseen exactamente las mismas soluciones.
Por lo tanto si podemos reducir un sistema de ecuaciones lineales Ax = b a un sistema
equivalente y mas simple Bx = d , podemos resolver este u
ltimo, y obtenemos de ese modo las
soluciones del sistema original.
Definici
on 3.6 Sea A M (n n, R) . Llamaremos operaciones elementales por filas sobre A
a cada una de las siguientes operaciones
1. Intercambio de la fila i con la fila j , denotamos esta operaci
on por Fi Fj .
2. Reemplazar la fila i, Fi , por un m
ultiplo no nulo Fi de la fila i , denotamos esta
operaci
on por Fi 7 Fi
3. Reemplazar la fila i , Fi , por la suma de la fila i m
as un m
ultiplo no nulo Fj de la fila
j , i 6= j , denotamos esta operaci
on por Fi 7 Fi + Fj
Definici
on 3.7 Decimos que una matriz A es una matriz elemental si ella se obtiene a partir
de la matriz identidad a traves de una u
nica operaci
on elemental. Una matriz elemental ser
a
denotada por E .

Ejemplo 53

1
2. 0
0

1 0

1.
0 1
0 0

0
1 0

F3 F2
0
0 0
1
0 1

0 0
1
1 0 F2 7 rF2 0
0
0 1

0 0
r 0
0 1

0
1 .
0

105

Sergio Plaza

1
3. 0
0

0 0
1
1 0 F3 7 F3 + rF2 0
0
0 1

0
1
r

0
0
1

Observaci
on.
Si a una matriz A se le aplican una serie de operaciones elementales
E1 , E2 , . . . , Ek denotaremos el resultado por Ek Ek1 E2 E1 A .
Ademas, si Ek Ek1 E2 E1 A = I , se tiene que A posee inversa y Ek Ek1 E2 E1 = A1 .

El teorema siguiente resume las condiciones para que una matriz tenga inversa.
Teorema 3.9 Sea A M (n n, R) entonces son equivalentes
1. A tiene inversa.
2. det (A) 6= 0.
3. Las filas de A forman una base de Rn .
4. Las columnas de A forman una base de Rn .
5. La transformaci
on lineal T : Rn Rn dada por T (x) = Ax , asociada a la matriz A ,
es inyectiva,
6. La transformaci
on T : Rn Rn dada por T (x) = Ax , asociada a la matriz A , es
sobreyectiva
7. El sistema Ax = 0 , donde x Rn posee soluci
on u
nica x = 0 .
8. Para cada b Rn existe un u
nico vector x Rn tal que Ax = b .
9. A es producto de matrices elementales.
10. Todos los valores propios de A son distinto de cero.

3.4

Factorizaci
on de matrices

En esta seccion estudiaremos las condiciones necesarias para que una matriz A M (n n, R)
tenga una factorizacion de la forma LU donde L, U M (nn, R) , con L una matriz triangular
inferior y U una matriz triangular superior.
Observe que si A M (nn, R) tiene una factorizacion de la forma LU como arriba, entonces
el sistema de ecuaciones lineales Ax = b , con x, b Rn , puede resolverse de una manera mas
sencilla, para ello consideramos el cambio de variable U x = z , y resolvemos primero el sistema
Lz = b primero y enseguida resolvemos el sistema U x = z , obteniendo as la soluci
on del
sistema original, es decir,

Lz = b
Ax = b L |{z}
U x = b
Ux = z .
z

Supongamos que A M (n n, R) tiene una descomposicion de la forma LU como arriba,


con

106

Sergio Plaza

L=

l11
l21
..
.
ln1

0
l22
..
.
ln2

0
0
..
.

..
.

0
0
..
.

lnn1

lnn

y U =

u11
0
..
.
0

u12
u22
..
.
0

..
.
0

u1n1
u2n1
..
.

u1n
u2n
..
.
unn

(3.10)

De esta descomposici
on tenemos
n
Y

det(A) = det(L) det(U ) =

i=1

lii

n
Y

i=1

uii

(3.11)

as, det(A) 6= 0 si y solo si lii 6= 0 y uii 6= 0 para todo i = 1, . . . , n .


Para simplificar la notaci
on, escribamos
T

L = (F1 F2 . . . Fn )

U = (C1 C2 Cn ) ,

donde Fi = (li1 li2 lii 0 0) y Ci = (u1i u2i uii 0 0)T , son las filas de L y
las columnas de U , respectivamente.
Ahora, al desarrollar la multiplicaci
on A = LU ,

a11
a21
..
.

a21
a22
..
.

..
.

a1n
a2n
..
.

an1

an2

ann

F1
F2
..
.
Fn

(C1 C2 Cn ) =

F1 C1
F2 C1
..
.

F1 C2
F2 C2
..
.

..
.

F1 Cn
F2 Cn
..
.

Fn C1

Fn C2

Fn Cn

donde Fi Cj es considerado como el producto de las matrices Fi = (li1 li2 lii 0 0) y


T
Ci = (u1i u2i uii 0 0) . Tenemos entonces

a11 = F1 C1 = l11 u11

a12 = F1 C2 = l11 u12


.. .. ..

. . .

a1n = F1 Cn = l11 u1n

(3.12)

de aqu, vemos que si fijamos l11 6= 0 , podemos resolver las ecuaciones anteriores para u1i ,
i = 1, . . . , n . Enseguida, para la segunda fila de A tenemos

a21 =

a22 =
.. ..

. .

a2n =

F2 C1 = l21 u11
F2 C2 = l21 u12 + l22 u22
..
.

(3.13)

F2 Cn = l21 u1n + l22 u2n

como u11 ya lo conocemos desde las ecuaciones (3.12), podemos encontrar el valor l21 , conocido
este valor, fijando un valor no cero para l22 , y dado que conocemos los valores u1i para
i = 2, . . . , n , podemos encontrar los valores de u2i para i = 2, . . . , n . Siguiendo este metodo
vemos que es posible obtener la descomposicion de A en la forma LU . Note que tambien

107

Sergio Plaza

podemos comparar las columnas de A con aquellas obtenidas desde el producto LU y proceder
a resolver las ecuaciones resultantes. El problema es ahora saber bajo que condiciones dada
una matriz A ella puede descomponerse en la forma LU , es decir, siempre y cuando podamos
hacer las elecciones anteriores.

10 3 6
Ejemplo 54 Sea A = 1
8 2 . Encontremos una descomposicion LU para A .
2 4 9
Escribamos


u11 u12 u13
l11 0
0
10 3 6
1
8 2 = l21 l22 0 0 u22 u23
2

l31

l32

l33

u33

desarrollando, obtenemos que

l11 u11
l u
11 12
l11 u13

=
=
=

10
3
6

de aqu fijando un valor no cero para l11 , digamos l11 = 2 , obtenemos que u11 = 5 , u12 = 23 ,
y u13 = 3 . Enseguida tenemos las ecuaciones

l21 u11
l21 u12 + l22 u22

l21 u13 + l22 u23

= 1
= 8
= 2

como u11 = 5 se tiene que l21 = 15 . Ahora fijamos el valor de l22 = 1 y obtenemos los valores
83
, y u23 = 13
ltima fila de A , nos queda
u22 = 10
5 . Finalmente, para la u

l31 u11
l31 u12 + l32 u22

l31 u13 + l32 u23 + l33 u33

= 2
= 4
= 2

como u11 = 5 de la primera ecuacion l31 = 52 , reemplazando los valores de l31 = 52 ,


83
34
u12 = 32 y u22 = 10
en la segunda ecuacion encontramos que l32 = 83
. Ahora, reemplazando
los valores ya obtenidos en la tercera ecuacion obtenemos que l33 u33 = 1694
415 , para encontrar el
1
valor de u33 podemos fijar el valor de l33 , digamos l33 = 415 , y obtenemos que u33 = 1604 .
Tenenmos as una descomposicion LU para la matriz A , es decir,

10 3 6

1
8 2 =

2 4 9

2
1
5

3
5

0
1
34
83

0
0

0
415

3
2

83
10
0

13
.

1604

No siempre es posible encontrar una descomposicion de la forma LU para una matriz A


dada, esto se muestra en el siguiente ejemplo.

108

Sergio Plaza

Ejemplo 55 La matriz A =
que det(A) 6= 0 .

0 1
1 1

no tiene descomposicion de la forma LU . Notemos

Para verlo supongamos que podemos escribir A = LU , donde

L=

l11
l21

0
l22

u11
0

u12
u22



u11
0

u12
u22

y U=

Tenemos entonces que




0 1
1 1

l11
l21

0
l22

de donde l11 u11 = 0 , por lo tanto

l11 = 0 () o u11 = 0 ().


Como l11 u12 = 1 , no es posible que (*) sea verdadero, es decir, debemos tener que l11 6= 0 ,
en consecuencia se debe tener que u11 = 0 , pero adem
as se tiene que u12 6= 0 . Ahoram, como
on. Luego tal descomposici
on para A no puede existir.
l21 u11 = 1 , llegamos a una contradicci
En el algoritmo que vimos para buscar la descomposici
on de una matriz A en la forma LU ,
en los sucesivos paso fue necesario fijar valores no cero para los coeficientes lii de L , de modo a
poder resolver las ecuaciones resultantes. Tambien, si procedemos con el algoritmo a comparar
las columnas de la matriz producto LU con las columnas de A , vemos que ser
a necesario fijar
en paso sucesivos valores no cero para los coeficientes uii de U , de modo a poder resolver las
ecuaciones resultantes. Como es evidente existe una manera simple de hacer esto, por ejemplo
si en el primer algoritmo fijamos los valores lii = 1 para i = 1, . . . , n , decimos que tenemos una
descomposici
on LU de Doolitle para A , y si en el segundo algoritmo fijamos los valores uii = 1
para i = 1, . . . , n , decimos que tenemos una descomposici
on LU de Crout para A , finalmente
si fijamos U = LT (transpuesta de L) se tiene que lii = uii , y decimos que tenemos una
descomposici
on LU de Cholesky para A . Note que para la existencia de descomposicion de
Cholesky es necesario que A sea simetrica, pues si A = LLT entonces AT = A , esto significa
que es una condici
on necesario, pero una no es una condici
on suficiente.
Sobre la existencia de descomposicion LU para una matriz A veremos a continuacion algunos
teoremas. Primero recordemos que si

A=

a11
a21
..
.
an1

a21
a22
..
.
an2

..
.

a1n
a2n
..
.
ann

nn

entonces los menores principales de A son las submatrices Ak , k = 1, . . . , n , definidas por

109

Sergio Plaza

A1

(a11 )11 , A2 =

a11
a21

a21
a22

. . . , An = A .

22

, . . . , Ak =

a11
a21
..
.

a21
a22
..
.

..
.

a1k
a2k
..
.

ak1

ak2

akk

,
kk

Teorema 3.10 Si los n menores principales de una matriz A tienen determinante distinto
de cero, entonces A tiene una descomposici
on LU .
Para tener descomposicion de Cholesky, recordemos algunos conceptos y resultados.
Definici
on 3.8 Sea A M (n n, R) . Decimos que A es definida positiva si hAx, xi > 0
para todo x Rn , con x 6= 0 .
Ejemplo 56 La matriz

2 1 0
A = 1 2 1
0 1 2
T

es definida positiva. En efecto considere x = (x y z) , tenemos

2 1 0
x
hx, Axi = (x, y, z) 1 2 1 y = 2x2 2xy + 2y 2 2yz + 2z 2 .
0 1 2
z
Luego,
hx, Axi

= 2x2 2xy + 2y 2 2yz + 2z 2


2
2
= x2 + (x y) + (y z) + z 2 > 0,

para todo (x, y, z) 6= (0, 0, 0) .


Teorema 3.11 Si A M (n n, R) es definida positiva entonces todos sus valores propios
son reales y positivos.
Observaci
on. Si A M (n n, R) entonces podemos descomponer A de manera u
nica

como la suma de una matriz simetrica, A0 = 12 A + AT , y una matriz antisimetrica, A1 =

1
T
. Desde la definicion de matriz positiva definida se tiene que hAx, xi = hA0 x, xi ,
2 AA
por lo cual s
olo necesitamos considerar matrices simetricas.
Teorema 3.12 Sea A M (n n, R) , entonces A es positiva definida si y s
olo si todos los
menores principales de A tiene determinante positivo.
Teorema 3.13 Sea A M (n n, R) , entonces A simetrica y positiva definida si y s
olo si
A tiene una descomposici
on de Cholesky.

110

Sergio Plaza

Ejemplo 57 La matriz

2 1 0
A = 1 2 1
0 1 2
es definida positiva, pues se tiene que det (A1 ) = 2 > 0 , det (A2 ) = det
y det (A3 ) = det (A) = 4 > 0 . Luego tiene descomposicion de Cholesky.

2 1
1 2

=3>0

Ahora, para encontrar la descomposicion de Cholesky para esta matriz procedemos como
sigue.

l11
2 1 0
1 2 1 = l21
l31
0 1 2

l11
0
0 0
0
l33

0
l22
l32

l21
l22
0

l31
l32
l33

2
= 2 , es decir, l11 = 2 ; 1 = l11 l21 , de donde l21 = 22 ; 0 = l11 l31 , de
Luego, l11

2
2
= 2 , de donde l22 = 52 ; l21 l31 + l22 l32 = 1 , de donde l32 = 25 ;
+ l22
donde l31 = 0 ; l21

2
2
2
l31
+ l32
+ l33
= 2 , de donde l33 =

2 2
5

Por lo tanto
2
2 1 0

2
1 2 1 =
2
0 1 2
0

3.5


2 22
0
5

0
0

5
2

25

2 2
5

25
.

2 2
5

M
etodo de eliminaci
on gaussiana

En esta seccion estudiaremos el metodo de eliminaci


on gaussiana para resolver sistemas de
ecuaciones lineales

a11
a21
..
.
an1

a21
a22
..
.
an2

..
.

a1n
a2n
..
.
ann

b1
b2
..
.
bn

a1n
a2n
..
.
ann

b1
b2
..
.
bn

x1
x2
..
.
xn

Colocamos primero esta informaci


on en la forma

A b =

a11
a21
..
.
an1

a12
a22
..
.
an2

..
.

F1
F2

.
..
Fn

esto es, consideramos la matriz aumentada del sistema. En la notacion anterior, los smbolos
Fi denotan las filas de la nueva matriz.

111

Sergio Plaza

Si a11 6= 0 , el primer paso de la eliminaci


on gaussiana consiste en realizar las operaciones
elementales
(Fj mj1 F1 ) Fj , donde mj1 =

aj1
, j = 2, 3, ..., n .
a11

(3.14)

Estas operaciones transforman el sistema en otro en el cual todos los componentes de la


primera columna situada bajo la diagonal son cero.
Podemos ver desde otro punto de vista el sistema de operaciones. Esto lo logramos simult
aneamente al multiplicar por la izquierda la matriz original A por la matriz

M (1) =

1
m21
..
.
mn1

0
1
.. . .
.
.
0

0
0
..
.
1

(3.15)

Esta matriz recibe el nombre de primera matriz gaussiana de transformaci


on. El producto
(1)
(1)
(2)
(1)
de M
con la matriz A = A lo denotamos por A
y el producto de M
con la matriz
b(1) = b lo denotamos por b(2) , con lo cual obtenemos
A(2) x = M (1) Ax = M (1) b = b(2)

(3.16)
(2)

De manera an
aloga podemos construir la matriz M (2) , en la cual si a22 6= 0 los elementos situados bajo de la diagonal en la segunda columna con los elementos negativos de los
multiplicadores
(2)

mj2 =

aj2

(2)

a22

j = 3, 4, . . . , n

(3.17)

As obtenemos
A(3) x = M (2) A(2) x = M (2) M (1) Ax = M (2) M (1) b = b(3)

(3.18)

En general, con A(k) x = b(k) ya formada, multiplicamos por la kesima matriz de transformacion gaussiana

M (k)

para obtener

1
0

=
.
.
.

0
1
..

1
0

..

0
..
.

mk+1 k
..
.

..
.
0 mn k

..
0
0

..
.

.
0

0
1

112

Sergio Plaza

A(k+1) x = M (k) A(k) x = M (k) M (1) Ax = M (k) b(k) = b(k+1) = M (k) M (1) b

(3.19)

Este proceso termina con la formacion de un sistema A(n) x = b(n) , donde A(n) es una matriz
triangular superior

(1)
(1)
(1)
a11 a12
a1n

(2)
(2)

a22 . . .
a2n

..

.
(n)
..
.
A =

.
.
(n1)
..
..
..
an1 n
.

(n)

ann

dada por
A(n) = M (n1) M (n2) M (n3) M (1) A.

(3.20)

El proceso que hemos realizado solo forma la mitad de la factorizaci


on matricial A = LU ,
donde con U denotamos la matriz triangular superior A(n) . Si queremos determinar la matriz
triangular inferior L , primero debemos recordar la multiplicaci
on de A(k) x = b(k) mediante la
(k)
transformacion gaussiana M
con que obtuvimos
A(k+1) x = M (k) A(k) x = M (k) b(k) = b(k+1)
para poder revertir los efectos de esta transformacion debemos considerar primero la matriz
1
, la cual esta dada por
L(k) = M (k)

L(k) = M (k)

1

1 0
0 1
..
.
..
.
..
.
..
.
0


..
.

1
0

..

..
.
0

mk+1 k
..
.
mn k

.
..
0
0

0
..
.

..

. .

..
. 0
0
1

Por lo tanto si denotamos


L = L(1) L(2) L(n1)
obtenemos
LU = L(1) L(2) L(n1) M (n1) M (n2) M (n3) M (1) = A.
Con lo cual obtenemos el siguiente resultado.

113

Sergio Plaza

Teorema 3.14 Si podemos efectuar la eliminaci


on gaussiana en el sistema lineal Ax = b sin
intercambio de filas, entonces podemos factorizar la matriz A como el producto de una matriz
triangular inferior L y una matriz triangular superior U , donde

U =

(1)

a11
0
..
.
0

(1)

a12

(2)

a22
..
.

..
.
..
.
0

(1)

a1n
..
.

(n1)
an1 n
(n)
ann

L=

m21
..
.
mn1

1
..
.

..
.
..

mn n1

0
..
.
.

0
1

Ejemplo 58 Consideremos el siguiente sistema lineal


x + y + 3w
2x + y z + w
3x y z + w
x + 2y + 3z w

= 4
= 1
= 3
= 4

Si realizamos las siguientes operaciones elementales F2 7 (F E2 2F1 ) , F3 7 (F3 3F1 ) ,


F4 7 (F4 (1) F1 ) , F3 7 (F3 4F2 ) , F4 7 (F4 (3) F2 ) con lo que obtenemos el sistema triangular
x + y + 3w
y z 5w
3z + 13w
13w

=
4
= 7
= 13
= 13

Por lo tanto la factorizaci


on LU esta dada por

1
0
1
1
0
3

2
1
1 1 1 2
A=
3 1 1 2 = 3
4
1 3
1 2
3 1
{z
|

0
0
1
0

1 1
0
3
0

0
0 1 1 5 = LU.

0 0
3
13
0
0 0
0 13
1
}|
{z
}
U

Esta factorizacion nos permite resolver facilmente todo sistema que posee como matriz asociada la matriz A . As, por ejemplo, para resolver el sistema

1
0
2
1
Ax = LU x =
3
4
1 3

0
0
1
0

1
0
0
0

0 0
0
1

x
1
0
3
y
1 1 5

0
3
13 z
w
0
0 13

8
7

=
14
7

primero realizaremos la sustituci


on y = U x . Luego resolvemos Ly = b , es decir,

1
0
2
1
LU x = Ly =
3
4
1 3

0
0
1
0

0
y1
y2
0

0 y3
1
y4

8
7
=

14 .
7

114

Sergio Plaza

Este sistema se resuelve para y mediante un simple proceso de susbtitucion hacia adelante,
con lo cual obtenemos

8
y1
y2 9

y=
y3 = 26
y4
26

Por ultimo resolvemos U x = y , es decir, resolvemos el sistema por un proceso de susbtitucion


hacia atras

1
0
Ux =
0
0

1
0
3
x
y
1 1 5

0
3
13 z
w
0
0 13

8
9

=
26
26

el cual tiene por soluci


on

que es la solucion buscada.

3.6


x
3
y 1

x=
z = 0
2
w

Eliminaci
on gaussiana con pivoteo

Al resolver un sistema lineal Ax = b , a veces es necesario intercambiar las ecuaciones, ya sea


porque la elimninaci
on gaussiana no puede efectuarse o porque las soluciones que se obtienen
no corresponden a as soluciones exactas del sistema. Este proceso es llamado pivoteo y nos
lleva a la descomposicion P A = LU del sistema. As el sistema se transforma en LU x = P b
y resolvemos entonces los sistemas


Ux =
Lz =

z
Pb

donde P es una matriz de permutaci


on, es decir, es una matriz obtenida a partir de la matriz
identidad intercambiando algunas de sus filas. M
as precisamente.
Definici
on 3.9 Una matriz de permutaci
on P M (n n, R) es una matriz obtenida desde
la matriz identidad por permutaci
on de sus filas.
Observaci
on. Las matrices de permutacion poseen dos propiedades de gran utilidad que se
relacionan con la eliminaci
on gaussiana. La primera de ellas es que al multiplicar por la izquierda
una A por una matriz de permutaci
on P , es decir, al realizar el producto P A se permutan las
filas de A . La segunda propiedad establece que si P es una matriz de permutaci
on, entonces
P 1 = P T .

115

Sergio Plaza

Si A M (n n, R) es una matriz invertible entonces podemos resolver el sistema lineal


Ax = b va eliminaci
on gaussiana, sin excluir el intercambio de filas. Si conocieramos los intercambios que se requieren para resolver el sistema mediante eliminacion gaussiana, podramos
arreglar las ecuaciones originales de manera que nos garantice que no se requieren intercambios
de filas. Por lo tanto, existe un arreglo de ecuaciones en el sistema que nos permite resolver el
sistema con eliminacion gaussiana sin intercambio de filas. Con lo que podemos concluir que
si A M (n n, R) es una matriz invertible entonces existe una matriz de permutacion P
para la cual podemos resolver el sistema P Ax = P b , sin hacer intercambios de filas. Pero
podemos factorizar la matriz P A en P A = LU , donde L es una triangular inferior y U
triangular superior, y P es una matriz de permutaci
on. Dado que P 1 = P T obtenemos que

T
T
A = P L U . Sin embargo, la matriz P L no es triangular inferior, salvo que P = I .
Supongamos que tenemos el sistema

a11
a21
..
.
an1

a12
a22
..
.
an2

..
.

a1n
a2n
..
.
ann

x1
x2
..
.
xn

b1
b2
..
.
bn

(3.21)

Se define la escala de cada fila como


si = max{|ai1 |, |ai2 |, . . . , |ain |} ,

1 6 i 6 n.

(3.22)

Elecci
on de la fila pivote. Elegimos como fila povote la fila para la cual se tiene que
|ai0 1 |
si0

(3.23)

es el mayor.
Intercambiamos en A la fila 1 con la fila i0 , esto es, realizamos la operaci
on elemental
F1 Fi0 . Esto nos produce la primera permutaci
on. Procedemos ahora a producir ceros
bajo la primera columna de la matriz permutada, tal como se hizo en la eliminaci
on gaussiana.
Denotamos el ndice que hemos elegido por p1 , este se convierte en la primera componente de
la permutaci
on.
M
as especificamente, comenzamos por fijar
p = (p1 p2 . . . pn ) = (1 2 . . . n)

(3.24)

como la permutaci
on antes de comenzar el pivoteo. As la primera permutaci
on que hemos
hecho es


1
i0

2 . . . i0
2 ... 1

... n
... n

Para fijar las ideas, comenzamos con la permutaci


on (p1 p2 . . . pn ) = (1 2 . . . n) . Primero
seleccionamos un ndice j para el cual se tiene

116

Sergio Plaza

|apj j |
,
spj

26j6n

(3.25)

es el mayor, y se intercambia p1 con pj en la permutaci


on p . Procedemos a la elmincaci
on
gaussiana, restando
api 1
Fp1
ap1 1
a las filas pi , 2 6 i 6 n .
En general, supongamos que tenemos que producir ceros en la columna k . Impeccionamos
los n
umeros
|api k |
,
spi

k6i6n

(3.26)

y buscamos el mayor de ellos. Si j es el ndice del primer cuociente mas grande, intercambiamos
on p y las filas Fpk con la fila Fpj en la matriz que tenemos en
pk con pj en la permutaci
esta etapa de la eliminacion gaussianapivoteo. Enseguida producimos ceros en la columna pk
bajo el elemento apk k , para ellos restamos
api k
Fpk
apk k
de la fila Fpi , k + 1 6 i 6 n , y continuamos el proceso hasta obtener una matriz triangular
superior.
Veamos con un ejemplo especfico como podemos ir guardando toda la informaci
on del proceso
que vamos realizando en cada etapa del proceso de eliminacion gaussianapivoteo
Ejemplo 59 Resolver el sistema de ecuaciones lineales

2
1
3


3 6
x
1

=
6 8
y
1
z
2 1
1

Soluci
on. Primero calculemos la escala de las filas. Tenemos

s1

s2

s3

max{|2|, |3|, | 6|} = 6

max{|1|, | 6|, |8|} = 8

max{|3|, | 2|, |1|} = 3

permutaci
on inicial p = (1 2 3) . Denotemos por s el vector de la escala de las filas, es decir,
s = (6 8 3) .
Eleccion de la primera fila pivote:

117

Sergio Plaza

|a11 |
s1
|a21 |
s2
|a31 |
s3

1
2
=
6
3
1
8

=
=
=

1,

luego j = 3 . Antes de proceder a intercambiar la fila F1 con la fila F3 guardamos la informacion en la forma siguiente

3 6 1
6 8 1
2 1 1

2
1
3

6
8
3

1
2
3

donde la primera parte de esta matriz representa a la matriz A , la segunda al vector b , la


tercera al vector s y la u
ltima a la permutaci
on inicial p = (1 2 3) . Como j = 3 intercambianos
las filas F1 F3 y obtenemos

3
1
2

2 1 1
6 8 1
3 6 1

3
8
6

3
2
1

en la parte (A|b) de la matriz arriba procedemos a hacer eliminacion gaussiana. Los multiplicadores son m21 = 31 y m31 = 23 , obtenemos as

16
3

23
3

2
3

13
3

20
3

1
3

3 3

8 2

6 1

Agregamos la informaci
on de los multiplicadores a esta estructura como sigue

3 3

16
3

23
3

2
3

8 2

1
3

13
3

20
3

1
3

6 1

2
3

Ahora determinamos la nueva fila pivote. Recuerde que la primera fila de esta nueva matriz
permanece inalterada, y solo debemos trabajar con las filas restantes. Para determinar la nueva
fila pivote, calculamos

118

Sergio Plaza

como

13
18

>

2
3

|ap2 2 |
sp2

|ap3 2 |
sp3

16
3

8
13
3

16
2
=
24
3

13
18

la nueva fila pivote es la fila 3. Intercambiando F2 F3 nos queda

13
3

20
3

1
3

6 1

2
3

16
3

23
3

2
3

8 2

1
3

3 3

16

16
El multiplicador es m32 = 133 = 13
. Agregando la informaci
on del nuevo multiplicador y
3
aplicando eliminaci
on gaussiana, nos queda

3 3

13
3

20
3

1
3

6 1

2
3

7
13

94
117

8 2

1
3

16
13

De esto, el sistema a resolver es

La matriz L es

0
|

13
20

y = 3
3
3


94

7
z
0
117
{z 13 }
U

y la matriz de permutaci
on P es

L= 3

1
3

0
1

16
13

0 0
P = 1 0
0 1

1
0
0

119

Sergio Plaza

Ahora es f
acil verificar que P A = LU .
Ejemplo 60 Consideremos la matriz

0 1 1
1 1 2

1 0 3
2 1 3

0
1
A=
1
1

puesto que a11 = 0 la matriz no posee una factorizacion LU . Pero si realizamos el intercambio
de filas F1 F2 , seguido de F3 7 (F3 F1 ) y de F4 7 (F4 F1 ) obtenemos

1 1 2
0 1 1
.
0 1 1
1 0 1

1
0

0
0

Realizando las operaciones elementales F2 F4 y F4 7 (F4 + F3 ) , obtenemos

1
0
U =
0
0

1 1 2
1 0 1
.
0 1 1
0 0 2

La matriz de permutaci
on asociada al cambio de filas F1 F2 seguida del intercambio de
filas F2 F4 es

0
0
P =
0
1

1
0
0
0

0
0
1
0

0
1
.
0
0

La eliminaci
on gaussiana en P A se puede realizar sin intercambio de filas usando las operaon LU
ciones F2 7 (F2 F1 ) , F3 7 (F3 F1 ) y (F4 + F3 ) 7 F4 , esto produce la factorizaci
de P A

1
1
PA =
1
0

1
2
1
0

1
1
0
1


1
2
1
3
=
3 1
0
2

0
1
0
0

0
0
1
1

1
0
0
0

0 0
0
1

1 1 2
1 0 1
= LU.
0 1 1
0 0 2

Al multiplicar por P 1 = P T obtenemos la factorizaci


on

0
1

T
A= P L U =
1
1

0
0
0
1

1
0
1
0

1
1
0
0

0 0
0
0

1
1
0
0

1
0
1
0

2
1
.
1
2

120

Sergio Plaza

3.7

Matrices especiales

En esta seccion nos ocuparemos de clases de matrices en las cuales podemos realizar la eliminacion gaussiana sin intercambio de filas.
Decimos que una matriz A M (n n, R) es diagonal dominante si
|aii | >

n
X

j = 1
j 6= i

|aij |

para todo i = 1, 2, . . . , n .
Ejemplo 61 Consideremos las matrices

7 2
A= 3 5
0 5

0
1
6

6
4 3
B = 4 2 0 .
3 0
1

La matriz A es diagonal dominante y la matriz B no es diagonal dominante, pues por


ejemplo |6| < |4| + |3| = 7 .
Teorema 3.15 Toda matriz A M (n n, R) diagonal dominante tiene inversa, m
as aun,
en este caso podemos realizar la eliminaci
on gaussiana de cualquier sistema lineal de la forma
Ax = b para obtener su soluci
on u
nica sin intercambio de filas, y los c
alculos son estables
respecto al crecimiento de los errores de redondeo.
Teorema 3.16 Si A M (n n, R) es una matriz definida positiva entonces
1. A tiene inversa.
2. aii > 0, para todo i = 1, 2, . . . , n .
3. max16 k, j

6n

|akj | 6 max16 i 6n |aii | .

4. (aij )2 < aii ajj , para todo i 6= j


Teorema 3.17 Una matriz simetrica A es definida positiva si y s
olo si la eliminaci
on gaussiana sin intercambio de filas puede efectuarse en el sistema Ax = b con todos los elementos
pivotes positivos. Adem
as, en este caso los c
alculos son estables respecto al crecimiento de los
errores de redondeo.
Corolario 3.2 Una matriz simetrica A es definida positiva si y s
olo si A puede factorizarse
en la forma LDLT , donde L es una matriz triangular inferior con unos en su diagonal y D
es una matriz diagonal con elementos positivos a lo largo de la diagonal.
Corolario 3.3 Una matriz simetrica A es definida positiva si y s
olo si A puede factorizarse
T
de la forma LL , donde L es una matriz triangular inferior con elementos distintos de cero
en su diagonal.

121

Sergio Plaza

Corolario 3.4 Sea A M (n n, R) una matriz simetrica a la cual puede aplicarse la eliminaci
on gaussiana sin intercambio de filas. Entonces, A puede factorizarse en LDLT , donde
L es una matriz triangular inferior con unos en su diagonal y donde D es una matriz diagonal
(1)
(n)
con a11 , . . . , ann en su diagonal.
Ejemplo 62 La matriz

4
1
1
A = 1 4.25 2.75
1 2.75 3.5

es definida positiva. La factorizaci


on LDLT de la matriz A es

4 0
1
0
0
A = 0.25
1
0 0 4
0 0
0.25 0.75 1

1
0
0 0
0
1

0.25 0.25
1
0.75
0
1

mientras que su descomposicion de Cholesky es

2
0 0
2
A = 0.5 2 0 0
0.5 1.5 1
0

0.5 0.5
2
1.5 .
0
1

Definici
on 3.10 Una matriz A M (n n, R) es llamada matriz banda si existen enteros
p y q con 1 < p, q < n , tales que aij = 0 siempre que i + p 6 j o j + q 6 i . El ancho de la
banda de este tipo de matrices esta dado por w = p + q 1 .

1 2
Ejemplo 63 La matriz A = 2 1
0 1
ancho de banda 3.

0
2 es una matriz de banda con p = q = 2 y con
1

Definici
on 3.11 Una matriz A M (n n, R) se denomina tridiagonal si es una matriz de
banda con p = q = 2 .
Observaci
on. Los algoritmos de factorizaci
on pueden simplificarse considerablemente en el
caso de las matrices de banda.
Para ilustrar lo anterior, supongamos que podemos factorizar una matriz tridiagonal A en
las matrices triangulares L y U . Ya que A tiene solo 3n2 elementos distintos de cero, habra
apenas 3n 2 condiciones aplicables para determinar los elementos de L y U , naturalmente
a condici
on de que tambien se obtengan los elementos cero de A . Supongamos que podemos
encontrar las matrices de la forma

0

0
l11 0
1 u12 0

..
..
. . ..
. . ..
l

0 1
. .
. .
.
.
21 l22

.
.
.
.
.
.
.
.

..
.. .. 0
..
..
..
..
L= 0

y U = ..
.

..
.. ..
..
..
.

.. ..
.
.
.
. un1 n
.
. .
.
0
0
0
ln n1 lnn
0 0
1

122

Sergio Plaza

De la multiplicacion que incluye A = LU , obtenemos


a11 = l11 ;
ai i1 = li i1 para cada i = 2, 3, . . . , n;
aii = li i1 ui1 i + lii para cada i = 2, 3, . . . , n;
ai i+1 = lii ui i+1 para cada i = 1, 2, 3, . . . , n 1;

3.8

Soluci
on de sistemas de ecuaciones lineales: m
etodos
iterativos

En general, puede resultar muy engorroso encontrar la soluci


on exacta a un sistema de ecuaciones lineales, y por otra parte, a veces nos basta con tener buenas aproximaciones a dicha
soluci
on. Para obtener estas u
ltimas usamos metodos iterativos de punto fijo, que en este caso
particular resultan ser mas analizar su convergencia.
Teorema 3.18 Consideremos un metodo iterativo
x(k+1) = Gx(k) + c

(3.27)

donde G M (nn, R) , x, c Rn . Entonces el metodo iterativo es convergente, para cualquier


olo si (G) < 1 . Adem
as, si existe una
condici
on inicial x(0) elegida arbitrariamente si y s
norma k| || en M (n n, R) , en la cual se tiene ||G|| < 1 , entonces el metodo iterativo
converge cualesquiera que sea la condici
on inicial x(0) Rn dada. Si tomamos x(k) como una
aproximaci
on al punto fijo xT del metodo iterativo (3.27), entonces valen las desigualdades
siguientes,



(G)k
(1)

(k)

(3.28)
x x 6
x x(0) .
1 (G)
y



k
(1)

(k)

(3.29)
x x(0) ,
x x 6
1
donde = ||G|| .

Observaci
on. Si el metodo iterativo x(k+1) = Gx(k) + c es convergente y tiene por lmite a
x Rn , entonces


x = lim x(k+1) = G
k

lim x(k)

+ c = Gx + c,

de donde x = (I G)1 c .
Regresemos al problema inicial de resolver el sistema de ecuaciones lineales
Ax = b,
donde A = (aij ) M (n n, R) , b = (b1 , b2 , . . . , bn )T Rn y x = (x1 , x2 , . . . , xn )T Rn
es la inc
ognita.

123

Sergio Plaza

Consideremos una matriz Q M (n n, R) , la cual suponemos tiene inversa. Tenemos que


Ax = b es equivalente a escribir 0 = Ax + b , sumando a ambos miembros de esta u
ltima
igualdad el termino Qx , no queda la ecuacion Qx = Qx Ax + b , multiplicando esta ecuacion
por la izquierda por Q1 obtenemos x = (I Q1 A)x + Q1 b , lo que nos sugiere proponer
el siguiente metodo iterativo para resolver la ecuacion original Ax = b ,
x(k+1) = (I Q1 A)x(k) + Q1 b,

(3.30)

donde x(0) Rn es arbitrario. Sobre la convergencia del metodo propuesto, tenemos el siguiente
corolario.

Corolario 3.5 La f
ormula de iteraci
on x(k+1) = I Q1 A x(k) + Q1 b define una sucesi
on
que converge a la soluci
on de Ax = b , para cualquier condici
on inicial x(0) Rn si y s
olo

si I Q1 A < 1 . Adem
as, si existe una norma k| || en M (n n, R) , en la cual se
tiene ||I Q1 A|| < 1 , entonces el metodo iterativo converge cualesquiera que sea la condici
on
inicial x(0) Rn dada.
Observaci
on La f
ormula de iteraci
on

x(k+1) = I Q1 A x(k) + Q1 b

define un metodo iterativo de punto fijo. En efecto, consideremos la funci


on F : Rn Rn

1
1
definida por F (x) = I Q A x + Q b . Observemos que si x es un punto fijo de F

entonces x es una solucion de la ecuaci
on Ax = b . Ademas, si x = I Q1 A x + Q1 b
entonces se tiene que


x(k) x = I Q1 A x(k1) x ,
por lo tanto






(k)


x x 6 I Q1 A x(k1) x ,

de donde, iterando esta desigualdad obtenemos





k

(k)


x x 6 I Q1 A x(0) x ,





luego si I Q1 A < 1 , se tiene de inmediato que limk x(k) x = 0 para cualquier
x(0) Rn dado.


Observaci
on. La condici
on I Q1 A < 1 implica que las matrices Q1 A y A tienen
inversas.


Teorema 3.19 Si I Q1 A < 1 para alguna norma matricial subordinada en M (n

n, R) , entonces el metodo iterativo x(k+1) = I Q1 A x(k) + Q1 b es convergente
a
una

(0)
n
I Q1 A <
soluci
on de Ax = b , para cualquier vector
inicial
x

R
.
Adem
a
s,
si

=


1 , podemos usar el criterio de parada x(k) x(k1) < y se tiene que
, es decir,



(k)

x x 6



k



(k)
(1)
x x(k1) 6 6
x x(0) .
1
1


(k)

x x 6


k

(1)
x x(0) .
1

(3.31)

124

Sergio Plaza

Tambien vale la desigualdad siguiente




(k)

x x 6


(I Q1 A)k
(1)

x x(0) .
1
1 (I Q A)

(3.32)

Observaci
on. Desde la definicion de radio espectral de una matriz, se tiene que (A) < 1
implica que existe una norma matricial || || en M (nn, R) , tal que ||A|| < 1 . Por otra parte, si
||A|| < 1 para alguna norma matricial en M (nn, R) entonces se tiene que (A) < 1 . Notemos
que si existe una norma matricial || || en M (n n, R) , tal que ||A|| > 1 no necesariamente se
tiene que (A) > 1 .
Observaci
on. Si M1 y M2 son dos metodos iterativos convergentes para resolver un sistema
de ecuaciones lineales Ax = b , digamos M1 : x(k+1) = G1 x(k) + c1 y M2 : x(k+1) =
G2 x(k) + c2 . Si (G1 )) 6 (G2 ) , entonces M1 converge mas rapido que M2 a la soluci
on de la
ecuacion. Adem
as, si existe una norma || || en M (n n, R) tal que ||G1 || 6 ||G2 || , entonces
M1 converge mas r
apido que M2 a la soluci
on de la ecuaci
on.

3.9

M
etodo de Richardson


Para este metodo tomamos QR = I , luego el metodo iterativo x(k+1) = I Q1 A x(k) +
Q1 b se transforma en
x(k+1) = (I A) x(k) + b,
| {z }

(3.33)

TR

el cual converge si y s
olo si (TR ) = (I A) < 1 .

Si existe una norma matricial k k para la cual se tiene que kTR k = ||I A|| < 1 , entonces
el metodo iterativo de Richardson es convergente.

Ejemplo 64 Resolver el sistema de ecuaciones lineales usando el metodo de Richardson.

1
2

1
3

1
3

1
2

1
2

1
3

y =

11
18
11
18
11
18

Soluci
on. Tenemos

1
TR = I A = 0
0

0 0

1 0

0 1

1
2

1
3

1
2

1
3

1
3



1
= 3


21
1
1
2

21

31

21

31

125

Sergio Plaza
Llamando x(j) = (xj yj zj )T , nos queda

x(k+1) = TR x(k) + b = 31

21

se tiene ||TR || =

3.10

5
6

21

31

21

13

x
k

yk +

zk

11
18
11
18
11
18

< , luego el metodo iterativo de Richardson para este sistema converge.

M
etodo de Jacobi

En este caso tomamos

a11
..
QJ = diag (A) = .
0

..
.

0
..
.

ann

donde los elementos fuera de la diagonal en QJ son todos iguales a 0. Notemos que det(QJ ) =
a11 a22 ann , luego det(QJ ) 6= 0 si y solo si aii 6= 0 para todo i = 1, . . . , n , es decir, QJ
tiene inversa si y s
olo si aii 6= 0 para todo i = 1, . . . , n .
Como antes, colocando esta matriz QJ = diag(A) en la f
ormula iterativa definida por

x(k+1) = I diag(A)1 A x(k) + diag(A)1 b ,
|
{z
}

(3.34)

TJ

obtenemos un metodo iterativo convergente si y s


olo si (TJ ) = (I diag(A)1 A) < 1 . Si
existe una norma matricial k k para la cual se tiene que kTJ k = ||I diag(A)1 A|| < 1 ,
entonces el metodo iterativo de Jacobi es convergente.
Examinemos un poco m
as la f
ormula iterativa del metodo de Jacobi. Tenemos, en este caso,
a
que un elemento generico de Q1 A es de la forma aij
y todos los elementos de la diagonal de
ii
1
Q A son iguales a 1. Luego, tomando la norma k k en M (n n, R) tenemos que

n
X


I diag(A)1 A = max

16i6n

j=1 ,j6=i

Recordemos que una matriz A es diagonal dominante si


|aii | >
es decir,

n
P

j=1 , j6=i

n
X

j=1 , j6=i

|aij | ,

|aij |
.
|aii |

1 6 i 6 n,


aij
aii < 1 , por lo tanto tenemos el siguiente teorema.

Teorema 3.20 Si A es una matriz diagonal dominante, entonces el metodo iterativo de Jacobi es convergente para cualquiera que sea la condici
on inicial x(0) elegida.

126

Sergio Plaza

3.11

M
etodo de GaussSeidel

En esta caso, consideremos la matriz Q como la matriz triangular obtenida considerando la


parte triangular inferior de la matriz A incluyendo su diagonal, es decir,

QG-S =

a11
a21
..
.

0
a22
..
.

..
.

0
0
..
.

an1

an2

ann

Se tiene que det(QG-S ) = a11 a22 ann . Luego, det(QG-S ) 6= 0 si y solo si aii 6= 0 ( i =
1, . . . , n ). Usando la matriz QG-S , obtenemos el metodo iterativo

1
x(k+1) = I Q1
A x(k) + QG-S
b.
G-S
{z
}
|

(3.35)

TG-S

Teorema 3.21 Sea A M (n n, R) . Entonces el metodo iterativo de GaussSeidel es


1
A) < 1 , donde QG-S es la matriz triangular
convergente si y s
olo si (TG-S ) = (I QG-S
inferior definida arriba a partir de A .
Como en el caso del metodo iterativo de Jacobi, tenemos el siguiente teorema.
Teorema 3.22 Si A M (n n, R) es una matriz es diagonal dominante entonces el metodo
de GaussSeidel converge para cualquier elecci
on inicial x(0) .
Ejemplo 65 Considere el sistema de ecuaciones lineales

4
2
1


2 1
x
5
5 2 y = 4
2 6
z
7

Explicitaremos los metodos iterativos de Jacobi y GaussSeidel para este sistema. Estudiaremos la convergencia de ellos sin iterar. Finalmente, sabiendo que la soluci
on exacta del
sistema es (xT , yT , zT ) = (1, 0, 1) y usando el punto de partida (1, 1, 1) nos podemos preguntar Cual de ellos converge m
as r
apido?, para las comparaciones usaremos la norma k k en
M (n n, R) .
Primero que nada tenemos que los metodos iterativos de Jacobi y GaussSeidel convergen,
pues la matriz asociada al sistema es diagonal dominante.
Explicitaremos el metodo de Jacobi. En este caso tenemos

4
QJ = 0
0
por lo tanto

0 0
5 0
0 6

127

Sergio Plaza

1
4

0
Q1
J =
0

0
4
0 2
1
1
6

2
5
2

1
5

0
0
1
6

luego

1
4

0
Q1
J A=
0

1
5


1
1
2 = 52
1
6
6

1
4
2
5

1
2

1
1
3

de donde

0
1

T J I QJ A =
52
61

por lo tanto

21
0
13

1
14
4
0
25 y Q1
J b =
0
0

0
1
5

0
5
0 4 =
1
7
6

5
4
4
5
7
6

2yk zk + 5

xk+1 =

2xk 2zk + 4
yk+1 =

zk+1 = xk 2yk + 7
6

2
2
1
1
3 4 1
Como ||TJ || = max{| 21 | + | 1
4 |, | 5 | + | 5 |, | 6 | + | 3 |} = max{ 4 , 5 , 2 } = {0.75, 0.8, 0.5} =
0.8 < 1 , el metodo de Jacobi converge para cualquier condicion inicial x(0) Rn dada. Ahora
explicitemos el metodo de GaussSeidel. En este caso,

QG-S

0
0
6

4 0
= 2 5
1 2

as obtenemos que

1
QG-S
A=

1
4
1
10
1
120

0
1

luego I QG-S A =
0
0

21
2
10
2
120

por lo tanto

0
2
10
8
120

0
4
0 2
20
1
120

41
3
10

17
120

xk+1

yk+1

zk+1

=
Q1
G-S

1
4
1
10
1
120

1
2 1
5 2 = 0
2 6
0

b=
Q1
G-S

5
4
3
10
103
120

2yk zk + 5
4

2yk 3zk + 3
10

2yk 17zk + 103


120

0
2
10
8
120

1
2
8
10
2
120

1
4
3
10
103
120

, por lo tanto

0
0

20
120

128

Sergio Plaza

1
2
3
2
17
3 5
19
Como ||TG-S || = max{| 1
4 | + | 4 |, | 10 | + | 10 |, | 120 | + | 120 } = max{ 4 , 10 , 120 } = 0.75 < 1 .
(0)
Luego, el metodo de GaussSeidel converge para cualquier condici
on inicial x Rn dada.

Notemos que como ||TG-S || < ||TJ || , vemos que el metodo de GaussSeidel converge mas
r
apido que el metodo de Jacobi.
Ejercicio. Realizar las iteraciones en ambos caso, Jacobi y Gauss-Seidel para este ejemplo.

3.12

M
etodo SOR (successive overrelaxation)

Este metodo, tambien llamado sobre-relajacion sucesiva.


Supongamos que escogemos la matriz Q como QSOR = 1 D C , donde R , 6= 0 , es
un par
ametro, D es una matriz simetrica, positiva definida y C satisface C + C T = D A ,
tenemos entonces el metodo iterativo
 (k)
1
+ QSOR
b,
x(k+1) = I Q1
SOR A x
|
{z
}

(3.36)

TSOR

Teorema 3.23 Si A es simetrica y positiva definida, QSOR es no singular y 0 < < 2 ,


entonces el metodo iterativo SOR converge para todo valor inicial dado.
Recordemos que una matriz A M (n n, R) de la forma

A=

a1
c2
0
..
.
0
0

b1
a2
c3
..
.

0
b2
a3
..
.
0
0

0
0
b3
..
.
cn1
0

..
.
an1
cn

0
0
0
0
bn1
an

es llamada tridiagonal.
Teorema 3.24 Si A es simetirca, positiva definida y tridiagonal, entonces, en caso se tiene
(TG-S ) = (TJ )2 , donde TJ = D1 (CL + CU ) es la matriz de iteraci
on en el metodo de Jacobi
on en el metodo de GaussSeidel. Adem
as, la
y TG-S = (D CL )1 CU es la matriz de iteraci
elecci
on
optima de en el metodo SOR es
opt =

1+

2
2
p
p
=
1 (TJ )2
1 + 1 (TG-S )

(3.37)

Por otra parte, tambien se tiene


(TSOR,opt ) = opt 1 .

(3.38)

129

Sergio Plaza

3.13

Otra forma de expresar los m


etodos iterativos para
sistemas lineales

Sea

..
.

a1n
..
.
ann

0
a21
..
.

0
0
..
.

..
.

an1

a11
..
A= .
an1
podemos escribir A en la forma

A =

a11 a1n
..
..
..
.
.
.
an1 ann

0
a11 0
0 a22
0

.
..
.
.
..
..
..
.
0
0 ann
|
{z

0
0
..
.

0 a12

0
0
0
} |

ann1
{z

CL

0
0
0

..
.

{z

a1n
..
.
an1n
0

CU

Notemos primero que Ax = b si y solo si (D CL CU )x = b si y solo si Dx = (CL +


CU )x + b .
Veamos como quedan los metodos anteriores con esta notacion.
M
etodo de Jacobi. Si det(D) 6= 0 , entonces como (D CL CU )x = b se sigue que
1
x = D1 (CL + CU ) x + |D{z
}b
{z
}
|
Tj

(3.39)

CJ

luego el metodo de Jacobi se puede escribir como

1
x(k+1) = D1 (CL + CU ) x(k) + |D{z
}b
|
{z
}
Tj

CJ

M
etodo de GaussSeidel. Este se puede escribir como

(D CL )x(k+1) = CU x(k) + b

(3.40)

de donde, si det(D CL ) 6= 0 nos queda


x(k+1) = (D CL )1 CU x(k) + (D CL )1 b
|
{z
}
{z
}
|
TG-S

CG-S

Resumen. Supongamos que la matriz A se escribe en la forma A = D CL CU , donde


D = diag(A) , CL es el negativo de la parte triangular inferior estricta de A y CU es el
negativo de la parte triangular superior estricta de A . Entonces podemos rescribir los metodos
iterativos vistos antes como sigue:

130

Sergio Plaza

Richardson


Q=I
G=I A

x(k+1) = (I A)x(k) + b
Jacobi


Q=D
G = D1 (CL + CU )

Dx(k+1) = (CL + CU )x(k) + b


Gauss-Seidel

Q = D CL
G = (D CL )1 CU

(D CL )x(k+1) = CU x(k) + b
SOR

Q = 1 (D CL )
G = (D CL )1 (CU + (1 )D)

(D CL )x(k+1) = (CU x(k) + b) + (1 )Dx(k)


=

3.14

1
,

0 < < 2.

Ejemplos resueltos

Problema 3.1 Considere el sistema de ecuaciones lineales

1
3

1
4

7
x1
4
12

1
x2
0.45
5


0.58
. Obtenga
0.45
una cota para el error relativo de la solucion del sistema con respecto a la solucion del
.
sistema Ax = b

=
(a) Para realizar los calculos con decimales, se considera el vector b

(b) Ahora considere la matriz perturbada


A =

0.33 0.25
0.25 0.20

Obtenga una cota para el error relativo de la soluci


on del sistema original con respecto a
= b.
la soluci
on del sistema Ax

131

Sergio Plaza

Soluci
on. Tenemos el sistema de ecuaciones lineales

7
x
1

4
12
=

1
x2
0.45
5

1
3

1
4
=
a) El vector b

0.58
0.45

7
12
es una perturbaci
on del vector b =
. Sean xT la

0.45
. Se tiene
solucion exacta del sistema Ax = b y xA la soluci
on exacta del sistema Ax = b
on a xT . Para simplificar los c
alculos trabajaremos con la
entonces que xA es una aproximaci
es una perturbaci
norma subordinada || || . Como b
on de b , tenemos la f
ormula
ER (xA ) =


||b b||
||xT xA ||
6 ||A|| ||A1 ||
.
||xT ||
||b||

Ahora,

Recordemos que si A =

=
bb

3.33333333 103
0

a11
a21

, entonces

a12
a22

En nuestro caso, det


A1 =

1
3

1
4

1
4

1
5

1
5

1
240

41

1
=
det(A)

1
240

14
1
3

a22
a21

a12
a11

. Luego,

= 240

41

1
5

41

1
3

48 60
60 80

De esto, tenemos


1 1 1 1
+ , +
3 4 4 5

7 9
,
12 20

||A||

max

||A1 ||

max{|48| + | 60|, | 60| + |80|} = 140




7
, 0.45
12

= max

7
12

7
12

||b||

max


||b||

max{0.58, 0.45} = 0.58


||b b||

max{3.33333333 103 , 0} = 3.33333333 103 .

132

Sergio Plaza

Reemplazando nos queda

ER (xA ) 6

7
3.3333333 103
= 0.4666666662 ,
140
7
12
12

esto es, ER (xA ) 6 0.4666666662 .


b) Consideremos ahora la matriz perturbada
A =

0.33 0.25
0.25 0.20

Podemos escribir A en la forma A = A(I + E) , donde I es la matriz identidad 2 2 y E


es la matriz de error, esto es, .E = A A . Como A = A(I + E) , se tiene que A A = AE .
Luego,

AE = A A =

0.33 0.25
0.25 0.20

1
3
1
4

1
4
1
5

3.33333333 103
0

0
0

de donde ||AE|| = 3.33333333 103 .


Veamos si podemos usar la formula
||xT xA ||
||AE||
k(A)

6
,
||xT ||
||A||
1 k(A) ||AE||
||A||
para ello debemos verificar que
||AE|| <

1
.
||A1 ||

Como ||A|| = 140 y ||AE|| = 3.33333333 103 , se cumple que


||AE|| <

1
= 7.14285714 103 ,
140

y podemos aplicar la f
ormula anterior. Reemplazando nos queda

||xT xA ||
||xT ||

81.66666667
3.3333333 103

3
0.5833333333
1 81.66666667 3.3333333310
0.5833333333

81.66666667
5.7142857 103
1 81.66666667 5.7142857 103

0.466666667
= 0.8749999945
0.5333333349

Luego ER (xA ) 6 0.8749999945 .

133

Sergio Plaza

Problema 3.2 Dada la matriz

2 1 1
A = 1 1
1 se tiene que
1 1
3

1
1
0
= 1 5/2 1/2
0 1/2 1/2

(a) Obtenga la descomposicion de Cholesky de A . Utilice lo anterior para resolver el sistema


Ax = b para el vector b = (1, 1, 2)T .
(b) Estime a priori la magnitud del error relativo si la matriz A se perturba quedando
finalmente

2 0.99 0.98
A = 1
1
0.99
1 1.02
2.99
Soluci
on.
(a) Tenemos que

1 1
1
1
1
3

2
A = 1
1

2 1
1 1

es simetrica. Ahora, A1 = [2] , luego det(A1 ) = 2 > 0 , A2 =


y det(A2 ) =

2 1 1
1 > 0 , A3 = A = 1 1
1 y det(A3 ) = 2 > 0 . Por lo tanto A es positiva
1 1
3
definida, y consecuentemente tiene descomposicion de Cholesky.
Para obtener la descompsici
on de Cholesky de A escribamos


2 1 1
11
1 1
1 = 21
1 1
3
31

0
22
32

0
11
0 0
0
33

21
22
0

31
32
33

De aqu, 211 = 2 , de donde 11 = 2 ; 11 21 = 1 , de donde 21 = 22 , 11 31 = 1 ;

21 31 + 22 32 = 1 , de donde 32 = 22 ;
31 = 22 ; 221 + 222 = 1 , de donde 22 = 22 ;
finalmente 231 + 232 + 233 = 3 , de donde 33 = 2 . Por lo tanto,


2
2 1 1

1 1
1 = 22
1 1
3
22

2
2
2
2


0
2

0 0

2
0

22

22

2
2

2
2

Ahora, resolver el sistema Ax = b , con bT = (1, 1, 2) es equivalente a resolver los


sistemas

Ly = b
LT x = y

134

Sergio Plaza

El sistema Ly = b


2
2
2
22


0
1

0 = 1

2
2
2
2

De aqu 2 = 1 , de donde = 22 ; 22 + 22 = 1 , reemplazando y despejando

nos da que = 32 2 ; finalmente 22 + 22 + 2 = 2 , reemplazando y despejando

nos da que = 22 . Debemos resolver ahora el sistema LT x = y , es decir,

de donde z =

1
2

, y=

5
2

2 22

2
0
2
0
0
, x = 2.


x
2 y =

2
z
2

22

2
2

3 2
2
2
2

= b , respectivamente,
(b) Sean xT y xA las soluciones exactas de los sistemas Ax = b y Ax
1
es decir, xT = A b . Entonces

E(xA = ||xA xT || = ||xA A1 b||


A || = ||(I A1 A)x
A ||
= ||xA A1 Ax
1
6 ||I A A|| ||xA ||
de donde

||xA xT ||
.
6 ||I A1 A||
||xA ||

ER (xA ) =

Para simplificar los c


alculos usamos la norma subordinada || || . Ahora, tenemos

luego,

1
=

1
5
2
1
2

0
1
2
1
2

2 0.99 0.98
A = 1
1
0.99
1 1.02
2.99

Ademas, como

1 0.01 0.01
A1 A = 0 1.0
0
0 0.01 1.0

1 0
I= 0 1
0 0

0
0
1

135

Sergio Plaza

se tiene que

0 0.01 0.01

I A1 A = 0
0
0
0 0.01
0

= max{0.02, 0, 0.01} = 0.02 , de donde ||xA xT || 6 ||IA1 A||


=
luego, ||IA1 A||
||xA ||
0.02 .
Otra soluci
on. Escribimos A de la forma A = A(I + E) . Entonces se tiene las f
ormulas
1.
ER (xA ) =

2.

||E||
||xT xA ||
6
||xT ||
1 ||E||

si ||E|| < 1 .
ER (xA ) =
si ||AE|| <

1
||A1 ||

k(A)
||AE||
||xT xA ||
6
||xT ||
||A||
1 k(A) ||AE||
||A||

Usemos por ejemplo la primera de ellas. Debemos calcular la matriz E . De la ecuacion


A = A(I + E) se tiene que A1 A = I + E , de donde, A1 A I = E . Realizando los
calculos, obtenemos que

0
E= 0
0

0.01 0.01
0
0
0.01
0

Por simplicidad de los c


alculos, usaremos la norma subordinada || || . Luego, ||E|| =
0.02 < 1 , por lo tanto, reemplazando nos queda,
||xT xA ||
||E||
0.02
0.02
6
=
=
= 0.0204016...
||xT ||
1 ||E||
1 0.02
0.98
Ahora usamos la segunda de las f
ormulas. Tenemos que calcular k(A) = ||A|| ||A1 || .
Sabemos que

2
A = 1
1

1
=

1 1
1
1
1
3
1
5
2
1
2

0
1
2
1
2

luego

||A|| = 5

luego ||A1 || = 4 ,

136

Sergio Plaza

de donde k (A) = 5 4 = 20 . Para aplicar la f


ormula debemos verificar que ||AE|| <
1
.
Tenemos
que
||A1 ||

0 0.01 0.01
AE = 0 0.005 0.01
0 0.005
0
1
1
luego, ||AE|| = 0.02 y ||A1 || = 4 , de aqu se tiene que ||A1
|| = 4 = 0.25 y
1
es claro entonces que se satisface la condicion ||AE|| < ||A1
|| . Reemplazando los
valores obtenidos, nos queda

||xT xA ||
||xT ||

6
=

20 0.004
20
0.02
0.02 5 = 1 20 0.004
1 20 5
0.08
0.08
=
= 0.08695652...
1 0.08
0.92

esto es,
||xT xA ||
6 0.08695652...
||xT ||
Problema 3.3 Sean

1
0
A=
0
0

1 1 1
1 1 1

0
1 1
0
0
1

5.00
1.02

b=
1.04
1.10

(a) Calcule una soluci


on aproximada xA del sistema Ax = b , primero aproximando cada
y luego resolviendo
entrada del vector b al entero mas pr
oximo, obteniendo un vector b
.
el sistema Ax = b
(b) Calcule ||r|| y k (A) , donde r es el vector residual, es decir r = b AxA y k (A)
el n
umero de condicionamiento de la matriz A.
(c) Estime una cota para el error relativo de la solucion aproximada, respecto a la soluci
on
exacta (no calcule esta u
ltima explcitamente).
Soluci
on.
(a) El vector perturbado es (5 1 1 1)T . Luego la soluci
on del sistema perturbado es

1 1 1 1
x
0 1 1 1 y

0 0
1 1 z
0 0
0
1
w

de donde (x, y, z, w) = (12, 4, 2, 1) = xA

5
1
=
1
1

137

Sergio Plaza
(b) Tenemos ||b|| = ||b|| = 5 . Por otra parte,

r = b AxA


5.00
1.02


1.04
1.10


5.00
1.02


1.04
1.10

1
0
0
0
5
1
1
1

1 1 1
12
4
1 1 1

0
1 1 2
0
0
1
1


0
0.02

=
0.04
0.10

Luego, ||r|| = 0.10 .

Para encontrar la inversa de la matriz A basta resolver el sistema

de donde

1 1 1 1
a11
0 1 1 1 a21

0 0
1 1 a31
a41
0 0
0
1

A1

a12
a22
a32
a42

1
0
=
0
0

a13
a23
a33
a43

1
1
0
0

2
1
1
0


a14

a24
=

a34
a44

1
0
0
0

0
1
0
0

0
0
1
0

0
0

0
1

4
2

1
1

Luego, ||A1 || = 8 . Tenemos que ||A|| = 4 , luego k (A) = ||A|| ||A1 || = 48 =


32 .
(c) Usamos la formula
||xT xA ||
||r||
1 ||r||
6
6 k(A)
k(A) ||b||
||xT ||
||b||

Reemplazando los datos nos queda

es decir,

1
0.10
||xT xA ||
0.10

6
6 32
32
5
||xT ||
5
0.625 103 6

||xT xA ||
6 0.64 .
||xT ||

Problema 3.4 Encuentre una descomposicion del tipo LU para la matriz A siguiente

4
3
A=
2
1

3
4
3
2

2
3
4
3

1
2

3
4

Use la descomposion anterior para solucionar el sistema Ax = (1 1 1 1)T .

138

Sergio Plaza

Soluci
on. La descomposicion de Doolittle de A es dada por

4 3
1 0 0 0

3 1 0 0
4
0 7


A = LU = 1 6

2 7 1 0

0 0

1
5
5
1
4
7
6
0 0

3
2

5
4

12
7

10
7

5
3

Ahora resolver el sistemas Ax = b es equivalente a resolver los sistemas Ly = b y U x = y.


Tenemos que b = (1 1 1 1)T . Llamando y = (y1 y2 y3 y4 )T , de la forma del sistema
Ly = b, obtenemos que y1 = 1 , y2 = 41 , y3 = 12
7 , y y4 = 0. Ahora al resolver el sistema
U x = b obtenemos x4 = 0 , x3 = 1 , x2 = 1 y x1 = 0 .
Problema 3.5 Considere el sistema de ecuaciones lineales Ax = b , donde

2 3 8
1

4
0
1 10
y b=
A=

16 4 2
1
0
7 1
5

1
1

1
1

a) Usando aritmetica exacta y el metodo de eliminaci


on gaussiana con pivoteo resuelva el
sistema de ecuaciones lineales Ax = b .
b) Denote por B a la matriz P A obtenida en el item anterior Demuestre que el metodo
iterativo de Jacobi aplicado a la matriz B es convergente. Usando como punto inicial
(0.0377,0.21819,0.20545,-0.06439) y la m
axima capacidad de su calculadora, realice iteraciones con el metodo de Jacobi para obtener una soluci
on aproximada del sistema Bx = b .
Use como criterio de parada k(xn+1 , yn+1 , zn+1 , wn+1 ) (xn , yn , zn , wn )k 6 105 .
Soluci
on. a) Tenemos que

2 3 8
4
0
1
A=
16 4 2
0
7 1

10
y b=

1
5

Escribiendo la matrix ampliada del sistema, nos queda

de donde

2 3 8
4
0
1
A=
16 4 2
0
7 1

1
10
1
5

8
1
10
2

s=
16 y P = 3
7
4

1
1
,
1
1

1
1
.
1
1

139

Sergio Plaza

Luego
m1 = max


2 4 16
,
, , 0 = 1 = m31
8 10 16

por lo tanto debemos intercambiar la fila 1 con la fila 3. Realizando este intercambio de filas y
la eliminaci
on gaussiana, nos queda

16 4 2
4
0
1

2 3 8
0
7 1
de donde

1
F2 41 F1

1
F3 81 F1
1

1
10
1
5

1
1/4

L1 =
1/8 ,
0

1
16
4
2
1
0
1
3/2 41/4 3/4

0 7/2 33/4
7/8
7/8
0
7
1
5
1

16
3
10
2

s1 =
8 , P1 = 1
4
7

Para la elecci
on del segundo pivote tenemos
m2 = max

1 7 7
,
,
10 16 7

= 1 = m42

por lo tanto debemos intercambiar la fila 2 con la fila 4

16
4
2
1
1
F3 1
2 F2
0

7
1
5
1

0 7/2 33/4
7/8
7/8
F4 1
0
1
3/2 41/4 3/4
7 F2

16
0

0
0

1
4
2
1
7
1
5
1

11/8
0 31/4
27/8
0 19/14 227/28 25/28

luego,

1
0

1
L11 =
1/8 , L2 = 1/2
1/4
1/7

3
16

4
7
, P2 = , S2 =

1
8
2
10

Para la elecci
on del tercer pivote tenemos que
m3 = max

31 19
,
32 140

31
= m33
32

y obtenemos

16
0

0
0

4
2
1
7
1
5
1

0 31/4
27/8
11/8
38
0 19/14 227/28 25/8
F3
F4 217

16
0

0
0

4
7
0
0

1
2
1

1
5
1

31/4
27/8
11/8
0
4395/434 283/434

140

Sergio Plaza

luego,

L3 =

1
38/217
Por lo tanto

1
0
0
0
1
0
P A = LU =
1/8 1/2
1
1/4 1/7 38/217

16
0

0 0
0 0
0
1

4
7
0
0

2
1

1
5

31/4
27/8
0
4395/434

(3.41)

donde

0
0
P =
1
0

0
0
0
1

1
0
0
0

0
1
.
0
0

Por lo tanto

16 4 2
0
7 1
PA =
2 3 8
4
0
1

1
5

1
10

Resolviendo la ecuacion se obtiene que

w=

301
959
283
, z=
, y=
, x = 331/8790
4395
1465
4395

(3.42)

Ahora, como

16 4 2
1
0
7 1
5

B = PA =
2 3 8
1
4
0
1 10
tenemos que la matriz B es diagonal dominante, por lo tanto el metodo de Jacobi converge.
Por otra parte, la matriz de Jacobi es dada por

141

Sergio Plaza

=
=

I Q1 B

1/16 0
0
0
1/7
0
I4
0
0 1/8
0
0
0

0
1/4 1/8
0
0
1/7

1/4 3/8
0
2/5
0
1/10

0
1/10

1/16
5/7

1/8

16 4 2
1
0
7 1
5

2 3 8
1
4
0
1 10

Para determinar si el metodo de Jacobi converge determinaremos los valores propios de J .


Tenemos

1/4 1/8 1/16


0

1/7 5/7
= 4 + 17 2 219 + 33 (3.43)
det(J I4 ) = det
1/4 3/8

1/8
1120
4480
2240
2/5
0
1/10

de donde se tiene que los valores propios son


1,2 = 0.2483754458 0.3442140503i
3,4 = 0.2483754458 0.1416897424i

(3.44)

Por lo tanto, se tiene que el radio espectral es = 0.4244686967 < 1 y el metodo de Jacobi
es convergente.
Realizando las iteraciones, obtenemos la siguinete tabla
n
0
1
2
3
4

xn

yn

zn

wn

0.037658125
0.0376540625
0.0376595407368
0.0376559047154

0.2182
0.218188571428
0.21820265625
0.218202776148

0.205445
0.20545734375
0.20545622991
0.205460190988

-0.064375
-0.064392640625
-0.064392640625
-0.0643905607143

E
0.000041875
0.00001725
0.000014084822
0.3961078E-5

Problema 3.6 Para cada n N , se definen






1
2
1
An =
y
b
=
.
n
2
4 + n12
2 n12
Se desea resolver el sistema An x = bn . Un estudiante obtiene como resultado x
= (1, 0)T .
1. Se define el vector residual asociado a esta soluci
on como
rn = An x
bn
Calcule rn Podemos decir que para n grande, la soluci
on es razonablemente confiable?
Justifique

142

Sergio Plaza

2. Resolver An x = bn en forma exacta. Denote por xn la soluci


on exacta y c
alcule el error
relativo de la aproximacion x = (1, 0)T .
cuando n tiende a infinito. Para este
3. Lo razonablemente esperado es que x
n converja a x
ejemplo, se tiene dicha afirmacion?. Calcule K (An ) y explique el resultado obtenido.
Soluci
on. Para cada n N , un resultado para una soluci
on de An x = bn es x
= (1, 0) .
1. El vector residual asociado a esta solucion es

rn = An x
bn .
Tenemos

rn

1
2

1
2



2
4 + n12


1
0

1
2 n12

1
2 n12
0
1
n2

Ahora, la solucion exacta del sistema es




1
2

2
4 + n12



x
y

1
2 n12

esto del par de ecuaciones lineales


x + 2y



1
2x + 4 + 2 y
n

1
.
n2

De la primera ecuacion obtenemos x = 1 2y , reemplazando en la segunda ecuacion nos


queda

2 4y + 4y +

1
1
y = 2 2 ,
n2
n

1
1
on es
es decir, 2 y = 2 , de donde y = 1 , por lo tanto x = 3 . Note que la soluci
n
n
exactamente la misma para cada n N , es decir, la soluci
on no depende de n N .
Por lo tanto la soluci
on dada no es razonablemente confiable, pues no se aproxima en
nada a la soluci
on exacta xT = (3, 1) del sistema An x = bn .
2. Ya calculamos la soluci
on exacta xn de An x = bn , la cual es xn = (3, 1) = xT para
todo n N .

143

Sergio Plaza

Usando la norma || || para simplificar los c


alculos.
||xT x
||
||xT ||

ER (
x) =

||(3, 1) (1, 0)||


||(3, 1)||

||(2, 1)||
||(3, 1)||

max{|2|, | 1|}
max{|3|, | 1|}

2
.
3

3. No, pues xn = (3, 1) = xT es un vector constante y no se aproxima (obviamente) a


x = (1, 0) .
Para calcular k (An ) , tenemos

1
1
||An || = max{|1| + |2|, |2| + 4 + 2 } = 6 + 2
n
n

Ahora, det(An ) = 4 +

1
1
4 = 2 . Luego
n2
n

A1
n

1
1

n2

n2

1
n2

4+

2
4+

1
n2

1
2

4n2 + 1
2n

1
2n2
n

2
2
2
2
2
2
y ||A1
n || = max{|14n + 1| + | 2n | + |n |} = max{6n + 1, 3n } = 6n + 1 . Por lo
tanto

k (An )



1
=
6 + 2 (6n2 + 1)
n
= 36n2 + 6 + 6 +
= 36n2 + 12 +

1
n2

,
n
n2

144

Sergio Plaza

lo cual significa que la matriz An esta muy mal condicionada para valores grandes de n (es
numericamente no invertible para n grande), lo cual explica la mala aproximaci
on x de xn para
n grande.

3.15

Ejercicios Propuestos

Problema 3.1 Para resolver un sistema de ecuaciones lineales Ax = b , donde x, b R2 , se


propone el siguiente metodo iterativo
x(k+1) = Bx(k) + b ,
donde
B=

k>0

, c R

1. Para que valores de y c el metodo iterativo propuesto es convergente?


2. Sea x el punto fijo de la iteraci
on. Calcule ||
x x(k) || y ||x(k+1) x(k) || cuando
k Es la convergencia la punto fijo independiente de c ? Justificque.
Problema 3.2 Dado un metodo iterativo para resolver un sistema de ecuaciones lineales
x(k+1) = Bx(k) + c ,
Si det(B) = 0 Puede el metodo propuesto ser convergente?
Problema 3.3 Si un metodo iterativo de punto fijo xn+1 = Axn , donde A M(n n, R)
tiene un punto fijo x
6= 0 . Pruebe que ||A|| > 1 para cualquier norma ssubordinada en
M(n n, R) .
Problema 3.4 Dada una matriz

a11
A = a21
a31

a12
a22
a32

a13
a23
a33

y un vector b R3 , se quiere resolver el sistema Ax = b . Para ello, se propone el metodo


iterativo siguiente:
1
1

a11 a12 0
0
0 a13
a11 a12 0
x(k+1) = a21 a22 0 0
0 a23 x(k) + a21 a22 0 b
a31 a32 0
0
0 a33
0
0 a33
(a) Pruebe que el metodo propuesto resulta convergente cuando se aplica a las matriz A y
al vector b siguientes

8
2 3
20
A = 3 9
y
b = 62 .
4
3 1 7
0

1
3/26 1/39 0
8 2 0
Indicaci
on: Use que 3 9 0 = 1/26 4/39
0 .
0
0
1/7
0 0 7

145

Sergio Plaza

(b) Considere el vector x(0) = (0 0 0)T . Encuentre el n


umero mnimo de iteraciones necesarias
k N , de modo de tener una precision ||x(k) x|| 6 104 .
(c) Compare el metodo anterior con el metodo de Jacobi en cuanto a velocidad de convergencia. Justifique.
Problema 3.5 Encuentre la inversa A1 de la matriz A , las normas ||A||1 , ||A1 ||1 , ||A||2 ,
||A1 ||2 , ||A|| , ||A1 || y los n
umeros de condici
on 1 (A) , 2 (A) y (A) si

0
1. A = 0
1

3
2. A = 0
0

0 1
1 0
1 1

0 0
2 0
0 1

2 1 2
1
2 1
3. A =
2 1 2
0
2 0

1
2

1
1

Problema 3.6 Sean A, B M(nn, R) , matrices invertibles. Pruebe que (AB) 6 (A)(B) ,
donde el n
umero de condici
on es calculado usando cualquier norma subordinada en M(nn, R) .
Problema 3.7 Sean A, B M(3 3, R) las matrices

a
A= c
0

c
a
c

0
c ,
a

0 b
B= b 0
0 b

1. Probar que limn B n = 0 si y solo si |b| <

2/2 .

0
b
0

2. Dar condiciones necesarias y suficientes sobre a, c R para la convergencia de los metodos


de Jacobi y de GaussSeidel aplicados a resolver el sistema de ecuacion es lineales Ax = b .
Problema 3.8 Considere el sistema de ecuaciones lineales siguiente

3x + y + z
x + 3y z

3x + y 5z

= 5
= 3
= 1

1. Explicite el metodo iterativo de Jacobi para encontrar soluci


on a la ecuaci
on. Justifique
porque este metodo converge (sin usar calculadora). Comenzando con (0, 0, 0) , realice 10
iteraciones Cu
al es el error absoluto respecto de la solucion exacta?
2. Explicite el metodo iterativo de GaussSeidel y justifique la convergencia o no de este
metodo para la ecuacion dada.

146

Sergio Plaza

Problema 3.9 Sean

1 1
A= 1 2
2 1

1
2
1

1
b= 2
3

Proponga un metodo iterativo convergente para resolver Ax = b . La demostracion de convergencia debe hacerse sin iterar. Resuelva la ecuacion utilizando el metodo iterativo propuesto.
Use como critero de parada ||(xn+1 , yn+1 , zn+1 ) (xn , yn , zn )||2 6 103 .
Problema 3.10 Considere el sistema de ecuaciones lineales

3x 2y + z = 1
x 23 y + 2z = 2

x + 2y z = 0

1. Resolver el sistema usando descomposicion LU y aritmetica exacta.

2. Resolver el sistema usando descomposicion LU y aritmetica decimal con 4 dgitos y


redondeo.
3. Resolver el sistema usando aritmetica exacta sin pivoteo.
4. Resolver el sistema usando aritmetica decimal con 4 dgitos y redondeo, y sin pivoteo.
5. Resolver el sistema usando aritmetica exacta con pivoteo.
6. Resolver el sistema usando aritmetica decimal con 4 dgitos y redondeo, y con pivoteo.
7. cual es su conclusi
on?
Problema 3.11

1. Obtener la descomposicion LU para matrices tridiagonales.

2. Describir el proceso de eliminacion gaussiana sin pivoteo para resolver un sistema con
matriz tridiagonal.
3. Suponiendo que tenemos una matriz tridiagonal no singular. Explicitar los algoritmos
iterativos de Richardson, Jacobi, y GaussSeidel.
4. Ilustre todo lo anterior con el sistema

1
x
3 1 0
1 3 1 y = 4
10
z
0 1 3
Problema 3.12 Considere los siguientes sistemas

3 2 1
1 2
2
3
1 2 1

0 1
0 2
2 3

de ecuaciones lineales

x
1
y = 2
z
0

0
x
8
1 y = 7
1
z
5

(3.45)

(3.46)

147

Sergio Plaza

3
1
3

1 1
x
5
3 1 y = 3
1 5
z
1

(3.47)

1. Estudie la convergencia de los metodos iterativos de Richardson, Jacobi, GaussSeidel y


de SOR para cada uno de ellos.
2. Caso algunos de los metodos anteriores sea convergente, encontrar la solucion del sistema, con precisi
on = 103 y usando como criterio de parada ||(xn+1 , yn+1 , zn+1 )
(xn , yn , zn )|| 6 , comenzando con (x0 , y0 , z0 ) = (0, 0, 0) .
Problema 3.13 Considere el sistema de ecuaciones lineales


105
2

1
1



x
y

1
0

1. Resuelva el sistema usando eliminaci


on gaussiana sin pivoteo y con aritmetica de redondeo
a 4 dgitos.
2. Resuelva el sistema usando eliminaci
on gaussiana con pivoteo y con aritmetica de redondeo
a 4 dgitos.
3. Cu
al de las soluciones obtenidas en a) y b) es la m
as aceptable?
4. Calcule el n
umero de condici
on para la matriz en el sistema inicial y para la matriz del
sistema despues de hacer pivoteo Cual es su conclusi
on?
Problema 3.14 Dado el sistema lineal de ecuaciones estructurado

a11
0

..

an1 1
an 1

a12
a22
0
..
.
...
an1 2
an 2

..

...
...
..
.

0 an2 n2
. . . an1 n2
...
an n2

a1n1
a2n1
..
.

a1 n
a2 n
..
.

an2 n1
an1 n1
an n1

an2 n
an1 n
an n

x1
x2
..
.
xn

b1
b2
..
.
bn

a) Dise
ne un algoritmo basado en el metodo de eliminaci
on gaussiana que permita resolver
dicho sistema adaptado a la estructura particular de este, sin hacer ceros donde ya existen.
b) Realice un conteo de las operaciones (multiplicaci
on, divisi
on, suma y resta) involucrados
solo en la triangulaci
on del sistema en el algoritmo de la parte a).

148

Sergio Plaza

Problema 3.15 Dado el

a1
b2

A=
.
.
.

0
0

sistema lineal Ax = h con


c1
a2
b3
0

0
c2
a3
b4

0
0
c3
a4

0
0
0
c4

0
0
0
0

0
0
0
0

0
0
0
0

0
0
0
0

..
.

..
.

..

..

..

..
.

..
.

..
.

..
.

0
0

0
f3

0
f4

bn1
fn2

an1
bn

cn1
an

y h Rn un vector columna.
Dise
ne un algoritmo en pseudo lenguaje basado en el metodo de eliminaci
on gaussiana, sin
eleccion de pivote, que utilice el mnimo n
umero de localizaciones de memoria, realice el mnimo
n
umero de operaciones (es decir, que obve los elementos nulos de la matriz A (sin hacer ceros
donde ya existen)) para resolver el sistema Ax = h .
Problema 3.16 Resuelva mediante el metodo de eliminaci
on gaussiana con aritmetica exacta
el sistema
5x1
x1

x2
+ 5x2
x2

Problema 3.17 Dado el sistema lineal



x =
y =

x3
+ 5x3

=
=
=

4
2
1

0.9x + y + 17
0.9y 13

1. Proponga un metodo iterativo convergente (en R2 ). La demostracion de convergencia


debe hacerse sin iterar.
2. Resuelva el sistema por su metodo propuesto, con aritmetica decimal de redondeo a 3
dgitos y con una precision de 103 en la norma || || , eligiendo como punto de partida
(0, 0) . (el redondeo debe hacerse en cada operacion).
3. Analice la convergencia del metodo de Jacobi y del metodo de GaussSeidel. Sin iterar.
Problema 3.18 Dado el sistema lineal

3x + y + z
3x + y 5z

x + 3y z

= 5
= 1
= 1

1. Resuelva el sistema usando eliminaci


on gaussiana, con o sin pivoteo, con aritmetica decimal de redondeo a 3 dgitos. (el redondeo debe hacerse en cada operacion).

2. Analice la convergencia del metodo de Jacobi, sin iterar.

149

Sergio Plaza

3. Analice la convergencia del metodo de GaussSeidel, sin iterar.


Problema 3.19 Considere el sistema de ecuaciones lineal

1
1
1

2
3

1
x
1

= 2 .
y
1
2
6

3
z

1
1
1
3
6
1. Resuelva el sistema por el metodo de eliminaci
on de Gauss (sin elecci
on de pivote) redondeando cada operaci
on a 4 dgitos en la mantisa.
2. Resuelva el sistema por el metodo de Jacobi redondeando cada operaci
on a 4 dgitos en
la mantisa, y con una presicion de 103 , comenzando con x0 = y0 = z0 = 0 .
3. En este caso particular Cual de los dos metodos es m
as conveniente? Justifique.
Problema 3.20 Resuelva el sistema Ax = b , donde

3 2
3
1
6 2 6
0

A=
9 4
10
3
12 4 13 5

1
2

b=
3
4

usando descomposicion LU con pivoteo.


Problema 3.21 Considere la matriz

A=

0.0001 1
1
1

1. Trabajando con aritmetica decimal de tres dgitos y redondeo Es posible encontrar una
descomposici
on LU para A ?
2. Considere ahora aritmetica decimal de cinco dgitos y redondeo. Encuentre una descomposicion LU para A , y compare los n
umeros de condici
on de A y de LU Cual es
su conclusi
on?
3. Ahora considere la matriz
A=

1
1
0.0001 1

Es posible ahora encontrar una descomposici


on LU , con aritmetica decimal de redondeo
a tres dgitos para A ?
Problema 3.22 Considere el siguiente

10 3
1 8
2 4

sistema de ecuaciones lineales


x
6
25
2 y = 9
z
9
50

150

Sergio Plaza

1. Resuelva el sistema usando descomposici


on LU de Doolittle.
2. Cu
ales de los metodos iterativos: Richardson, Jacobi, GaussSeidel convergen?
3. Use un metodo iterativo convergente para encontrar la soluci
on del sistema con una precision de = 103 , con criterio de parada ||(xn , yn , zn ) (xT , yT , zT )|| 6 , donde
(xT , yT , zT ) es la solucion exacta del sistema.
Problema 3.23 Considere la matriz

4 1 1
A = 1 4
1
1 1
4

a) Demuestre que existe la descomposion de Cholesky (sin calcularla) de A .


b) Determine la descompisici
on de Cholesky de A .
Problema 3.24

a) Demuestre que la matriz

0
A= 0
2

1 0
2 1
3 1

no tiene descomposicion LU .
b) Realice pivoteo en la matriz A y demuestre que la matriz resultante tiene descomposicion
LU .
Problema 3.25 Considere la matriz

2 1
A= 0 3
1 2

0
2
4

1. Usando aritmetica exacta, encuentre una descomposici


on A = LU , donde L es triangular
inferior con unos en la diagonal.
2. Usando la descomposicion LU obtenida en a), encuentre la soluci
on del sistema (usando
aritmetica exacta) Ax = b , con bT = (5, 3, 8) .
3. Proponga un metodo de punto fijo y demuestre la convergencia (sin iterar) para resolver
el sistema dado en b), y encuentre una soluci
on aproximada con una presicion de 103 .
Problema 3.26 Consideremos el problema de calcular la temperatura de una barra met
alica
de largo L , cuyos extremos se mantienen a temperaturas constantes T0 y TL conocidas. La
ecuacion diferencial que gobierna este fen
omeno es conocida como ecuaci
on de conducci
on del
calor, la cual, en regimen estacionario esta dada por
kT (x) = f (x)

0 < x < L,

(3.48)

151

Sergio Plaza

donde f (x) es una funci


on conocida, que representa una fuente de calor externa y k > 0 es
una constante que se denomina coeficiente de difusi
on o conductividad termica. A esta ecuacion
se le agregan las condiciones de borde:
T (0) = T0 ,

T (L) = TL .

(3.49)

Una de las tecnicas m


as usadas para resolver el problema 3.48-3.49 es el metodo de diferencias
finitas. En este metodo, el intervalo [0, L] se divide en N + 1 intervalos de largo h = NL+1 y
la soluci
on es buscada en los puntos internos definidos por esta division, es decir, en los puntos
xn = nh , con n = 1, . . . , N (los valores de la temperatura en los nodos del borde x0 = 0 y
xN +1 = L son conocidos). En este metodo, las derivadas de primer orden se aproximan por el
cuociente de diferencias finitas
f (x)

f (x + h) f (x)
,
h

mientras que las derivadas de segundo orden, se aproximan por


f (x)

f (x h) 2f (x) + f (x + h)
.
h2

(3.50)

Denotemos por Tn los valores aproximados de la evaluaciones de la temperatura exacta en los


puntos de la malla, T (xn ) . Reemplazando T (x) en la ecuacion 3.48 por la expresi
on 3.50,
y evaluando la ecuaci
on en los nodos internos de la malla {x1 , . . . , xN } , se obtiene el siguiente
sistema de ecuaciones lineales:
2T1 T2

Tj1 + 2Tj Tj+1


2TN 1 + 2TN

que matricialmente

2
1
1 2

1
0
.
..
.
.
.
0

= h2 f (x1 ) + T0 ,
2

= h f (xj ),

(3.51)

j = 2, . . . , N 1;

(3.52)

= h f (xN ) + TL ,

puede ser escrito como

0
0
T1
1
0

T2
..
..
..

..
.
.
.
.

..

T
N 1
. 2 1
TN
0 1 2

= h2

f (x1 )
f (x2 )
..
.
f (xN 1 )
f (xN )

(3.53)

T0
0
..
.
0
TL

(3.54)

Denotemos por A la matriz y por Fh el lado derecho de este sistema.


Tomando como par
ametros del problema los valores
k = 1,
T0 = 0,

L = 1,
TL = 37,

f (x) = 37


2
2

sin( 2 x),

(3.55)

se pide resolver numericamente el sistema 3.54, usando los metodos iterativos de Jacobi, GaussSeidel y SOR. Para el metodo SOR tome distintos valores del parametro de aceleracion
(1, 2) . Calcule ademas el parametro de aceleracion optimo .
Para ello, siga los siguientes pasos:
1. Compruebe que la matriz A es definida positiva.

152

Sergio Plaza

2. Implemente cada uno de los 3 metodos antes mencionados y haga un estudio comparativo
de estos para distintos valores de N . Por ejemplo, N = 50, 100, 200, 1000. Especifique
el criterio de parada utilizado y el n
umero de iteraciones para cada uno de los metodos y
para los distintos valores de N . Presente sus resultados en una tabla.
3. Finalmente, determine la soluci
on analtica del problema 3.48-3.49, con los par
ametros
dados por 3.55 y grafique el error absoluto en la soluci
on, para cada uno de los metodos
y para los distintos valores de N . A partir de estos graficos, comente cual de los tres
metodos aproxima mejor a la soluci
on .
Problema 3.27 Demuestre que la matriz no singular

0 0

A=
1 0
0 1

1
0
0

no tiene descomposicion LU , pero la matriz A I si tiene descomposicion LU . Dar una


matriz de permutaci
on P de modo que P A tiene descomposicion LU .
Problema 3.28 Sea a > 0 una constante. Se

2a

A=
0

2 3
a
3

tiene la siguiente matriz


2 3
a
0

2 3
a
0

2 5
0
5 a

(a) Demuestre que A tiene descomposicion de Cholesky y usela para calcular A1 .


(b) calcule el n
umero de condici
on de la matriz A , en terminos de A y determine cuando
ella esta bien condicionada.
(c) Si b = (0 1 1)T . Usando la descomposicion anterior resuelva el sistema de ecuaciones
lineales Ax = b .
Problema 3.29
Problema 3.30
Problema 3.31