Está en la página 1de 37

2.

Ecuaciones Algebraicas Lineales


2.1 Definiciones
Una matriz = (aij), de orden n x m, es un conjunto de nmeros dispuestos en n filas y m
columnas.

A =

a11

a12

a13

....

a 21
a 31

a 22
a 32

a 23
a 33

....
....

.....
a n1

an2

a n3

....

a1 m

a2m
a3m

a nm

Un elemento, aij, se identifica por dos sub ndices, el primero de los cuales denota la
fila y el segundo la columna.

Si m = 1 se tiene una matriz columna o "vector" de

dimensin n:

b1
b

b = 2
M
b3
Si en cambio n = 1, se tiene una matriz fila: c = [c1
la matriz es cuadrada (de orden n). Por ejemplo:

4
1 2 3

1 4 9 16
A=
1 8 27 64

1 16 81 256

d1

0
D=
0

c2

0
d2
0

0
0
d3

K c m ] . Si n = m se dice que

d 4
0
0
0

0
In =
0

0 0 0

1 0 0
0 1 0

0 0 1

A, D e In son matrices cuadradas. La matriz D = diag [d 1 d 2 K d n ] es una matriz


diagonal, cuyos elementos son todos cero, excepto aquellos ubicados en la diagonal
principal (de la esquina superior izquierda a la inferior derecha). Un caso particular es el

( )

de I n = diag [1 1 K 1] = ij , que es una matriz unidad (o identidad) de orden n. La


matriz identidad tiene en el lgebra matricial un papel similar al uno en lgebra comn.
Por otro lado, el equivalente del cero es una matriz nula (no necesariamente cuadrada),
cuyos elementos son todos ceros.
Las matrices cuadradas cuyos elementos tienen simetra conjugada: a ij = a ji
indica conjugada compleja) se denominan Hermitianas. Por ejemplo:

2 + i 3 2i
0
1

5
1 i
1+ i
2i
H=
3 + 2i 1 + i
3
2 3i

i
2
+
3
i
4

(donde *

i = 1

es una matriz Hermitiana. Si todos los elementos de una matriz Hermitiana son reales,
es decir a ij = a ji , se tiene una matriz simtrica.

H. Scaletti - Mtodos Numricos: lgebra Lineal

2-1

Una matriz cuadrada en la que la mayor parte de los elementos son ceros y los
elementos con valor significativo estn agrupados alrededor de la diagonal principal se
denomina matriz banda. Por ejemplo:

1 1

1 2 1

B=
1 2 1

1 2 1

1 1

Las lneas paralelas a la diagonal principal se llaman codiagonales. El nmero total de


diagonal y codiagonales con elementos significativos en el ancho de banda (3 en este
ejemplo).

Para matrices simtricas puede tambin hablarse de un ancho de semi

banda; que incluye a la diagonal principal (2 en el ejemplo precedente). Una matriz


banda tiene baja densidad.

Por densidad se entiende la razn entre el nmero de

elementos con valor significativo y el nmero total de elementos.


Si en una matriz cuadrada todos los elementos por encima (o por debajo) de la diagonal
principal son cero se dice que sta es una matriz triangular inferior (superior):

l 11

l 21
L = l 31

l n1

L 0
L 0

L l nm
L

l 22
l 32

0
l 33

l n2

l n3

u11

0
U= 0

u12

u13

u 22

u 23

u 33

En lo que sigue se usan letras negritas para denotar matrices.

L u1n

L u 2n
L u 3n

L u nm
Para las matrices

columna y para las matrices filas se usan minsculas, mientras que para las matrices
rectangulares (incluyendo las matrices cuadradas) se usan maysculas. En todos los
casos, los elementos de una matriz se indican en minsculas.

2.2 Operaciones Bsicas con Matrices


Subdivisin o particin. El conjunto de elementos de una matriz A puede ser dividido
en otros ms pequeos mediante lneas horizontales y/o verticales. Las distintas partes,

A11, A12, etc. son submatrices de la matriz A. Las submatrices pueden tratarse como
elementos comunes de una matriz, excepto que deben operarse segn las reglas del
lgebra matricial.
Igualdad. Dos matrices, A, B, del mismo orden, son iguales si cada elemento de una es
igual al correspondiente elemento de la otra. A = B implica a ij = bij para todo i, j.
Suma (resta). La suma (o diferencia) de dos matrices A, B del mismo orden es una
tercera matriz del mismo orden, cuyos elementos se obtienen sumando (restando)
algebraicamente los correspondientes elementos de las dos matrices originales:

AB=C

a ij bij = cij

La suma (resta) de matrices es asociativa y conmutativa:

(A + B ) + C = A + (B + C )
H. Scaletti - Mtodos Numricos: lgebra Lineal

A+B=B+A

2-2

Derivada e integral. Anlogamente, puede definirse la derivada de una matriz:

aij

A
=B

= bij

y la integral de una matriz en forma similar.


Multiplicacin por un escalar. El producto de una matriz por un escalar es otra matriz
del mismo orden cuyos elementos son los de la matriz original multiplicados por el
escalar:

A = B a ij = bij
Multiplicacin de dos matrices. Dos matrices, A (m x p) y B (p x n) pueden ser
multiplicadas en el orden A B slo si son conformables para el producto, es decir, si el
nmero de columnas de A es igual al nmero de filas de B. El producto C (m x n) es
una matriz cuyos elementos se obtienen de:

cij =

ik

bkj

i = 1, m

j = 1, n

k =1

Por ejemplo, si:

A= 4
10

3
6
3

2
4

B = 2
3

c11 = 5 1 + 3 2 + 1 3 = 14

4
2

C = AB

14 39

C = 22 48
28 70

c 21 = 4 1 + 6 2 + 2 3 = 22

K
c32 = 10 5 + 3 4 + 4 2 = 70

La multiplicacin de matrices es asociativa y distributiva, pero en general no es


conmutativa:

A (B C) = ( A B) C

A (B + C) = AB + AC

AB BA

Siendo el orden de multiplicacin importante, es frecuente enfatizarlo, diciendo por


ejemplo que en el producto AB la matriz A premultiplica a B, o bien que B postmultiplica
a A. En algunos casos AB = BA ; se dice entonces que A y B son conmutables.
Es fcil verificar que el producto de dos matrices triangulares inferiores (superiores) es
otra matriz triangular inferior (superior).
Transposicin. La transpuesta AT de una matriz A es aquella cuyas filas son las
columnas de A (y viceversa). Si A = B = (bij ) , entonces bij = a ji :
T

1 4

A = 2 5
3 6

1 2 3

A T =
4 5 6

La transpuesta de una matriz simtrica es obviamente la matriz original. Productos del


tipo A T A resultan siempre en matrices simtricas.

Lo mismo puede decirse de

productos A SA si S es simtrica.
Cuando se transpone un producto matricial la secuencia de los factores debe invertirse:

H. Scaletti - Mtodos Numricos: lgebra Lineal

2-3

(AB K C)T

= CT K B T A T

Determinante de una matriz cuadrada. Es un nmero que resulta de:

det A = A =

1i a 2 j a 3 k

K a nr

n!

Donde cada trmino de la suma incluye un solo elemento de cada fila y de cada
columna. Si en estos productos se considera a los elementos ordenados por filas 1, 2, ..

n, los ndices de las columnas en cada trmino de la suma pueden ser obtenidos como
permutacin del orden normal.

Segn el nmero de cambios requeridos para esta

permutacin sea par o impar se asigna al producto correspondiente el signo + o -. La


suma incluye las n! permutaciones posibles.
Las siguientes propiedades facilitan el cmputo de la determinante de una matriz
cuadrada A cualquiera:
Si se intercambian dos filas (columnas) la determinante cambia de signo.
La determinante de una matriz, A , es igual a la determinante de su transpuesta.
El valor de la determinante de una matriz A no se altera si una columna (fila)
multiplicada por un escalar se suma algebraicamente a otra columna (fila):

a
det
c

a
b
= det
0
d

bc = ad bc
d
a
b

En consecuencia, la determinante de una matriz con dos filas (o columnas) iguales (o


proporcionales) es cero. Ms an,si dos o ms columnas (filas) de una matriz A son
linealmente dependientes, es decir 1a1+ 2a2+ 3a3+...+ n-1an-1+ nan = 0 para un
conjunto de coeficientes i de los que por lo menos uno es distinto de cero, la
determinante es cero. Se dice entonces que la matriz A es singular. Considrese por
ejemplo el caso:

1 1 0

A = 1 2 1
0 1 1

A es singular puesto que:

1
1
0 0


(1)1 + ( 1)2 + (1)1 = 0
0
1
1 0


La determinante de una matriz triangular es igual al producto de los elementos de su


diagonal principal.
Para un producto matricial se cumple que:

det (A B K C ) = det( A ) det( B) K det(C)


As, por ejemplo, si:

4 1
1 2 3


1 4 9 16 1
A=
=
1 8 27 64 1


1 16 81 256 1

0
1
3
7

0
0
1
6

0 1

0 0
0 0

1 0

2
2
0
0

3 4

6 12
6 24

0 24

entonces: det( A) = (1) (1 2 6 24 ) = 288

H. Scaletti - Mtodos Numricos: lgebra Lineal

2-4

Inversa de una matriz. Si una matriz A es no singular, es posible obtener su inversa,

A-1, que satisface:

(A )

1 1

A 1 A = AA 1 = I n
Obviamente I n

=A

= I n . La inversa de una matriz diagonal es otra matriz diagonal, cuyos

elementos son inversas de los elementos de la matriz original. La inversa de una matriz
triangular (inferior o superior) es otra matriz triangular del mismo tipo.
La inversin de matrices permite efectuar la operacin equivalente a la divisin del
lgebra comn.

AB = C B = A 1C

(vanse los comentarios del tem 2.5.5)

Para la inversa de un producto matricial se cumple:

(AB K C)1 = C 1 K B 1 A 1
Una matriz Q se denomina ortogonal si: Q Q T = I n . Particularmente, si Q es una matriz
cuadrada se tiene entonces que Q

cos
R =
sen

= Q T . Por ejemplo:

sen

cos

es ortogonal, puesto que:

cos
R 1 =
sen

sen
= R T
cos
.

Refirindose a una matriz con coeficientes complejos, U, se dice que sta es unitaria si

U U* = I

2.3 Espacios y Subespacios Vectoriales


Una matriz columna de orden n es un conjunto nmeros que pueden ser interpretados
como componentes de un vector en un espacio de dimensin n.
Se dice que un conjunto de vectores v1 v2 v3 .... v5 son linealmente dependientes si
existen nmeros 1 2 3 .... 5, no todos cero, tales que:

1v1 + 2 v 2 + 3 v 3 + K + 5 v 5 = 0
Alternativamente, puede decirse que los vectores son linealmente dependientes si uno
cualquiera de ellos puede expresarse como combinacin lineal de los otros:

vr =

c v
i

(y linealmente independientes si esto no es posible).

i r

p vectores linealmente independientes de orden n ( n p ) conforman una base de un


espacio vectorial de dimensin p. Por otro lado, q vectores, de los que p ( p q ) son
linealmente independientes, estn contenidos en un espacio de dimensin p.
Si los vectores linealmente independientes x1 x2 .... xp constituyen una base de un
espacio vectorial de dimensin p, un sub conjunto de estos puede considerarse como
base de un sub espacio contenido en el espacio vectorial original.

H. Scaletti - Mtodos Numricos: lgebra Lineal

2-5

Las columnas (o filas) de una matriz rectangular A pueden tratarse como vectores. El
nmero de vectores linealmente independientes define el rango de la matriz. Una
matriz cuadrada es no singular si su rango es igual al orden de la matriz, es decir si
todas las columnas son linealmente independientes. Lo contrario implica que una o ms
columnas (filas) pueden obtenerse como combinacin lineal de las otras y la
determinante es cero.

2.4 Sistemas de Ecuaciones Lineales


Se ha estimado que un 75% de los problemas de ingeniera se presenta, en alguna
etapa del trabajo, la solucin de un sistema de ecuaciones lineales:

a11 x1 + a12 x 2 + a13 x 3 + K + a1n x n = b1


a 21 x1 + a 22 x 2 + a 23 x3 + K + a 2 n x n = b2
a 31 x1 + a 32 x 2 + a33 x 3 + K + a 3n x n = b3

(2.1a)

a n1 x1 + a n 2 x 2 + a n3 x3 + K + a nn x n = bn
o bien: Ax = b

a11

a 21
a
31
L

a n1

a12

a13

a 22
a 32

a 23
a 33

an2

a n3

K a1n x1 b1

K a 2 n x 2 b2

K a 3n x3 = b3

M M

K a nn x n bn

(2.1b)

En las secciones siguientes se supone que el sistema de ecuaciones tiene solucin


nica, es decir, que det( A) 0 .
La solucin de sistemas de ecuaciones es un buen ejemplo de las diferencias entre las
matemticas clsicas y los mtodos numricos modernos. As, la Regla de Cramer:

xj =

a11

a 21
det a 31

a n1
a11

a 21
det a 31
L

a n1

a12

b1

a 22
a 32

K
K

b2
b3

K
K

an2

bn

a12

a1 j

a 22
a 32

K
K

a2 j
a3 j

K
K

an2

a nj

a1n

a 2n
a 3n

a nn
a1n

a 2n
a 3n

a nn

(2.2)

si bien proporciona frmulas explcitas es tremendamente ineficiente cuando se trata de


resolver sistemas con ms de 3 incgnitas (excepto para casos muy especiales de la
matriz de coeficientes).
Muchos mtodos frecuentemente utilizados en ingeniera, como por ejemplo los mtodos
de elementos finitos para la solucin de ecuaciones en derivadas parciales, resultan en

H. Scaletti - Mtodos Numricos: lgebra Lineal

2-6

el planteamiento de grandes sistemas de ecuaciones lineales. El costo de anlisis y en


muchos casos la factibilidad de un modelo suficientemente preciso dependen en gran
medida de la forma de almacenamiento de las ecuaciones y de la eficiencia del algoritmo
utilizado en su solucin.

2.5 Mtodos Directos para la Solucin


de Sistemas de Ecuaciones Lineales
Este acpite considera mtodos que, de no haber errores de redondeo, producen la
solucin exacta en un nmero finito de pasos. Para sistemas Ax = b, en los que A es de
alta densidad, los mtodos directos son en general los ms eficientes (para las
computadoras actualmente utilizadas).

Sin embargo, cuando un gran nmero de

elementos de A son cero, y en especial cuando A es definida positiva ( x T Ax > 0 para


cualquier x 0 ), puede ser ms conveniente utilizar un mtodo iterativo en que se
obtiene una secuencia de soluciones aproximadas que convergen a la solucin exacta.
2.5.1. Sistemas Triangulares
La solucin de sistemas de ecuaciones lineales es particularmente simple cuando la
matriz de coeficientes es triangular. Por ejemplo, considrese un sistema Ux = b en el
que U es triangular superior:

u11 x1 + u12 x 2 + u13 x3 + K + u1n x n = b1


u 22 x 2 + u 23 x3 + K + u 2 n x n = b2
u 33 x3 + K + u 3n x n = b3

(2.3)

KK
u n 1,n 1 x n 1 + u nn x n = bn
u nn x n = bn

Si U es no singular ( u ii 0 para todo i), las incgnitas pueden evaluarse en el orden: n,


n-1, n-2, n-3, ... 2, 1:

xn =

bn
u nn

xi =

1
u ii

(2.4a)

bi
u ik x k

k = i +1

(2.4b)

Este proceso se denomina sustitucin inversa. Anlogamente, para un sistema Lx = b,


en el que L es una matriz triangular inferior no singular ( l ii 0 para todo i), puede
utilizarse una sustitucin directa o reduccin:

x1 =

b1
l11

1
xi =
lii

(2.5a)

bi

i 1

l ik x k

k =1

En ambos casos, la solucin del sistema requiere n divisiones y

(2.5b)

1
2

n (n 1) operaciones

de multiplicacin y suma (casi lo mismo que para multiplicar una matriz triangular por un
vector).

H. Scaletti - Mtodos Numricos: lgebra Lineal

2-7

2.5.2 Mtodo de Gauss


ste es el ms importante de los mtodos directos para la solucin de sistemas de
ecuaciones lineales. La idea bsica est en combinar las distintas ecuaciones para ir
eliminando incgnitas en forma sistemtica y obtener finalmente un sistema triangular,
fcil de resolver. Considrese el sistema de orden n:
(1)
(1)
(1)
a11
x1 + a12
x 2 + a13
x 3 + K + a1(1n) x n = b1(1)
(1)
(1)
(1)
a 21
x1 + a 22
x 2 + a 23
x 3 + K + a 2(1n) x n = b2(1)
(1)
(1)
(1)
a 31
x1 + a 32
x 2 + a 33
x 3 + K + a 3(1n) x n = b3(1)

(2.6)

KK
(1)
a n(11) x1 + a n(12) x 2 + a n(13) x 3 + K + a nn
x n = bn(1)

o en forma compacta: Ax = b.

En lo que sigue se supone que A es no singular.

Supngase tambin que a11 0 . Puede entonces eliminarse x1 de la ecuacin i si de


sta se resta la ecuacin 1 multiplicada por:

li1 =

a i(11)

(2.7a)

(1)
a11

Con ello se obtiene:


(1)
(1)
(1)
a11
x1 + a12
x 2 + a13
x3 + K + a1(n1) x n = b1(1)
( 2)
( 2)
a 22
x 2 + a 23
x3 + K + a 2( 2n) x n = b2( 2)
( 2)
( 2)
a 32
x 2 + a 33
x3 + K + a 3( 2n) x n = b3( 2)

(2.7b)

KK
( 2)
a n( 22) x 2 + a n( 23) x3 + K + a nn
x n = bn( 2)

donde

a ij( 2) = aij(1) l i1 a1(1j)

(2.7c)

bi( 2) = bi(1) l i1 b1(1)

En forma similar, puede eliminarse x2 de las ecuaciones i = 3,4,..n restando de la


ecuacin i la ecuacin 2 multiplicada por:

li 2 =

a i(22)
( 2)
a 22

y as sucesivamente hasta obtener el sistema triangular:


(1)
(1)
(1)
a11
x1 + a12
x 2 + a13
x3 + K + a1(n1) x n = b1(1)
( 2)
( 2)
a 22
x 2 + a 23
x3 + K + a 2( 2n) x n = b2( 2)
( 3)
a 33
x3 + K + a 3(3n) x n = b3(3)

(2.8)

KK
(n)
a nn

x n = bn( n)

o en notacin matricial: Ux = b.
(1)
( 2)
( 3)
Los elementos a11
, a 22
, a 33
K a n( n1,1n)1 que se usan como divisores en esta reduccin
se llaman pivotes. El proceso tal como ha sido planteado hasta el momento falla si

alguno de estos es cero.

Esto en general no ocurre si la matriz A tiene diagonal

H. Scaletti - Mtodos Numricos: lgebra Lineal

2-8

dominante (es decir, si

aii >

(vTAv > 0 para v arbitrario).

ij

) o si A es simtrica (AT = A) y definida positiva

j i

El siguiente ejemplo ilustra el proceso:

4 x1 2
1 2 3

(1) 1 4 9 16 x 2 10
=
(1) 1 8 27 64 x3 44

(1) 1 16 81 256 x 4 190


Los nmeros indicados a la izquierda (entre parntesis) son los factores li1 por los que es
necesario multiplicar la ecuacin 1 antes de restarla de la ecuacin i, para lograr el
objetivo de eliminar x1 de la segunda y las siguientes ecuaciones.

4 x1 2
1 2 3


0 2 6 12 x 2 8
=
(3) 0 6 24 60 x 3 42

(7) 0 14 78 252 x 4 188


Anlogamente:

0
0

(6) 0
1

0
0

2 3
4 x1 2

2 6 12 x 2 8
=
0 6 24 x3 18

0 36 168 x 4 132
2
2
0
0

3 4 x1 2

6 12 x 2 8
=
6 24 x3 18

0 24 x 4 24

finalmente:

24 x 4 = 24
6 x3 + 24 x 4 = 18
2 x 2 + 6 x3 + 12 x 4 = 8
x1 + 2 x 2 + 3 x3 + 4 x 4 = 2

x4 = 1
x3 = 1
x2 = 1
x1 = 1

Para estimar el esfuerzo de cmputo es habitual referirse al nmero de "operaciones"


requeridas. La costumbre es contar como una operacin a la combinacin de una suma
(o resta, o simplemente una copia) con una multiplicacin (o divisin). Esta prctica
proviene de las pocas en que el tiempo requerido para efectuar una multiplicacin o una
divisin era un orden de magnitud mayor que el necesario para una suma o una resta,
pudiendo despreciarse estas ltimas. La reduccin de la matriz de coeficientes requiere

n 3 . La reduccin del segundo miembro y la


2
sustitucin inversa requieren aproximadamente n operaciones. Si se tuvieran varios
sistemas de ecuaciones con la misma matriz de coeficientes: Ax = b1, Ay = b2, ... slo
se requerira efectuar la reduccin de A una vez, por lo que el nmero de operaciones
sera siempre aproximadamente 1 3 n 3 . Ms precisamente, se hacen 1 3 n 3 + 2 n 2 + 2 3 n
de un nmero de operaciones de orden

H. Scaletti - Mtodos Numricos: lgebra Lineal

2-9

operaciones para resolver un sistema de n ecuaciones lineales, pero si n es grande slo


el primer trmino es importante.
El proceso antes descrito falla cuando se presenta un pivote, a ii(i ) , igual a cero. Un
ejemplo simple de tal situacin es el siguiente:

1 1 1 x1 1


1 1 2 x 2 = 2
1 2 2 x 1

3
La matriz de coeficientes no es singular y el sistema tiene una solucin nica

x = (1 1 1) . Sin embargo, despus del primer paso (efectuado en el orden indicado


T

anteriormente), se obtiene:

1 1 1 x1 1


0 0 1 x 2 = 1
0 1 1 x 0

3
y siendo a 22 = 0 , no es posible proseguir como habitualmente. La solucin es en este
( 2)

caso obvia: intercambiar las ecuaciones (filas) 2 y 3. En general, si a ii(i ) = 0 , algn otro
(i )

elemento de la misma columna, a ji , debe ser distinto de cero (lo contrario implicara
una dependencia lineal de por lo menos dos de las ecuaciones, es decir la singularidad
de A). Intercambiando las filas j e i puede entonces continuarse la reduccin. Dados los
(i )

elementos a ji de la columna i, es conveniente escoger como pivote aquel de mximo


valor absoluto, puesto que el uso de pivotes pequeos introduce fuertes errores en la
solucin. El ejemplo siguiente es ilustrativo:

3 10 11 1 x1 7

1
1 x 2 9

Trabajando con 10 cifras significativas se obtiene:

3.000 000 000 10 11

de donde:

x1
7

=
10
10
3.333 333 333 10 x 2 7 3.333 333 333 10

x2 = 7
x1 = 0

La solucin correcta es, sin embargo, x1 = 2 . Es fcil comprobar que no se presenta


este problema si se evita el pivote pequeo intercambiando previamente las ecuaciones:

1
1 x1 9

=
11
1 x 2 7
3 10
El intercambio de filas al que se ha hecho referencia se denomina intercambio parcial.
Alternativamente, puede pensarse en un intercambio completo, en que se selecciona el
siguiente pivote como el elemento de mximo valor absoluto entre todos los elementos
de la sub matriz por reducirse. Se intercambian entonces filas (ecuaciones) y columnas
(incgnitas) para continuar el proceso como se ha descrito.

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 10

El intercambio parcial es generalmente satisfactorio, desde el punto de vista de la


estabilidad numrica, y requiere bastante menos trabajo que el proceso con intercambio
total.
2.5.3 Descomposicin A = LU
Supngase que A es tal que el proceso de reduccin del mtodo de Gauss puede
efectuarse sin necesidad de intercambiar filas o columnas.

En tal caso, la

descomposicin A = LU donde L es una matriz triangular inferior con l ii = 1 y U es una


matriz triangular superior, es nica. Esto puede probarse fcilmente por induccin. Para
el caso del primer ejemplo:

4 1
1 2 3

1 4 9 16 1
1 8 27 64 = 1


1 16 81 256 1

0
1
3
7

0
0
1
6

0 1

0 0
0 0

1 0

2
2
0
0

3 4

6 12
6 24

0 24

Los elementos de L son justamente los coeficientes l ij usados durante la reduccin; U


es en cambio la matriz A reducida!
Se ha mencionado anteriormente que varios sistemas de ecuaciones con la misma
matriz de coeficientes pueden ser resueltos simultneamente. Sin embargo, no siempre
se conocen desde un principio todos los vectores de coeficientes del segundo miembro.
Por ejemplo, puede querer resolverse Ax1 = b y Ax2 = x1. An en este caso, al resolver
el segundo sistema no es necesario volver a reducir la matriz A como al inicio. El
sistema Ax = b es equivalente a LUx = b, o bien a los dos sistemas triangulares: Ly = b
2

, Ux = y. Siendo L y U conocidos, estos dos sistemas pueden resolverse en O(n )


operaciones. L y U pueden almacenarse en las mismas posiciones de memoria que en

a ii(i ) se determina con el objeto de hacer a ki(i +1) = 0 ,


l ki puede almacenarse en las posicin de a ki . Por otro lado, no es necesario almacenar
los elementos de la diagonal de L (que son todos iguales a 1). Dado que los elementos
de U son aquellos de la matriz reducida, el efecto de la reduccin o descomposicin en

la matriz A:

Como l ki = a ki

(i )

la distribucin de memoria es de la forma:

a11

a 21
a
31
L

a n1

a12

a13

a 22
a 32

a 23
a33

a n2

a n3

K a1n
u11 u12

K a2n
l 21 u 22

K a 3n
l 31 l32

K a nn
l n1 l n 2

u13
u 23
u 33
l n3

K u1n

K u 2n
K u 3n

K u nn

Para el ejemplo precedente:

4
1 2 3

1 4 9 16
1 8 27 64

1 16 81 256

1
1

2
2
3
7

3 4

6 12
6 24

6 24

En los casos en los que se efectan intercambios de filas y/o columnas es siempre
posible (si A no es singular) obtener factores triangulares L y U tales que LU = A,

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 11

donde A es la matriz que resulta de efectuar los intercambios mencionados en la matriz


original A.
2.5.4 Otros Mtodos Directos
Todos los mtodos tratados en esta seccin pueden considerarse como variantes del
mtodo de Gauss.
Una posible alternativa es la de calcular los elementos de L y U mediante las frmulas:

u k j = ak j

k 1

kp

j = k , k + 1, n

upj

(2.9a)

p =1

l ik =

1
u kk

ai k

k 1

l
p =1

ip

u pk

i = k + 1, n

(2.9b)

en lugar de efectuar reducciones como anteriormente. Esta modificacin (Doolitle) es


conveniente cuando se usan calculadoras manuales, ya que evita la escritura de muchos
resultados intermedios. Su uso en computadoras es ventajoso si las operaciones se
hacen con una precisin mayor que aquella con la que se almacenan los resultados.
El mtodo de Crout efecta la factorizacin A = LDR, donde L es la misma matriz
triangular inferior obtenida durante el proceso de Gauss, D es una matriz diagonal y R es
una matriz triangular superior con coeficientes 1 en su diagonal principal. D y R estn
relacionados con la U de Gauss.

d ii = u ii
rij =

u ij
d ii

j >i

(2.10)

En particular, para A simtrica: R = LT. Este mtodo no posee ventajas ni desventajas


con relacin al de Gauss, bien sea en cuanto a estabilidad numrica y precisin, como
en el nmero de operaciones necesarias.
Si durante el proceso de reduccin se usa la ecuacin i para eliminar xi, no slo de las
ecuaciones que siguen a la i sino tambin de la ecuaciones precedentes, se tiene el
mtodo de Gauss Jordan. Para el ejemplo antes considerado:

4 x1 2
1 2 3


1 4 9 16 x 2 10
1 8 27 64 x = 44

3
1 16 81 256 x 190

4
4 x1 2
1 2 3


0 2 6 12 x 2 8
0 6 24 60 x = 42

3
0 14 78 252 x 188

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 12

0
0

0 3 8 x1 6

2 6 12 x 2 8
=
0 6 24 x3 18

0 36 168 x 4 132

Ntese que se utiliz la segunda ecuacin para reducir no solamente las ecuaciones 3 y
4, sino tambin la ecuacin 1. Anlogamente:

0
0

0
2
0
0

0
4 x1 3

0 12 x 2 10
=

6 24 x3 18

0 24 x 4 24

0
0

0
2
0
0

0 0 x1 1

0 0 x 2 2
= de donde se obtiene fcilmente la solucin.
6 0 x 3 6

0 24 x 4 24

El mtodo de Gauss- Jordan es ms simple de programar, pero requiere casi 1.5 veces
el nmero de operaciones del mtodo de Gauss tradicional.
Finalmente, para concluir esta seccin, debe mencionarse que el mtodo de Gauss es
aplicable tambin a sistemas de ecuaciones con coeficientes complejos. Por ejemplo:

2 1 i 0 x1 4 2i

1 + i 2 1 + i x 2 = 8 + 4i
0 1 i
3 x3 11 2i

2 1 i 0 x1 4 2i

0 1 1 + i x 2 = 5 + 3i
0 1 i
3 x3 11 2i

2 1 i 0 x1 4 2i

0 1 1 + i x 2 = 5 + 3i
0 0
1 x3 3

de donde:

x3 = 3
x 2 = (5 + 3i ) 3(1 + i ) = 2
x1 =

1
2

[(4 2i) 2(1 i)] = 1

2.5.5 Inversin de Matrices


-1

Si la inversa, A , de una matriz A se conoce, la solucin de un sistema Ax = b puede


-1

-1

escribirse x = A b. Podra entonces parecer conveniente determinar A , en especial si


se tienen varios sistemas de ecuaciones con la misma matriz de coeficientes.

Sin

embargo, la solucin puede ser obtenida con mucho menos operaciones y en general
con mucha ms precisin utilizando la descomposicin A = LU. La solucin de los dos
2

sistemas triangulares Ly = b y Ux = y requiere slo O(n ) operaciones (por cada


columna de b x).

Por otro lado, la multiplicacin

H. Scaletti - Mtodos Numricos: lgebra Lineal

A-1b tambin demanda O(n2)


2 - 13

-1

operaciones. Sin embargo, la determinacin de A requiere aproximadamente el triple


de trabajo que para obtener L y U. El nmero de operaciones necesarias para obtener
la inversa de una matriz cuadrada (no simtrica) de orden n es n 3 + 2 n 2 n + 1 .
No obstante esto, en algunos casos se necesita la inversa en forma explcita. La inversa
puede obtenerse de un modo eficiente resolviendo n sistemas de ecuaciones lineales:

AX = In, donde X = A-1. El siguiente ejemplo utiliza una variante del mtodo de Gauss
con este objeto:

1 1 1

A = 2 1 3
3 1 4

En la columna de la izquierda se tienen la matriz A y sus sucesivas modificaciones. A la


derecha se presentan la matriz I y las modificaciones obtenidas efectuando sobre las
filas las mismas operaciones que en A:

1 1 1

2 1 3
3 1 4

1 0 0

0 1 0
0 0 1

1 1 1

0 1 1
0 2 1

1 0 0

2 1 0
3 0 1

1 0 2

0 1 1
0 0 1

1 1 0

2 1 0
1 2 1

1 0 0

0 1 0
0 0 1

1 3 2

1 1 = A 1
1
1 2 1

Alternativamente, si la descomposicin A = LU de una matriz A se conoce, la inversa


-1

-1

-1

puede obtenerse de A = U L , tambin en O(n ) operaciones. Si en los cmputos


-1

para L y U se hacen intercambios de filas, el producto U L


cierta matriz A.

-1

La matriz A

-1

resulta la inversa de una

puede obtenerse a partir de (A)

-1

intercambiando

columnas en secuencia inversa a los cambios de fila durante el proceso.


Para la matriz antes considerada:

1
1 1 1 1 0 0 1 1

2 1 3 = 2 1 0 0 1 1
3 1 4 3 2 1 0 0 1

A = LU
La inversa de una matriz triangular es otra matriz del mismo tipo, fcil de determinar.
Para una matriz triangular inferior, L, cada columna de la matriz inversa L-1 puede ser
obtenida por sustitucin directa o reduccin: LY = In.

y ij = 0
H. Scaletti - Mtodos Numricos: lgebra Lineal

i< j

(2.11a)

2 - 14

y ij =

i 1

ij l ik y kj

k= j

1
l ii

i j

(2.11b)

En forma anloga, la inversa, U-1, de una matriz triangular superior, U, es tambin una
matriz triangular superior. Cada fila i, puede determinarse mediante UZ = In:

1
u jj

z ij =

ij

j 1

ik u kj

k =i

z ij = 0

i j

(2.12a)

i> j

(2.12b)

Para las matrices L y U del ejemplo considerado:

0 0
1

L = 2 1 0
1 2 1

2
1 1

= 0 1 1
0 0 1

1 3 2

=U L = 1
1 1
1 2 1

2.5.6 Casos Especiales


Matrices Simtricas Definidas Positivas.

a (jk1) = a kj(1) .

Si se efecta la reduccin de Gauss sin


(i )
(i )
intercambio de filas y/o columnas se tiene tambin que: a jk = a kj para i < j , k n .
Para una matriz simtrica:

En otras palabras, la sub matriz que debe an reducirse en un paso dado es tambin
simtrica.

Esto puede probarse por induccin, teniendo en cuenta las condiciones

iniciales de simetra y adems que:

a kj(i +1) = a kj(i ) l ki a ij(i ) = a kj(i )


a (jki +1)

a (jki )

l ji a ik( i )

a (jki )

a ki(i )
a ii(i )
a (jii )
a ii( i )

a ij(i )

(2.13a)

a ik( i )

(2.13b)

Puede observarse que, si los coeficientes en la etapa i son simtricos, aquellos en la


etapa i + 1 tambin lo son, puesto que se obtienen operando del mismo modo con
nmeros iguales.
Considrese, por ejemplo, el sistema de ecuaciones con coeficientes simtricos:

0 x1 0
5 4 1


4 6 4 1 x 2 1
1 4 6 4 x = 0

3
0
x 0
1

4
5

4
En las sucesivas etapas del proceso de eliminacin, las sub matrices que quedan por
reducir siguen siendo simtricas:

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 15

5 4

0 145
0 16
5

0 1

0 x1 0

1 x 2 1
=
4 x3 0

5 x 4 0

1
165
29
5

5 4 1

16
14
0 5 5
0 0
15
7

0 0 20
7

0 x1 0

1 x 2 1
=

207 x 3 87

65
145
14 x 4

5 4 1

16
14
0 5 5
0 0
15
7

0 0
0

0 x1 0

1 x 2 1
= 8 de donde
20
7 x3
7
5

76
x
6 4

x1
8
x

2 1 13
=
x 3 5 12
x 4
7

La simetra de la matriz por reducirse permite hacer: l ki = a ik

(i )

( i +1)

(i )
lugar de a ki ) y restringir los clculos de: a kj

en lugar de

O( 1

i j n.

a ii(i )

(i )

(utilizando a ik en

= a kj(i ) l ki a ij(i ) a las columnas k j n ,

El nmero de operaciones para la reduccin es entonces

n ) , aproximadamente la mitad que para el caso general.

Tambin los requerimientos de memoria pueden reducirse, almacenando los coeficientes


de la matriz en un arreglo monodimensional. Para el caso de una matriz simtrica de
alta densidad el siguiente esquema de numeracin de los coeficientes es apropiado:

1 2 4 7 11 M

3 5 8 12 M

6 9 13 M

10 14 M

15 M

1
n (n + 1)
2
M
M
M
M
M
M

Es evidente que intercambios de filas y columnas destruyen la simetra, a menos que se


tome siempre como pivote un elemento de la diagonal principal. Tales intercambios no
son necesarios si la matriz es definida positiva (xTAx > 0 para x arbitraria, no nula), ya
que en tal caso:

aii( k ) > 0

a ij( k )

a ii( k ) a (jjk )

aii( k +1) 2aii( k )

i 1, k n

k i, j n

(2.14)

k <in

Estas condiciones garantizan que no se presentan pivotes pequeos.


Para el caso de matrices simtricas definidas positivas puede tambin utilizarse el
mtodo de Cholesky. ste mtodo efecta la descomposicin A = RTR, donde R es una
matriz triangular superior cuyos elementos pueden obtenerse (por filas) de:

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 16

i 1

2
2

rii = a ii rpi
p =1

rij =

1
rii

(2.15a)

i 1

aij rpi rpj

p =1

j = i + 1, i + 2,L

(2.15b)

Para el ejemplo anterior se obtiene:

r11 = (a11 ) 2 = 2.2360


1

r12 = a12 r11 = -1.7888


r13 = a13 r11 = 0.44721

r14 = a14 r11 = 0

r22 = a 22 r122

1
2

= 1.6733

r23 = (a 23 r12 r13 ) r22 = -1.9123

r24 = (a 24 r12 r14 ) r22 = 0.5976

r33 = a33 r132 r232

1
2

= 1.4639

r34 = (a 34 r13 r14 r23 r24 ) r33 = -1.9518

r44 = a 44 r142 r242 r342

1
2

= 0.9129

es decir:

2.2360

0
R=
0

1.7888

0.4472

1.6733
0

1.9123
1.4639

0.5976
1.9518

0.9129
0

El sistema Ax = b puede entonces rescribirse como RTRx = b o bien RTy = b; Rx = y


Resolviendo el primer sistema triangular:

0
0.5976

y=

0
.
7808

1.2781
y finalmente:

8

1 13
x=
5 12
7
Puede anotarse que R est relacionada con las L y U de Gauss mediante RT= LD;

R = D 1U; donde D = diag

u11

u 22

H. Scaletti - Mtodos Numricos: lgebra Lineal

u nn .

2 - 17

Matrices Banda.
Los sistemas de ecuaciones en que los coeficientes forman matrices banda son
frecuentes. Tales sistemas se resuelven eficientemente por el mtodo de Gauss y otros
similares, ya que stos conservan la estructura de banda de las matrices: A = LU:

1
0

1
2

0
1

0
0

1
0

2
1

1
2

Ntese que A 1 = U 1L

A 1

4
= 3

0 1

0 1
0 = 0

1 0

2 0

0
1

0
0

0
0

1
0

1
1

0
1

0 1

0 0
0 0

0 0

1 0

1
1

0
1

0
0

0
0

1
0

1
1

0
0

no es una matriz banda:

4
4

3
3

2
2

3
2

3
2

2
2

1
1

y por lo tanto no conviene hallar A 1 en forma explcita.


Particularmente simples de tratar son los sistemas con matrices banda simtricas y
definidas positivas (no se requieren intercambios de filas y/o columnas). Dos posibles
esquemas para almacenar los coeficientes en un arreglo monodimensional son en este
caso:

1 8 15

2 9 16

3 10 17

A=
4 11 18

5
12
19

6 13 ( 20)

7 (14) ( 21)

Las posiciones tales como 14, 20 y 21 no se usan, pero se requieren para tener un
nmero fijo de coeficientes en cada codiagonal, lo que facilita la programacin. Siendo
el ancho de la semibanda, m, mucho menor que el nmero de ecuaciones, n, las
posiciones de memoria perdidas son despreciables. Este esquema de almacenamiento
(y su variante por filas) es apropiado cuando el ancho de banda es aproximadamente
constante.
Otra posibilidad es:

1 2 4

13
3 5 7

6 8 10 14

A=
9 11 15

12 16 18

17 19

20

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 18

Esta forma de almacenamiento es ms eficiente cuando el ancho de banda es variable


(como ocurre en la mayor parte de los problemas reales). Se guardan los coeficientes
por columnas, desde el perfil superior a la diagonal principal. Se requiere un arreglo de
apuntadores o ndices que indican las posiciones ocupadas por los coeficientes de la
diagonal principal (que son los ms referidos durante el proceso de solucin). Ntese
que al aplicar el mtodo de Gauss (o cualquier variante de ese procedimiento) no se
producen valores significativos por encima del perfil original y por lo tanto no se requiere
ms memoria que aquella en la situacin inicial.
Se necesitan nm posiciones de memoria (donde n es el orden de la matriz y m << n el
2

ancho de semibanda), mucho menos que las n posiciones para la matriz completa o las
1

2n

(n + 1)

para una matriz simtrica de alta densidad. Por otro lado, la reduccin de la

matriz de coeficientes demanda slo O

l ij = 0

2 nm

) operaciones, ya que:

j i< j+m

excepto para

u ij = 0 excepto para i j < i + m


Esto debe compararse con O

6n

) operaciones para reducir una matriz simtrica de

alta densidad. La reduccin del segundo miembro y la sustitucin inversa requieren

( )

O (2 nm ) , en lugar de O n 2 operaciones. En la prctica, rara vez se tiene un ancho de


banda constante, pero an as estos estimadores son tiles, si se considera m como la

media cuadrtica de los anchos de semibanda en las ecuaciones.


Un caso especial es aquel en que la matriz de coeficientes es tridiagonal:

a1

b1

b1
a2
b2

b2
a3

b3
O
bn 2

a n1
bn 1

x1 c1

x2 c2
x c
3 = 3
M M

bn 1 x n1 c n 1

a n x n c n

(2.16)

Los nicos coeficientes significativos son aquellos de la diagonal principal y de dos


codiagonales, es decir, dos lneas paralelas a la referida diagonal.
Se observa que al descomponer la matriz de coeficientes, A, en sus factores triangulares

LU los factores mantienen la estructura banda:


a1

b1

b1
a2

b2

b2

a3

b3
O
bn 2

a n 1
bn 1

1

q1

=


bn 1
a n

1
q2

1
O

O
q n 2

1
q n1

r1

b1
r2

b2
r3

b3
r4

O bn 1
rn

La determinacin de los q i y ri es muy simple:

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 19

r1 = a1
q i = bi / a i

i = 1,2 ,L n 1

(2.17a)

ri +1 = ai +1 q i bi
y, considerando L y = c:

y1 = c1
y i +1 = ci +1 qi y i

i = 1,2 ,L n 1

(2.17b)

de donde se obtiene x resolviendo U x = y:

x n = y n / rn
xi = ( y i bi xi +1 ) / ri

i = n 1,L 2 , 1

Para resolver un sistema de n ecuaciones lineales con matriz de coeficientes tridiagonal


se requieren slo 5n 4 operaciones. Como se indic anteriormente, se cuenta como
una operacin la combinacin de una multiplicacin o divisin con una suma, resta o
almacenamiento del resultado.
Grandes sistemas de ecuaciones lineales
(con matrices de coeficientes banda, simtricas y definidas positivas).
Cuando la memoria de la computadora es insuficiente para almacenar todos los
coeficientes del sistema de ecuaciones, se recurre al disco. El acceso a este medio es
(en trminos relativos) muy lento y en lo posible debe tratar de minimizarse su uso.
Es frecuente subdividir la informacin de sistemas de ecuaciones excesivamente
grandes en bloques de una o ms ecuaciones (o columnas).
Los datos de cada bloque se almacenan en disco. stos son ledos a la memoria
principal conforme van siendo utilizados y regrabados en la memoria auxiliar una vez
operados. La solucin del sistema de ecuaciones por el mtodo de Gauss (u otro similar)
requiere mantener en memoria principal la informacin de por lo menos dos bloques en
forma simultnea. As por ejemplo, durante el proceso de reduccin, las ecuaciones del
bloque k deben ser utilizadas para reducir ecuaciones del mismo bloque y de los bloques
sucesivos k+1, k+2, ...., k+n (n en general es pequea), lo que implica que, estando el
bloque k en memoria, los bloques sucesivos deben ser ledos, parcialmente reducidos, y
regrabados en secuencia. Algo similar ocurre con el proceso de sustitucin inversa.

2.6. Errores en la Solucin de


Sistemas de Ecuaciones Lineales
En la solucin prctica de grandes sistemas de ecuaciones lineales se realizan millones
de operaciones y en cada una ocurren errores de redondeo, Cmo afectan estos
errores a los resultados? Cmo puede estimarse la magnitud del error en la solucin?
Podra pensarse que, habiendo resuelto el sistema A x = b, la magnitud del residuo
r = b A x sea una buena medida del error introducido en x. !Esto es falso!
Considrese por ejemplo:

0.780
A =
0.913

0.563

0.659

0.217
b=

0.254

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 20

Y supngase que se ha resuelto A x = b obteniendo x1 = (0.341

-0.087)

Qu tan

buena es esta solucin?

r1 = b A x1 = (10-6 0)T
T

Por otro lado si se afirma que la solucin es x2 = (0.999 -1.001) se obtiene el residuo.

r2 = b A x2 = (1.343x10-3 1.572x10-3)T
T

Es x1 mejor solucin que x2? No. La solucin exacta es x = (1 -1) .


Aunque la magnitud del vector residuo r = b A x no da una indicacin directa del error
en x, es posible utilizar residuos para estimar el error e incluso para corregir la solucin.
Esto se discute ms adelante.
2.6.1 Normas de Vectores y Matrices
Con el propsito de discutir los errores al resolver sistemas de ecuaciones lineales, se
define como norma (o medida) de un vector:

= ( x1p + x 2p + K )1 / p

1 p

(2.18a)

Dos casos particulares son de inters:

x
x

= ( x12 + x 22 + K)1 / 2

(norma Euclidiana)

(2.18b)

= mx x i

(mximo valor absoluto)

(2.18c)

Es relativamente fcil probar que:

x 0

slo hay igualdad si x = 0

ax = a

(2.19)

x+y x + y
Estas propiedades son familiares en relacin a la norma Euclidiana o longitud de un
vector.
La norma de una matriz cuadrada, A , puede ser definida en forma consistente con la
definicin de norma de un vector:

La norma

= mx

Ax
x

mx ,
1/ 2

es

(x 0 )

(2.20a)

donde

mx

es el mximo valor caracterstico de A A (ver

captulo 3). Por otro lado:


n

= mx
i

a ij

(2.20b)

j =1

Estas normas satisfacen condiciones similares a las normas de vectores. Adems:

AB A

H. Scaletti - Mtodos Numricos: lgebra Lineal

(2.21)

2 - 21

2.6.2 Condicionamiento de una matriz:


En esta ecuacin se analizan los efectos de una pequea perturbacin A en la matriz
A, o de una perturbacin b en b.
Si x es la solucin exacta de A x = b, cuando se considera la matriz de coeficientes

A + A la solucin resulta x + x :

( A + A ) (x + x) = b

(2.22)

de donde:

x = A 1 A (x + x)
tomando normas:

x A 1

x + x

x + x :

y dividiendo entre

(A )

x + x
donde K (A ) = A

(2.23)

A 1

(2.24)

es el nmero de condicionamiento de la matriz A. Dado que

min

A 1

1 / 2

= mn , donde

es el menor valor caracterstico de la matriz A A, puede escribirse:

K 2 (A ) = mx / mn

1/ 2

(2.25)

Por otro lado: para una perturbacin b en b:

A (x + x) = b + b

(2.26)

de donde:

x = A 1b
x A 1

y dado que b = A x, lo que implica

b
A

se obtiene:

x
x

K (A )

b
b

(2.27)

Las ecuaciones (2.23) y (2.27) indican que, si K (A ) es grande, pequeos cambios en A


o en b pueden originar cambios importantes en la solucin.
Si se tienen errores relativos de orden tanto en A como en b, (2.23) y (2.27) pueden
combinarse, para escribir:

x 2 K (A) x

H. Scaletti - Mtodos Numricos: lgebra Lineal

(2.28)

2 - 22

Los errores de redondeo introducidos en el proceso de solucin pueden ser


considerados como equivalentes a perturbaciones en las matrices A y b iniciales. K (A )
es tambin un buen indicador de los efectos de los errores de redondeo en la solucin.
La expresin (3) implica que si A y b estn dadas con t cifras significativas, el nmero de
cifras que puede esperarse sean correctas en la solucin, s, puede estimarse mediante:

s t log 10 [K ( A )]

(2.29)

Para el ejemplo precedente:

= 0.913 + 0.659 = 1.572

0.659 0.563

0.913 0.780

adems: A 1 = 10 6

A 1

de donde

= 0.913 x 106 + 0.780 x 106 = 1.693 x 106

K (A ) = A

A 1

= 1.572 x 1.693 x 106 = 2.7 x 106

Alternativamente, trabajando con normas Euclidianas:

1.441969
A T A =
1.040807

1.0040807

0.751250

-13
cuyos valores caractersticos son mx = 2.1932, mn = 4.56 x 10

de donde K 2 (A ) = mx / mn

1/ 2

= 2.2 x 106

Ambos resultados indican un mal condicionamiento de la matriz A.


Note que en el ejemplo anterior la matriz A no era simtrica, por lo que fue necesario
evaluar los valores caractersticos de A T A .

Si A fuera simtrica, los valores

caractersticos de A A seran exactamente los cuadrados de los valores caractersticos


de A.
2.6.3 Errores de redondeo en la solucin de sistemas de ecuaciones lineales
por el mtodo de Gauss (y otros mtodos de eliminacin similares)
Las relaciones tericas utilizadas en la reduccin son:

l ki = a ki(i ) / aii(i )

a kj(i +1) = a kj(i ) l ki aij(i )

(2.30)

bk(i +1) = bk(i ) l ki bi(i )


Sin embargo, como resultado de los errores de redondeo, los valores calculados (aqu
indicados en barras) satisfacen:
(i )

(i )

l ki = ( a ki / a ii )(1 + 1 )
( i +1)

a kj

( i +1)

bk

(i )

(i )

= ( a kj l ki a ij (1 + 2 ))(1 + 3 )
(i )

(2.31)

(i )

= (b k l ki b i (1 + 4 ))(1 + 5 )

donde i , siendo el mximo error relativo de redondeo. Alternativamente puede


escribirse:

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 23

(i )

(i )

l ki = ( a ki + e ki( i ) ) / a ii
( i +1)

(i )

(i )

= a kj l ki a ij + ekj(i )

a kj

( i +1)

(i )

(2.32)

(i )

= b k l ki b i + e k(i )

bk

y puede probarse que:


(i )

e ki(i ) a ki

( i +1)
(i )
ekj(i ) 3 .mx a kj , a kj

(2.33)

( i +1)
(i )
c k(i ) 3 .mx b k , b k

Por otro lado, considerando que . a kj = a kj , l kk = 1 , pueden utilizarse las expresiones


(1)

(1)

precedentes para escribir a kj en funcin de los l ki , a ij . (es decir los elementos de las
matrices L y U). Se obtiene as:
r

a kj +

e kj(i ) =

i =1

(i )

ki a ij

(2.34a)

i =1

donde r = min (k-1,j), s = min (k, j). Por otro lado, teniendo en cuenta que

b k = bk , se
(1)

obtiene:

bk +

k 1

c k(i ) =

i =1

(i )
ki b i

(2.34b)

i =1

Esto demuestra que las matrices calculadas:


(i )

L = (l ki )

U = ( a ij )

y = (bi(i ) )

No son factores exactos de A y b sino de A + A y b + b:

A + A = L U
b + b = L y
Los elementos de A son sumatorias de los
(i )

e kj(i ) ; los elementos de b son sumatorias

de los c k . Las expresiones (4) dan una medida de estas perturbaciones. Obsrvese
que las expresiones (2.23) y (2.27) son aplicables tambin en este caso, y un valor de

K ( A ) alto indica que los errores de redondeo tendrn efectos importantes en la


solucin.
Por otro lado, las expresiones (2.33) y (2.34) indican que es conveniente limitar el
crecimiento de los

a kj(i ) , bk(i ) . Este es el propsito al realizar intercambios de filas y/o

columnas.
Finalmente, debe mencionarse que en el proceso de sustitucin inversa, para obtener x
resolviendo U x = y , los errores acumulados son despreciables en trminos relativos a
los que resultan de la reduccin.

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 24

Las ecuaciones precedentes permiten una estimacin a-posteriori de la magnitud del


error. A-priori puede establecerse

gn =

(1)

mx a ij( k )
i , j ,k

(2.35)

mx a ij(1)
i, j

teniendo que:

g n 2 n 1 para intercambio parcial (filas)


g n 1.8 n 0.25 Ln n para intercambio total.
Estos lmites son tericos. Ntese por ejemplo que para un sistema de orden 100 se
tendra g n 6.3x10 29 para intercambio parcial y g n 18 para intercambio completo, lo
que justificara el trabajo adicional necesario para la segunda alternativa. Sin embargo,
en la prctica rara vez se observa un g n mayor que 10, an con intercambio parcial.
Para matrices simtricas definidas positivas se tiene que g n 1 .
2.6.4 Algunas consideraciones relativas a unidades.
Equilibrio de las ecuaciones.
En un sistema de ecuaciones A x = b... los aij, bi, xj pueden expresarse en diversos
sistemas de unidades. Un cambio de unidades equivale a considerar b = D1 b; x = D2 x
y por lo tanto (D1 A D2) x == D1 b. En estas expresiones las matrices D1 y D2 son
diagonales. Puede demostrarse que, si se utilizan los mismos pivotes y las D1 y D2 solo
contienen potencias enteras de la base del sistema de numeracin utilizado, los
resultados son los mismos (habida cuenta de los cambios de unidades).
Sin embargo las unidades utilizadas pueden afectar la seleccin de pivotes,
especialmente si slo se hace intercambio parcial.
En tal caso, es recomendable equilibrar las ecuaciones.

Para las incgnitas deben

seleccionarse escalas que reflejen su importancia relativa.

Las ecuaciones deben

multiplicarse por factores D1 tales que:

mx aij = 1 i=1,2,3,...n

1 j n

2.6.5 Mtodo iterativo para mejorar la solucin


Considrese el sistema de ecuaciones Ax = b para el que se tiene la solucin
aproximada x ( 0) . Si x es la solucin exacta, se tiene que:

x = x ( 0 ) + x ( 0 )
y entonces:

A x (0) = r (0)
donde: r ( 0 ) = b Ax ( 0)
Al determinar . x ( 0) . se obtienen los factores triangulares aproximados L y U tales que

L U = A + A , siendo A pequeo. Esta descomposicin requiere aproximadamente


O 1 3 n 3 operaciones.

( )

A partir de x ( 0) puede determinarse r ( 0 ) en O n 2 operaciones y resolverse:

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 25

L z=r
U x = z

( )

tambin en O n 2 operaciones. Dado que L y U no son los factores exactos de A , y


adems se introducen nuevos errores de redondeo, es necesario iterar:

r (i ) = b A x (i )
L z (i ) = r ( i )

(2.36)

U x (i ) = z (i )
x ( k +1) = x ( k ) + x ( k )
Pero nada se ganara si las operaciones se hicieran siempre con el mismo nmero de
cifras significativas empleadas en los cmputos originales. Si los aij bi xi estn dados
con t dgitos, el cmputo de los residuos:
n

ri( k ) = bi

a x
ij

(k )
j

j =1

debe hacerse con 2 t dgitos (para minimizar errores de cancelacin). Sin embargo, el
almacenamiento de los resultados puede hacerse en precisin simple, es decir, con t
dgitos.
Los vectores x (1) y x ( 2 ) permiten tambin estimar el nmero de condicionamiento:
(1)
1 x
(A )
n x ( 2 )

(2.37)

donde n es el orden del sistema y es el mximo error relativo de redondeo (al operar
en precisin simple). Si x (1) no es mucho menor que x (1) , o lo que es lo mismo,
si (A ) n no es mucho menor que 1, el proceso iterativo no es adecuado. En tal caso,
la nica alternativa sera operar con mayor precisin en toda la solucin.
Considrese, por ejemplo, el sistema de ecuaciones:

7
3

7
11
2

3 x1 0.

2 x2 = 1
6 x3 0.

y supngase que la computadora opera en base 10 con 3 cifras significativas. La


factorizacin de la matriz de coeficientes, A = L U , resulta en:

7
3

7
11
2

3 1.00

2 = 1.40
6 0.60

5.00

1.00

1.83 1.00

7.00
1.20

3.00

2.20
0.17

De la reduccin del segundo miembro, es decir la solucin de L y = b se obtiene:

y = (0.00

1.00

1.83)

Finalmente por sustitucin inversa, es decir resolviendo U x = y , se determina

x (1) = (35.3

20.6

10.8)

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 26

Para esta solucin aproximada se tiene el residuo:

r (1) = b A x (1) = (0.100


El cmputo de los bi

ij

0.100 )

0.100

x j deben hacerse en doble precisin, almacenndose los

resultados ri en precisin simple.


Resolviendo los dos sistemas triangulares: L z = r (1) y U x (1) = z se obtiene:

x (1) = (0.685 0.391 0.195)

Y entonces:

x ( 2) = x (1) + x (1) = (36.0 21.0 11.0 )

(redondeado a 3 cifras significativas). Este resultado es mejor que x (1) (en este caso el
resultado es exacto, aunque debera decirse que por accidente).
Puede verificarse fcilmente que la matriz A del ejemplo anterior es bien condicionada.
Por otro lado, considrese nuevamente el sistema:

0.780

0.913

0.563 x1 0.217
=

0.659 x2 0.254

para el cual se obtuvo anteriormente (A ) de orden 2 x 106. Supngase que se opera


en base 10 con 6 cifras significativas:

0.780

0.913

0.563 1.00 000


=
0.659 1.17 051

0.780 000

1.00 000

0.563 000

3 10 6

se pierden cifras significativas en el elemento a22 de esta ltima matriz al restar dos
nmeros que solo difieren en la ltima cifra almacenada). De aqu resultan:

x (1) = (0.518 803 0.333 333)

r (1) = 0.139 10 6

0.692 10 6

No obstante ser este residuo pequeo, se obtiene la correccin:

x (1) = ( 0.127 348 0.176 433)

x ( 2) = x (1) + x (1) = (0.391 455 0.156 900)

y es obvio que este resultado difiere ms de la solucin exacta x = (1 1)


aproximacin x

(1)

antes obtenida.

que la

Para resolver este sistema de ecuaciones se

requiere trabajar con un mnimo de 8 cifras significativas!

2.7.Mtodos Iterativos para la Solucin


de Sistemas de Ecuaciones Lineales
En los acpites siguientes se tratan dos tipos distintos de mtodos iterativos. Estos
procesos pueden ser muy eficientes cuando la matriz de coeficientes, A , es de baja
densidad, ms an si la evaluacin de productos de la forma Av no requiere la previa
determinacin y el almacenamiento de A en forma explcita.

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 27

2.7.1 Mtodos de Relajacin


Estos procedimientos son adecuados slo cuando la diagonal principal de la matriz de
coeficientes es dominante. En general, se considera una aproximacin inicial, tal como

x ( 0) = 0 , y sta es sucesivamente mejorada hasta obtener una solucin suficientemente


precisa.
Considrese el sistema de orden n : A x = b , con aii 0 para todo i . En el mtodo de
(1)
( 2)
( 3)
Jacobi se calculan las aproximaciones x , x , x L mediante:

xi( k +1) =

1
aii

b
i

aij x (jk )

j i

(2.38)

La aproximacin es arbitraria; con frecuencia x ( 0) = 0 . Si los xi( k +1) se determinan en el

orden habitual, al determinar xr( k +1) ya se han previamente obtenido las nuevas
aproximaciones x1( k +1) , x2( k +1) L xr( k1+1) . Sin embargo, en el mtodo de Jacobi no se hace

uso de estas nuevas aproximaciones hasta la iteracin siguiente, difiriendo en esto del
mtodo de Gauss - Seidel:

xi( k +1) =

1
aii

b
i

i 1

aij x (jk +1)

j =1

aij x (jk )

j = i +1

(2.39)

Ntese que slo se requiere almacenar las ltimas aproximaciones a los xi .


En el ejemplo siguiente se usan las dos alternativas:

1
1

1
5
0
1

1
0
5
1

0 x1 1

1 x2 2.75
=

1 x3 1

5 x4 2.75

La solucin exacta es

x = (0.25

0.50

0.25

0.50 )

Con el mtodo de Jacobi se obtienen las sucesivas aproximaciones:

k
0
1
2
3
4
5
6
7
8
9
10
11
12

x1( k )

x2( k )

x3( k )

x4( k )

0
0.2
0.27
0.242
0.2532
0.24872
0.250512
0.249795
0.250082
0.249967
0.250013
0.249995
0.250002

0
0.55
0.48
0.508
0.4968
0.50128
0.499488
0.500205
0.499918
0.500033
0.499987
0.500005
0.499998

0
-0.2
-0.27
-0.242
-0.2532
-0.24872
-0.250512
-0.249795
-0.250082
-0.249967
-0.250013
-0.249995
-0.250002

0
-0.55
-0.48
-0.508
-0.4968
-0.50128
-0.499488
-0.500205
-0.499918
-0.500033
-0.499987
-0.500005
-0.499998

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 28

x1( k )

x2( k )

x3( k )

x4( k )

0.249999
0.250000
0.250000

0.500001
0.500000
0.500000

-0.249999
-0.250000
-0.250000

-0.500001
-0.500000
-0.500000

k
13
14
15

La convergencia es mejor con el mtodo de Gauss Seidel:

k
0
1
2
3
4
5
6
7
8
9

x1( k )

x2( k )

x3( k )

x4( k )

0
0.2
0.286
0.255760
0.250922
0.250147
0.250024
0.250004
0.250001
0.250000

0
0.59
0.5144
0.502304
0.500369
0.500059
0.500009
0.500002
0.500000
0.500000

0
-0.16
-0.2356
-0.247696
-0.249631
-0.249941
-0.249991
-0.249998
-0.250000
-0.250000

0
-0.464
-0.49424
-0.499078
-0.499853
-0.499976
-0.499996
-0.499999
-0.500000
-0.500000

En algunos casos la convergencia puede acelerarse con sobrerelajacin:

xi( k +1) = xi( k ) + ri( k )

ri( k ) =

1
aii

b
i

i 1

j =1

(2.40a)

aij x (jk +1)

ij

j =i

x (jk )

(2.40b)

El valor ptimo de depende de A e incluso de la aproximacin x ( k ) . Cuanto mayores


sean los valores absolutos de los trminos de la diagonal principal, respecto a la suma
de los valores absolutos de los restantes coeficientes de la misma fila, ms se aproxima
a 1. Para el ejemplo precedente, utilizando = 1.05 se obtienen:

k
0
1
2
3
4
5
6

x1( k )

x2( k )

x3( k )

x4( k )

0
0.210000
0.295197
0.251172
0.250096
0.249998
0.250000

0
0.621600
0.507233
0.500414
0.500005
0.500000
0.500000

0
-0.165900
-0.240892
-0.249680
-0.249990
-0.250000
-0.250000

0
-0.481803
-0.497478
-0.499972
-0.499998
-0.500000
-0.500000

Estos mtodos no son necesariamente ms precisos que los procesos de eliminacin. El


ejemplo al inicio de la seccin 2.6 muestra que si el sistema es mal condicionado puede
aceptarse como correcta una solucin totalmente equivocada, pero con la que se tiene
un residuo pequeo.

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 29

2.7.2 Convergencia
En esta seccin se analiza la convergencia de los mtodos de relajacin. Un paso tpico
en la solucin de A x = b puede escribirse como:

x ( k +1) = G x ( k ) + f

(2.41)

Esto puede verse ms fcilmente si se considera la descomposicin:

A = D (Ti + I + Ts )

(2.42)

donde D es una matriz diagonal, con elementos a ii ; Ti y Ts son matrices triangulares,


inferior y superior respectivamente, con ceros en la diagonal principal, cuyos coeficientes
son los aij aii . Por ejemplo:

1 2
=
2 0

0 0

2 12

0 1
+
0 0

0 0
+
1 0

12

Con esta notacin, para el mtodo de Jacobi se tiene:

x ( k +1) = (Ti + Ts ) x ( k ) + D 1b

(2.43a)

es decir: G = (Ti + Ts )

(2.43b)

mientras que para el mtodo de Gauss-Seidel puede escribirse:

x ( k +1) = Ti x ( k +1) Ts x ( k ) + D 1b
y por lo tanto: G = (I + Ti )

(2.44a)

Ts

(2.44b)

De modo similar, para el mtodo de sobre relajacin se tiene:

G = (I + Ti )

[ (1 )I Ts ]

(2.45)

Por otro lado, dado, que la solucin exacta, x , debe cumplir la ecuacin (2.41), se tiene
que:

x =G x+f

(2.46)

y restando (2.46) de (2.41):

(x

( k +1)

x = G x(k ) x

( k +1)

x = G x ( k ) x = G 2 x ( k 1) x = L = G k +1 x ( 0) x

(2.47a)

de donde:

(x

(2.47b)

Adems, si 1 , 2 , 3 L n son los vectores caractersticos de la matriz G , a los que


corresponden los valores caractersticos 1 , 2 , 3 L n , puede escribirse:

(x

( 0)

x = 1 1 + 2 2 + 3 3 + L + n n

ya que los vectores caractersticos constituyen una base completa. Es relativamente


fcil probar que:

(x

(k )

x = G k x ( 0) x = 1 k1 1 + 2 k2 2 + 3 k3 3 + L + n kn n (2.47c)

Para tener convergencia:

Lim x (k ) x = 0
k

H. Scaletti - Mtodos Numricos: lgebra Lineal

(2.48a)

2 - 30

y por tanto se requiere i < 1 para todo i , o lo que es lo mismo:

(G ) = mx i 1

(2.48b)

(G ) se denomina el radio espectral de la matriz G .


Para k suficientemente grande el error se multiplica por (G ) en cada paso, es decir se

tiene aproximadamente log10 [(G )] cifras decimales exactas adicionales en cada


paso.

No es prctico determinar con gran precisin los valores caractersticos de G (esto


significara ms trabajo que resolver el sistema de ecuaciones), pero ciertos lmites
pueden ser fcilmente establecidos.

g ij = a ij a ii si i j

Para el mtodo de Jacobi:

(2.49a)

g ii = 0
y utilizando el teorema de Gerschgorin (vase el captulo relativo a la evaluacin de
valores y vectores caractersticos):

(G ) = mx i mx
i

o bien

ij

mx
j

ji

(2.49b)

con lo que la condicin de convergencia (G ) 1 puede rescribirse:


n

a jj >

aij

aii >

i =1
i j

ij

(2.49c)

j =1
j i

Estas son condiciones suficientes pero no necesarias. La convergencia es ms rpida


cuanto ms fuertes son las desigualdades.
Para el mtodo de Gauss Seidel (G ) = mx [ri (1 si )]

(2.50a)

donde:
n

ri >

j =i +1

aij
aii

si >

i 1

j =1

aij
aii

(2.50b)

y finalmente se concluye que las condiciones para la convergencia son las mismas que
para el mtodo de Jacobi (aunque en general el mtodo de Gauss -Seidel converge ms
rpidamente).
Un anlisis similar del mtodo de sobre relajacin permite establecer la condicin
adicional: 0 < 2
2.7.3 Mtodos de Mxima Gradiente y de Gradiente Conjugada
En la primera parte de esta seccin se consideran mtodos para la solucin de sistemas
de ecuaciones A x = b con matriz A simtrica y definida positiva, es decir, v T A v > 0
para todo vector v no nulo.
Considrese la funcin:

f (x) = 12 xT A x xT b

(2.51)

Si x es la solucin exacta de A x = b se tiene que:


H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 31

f ( x) f ( x ) =
=

1
2

) (

1
2

(x x )T A (x x )

xT A x xT b

Pero, siendo A definida positiva:

1
2

1
2

xT A x x T b

(x x )T A (x x ) 0

Y por lo tanto f ( x) f ( x ) 0 , es decir, f ( x) f ( x )

(2.52)

La igualdad solo se da si x = x . La solucin de A x = b es entonces equivalente a una


minimizacin de f ( x) .
Dada la aproximacin inicial x (0 ) , a la que corresponden el residuo r ( 0 ) = b A x ( 0 ) y el
valor f ( x) , debe determinarse una nueva aproximacin, x (1) , tal que f ( x (1) ) < f ( x (0 ) ) .
Para reducir el valor de f ( x) lo ms rpidamente posible, la correccin debe hacerse en
la direccin de mxima gradiente. Debe entonces determinarse esta direccin, z , tal
que:

d
f (x ( 0) + z )
d

=0

sea mxima (en valor absoluto). Siendo f (x) = 12 x A x x b , puede escribirse:


T

f (x ( 0) + z ) = 12 (x (0) + z )T A (x ( 0) + z ) (x ( 0) + z )T b

(2.53a)

= 12 2 z T A z z T r ( 0) + f (x (0) )
de donde:

d
f (x ( 0) + z )
d

= z T r (0)
=0

Esto significa que debe tomarse la direccin z = r ( 0 )

(2.53b)

Ahora puede determinarse 0 de modo que f ( x ( 0 ) + 0 r (0 ) )


Rescribiendo (2.53a) con z = r ( 0 ) y derivando con respecto a :

sea un mnimo.

T
T
d
f ( x ( 0 ) + r ( 0) ) = r ( 0 ) A r ( 0 ) r ( 0 ) r ( 0 ) = 0
d

de donde:
T

0 =

r ( 0) r ( 0)
T

r (0) A r ( 0)

(dado que A es definida positiva, nunca se presenta el caso r

( 0) T

A r ( 0) = 0 )

Finalmente:

x (1) = x ( 0) + 0 r ( 0)
El proceso puede repetirse en sucesivos ciclos:

r (k ) = b A x(k )

(2.54a)

k =

r (k ) r (k )
T

(2.54b)

r (k ) A r (k )

x ( k +1) = x ( k ) + k r ( k )

H. Scaletti - Mtodos Numricos: lgebra Lineal

(2.54c)

2 - 32

Este mtodo es siempre convergente, pero no puede conocerse a priori en cuantos


ciclos se tendr la precisin requerida.
En los prrafos siguientes se estudia una modificacin de este proceso, el mtodo de
Gradiente Conjugada, para el que al menos en teora - puede garantizarse la
convergencia en un nmero de pasos igual o inferior al orden del sistema de ecuaciones.
Considrese el sistema de ecuaciones de orden n , A x = b .

Dada una solucin

aproximada, x (0 ) , la solucin exacta, x , puede escribirse como:

x = x ( 0 ) + x
x

puede

n vectores linealmente
En particular, si se consideran vectores s 0 , s 1 , s 2 L s n 2 , s n 1 , que

expresarse

independientes.

como

combinacin

lineal

de

satisfacen las relaciones de ortogonalidad:

s Ti A s j = ci ij
puede escribirse:

x (1) = x (0 ) + 0 s 0
x ( 2) = x (1) + 1 s1
LL
x ( k +1) = x ( k ) + k s k
LL
x = x ( n ) = x ( n 1) + n 1 s n 1
alternativamente:

x=x

(0)

n 1

sk

(2.55)

k =0

Suponiendo que los vectores s k son conocidos, los coeficientes k pueden obtenerse
utilizando las relaciones de ortogonalidad ya mencionadas. Dado que:

n 1

r (i ) = b A x (i ) = A x x (i ) =

A sk

(2.56)

si j < i

(2.57)

k =i

premultiplicando por s j se obtiene:

s Tj r (i ) =

n 1

s Tj A s k = 0

k =i

= j s Tj A s j

si j i

de donde puede escribirse:

j =

s Tj r ( j )
s Tj A s j

(2.58a)

Alternativamente, puede utilizarse


T

r ( j) r ( j)
j = T
s j As j

H. Scaletti - Mtodos Numricos: lgebra Lineal

(2.58b)

2 - 33

La expresin alternativa j = (s j r
T

( 0)

) (s Tj A s j ) no es conveniente, por la acumulacin

de errores de redondeo.
Dado que los s 0 , s 1 , s 2 L s n 2 , s n 1 son n vectores linealmente independientes en un
espacio n -dimensional, el error siempre puede ser expresado como una combinacin
lineal de estos vectores , es decir el proceso debera llegar a la solucin exacta (salvo
errores de redondeo) en n pasos.
El vector s k +1 se obtiene eliminando de r ( k +1) la componente segn A s k :

s k +1 = r ( k +1) k s k

(2.59)

donde:

k =

s Tk A r ( k +1)

(2.60)

s Tk A s k

En el proceso de determinacin de pueden tenerse errores de cancelacin importantes si


son aproximadamente paralelos.
Es relativamente fcil probar que si s 0 , s 1 , s 2 L s k son A -ortogonales, entonces s k +1
calculado con (2.59) resulta tambin A -ortogonal a todos los vectores previamente
hallados. Para empezar, con s k :

s Tk +1 A s k = s Tk A r ( k +1) k s k = s Tk A r ( k +1)

s Tk A r (+1)
s Tk A s k

(s

T
k

A sk = 0

Por otro lado, de (2.57) se concluye que:


T

s Tk +1 A s j = r ( k ) A s j
y

As j =

1
r ( j 1) r ( j )
j

y por lo tanto, para j < k :

s Tk +1 A s j =

1 ( k ) T ( j 1) 1 ( k ) T ( j )
r
r =0
r

r
j

El mtodo de gradiente conjugada puede resumirse en los pasos siguientes:


Dado x ( 0 ) , determinar r ( 0) = s 0 = b A x ( 0)
Y luego para k = 0, 1, 2 L n 1 :

qk = A sk

k =

(no se requiere A en forma explcita)

( k )T

r (k )
s Tk q k

x ( k +1) = x ( k ) + k s k

(2.61)

r ( k +1) = r ( k ) k q k
T

k =

r ( k +1) q k
s Tk q k

r ( k +1) r ( k +1)
T

r (k ) r (k )

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 34

s k +1 = r ( k +1) k s k
Como ejemplo, considrese la solucin del sistema de ecuaciones Ax = b definido por:

A = 1
0

1
2
1

1
2

0

b = 0
4

Con la aproximacin inicial x ( 0) = 0 se obtienen


:

r ( 0) = s 0 = b A x (0)

(0

q0 = A s0

(0

4)

8)

0 = (r ( 0 ) r ( 0 ) ) (s T0 q 0 )

x (1) = x ( 0 ) + 0 s 0

(0

2)

r (1) = r (0 ) 0 q 0

(0

0)

1)

0 = (r (1) q 0 ) (s T0 q 0 )

/2

/4

(0

q1 = A s1

(2
T

0)

/3

x ( 2 ) = x (1) + 1 s 1

(0

r ( 2 ) = r (1) 1 q 1

(4 3

s1 = r (1) 0 s 0

1 = (r (1) r (1) ) (s1T q 1 )

8 3)

43

0)

1 = (r ( 2 ) q 1 ) (s1T q 1 )

s 2 = r ( 2 ) 1 s 1

(4 3

89

q2 = A s2

( 16 9

/9

2 = (r ( 2 ) r ( 2 ) ) (s T2 q 2 )

x ( 3) = x ( 2 ) + 2 s 2

(1

4 9)

0)

/4

3)

El mtodo de gradiente conjugada puede ser generalizado para resolver cualquier


sistema de ecuaciones A x = b (con A no singular):
Con x ( 0 ) arbitrario, se obtiene r ( 0) = s 0 = b A x ( 0)
Y luego para k = 0, 1, 2 L n 1 :

q k = AT sk

k =

(no se requiere A en forma explcita)

( k )T

r (k )
q Tk q k

x ( k +1) = x ( k ) + k q k
H. Scaletti - Mtodos Numricos: lgebra Lineal

(2.62)

2 - 35

r ( k +1) = r ( k ) k A q k
T

k =

r ( k +1) r ( k +1)
T

r (k ) r (k )

s k +1 = r ( k +1) k s k

2.8 Sistemas Sobre-Determinados de Ecuaciones Lineales


El problema de determinacin de los parmetros de un modelo lineal para aproximar un
conjunto de datos es frecuente. A fin de reducir la influencia de errores de medicin, es
habitual hacer ms mediciones que las estrictamente necesarias, de donde resultan ms
ecuaciones que incgnitas.
Dada una matriz A de orden m n ( m > n ) y un vector b de orden m , se requiere
determinar x de modo tal que A x sea la mejor aproximacin posible a b .
Un proceso simple (y muy adecuado si los errores en los bi son estadsticamente
independientes) es el mtodo de mnimos cuadrados, que consiste en minimizar la
2

T
magnitud del residuo r = b A x (o minimizar r = r r ) con respecto a las x . Dado

que:

f = r T r = bT b 2xT A T b + xT A T A x

(2.63)

y por lo tanto:

f
= 2 AT b + 2 AT A x = 0
x
el mtodo de mnimos cuadrados puede formularse como la solucin del sistema de
ecuaciones normales:

(A A ) x = A b
T

Si A = ( a1

a2

(2.64)

a 3 L a n ) , la matriz simtrica C = A T A tiene elementos cij = aTi a j .

La matriz C es no singular slo si todas las columnas a k de la matriz A son


linealmente independientes.
Para formar las ecuaciones normales se requieren

resolver el sistema O
ecuaciones normales.

6n

) operaciones.

2 mn

(n + 3)

operaciones.

Para

La mayor parte del trabajo est en formar las

Considrese por ejemplo

0
0

0
1

0
1
0
1
1
0

0
1

2
0
x
1
1 3
x2 =
0 1
x3
1 2

1
1

las ecuaciones normales son en este caso:

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 36

1
3
1

1
1

1 x1 1

1 x2 = 1
3 x3 6

de donde:

x = ( 1.25

3)

1.75

Un mtodo alternativo (y numricamente mejor condicionado) se basa en al


descomposicin de la matriz de coeficientes, A , en el producto de una matriz ortogonal,
Q , y una matriz triangular superior, R (en el captulo relativo a valores y vectores
caractersticos se describen procedimientos que pueden ser empleados para esto).
Al tenerse A = Q R

(2.65)

las ecuaciones normales A A x = A b pueden rescribirse:


T

A T ( b Ax ) = 0

R T QT ( b Q R x ) = 0
y dado que Q Q = I se obtiene:
T

R T QT b R x = 0
La matriz R no es singular y por tanto:

R x = QT b

(2.66)

La matriz R es la misma que se obtendra al descomponer A T A en dos factores


triangulares por el mtodo de Cholesky. Para el ejemplo precedente:

0
0
A=
1

0
1

0
1
0
1
1
0

0
0.5774

0
0

0
1
= QR =
0
0.5774

0
1

1
0.5774

0.2041
0.6124
0
0.4082
0.6124
0.2041

0.3536

0.3536
1.7321
0.7071
0
0
0

0.3536
0.3536

0.5774
1.6330
0

0.5774

0.8165
1.4142

de donde:

1.7321

Rx= 0
0

y finalmente: x = ( 1.25

0.5774
1.6330
0
1.75

0.5774 x1
0.5774

T
0.8165 x 2 = Q b = 0.4082
4.2426
1.4142 x3

3)

H. Scaletti - Mtodos Numricos: lgebra Lineal

2 - 37

También podría gustarte