Está en la página 1de 8

Módulo 6

Prof. M.Angélica Vega U.

4. Sistemas de Ecuaciones Lineales.


4.1. Métodos directos
Estos métodos consisten en sustituir la matriz A por una sucesión de matrices elementales, de
manera que se obtiene un sistema sea más fácil de resolver.

4.1.1. Método de Gauss.

El método de eliminación gaussiana es uno de los métodos directos clásico para resolver el sistema
Ax = b, consiste de dos etapas.
Etapa 1. Triangularización.
Para efectos de la operatoria, resulta más simple, efectuar las operaciones sobre la matriz aumen-
tada à en lugar de A.
El método consiste en obtener una sucesión de sistemas equivalentes

A(k) x = b(k) , (k = 1, 2, ... , n)

mediante operaciones elementales de fila, tal que para cada k = 2, 3 , . . . , n.


 
(1) (1) (1) .. (1)
a
 11 a12 . . . . . . . . . . . . a1n . a 1 n+1 

 0 (2) (2) .. (2)

 a22 . . . ... ... ... a2n . a2 n+1  
 .. .. .. .. 
 0
 0 . . . . 

(k)

(k) (k) (k) .
. (k)

à =  0

0 ... akk ak k+1 ... ak n . ak n+1 
 (35)
 . 
. . . ak+1 k ak+1 k+1 . . . ak+1 n .. ak+1 n+1 
(k) (k) (k) (k)
 0 0
 
 .. .. .. .. .. ..
 

 . . ... . . ... . . 
..
 
(k) (k) (k) (k)
0 0 . . . an k an k+1 . . . an n . an n+1 .

donde,
(1)
 
a1 n+1
 . 
 .. 
 
b(k) =  a(k) (36)
 
n n+1 
 .. 
 
 . 
(k)
an n+1 .
con
A(1) = Ã ,

31
(k)
Ã(k) = (aij ) se obtiene de la siguiente manera:
 (k−1)
a si, i = 1, 2, . . . k − 1 ; j = 1, 2, . . . n + 1
 ij


(k)
aij = 0 si, i = k, k + 1, . . . n ; j = 1...k − 1 , (37)
(k−1)
ai k−1
a(k−1) (k−1)

− ak−1 j sii = k, k + 1 . . . n ; j = k, k + 1 . . . n + 1 ..

ij (k−1)
ak−1 k−1

El proceso termina cuando Ã(n) es triangular superior, teniéndose el sistema A(n) x = b(n) .
Nótese que en esta etapa sólo se obtiene una matriz triangular superior. En la etapa siguiente, se
resuelve el sistema.
Etapa 2. Retrosustitución.
Resolvemos la n-ésima ecuación
(n)
a n+1
xn = n(n) .
an n
Usando xn se puede despejar xn−1 de la n − 1-ecuación
(n−1) (n−1)
an−1 ,n+1 − an−1 n xn
xn−1 = ;
an−1 n−1

continuando con este proceso, se tiene que, para cada


i = n − 1, n − 2, . . . , 2, 1 ,
Pn
aii ,n+1 − aii n xn − aii n−1 xn−1 − · · · · · · · · · − aii i+1 xi+1 aii ,n+1 − j=i+1 aiij xj
xi = = (38)
aii aii

Nota 4.1 Denotaremos por :


ai k
mi k =
ak k
al número que produce un cero en la fila i columna k, denominado multiplicador y a los elementos
ai i le llamaremos elementos pivotes.
(k)
Observemos que, ai j , se obtiene de :

(k) (k−1) (k−1)


ai j = ai j − mk−1
i k−1 · ak−1 j

Actividades 4.1

i) Ejemplo 4.1 Use eliminación de Gauss para resolver:

3x1 − 0,1x2 − 0,2x3 = 7,85 ,


0,1x1 + 7x2 − 0,3x3 = −19,4 ,
0,3x1 − 0,2x2 + 10x3 = 71,4 ,

efectuar los cálculos con 6 cifras significativas.

32
Solución : la matriz aumentada es
 
3 −0,1 −0,2 7,85
à = 0,1 7 −0,3 −19,4
0,3 −0,2 10 71,4

luego,los multiplicadores que producen ceros en la primera columna son :

a2 1 0,1
m2 1 = = = 0,03333333
a1 1 3
y
a3 1 0,3
m3 1 = = = 0,09999999
a1 1 3

ii) Ejemplo 4.2 Use eliminación de Gauss para resolver los siguientes sistemas: a)

0,0003x1 + 3,0000x2 = 2,0001 ,


1,0000x1 + 1,0000x2 = 1,0000 ,

b)

1,0000x1 + 1,0000x2 = 1,0000 ,


0,0003x1 + 3,0000x2 = 2,0001 ,

c) Compare los resultados de a) y b) al considerar 3, 4 y 5 cifras significativas. ¿A qué con-


clusión llega ?

4.1.2. Eliminación gaussiana con y sin pivoteo.

De la Actividad I.ii), se observa que pueden surgir dificultades en algunos casos, como cuando el
pivote es pequeño en relación a los otros elementos de la columna a la que pertenece el elemento
pivote. Una forma de mejorar las soluciones se usa como estrategia pivotear. El llamado pivoteo
parcial consiste en seleccionar el elemento de mayor valor absoluto ubicado en la misma columna
que el pivote, bajo la diagonal e intercambiar filas. Al procedimiento de buscar el elemento de
mayor valor absoluto tanto en las columnas como en las filas y luego intercambiar se conoce como
pivoteo total.
El pivoteo completo o total no es muy usado puesto que el intercambio de columnas implica un
intercambio de las incógnitas, lo que agrega complejidad injustificada.

Actividades 4.2 1. Use eliminación de Gauss para resolver el sistema :

x1 + x2 − x3 = −3 ,
6x1 + 2x2 + 2x3 = 2,
−3x1 + 4x2 + x3 = 1,

usando,

33
Gauss simple.
Eliminación gaussiana con pivoteo parcial.
Eliminación gaussiana con pivoteo total.
2. Para k = 0, 1, 2, ..., sea x(k) = [xk , yk , zk ]T generada por :

4xk+1 = −xk − yk + 2 ,
6yk+1 = +2xk + yk − zk − 1 ,
−4xk+1 = −xk + yk − zk + 4 ,

a) Demuestre que la sucesión de vectores {x(k) }∞


k=1 es convergente para cualquier vector
inicial x(0) .
b) Determine el vector x al cuál converge usando Gauss con pivote parcial.
c) Encuentre el vector x iterando el sistema dado.
3. Suponga que trabaja con una máquina que redondea a dos decimales para resolver el siguiente
sistema :

0,10 · 10−1 x + y = 1
x−y = 0

Use el método de eliminación de Gauss para encontrar la solución.


Efectúe un pivoteo parcial y compare con la solución anterior. La solución exacta del
sistema es x = y = 100
101 .

34
4.2. Factorización LU

A = LU
Una primera interrogante es ¿Existe tal factorización? . Un primer resultado que garantiza la
existencia de esta factorización dice,

Teorema 4.1 Si puede aplicarse la eliminación gaussiana al sistema Ax = b sin intercambio de


filas, entonces la matriz A puede factorizarse como

A = LU ,

donde  
(1) (1) (1)
a11 a12 ... a1n  
.. 1 0 ... 0

(2) .. 

0 a22 . .
  .. .. 
   m21 1 . . 
U =
 .. .. .. (n−1) L = 

 .
 (39)
. . . an−1 n−1   .. .. .. 
. . 0 

 (n) 
 0 ... 0 ann 
mn1 ... mn n−1 1
y

Nótese que al factorizar A en LU ,

Ax = b ⇔ L(U x) = b

entonces, es posible resolver el sistema utilizando dos sistemas que involucran matrices triangulares,
se resuelve primero Ly = b y luego U x = y. De modo que si L = (lij ), entonces se obtiene el
vector y por sustitución hacia adelante,
b1
y1 =
l11
y los yi para cada i = 2, 3, . . . n, mediante
 i−1 
1 X
yi = bi − lij yj .
lii j=1

Ası́ conociendo el vector y podemos obtener en el sistema U x = y el vector x por retrosustitución.


El Teorema 1 proporciona una factorización de la matriz A, observe que los elementos de la matriz
L son los elementos multiplicadores mi j que se obtuvieron al realizar la eliminación gaussiana,
excepto los elementos de la diagonal principal que son 1. Esta factorización se conoce como Fac-
torización de Doolitle.
Queda analizar una segunda interrogante . si A admite una factorización LU , ¿ ésta será única?

35
Analicemos el problema general, el factorizar A como LU , significa que hay que resolver las ecua-
ciones
   
  l11 0 0 ... 0 u11 u12 u13 ... u1n
a11 a12 . . . a1n  l21 l22 0 . . . 0   0 u22
 a21 a22 . . . a2n     u23 ... u2n 

  l31 l32 l33 . . . 0   0 0 u33 ... u3n
= ·
 
 .. .. . .. .
..   .
 
 . . . .. .. . . ..   .. .. .. .. .. 
 . . . . .   . . . . . 
an1 an2 . . . ann
ln1 ln2 ln3 . . . lnn 0 0 0 ... unn .
(40)
Notemos que las ecuaciones anteriores, no determinan a L y a U en forma única. Para cada i se
puede asignar un valor no nulo lii o uii (pero no a ambos). ¿Porqué ? Justifique . Por ejemplo, si
lii = 1 para i = 1, 2, . . . , n, es la descomposición de Doolitle que se obtiene como vimos al aplicar
eliminación gaussiana. Otra elección simple es uii = 1 para cada i en este caso la factorización es
la de Crout, o bién asumir que lii = uii en cuál caso tenemos la factorización de Choleski

Actividades 4.3

i) Descomponer la matriz A usando la factorización de Crout, en el sistema :


x1 + x2 − x3 = −3 ,
6x1 + 2x2 + 2x3 = 2,
−3x1 + 4x2 + x3 = 1,

ii) Problema N ◦ 3 de la PEP1 (Sem II-2000) Para determinar la temperatura en cuatro puntos
interiores equidistantes de una barra, hay que resolver la ecuación :
Atk+1 = tk , k = 0, 1, 2, ...
donde,    
3 −1 0 0 10
 −1 3 −1 0  0  12 
 0 −1 3 −1  , t =  12
A=   
 (41)
0 0 −1 3 10
(tk es la distribución de la temperatura en los puntos interiores de la barra en el instante k.
a) Mediante el método de Gauss (sin pivote) determine t1 .
b) Obtenga t2 y t3 , usando una descomposición A = LU .
iii) Resolver el sistema
 
−x1 + 2x2 + 3x3 + x4 = 1
 2x1 − 4x2 − 5x3 − x4 = 0 

 −3x1
 (42)
+ 8x2 + 8x3 + x4 = 2 
x1 + 2x2 − 6x3 + 4x4 = −1

iv) Investigue cómo a partir de la factorización de Doolitle puede obtener la factorización de


Crout ? Ilustre el método con un ejemplo.

36
4.2.1. Matrices definidas positivas.

Definición 4.1 Una matriz A simétrica es definida positiva si y sólo si

xT Ax > 0 , ∀x ∈ Rn − {0} (43)

Ejemplo 4.3 Verifique si la matriz dada es definida positiva.


 
2 −1 0
 −1 2 −1  (44)
0 −1 2

En la práctica puede resultar difı́cil determinar si una matriz es definida positiva a partir de la
definición, el siguiente resultado constituye un criterio de gran utilidad para este propósito.

Teorema 4.2 A es simétrica y definida positiva, si y sólo si Dk > 0 , ∀ k = 1, ..., n, donde Dk es


el determinante:
a11
··· a1k

Dk = ... .. ..

. .

ak1 ··· akk

Dem. Consultar, Introduction to Numerical Analysis de Stoer - Bulirsch.

Teorema 4.3 Si A es simétrica y definida positiva, entonces :


i) A es no singular
ii) aii > 0, para cada i = 1, 2, ..., n.
Dem.

i) Supongamos A no invertible, entonces exite x 6= 0 tal que el sistema Ax = 0, de donde


xT Ax = 0, lo que contradice el hecho de A definida positiva. Por tanto, A es no singular.
ii) Ejercicio

Teorema 4.4 Si A es una matriz real, simétrica y definida positiva, entonces A = LLT , donde L
es una matriz triangular inferior con diagonal positiva.
Dem. Consultar Análisis Numérico de Burden - Faires o Kincaid - Cheney

4.2.2. Matrices diagonal dominante.

Definición 4.2 Sea A una matriz cuadrada de orden n, diremos que A es diagonal dominante
si
n
X
|aii | ≥ |aij |, ∀i, 1 ≤ i ≤ n (45)
j=1
j6=i

Veamos algunos resultados importantes,

37
Teorema 4.5 Si A es diagonal dominante, entonces A es invertible.

Teorema 4.6 Si A es diagonal dominante y todos los elementos de la diagonal son reales positivos
, entonces la parte real de cada valor propio es positiva. Dem. Álgebra Lineal. Grossman. Mc Graw
Hill.

Teorema 4.7 Si A es simétrica, diagonal dominante, con los coeficientes diagonales positivos,
entonces A es definida positiva.
Dem. Usando el teorema anterior, si λi > 0 deduciremos que xt Ax > 0. Como A es simétrica,
tiene un conjunto de autovectores ortonormales (teorema espectral), entonces cualquier vector x
puede escribirse como una combinación lineal de ellos,

x = c1 x1 + c2 x2 + ... + cn xn ,

entonces
Ax = c1 Ax1 + c2 Ax2 + ... + cn Axn = c1 λ1 x1 + c2 λ2 x2 + ... + cn λn xn .
De la ortogonalidad y la normalización xti xi = 1. Luego,

xt Ax = (c1 xt1 + c2 xt2 + ... + cn xtn )(c1 λ1 x1 + c2 λ2 x2 + ... + cn λn xn )

= c21 λ1 x1 + c22 λ2 x2 + ... + c2n λn xn


como λi > 0, se tiene que ∀i xt Ax > 0.

Observación 4.1 El recı́proco del teorema anterior es falsa, es decir existen matrices simétricas
definidas positivas que no son diagonal dominante. Dé un contraejemplo.

38

También podría gustarte