Está en la página 1de 14

Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

TEMA 3: RESOLUCIN DE SISTEMAS DE ECUACIONES


LINEALES. MTODOS DIRECTOS.

3.1.- INTRODUCCIN
Los sistemas de ecuaciones lineales aparecen en muchos problemas de ciencia e
ingeniera, as como en aplicaciones de las matemticas a las ciencias sociales. En primer
lugar trataremos los mtodos directos, que son aquellos que encuentran la solucin en un
nmero determinado de etapas, es decir, conocido de antemano. En los mtodos
directos, en general, se realiza una serie de operaciones sobre el sistema para pasar a otro
equivalente (con la misma solucin) pero ms sencillo por ejemplo un sistema
triangular, es decir, en el que la matriz de coeficientes es triangular.
Estas operaciones (transformaciones elementales) son:
Escalado: multiplicar a una ecuacin por un escalar 0: Fi Fi.
Sustitucin: sumar a una ecuacin otra multiplicada por un escalar:
Fi + Fj Fi.
Intercambio: intercambiar dos ecuaciones: Fi Fj.
Comenzaremos con la resolucin de sistemas triangulares.

3.2.- REPASO DE CONCEPTOS PREVIOS

Definicin. Matriz estrictamente diagonal dominante


Una matriz cuadrada de orden n, A es estrictamente diagonal dominante si :


n
aii aij , i 1, 2, n
j 1, j i

Se puede demostrar que si una matriz es estrictamente diagonal dominante


entonces es regular, es decir, tiene inversa.

Definicin. Matriz definida positiva


Una matriz cuadrada de orden n, A es definida positiva si es simtrica y para cualquier
vector columna x 0 se tiene que xt A x > 0.
Al igual que en el caso anterior, si A es una matriz definida positiva entonces es
regular. Adems tambin se puede demostrar que todos los menores principales son
positivos y que aii 0 , para i 1, 2, n .

3.3.- SISTEMAS LINEALES TRIANGULARES


El algoritmo de sustitucin regresiva es un algoritmo con el que podremos resolver
un sistema de ecuaciones lineales cuya matriz de coeficientes sea triangular superior.
Este algoritmo ser posteriormente incorporado a la resolucin general de un sistema de
ecuaciones lineales.

24
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

Definicin. Se dice que una matriz A = [aij] de orden NN es triangular superior


(inferior) cuando sus elementos verifican aij = 0 siempre que i > j (i < j).
Si A es una matriz triangular superior, entonces se dice que el sistema de
ecuaciones AX = B es un sistema triangular superior de ecuaciones lineales, sistema
que tiene la siguiente forma:
a11 x1 a12 x2 a13 x3 a1, N 1 x N 1 a1 N x N b1
a22 x2 a23 x3 a2 , N 1 x N 1 a2 N x N b2
a33 x3 a3, N 1 x N 1 a3 N x N b3

a N 1, N 1 x N 1 a N 1, N x N bN 1
a NN x N b N
Teorema: Sustitucin regresiva.
Si AX = B es un sistema triangular superior con akk 0 para k = 1, 2, ..., N, entonces
existe una solucin nica del sistema.
Para resolverlo comenzaremos despejando xN en la ltima ecuacin: xN = bN / aNN.
Despus pasamos a la penltima ecuacin para obtener xN-1:
b a N 1, N x N
x N 1 N 1
a N 1, N 1
y as sucesivamente. En la etapa k-sima se despeja xk:

a
N
bk kj xj
xk ( k N 1, N 2, , 2, 1)
j k 1

a kk

3.4.- ELIMINACIN GAUSSIANA Y PIVOTEO


En esta seccin desarrollamos un mtodo para resolver un sistema general de
ecuaciones lineales AX = B de N ecuaciones con N incgnitas. El objetivo es construir un
sistema triangular superior equivalente UX = Y que podamos resolver usando el mtodo
de sustitucin regresiva.
Se dice que dos sistemas de orden NN son equivalentes cuando tienen el mismo
conjunto de soluciones. Los teoremas del lgebra lineal prueban que hay ciertas
transformaciones que no cambian el conjunto de soluciones de un sistema de ecuaciones
lineales.

Ejemplo 1.
Vamos a usar el mtodo de eliminacin de Gauss para resolver el sistema:
4 x 3y z 7
2 x 4 y 5z 5
x 2 y 6z 23

25
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

Para anular los primeros elementos de las filas 2 y 3 les restaremos la primera
multiplicada por 2/4 = m21 y por 1/4 = m31 respectivamente. Esto se representa por:
b g
F2 2 4 F1 F2 ; F3 1 4 F1 F3 b g
El resultado que se obtiene es:
4x 3y z 7
0x b g
52 y b g
9 2 z 17 2
0x b g
54 y b g
25 4 z 85 4
En el siguiente paso haremos:

F3
FG 5 / 4 IJ F F FG 1IJ F F ; m32
1
H 5 / 2 K 2 3
H2K 2 3
2
y el resultado es:
4x 3y z 7
b g
52 y b g
9 2 z 17 2
b g
17 2 z 51 2
Aplicando la sustitucin regresiva se obtiene:
17 2 3 9 2 7 3 3 2
z 3; y 2; x 1
51 2
17 2 5 / 2 4
Una forma eficaz de trabajar es almacenar todas las constantes del sistema lineal
AX = B en una matriz de orden N(N+1) que se obtiene aadiendo a la matriz A una
columna, la columna (N+1)-sima, en la que se almacenan los trminos de B (es decir,
ak,N+1 = bk). Cada fila de esta matriz, que se llama matriz ampliada del sistema y se denota
por , contiene toda la informacin necesaria para representar la correspondiente
ecuacin del sistema lineal:
F
a11 a12 a1 N a1 N 1 I
Ga a 22 a 2 N a 2 N 1 JJ
AG
~ 21

GG JJ
Ha N1 a N 2 a NN a N N 1 K
Un sistema AX = B puede resolverse realizando las operaciones elementales con las
filas de la matriz ampliada . Las variables xk no sirven ms que para marcar el sitio de
los coeficientes y pueden ser omitidas hasta el final de los clculos.
Cualquiera de las operaciones elementales citadas anteriormente (escalado,
intercambio o sustitucin) aplicadas a la matriz ampliada produce un sistema lineal
equivalente.
El mtodo de eliminacin de Gauss o de eliminacin gaussiana consiste en obtener
un sistema equivalente triangular superior. Esto se puede representar mediante una
sucesin de matrices ampliadas que son las que se van obteniendo al anular los elementos
de cada columna que estn por debajo de la diagonal principal.
En un caso general de un sistema de cuatro ecuaciones con cuatro incgnitas:

26
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

a11 x1 a12 x 2 a13 x3 a14 x4 b1


a 21 x1 a 22 x 2 a 23 x3 a 24 x4 b2
a 31 x1 a 32 x 2 a 33 x3 a 34 x4 b3
a 41 x1 a 42 x 2 a 43 x3 a 44 x4 b4
la matriz ampliada es:
Fa (1)
a12
(1)
a13
( 1)
a14
(1)
a15
(1)
I
Ga 11

a22 a23 a24 a25 JJ


G
(1) (1) ( 1) ( 1) (1)
A A (1)
~ ~
GG a JJ
21
(1)
a32 (1) a33(1) a34 (1) a35 (1)
Ha K
31

41
(1)
a42 (1) a43(1) a44 (1) a45 (1)
Para anular los elementos 2, 3 y 4 de la primera columna haremos:
ai 1(1)
Fi (1) F1 Fi (i 2, 3, 4)
a11
R|a ij
(1)
(i 1; j 1, 2 ,..., 5)
aij S0 (i 2 , 3, 4; j 1)
( 2)
es decir:
|Ta ij
(1)
d
ai 1
(1)
a 11
( 1)
ia 1j
(1)
(i 2 , 3, 4; j 2 , 3, 4, 5)

Fa ( 1)
a12
(1)
a13
(1)
a14
(1)
a15
( 1)
I
G0 11

a22 a23 a24 a25 JJ


G
( 2) (2) (2) (2)
A ( 2)
~
obteniendo:
GG 0 a32 ( 2 ) a33( 2 ) a34 ( 2 ) a35 ( 2 ) JJ
H0 a42 ( 2 ) a43( 2 ) a44 ( 2 ) a45 ( 2 ) K
A continuacin hay que anular los elementos 3 y 4 de la 2 columna, y para ello:
ai 2 ( 2 )
Fi F2 Fi (i 3, 4)
a22
(2)

R|a ij
(2)
(i 1, 2; j 1, 2 ,..., 5)
aij S0 (i 3, 4; j 2 )
( 3)
es decir:
|Ta ij
(2)
d
ai 2
(2)
a 22
(2)
ia 2j
(2)
(i 3, 4; j 3, 4 , 5)

Fa ( 1)
a12
(1)
a13
(1)
a14
(1)
a15
(1)
I
GG 0 11

a22
( 2)
a23
( 2)
a24
( 2)
a25
(2) JJ
A ( 3)
~
obteniendo:
GG 0 0 a33 ( 3) a34 ( 3) a35( 3) JJ
H0 0 a43 ( 3) a44 ( 3) a45( 3) K
Finalmente hay que anular el 4 elemento de la columna tercera. Para ello:
ai 3 ( 3)
Fi F3 Fi (i 4 )
a33
( 3)

R|a ij
( 3)
(i 1, 2 , 3; j 1, 2 ,..., 5)
aij S0 (i 4; j 3)
( 4)
es decir:
|Ta ij
( 3)
d
ai 3
( 3)
a 33
( 3)
ia 3j
( 3)
(i 4; j 4 , 5)

27
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

resultando la matriz ampliada que corresponde al sistema triangular superior:


Fa ( 1)
a12
(1)
a13
(1)
a14
(1)
a15
( 1)
I
G011

a22 a23 a24 a25 JJ


G
( 2) (2) (2) (2)
A ( 4)
~
GG 0 0 a33( 3) a34 ( 3) a35 ( 3) JJ
H0 0 0 a44 ( 4 ) a45 ( 4 ) K
Definicin: Pivotes y multiplicadores.
El elemento aqq(q) de la matriz de los coeficientes en el paso q+1 que se usar para
anular arq(q) (r = q+1, q+2, ..., N) se llama q-simo pivote; y la fila q-sima se llama fila
pivote. Los nmeros mrq = arq(q) / aqq(q) (r = q+1, q+2, ..., N) por los que se multiplica la
fila pivote para restarla de las correspondientes filas posteriores se llaman
multiplicadores de la eliminacin.
Un problema que puede aparecer es el siguiente: si aqq(q) = 0, entonces no podemos
usar la fila q-sima para eliminar los elementos de la columna q-sima que estn por
debajo de la diagonal principal. Lo que hacemos es intercambiar la fila q-sima con
alguna fila posterior para conseguir un elemento pivote que no sea cero; si esto no puede
hacerse, entonces la matriz de los coeficientes del sistema es singular y el sistema no
tiene solucin nica o es incompatible.
Teorema: Eliminacin gaussiana con sustitucin regresiva.
Si A es una matriz invertible de orden NN, entonces existe un sistema lineal UX = Y,
equivalente al sistema AX = B, en el que U es una matriz triangular superior con
elementos diagonales ukk 0. Una vez construidos U e Y, se usa el algoritmo de
sustitucin regresiva para resolver UX = Y, calculando as la solucin X.

Pivoteo para evitar aqq(q) = 0.


Se representa por aqq(q) el coeficiente correspondiente a la etapa (q). Cuando
aqq(q) = 0, la fila q-sima no puede usarse para eliminar los elementos de la columna
q-sima que estn por debajo de la diagonal principal. Se hace necesario entonces hallar
una fila posterior, digamos la k-sima (con k > q), en la que akq(q) 0, e intercambiarlas
para obtener un pivote no nulo. Este proceso se llama pivoteo y el criterio para decidir
qu fila escoger se llama estrategia de pivoteo. La estrategia de pivoteo trivial es la
siguiente: Si aqq(q) 0, entonces no se hace intercambio de fila; mientras que si aqq(q) 0,
entonces se localiza la primera fila por debajo de la q-sima en la cual se tenga akq(q) 0 y
se intercambia la fila q-sima con la k-sima. Esto proporciona el pivote no nulo
deseado.

3.4.2.- Estrategias de pivoteo para reducir los errores.


Como los ordenadores usan una aritmtica cuya precisin est fijada de antemano,
es posible que cada vez que se realice una operacin aritmtica se introduzca un pequeo
error. El uso de la estrategia de pivoteo trivial en la eliminacin gaussiana puede llevar

28
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

aparejado un error apreciable en la solucin de un sistema de ecuaciones lineales


calculada con un computador.
El propsito de las estrategias de pivoteo es usar como pivote el elemento de
mayor magnitud y, una vez colocado en la diagonal principal, usarlo para eliminar los
restantes elementos de su columna que estn por debajo de l. Si en la columna q hay
ms de un elemento no nulo en la diagonal principal o por debajo de sta, entonces hay
varias formas de elegir qu filas se intercambian. La estrategia de pivoteo parcial es la
ms habitual. Consiste en lo siguiente: Para reducir la propagacin de los errores de
redondeo, se sugiere que se compare el tamao de todos los elementos de la columna q
desde el que est en la diagonal hasta el de la ltima fila. Una vez localizada la fila,
digamos la k-sima, en la que se encuentra el elemento de mayor valor absoluto; o sea, si
| akq | max{| aqq |, | aq 1q |, , | a N -1q |,| a Nq |}
entonces intercambiamos la fila q-sima con la k-sima, salvo que k = q; de esa manera,
los multiplicadores mrq (r = q+1, ..., N) sern todos menores que 1 en valor absoluto. Este
proceso suele conservar las magnitudes relativas de los elementos de la matriz U del
mismo orden que las de los coeficientes de la matriz original. Normalmente, la eleccin
como pivote del mayor elemento tambin ayuda a que se propague un error ms
pequeo.
Con la tcnica de pivoteo parcial escalado se evitan errores de redondeo que
pueden producirse si el pivote es muy pequeo respecto del resto de los elementos de su
fila. El pivoteo parcial escalado puede usarse para reducir an ms los efectos de la
propagacin de los errores.

3.5.- SISTEMAS MAL CONDICIONADOS


Algunos sistemas son muy sensibles a los errores de redondeo y el vector solucin
puede ser bastante inexacto. En este caso se dice que el sistema es inestable o que est
mal condicionado. En este tipo de sistemas lo que suele ocurrir es que pequeos
cambios en los coeficientes o en los trminos independientes dan lugar a cambios
apreciables en la solucin como se muestra en el siguiente ejemplo.
Ejemplo 2:
Sea el sistema
1.01 0.99 x 2.00
0.99 1.01 y 2.00

1
cuya solucin exacta es : .
1
Si se modifica ligeramente los trminos independientes, la solucin de los siguientes
sistemas son las que se muestran a continuacin:
1.01 0.99 x 2.02 2
0.99 1.01 y 1.98 0

29
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

1.01 0.99 x 1.98 0


0.99 1.01 y 2.02 2

Se puede considerar al sistema como una mquina cuya entrada son los trminos
independientes y cuya salida son las soluciones.

b1 x1

b2 x2
A x b

b3 x3

En el ejemplo anterior se ha visto que pequeos cambios en la entrada del sistema


dan lugar a grandes cambios en la salida.
Cuando la solucin obtenida est afectada por los errores de redondeo no es
exacta.

3.6.- FACTORIZACIN TRIANGULAR


La factorizacin triangular de una matriz consiste en escribir dicha matriz A como
el producto de una matriz triangular inferior L, cuyos elementos en la diagonal principal
son todos iguales a 1, por una matriz triangular superior U, cuyos elementos diagonales
son distintos de cero.
Definicin: factorizacin triangular o factorizacin LU
Diremos que una matriz invertible A admite una factorizacin triangular o
factorizacin LU si puede expresarse como el producto de una matriz triangular inferior
L, cuyos elementos diagonales son todos iguales a 1, por una matriz triangular superior
U:
A = LU
o, escrito de manera desarrollada:
F a11 a12 a13 a14 1I 0 F 0 0I Fu u12 u13 u14 I
GG JJ GG JJ GG 0 JJ
11

a21 a22 a23 a24 m21 1 0 0 u22 u23 u24



GGa31 a32 a33 a34 JJ
m31 m32 GG 1 0 JJ GG 0 0 u33 u34 JJ
Ha41 a42 a43 a44 K
m41 m42 H m43 1 KH 0 0 0 u44 K
La condicin de que A sea invertible implica que ukk 0 para todo k. La notacin
para los elementos de L es mij; la razn para elegir mij en vez de lij es que se puede
demostrar que estos elementos coinciden con los multiplicadores utilizados en el
procedimiento de eliminacin gaussiana.

30
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

3.6.2.- Solucin de un sistema lineal


Supongamos que la matriz de los coeficientes A de un sistema lineal AX = B admite
una factorizacin triangular; entonces la solucin de
LUX = B
puede obtenerse definiendo Y = UX y resolviendo dos sistemas lineales. En primer lugar
se halla Y en el sistema LY = B y luego X en el sistema UX = Y.
En forma desarrollada, primero debemos resolver el sistema triangular inferior
y1 b1
m21 y1 y2 b2
m31 y1 m32 y2 y3 b3
m41 y1 m42 y2 m43 y3 y4 b4
para obtener y1, y2, y3, e y4 y, una vez que lo tenemos, resolver el sistema triangular
superior
u11 x1 u12 x2 u13 x3 u14 x4 y1
u22 x2 u23 x3 u24 x4 y2
u33 x3 u34 x4 y3
u44 x4 y4

3.6.3.- Factorizacin triangular


Ahora comentaremos la forma de obtener factorizaciones triangulares. Si no hace
falta realizar intercambios de filas cuando usamos eliminacin gaussiana, entonces los
multiplicadores mij son los elementos subdiagonales de L.
Vamos a comprobar para una matriz A de orden 3 que el proceso de eliminacin
gaussiana, almacenando los multiplicadores como elementos subdiagonales de L, sirve
tambin para factorizar la matriz A como producto de una triangular inferior L por una
triangular superior U, que es la matriz de coeficientes resultado de la eliminacin
gaussiana.

LMa11 a12 a13 OP LMa ( 1)


11 a12(1) a13(1) OP
MMa
21 a22 a23 PP MMa
( 1)
21 a (1)
22 a (1)
23 PP
Na
31 a32 a33 Q Na ( 1)
31 a (1)
32 a (1)
33 Q
Para anular los elementos a21 y a31 se realizan las transformaciones de filas:
a a
F2 F2 21 F1 F2 m21 F1 con m21 21 , y
a11 a11
a a
F3 F3 31 F1 F3 m31 F1 con m31 31
a11 a11
Llamando A( 2 ) a la matriz obtenida y M (1) a la matriz correspondiente a las
transformaciones efectuadas se tiene que A( 2 ) M (1) A , siendo :

31
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

LM 1 0 0 OP LMa (1)
11 a12(1) a13(1) OP
M m 0 ,y A M 0 a a PP .
( 1)
MM 1
P (2)

MN 0
(2) (2)

1QP
21 22 23

N m31 0 a (2)
32 a (2)
33 Q
Para hacer 0 el elemento a32
(2)
se realiza la transformacin:
a32
(2)
a32
(2)
F3 F3 F F m F , con m
a22 a22
(2) 2 3 32 2 32 (2)

Llamando A( 3) a la matriz obtenida y M ( 2 ) a la matriz correspondiente a la


transformacin efectuada se tiene que : A( 3) M ( 2 ) A ( 2 ) , siendo :
LM1 0 0 OP LMa ( 1)
11 a12(1) a13(1) OP
M 0 0 ,y A M 0 a a PP U ,
(2)
MM 1
P ( 3)

MN 0
( 2) ( 2)

1PQ
22 23

N0 m32 a ( 2)
32 a ( 3)
33 Q
es decir :
U M ( 2 ) A ( 2 ) M ( 2 ) M (1) A
1 1
Premultiplicando por M ( 2) y M (1) ,
1 1
M (1) M ( 2) U A
1
Se comprueba fcilmente que M (1) es la matriz correspondiente a la
transformacin que deshace el cambio, es decir, la transformacin que consiste en sumar
a la segunda fila la primera multiplicada por m21 y sumar a la tercera fila la primera
1
multiplicada por m31 . Idem. Para M (2) .

(1) 1
1 0 0 LM OP 1
LM1 0 0 OP
M m21 1 0 , y M ( 2 ) 0
MM P MM 1 0 .
P
Nm 31 0 1QP N0 m32 1QP
Es decir,
1 0 0
L M (1) 1
M m21
(2) 1
0

1
m31 m32 1
como queramos comprobar.

Teorema:( Factorizacin directa A = LU sin intercambios de filas).


Supongamos que podemos llevar a cabo hasta el final el proceso de eliminacin
gaussiana, sin intercambios de filas, para resolver un sistema de ecuaciones lineales
cualquiera AX = B. Entonces la matriz A puede factorizarse como el producto de una
matriz triangular inferior L por una matriz triangular superior U; es decir, A = LU.
Es ms, L puede ser construida de manera que sus elementos diagonales son todos
iguales a 1, y U tiene todos sus elementos diagonales distintos de cero. Esta

32
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

factorizacin se denomina factorizacin de Doolittle. Una vez halladas L y U, la


solucin X puede calcularse en dos pasos:
1. Hallar Y resolviendo LY = B con el mtodo de sustitucin progresiva;
2. Hallar X resolviendo UX = Y con el mtodo de sustitucin regresiva.
Cuando el proceso de eliminacin gaussiana puede llevarse a cabo hasta el final en
la matriz ampliada que se obtiene aadiendo la columna B a la matriz A, entonces los
elementos subdiagonales de L coinciden con los multiplicadores correspondientes que se
usan en la eliminacin, la matriz triangular superior U es la matriz de los coeficientes del
sistema triangular superior UX = Y obtenido al final del proceso de eliminacin, y el
segundo miembro de este sistema es precisamente el vector Y solucin del sistema.
Las matrices L y U, en el caso general de un sistema de n ecuaciones con n
incgnitas, son:
F1 0 0 I Fa (1)
a12
( 1)
a1, N
(1)
I
GG m J GG 011

a 22 JJ

J
(2)
21 1
L Gm J ; U G JJ
GG 31

0J GG a N 1, N ( N 1) JJ
GH m

J
1JK GH 0
N1 mN , N 1 0 aN,N (N ) K
Mediante la teora del lgebra de transformaciones elementales de matrices se
puede demostrar que: A = LU
En el caso de que la matriz A sea una matriz estrictamente diagonal dominante se
puede demostrar que la eliminacin Gaussiana se puede llevar a cabo en cualquier
sistema lineal de la forma A x = b sin realizar ningn intercambio de filas. Adems los
clculos son estables frente al crecimiento de los errores de redondeo. Lo mismo se
puede afirmar si A es una matriz definida positiva.

3.6.4.- Otras factorizaciones


La factorizacin de una matriz A en producto de una matriz triangular inferior L
por otra triangular superior U puede resolverse tambin como un sistema de ecuaciones
lineales en el que las incgnitas son los elementos de L y U, las ecuaciones el resultado
de la ecuacin matricial LU = A (hay nn ecuaciones para una matriz A de orden n) y los
trminos independientes, los elementos de A. En este sistema hay ms incgnitas que
ecuaciones, ya que L y U, si no se pone ninguna otra condicin, tienen cada una
(n2+n) / 2 elementos, o sea, n2+n en total. En la factorizacin de Doolittle se han hecho
los lii = 1 (i = 1, 2, ..., n). Si en lugar de esto se hace uii = 1 (i = 1, 2, ..., n) se obtiene la
factorizacin de Crout.

Cuando A es una matriz definida positiva la eliminacin gaussiana siempre puede


realizarse sin intercambios de filas, y se puede demostrar que A puede ser factorizada
como producto de una matriz triangular inferior por su traspuesta:

33
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

A = L Lt
A esta factorizacin se la conoce como factorizacin de Cholesky. Si al intentar
esta factorizacin con una matriz simtrica surgen races de nmeros negativos, la matriz
no es definida positiva.

34
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

3.7.- TEMA 3 . EJERCICIOS

1.- Resolver por Gauss los siguientes sistemas:

a) x + y + 2z = 1 b) x + 2y + z = 6 c) x + y =2
x + 2y + z = 1 2x + y + 2z = 6 x + 4y + 6z = 5
2y + y + z = 1 x + 2y + 2z = 7 6y + 14z = 6
Sol:
a) x=1/4, y=1/4 , z=1/4
b) x=1 , y=2 , z=1
c) x=1 , y=1 , z=0.
2.- Resolver los siguientes sistemas utilizando el mtodo de Gauss y Gauss-Jordan.

a) x+ y + z= 4 b) 2x - 7y + 4z = 9
2x + 3y + z= 9 x + 9y - 6z = 1
x- y - z = -2 -3x + 8y + 5z = 6

Sol:
a) x= 1, y=2 , z=1.
b) x=4 , y=1 , z=2.

3.-Hallar A1 siendo

LM1 0 1 3 OP LM 2 1 0 OP
1
a) A = MM 1 0 1
PP b) A = MM 1 2 1
P
2
MN 10 PQ 2 PQ
1 1
2 1 1 N0 1

F-1 1
3 I
GG 2 1
JJ F3
1 1 I
G
1

3
2
5
1J
GG 4 2 4 JJ
Sol: a) G 4 JJ b) G JJ
2 4 1 1
1
GG 41
5 9
JJ GG 12 2

GG 1
2 4
1
H4
1 3
JK
0J
1 1
H4 2 4 K 2 4

4.- Resolver el siguiente sistema, obteniendo previamente la factorizacin LU de la


matriz del sistema, utilizando eliminacin gaussiana

35
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

x + y + 3t = 4
2x + y - z + t = 1
3x - y - z + 2t = -3
-x + 2y + 3z - t = 4

Sol: x=-1, y=2 , z=0 , t=1

5.- En qu forma es posible evaluar A a partir de la descomposicin factorial de


Doolittle de la matriz A?. Aplicar este resultado para calcular :
1 2 3 4
2 1 4 2
A
2 5 7 12
2 2 6 22
Sol: A = u11.u22.u33.u44 = -2.

6.- Resolver los siguientes sistemas a partir de la factorizacin de Doolittle:


x 2y 3
a) y z 1 Sol: x=15 , y=-6, z=7.
2 x 4 y z 1
x z 2
b) y 3 Sol: x=1 , y=3 , z=1.
x z 0

6x 2y 2 z 4t 10
12 x 8y 6z 10t 20
c) Sol: x=1 , y=1, z=1 , t=1.
3x 13 y 9 z 3t 2
6 x 4y z 18t 19

7.- Aplicar el mtodo de Crout para resolver el siguiente sistema:


2 x 6 y 8z 24
5x 4 y 3z 2
3x y 2 z 16
Sol: x=1, y=3 , z=5
8.- Obtener la descomposicin L U de las siguientes matrices utilizando el mtodo de
Crout:

36
Tema 3: Resolucin de sistemas de ecuaciones lineales. Mtodos directos.

F1 1 2I F1 0 0 I F1 1 2 I
A G 1 4J Sol: G 1 0J G 0 3 / 2J
a)
GH 2 5
4
J
14K
GH 2 4
6
J G
1K H 0
1
0 1 K
J
F6 2 1 I
1
G2 JJ
BG
4 1 0
b)
GG 1 1 4 1JJ
H 1 0 1 3K
F6 0 0 0 I F
1 1 / 3 1 / 6 1 / 6 I
G2
Sol: G
10 / 3 0 0 JJ GG
0 1 1 / 5 1 / 10 JJ

GG 1 2 / 3 37 / 10 0 0 0 JJ GG
1 9 / 37 JJ
H 1 1 / 3 9 / 10 191 / 74 0 0 K 0 H1 K
9.- Aplicar el mtodo de Cholesky para resolver los siguientes sistemas:
x y z 1
a) x 5y z 1 Sol: x=9/2, y=3/2 , z=-2
x y 3z 0

4 x1 x2 x3 x4 8
x1 3x2 x3 x4 1
b) Sol: x= 1/7 , y=-19/7 ,z=11/7 , t=60/7
x1 x2 2 x3 6
x1 x2 x4 6

10.- Siendo A la matriz del ejercicio n 5 calcular A-1 aplicando la factorizacin de


Doolittle a los cuatro sistemas de ecuaciones resultantes.
F
183 31 65 5 I
40 GG
7 14 1 JJ
Sol:
110 19 GG
39 3 JJ
17 H
3 6 1 / 2 K

37

También podría gustarte