Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Capítulo 4
Capítulo 4
Sistemas de Ecuaciones
Lineales
y finalmente:
x 1
.
x= .
.
xn
159
160 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES
5. Existe [A]−1 matriz inversa de [A] tal que [A] · [A]−1 = [A]−1 · [A]
= [I], donde [I] es la matriz identidad de orden n.
6. det([A]) = |A| =
6 0
por muy rápidos y precisos que resulten. Por lo tanto, el desarrollo de los
algoritmos que se plantean a continuación debe tener presentes estos tres
criterios simultáneamente.
Desde un punto de vista general las matrices más usuales en las ciencias
aplicadas y en ingenierı́a pueden englobarse en dos grandes categorı́as:
Parece lógico que los métodos para resolver Sistemas de Ecuaciones Li-
neales se adecúen a las categorı́as de matrices anteriormente expuestas. En
general los Métodos de Solución Numérica de Sistemas de Ecuaciones Li-
neales, se clasifican en dos grandes grupos:
• Métodos Directos.
Métodos de Solución de Sistemas
de Ecuaciones Lineales
• Métodos Iterativos.
Los Métodos Directos se aplican a las matrices llenas pero no muy gran-
des, mientras que los Métodos Iterativos se emplean a las matrices vacı́as y
muy grandes. Es importante observar que no existen reglas absolutas y que
todavı́a en la actualidad existe cierta controversia sobre los métodos óptimos
a aplicar en cada caso. En particular, la distinción establecida entre matrices
llenas y vacı́as depende de gran medida del computador disponible (funda-
mentalmente de la memoria). De hecho, los lı́mites han ido evolucionando a
lo largo de los años a medida que también evolucionaban los computadores
(cada vez más rápidos y con más memoria, o al menos más barata). A pesar
de ello, casi nadie recomendarı́a Métodos Iterativos para matrices llenas con
pocas ecuaciones; en cambio, algunos autores trabajan con Métodos Directos
altamente sofisticados y particularizados al entorno informático disponible
para resolver sistemas con varios millones de ecuaciones.
4.2. MÉTODOS DIRECTOS 163
Es importante aclarar que en todo lo que sigue se supone que [A] y {b}
son de coeficientes reales. Si los elementos de [A] o {b} son complejos (ver
Capı́tulo 2), aparte de las generalizaciones de los métodos que se verán o
de los algoritmos especı́ficos para este caso, se puede replantear el problema
como un sistema lineal, con matriz y término independiente reales, de 2n
ecuaciones e incógnitas. Para ello se escriben la matriz y los vectores de la
siguiente manera:
Donde [C] y [D] son matrices reales de n × n, y {c}, {d}, {y}, {z}
son vectores reales de n términos. Al sustituir las ecuaciones 4.2 en sus
correspondientes términos de la ecuación 4.1 y operando, el sistema lineal
de ecuaciones original se escribe ahora como:
[C] −[D] {y} {c}
· =
[D] [C] {z} {d}
◦ Matriz Diagonal, [A] = [D]
• Sistemas con Solución Inmediata ◦ Matriz Triangular Superior, [A] = [U ]
◦ Matriz Triangular Inferior, [A] = [L]
◦ Método de Gauss
• Métodos de Eliminación
◦ Método de Gauss-Jordan
◦ Método de Doolittle, [A] = [L] · [U ]
◦ Método de Crout, [A] = [L] · [U ]
◦ Método de Cholesky, [A] = [L] · [L]T
• Métodos de Descomposición
◦ Descomposición Generalizada,
[A] = [L] · [D] · [L]T
◦ Método de Thomas, ([A] Tridiagonal)
• Métodos de Ortogonalización, [A] = [Q] · [R]
las que se llega al realizar estos tres tipos de operaciones se dice que han
sido obtenidas mediante Operaciones Elementales por Filas sobre la Ma-
triz Aumentada original. Ası́, las Operaciones Elementales por Filas son las
siguientes:
(0)
ai1
ψi1 = (0)
a11
con:
(0)
(1) (0) (0) (0) ai1 (0)
aij = aij − ψi1 a1j = aij − a
(0) 1j
a11
(4.6)
(0)
(1) (0) (0) (0) ai1 (0)
bi = bi − ψi1 b1 = bi − b
(0) 1
a11
(1)
Para todo i = 2 : n y j = 1 : n. Ahora, si a22 (que ya no coincide con el
(0)
coeficiente que originalmente se encontraba en su posición, a22 ) es distinto
de cero, se sustrae de todas las ecuaciones siguientes la segunda ecuación
multiplicada por:
(1)
ai2
ψi2 = (1)
a22
(0) (0) (0) (0) (0)
a11 a12 a13 . . . a1n b1
x
1
(1) (1) (1)
(1)
0 a22 a23 . . . a2n
x
2
b2
0 (2) (2) x3 (2)
0 a33 . . . a3n ·
= b3 (4.7)
.
.. .. .. .. .. .
.
..
. .
. . .
.
0 0 an3
(2)
. . . ann
(2) xn b(2)
n
(1)
(2) (1) (1) (1) ai2 (1)
aij = aij − ψi2 a2j = aij − a
(1) 2j
a22
(4.8)
(1)
(2) (1) (1) (1) ai2 (1)
bi = bi − ψi2 b2 = bi − b
(1) 2
a22
(k−1)
(k) (k−1) (k−1) (k−1) aik (k−1)
aij = aij − ψik akj = aij − a
(k−1) kj
akk
(4.10)
(k−1)
(k) (k−1) (k−1) (k−1) aik (k−1)
bi = bi − ψik bk = bi − b
(k−1) k
akk
Para todo i = k + 1 : n, j = k : n y k = 1 : n − 1. Obsérvese que al
pasar del (k − 1)-ésimo al k-ésimo sistema es necesario realizar las siguientes
operaciones:
(n − k)(n − k + 1) sumas
(n − k)(n − k + 1) productos
n−k divisiones
Para resumir todos los pasos realizados hasta obtener el sistema 4.11,
k−1
es necesario suponer que todos los pivotes son no nulos. Es decir, akk 6= 0
para todo k = 1 : n.
n−1
X n(n2 − 1)
(n − k)(n − k + 1) = sumas
3
k=1
n−1
n(n2 − 1)
X
(n − k)(n − k + 1) = productos
3
k=1
n−1
n(n − 1)
X
(n − k) = divisiones
2
k=1
4n3 + 9n2 − 7n
TG = (4.12)
6
La siguiente tabla muestra el número de operaciones elementales para
distintos tamaños del sistema de ecuaciones.
n TG
5 115
10 805
100 681550
1000 6,68 E8
Como ya se comentó, se ha supuesto a lo largo de toda esta deducción
que los pivotes eran distintos de cero. Si durante el proceso de eliminación
se obtiene un pivote nulo, por ejemplo el ak−1kk , se debe buscar en la parte
inferior de la columna k-ésima un coeficiente no nulo, es decir de entre los
k−1
aik para todo i = k + 1 : n se toma uno que sea distinto de cero. Se
sustituye entonces la fila k (y su término independiente) por la fila i (y su
término independiente) que se haya escogido. Si dicho coeficiente no nulo no
existiera, la matriz serı́a singular.
Si la matriz [A] es simétrica, las matrices llenas de orden (n−k) sobre las
que se aplica sucesivamente el algoritmo sólo permanecen simétricas si no se
realiza ninguna permutación de filas o columnas. La misma observación es
válida si la matriz [A] tiene una estructura que permite el almacenamiento
en banda o en perfil.
172 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES
Entrada de Datos
↓
Triangular Superior
↓
Sustitución hacia atrás
↓
Muestra de Resultados
Ejemplo:
Utilizando en Método de Eliminación de Gauss, encontrar la solución del
sistema de ecuaciones lineales expresado en forma matricial, dado a conti-
nuación.
6 2 1 −1 x1
3
2 4 1 0
x2
5
· =
1 1 4 −1 x −8
3
−1 0 −1 3 x4 6
Solución
6 2 1 −1 | 3
0 10/3 2/3
1/3 | 4
0 2/3 23/6 −5/6 | −17/2
0 1/3 −5/6 17/6 | 13/2
Luego, en el segundo paso (k = 2) del proceso de eliminación, se harán
ceros los elementos ai2 , para i = 3 : 4. Los valores obtenidos para ψik son:
ψ32 = 1/5 y ψ42 = 1/10. Sustituyendo estos y los respectivos valores para
i = 3 : 4, j = 2 : 4 y k = 2 en las ecuaciones 4.10 se obtuvo la Matriz
Aumentada (equivalente a la original) dada a continuación:
6 2 1 −1 | 3
0 10/3
2/3 1/3 | 4
0 0 37/10 −9/10 | −93/10
0 0 −9/10 14/5 | 61/10
En el último paso de la eliminación (k = 3), se hace cero el término a43 .
Para esto se obtuvo que ψ43 = −9/37. Del reemplazo de este y los valores
dados para i = 4, j = 3 : 4 y k = 3 en las ecuaciones 4.10 se llegó a:
6 2 1 −1 | 3
0 10/3 2/3
1/3 | 4
0 0 37/10 −9/10 | −93/10
0 0 0 191/74 | 142/37
De esta manera se consiguió la Matriz Triangular Superior equivalen-
te a la Matriz Aumentada del sistema de ecuaciones original. Ahora, para
obtener los valores de xi que son la solución del sistema de ecuaciones linea-
les propuesto en este ejemplo, se debe realizar la sustitución hacia atrás de
acuerdo a las ecuaciones 4.3. Entonces:
4
X
b3 (3) − a3j (3) xj
b4 (3) j=4
x4 = , x3 =
a44 (3) a33 (3)
y,
4
X 4
X
b2 (3) − a2j xj b1 (3) − a1j xj
j=3 j=2
x2 = , x1 =
a22 (3) a11 (3)
174 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES
117
191
283
0, 6126
191
1, 4817
{x} = '
411
−2, 1518
−
1, 4869
191
284
191
(k−1)
aik
ψik = (k−1)
akk
(k) (k)
1 0 0 ... 0 a1,k+1 ... a1n x1
(k)
b1
(k) (k) x2
(k)
0 1 0 ... 0 a2,k+1 ... a2n
b2
.. .. .. .. ..
..
.
. · . . .
.
..
b(k)
(k) (k)
xk−1
k−1
·
. 0 ak−1,k+1 ... ak−1,n
· =
(k)
..
xk
bk
(k) (k)
·
. 1 ak,k+1 ... akn
(k)
xk+1 bk+1
(k) (k)
0 ... ... ... 0 ak+1,k+1 ... ak+1,n
.. .. .. ..
..
..
..
. . .
. . . .
(k) (k)
(k)
bn
0 ... ... ... 0 an,k+1 ... ann xn
(4.13)
Como se puede observar, al anular todos los coeficientes de la columna k,
excepto el diagonal, se va transformando la matriz original en la identidad.
Al final, la (n)-ésima matriz obtenida por operaciones simples de fila es la
identidad, y por lo tanto, el (n)-ésimo término independiente:
(n)
b1
..
.
(n)
bn
.
..
(n)
bn
(k−1)
(k) akj
akj = (k−1)
akk
(k−1)
(k) (k−1) aik (k−1)
aij = aij − a
(k−1) kj
akk
(4.14)
(k−1)
(k) bk
bk = (k−1)
akk
(k−1)
(k) (k−1) aik (k−1)
bi = bi − b
(k−1) k
akk
Para todo i = 1 : k − 1, k + 1 : n, j = k : n y k = 1 : n. El número de
operaciones que se deben realizar es:
n−1
X (n − 1)2 (n − 2)
(n − 1)(n − k + 1) = sumas
2
k=1
n−1
(n − 1)2 (n − 2)
X
(n − 1)(n − k + 1) = productos
2
k=1
n−1
(n − 1)(n − 2)
X
(n − k + 1) = divisiones
2
k=1
Ejemplo:
Utilizando en Método de Eliminación de Gauss-Jordan, encontrar la so-
lución del sistema de ecuaciones lineales expresado en forma matricial, dado
a continuación.
4.2. MÉTODOS DIRECTOS 177
Lea A ( i, j ); b( i )
Matriz Aumentada
k =1: n
= B uscar val or máx ( |A (k, j )|) 6= 0
A ( k, k ) = 0
para j = k + 1 : n
6= Intercambiar filas
6 2 1 −1 x1
3
2 4 1 0
x2
5
· =
1 1 4 −1 x −8
3
−1 0 −1 3 x4 6
Solución
6 2 1 −1 | 3
2
4 1 0 | 5
1 1 4 −1 | −8
−1 0 −1 3 | 6
1 1/3 1/6 −1/6 | 1/2
0 10/3 2/3
1/3 | 4
0 2/3 23/6 −5/6 | −17/2
0 1/3 −5/6 17/6 | 13/2
1 0 1/10 −1/5 | 1/10
0
1 1/5 1/10 | 6/5
0 0 37/10 −9/10 | −93/10
0 0 −9/10 14/5 | 61/10
1 0 0 −13/74 | 13/37
0
1 0 11/74 | 63/37
0 0 1 −9/37 | −93/37
0 0 0 191/74 | 142/37
Finalmente, para el último paso (k = 4) del proceso de Gauss-Jordan, se
deben hacer ceros los términos ai4 , para i = 1 : 3. Los valores para ψik en este
paso son: ψ14 = −13/191, ψ24 = 11/191 y ψ34 = −18/191. De la sustitución
de estos y los valores dados para i = 1 : 3 y k = 4 en las ecuaciones 4.14 se
llegó a:
1 0 0 0 | 117/191
0 1 0 0 | 283/191
0 0 1 0 | −411/191
0 0 0 1 | 284/191
De esta manera se consiguió la Matriz Diagonal Unitaria equivalente a la
Matriz Aumentada del sistema de ecuaciones original y de donde se obtienen
directamente los valores solución del sistema dado para este ejemplo. Estos
son:
117
191
283
0, 6126
191
1, 4817
{x} = '
411 −2, 1518
−
1, 4869
191
284
191
Los cálculos fueron realizados utilizando fracciones para, de esta manera,
evitar el Error de Redondeo (ver Capı́tulo 2), y hacer énfasis en el hecho
de que el método de Gauss-Jordan es un método exacto para la solución de
sistemas lineales de ecuaciones. De acuerdo con la ecuación 4.15, el número
total de operaciones realizado hasta llegar a la solución es de 63, una más que
en el Método de Eliminación de Gauss (ver Ejemplo del subsección 4.2.2).
Finalmente, en la Figura 4.2 se muestra una comparación gráfica del
número total de operaciones realizadas por lo métodos de Gauss y Gauss-
Jordan en función del tamaño del sistema, n, de acuerdo con las ecuaciones
4.12 y 4.15, respectivamente. Note que, para sistemas de hasta tamaño n = 4
180 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES
105
10
0
0 10 20 30 40 50 60 70 80 90 100
Figura 4.2: Cantidad total de operaciones básicas realizadas por los métodos
de Gauss (lı́nea azul) y Gauss-Jordan (lı́nea roja) en función del tamaño n×n
del sistema, de acuerdo con las expresiones 4.12 y 4.15, respectivamente.
1 0 ... ... 0 0 ... ... 0
.. .. ..
0 1 . . .
.. .. .. .. ..
. . . . .
.. .. ..
. 1 0 . .
[G](k)
= 0 ... ... 0 1 0 ... ... 0 (4.16)
.. .. ..
. . −ψk+1,k 1 .
.. .. ..
..
.
. . −ψk+2,k 0 .
.. .. .. ..
. . . . 1 0
0 ... ... 0 −ψn,k 0 ... 0 1
[U ] = [A](n−1)
Puesto que las inversas de las [G](k) son triangulares inferiores con dia-
gonal unitaria, puede comprobarse que:
1 0 ... 0 0
ψ21 1 0
.. ..
[L] =
.. (4.19)
. . .
ψn−1,1 1 0
ψn1 ψn2 . . . ψn,n−1 1
n
(n−1)
Y
|A| = |A(n−1) | = aii (4.20)
i=1
2 3
n
3
Operaciones aproximadamente que es muy inferior al orden n! de opera-
ciones en un cálculo común de un determinante.
[A] = [L] · [U ]
Donde [L] tiene la diagonal unitaria, entonces la descomposición es úni-
ca.
[L1 ] · [U1 ] = [L2 ] · [U2 ] ←→ [L2 ]−1 · [L1 ] = [U2 ] · [U1 ]−1
Pero el primer miembro de la igualdad es una matriz triangular inferior
con diagonal unitaria mientras que el segundo es una triangular superior.
Ambos miembros, por lo tanto, son iguales a la matriz identidad, de donde
se deduce que:
[L1 ] = [L2 ]
y,
[U1 ] = [U2 ]
Sea [Pij ] una matriz que permute las filas i, j. Esta matriz se escribe
como:
i j
1 0 ··· 0 ··· 0 ··· 0
.. .. .. ..
0 . . . .
..
. 1 0 0
i
0 ··· 0 0 0 ··· 0 1 0 ··· 0
0 1 0
[Pij ] = .. .. .. .. (4.21)
..
. . . . .
0 1 0
j
0 ··· 0 1 0 ··· 0 0 0 ··· 0
..
0 0 1 .
.. .. ..
..
.
. . . 0
0 ··· 0 ··· 0 ··· 0 1
[P ] · [A] = [L] · [U ]
n
(n−1)
Y
|A| = ±|A(n−1) | = ± aii
i=1
Para finalizar esta sección, donde se han formalizado las diferentes va-
riantes del Método de Gauss, conviene conocer bajo qué condiciones puede
aplicarse el Método de Gauss sin pivotamiento. Esto es ası́ porque sólo en
esta variante (sin pivotamiento) pueden emplearse esquemas de almacena-
miento especı́ficos para algunos tipos de matrices muy frecuentes en cálculo
numérico (por ejemplo, matrices en banda y en skyline, simétricas o no, ver
Capı́tulo 1). Se consigue un ahorro computacional considerable mediante
estos esquemas de almacenamiento matricial, tanto en número de operacio-
nes como en memoria necesaria. Para ello, el siguiente teorema presenta la
condición necesaria y suficiente para aplicar el Método de Gauss sin pivo-
tamiento. Se denomina [A(m)11 ] al menor principal de [A] de orden m. Es
decir, los coeficientes de [A(m)11 ] son los aij de [A] para todo i = 1 : m y
j = 1 : m. Por extensión [A(m)11 ](k) será el menor de orden m de [A](k) . Las
tres cajas que completan la matriz [A] se denotan por [A(m)12 ], [A(m)21 ] y
[A(m)22 ], de forma que:
m columnas (n − m) columnas
[A(m)11 ] [A(m)12 ]
m filas
[A]=
(n − m) filas [A(m)21 ] [A(m)22 ]
Ejemplo:
Solución
1 0 0 0
0 0 0 1
[P24 ] =
0
0 1 0
0 1 0 0
Para demostrar que es condición suficiente hay que mostrar que una vez
obtenida la matriz [A](k) , el proceso de eliminación puede seguir; es decir,
(k)
que el pivote ak+1,k+1 es no nulo. Para ello supóngase que:
|A(m)11 | =
6 0 ∀m=1:n
En particular esto se verifica para m = 1; es decir:
(0)
a11 = |A(1)11 | =
6 0
188 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES
(k) (k)
[A(k+1)11 ] [A(k+1)12 ]
[A](k) =
(k) (k)
[A(k+1)21 ] [A(k+1)22 ]
(k)
(k−1)
[G(k+1)11 ] 0 [G(k+1)11 ] 0
= · · ...·
(k) (k) (k−1) (k−1)
[G(k+1)21 ] [G(k+1)22 ] [G(k+1)21 ] [G(k+1)22 ]
(1)
"
[G(k+1)11 ] 0
#
[A(k+1)11 ] [A(k+1)12 ]
·
(1) (1)
[G(k+1)21 ] [G(k+1)22 ] [A(k+1)21 ] [A(k+1)22 ]
(4.26)
Donde se ha realizado la misma partición en las matrices [G] mostrando
explı́citamente sus menores principales y su estructura triangular inferior a
partir de 4.26 es fácil ver que:
(i)
Tomando ahora determinantes y recordando que todas las matrices [G](k+1)11
tienen diagonales unitarias y que det([A(k+1)11 ]) 6= 0 por hipótesis, es evi-
(k)
dente que det([A(k+1)11 ]) 6= 0. Por lo tanto queda demostrar que el pivote
(k)
ak+1,k+1 es no nulo y el proceso de eliminación puede seguir. Por inducción
se obtendrá la descomposición de [A] en [L] · [U ].
[A(m)11 ] [A(m)12 ] [L(m)11 ] 0 [U(m)11 ] [U(m)12 ]
= ·
[A(m)21 ] [A(m)22 ] [L(m)21 ] [L(m)22 ] 0 [U(m)22 ]
Para demostrarlo, basta recordar que todos los menores de [A] son Dia-
gonal Dominantes y que toda matriz Diagonal Dominante es no singular.
190 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES
[A] = [L] · [U ]
Entonces, el sistema de ecuaciones original:
u11 = 6
u12 = 2
u13 = 1
u14 = −1
La porción de multiplicación que determina los elementos restantes de
la primera columna de [A], da las ecuaciones.
l21 u11 = 2
l31 u11 = 1
l41 u11 = −1
Ya que u11 = 6, se tiene que:
1
l21 =
3
1
l31 =
6
1
l41 = −
6
194 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES
0 0 0 u44
2
+ u22 = 4
3
1
+ u23 = 1
3
1
− + u24 = 0
3
Ası́ que:
10
u22 =
3
2
u23 =
3
1
u24 =
3
Y la que determina los elementos restantes de la segunda columna de
[A], da.
4.2. MÉTODOS DIRECTOS 195
2 10
+ l32 = 1
6 3
2 10
− + l42 = 0
6 3
Ası́ que:
1
l32 =
5
1
l42 =
10
Éste proceso continua, alternando columnas y filas entre [L] y [U ], para
obtener finalmente:
1 0 0 0
1
1 0 0
3
[L] =
1
1
6 1 0
5
1 1 9
− − 1
6 10 37
y,
−1
6 2 1
10 2 1
0
3 3 3
[U ] =
37 9
0 0 −
10 10
191
0 0 0
74
[A(k) ] {c(k+1) }
[A(k+1) ] = (4.28)
{f(k+1) }T ak+1,k+1
a1,k+1
ak+1,1
a2,k+1
ak+1,2
{c(k+1) } = .. {f(k+1) } = .. (4.29)
.
.
ak,k+1 ak+1,k
[A(k) ] {c(k+1) } [L(k) ] {0}
[U(k) ] {u(k+1) }
= ·
{f(k+1) } T {l(k+1) }T T
ak+1,k+1 lk+1,k+1 {0} 1
(4.30)
k
Donde aparecen los siguientes vectores de R :
4.2. MÉTODOS DIRECTOS 197
lk+1,1
u1,k+1
0
lk+1,2
u2,k+1
0
{l(k+1) } = .. {u(k+1) } = .. {0} = ..
.
.
.
lk+1,k uk,k+1 0
(4.31)
Y, por último, tras proceder a multiplicar las matrices [L(k+1) ] y [U(k+1) ]
en la ecuación 4.30, se obtiene las ecuaciones necesarias para la descompo-
sición del menor principal [A(k+1) ] Es decir:
k =1:n−1
198 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES
a1,k+1
u1,k+1 =
l11
i−1
!
X
ai,k+1 − lij uj,k+1
j=1
ui,k+1 = i=2:k
lii
lk+1,1 = ak+1,1
(4.33)
Xi−1
l = a − uji lk+1,j i=2:k
k+1,i k+1,i
j=1
uk+1,k+1 = 1
k
X
l
k+1,k+1
= a k+1,k+1 − lk+1,i ui,k+1
i=1
Ejemplo:
Solución
l11 = a11 = 6
u11 = 1
a12 1
u12 = =
l11 3
l21 = a21 = 2
u22 = 1
1
10
X
l = a − l2i ui2 =
22 22
3
i=1
6 2 1 −1 6 0 0 0 1 1/3 u13 u14
2 4 1 0 2 10/3 0 0 0 1 u23 u24
= ·
1 1 4 −1 l31 l32 l33 0 0 0 u33 u34
−1 0 −1 3 l41 l42 l43 l44 0 0 0 u44
| {z } | {z } | {z }
[A] [L] [U ]
a13 1
u13 = =
l11 6
Para i = 2
X 1
a − l2j uj3
23
1
j=1
u23 = =
l 5
22
l31 = a31 = 1
1
X 2
l32 = a32 − uj2 l3j =
3
j=1
u33 = 1
2
37
X
l33 = a33 − l3i ui3 =
10
i=1
6 2 1 −1 6 0 0 0 1 1/3 1/6 u14
2 4 1 0 = 2 10/3 0 0 · 0 1 1/5 u24
1 1 4 −1 1 2/3 37/10 0 0 0 1 u34
−1 0 −1 3 l41 l42 l43 l44 0 0 0 u44
| {z } | {z } | {z }
[A] [L] [U ]
a14 1
u14 = =−
l11 6
Para i = 2
1
X
a24 − l2j uj4
j=1 1
u24 = =
l 10
22
Para i = 3
X 2
a34 − l3j uj4
9
j=1
u34 = =−
l33 37
l41 = a41 = −1
Para i = 2
1
1
X
l = a − uj2 l4j =
42 42
3
j=1
Para i = 3
2
9
X
l = a − uj3 l4j = −
43 43
10
j=1
u44 = 1
3
191
X
l44 = a44 −
l4i ui4 =
74
i=1
6 2 1 −1 6 0 0 0 1 1/3 1/6 −1/6
2 4 1 0 = 2 10/3 0 0 · 0 1 1/5 1/10
1 1 4 −1 1 2/3 37/10 0 0 0 1 −9/37
−1 0 −1 3 −1 1/3 −9/10 191/74 0 0 0 1
| {z } | {z } | {z }
[A] [L] [U ]
Una vez obtenidas las matrices [L] y [U ], se continúa con las sustituciones
hacia adelante y hacia atrás dadas en la expresión 4.27. Para la sustitución
hacia adelante, se tiene que:
6 0 0 0
y1
3
2 10/3 0 0 y2
5
· =
1 2/3 37/10 0 y3
−8
−1 1/3 −9/10 191/74 y4 6
| {z } | {z } | {z }
[L] {y} {b}
1 6
y1 = , y2 =
2 5
y,
93 284
y3 = − , y4 =
37 191
Ahora, con los valores de {y} se sigue con la sustitución hacia atrás dada
en la expresión 4.27, ası́:
1 1/3 1/6 −1/6
x1
1/2
0 1 1/5 1/10 x2
6/5
· =
0 0 1 −9/37 x3
−93/37
0 0 0 1 x4 284/191
| {z } | {z } | {z }
[U ] {x} {y}
117
191
283
0, 6126
191
1, 4817
{x} = '
411
−2, 1518
−
1, 4869
191
284
191
Los cálculos fueron realizados utilizando fracciones para, de esta manera,
evitar el Error de Redondeo (ver Capı́tulo 2). El número total de operaciones
realizado hasta llegar a la solución al igual que en el Método de Eliminación
de Gauss, de 62 (ver Ejemplo de la subsección 4.2.2).
a11 > 0
y,
√
l11 = a11 > 0
Se verifica que det([A(k+1) ]) > 0 (por ser [A] simétrica y definida positiva)
y que det([L(k) ])2 > 0 (por ser positivos todos sus elementos diagonales). En
consecuencia:
lk+1,k+1 > 0
4.2. MÉTODOS DIRECTOS 207
Ejemplo:
Solución
1 2 −1 4 1 0 0 0 1 2 l31 l41
2 13 4 11 2 3 0 0 0
3 l32 l42
−1 4 14 7 = l31 l32 l33 0 · 0
0 l33 l43
4 11 7 27 l41 l42 l43 l44 0 0 0 l44
| {z } | {z } | {z }
[A] [L] [L]T
a13 1
u13 = =
l11 6
Para i = 2
X 1
a − l2j uj3
23
1
j=1
u23 = =
l 5
22
l31 = a31 = 1
1
X 2
l32 = a32 − uj2 l3j =
3
j=1
u33 = 1
2
37
X
l = a − l3i ui3 =
33 33
10
i=1
a31
l31 = = −1
l
11
Para i = 2
X1
a32 − l2j l3j
j=1
l32 = =2
l22
v
2
u
X
2
u
l
33
= t a 33 − l3i =3
i=1
1 2 −1 4 1 0 0 0 1 2 −1 u41
2 13 4 11 2 3 0 0 0 3 2 u42
·
−1 4 14 7 = −1 2
3 0 0 0 3 u43
4 11 7 27 l41 l42 l43 l44 0 0 0 u44
| {z } | {z } | {z }
[A] [L] [L]T
a41
l41 = =4
l11
Para i = 2
1
X
a42 − l2j l4j
j=1
l42 = =1
l22
Para i = 3
X2
a43 − l3j l4j
j=1
l43 = =3
l33
v
u
X3
2
u
l = a − l4i =1
44 44
t
i=1
1 2 −1 4 1 0 0 0 1 2 −1 4
2 13 4 11 2 3 0 0 0 3 2 1
·
−1 4 14 7 = −1
2 3 0 0 0 3 3
4 11 7 27 4 1 3 1 0 0 0 1
| {z } | {z } | {z }
[A] [L] [L]T
Una vez obtenidas las matrices [L] y [L]T , se continúa con las susti-
tuciones hacia adelante y hacia atrás dadas en la expresión 4.27. Para la
sustitución hacia adelante, se tiene que:
1 0 0 0 y1
3
2 3 0 0
y2
7
· =
−1 2 3 0 y3 11
4 1 3 1 y4 −6
| {z } | {z } | {z }
[L] {y} {b}
1
y1 = 3 , y2 =
3
y,
40 95
y3 = , y4 = −
9 3
Ahora, con los valores de {y} se sigue con la sustitución hacia atrás dada
en la expresión 4.27, ası́:
1 2 −1 4 x1
3
0 3 2 1
x2
1/3
· =
0 0 3 3 x 40/9
3
0 0 0 1 x4 −95/3
| {z } | {z } | {z }
[L]T {x} {y}
15040
81
926
185, 6790
−
81
−11, 4320
{x} = '
895
33, 1481
−31, 6666
27
95
−
3
Los cálculos fueron realizados utilizando fracciones para, de esta manera,
evitar el Error de Redondeo (ver Capı́tulo 2).
n
X
|aii | ≥ |aij |
j=1
j 6= i
para cada i = 1 : n.
Matriz Dominante
1 2
3 4
[A] = [P ] − [N ] (4.37)
de donde que,
y,
para k = 0 : . . .
[P ] = [D]
[N ] = [D] − [A] (4.43)
[N ] = [E] + [F ]
eij = 0, Si i ≤ j
fij = 0, Si j ≤ i
x =zeros(n)
xNi =zeros(n)
for i = 1 : n
sumatoria= 0
for j = 1 : n
if (i 6= j)
sumatoria = sumatoria+aij ∗ xj
end
end
(bi − sumatoria )
xNi =
aii
end
for i = 1:n
if r (k) (xNi ) ≤ tolerancia
return
else
xi = xNi
end
end
Ejemplo:
Resolver el siguiente sistema de ecuaciones utilizando el Método Iterativo
de Jacobi.
9 − 5x2 + 6x3
x1 =
13
Despejando x2 de 4.48, se tiene:
4 − (x1 + 6x3 )
x2 =
−10
Despejando x3 de 4.49, se tiene que:
x1 x2 x3
0 0 0
9/13 -2/5 1/4
0,96 -0,18 0,1534
0,8326 -0,2118 0,1861
0,8597 -0,2051 0,1843
Podemos comprobar la convergencia mediante el residuo en cada itera-
ción, esto es:
(i) (i) (i) (i)
r1 = 13x1 + 5x2 − 6x3 − 9
(i) (i) (i) (i)
r2 = x1 − 10x2 + 6x3 − 4
(i)
(i) (i) (i)
r3 = 0, 5x1 − 3x2 + 16x3 − 4
y en donde que:
r 2 2 2
(i)
(i) (i) (i)
r
= r1 + r2 + r3
es la norma del residuo que, en este caso, deberá ser menor o igual que
tol = 0, 1 para ser una solución aceptable, entonces:
Para i = 0:
4.3. MÉTODOS ITERATIVOS 219
(0)
r1 = 9
(0)
⇒
r(0)
= (9)2 + (4)2 + (4)2 = 10, 6310
p
r2 = 4
(0)
r3 = 4
Para i = 1:
(1)
r1 = −3, 5
(1)
p
r2 = 2, 1923 ⇒
r(1)
= (3, 5)2 + (2, 1923)2 + (1, 5462)2 = 4, 4098
(1)
r3 = 1, 5462
Para i = 2:
(2)
r1 = 1, 6751
(2)
p
r2 = −0, 3101 ⇒
r(2)
= (1, 6751)2 + (0, 3101)2 + (0, 5224)2 = 1, 7819
(2)
r3 = −0, 5224
Para i = 3:
(3)
r1 = −0, 3518
(3)
p
r2 = 0, 0672 ⇒
r(3)
= (0, 3518)2 + (0, 0672)2 + (0, 0293)2 = 0, 3594
(3)
r3 = 0, 0293
Para i = 4:
220 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES
(4)
r1 = 0, 0448
(4)
p
r2 = 0, 0165 ⇒
r(4)
= (0, 0448)2 + (0, 0165)2 + (0, 00605)2 = 0, 0481
(4)
r3 = −0, 00605
y que:
0 5 −6
[N ] = [P ] − [A] = 1 0 6
0, 5 −3 0
De aquı́ se tiene que los 3 valores propios de [B] están dados por λ1 =
−0, 364, λ2 = −0, 011 y λ3 = 0, 375 y de acuerdo con los criterios de con-
vergencia para métodos iterativos como el método de Jacobi, se sabe, que
convergerá monotónicamente a la solución partiendo de cualquier {x}(0) , si
su radio espectral, ρ([B]) es menor que uno. Entonces, note que en este caso
ρ([B]) = 0, 375 < 1.
4.3. MÉTODOS ITERATIVOS 221
101
100
10-1
1 2 3 4 5
[N]=[F]
i−1 n
ω X X
xi (k+1) = bi − aij xj (k+1) − aij xj (k) + (1 − ω)xi (k) (4.51)
aii
j=1 j=i+1
[[1] − ω[D]−1 · [E]] · {x}(k+1) = [(1 + ω)[1] + ω[D]−1 · [F ]] · {x}(k) + ω[D]−1 · {b}
(4.52)
de donde la matriz de iteración es:
Ejemplo:
Resolver el siguiente sistema de ecuaciones utilizando el Método Iterativo
de Gauss-Seidel.
4.3. MÉTODOS ITERATIVOS 223
13x1 + 5x2 − x3 = 9
x1 − 10x2 + 6x3 = 4
|r(k) | ≤ tolerancia
Entonces, verificando para cada xi (i = 1 : 3) obtenido en la primera
iteración (k = 0) y remplazando estos valores para obtener el residuo, ya
que la norma del residuo nos dirá si los xi son soluciones del sistema o no.
Para ello, en este caso, la norma del residuo deber ser menor a tol = 0, 1
(0)
r1 = −9
(0)
⇒
r(0)
= (9)2 + (4)2 + (4)2 = 10, 6310
p
r2 = −4
(0)
r3 = −4
Para i = 1.
3
(1) 1 X (1)
x1 = b1 − a1j xj
a11
j=2
(1) 1
x1 = {9 − [(5)(0) + (−6)(0)]} = 0, 6923
13
Para i = 2.
1 3
(1) 1 X (2)
X (1)
x2 = b2 − a2j xj − a2j xj
a22
j=1 j=3
(1) 1
x2 = [4 − (1)(0, 6923) − (6)(0)] = −0, 3308
−10
Para i = 3.
2
(1) 1 X (2)
x3 = b3 − a3j xj
a33
j=1
(1) 1
x3 = {4 − [(0,5)(0, 6923) + (−3)(−0, 3308)]} = 0, 1664
16
Finalmente, verificamos con el residuo:
(1)
r1 = −2, 6519
(1)
⇒
r(1)
= (2, 6519)2 + (0, 9981)2 + (0)2 = 2, 8335
p
r2 = 0, 9981
(1)
r3 = 0
0, 6923
{x}(1) = −0, 3309
0, 1664
Para i = 1.
3
(2) 1 X (2)
x1 = b1 − a1j xj
a11
j=2
(2) 1
x1 = {9 − [(5)(−0, 3308) + (−6)(0, 1664)]} = 0, 8963
13
Para i = 2.
1 3
(2) 1 X (3)
X (2)
x2 = b2 − a2j xj − a2j xj
a22
j=1 j=3
(2) 1
x2 = [4 − (1)(0, 8963) − (6)(0, 1664)] = −0, 2106
−10
Para i = 3.
2
(2) 1 X (3)
x3 = b3 − a3j xj
a33
j=1
(2) 1
x3 = {4 − [(0,5)(0, 8963) + (3)(−0, 2106)]} = 0, 1825
16
A continuación, se verificará si los valores de las incógnitas xi obtenidos
en esta iteración son soluciones del sistema propuesto en este ejemplo, al
226 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES
(2)
r1 = 0, 5039
(2)
p
r2 = 0, 0973 →
r(2)
= (0, 5039)2 + (0, 0973)2 + (−5E −5 )2 = 0, 5132
(2)
r3 = −5E −5
(4.54)
donde 0, 5132 > 0, 1 entonces k = k + 1.
Para i = 1.
3
(3) 1 X (3)
x1 = b1 − a1j xj
a11
j=2
(3) 1
x1 = {9 − [(5)(−0, 2106) + (6)(0, 1825)]} = 0, 8575
13
Para i = 2.
1 3
(3) 1 X (4)
X (3)
x2 = b2 − a2j xj − a2j xj
a22
j=1 j=3
(3) 1
x2 = [4 − (1)(0, 8575) − (6)(0, 1825)] = −0, 2048
−10
Para i = 3.
2
(3) 1 X (4)
x3 = b3 − a3j xj
a33
j=1
(3) 1
x3 = {4 − [(0, 5)(0, 8575) + (3)(−0, 2048)]} = 0, 1848
16
(3)
Luego, se procede a verificar si los valores de los xi son soluciones del
sistema propuesto en este ejemplo. Se utilizará el mismo criterio que en las
tres iteraciones anteriores.
(3)
r1 = 0, 0147
(3)
p
r2 = 0, 0143 →
r(3)
= (0, 0147)2 + (0, 0143)2 + (−5E −5 )2 = 0, 0205
(3)
r3 = −5E −5
101
100
10-1
1 2 3 4
2
0<ω<
ρ([D]−1 · [A])
(solución)
lı́m {x}(k) = {x}
k→∞
P =5
y 2 .
1 3
2
1
2
.3 x
Para que una armadura sea isostática debe cumplirse la siguiente rela-
ción.
Donde:
B= Número de barras.
n= Número de nudos.
Discretización
Análisis de Fuerzas
Matriz
Q1
a11 a12 ... a1,B+3 F1
P1
a21 a22 a2,B+3 F2
.
.. .. · .. = ..
. . .
Q
N
a2N,1 a2N,2 . . . a2N,B+3 F2N
PN
Nudo 1:
R 1x
R 1y
4.4. APLICACIÓN A LA ESTÁTICA 231
y
−F e(j) sen α
e
F e(i) sen α
α
x
(i) F e(i) cos α
Fxint = Fxext
P P
Fyint = Fyext
P P
Nudo 2:
Fxint = Fxext
P P
Fyint = Fyext
P P
Nudo 3:
Fxint = Fxext
P P
Fyint = Fyext
P P
R 3y
F2 sen (α2 + 180) + F3 sen α3 = R3y
Ecuación Adicional:
−P + R1y + R3y = 0
Armado de la Matriz
La Tabla 4.1 corresponde a la armadura isostática de la Figura 4.6.
De acuerdo con la Tabla 4.1, el sistema matricial a resolver queda de la
siguiente manera:
cos(α1 ) cos(α2 ) 0 1 0 0
F1
0
sen(α1 ) sen(α2 ) 0 0 1 0 F2 0
cos(180 + α1 ) 0 cos(180 + α3 ) 0 0 0 F3 0
· =
sen(180 + α1 ) 0 sen(180 + α3 ) 0 0 0
R1x
−P
0 cos(180 + α2 ) cos(α3 ) 0 0 0 R2x 0
0 sen(180 + α2 ) sen(α3 ) 0 0 1 R3x 0
| {z } | {z } | {z }
[A] {x} {b}
4.5. EJERCICIOS 233
4.5. Ejercicios
1. La temperatura en los nodos de la malla de una placa se puede calcular
con el promedio de las temperaturas de los 4 nodos vecinos de la izquier-
da, derecha, arriba y abajo. Una placa cuadrada de 3m de lado tiene la
temperatura en los nodos de los bordes como se indica en la Figura 4.8.
50 50
100 a b 30
100 c d 30
60 60
Figura 4.8: Malla de una placa cuadrada en cuyos nodos internos se quiere
obtener la temperatura promedio.
Con la 3era iteración calcule el residuo y encuentre una cota del error
absoluto y error relativo.
PL
δ=
EA
234 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES
p1 p2
P2 = EA (u2 − u1 )
L
donde que u1 y u2 son las elongaciones (desplazamientos) correspondientes a
cada nodo de la barra en los que actúan las fuerzas P1 y P2 , respectivamente.
Además note que este último sistema de dos ecuaciones puede ser reescrito
de forma matricial como sigue:
P1 EA 1 −1 u1
= (4.55)
P2 L −1 1 u2
| {z }
[k]
p2
u2
y
x
Y θ
u 1 u 1y
X u 1x
p1 u1
u1x
u1 cos θ sin θ 0 0 u1y
= (4.56)
u2 0 0 cos θ sin θ u
2x
| {z } u2y
[R]
P1x
P1 cos θ sin θ 0 0 P1y
= (4.57)
P2 0 0 cos θ sin θ P
2x
P2y
donde que, [K]4x4 = [R]T4x2 [k]2x2 [R]2x4 , que de forma explı́cita se muestra en
la Tabla 4.2.
Entonces, una vez las matrices de rigidez de todos y cada uno de los
elementos del sistema han sido puestas en coordenadas globales, se debe
proceder a ensamblar la matriz de rigidez global, correspondiente a todo el
sistema, que es la que finalmente se resolverá una vez aplicadas las restric-
ciones y cargas correspondientes.
Por ejemplo, note que para el elemento (3), su nodo local 1 corresponde
al nodo global 3 del sistema (ver Figura 4.6 y Tabla de conectividad 4.3);
por lo que los miembros de la matriz de rigidez en coordenadas globales
del elemento (3) y correspondientes al nodo local 1, se encuentran en las
posiciones (filas y columnas) 5 y 6 de la matriz de rigidez global de la Tabla
4.4.
Se aconseja como una buena práctica incluir el ensamblaje por medio de
una tabla de conectividad en códigos que resuelvan problemas de este tipo
o similares.