Está en la página 1de 26

Sistemas lineales y autovalores

Definiciones, métodos y errores

César Menéndez Fernández


16 de octubre de 2021

Contenidos de la presentación

Índice
1. Introducción 1
1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2. Medidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3. Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4. Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2. Directos 7
1. Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2. Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3. Factorización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1. LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2. LDL’ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3. LL’ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4. Condicionamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3. Iterativos 19
1. Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2. Convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

4. Autovalores 25

5. Sist. no Lin. 26

6. Bibliografía 26

7. Software 26

8. Anexos 26
1. Demostraciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

1. Introducción
Motivación: mecánica estructural
En ingeniería estructural es habitual el cálculo de las fuerzas y reacciones asociadas con una estructura estáticamente
determinada. Denotando por F las tensiones o compresiones de los elementos de la estructura, y por H o V las reacciones
externas horizontales o verticales respectivamente. Determinar las reacciones de la estructura en cada apoyo cuando se
aplica una carga externa C = 10000N con un ángulo de incidencia δ = 90º, donde el apoyo es fijo en el nodo 2 y móvil el
nodo 3. (α = 30º, β = 60º).

1
C
① δ
γ
F1
F3


α β③
H1 F2

V1 V2

Consideramos + las Fk de compresión (])


P H 0 F1 cos α − F3 cos β − C cos δ = 0
=
 P
 ① F
P FV = 0 F1 sin α + F3 sin β − C sin δ = 0




② P FH = 0 H1 − F1 cos α − F2 = 0


 P VF = 0 V1 − F1 sin α = 0
= 0 2 + F3 cos β = 0

③ F F

P H


FV = 0 V2 − F3 sin β = 0

Objetivos

Distinguir las dos grandes familias de métodos de resolución de sistemas, orígenes, ventajas e inconvenientes.
Entender el significado del condicionamiento, aprender a estimarlo y conocer su efecto en los diferentes métodos.
Utilizar la eliminación gausiana con sus diversas mejoras, así como familiarizarse con la terminología: eliminación
progresiva, sustitución regresiva, pivote.

Conocer los métodos de factorización y su interés en el cálculo de determinantes y matrices inversas.


Comprender las condiciones de un algoritmo iterativo para ser consistente y convergente.
Comprender los métodos iterativos de Jacobi, Gauss-Seidel y relajación, y obtener sus matrices partiendo de una
descomposición matricial.

1. Definiciones
Sistemas Lineales

Un sistema de ecuaciones lineales, sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de
ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado), definidas sobre
un cuerpo (R o C) o un anillo conmutativo.

 4x1 − 5x2 + 4x3 − x4 = −11


• Ej. 4x1 − 2x2 − 2x3 + 2x4 = −2


2x1 − 2x2 − 4x3 − x4 = −6

• El problema consiste en encontrar los valores desconocidos de las variables {x1 , x2 , · · · } que satisfacen todas
las ecuaciones.

Representación matricial: Am×n xn = bm .


 
x1
4 −5 4 −1
   
 x2  −11
• Ej.  4 −2 −2 2  x3  =
  −2 
2 −2 −4 −1 −6
x4
Existencia y unicidad de solución: Tma de Rouche-Frobenius

 rango (A) = rango (Ab) = n S.C.D.


rango (A) = rango (Ab) < n S.C.I.


rango (A) < rango (Ab) S.I.

2
Traza, determinate y vectores propios
Sea A un elemento perteneciente al espacio vectorial de las matrices cuadradas cuadrada de orden n sobre el cuerpo
de los complejos A ∈ Mn (C). Se define:
n
X
Traza: akk (suma de los términos de la diagonal)
k=1

X n
Y
Determinante: |A| = signatura (p) apkk
p∈Pn k=1

Polinomio característico: PA (x) = |A − xI|


Autovalor o valor propio: λ ∈ C : ∃v ̸= 0 ∈ Cn /Av = λv. (raíces del polinomio característico)

Autovector (asociado al valor propio λ): cualquier vector v no nulo verificando Av = λv ↔ (A − λI) v = 0
Radio espectral: ρ (A) = máx |λk | (máximo en módulo de los autovalores)
k

Espectro: σ (A) = {λ ∈ C : ∃v ̸= 0 ∈ Cn /Av = λv} (conjunto de autovalores)

Clasificación de matrices
a11 a21 a31 · · · an1
 
 a12 a22 a32 · · · an2 
an3
 
a13 a23 a33 · · ·
 
Sea la matriz A = aji =
 
.. .. .. . . ..

i,j=1,··· ,n
. . . . .
 
 
a1n a2n 3
an · · · ann
Por sus elementos

• Diagonal: aji = 0 si i ̸= j
a11 0 0 ··· 0 0
 
 0 a22 0 ··· 0 0 
0 0 a33 · · · 0 0
 
 
A= .. .. .. . . .. ..
 
. . . . . .

 
0 0 0 ··· 0 
 
 an−1
n−1
0 0 0 ··· 0 ann

• Triangular inferior (superior): aji = 0 si i < j ( i > j )


a11 0 0 0 0
 
···
 a 1
2 a 2
2 0 ··· 0 0 
a13 a23 a33 0 0
 
 ··· 
A= .. .. .. .. .. ..  , (AT )
 
 . . . . . . 
0 
 
 a1
n−1 a2
n−1 a 3
n−1 ··· an−1
n−1
a1n a2n a3n ··· an−1
n ann

• Triangular estrictamente inferior (superior): aji = 0 si i ≤ j ( i ≥ j )


0 0 0 ··· 0 0
 
 a12 0 0 ··· 0 0 
0 ··· 0 0
 
 a13 a23 
A= .. .. .. . . .. .., (AT )
 
 . . . . . .
0 0 
 
 a1n−1 a2n−1 a3n−1 · · ·
a1n a2n a3n · · · an−1
n 0

• Tridiagonal: aji = 0 si |i − j > 1|

3
a11 a21 0 ··· 0 0
 
 a12 a22 a32 · · · 0 0 
0 a23 a33 · · · 0 0
 
 
A= .. .. .. . . .. ..
 
. . . . . .

 
0 0 0 ···
 
 an−1
n−1 ann−1 
0 0 0 ··· an−1
n ann
Por sus propiedades:
• Regular: |A| =
̸ 0
• Simétrica: AT = A (Hermítica A∗ = A con A∗ = conj AT


• Ortogonal: AT = A−1 (Unitaria A∗ = A−1 )


• Normal: AAT = AT A
• Definida positiva (negativa):
∀v ∈ Rn : v T Av ≥ 0 ⇔ ∀λi ∈ σ (A) : λi ≥ 0
(∀v ∈ Rn : v T Av ≤ 0 ⇔ ∀λi ∈ σ (A) : λi ≤ 0)
• Estrictamente definida positiva (negativa):
∀v ∈ Rn : v T Av > 0 ⇔ ∀λi ∈ σ (A) : λi > 0
(∀v ∈ Rn : v T Av < 0 ⇔ ∀λi ∈ σ (A) : λi < 0)

Teoremas

Criterio de Sylvester: la matriz A es definida positiva si y solamente si todos sus menores angulares son positivos.
· · · ak1
1
a1 a21

1
a2 a22 · · · ak2
∀v ∈ R : v Av > 0 ⇔ . .
n T
.. .. > 0, k = 1, 2, . . . , n

.. .. . .

a1 a2 k
k k ··· a k

Facorización de Schur (demo ?? en la página ??)


Sea A una matriz cuadrada, existe una matriz unitaria U tal que la matriz U−1 AU es triangular superior.
Descomposición en valores singulares (demo ?? en la página ??)
Sea A una matriz real, existen dos matrices ortogonales U y V tal que la matriz U−1 AV es diagonal
Teorema de descomposición espectral (demo ?? en la página ??)
• Sea A una matriz normal, existe una matriz unitaria U tal que la matriz U−1 AU es diagonal
• Sea A una matriz simétrica (hermítica), existe una matriz ortogonal (unitaria) U tal que la matriz U−1 AU es
diagonal

2. Medidas
Medidas

Sea el sistema Ax = b, la diferencia entre la solución exacta x y la calculada x̃ se denomina residuo r

r = Ax − Ax̃ = b − Ax̃

Las medidas en los espacios vectoriales (Rn , Mnm ) se realizan habitualmente con normas ∥◦∥, lo que permite «valorar»
dos soluciones aproximadas {x̃1 , x̃2 }.

x̃1 ”mejor” x̃2 ⇒ ∥r1 ∥ < ∥r2 ∥

Trabajar simultáneamente con dos espacios vectoriales requiere normas «coherentes» y se definen normas matriciales
(subordinadas) a partir de las normas vectoriales.

∥Ax∥
∥A∥ = sup = sup ∥Ax∥
x∈Rm ∥x∥ (∥x∥=1
x∈Rm
)

4
Se define la norma del producto (matricial) verificándo que es menor o igual que el producto de las normas.

∥Ab∥ ≤ ∥A∥ · ∥b∥

Normas habituales en (Rn , Mn×m ):


 
Vector (vi )i=1,...,n Matriz aji
(j=1,...,m
i=1,...,n
)
n
X Xn
j
∥◦∥1 ∥v∥1 = |vi | ∥A∥1 = máx ai
1≤j≤m
i=1 i=1
(máximo de columnas)
Xn
j
∥◦∥∞ ∥v∥∞ = máx |vi | ∥A∥∞ = máx ai
1≤i≤n 1≤i≤m
j=1

v (máximo de filas)
u n
uX
2
∥v∥2 = t (vi ) ∥A∥2 = ρ (A · AT )
p
∥◦∥2
i=1

Ejemplo:
1
 
4 4 −1 12
   
 −2  −5
v= ,A =  4 −2 −2 2  , Av =  12 
 0 
2 −2 −4 −1 6
2
• ∥v∥1 = |1| + |−2| + |0| + |2| = 5
∥A∥1 = máx (10, 9, 10, 4) = 10
∥Av∥1 = 12 + 12 + 6 = 3 < 5 · 10
• ∥v∥∞ = máx {|1| , |−2| , |0| , |2|} = 2
∥A∥∞ = máx (14, 10, 9) = 14
∥Av∥∞ = máx {12, 12, 6} = 12 < 2 · 14
q
2 2 2 2
• ∥v∥2 = (1) + (−2) + (0) + (2) = 3
∥A∥2 ≈ 8.22

∥Av∥2 = 324 ≈ 18 < 3 · 8.22

Definiciones y propiedades
Definiciones 1. Dos normas vectoriales {∥v∥a , ∥v∥b } son equivalentes cuando existen valores reales {α, β} tales que
∀v ∈ Rn : α ∥v∥a ≤ ∥v∥b ≤ β ∥v∥a
Teorema 2. Las normas {∥v∥1 , ∥v∥2 , ∥v∥∞ } son equivalentes en Rn , es más (demo ?? en la página ??)
1. ∥v∥∞ ≤ ∥v∥2 ≤ ∥v∥1
2. ∥v∥∞ ≤ ∥v∥1 ≤ n ∥v∥∞

3. ∥v∥∞ ≤ ∥v∥2 ≤ n ∥v∥∞

4. n1 ∥v∥1 ≤ ∥v∥2 ≤ n ∥v∥1
Ejemplo 3. v = 1 0 2 → ∥v∥1 = 5, ∥v∥2 = 3, ∥v∥∞ = 2

−2
∥v∥∞ ≤ ∥v∥2 ≤ ∥v∥1 → 2 ≤ 3 ≤ 5
∥v∥∞ ≤ ∥v∥1 ≤ n ∥v∥∞ → 2 ≤ 5 ≤ 3 · 2
√ √
∥v∥∞ ≤ ∥v∥2 ≤ n ∥v∥∞ → 2 ≤ 3 ≤ 3 · 2
√ √
1
n ∥v∥1 ≤ ∥v∥2 ≤ n ∥v∥1 → 13 5 ≤ 3 ≤ 3 · 5
Hecho 4. Las normas matriciales no verifican estas relaciones
4 4
 
−5
Ejemplo 5. A =  4 −2 −2  → ∥A∥1 = 10, ∥A∥2 = 8.21, ∥A∥∞ = 13
2 −2 −4

5
Interpretación geométrica
Su interpretacióngeométrica es simple, tomando una matriz de orden 2.
3 −2

A= → ∥A∥1 = 6, ∥A∥2 = 5.11, ∥A∥∞ = 5
−1 4

1. Afijos de los vectores unitarios (para la norma dada)

2. Imagen de los afijos por la aplicación asociada a A.

3. Cálculo de los afijos de menor norma que engloban a la imagen.

3. Cramer
Método de Cramer

Dado el sistema Ax = b
· · · an1
 1
a1 a21 a31
   
x1 b1
 a12 a22 a32 · · · an2  x2   b2 
· · · an3
 1    
 a3 a23 a33 x3 b3
=
   
 .. .. .. .. .. .. ..
  
 . . . . . . .
   
   
a1n a2n a3n ··· ann xn bn
El método de Cramer obtiene la solución como cociente de determinantes

6
a11 · · · ak−1 b1 ak+1 an1
 
1 1 ···
|Ak |  a12 · · · ak−1
2 b2 ak+1
2 ··· an2 
xk = donde Ak =  .. .. .. .. .. ..
 
|A| .

 . . . . . 
a1n ··· ak−1
n bn ak+1
n ··· ann

El determinante se evalúa por adjuntos:

|A| = a11 A11 + a21 A21 + · · · + an1 An1

donde Aki es el determinate que se obtiene al eliminar la fila i-ésima y la columna k-ésima.
a2 · · · ak−1 ak+1 · · · an2
1
2 2
a1 · · · ak−1 ak+1 · · · an3
3 3 3
Aji = . . .. .. .. ..
.. . . . . . .

a1 · · · ak−1 ak+1 · · · an
n n n n

Operaciones (complejidad):
• n + 1 determinantes de orden n y n cocientes
• cada determinante de orden n requiere n determinantes de orden n − 1, n − 1 sumas y n productos.
• Total: + n! , × (n + 1)!, ÷ n .
• Un sistema de orden 9 requiere 3 628 800 productos.
• Un sistema de orden 100 requiere 9.3326 × 10157 productos.

4. Métodos
Métodos de resolución

Métodos directos: Convierten el sistema inicial en otro u otros equivalentes, pero más simples de resolver (diagonal
ó triangular).
• Operaciones de equivalencia:
Multiplicar una ecuación por un escalar.
Intercambiar el orden de dos ecuaciones.
Sumar una ecuación a otra.
• Obtienen la solución “exacta” en un número finito de pasos (dependen sólo del orden del sistema).
Métodos iterativos:Transforman el sistema inicial para poder aplicar punto fijo.
• El número de pasos para obtener la solución “aproximada” depende del error admisible.

2. Directos
Resolución de sistemas «simples»

Sistema Lineal Ax = b
a1 a21 a31 · · · an1
 1    
x1 b1
 a12 a22 a32 · · · an2  x2   b2 
 a3 a23 a33 · · · an3
 1    
 x3 =
  b3 
 .. .. .. . . .. .. ..
  
 . . . . . . .
   
   
a1n a2n a3n ··· ann xn bn

Sistema con matriz diagonal


0 0 ··· 0
 1    
a1 x1 b1
 0 a22 0 ··· 0  x2   b2 
A= 0 0 0
    
 a33 · · ·  x3 =
  b3 
 .. .. .. . . .. .. ..
 
 . . . . . . .
   
   
0 0 0 ··· ann xn bn

7
bk
• Algoritmo: bucle en k desde 1 hasta n, obteniendo xk =
akk
• Operaciones: {0±, 0×, n÷}

Sistema con matriz triangular inferior


0 0 ··· 0
 1    
a1 x1 b1
 a12 a22 0 ··· 0   x2   b2 
a23 a33 · · · 0 
 1    
A =  a3   x3 = b3
    
 .. .. .. . . ..   .. ..

 . . . . .  . .
  
  
a1n a2n a3n ··· ann xn bn
k−1
!
1 X
• Algoritmo: bucle en k desde 1 hasta n, obteniendo xk = k bk − aik xi (descenso)
ak i=1

• Operaciones: 12 n (n − 1) ±, 12 n (n − 1) ×, n÷


Sistema con matriz triangular superior


a21 a31 · · · an1
 1    
a1 x1 b1
 0 a22 a32 · · · an2   x2   b2 
A= 0 0 a33 · · · an3 
    
  x3 = b3
    
 .. .. .. . . ..   .. ..

 . . . . .  . .
  
  
0 0 0 ··· ann xn bn
n
!
1 X
• Algoritmo: bucle en k desde n hasta 1, obteniendo xk = k bk − aik xi (remonte)
ak i=k+1

• Operaciones: 2 n (n − 1) ±, 12 n (n − 1) ×, n÷
1

1. Gauss
Método de Gauss

El método de Gauss transforma el sistema en uno equivalente triangular superior combinando las filas para anular
los términos por debajo de la diagonal.
a1 a21 · · · an1 b1 c1 c1 · · · cn1 d1
 1   1 2 
 a12 a22 · · · an2 b2   0 c22 · · · cn2 d2 
 .. .. . . .. .. ⇝  .. .. . . .. .. 
   
 . . . . . . . . . . 

 
1 2 n
an an · · · an bn 0 0 · · · cn dnn

Algoritmo:
• Para la i-esima columna, i = 1, 2, . . . , n, eliminar coeficientes bajo la diagonal
ai
◦ Calcular para la j-esima fila, j = i + 1, i + 2, . . . , n el coeficiente mij = − aji
i
◦ Combinar los n − i elementos de la fila i−ésima con la j−ésima mediante
j ← aj + mj ai
a··· ··· i ···

Al término de la diagonal akk que se usa para anular las columnas se denomina pivote.

Método de Gauss: ejemplo


ai
Ejemplo 6. Coeficiente: mij = − aji
i

2 4 1 = 2 4 1
     
−4 −15   −4 −15
1 −3 2ª 2 1ª
−1  0 3 − 52
 
 −1 −5 −10  − −7 − 35
 
1. 

_ _ 2 
 −1 −3 2 −2 −1   3ª − 2 1ª
−1
  0 −1 5
2 −4 −217 

5 2 4ª − −1
2 1ª 0 9 3
 
−2 −4 −22 −8 −37
 

8
2 4 1 −4 −15 = 2 4 1
     
  −4 −15
 0 3 =  0 3 −5
 
− 5
−7 − 35 
−7 − 35
 
2. 

17  _ _
2 2  2 2 
 0 −1 5
2 −4 − 2  3ª − 3 2ª
−1
  0 0 5
3 − 19
3 − 43
3

0 9 3 −8 −37 4ª − 93 2ª 0 0 13

 
 21 31
2 2

2 4 1 = 2 4 1
     
−4 −15   −4 −15
 0 3 −5 =  0 3 −5
35 
 
−7 − 2  −7 − 35
 
3. 

43  _ _
2 2 2 
 0 0 5 19
−3 −3 =  0 0 5
− 19
−343 
3   3 3
4ª − 5//32 3ª
21
0 0 13 0 0 0
21 31

 
 529 529
2 2 10 5

2x1 + 4x2 + 1x3 − 4x4 = −15 x1 = 15 (−15 − 4x2 − 1x3 + 4x4 ) = 1


 
 
5x2 − 2 x3 − 7x4 = − 2 x2 = 15 − 35 2 + 2 x3 + 7x4  = −2
5

 5 35


4. 43 →
 3 x3 − 3 x4 = − 3
5 19
 x3 = 5/3 − 43
1
3 + 3 x4 = −1
19

10 x4 = 5
 529 529

x4 = 2
 

Método de Gauss: operaciones

Conversión del sistema en triangular.


n−1
X n
X
+, × (n − i) = 16 n (n − 1) (2n − 1)
i=1 j=i+1
n−1
X n
X
÷ (1) = 16 n (n − 1)
i=1 j=i+1

Resolución del sistema triangular.


+, × 2 n (n
1
− 1)
÷ n

Total.
2n3 −3n2 +n
n3 − n
n2 −n
+, × + =
= O n3

6 3 2

n2 −n
n2 + n
+n= = O n2

÷ 2 2
Comparación (×):
Orden Cramer Gauss
9 3 628 800 240
100 9.3326 × 10157 333 000

Método de Gauss: técnicas de pivoteo

Debido a los errores inherentes a la representación limitada de un número en el ordenador, es conveniente no dividir
por números «pequeños», por lo que interesa que el pivote sea lo mayor posible (en valor absoluto), para disminuir
la propagación de errores en la división.

Pivoteo simple: se intercambian filas para tomar como pivote el mayor término en valor absoluto de la columna bajo
la diagonal.
2 1 3 → J−5K −3 6
   

•  J−5K −3 6 ←  ⇝  2 1 3 
3 −3 1 3 −3 1
Pivoteo doble: se intercambian filas y columnas para tomar como pivote el mayor término en valor absoluto de la
submatriz (se altera el orden de las soluciones).
 
↑ ↓
J6K −3 −5
    
 2 x1 x3
1 3 →   3
•  1 2   x2 

 −5 −3 J6K ←  x2 ⇝

x3 1 −3 3 x1
3 −3 1

9
Pivoteo escalado: actúa como el pivote simple pero tomando como término de comparación el valor ponderado de la
columna, esto es, dividido entre el máximo de la fila.
2 1 3 → 3 −3 1
    
2/3

•  −5 −3 6   −5/6  ⇝  −5 −3 6 
J3K −3 1 ← J3/3K 2 1 3

Ejemplo 7. Resolver con aritmética de


 4 dígitos, el sistema
0.003x1 + 59.14x2 = 59.17 x1 = 10


5.291x1 − 6.13x2 = 46.78 x2 = 1

1. Resolución del sistema inicial:


m12 = − 0.003
5.291
= −1763.6̄ ≃ −1764
−6.13 − 1764 × 59.14 ≈ −104300

F2 ← F2 + m2 F1 →
1
46.78 − 1764 × 59.17 ≈ 104400
0.003x1 + 59.14x2 = 59.17 x2 ≈ 1.001
 

−104300x2 = −104400 x1 = 0.003
1
(59.17 − 59.14 × 1.001) ≈ −10

2. Aplicando el pivote simple (intercambia el orden de las ecuaciones).


m12 = − 5.291
0.003
≃ −0.567 × 10−4
59.14 − 0.567 · 10−4 × 6.13 ≈ 59.14

F2 ← F2 + m12 F1 →
59.17 − 0.567 · 10−4 × 46.78 ≈ 59.14
5.291x1 − 6.13x2 = 46.78 x2 ≈ 1.
 

59.14x2 = 59.14 x1 = 5.291
1
(46.78 − 6.13 × 1) ≈ 10
3. Al modificar el sistema a uno equivalente
104 × (0.003x1 + 59.14x2 = 59.17)


5.291x1 − 6.13x2 = 46.78
30x1 + 591400x2 = 591700


5.291x1 − 6.13x2 = 46.78

pivote simple: solución errónea debido a las diferencias de escalas de los valores (no hay intercambio).
pivote escalado: solución correcta ya que intercambia las ecuaciones.
pivote doble:
591400x2 + 30x1 = 591700

m12 ≈ 1.037 · 10−5
−6.13x2 + 5.291x1 = 46.78
591400x2 + 30x1 = 591700 x1 ≈ 10.
 

5.291x1 = 52.92 x2 = 591400
1
(591700 − 30 × 10) ≈ 1

Método de Gauss: matriz singular

El método de Gauss detecta cuando el rango de la matriz es menor que el número de incógnitas (S.I. o S.C.D.)

• El pivote se anula.
• Ejemplo:
1 1 0 3 4 = 1 1 0 3 4
     
 
 2 1 −1 1 1  2ª − 21 1ª  0 −1 −1 −5
 
−7 
 
1. 
 3 −1 −1
_ _
2 −3 3ª − 1 1ª  0 −4 −1 −7 −15 
3

  
2 3 −1 4 4ª − −11 1ª
0 3 3 15 8
 
−1
 

1 1 0 3 4 = 1 1 0 3 4
     
 
 0 −1 −1 −5 =  0 −1 −1 −5
 
−7  −7 
 
2. 
 0 −4 −1 −7 −15  _  3ª − −4 _
−1 2ª  0 0 3 13 13 
 

0 3 3 15 8 4ª − −1 2ª 0 0 0 0 −13

 3

10
Método de Gauss: Algoritmo

Entrada: Matriz A y vector b.


Salida: Solución x, o mensaje de S.C.I./S.I.

1. Repetir para todas las filas (Proceso de triangularización).


a) Encontrar el pivote y su fila .
b) Si el pivote es nulo PARAR ’indeterminado/incompatible’ .
c) Si la fila/columna actual no es la del pivote, intercambiarlas.
1) Si hay intercambio de columnas, almacenar el orden.
d) Repetir desde la fila bajo la actual hasta la ultima.
1) Calcular el coeficiente m.
2) Anular el elemento bajo la diagonal combinando la fila con la actual.

2. Resolver el sistema triangular resultante (Sustitución regresiva).

2. Gauss-Jordan
Método de Gauss-Jordan

El método de Gauss-Jordan transforma el sistema en uno equivalente diagonal.


a1 a21 · · · an1 b1 c1 0 · · · 0 d1
 1   1 
 a12 a22 · · · an2 b2   0 c22 · · · 0 d2 
 .. .. . . . ..  →  .. .. .. . .. 
   
 . . . .. .   . . . .. . 
a1n a2n · · · ann bn 0 0 ··· cnn dn

Combina las filas (como Gauss) para anular los términos tanto por encima como por debajo de la diagonal.
Se utiliza, en los casos indispensables, para el cálculo de la inversa, resolviendo simultáneamente los sistemas
AX = I → DX = C → X = A−1 = D−1 C .
No se usa para la resolución de sistemas, ya que el número de operaciones es mayor que en Gauss.

Operaciones: Conversión del sistema en diagonal.


n−1
XX n
2
+, × (n − i) = 12 n (n − 1)
i=1 j=1
j̸=i

n−1
XX n
÷ (1) = 12 n (n − 1)
i=1 j=1
j̸=i

Total (sumando las n divisiones para la resolución)


3 2
+, × n −2n +n
= O n3

2

n2 −n
n2 + n
+n= = O n2

÷ 2 2
Comparación (×):
Orden Cramer Gauss G-Jordan
9 3 628 800 240 288
100 9.3326 × 10157 333 000 490 000

11
Método de Gauss-Jordan: ejemplos
Ejemplo 8. Sistema
2 4 1 = 2 4 1
     
−4 −15   −4 −15
1 2ª −1
1ª  0 3 − 52
 
 −1 −3 −5 −10  − −7 − 35
 
1. 

_ 2 _ 2 
 −1 −3 2 −2 −1   3ª − −12 1ª   0 −1 5
2 −4 − 17
2

5 2 4ª − −2 1ª 0 9 3
 
−2 −4 −22 −8 −37
 
2

2 4 1 1ª − 43 2ª  2 0
     13 16 25

−4 −15  3 3 3
 0 3 =  0 3
5
 
− −7 − 35 − 52 −7 − 35
 
2. 
 
2 2 _ _ 2 
 3ª − 93 2ª 
 0 −1 5
−4 − 17  −1  0 0 5
− 19 −343 
2 2  3 3
0 9 3 4ª − 3 2ª 0 0 13
 21 31
−8 −37
 
2 2

1ª − 5//33 3ª 
 13 
2 0 13 16 25
2 0 0 109 228
   

3 3 3 
−5/2
 5 5
 0 3 2ª 3ª 0 3 0 − 33
 
− 52 −7 − 35 − −39 
 
3. 
 
2 _ 5/3
_ 2
 0 0 0 0
5

3 − 19
3 − 43
3
  =   5
3 − 19
3 − 43
3

0 0 13 0 0 0 529
21 31
  529
21/2
4ª − 5/3 3ª

 

2 2 10 5

109/5
1ª − 4ª 
 
2 0 0 109 228
2 0 0 0 2
   
 529/10
5 5 
−33/2

 0 3 0 − 33 2ª − 529/10 4ª 0 3 0 0
 
−39  −6 
 
4. 
 
_ _
2
 0 0 0 0 0
5

5
− 19 − 43  3ª −
−19/3
− 53 
529/10 4ª 

3 3 3  3
0 0 0 529 529
0 0 0 529 529
 
=
 
10 5 10 5

2x1 = 2 x1 = 1
 
 
3x2 = −6 x2 = −2

 

5. →
5
x3 = − 53 x3 = −1
 5293
 
= x4 = 2
 529

x

10 4 5

Ejemplo 9. Inversa
2 4 1 −4 1 7 12 1ª 1 2 1 1
   
→ 2 −2 2
 −1 1 −3 −5 1 2ª + 1
1ª  0 3 −5
−7 1
1
1. 
 
_ 2 _ 2 2
2 1 3ª + 12 1ª  0 1
5 1

 −1 −3 −2  −1 −4 
2 2
−2 5 2 −4 1 4ª + 2 1ª
1
0 9 3 −8 1 1

4 1 −4
 1 
2
1
3 −5
−7 
Almacenaje: 

2 2 
1 5

2 −1 2 −4 
1 9 3 −8

1 2 1 1
1ª + −2 3 2ª 1 0 13 8 1 −2
   
2 −2 2 6 3 6 3
 0 3 −5
−7 1
1 →
7 1
2ª  0 1 −5 −7 1 1
2. 
 
2 2 _ 3 _ 6 3 6 3
 0 1 3ª + 13 2ª  0 0 −19
1
5 1 5 2 1

−1 2 −4 2

3 3 3 3

0 9 3 −8 1 1 4ª + −9 3 2ª 0 0 21
2 13 −1
2 −3 1
−2
 1 13 8

2 3 6 3
1 1 −5 −7
Almacena: 
 
2 3 6 3
−19
1 1 5

 
2 3 3 3
1 −3 21
2 13

1 0 13 8 1 −2
1ª + 10
13
3ª 1 0 0 109 −7 −11 −13
   
6 3 2 3 10 10 10 10
 0 1 −5 −7 1 1
2ª + 1
3ª  0 1 0 − 11 1 1 1
3. 
 
6 3 2 3 _ 2 _ 2 2 2 2
 0 0 −19
1 7→ 35 3ª  0 0 1
5 1 1

3 3 2 3
 − 19
5
2
5
1
5
3
5

0 0 21
2 13 1 −3 1 4ª − 10 3ª
63
0 0 0 529
10
−47
10
−51
10
−63
10 1
−7 −11 −13 109
 
10 10 10 10
1 1 1
− 11
Almacena: 
 
2 2 2 2 
2 1 3

5 5 5 − 19
5

−47 −51 −63 529
10 10 10 10

12
1 0 0 109 −7 −11 −13
1ª + −109
529 4ª 1 0 0 0 −218 −267 −1 −109
   
10 10 10 10 529 529 529 529
 0 1 0 − 11 1 1 1
2ª + 55
4ª  0 1 0 0 6 −16 −82 55
4. 
 
2 2 2 2 _ 529 _ 529 529 529 529
 0 0 1 3ª + 529 4ª  0 0 1 0 −88

− 19
5
2
5
1
5
3
5
 38 33
529 529
78
529
38
529

0 0 0 529
10
−47
10
−51
10
−63
10 1 10
7→ 529 4ª 0 0 0 1 −47
529
−51
529
−63
529
10
529

3. Factorización
Interpretación matricial de Gauss

Las operaciones realizadas para anular los elementos bajo la diagonal se pueden obtener mediante una premultipli-
cación maticial por una matriz triangular inferior con diagonal unitaria.

1 0 0 ··· 0
 
a11 a21 a31 · · · an1 a11 a21 a31 · · · an1
   
−a12
1 0 ··· 0 
an2 0 c22 cn2
 
 a11 a12 a22 a32 · · ·   c32 · · · 
−a13
0 1 ··· 0  an3 0 c23 cn3
    

a11
 a13 a23 a33 · · · =
  c33 · · ·  ↔ L1 A = U1

.. .. .. . . .. .. .. .. . . ..
 
.. .. .. . . .
. ..  . . . . . . . . . .
     
. . .
    
0 c2n
 
−an1
a1n a2n a3n · · · ann c3n · · · cnn
a1
0 0 ··· 1
1
1 0 0 ··· 0
 
a11 a21 a31 · · · an1 a11 a21 a31 · · · an1
   
 0 1 0 ··· 0 

−a23
 0 c22 c32 · · · cn2   0 c22 c32 · · · cn2 
 0 a2 1 ··· 0  0 c23 cn3 0 0 dn3
    
2
a33 · · · =
  d33 · · ·  ↔ L2 U1 = U2

 .. .. .. . . ..   .. .. .. . . .. .. .. .. . . ..
 
 . . . . .  . . . . . . . . . .
  
   
0 c2n 0 0
 
−a2n c3n · · · cnn d3n · · · dnn
0 a2 0 ··· 1
2
Reiterando el proceso:
u11 u21 u31 · · · un1
 
 0 u22 u32 · · · un2 
0 0 un3
 
Ln−1 Ln−2 · · · L2 L1 A = Un = 
 u33 · · · 
.. .. .. . . ..

. . . . .
 
 
0 0 0 ··· unn

Teorema 10. (demo ?? en la página ??)


−1
Las matrices anteriores verifican que (Lk ) = 2I − Lk
El producto de matrices triangulares inferiores (con diagonal unitaria) es otra matriz triangular inferior (con diagonal
unitaria).
La inversa de una matriz triangular inferior (con diagonal unitaria) es otra matriz triangular inferior (con diagonal
unitaria).

Nota: lo anterior es válido para matrices triangulares superiores.


−1
Corolario 11. (Ln−1 Ln−2 · · · L2 L1 ) = L → A = LUn

Los intercambios de las filas o columnas i-esima y k-esima también tienen interpretación matricial:
• Matriz de intercambio Mik (partiendo de la identidad intercambiando filas i,k-esimas).
1 0 0 ··· 0 ··· 0 ··· 0
 
 0 1 0 ··· 0 ··· 0 ··· 0 
 0 0 1 ··· 0 ··· 0 ··· 0
 

 .. .. .. . . . .. . .. ..
 
 . . . . .. . .. . .


Mik =  0 0 0 · · · 0 1 0
 
 ··· ···  fila i

 .. .. .. . . . .. .. .. ..
 . . . . .. . . . .


 0 0 0 ··· 1 0 0  fila k
 
··· ···
 . . . .
. . ... .. .. .. ..
 
 .. .. .. . .

. . 
0 0 0 ··· 0 ··· 0 ··· 1

13
• Intercambio de filas (premultiplicando por Mik )
a32 · · · an2 0 1 0 ··· 0 an1
 1
a22 a11 a21 a31 · · ·
   
a2
 a11 a21 a31 · · · an1   1 0 0 ··· 0  a12 a22 a32 · · · an2 
a33 · · · an3  = 0 0 1 ··· 0 an3
 1    
M12 A =  a3
 a23   a13 a23 a33 · · · 
 .. .. .. . . ..  . . .. . . .. .. .. .. . . ..
 
 . . . . .   .. .. . . . . . . . .
  
 
a1n a2n a3n ··· ann 0 0 0 ··· 1 a1n a2n a3n · · · ann
• Intercambio de columnas (postmultiplicando por Mik )
a22 a12 · · · an2 an1 0 0 1 0
 3   1
a21 a31
 
a1 a1 ··· ···
 a32 a21 a11 · · · an1   a12 a22 a32 ··· an2  0 1 0 ··· 0 
a23 a13 · · · an3  an3 1 0 0 0
 3   1  
AM13 =  a3

 =  a3
 a23 a33 ···  ··· 
 .. .. .. . . ..   .. .. .. . . .. .. .. .. .. ..
 
 . . . . .   . . . . . . . . . .
 
 
a3n a2n a1n ··· ann a1n a2n a3n · · · ann 0 0 0 ··· 1
Teorema 12. Las matrices Mik son simétricas, idempotentes y por tanto ortogonales (demo ?? en la página ??)
T 2 −1 T
Mik = Mik , Mik = I, Mik = Mik

Resolución de sistemas lineales


La factorización descompone la matriz inicial como producto de matrices más sencillas.
El sistema inicial da lugar a la resolución de varios sistemas simples de forma consecutiva.
Condición Factorización Sistemas Ax = b
e =b

Ly
Regular A=L·Ue L · Ux = b
e
Ux = y
e =b

 Ly
Simétrica A = L · D · L
e e T
L·D·L x=b
e e T
Dz = y
 L x=y
 eT
Ly = b
Definida+ A = L · LT L · LT x = b
LT x = y
Matrices: L(triangular inferior), L
e (idem con diagonal unidad), U (triangular superior) y D (diagonal).

Muy útil para resolver varios sistemas con la misma matriz.

3.1. LU
Doodlitle
a11 a21 an1
 
···
 a12 a22 ··· an2 
Matriz del sistema: A =  .. .. .. ..
 
. . . .

 
a1n a2n ··· ann

Doolittle: A = L
e ·U

• Descomposición
1 0 ··· 0 u11 u21 un1
  
···
 l21 1 · · · 0  0 u22 ··· un2 
 .. .. . . .. .. .. .. ..
  
 . . . . . . . .
 
 
ln1 ln2 · · · 1 0 0 · · · unn
• Comparación directa, operando
u11 u21 ··· un−1 un1
 
1
1
 l2 u1 1
l2 u 1 + u 2
1 2 2
··· l2 u1 + un−1
1 n−1
2 l2 u1 + un2
1 n 
.. .. .. .. ..
 
. . . . .
 
 
 
 n−2
X n−1
X 
u21 + ln−1 k
un−1 + un−1 lnk unk + unn
 1
 ln−1 u11 ln−1
1 2
u22 · · · ln−1

k n−1 
 
 k=1 k=1 
 n−1
X n−1
X 
ln1 u21 + ln2 u22 lnk un−1 lnk unk + unn
 1 1
ln u1 ···

k
k=1 k=1

14
• Términos
mı́n(i,j)
99K uji

X i≤j
aji = lik ujk donde lii = 1 →
i>j 99K lij
k=1
• Algoritmo
Para i = 1, 2, 3, . . . , n
i−1
!
j j
X j
ui = ai − lik uk j = i, i + 1, . . . , n
k=1
j−1
!
X
lij = 1
ujj
aji − lik ujk j = 1, 2, . . . , i − 1
k=1
• Nota: Esta es la factorización que se obtiene por el método de Gauss sin pivoteo. Si hay pivoteo (simple o
escalado), se introduce una matriz ortogonal de intercambio de filas M .
M·A=L
e · U → M · Ax = L
e · Ux = M · b

Doodlitle: ejemplo
Ejemplo 13.Resolver
 con aritmética de
 4 dígitos el siguiente sistema utilizando la factorización de Doodlitle
3 7 37 1
 
x= donde x =
1 5 15 10

Determinación de los coeficientes


 a1 = u11 → u11 = 3
 1

a1 = u21 → u21 = 7

 2
a
 2 1
= l 1 1
u
2 1 → l21 = 0.3333
a2 = l21 u21 + u22 → u22 = 2.667

 2

Factorización: A = Le ·U
3 7 1 0 3 7
    
=
1 5 0.3333 1 0 2.667

Primer sistema: Ly
e =b
1 0 37 37
     
y= 7→ y =
0.3333 1 15 2.67
Segundo sistema: Ux = y
3 7 37 9.997
     
x= 7→ x =
0 2.667 2.67 1.001

3.2. LDL’
Crout
a11 a21 an1
 
···
 a12 a22 ··· an2 
Matriz del sistema: A =  .. .. .. ..
 
. . . .

 
a1n a2n ··· ann

Crout: A = L eT
e ·D·L

• Descomposición
1 0 ··· 0 d11 0 0 1 l21 ln1
   
··· ···
 l21 1 · · · 0  0 d22 ··· 0  0 1 ··· ln2 
 .. .. . . .. .. .. .. .. .. .. .. ..
   
 . . . . . . . . . . . .
  
  
ln1 ln2 ··· 1 0 0 ··· dnn 0 0 ··· 1

15
• Comparación directa, operando
 1
d11 l21 d11 l31 ··· d11 ln1

d1
 = l2 d1 l2 + d2
1 1 1 2
l2 d1 l31 + d22 l32
1 1
··· l2 d1 ln + d22 ln2
1 1 1 
2 2
 
 X X 
 = = l3k dkk l3k + d33 ··· l3k dkk lnk + dnn ln3 
 
 k=1 k=1

 .. .. .. .. ..
 
 . . . . .


 
 n−1
X 
= = = ··· lnk dkk lnk + dnn
 
k=1
• Términos
mı́n(i,j)
i=j 99K dkk
X 
j
ai = li dk lj donde li = 1 →
k k k i
i>j 99K lij
k=1
• Algoritmo
Para i = 1, 2, . . . , n
i−1
X
dii = aii − lik dii lik
k=1
i−1
!
X
lij = 1
djj
aji − lik dii ljk j = 1, 2, . . . , i − 1
k=1

Crout: ejemplo
Ejemplo 14.Resolver
 con aritmética de
 4 dígitos el siguiente sistema utilizando la factorización de Crout
3 7 37 10
 
x= donde x =
7 5 75 1

Determinación de los coeficientes


 a1 = d11 → d11 = 3
 1

a = d 1 l2
2 1 1
→ l21 = 2.333
 12
a2 = l2 d1 l2 + d2 → d22 = −11.33
1 1 1 2

Factorización A = L eT
e ·D·L
1 0 3 0 1 2.333
   
A=
2.333 1 0 −11.33 0 1

Primer sistema: Ly
e =b
1 0 37 37
     
y= 7→ y =
2.333 1 75 −11.32
Segundo sistema: Dz = y
3 0 37 12.33
     
z= 7→ z =
0 −11.33 −11.32 0.9991

Tercer sistema: L
eT x = y
1 2.333 12.33 9.999
     
x= 7→ x =
0 1 0.9991 0.9991

3.3. LL’
Cholesky

a11 a21 an1


 
···
 a12 a22 ··· an2 
Matriz del sistema: A =  .. .. .. ..
 
. . . .

 
a1n a2n ··· ann

Cholesky: A = L · LT

16
• Descomposición
l1 0 · · · 0
 1
l11 l21 ln1
 
···
 l21 l22 · · · 0  0 l22 ··· ln2 
 .. .. . . .. .. .. .. ..
  
 . . . . . . . .
 
 
ln1 ln2 ··· lnn 0 0 ··· lnn
• Comparación directa, operando
 11
l11 l21 l11 l31 l11 ln1

l1 l1 ···
 = l21 l21 + l22 l22 l21 l31 + l22 l32 ··· l2 ln + l22 ln2
1 1 
 3 3

 X X 
 = = l3k l3k ··· l3k lnk
 

 
k=1 k=1
 . .. .. .. ..
 
 .. .

 . . . 

 n
X 
= = = ··· lnk lnk
 
k=1
• Términos
mı́n(i,j)
i=j 99K lii
X 
j
ai = k k
li lj →
i>j 99K lij
k=1
• Algoritmo
Repetir para i = 1, 2, . . . , n
v
u i−1
X
l = tai −
u
i
i lk lk
i i i
k=1
i−1
!
X
lji = 1
ljj
aji − lik ljk j = 1, 2, . . . , i − 1
k=1

Cholesky: ejemplo
Ejemplo 15. Resolver con aritmética de 4 dígitos el siguiente sistema utilizando la factorización de Cholesky
3 −1 69 10
   
x= donde x =
−1 13 3 1

Determinación de los coeficientes


 a1 = l1 l1 → l11 = 2.646
 1 1 1

a = l1 l2
2 1 1
→ l12 = −0.3779
 12
a2 = l2 l2 + l2 l2 → l22 = 3.586
1 1 2 2

Factorización:A = L · LT
2.646 0 2.646 −0.3779
  
A=
−0.3779 3.586 0 3.586
Primer sistema: Ly = b
2.646 0 69 26.08
     
y= 7→ y =
−0.3779 3.586 3 3.586

Segundo sistema: LT x = y
2.646 −0.3779 26.08 10
     
x= 7→ x =
0 3.586 3.586 1

Operaciones
Método Sumas Productos Cocientes
Cramer O (n!) O ((n + 1)!) O (n) 
Gauss 1 1 1
3 3
 2
3O n  3O n  2O n 
G-Jordan 1
2O n 
3 1 3
2O n 
1
2O n 
2

Doodlitle 1
2O n 
3 1 3
2O n 
1
2O n 
2

Crout 1
3O n 
3 2 3
3O n 
1
2O n 
2

Cholesky 1
3O n
3 1
3O n
3 1
2O n
2

17
4. Condicionamiento
Condicionamiento: efectos

1. Los métodos de resolución de sistemas involucran operaciones que pueden introducir pequeños errores en los coefi-
cientes del sistema o del segundo miembro.
a) Cuando pequeños cambios de los coeficientes conduce a pequeñas variaciones de la solución, se dice que el
sistema está bien condicionado.
b) Por el contrario, si cambios pequeños producen grandes variaciones, el sistema esta mal condicionado.

2. Resolver los sistemas:


5.7 4.6 5.4 8.8
   
−22.5
 2.0 1.0 8.7 0.2   25.3 
a) Ax1 = b con A =   2.6 1.1 3.3 8.7  b =  −24.5 
  

4.2 2.5 8.0 7.7 −7.6


x1 = 1 −2 3 −4
T

 
−0.1
 0.0 
b) Ax2 = b + δb con δb =   0.1 

−0.1
x2T = 20.5 . . . −17.7 . . . 0.3 . . . −6.8 . . .


El residuo r = Ax − Ax̃ = b − Ax̃ no es una buena referencia del error de la solución


0 0 0
 
−5
 −1.8 1.4 0 0 
c) (A + δA) x3 = b con δA = 0.01   −2.3 2.3 0 0 

−3.7 2.0 0 −4
x3 = 939.0 . . . −752.8 . . . −120.1 . . . −138.2 . . .
T


Condicionamiento: definición e interpretación

Definiciones 16. Condicionamiento de la matriz A utilizando la norma p: cond (A, p) = ∥A∥p A−1 p .

Hecho 17. Dada una matriz regular A, para cualquier norma subordinada se verifica que: (demo ?? en la página ??)
cond (I) = 1

cond (A) ≥ 1
cond (A) = cond A−1


cond (A) = cond (αA)


∥A∥
∀B ∈ Mn : |B| = 0 → cond (A) >
∥A − B∥

Interpretación gráfica

18
∥δx∥
Teorema 18. Acotación del error relativo εx = de la solución:(demo ?? en la página ??)
∥x∥
cond (A)
  
∥δb∥ ∥δA∥
+ A ∥δA∥ < 1
−1
 εx ≤


∥b∥ ∥A∥
1 − cond (A) ∥δA∥
∥A∥ 

−1 ∥δb∥ ∥δA∥
(A + δA) ∥b∥ + ∥A∥ A ∥δA∥ ≥ 1
 −1
 εx ≤ ∥A∥ ·

Ejemplo: normas del sistema inicial , caso (a)


A A−1 κ (A) b x
∥◦∥1 25.4 316.6. . . 8041.7. . . 79.9 10
∥◦∥2 20.4. . . 256.2. . . 5248.4. . . 42.4. . . 5.4. . .
∥◦∥∞ 24.5 363.2. . . 8900.0. . . 25.3 4
Ejemplo: normas de las variaciones, caso (b)
δb cota δx εx
∥◦∥1 0.3 30.1. . . 40.7. . . 4.0. . .
∥◦∥2 0.17. . . 21.4. . . 25.3. . . 4.6. . .
∥◦∥∞ 0.1 35.1. . . 19.5. . . 4.8. . .
Ejemplo: normas de las variaciones, caso (c)
δA cota δx εx
0.128 A ∥δA∥ > 1 1946.3. . . 194.6. . .
−1
∥◦∥1
0.076. . . A ∥δA∥ > 1 1215.3. . . 221.8. . .
−1
∥◦∥2
0.097 A ∥δA∥ > 1 938.0. . . 234.5. . .
−1
∥◦∥∞

3. Iterativos
Descripción
Dado un sistema lineal Ax = b buscamos una matriz K y un vector c tal que la solución única del sistema y = Ky+c
sea igualmente solución del sistema inicial y = A−1 b (consistencia).
La forma del sistema sugiere un método de resolución iterativa: y(0) , y(k) = Ky(k−1) + c
¿Qué condiciones debe cumplir K para que lı́m y(k) = x? esto es, para que la sucesión vectorial converja.
n→∞

Definiciones 19. Una sucesión de vectores converge a un vector x cuando


 (k)
y
∀ε > 0 ∃N (ε) ∈ Z : k > N (ε) ⇒ y − x < ε
(k)

Teorema 20. Dada una matriz cuadrada A y una norma matricial cualquiera, se tiene que
1. ρ (A) ≤ ∥A∥
2. ∀ε > 0 ∃ ∥A∥ε : ∥A∥ε < ρ (A) + ε
Teorema 21. La sucesión de vectores y(k) = Ky(k−1) + c es convergente si y solamente si se cumple alguna de las
siguientes condiciones
∃ ∥◦∥η : ∥K∥η < 1 (norma)
ρ (K) < 1 (radio espectral)
Kn → 0 (potencia)
Teorema 22. Si alguna norma matricial de la matriz de iteración es menor que la unidad, se verifican las siguientes
cotas de error:
n
1. y(k) − x ≤ ∥K∥ · y(0) − x
n
∥K∥
2. y(k) − x ≤ · y(1) − y(0)
1 − ∥K∥
Teorema 23. Dada una matriz regular A, la matriz AT · A es definida positiva.
Corolario 24. Se puede transformar el sistema Ax = b en otro equivalente AT · A x = AT · b con mejores propie-
 

dades.

19
Descomposición y obtención de los métodos

Descomposición: A = D − L − U
• A: matriz
 1 del 2sistema
a1 a1 a31 an1

···
 a12 a22 a32 ··· an2 
an3
 1 2 3

A =  a3 a3 a3
 ··· 
 .. .. .. .. ..

 . . . . .


a1n a2n a3n ··· ann
• D: matriz diagonal.
a1 0 0 0
 1 
···
 0 a22 0 ··· 0 
D =  0 0 a3 0
 3

 ··· 
 .. .. .. .. ..

 . . . . .


0 0 0 ··· ann
• L matriz triangular estrictamente inferior.
0 0 0 ··· 0
 
 a12 0 0 ··· 0 
 a3 a23 0 · · · 0 
 1 
L = −
 .. .. .. . . .. 

 . . . . . 
a1n a2n a3n · · · 0
• U matriz triangular estrictamente superior.
0 a21 a31 · · · an1
 
 0 0 a32 · · · an2 
U = −  0 0 0 · · · a3 
n 
 

 .. .. .. . . . 
 . . . . .. 
0 0 0 ··· 0

1. Métodos
Método de Jacobi
Matrices: K = D−1 (L + U) , c = D−1 b
Justificación (consistencia)
Ax = (D − L − U) x = b
Dx = (L + U) x + b
x = D−1 (L + U) x + D−1 b

Esquema iterativo (hace innecesario el cálculo de K y c)


x(k) = D−1 b + Lx(k−1) + Ux(k−1)


• Matricialmente
0 an1
 1
a21
    
a1 b1 ···
 a22   b2   a12 0 ··· an2 
x = 
 (k)   (k−1)
.. .. − .. .. .. .. x
  
. . . . . .

     
ann bn a1n a2n ··· 0
Programación

• Repetir i = 1, · · · , n componentes para k iteraciones


 
i−1 n
(k) (k−1) (k−1) 
X X
xi = a1i bi − aji xj − aji xj
i
j=1 j=i+1

20
Método de Gauss-Seidel
−1 −1
Gauss Seidel: K = (D − L) U, c = (D − L) b

Justificación (consistencia)
Ax = (D − L − U) x = b
(D − L) x = Ux + b
−1 −1
x = (D − L) Ux + (D − L) b

Esquema iterativo (hace innecesario el cálculo de K y c)


x(k) = D−1 b + Lx(k) + Ux(k−1)


• Matricialmente
0 0 0 0 an1
 1
a21
      
a1 b1 ··· ···
 a22   b2   a12 0 ··· 0   0 0 ··· an2 
x = 
 (k)   (k)   (k−1)
.. .. − .. .. .. .. x −  .. .. .. .. x
  
. . . . . . . . . .

       
ann bn a1n a2n ··· 0 0 0 ··· 0
Programación

• Repetir i = 1, · · · , n componentes para k iteraciones


 
i−1 n
(k) (k) (k−1) 
X X
xi = a1i bi − aji xj − aji xj
i
j=1 j=i+1

Método de relajación
−1 −1
Relajación: K = (D − ωL) ((1 − ω) D + ωU) , c = ω (D − ωL) b
Justificación (consistencia)
Ax = ω1 − 1−ω D−L−U x=b
 
ω

ω D+U x=b
D 1−ω
 
ω −L −

ω −L x= ω D+U x+b
D 1−ω
 

(D − ωL) x = ((1 − ω) D + ωU) x + ωb


−1
x = (D − ωL) [((1 − ω) D + ωU) x + ωb]

Esquema iterativo (hace innecesario el cálculo de K y c)


x(k) = D−1 ω b + Lx(k) + Ux(k−1) + (1 − ω) x(k−1)
 

• Nota: si ω = 1 se obtiene el método de Gauss-Seidel.

Programación
• Repetir i = 1, · · · , n componentes para k iteraciones
   
i−1 n
(k) (k) (k−1) (k−1)
X X
xi = a1i ω bi − aji xj − aji xj  + (1 − ω) xi 
i
j=1 j=i+1

2. Convergencia
Teoremas y definiciones

Teorema 25 (Kahan). Si los coeficientes de la matriz del sistema verifican que aii ̸= 0, entonces ρ (Ksor ) ≥ |ω − 1| y por
tanto el método SOR sólo puede converger cuando 0 < ω < 2.

Todos los métodos vistos se basan


 en la descomposición A = M − N, con M inversible, para generar la sucesión
x(k) = M−1 N x(k−1) + M−1 b


Teorema26. Si A es una matriz definida positiva, descompuesta en la forma A = M − N, con M inversible, y la matriz
MT + N también es definida positiva, entonces ρ M−1 N < 1 y el método es convergente.


21
Corolario 27 (Ostrowski-Reich). Si A es definida positiva, el método de relajación converge para cualesquiera elección
del vector inicial siempre que 0 < ω < 2.
Teorema 28 (Stein-Rosenberg). Si los coeficientes de la matriz del sistema verifican que aii > 0 y aji ≤ 0 cuando i ̸= j,
entonces será válida una y sólo una de las afirmaciones siguientes
• ρ (Kgs ) = ρ (Kj ) = 0 • 0 < ρ (Kgs ) < ρ (Kj ) < 1
• ρ (Kgs ) = ρ (Kj ) = 1 • ρ (Kgs ) > ρ (Kj ) > 1

Teorema 29. Si A es tridiagonal, se verifica que ρ (Kgs ) = ρ2 (Kj ).


Si también es definida positiva, el valor óptimo del parámetro de relajación y del radio espectral vienen dados por:
2
ωopt = y ρopt (Ksor ) = |ω − 1|
1 + 1 − ρ2 (Kj )
p

Definiciones 30. Una matriz se denomina estrictamente diagonal dominante cuando para cada fila, el valor absoluto
del elemento de la diagonal es mayor que la suma en valor absoluto del resto de elementos.
Si la relación se verifica con mayor o igual, entonces se denomina de diagonal dominante.
Teorema 31. Si A es de diagonal estrictamente dominante, el método de Jacobi es convergente.
Teorema 32. Si A es de diagonal dominante, con una fila estrictamente dominante, el método de Gauss-Seidel es
convergente.

3. Ejemplos
Ejemplo
Ejemplo 33. Dado
 el sistema
2 −1 3 1
    
x= donde x =
−1 2 −3 −1
1. Calcular las matrices de iteración de los diferentes métodos y estudiar su convergencia.
2. Determinar el número de iteraciones necesarias para tener un error inferior a la milésima partiendo del vector nulo
y utilizando la norma infinito.
3. Realizar las iteraciones anteriores y comprobar cuantas hubieran sido realmente necesarias.

1. Matrices y convergencia
Método de Jacobi
0 1 3
   
Kj = D−1 (L + U) = 2 , cj = D−1 b = 2
1
2 0 − 32
PKj (x) = x −
2 1
4 → ρ (Kj ) = 1
2 <1 Convergente

Método de Gauss Seidel


0 1 3
  
−1 −1
Kgs = (D − L) U = 2 , cgs = (D − L) b= 2
0 1
4
3
−4
PKgs (x) = x2 − 14 x → ρ (Kgs ) = 1
4 <1 Convergente

• Nota: Como cabía esperar (matriz tridiagonal, de diagonal estrictamente dominante y definida positiva ),
ambos métodos convergen y, además, el radio espectral de Gauss-Seidel es el cuadrado del de Jacobi, por
lo que su convergencia será más rápida.

Método de relajación
−1 −1
Ksor = (D − ωL) ((1 − ω) D + ωU), csor = ω (D − ωL) b
No se da ω, pero al ser la matriz tridiagonal
2
ωopt = ≃ 1.0718 ⇒ ρ (Ksor ) = 0.0718 Convergente
1 + 1 − ρ2 (Kj )
p

• Por sencillez, se toma ω = 1.1


0.55 1.65
   
−0.1
Ksor = , cgs = , ρ (Ksor ) = 0.1
−0.055 0.2025 −0.7425

22
2. Número máximo de iteraciones

Despejando de la expresión
n
y − x ≤ ∥K∥ · y(1) − y(0) < δ
(k)
1 − ∥K∥
se tiene
δ (1 − ∥K∥) δ (1 − ∥K∥)
ln
y(1) − y(0) ln
∥c∥
n≥ =
ln ∥K∥ ln ∥K∥
Tabulando los resultados para δ = 0.001
∥K∥∞ ∥c∥∞ n≥
Jacobi 0.5 1.5 11.55
Gauss-Seidel 0.5 1.5 11.55
Relajación 0.65 1.65 19.63
3. Iteraciones
Método de Jacobi
 
i−1 n
(k) (k−1) (k−1) 
X X
• xi = 1
aii
bi − aji xj − aji xj
j=1 j=i+1
    
 x(k) = 1
b1 −
(k−1)
a21 x2 = 1 (k−1)
3 + x2
1 a11 2
•    
 x(k) = 1
b2 −
(k−1)
a12 x1 = 1
−3 + x1
(k−1)
2 a22 2

0
 
• x(0) =
0
(
(1)
x1 = (3 + 0) = 23
1
• 1ª iteración: (1)
2
x2 = (−3 + 0) = − 23
1
2
(
(2)
= 12 3 − 23 = 34

x1
• 2ª iteración: (2)
= 12 −3 + 32 = − 43

x2

Método de Gauss Seidel


 
i−1 n
(k) (k) (k−1) 
X X
• xi = a1i bi − aji xj − aji xj
i
j=1 j=i+1
    
 x(k) = 1
b1 −
(k−1)
a21 x2 = 12 3 + x2
(k−1)
1 a11
•    
 x(k) = 1
b2 −
(k)
a12 x1 = 12 −3 + x1
(k)
2 a22

0
 
• x(0) =
0
(
(1)
x1 = (3 + 0) = 23
1
• 1ª iteración: (1)
2
= 1
−3 + 32 = − 43

x2 2
(
(2)
= 12 3 − 43 = 54

x1
• 2ª iteración: (2)
= 12 −3 + 54 = − 87

x2

Método de relajación
   
i−1 n
(k) (k) (k−1)  (k−1) 
X X
• xi = 1
aii
ω bi − aji xj − aji xj + (1 − ω) xi
j=1 j=i+1
        
 x(k) =1
1 ω b 1 − a2 (k−1)
1 x + (1 − ω) x
(k−1)
= 1
1.1 3 + x
(k−1)
− 0.1x
(k−1)
1 2 1 2 1

a1     2   
 x(k) = 12 ω b2 − a12 x(k) + (1 − ω) x(k−1) = 1 1.1 −3 + x(k) − 0.1x(k−1)
2 a 1 1 2 1 2
 2
0
• x(0) =
0

23
(
(1)
x1 = 1
(1.1 (3 + 0) − 0.1 · 0) = 1.65
• 1ª iteración: (1)
2
x2 = 1
2 (1.1 (−3 + 1.65) − 0.1 · 0) = −0.7425
(
(2)
x1 = 1
(1.1 (3 − 0.7425) − 0.1 · 1.65) = 1.0766
• 2ª iteración: (2)
2
x2 = 1
2 (1.1 (−3 + 1.0766) − 0.1 · (−0.7425)) = −0.9836

Tabulando los resultados (δ = 0.001)


Jacobi (12) G.-Seidel (12) Relajación (20)
1 1.5000 -1.5000 1.5000 -0.7500 1.6500 -0.7425
2 0.7500 -0.7500 1.1250 -0.9375 1.0766 -0.9836
3 1.1250 -1.1250 1.0313 -0.9844 1.0014 -1.0009
4 0.9375 -0.9375 1.0078 -0.9961 0.9994 -1.0003
5 1.0313 -1.0313 1.0020 -0.9990
6 0.9844 -0.9844 1.0005 -0.9998
7 1.0078 -1.0078
8 0.9961 -0.9961
9 1.0020 -1.0020
10 0.9990 -0.9990

Comportamiento diferenciado

Nota: Los teoremas anteriores relacionan el comportamiento de los métodos de Jacobi y Gauss-Seidel en casos
particulares. Generalmente hay una prevalencia de Gauss-Seidel, pero no siempre.

Convergencia de Jacobi y divergencia de Gauss Seidel


1 2 −2
 

• Matriz: A =  1 1 1 
2 2 1

1. Matriz de iteración de


Jacobi
0 −2 2

Kj = D−1 (L + U) =  −1 0 −1 
−2 −2 0
PKj (x) = x → σ (Kj ) = {0} → ρ (Kj ) = 0 < 1
3
Convergente
2. Matriz de iteración de Gauss-Seidel
0 −2 2
 
−1
Kgs = (D − L) U =  0 2 −3 
0 0 2
2
PKgs (x) = −x (x − 2) → σ (Kgs ) = {0, 2, 2} → ρ (Kgs ) = 2 > 1 Divergente
3. Relajación
1−ω 2ω
 
−2ω
−1
Ksor = (D − ωL) ((1 − ω) D + ωU) =  ω2 − ω 2ω 2 − ω + 1 −2ω 2 − ω 
2
−2ω (1 − ω) −4ω 3 + 6ω 2 − 2ω 4ω 3 − 2ω 2 − ω + 1
Representando los autovalores, se observa que para 0 < ω < 0.05 → ρ (K) < 1 y el método será convergente.

Si ω = 0.2, ρ (Ksor ) = 0.9216 < 1 Convergente

Divergencia de Jacobi y convergencia de Gauss Seidel

24
2
 
−1 −1
• Matriz:  2 2 2 
−1 −1 2
1. Matriz de iteración de Jacobi
0 1/2 1/2

KJ = D−1 (L + U) =  −1 0 −1 
1/2 1/2 0
PKJ (x) = x3 + 34 x2 + 12 → ρ (KJ ) = 1 ≥ 1 Divergente
2. Matriz de iteración de Gauss-Seidel
0
 
1/2 1/2
−1
Kgs = (D − L) U =  0 −1/2 −3/2 
0 0 −1/2
PKgs (x) = x + x + 4 x → ρ (Kgs ) = 21 < 1
3 2 1
Convergente
3. Matriz de iteración de relajación
1−ω
 
1/2ω 1/2ω
−1 1/2ω 2 − ω + 1
Ksor = (D − ωL) ((1 − ω) D + ωU) =  ω2 − ω −1/2ω 2 − ω 
1/2ω (1 − ω)2 1/4ω (ω + 2) (1 − ω) −1/4ω 3 − 1/4ω 2 − ω + 1

Representando los autovalores, se observa que para 0 < ω < 1.05 → ρ (K) < 1 y el método será convergente.

Si ω = 0.85, ρ (Ksor ) = 0.382 < 1 Convergente

4. Autovalores
Autovalores y autovectores
Sea Bp = {v1 , v2 , · · · , vn } una base de vectores propios de A asociados a σ (A) = {λ1 , λ2 , · · · , λn } donde |λ1 | ≥ |λ2 | ≥
· · · ≥ |λn |.
Los métodos se clasifican dependiendo si se desea obtener un sólo valor o todos.
1. Método de la potencia (cálculo de λ1 )
Desarrollo teórico
• ∃ w0 = α1 v1 + α2 v2 + · · · + αn vn : α1 ̸= 0
• wk = Ak w0 = α1 λk1 v1 + α2 λk2 v2 + · · · + αn λkn vn
  k   
k→∞
• wk = λ1 α1 v1 + α2 λ1 v2 + · · · + αn λλn1 vn −−−−→ wk = λk1 α1 v1
k λ2

∥uk ∥
• Permite obtener v1 y mediante dos iteraciones consecutivas |λ1 | = ∥uk−1 ∥
Nota: presenta problemas de convergencia cuando |λ1 | = |λ2 | pero λ1 ̸= λ2 .
T
Algoritmo: w0 : ∥w0 ∥ = 1, uk = Awk−1 ∧ wk = uk
∥uk ∥ y λ1 = (wk ) Awk

2. Método de la potencia inversa (cálculo de λn ̸= 0)


Desarrollo teórico: idem tomando A−1
T
Algoritmo: w0 : ∥w0 ∥ = 1, Auk = wk−1 ∧ wk = uk
∥uk ∥ y λn = (wk ) Awk

3. Método de la potencia inversa con decalado δ (valor propio mas próximo a δ)


−1
Desarrollo teórico: idem tomando (A − δI)
T
Algoritmo: w0 : ∥w0 ∥ = 1, (A − δI)uk = wk−1 ∧ wk = uk
∥uk ∥ y λn = δ + (wk ) (A − δI)wk

4. Factorización QR (todos los valores propios).

25
5. Sist. no Lin.
Sistemas no lineales

Sistema: F : Rn → Rn : Y = F (X) X, Y ∈ Rn
Y = F (X) → (y1 , y2 , · · · , yn ) = F (x1 , x2 , · · · , xn )
f1 (x1 , x2 , · · · , xn ) = y1


 f2 (x1 , x2 , · · · , xn ) = y2


..

 .
fn (x1 , x2 , · · · , xn ) = yn

Se resuelven bien generalizando la resolución de ecuaciones no lineales por métodos iterativos


• Punto fijo
 x1 = g1 (x1 , x2 , · · · , xn , y1 )

 x2 = g2 (x1 , x2 , · · · , xn , y2 )


.. → X = G (X)

 .
xn = gn (x1 , x2 , · · · , xn , yn )

• Newton
X = X − J −1 (X) F (X)
o bien minorando una función.
Xn
2
H (X) = (fk (X))
k=1

6. Bibliografía
Bibliografía

Formulación general:

7. Software
Software

Formulación general:

8. Anexos
1. Demostraciones
Normas

Formulación general:

26

También podría gustarte