Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Contenidos de la presentación
Índice
1. Introducción 1
1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2. Medidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3. Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4. Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2. Directos 7
1. Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2. Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3. Factorización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1. LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2. LDL’ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3. LL’ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4. Condicionamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3. Iterativos 19
1. Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2. Convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4. Autovalores 25
5. Sist. no Lin. 26
6. Bibliografía 26
7. Software 26
8. Anexos 26
1. Demostraciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1. Introducción
Motivación: mecánica estructural
En ingeniería estructural es habitual el cálculo de las fuerzas y reacciones asociadas con una estructura estáticamente
determinada. Denotando por F las tensiones o compresiones de los elementos de la estructura, y por H o V las reacciones
externas horizontales o verticales respectivamente. Determinar las reacciones de la estructura en cada apoyo cuando se
aplica una carga externa C = 10000N con un ángulo de incidencia δ = 90º, donde el apoyo es fijo en el nodo 2 y móvil el
nodo 3. (α = 30º, β = 60º).
1
C
① δ
γ
F1
F3
②
α β③
H1 F2
V1 V2
Objetivos
Distinguir las dos grandes familias de métodos de resolución de sistemas, orígenes, ventajas e inconvenientes.
Entender el significado del condicionamiento, aprender a estimarlo y conocer su efecto en los diferentes métodos.
Utilizar la eliminación gausiana con sus diversas mejoras, así como familiarizarse con la terminología: eliminación
progresiva, sustitución regresiva, pivote.
1. Definiciones
Sistemas Lineales
Un sistema de ecuaciones lineales, sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de
ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado), definidas sobre
un cuerpo (R o C) o un anillo conmutativo.
• El problema consiste en encontrar los valores desconocidos de las variables {x1 , x2 , · · · } que satisfacen todas
las ecuaciones.
2
Traza, determinate y vectores propios
Sea A un elemento perteneciente al espacio vectorial de las matrices cuadradas cuadrada de orden n sobre el cuerpo
de los complejos A ∈ Mn (C). Se define:
n
X
Traza: akk (suma de los términos de la diagonal)
k=1
X n
Y
Determinante: |A| = signatura (p) apkk
p∈Pn k=1
Autovector (asociado al valor propio λ): cualquier vector v no nulo verificando Av = λv ↔ (A − λI) v = 0
Radio espectral: ρ (A) = máx |λk | (máximo en módulo de los autovalores)
k
Clasificación de matrices
a11 a21 a31 · · · an1
a12 a22 a32 · · · an2
an3
a13 a23 a33 · · ·
Sea la matriz A = aji =
.. .. .. . . ..
i,j=1,··· ,n
. . . . .
a1n a2n 3
an · · · ann
Por sus elementos
• Diagonal: aji = 0 si i ̸= j
a11 0 0 ··· 0 0
0 a22 0 ··· 0 0
0 0 a33 · · · 0 0
A= .. .. .. . . .. ..
. . . . . .
0 0 0 ··· 0
an−1
n−1
0 0 0 ··· 0 ann
3
a11 a21 0 ··· 0 0
a12 a22 a32 · · · 0 0
0 a23 a33 · · · 0 0
A= .. .. .. . . .. ..
. . . . . .
0 0 0 ···
an−1
n−1 ann−1
0 0 0 ··· an−1
n ann
Por sus propiedades:
• Regular: |A| =
̸ 0
• Simétrica: AT = A (Hermítica A∗ = A con A∗ = conj AT
Teoremas
Criterio de Sylvester: la matriz A es definida positiva si y solamente si todos sus menores angulares son positivos.
· · · ak1
1
a1 a21
1
a2 a22 · · · ak2
∀v ∈ R : v Av > 0 ⇔ . .
n T
.. .. > 0, k = 1, 2, . . . , n
.. .. . .
a1 a2 k
k k ··· a k
2. Medidas
Medidas
r = Ax − Ax̃ = b − Ax̃
Las medidas en los espacios vectoriales (Rn , Mnm ) se realizan habitualmente con normas ∥◦∥, lo que permite «valorar»
dos soluciones aproximadas {x̃1 , x̃2 }.
Trabajar simultáneamente con dos espacios vectoriales requiere normas «coherentes» y se definen normas matriciales
(subordinadas) a partir de las normas vectoriales.
∥Ax∥
∥A∥ = sup = sup ∥Ax∥
x∈Rm ∥x∥ (∥x∥=1
x∈Rm
)
4
Se define la norma del producto (matricial) verificándo que es menor o igual que el producto de las normas.
v (máximo de filas)
u n
uX
2
∥v∥2 = t (vi ) ∥A∥2 = ρ (A · AT )
p
∥◦∥2
i=1
Ejemplo:
1
4 4 −1 12
−2 −5
v= ,A = 4 −2 −2 2 , Av = 12
0
2 −2 −4 −1 6
2
• ∥v∥1 = |1| + |−2| + |0| + |2| = 5
∥A∥1 = máx (10, 9, 10, 4) = 10
∥Av∥1 = 12 + 12 + 6 = 3 < 5 · 10
• ∥v∥∞ = máx {|1| , |−2| , |0| , |2|} = 2
∥A∥∞ = máx (14, 10, 9) = 14
∥Av∥∞ = máx {12, 12, 6} = 12 < 2 · 14
q
2 2 2 2
• ∥v∥2 = (1) + (−2) + (0) + (2) = 3
∥A∥2 ≈ 8.22
√
∥Av∥2 = 324 ≈ 18 < 3 · 8.22
Definiciones y propiedades
Definiciones 1. Dos normas vectoriales {∥v∥a , ∥v∥b } son equivalentes cuando existen valores reales {α, β} tales que
∀v ∈ Rn : α ∥v∥a ≤ ∥v∥b ≤ β ∥v∥a
Teorema 2. Las normas {∥v∥1 , ∥v∥2 , ∥v∥∞ } son equivalentes en Rn , es más (demo ?? en la página ??)
1. ∥v∥∞ ≤ ∥v∥2 ≤ ∥v∥1
2. ∥v∥∞ ≤ ∥v∥1 ≤ n ∥v∥∞
√
3. ∥v∥∞ ≤ ∥v∥2 ≤ n ∥v∥∞
√
4. n1 ∥v∥1 ≤ ∥v∥2 ≤ n ∥v∥1
Ejemplo 3. v = 1 0 2 → ∥v∥1 = 5, ∥v∥2 = 3, ∥v∥∞ = 2
−2
∥v∥∞ ≤ ∥v∥2 ≤ ∥v∥1 → 2 ≤ 3 ≤ 5
∥v∥∞ ≤ ∥v∥1 ≤ n ∥v∥∞ → 2 ≤ 5 ≤ 3 · 2
√ √
∥v∥∞ ≤ ∥v∥2 ≤ n ∥v∥∞ → 2 ≤ 3 ≤ 3 · 2
√ √
1
n ∥v∥1 ≤ ∥v∥2 ≤ n ∥v∥1 → 13 5 ≤ 3 ≤ 3 · 5
Hecho 4. Las normas matriciales no verifican estas relaciones
4 4
−5
Ejemplo 5. A = 4 −2 −2 → ∥A∥1 = 10, ∥A∥2 = 8.21, ∥A∥∞ = 13
2 −2 −4
5
Interpretación geométrica
Su interpretacióngeométrica es simple, tomando una matriz de orden 2.
3 −2
A= → ∥A∥1 = 6, ∥A∥2 = 5.11, ∥A∥∞ = 5
−1 4
3. Cramer
Método de Cramer
Dado el sistema Ax = b
· · · an1
1
a1 a21 a31
x1 b1
a12 a22 a32 · · · an2 x2 b2
· · · an3
1
a3 a23 a33 x3 b3
=
.. .. .. .. .. .. ..
. . . . . . .
a1n a2n a3n ··· ann xn bn
El método de Cramer obtiene la solución como cociente de determinantes
6
a11 · · · ak−1 b1 ak+1 an1
1 1 ···
|Ak | a12 · · · ak−1
2 b2 ak+1
2 ··· an2
xk = donde Ak = .. .. .. .. .. ..
|A| .
. . . . .
a1n ··· ak−1
n bn ak+1
n ··· ann
donde Aki es el determinate que se obtiene al eliminar la fila i-ésima y la columna k-ésima.
a2 · · · ak−1 ak+1 · · · an2
1
2 2
a1 · · · ak−1 ak+1 · · · an3
3 3 3
Aji = . . .. .. .. ..
.. . . . . . .
a1 · · · ak−1 ak+1 · · · an
n n n n
Operaciones (complejidad):
• n + 1 determinantes de orden n y n cocientes
• cada determinante de orden n requiere n determinantes de orden n − 1, n − 1 sumas y n productos.
• Total: + n! , × (n + 1)!, ÷ n .
• Un sistema de orden 9 requiere 3 628 800 productos.
• Un sistema de orden 100 requiere 9.3326 × 10157 productos.
4. Métodos
Métodos de resolución
Métodos directos: Convierten el sistema inicial en otro u otros equivalentes, pero más simples de resolver (diagonal
ó triangular).
• Operaciones de equivalencia:
Multiplicar una ecuación por un escalar.
Intercambiar el orden de dos ecuaciones.
Sumar una ecuación a otra.
• Obtienen la solución “exacta” en un número finito de pasos (dependen sólo del orden del sistema).
Métodos iterativos:Transforman el sistema inicial para poder aplicar punto fijo.
• El número de pasos para obtener la solución “aproximada” depende del error admisible.
2. Directos
Resolución de sistemas «simples»
Sistema Lineal Ax = b
a1 a21 a31 · · · an1
1
x1 b1
a12 a22 a32 · · · an2 x2 b2
a3 a23 a33 · · · an3
1
x3 =
b3
.. .. .. . . .. .. ..
. . . . . . .
a1n a2n a3n ··· ann xn bn
7
bk
• Algoritmo: bucle en k desde 1 hasta n, obteniendo xk =
akk
• Operaciones: {0±, 0×, n÷}
• Operaciones: 12 n (n − 1) ±, 12 n (n − 1) ×, n÷
• Operaciones: 2 n (n − 1) ±, 12 n (n − 1) ×, n÷
1
1. Gauss
Método de Gauss
El método de Gauss transforma el sistema en uno equivalente triangular superior combinando las filas para anular
los términos por debajo de la diagonal.
a1 a21 · · · an1 b1 c1 c1 · · · cn1 d1
1 1 2
a12 a22 · · · an2 b2 0 c22 · · · cn2 d2
.. .. . . .. .. ⇝ .. .. . . .. ..
. . . . . . . . . .
1 2 n
an an · · · an bn 0 0 · · · cn dnn
Algoritmo:
• Para la i-esima columna, i = 1, 2, . . . , n, eliminar coeficientes bajo la diagonal
ai
◦ Calcular para la j-esima fila, j = i + 1, i + 2, . . . , n el coeficiente mij = − aji
i
◦ Combinar los n − i elementos de la fila i−ésima con la j−ésima mediante
j ← aj + mj ai
a··· ··· i ···
Al término de la diagonal akk que se usa para anular las columnas se denomina pivote.
2 4 1 = 2 4 1
−4 −15 −4 −15
1 −3 2ª 2 1ª
−1 0 3 − 52
−1 −5 −10 − −7 − 35
1.
_ _ 2
−1 −3 2 −2 −1 3ª − 2 1ª
−1
0 −1 5
2 −4 −217
5 2 4ª − −1
2 1ª 0 9 3
−2 −4 −22 −8 −37
8
2 4 1 −4 −15 = 2 4 1
−4 −15
0 3 = 0 3 −5
− 5
−7 − 35
−7 − 35
2.
17 _ _
2 2 2 2
0 −1 5
2 −4 − 2 3ª − 3 2ª
−1
0 0 5
3 − 19
3 − 43
3
0 9 3 −8 −37 4ª − 93 2ª 0 0 13
21 31
2 2
2 4 1 = 2 4 1
−4 −15 −4 −15
0 3 −5 = 0 3 −5
35
−7 − 2 −7 − 35
3.
43 _ _
2 2 2
0 0 5 19
−3 −3 = 0 0 5
− 19
−343
3 3 3
4ª − 5//32 3ª
21
0 0 13 0 0 0
21 31
529 529
2 2 10 5
10 x4 = 5
529 529
x4 = 2
Total.
2n3 −3n2 +n
n3 − n
n2 −n
+, × + =
= O n3
6 3 2
n2 −n
n2 + n
+n= = O n2
÷ 2 2
Comparación (×):
Orden Cramer Gauss
9 3 628 800 240
100 9.3326 × 10157 333 000
Debido a los errores inherentes a la representación limitada de un número en el ordenador, es conveniente no dividir
por números «pequeños», por lo que interesa que el pivote sea lo mayor posible (en valor absoluto), para disminuir
la propagación de errores en la división.
Pivoteo simple: se intercambian filas para tomar como pivote el mayor término en valor absoluto de la columna bajo
la diagonal.
2 1 3 → J−5K −3 6
• J−5K −3 6 ← ⇝ 2 1 3
3 −3 1 3 −3 1
Pivoteo doble: se intercambian filas y columnas para tomar como pivote el mayor término en valor absoluto de la
submatriz (se altera el orden de las soluciones).
↑ ↓
J6K −3 −5
2 x1 x3
1 3 → 3
• 1 2 x2
−5 −3 J6K ← x2 ⇝
x3 1 −3 3 x1
3 −3 1
9
Pivoteo escalado: actúa como el pivote simple pero tomando como término de comparación el valor ponderado de la
columna, esto es, dividido entre el máximo de la fila.
2 1 3 → 3 −3 1
2/3
• −5 −3 6 −5/6 ⇝ −5 −3 6
J3K −3 1 ← J3/3K 2 1 3
pivote simple: solución errónea debido a las diferencias de escalas de los valores (no hay intercambio).
pivote escalado: solución correcta ya que intercambia las ecuaciones.
pivote doble:
591400x2 + 30x1 = 591700
m12 ≈ 1.037 · 10−5
−6.13x2 + 5.291x1 = 46.78
591400x2 + 30x1 = 591700 x1 ≈ 10.
→
5.291x1 = 52.92 x2 = 591400
1
(591700 − 30 × 10) ≈ 1
El método de Gauss detecta cuando el rango de la matriz es menor que el número de incógnitas (S.I. o S.C.D.)
• El pivote se anula.
• Ejemplo:
1 1 0 3 4 = 1 1 0 3 4
2 1 −1 1 1 2ª − 21 1ª 0 −1 −1 −5
−7
1.
3 −1 −1
_ _
2 −3 3ª − 1 1ª 0 −4 −1 −7 −15
3
2 3 −1 4 4ª − −11 1ª
0 3 3 15 8
−1
1 1 0 3 4 = 1 1 0 3 4
0 −1 −1 −5 = 0 −1 −1 −5
−7 −7
2.
0 −4 −1 −7 −15 _ 3ª − −4 _
−1 2ª 0 0 3 13 13
0 3 3 15 8 4ª − −1 2ª 0 0 0 0 −13
3
10
Método de Gauss: Algoritmo
2. Gauss-Jordan
Método de Gauss-Jordan
Combina las filas (como Gauss) para anular los términos tanto por encima como por debajo de la diagonal.
Se utiliza, en los casos indispensables, para el cálculo de la inversa, resolviendo simultáneamente los sistemas
AX = I → DX = C → X = A−1 = D−1 C .
No se usa para la resolución de sistemas, ya que el número de operaciones es mayor que en Gauss.
n−1
XX n
÷ (1) = 12 n (n − 1)
i=1 j=1
j̸=i
n2 −n
n2 + n
+n= = O n2
÷ 2 2
Comparación (×):
Orden Cramer Gauss G-Jordan
9 3 628 800 240 288
100 9.3326 × 10157 333 000 490 000
11
Método de Gauss-Jordan: ejemplos
Ejemplo 8. Sistema
2 4 1 = 2 4 1
−4 −15 −4 −15
1 2ª −1
1ª 0 3 − 52
−1 −3 −5 −10 − −7 − 35
1.
_ 2 _ 2
−1 −3 2 −2 −1 3ª − −12 1ª 0 −1 5
2 −4 − 17
2
5 2 4ª − −2 1ª 0 9 3
−2 −4 −22 −8 −37
2
2 4 1 1ª − 43 2ª 2 0
13 16 25
−4 −15 3 3 3
0 3 = 0 3
5
− −7 − 35 − 52 −7 − 35
2.
2 2 _ _ 2
3ª − 93 2ª
0 −1 5
−4 − 17 −1 0 0 5
− 19 −343
2 2 3 3
0 9 3 4ª − 3 2ª 0 0 13
21 31
−8 −37
2 2
1ª − 5//33 3ª
13
2 0 13 16 25
2 0 0 109 228
3 3 3
−5/2
5 5
0 3 2ª 3ª 0 3 0 − 33
− 52 −7 − 35 − −39
3.
2 _ 5/3
_ 2
0 0 0 0
5
3 − 19
3 − 43
3
= 5
3 − 19
3 − 43
3
0 0 13 0 0 0 529
21 31
529
21/2
4ª − 5/3 3ª
2 2 10 5
109/5
1ª − 4ª
2 0 0 109 228
2 0 0 0 2
529/10
5 5
−33/2
0 3 0 − 33 2ª − 529/10 4ª 0 3 0 0
−39 −6
4.
_ _
2
0 0 0 0 0
5
5
− 19 − 43 3ª −
−19/3
− 53
529/10 4ª
3 3 3 3
0 0 0 529 529
0 0 0 529 529
=
10 5 10 5
2x1 = 2 x1 = 1
3x2 = −6 x2 = −2
5. →
5
x3 = − 53 x3 = −1
5293
= x4 = 2
529
x
10 4 5
Ejemplo 9. Inversa
2 4 1 −4 1 7 12 1ª 1 2 1 1
→ 2 −2 2
−1 1 −3 −5 1 2ª + 1
1ª 0 3 −5
−7 1
1
1.
_ 2 _ 2 2
2 1 3ª + 12 1ª 0 1
5 1
−1 −3 −2 −1 −4
2 2
−2 5 2 −4 1 4ª + 2 1ª
1
0 9 3 −8 1 1
4 1 −4
1
2
1
3 −5
−7
Almacenaje:
2 2
1 5
2 −1 2 −4
1 9 3 −8
1 2 1 1
1ª + −2 3 2ª 1 0 13 8 1 −2
2 −2 2 6 3 6 3
0 3 −5
−7 1
1 →
7 1
2ª 0 1 −5 −7 1 1
2.
2 2 _ 3 _ 6 3 6 3
0 1 3ª + 13 2ª 0 0 −19
1
5 1 5 2 1
−1 2 −4 2
3 3 3 3
0 9 3 −8 1 1 4ª + −9 3 2ª 0 0 21
2 13 −1
2 −3 1
−2
1 13 8
2 3 6 3
1 1 −5 −7
Almacena:
2 3 6 3
−19
1 1 5
2 3 3 3
1 −3 21
2 13
1 0 13 8 1 −2
1ª + 10
13
3ª 1 0 0 109 −7 −11 −13
6 3 2 3 10 10 10 10
0 1 −5 −7 1 1
2ª + 1
3ª 0 1 0 − 11 1 1 1
3.
6 3 2 3 _ 2 _ 2 2 2 2
0 0 −19
1 7→ 35 3ª 0 0 1
5 1 1
3 3 2 3
− 19
5
2
5
1
5
3
5
0 0 21
2 13 1 −3 1 4ª − 10 3ª
63
0 0 0 529
10
−47
10
−51
10
−63
10 1
−7 −11 −13 109
10 10 10 10
1 1 1
− 11
Almacena:
2 2 2 2
2 1 3
5 5 5 − 19
5
−47 −51 −63 529
10 10 10 10
12
1 0 0 109 −7 −11 −13
1ª + −109
529 4ª 1 0 0 0 −218 −267 −1 −109
10 10 10 10 529 529 529 529
0 1 0 − 11 1 1 1
2ª + 55
4ª 0 1 0 0 6 −16 −82 55
4.
2 2 2 2 _ 529 _ 529 529 529 529
0 0 1 3ª + 529 4ª 0 0 1 0 −88
− 19
5
2
5
1
5
3
5
38 33
529 529
78
529
38
529
0 0 0 529
10
−47
10
−51
10
−63
10 1 10
7→ 529 4ª 0 0 0 1 −47
529
−51
529
−63
529
10
529
3. Factorización
Interpretación matricial de Gauss
Las operaciones realizadas para anular los elementos bajo la diagonal se pueden obtener mediante una premultipli-
cación maticial por una matriz triangular inferior con diagonal unitaria.
1 0 0 ··· 0
a11 a21 a31 · · · an1 a11 a21 a31 · · · an1
−a12
1 0 ··· 0
an2 0 c22 cn2
a11 a12 a22 a32 · · · c32 · · ·
−a13
0 1 ··· 0 an3 0 c23 cn3
a11
a13 a23 a33 · · · =
c33 · · · ↔ L1 A = U1
.. .. .. . . .. .. .. .. . . ..
.. .. .. . . .
. .. . . . . . . . . . .
. . .
0 c2n
−an1
a1n a2n a3n · · · ann c3n · · · cnn
a1
0 0 ··· 1
1
1 0 0 ··· 0
a11 a21 a31 · · · an1 a11 a21 a31 · · · an1
0 1 0 ··· 0
−a23
0 c22 c32 · · · cn2 0 c22 c32 · · · cn2
0 a2 1 ··· 0 0 c23 cn3 0 0 dn3
2
a33 · · · =
d33 · · · ↔ L2 U1 = U2
.. .. .. . . .. .. .. .. . . .. .. .. .. . . ..
. . . . . . . . . . . . . . .
0 c2n 0 0
−a2n c3n · · · cnn d3n · · · dnn
0 a2 0 ··· 1
2
Reiterando el proceso:
u11 u21 u31 · · · un1
0 u22 u32 · · · un2
0 0 un3
Ln−1 Ln−2 · · · L2 L1 A = Un =
u33 · · ·
.. .. .. . . ..
. . . . .
0 0 0 ··· unn
Los intercambios de las filas o columnas i-esima y k-esima también tienen interpretación matricial:
• Matriz de intercambio Mik (partiendo de la identidad intercambiando filas i,k-esimas).
1 0 0 ··· 0 ··· 0 ··· 0
0 1 0 ··· 0 ··· 0 ··· 0
0 0 1 ··· 0 ··· 0 ··· 0
.. .. .. . . . .. . .. ..
. . . . .. . .. . .
Mik = 0 0 0 · · · 0 1 0
··· ··· fila i
.. .. .. . . . .. .. .. ..
. . . . .. . . . .
0 0 0 ··· 1 0 0 fila k
··· ···
. . . .
. . ... .. .. .. ..
.. .. .. . .
. .
0 0 0 ··· 0 ··· 0 ··· 1
13
• Intercambio de filas (premultiplicando por Mik )
a32 · · · an2 0 1 0 ··· 0 an1
1
a22 a11 a21 a31 · · ·
a2
a11 a21 a31 · · · an1 1 0 0 ··· 0 a12 a22 a32 · · · an2
a33 · · · an3 = 0 0 1 ··· 0 an3
1
M12 A = a3
a23 a13 a23 a33 · · ·
.. .. .. . . .. . . .. . . .. .. .. .. . . ..
. . . . . .. .. . . . . . . . .
a1n a2n a3n ··· ann 0 0 0 ··· 1 a1n a2n a3n · · · ann
• Intercambio de columnas (postmultiplicando por Mik )
a22 a12 · · · an2 an1 0 0 1 0
3 1
a21 a31
a1 a1 ··· ···
a32 a21 a11 · · · an1 a12 a22 a32 ··· an2 0 1 0 ··· 0
a23 a13 · · · an3 an3 1 0 0 0
3 1
AM13 = a3
= a3
a23 a33 ··· ···
.. .. .. . . .. .. .. .. . . .. .. .. .. .. ..
. . . . . . . . . . . . . . .
a3n a2n a1n ··· ann a1n a2n a3n · · · ann 0 0 0 ··· 1
Teorema 12. Las matrices Mik son simétricas, idempotentes y por tanto ortogonales (demo ?? en la página ??)
T 2 −1 T
Mik = Mik , Mik = I, Mik = Mik
3.1. LU
Doodlitle
a11 a21 an1
···
a12 a22 ··· an2
Matriz del sistema: A = .. .. .. ..
. . . .
a1n a2n ··· ann
Doolittle: A = L
e ·U
• Descomposición
1 0 ··· 0 u11 u21 un1
···
l21 1 · · · 0 0 u22 ··· un2
.. .. . . .. .. .. .. ..
. . . . . . . .
ln1 ln2 · · · 1 0 0 · · · unn
• Comparación directa, operando
u11 u21 ··· un−1 un1
1
1
l2 u1 1
l2 u 1 + u 2
1 2 2
··· l2 u1 + un−1
1 n−1
2 l2 u1 + un2
1 n
.. .. .. .. ..
. . . . .
n−2
X n−1
X
u21 + ln−1 k
un−1 + un−1 lnk unk + unn
1
ln−1 u11 ln−1
1 2
u22 · · · ln−1
k n−1
k=1 k=1
n−1
X n−1
X
ln1 u21 + ln2 u22 lnk un−1 lnk unk + unn
1 1
ln u1 ···
k
k=1 k=1
14
• Términos
mı́n(i,j)
99K uji
X i≤j
aji = lik ujk donde lii = 1 →
i>j 99K lij
k=1
• Algoritmo
Para i = 1, 2, 3, . . . , n
i−1
!
j j
X j
ui = ai − lik uk j = i, i + 1, . . . , n
k=1
j−1
!
X
lij = 1
ujj
aji − lik ujk j = 1, 2, . . . , i − 1
k=1
• Nota: Esta es la factorización que se obtiene por el método de Gauss sin pivoteo. Si hay pivoteo (simple o
escalado), se introduce una matriz ortogonal de intercambio de filas M .
M·A=L
e · U → M · Ax = L
e · Ux = M · b
Doodlitle: ejemplo
Ejemplo 13.Resolver
con aritmética de
4 dígitos el siguiente sistema utilizando la factorización de Doodlitle
3 7 37 1
x= donde x =
1 5 15 10
a1 = u21 → u21 = 7
2
a
2 1
= l 1 1
u
2 1 → l21 = 0.3333
a2 = l21 u21 + u22 → u22 = 2.667
2
Factorización: A = Le ·U
3 7 1 0 3 7
=
1 5 0.3333 1 0 2.667
Primer sistema: Ly
e =b
1 0 37 37
y= 7→ y =
0.3333 1 15 2.67
Segundo sistema: Ux = y
3 7 37 9.997
x= 7→ x =
0 2.667 2.67 1.001
3.2. LDL’
Crout
a11 a21 an1
···
a12 a22 ··· an2
Matriz del sistema: A = .. .. .. ..
. . . .
a1n a2n ··· ann
Crout: A = L eT
e ·D·L
• Descomposición
1 0 ··· 0 d11 0 0 1 l21 ln1
··· ···
l21 1 · · · 0 0 d22 ··· 0 0 1 ··· ln2
.. .. . . .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . .
ln1 ln2 ··· 1 0 0 ··· dnn 0 0 ··· 1
15
• Comparación directa, operando
1
d11 l21 d11 l31 ··· d11 ln1
d1
= l2 d1 l2 + d2
1 1 1 2
l2 d1 l31 + d22 l32
1 1
··· l2 d1 ln + d22 ln2
1 1 1
2 2
X X
= = l3k dkk l3k + d33 ··· l3k dkk lnk + dnn ln3
k=1 k=1
.. .. .. .. ..
. . . . .
n−1
X
= = = ··· lnk dkk lnk + dnn
k=1
• Términos
mı́n(i,j)
i=j 99K dkk
X
j
ai = li dk lj donde li = 1 →
k k k i
i>j 99K lij
k=1
• Algoritmo
Para i = 1, 2, . . . , n
i−1
X
dii = aii − lik dii lik
k=1
i−1
!
X
lij = 1
djj
aji − lik dii ljk j = 1, 2, . . . , i − 1
k=1
Crout: ejemplo
Ejemplo 14.Resolver
con aritmética de
4 dígitos el siguiente sistema utilizando la factorización de Crout
3 7 37 10
x= donde x =
7 5 75 1
a = d 1 l2
2 1 1
→ l21 = 2.333
12
a2 = l2 d1 l2 + d2 → d22 = −11.33
1 1 1 2
Factorización A = L eT
e ·D·L
1 0 3 0 1 2.333
A=
2.333 1 0 −11.33 0 1
Primer sistema: Ly
e =b
1 0 37 37
y= 7→ y =
2.333 1 75 −11.32
Segundo sistema: Dz = y
3 0 37 12.33
z= 7→ z =
0 −11.33 −11.32 0.9991
Tercer sistema: L
eT x = y
1 2.333 12.33 9.999
x= 7→ x =
0 1 0.9991 0.9991
3.3. LL’
Cholesky
Cholesky: A = L · LT
16
• Descomposición
l1 0 · · · 0
1
l11 l21 ln1
···
l21 l22 · · · 0 0 l22 ··· ln2
.. .. . . .. .. .. .. ..
. . . . . . . .
ln1 ln2 ··· lnn 0 0 ··· lnn
• Comparación directa, operando
11
l11 l21 l11 l31 l11 ln1
l1 l1 ···
= l21 l21 + l22 l22 l21 l31 + l22 l32 ··· l2 ln + l22 ln2
1 1
3 3
X X
= = l3k l3k ··· l3k lnk
k=1 k=1
. .. .. .. ..
.. .
. . .
n
X
= = = ··· lnk lnk
k=1
• Términos
mı́n(i,j)
i=j 99K lii
X
j
ai = k k
li lj →
i>j 99K lij
k=1
• Algoritmo
Repetir para i = 1, 2, . . . , n
v
u i−1
X
l = tai −
u
i
i lk lk
i i i
k=1
i−1
!
X
lji = 1
ljj
aji − lik ljk j = 1, 2, . . . , i − 1
k=1
Cholesky: ejemplo
Ejemplo 15. Resolver con aritmética de 4 dígitos el siguiente sistema utilizando la factorización de Cholesky
3 −1 69 10
x= donde x =
−1 13 3 1
a = l1 l2
2 1 1
→ l12 = −0.3779
12
a2 = l2 l2 + l2 l2 → l22 = 3.586
1 1 2 2
Factorización:A = L · LT
2.646 0 2.646 −0.3779
A=
−0.3779 3.586 0 3.586
Primer sistema: Ly = b
2.646 0 69 26.08
y= 7→ y =
−0.3779 3.586 3 3.586
Segundo sistema: LT x = y
2.646 −0.3779 26.08 10
x= 7→ x =
0 3.586 3.586 1
Operaciones
Método Sumas Productos Cocientes
Cramer O (n!) O ((n + 1)!) O (n)
Gauss 1 1 1
3 3
2
3O n 3O n 2O n
G-Jordan 1
2O n
3 1 3
2O n
1
2O n
2
Doodlitle 1
2O n
3 1 3
2O n
1
2O n
2
Crout 1
3O n
3 2 3
3O n
1
2O n
2
Cholesky 1
3O n
3 1
3O n
3 1
2O n
2
17
4. Condicionamiento
Condicionamiento: efectos
1. Los métodos de resolución de sistemas involucran operaciones que pueden introducir pequeños errores en los coefi-
cientes del sistema o del segundo miembro.
a) Cuando pequeños cambios de los coeficientes conduce a pequeñas variaciones de la solución, se dice que el
sistema está bien condicionado.
b) Por el contrario, si cambios pequeños producen grandes variaciones, el sistema esta mal condicionado.
−0.1
x2T = 20.5 . . . −17.7 . . . 0.3 . . . −6.8 . . .
−3.7 2.0 0 −4
x3 = 939.0 . . . −752.8 . . . −120.1 . . . −138.2 . . .
T
Definiciones 16. Condicionamiento de la matriz A utilizando la norma p: cond (A, p) = ∥A∥p
A−1
p .
Hecho 17. Dada una matriz regular A, para cualquier norma subordinada se verifica que: (demo ?? en la página ??)
cond (I) = 1
cond (A) ≥ 1
cond (A) = cond A−1
Interpretación gráfica
18
∥δx∥
Teorema 18. Acotación del error relativo εx = de la solución:(demo ?? en la página ??)
∥x∥
cond (A)
∥δb∥ ∥δA∥
+
A
∥δA∥ < 1
−1
εx ≤
∥b∥ ∥A∥
1 − cond (A) ∥δA∥
∥A∥
−1
∥δb∥ ∥δA∥
(A + δA)
∥b∥ + ∥A∥
A
∥δA∥ ≥ 1
−1
εx ≤ ∥A∥ ·
3. Iterativos
Descripción
Dado un sistema lineal Ax = b buscamos una matriz K y un vector c tal que la solución única del sistema y = Ky+c
sea igualmente solución del sistema inicial y = A−1 b (consistencia).
La forma del sistema sugiere un método de resolución iterativa: y(0) , y(k) = Ky(k−1) + c
¿Qué condiciones debe cumplir K para que lı́m y(k) = x? esto es, para que la sucesión vectorial converja.
n→∞
dades.
19
Descomposición y obtención de los métodos
Descomposición: A = D − L − U
• A: matriz
1 del 2sistema
a1 a1 a31 an1
···
a12 a22 a32 ··· an2
an3
1 2 3
A = a3 a3 a3
···
.. .. .. .. ..
. . . . .
a1n a2n a3n ··· ann
• D: matriz diagonal.
a1 0 0 0
1
···
0 a22 0 ··· 0
D = 0 0 a3 0
3
···
.. .. .. .. ..
. . . . .
0 0 0 ··· ann
• L matriz triangular estrictamente inferior.
0 0 0 ··· 0
a12 0 0 ··· 0
a3 a23 0 · · · 0
1
L = −
.. .. .. . . ..
. . . . .
a1n a2n a3n · · · 0
• U matriz triangular estrictamente superior.
0 a21 a31 · · · an1
0 0 a32 · · · an2
U = − 0 0 0 · · · a3
n
.. .. .. . . .
. . . . ..
0 0 0 ··· 0
1. Métodos
Método de Jacobi
Matrices: K = D−1 (L + U) , c = D−1 b
Justificación (consistencia)
Ax = (D − L − U) x = b
Dx = (L + U) x + b
x = D−1 (L + U) x + D−1 b
• Matricialmente
0 an1
1
a21
a1 b1 ···
a22 b2 a12 0 ··· an2
x =
(k) (k−1)
.. .. − .. .. .. .. x
. . . . . .
ann bn a1n a2n ··· 0
Programación
20
Método de Gauss-Seidel
−1 −1
Gauss Seidel: K = (D − L) U, c = (D − L) b
Justificación (consistencia)
Ax = (D − L − U) x = b
(D − L) x = Ux + b
−1 −1
x = (D − L) Ux + (D − L) b
• Matricialmente
0 0 0 0 an1
1
a21
a1 b1 ··· ···
a22 b2 a12 0 ··· 0 0 0 ··· an2
x =
(k) (k) (k−1)
.. .. − .. .. .. .. x − .. .. .. .. x
. . . . . . . . . .
ann bn a1n a2n ··· 0 0 0 ··· 0
Programación
Método de relajación
−1 −1
Relajación: K = (D − ωL) ((1 − ω) D + ωU) , c = ω (D − ωL) b
Justificación (consistencia)
Ax = ω1 − 1−ω D−L−U x=b
ω
ω D+U x=b
D 1−ω
ω −L −
ω −L x= ω D+U x+b
D 1−ω
Programación
• Repetir i = 1, · · · , n componentes para k iteraciones
i−1 n
(k) (k) (k−1) (k−1)
X X
xi = a1i ω bi − aji xj − aji xj + (1 − ω) xi
i
j=1 j=i+1
2. Convergencia
Teoremas y definiciones
Teorema 25 (Kahan). Si los coeficientes de la matriz del sistema verifican que aii ̸= 0, entonces ρ (Ksor ) ≥ |ω − 1| y por
tanto el método SOR sólo puede converger cuando 0 < ω < 2.
Teorema26. Si A es una matriz definida positiva, descompuesta en la forma A = M − N, con M inversible, y la matriz
MT + N también es definida positiva, entonces ρ M−1 N < 1 y el método es convergente.
21
Corolario 27 (Ostrowski-Reich). Si A es definida positiva, el método de relajación converge para cualesquiera elección
del vector inicial siempre que 0 < ω < 2.
Teorema 28 (Stein-Rosenberg). Si los coeficientes de la matriz del sistema verifican que aii > 0 y aji ≤ 0 cuando i ̸= j,
entonces será válida una y sólo una de las afirmaciones siguientes
• ρ (Kgs ) = ρ (Kj ) = 0 • 0 < ρ (Kgs ) < ρ (Kj ) < 1
• ρ (Kgs ) = ρ (Kj ) = 1 • ρ (Kgs ) > ρ (Kj ) > 1
Definiciones 30. Una matriz se denomina estrictamente diagonal dominante cuando para cada fila, el valor absoluto
del elemento de la diagonal es mayor que la suma en valor absoluto del resto de elementos.
Si la relación se verifica con mayor o igual, entonces se denomina de diagonal dominante.
Teorema 31. Si A es de diagonal estrictamente dominante, el método de Jacobi es convergente.
Teorema 32. Si A es de diagonal dominante, con una fila estrictamente dominante, el método de Gauss-Seidel es
convergente.
3. Ejemplos
Ejemplo
Ejemplo 33. Dado
el sistema
2 −1 3 1
x= donde x =
−1 2 −3 −1
1. Calcular las matrices de iteración de los diferentes métodos y estudiar su convergencia.
2. Determinar el número de iteraciones necesarias para tener un error inferior a la milésima partiendo del vector nulo
y utilizando la norma infinito.
3. Realizar las iteraciones anteriores y comprobar cuantas hubieran sido realmente necesarias.
1. Matrices y convergencia
Método de Jacobi
0 1 3
Kj = D−1 (L + U) = 2 , cj = D−1 b = 2
1
2 0 − 32
PKj (x) = x −
2 1
4 → ρ (Kj ) = 1
2 <1 Convergente
• Nota: Como cabía esperar (matriz tridiagonal, de diagonal estrictamente dominante y definida positiva ),
ambos métodos convergen y, además, el radio espectral de Gauss-Seidel es el cuadrado del de Jacobi, por
lo que su convergencia será más rápida.
Método de relajación
−1 −1
Ksor = (D − ωL) ((1 − ω) D + ωU), csor = ω (D − ωL) b
No se da ω, pero al ser la matriz tridiagonal
2
ωopt = ≃ 1.0718 ⇒ ρ (Ksor ) = 0.0718 Convergente
1 + 1 − ρ2 (Kj )
p
22
2. Número máximo de iteraciones
Despejando de la expresión
n
y − x
≤ ∥K∥ ·
y(1) − y(0)
< δ
(k)
1 − ∥K∥
se tiene
δ (1 − ∥K∥) δ (1 − ∥K∥)
ln
y(1) − y(0)
ln
∥c∥
n≥ =
ln ∥K∥ ln ∥K∥
Tabulando los resultados para δ = 0.001
∥K∥∞ ∥c∥∞ n≥
Jacobi 0.5 1.5 11.55
Gauss-Seidel 0.5 1.5 11.55
Relajación 0.65 1.65 19.63
3. Iteraciones
Método de Jacobi
i−1 n
(k) (k−1) (k−1)
X X
• xi = 1
aii
bi − aji xj − aji xj
j=1 j=i+1
x(k) = 1
b1 −
(k−1)
a21 x2 = 1 (k−1)
3 + x2
1 a11 2
•
x(k) = 1
b2 −
(k−1)
a12 x1 = 1
−3 + x1
(k−1)
2 a22 2
0
• x(0) =
0
(
(1)
x1 = (3 + 0) = 23
1
• 1ª iteración: (1)
2
x2 = (−3 + 0) = − 23
1
2
(
(2)
= 12 3 − 23 = 34
x1
• 2ª iteración: (2)
= 12 −3 + 32 = − 43
x2
0
• x(0) =
0
(
(1)
x1 = (3 + 0) = 23
1
• 1ª iteración: (1)
2
= 1
−3 + 32 = − 43
x2 2
(
(2)
= 12 3 − 43 = 54
x1
• 2ª iteración: (2)
= 12 −3 + 54 = − 87
x2
Método de relajación
i−1 n
(k) (k) (k−1) (k−1)
X X
• xi = 1
aii
ω bi − aji xj − aji xj + (1 − ω) xi
j=1 j=i+1
x(k) =1
1 ω b 1 − a2 (k−1)
1 x + (1 − ω) x
(k−1)
= 1
1.1 3 + x
(k−1)
− 0.1x
(k−1)
1 2 1 2 1
•
a1 2
x(k) = 12 ω b2 − a12 x(k) + (1 − ω) x(k−1) = 1 1.1 −3 + x(k) − 0.1x(k−1)
2 a 1 1 2 1 2
2
0
• x(0) =
0
23
(
(1)
x1 = 1
(1.1 (3 + 0) − 0.1 · 0) = 1.65
• 1ª iteración: (1)
2
x2 = 1
2 (1.1 (−3 + 1.65) − 0.1 · 0) = −0.7425
(
(2)
x1 = 1
(1.1 (3 − 0.7425) − 0.1 · 1.65) = 1.0766
• 2ª iteración: (2)
2
x2 = 1
2 (1.1 (−3 + 1.0766) − 0.1 · (−0.7425)) = −0.9836
Comportamiento diferenciado
Nota: Los teoremas anteriores relacionan el comportamiento de los métodos de Jacobi y Gauss-Seidel en casos
particulares. Generalmente hay una prevalencia de Gauss-Seidel, pero no siempre.
• Matriz: A = 1 1 1
2 2 1
Kj = D−1 (L + U) = −1 0 −1
−2 −2 0
PKj (x) = x → σ (Kj ) = {0} → ρ (Kj ) = 0 < 1
3
Convergente
2. Matriz de iteración de Gauss-Seidel
0 −2 2
−1
Kgs = (D − L) U = 0 2 −3
0 0 2
2
PKgs (x) = −x (x − 2) → σ (Kgs ) = {0, 2, 2} → ρ (Kgs ) = 2 > 1 Divergente
3. Relajación
1−ω 2ω
−2ω
−1
Ksor = (D − ωL) ((1 − ω) D + ωU) = ω2 − ω 2ω 2 − ω + 1 −2ω 2 − ω
2
−2ω (1 − ω) −4ω 3 + 6ω 2 − 2ω 4ω 3 − 2ω 2 − ω + 1
Representando los autovalores, se observa que para 0 < ω < 0.05 → ρ (K) < 1 y el método será convergente.
24
2
−1 −1
• Matriz: 2 2 2
−1 −1 2
1. Matriz de iteración de Jacobi
0 1/2 1/2
KJ = D−1 (L + U) = −1 0 −1
1/2 1/2 0
PKJ (x) = x3 + 34 x2 + 12 → ρ (KJ ) = 1 ≥ 1 Divergente
2. Matriz de iteración de Gauss-Seidel
0
1/2 1/2
−1
Kgs = (D − L) U = 0 −1/2 −3/2
0 0 −1/2
PKgs (x) = x + x + 4 x → ρ (Kgs ) = 21 < 1
3 2 1
Convergente
3. Matriz de iteración de relajación
1−ω
1/2ω 1/2ω
−1 1/2ω 2 − ω + 1
Ksor = (D − ωL) ((1 − ω) D + ωU) = ω2 − ω −1/2ω 2 − ω
1/2ω (1 − ω)2 1/4ω (ω + 2) (1 − ω) −1/4ω 3 − 1/4ω 2 − ω + 1
Representando los autovalores, se observa que para 0 < ω < 1.05 → ρ (K) < 1 y el método será convergente.
4. Autovalores
Autovalores y autovectores
Sea Bp = {v1 , v2 , · · · , vn } una base de vectores propios de A asociados a σ (A) = {λ1 , λ2 , · · · , λn } donde |λ1 | ≥ |λ2 | ≥
· · · ≥ |λn |.
Los métodos se clasifican dependiendo si se desea obtener un sólo valor o todos.
1. Método de la potencia (cálculo de λ1 )
Desarrollo teórico
• ∃ w0 = α1 v1 + α2 v2 + · · · + αn vn : α1 ̸= 0
• wk = Ak w0 = α1 λk1 v1 + α2 λk2 v2 + · · · + αn λkn vn
k
k→∞
• wk = λ1 α1 v1 + α2 λ1 v2 + · · · + αn λλn1 vn −−−−→ wk = λk1 α1 v1
k λ2
∥uk ∥
• Permite obtener v1 y mediante dos iteraciones consecutivas |λ1 | = ∥uk−1 ∥
Nota: presenta problemas de convergencia cuando |λ1 | = |λ2 | pero λ1 ̸= λ2 .
T
Algoritmo: w0 : ∥w0 ∥ = 1, uk = Awk−1 ∧ wk = uk
∥uk ∥ y λ1 = (wk ) Awk
25
5. Sist. no Lin.
Sistemas no lineales
Sistema: F : Rn → Rn : Y = F (X) X, Y ∈ Rn
Y = F (X) → (y1 , y2 , · · · , yn ) = F (x1 , x2 , · · · , xn )
f1 (x1 , x2 , · · · , xn ) = y1
f2 (x1 , x2 , · · · , xn ) = y2
..
.
fn (x1 , x2 , · · · , xn ) = yn
• Newton
X = X − J −1 (X) F (X)
o bien minorando una función.
Xn
2
H (X) = (fk (X))
k=1
6. Bibliografía
Bibliografía
Formulación general:
7. Software
Software
Formulación general:
8. Anexos
1. Demostraciones
Normas
Formulación general:
26