Documentos de Académico
Documentos de Profesional
Documentos de Cultura
U2 Ec Lineales
U2 Ec Lineales
Capítulo 0: Introducción
2
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
es el vector incógnitas
3
Matriz inversa
• El sistema de ecuaciones lineales Ax = b tiene solución única si y sólo si A es una
matriz no singular.
• Es invertible: 9A 1 2 Rn⇥n : AA 1 = A 1 A = I
• det(A) 6= 0
• 0 no es valor propio
• Si A es no singular, entonces:
Ax = b () x=A 1
b 4
4
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Matriz inversa
6
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Matriz inversa
• Una manera natural de calcular la inversa de una matriz A 2 Rn⇥n consiste en resolver
n sistemas de ecuaciones lineales.
Así,
n
donde las columnas son los vectores de la base canónica de R
Dificultades numéricas
8
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
1. Costo operacional
• Los sistemas que aparecen en muchas aplicaciones son de gran tamaño. Un sistema de
10.000 x 10.000 hoy se considera de tamaño moderado y en algunas aplicaciones
deben resolverse sistemas de ecuaciones con millones de incógnitas.
Ax = b
➡ Regla de Cramer:
1. Costo operacional
10
10
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
2. Costo de almacenamiento
• A menudo, las matrices de los sistemas de ecuaciones son de gran tamaño, pero con
un gran número de elementos nulos.
➡ Estas matrices se denominan dispersas o ralas (sparse) y que requieren una cantidad
reducida de memoria para su almacenamiento.
• Los métodos iterativos no modifican la matriz del sistema, evitando el llenado y sus
consecuencias.
➡ Estos métodos no calculan la solución exacta del sistema, sino que construyen
iterativamente una solución aproximada. 11
11
12
12
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
1. Eliminación Gaussiana
i. Factorización LU
ii. Pivoteo
2. Método de Cholesky
13
13
14
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Algoritmo:
Costo operacional:
15
15
Algoritmo:
Costo operacional:
16
16
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
17
17
18
18
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
donde:
(k)
• Los valores akk son llamados pivotes y deben ser valores no nulos para k = 1, ..., n 1
19
19
A(n) x = b(n)
Ejercicio 20
20
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
algoritmo
21
21
• Costo total ⇡
22
22
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
1. Eliminación Gaussiana
i. Factorización LU
ii. Pivoteo
2. Método de Cholesky
23
23
Factorización LU
A = LU
24
24
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Factorización LU
25
Factorización LU
• Muchas veces deben resolverse varios sistemas de ecuaciones con la misma matriz
1
y distintos segundos miembros (por ejemplo, para calcular A ).
➡ En tal caso, conviene primero factorizar la matriz A = LU (una sola vez!) y luego
resolver los pares de sistemas triangulares para cada segundo miembro
26
26
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
1. Eliminación Gaussiana
i. Factorización LU
ii. Pivoteo
2. Método de Cholesky
27
27
Pivoteo
• El algoritmo de eliminación gaussiana sólo puede llevarse a cabo si todos los pivotes
son no nulos:
• Ejemplo:
28
28
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Pivoteo básico
29
29
Pivoteo parcial
➡ Una forma de evitar los pivotes nulos y los multiplicadores grandes en módulo, es
realizar en cada paso el intercambio de ecuaciones que produzca el mayor pivote
posible en módulo. Esta estrategia se denomina pivoteo parcial.
30
30
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Pivoteo parcial
Ejercicio 31
31
Matrices de permutación
• Las matrices triangulares L y U que se obtienen por el método de eliminación Gaussiana
con pivoteo, ya no factorizan a A , sino que factorizan a la matriz que se obtiene
después de aplicar a A todos los intercambios de filas que tuvieron lugar.
• Los intercambios de filas de una matriz se obtienen multiplicando a izquierda por una
matriz de permutación:
32
32
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
LU = P A
Ejercicio 33
(MATLAB)
33
1. Eliminación Gaussiana
i. Factorización LU
ii. Pivoteo
2. Método de Cholesky
34
34
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Matrices banda
35
Matrices banda
• Si una matriz banda A puede factorizarse LU sin necesidad de pivoteo, entonces las
matrices triangulares L y U también son banda con el mismo ancho de banda que A
• Por eso se dice que la factorización LU sin pivoteo preserva la estructura banda de
las matrices 36
36
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Matrices tridiagonales
• Un caso extremo de matrices banda es el de las matrices tridiagonales (l = 2):
2 3
• El costo total con el del M.E.G. sin aprovechar la estructura tridiagonal es de: n
3
➡ Por ejemplo, un sistema tridiagonal de 1000 x 1000 cuesta aprox. 666 666 666 op
por M.E.G. y aproximadamente 8 000 op mediante un algoritmo sacando
37
provecho de la estructura tridiagonal.
37
1. Eliminación Gaussiana
i. Factorización LU
ii. Pivoteo
2. Método de Cholesky
38
38
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Teorema: Sea A 2 Rn⇥n una matriz simétrica. A es definida positiva si y sólo si se cumple
cualquiera de las siguientes condiciones:
• xt Ax > 0 , 8x 2 Rn , x 6= 0
➡ Esta última propiedad nos dice que si la matriz es simétrica y definida positiva,
siempre puede obtenerse una factorización en matrices triangulares sin necesidad
de pivoteo.
39
39
Método de Cholesky
algoritmo
costo operacional
40
40
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Método de Cholesky
41
2. Criterios de detención
42
42
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Introducción
Ax = b
• Para resolver el sistema, un método iterativo construye, a partir de un vector inicial x(0) ,
una sucesión de vectores x(1) , x(2) , ..., x(k) , ... la que, bajo condiciones apropiadas,
resultará convergente a x
43
Introducción
44
con arbitrario
44
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Introducción
45
45
Método de Jacobi
46
46
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Método de Gauss-Seidel
47
➡ Notemos que esto corresponde a aprovechar en el paso k , los valores x(k) ya calculados.
47
Convergencia
➡ Aunque A sea simétrica y definida positiva, el método de Jacobi puede ser divergente
48
48
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
2. Criterios de detención
3. Gradiente conjugado
49
49
Criterios de detención
• Ea = ||xk xk 1
|| < tol
k
• ⇢a = ||x xk 1
||
< tol
||xk ||
50
50
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Relajación sucesiva
0 1
i 1
X n
X
(k) (k 1) ! @ (k) (k 1) A
xi = (1 !)xi + bi aij xj aij xj
aii j=1 j=i+1
51
51
Relajación sucesiva
52
52
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
2. Criterios de detención
3. Gradiente conjugado
53
53
Ax = b
1 t
f (x) = x Ax xt b + c
2
es decir:
rf (x) = Ax b=0
54
(el gradiente en un punto dado apunta en la dirección del máximo crecimiento)
54
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
➡ En cada iteración se elige la dirección para la que f(x) decrece más rápidamente,
que es la dirección contraria a rf (x
(k)
):
d (r(k) )t r(k)
f (x(k) + ⇢r(k) ) = 0 ⇢(k) =
d⇢ (r(k) )t Ar(k) 55
55
x(0) ,
k = 0, 1, 2, ...,
r(k) = b Ax(k)
(r(k) )t r(k)
⇢(k) = (k) t (k)
(r ) Ar
x(k+1) = x(k) + ⇢(k) r(k)
56
56
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
(r(k) )t d(k)
⇢(k) =
(d(k) )t Ad(k)
• La primera dirección de descenso es d(0) = r (0) , las siguientes son escogidas de tal
forma que cada dirección es conjugada, respecto a la matriz A, con todas las
direcciones calculadas anteriormente, es decir:
(d(k 1) )t Ar(k)
d (k)
=r (k)
+↵ (k 1) (k 1)
d con: ↵(k 1)
=
(d(k 1) )t Ad(k 1)
57
57
r(k+1) = b Ax(k+1)
(d(k) )t Ar(k+1)
↵(k) =
(d(k) )t Ad(k)
d(k+1) = r(k+1) + ↵(k) d(k) 58
58
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Capítulo 3: Condicionamiento
1. Propagación de errores
2. Número de condición
3. Precondicionadores
59
59
solución exacta:
solución exacta:
Notemos que un error de menos del 2% en los datos produjo un error del 40% en la
solución!!! 60
60
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
solución exacta:
solución exacta:
Esta vez un error de 2% en los datos produjo un error de alrededor del 25% en la solución.
61
➡ Los errores se amplificaron, pese a que no se ha usado método numérico alguno!
61
Capítulo 3: Condicionamiento
1. Propagación de errores
2. Número de condición
3. Precondicionadores
62
62
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Número de condición
Teorema: Sea el sistema Ax = b y el sistema perturbado (A + A)(x + x) = (b + b)
|| A||
con A no singular y A suficientemente pequeño tal que ||A||||A 1 || < 1 , entonces:
||A||
1
✓ ◆
|| x|| ||A|| ||A || || A|| || b||
+
||x|| 1 ||A|| ||A 1 || || A|| ||A|| ||b||
||A||
donde:
|| x||
• ||x||
es el error relativo de la solución aproximada
|| b||
• ||b||
es el error relativo del segundo miembro
|| A||
• ||A||
es el error relativo de la matriz de coeficientes
63
Número de condición
64
64
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Capítulo 3: Condicionamiento
1. Propagación de errores
2. Número de condición
3. Precondicionadores
65
65
Precondicionamiento
M 1
Ax = M 1
b
66
66
Unidad 2: Resolución de sistemas de ecuaciones lineales Prof. Karin Saavedra
Precondicionamiento
67
67