Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Leccion 03
Leccion 03
22 de mayo de 2017
ı́ndice
Introducción
Sistema lineal
Definición
Una matriz A simétrica se llama definida positiva si : xT Ax > 0,
para cualquier vector columna x arbitrario no nulo.
Propiedades
1 Si los determinantes de los menos principales de una matriz
son positivas, entonces la matriz es definida positiva:
Definición
Dado A = (aij ) una matriz cuadrada:
Norma Vectorial
Normas Matriciales
¿Cuál es el problema ?
¿ Cuál es el problema ?
Ax = b
Operaciones Elementales
Dado un sistema lineal Ax = b las siguientes operaciones
elementales transforman al sistema Ax = b en un sistema
equivalente Âx = b̂
1 Intercambiar la ecuación i-ésima por la ecuaición j-ésima
Ei ←→ Ej
Ei ←− Ei + λEj , λ 6= 0
Eliminación Gaussiana
transformar mediante operaciones elementales por filas(reglón) a:
Ax = b en Lx = c o en U x = d
Eliminación Gaussiana
Eliminación Gaussiana
Eliminación Gaussiana
Eliminación Gaussiana
Estrategias de Pivoteo
Estrategias de Pivoteo
Pivoteo Parcial
El método consiste en elegir en la iteración i-ésima, el elemento de
la columna que que sea el de mayor valor absoluto entre los que
están por debajo de la diagonal, el menor valor de p ≥ i tal que
Método de Factorización
Factorización LU
Observación
Ly = b Resolver y por sustitución hacia adelante
U x = y Resolver x por sustitución hacia atrás
Método de Factorización
Decomposición LU por Eliminación Gausiana
Existen infinitas formas diferentes para descomponer A. Una de las
más populares es:
U=Matriz de la Eliminación Gaussiana
L=Multiplicadores usados para la eliminación
Método de Factorización
Decomposición LU por Eliminación Gausiana
Método de Factorización
Ejemplo (Decomposición LU por Eliminación Gausiana)
Método de Factorización
Decomposición LU por Eliminación Gausiana
Método de Factorización
Decomposición LU por Eliminación Gausiana
Método de Factorización
Decomposición LU por Eliminación Gausiana
Método de Factorización
Decomposición LU por Eliminación Gausiana
Método de Factorización
Decomposición LU por Eliminación Gausiana
Método de Factorización
Diferentes formas de factorización LU
Método de Factorización
Forma de Crout
Método de Factorización
Decomposición LU:Forma de Crout
Método de Factorización
Factorización de Cholesky
Las matrices simétricas definidas positivas admiten una
descomposición de la forma
A = LLT
Método de Factorización
Factorización de Cholesky
Método de Factorización
Factorización de Cholesky
Método de Factorización
Factorización de Cholesky
Encontrar la factorización de Choleski de la siguiente matriz
La
matriz es simétrica, y puede verificarse (calculando sus valores
propios) que es definida positiva.
Método de Factorización
Factorización de Cholesky
Método de Factorización
Factorización de Cholesky
Luego la factorización de Choleski es:
Método de Factorización
Sistemas Tridiagonales
Método de Factorización
Sistemas Tridiagonales
A = LU
Método de Factorización
Sistemas Tridiagonales
Método de Factorización
Sistemas Tridiagonales
Método de Factorización
Sistemas Tridiagonales
Ax = b,
resolviendo para c, Lc = b y
luego resolviendo para x, U x = c.
Ing/Dr. Asís López Maximiliano E MÉTODOS NUMÉRICOS - CIVIL - SISTEMA DE ECUACION
SISTEMA DE ECUACIONES LINEALES
Ax = b
Método de Jacobi
Ax = b
Se basa en la descomposición
Método de Jacobi
Ax = b
Método de Jacobi
A=L+D+U
x(k+1) = D−1 (b − (L + U )x(k) )
TJ = I − D−1 A = −D−1 (L + U )
Método de Jacobi
Si definimos la matriz T y el vector c de la siguiente manera
Algoritmo de Jacobi
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Teorema
Si la matriz A es de diagonal estrictamente dominante, entonces A
es regular y para todo b y toda estimación inicial x0 de la solución,
el método de Jacobi para resolver Ax = b converge a su solución
(única).
Observación
La dominancia diagonal estricta es sólo una condición suficiente. El
método puede converger aún en su ausencia.
Método de Gauss-Seidel
A=L+D+U
(L + D)x(k+1) = b − U x(k)
Lx(k+1) + Dx(k+1) = b − U x(k)
Dx(k+1) = b − Lx(k+1) − U x(k)
x(k+1) = D−1 (b − Lx(k+1) − U x(k) )
Matriz de Gauss-Seidel.
TGS = −(L + D)−1 U = I − (L + D)−1 A
Método de Gauss-Seidel
Siempre que cada aii 6= 0, despejamos
Algoritmo de Gauss-Seidel
Ejemplo
Ejemplo
Teorema
Una condición suficiente de convergencia de los métodos de Jacobi
y Gauss-Seidel es que la matriz de coeficientes del sistema lineal
sea estrictamente diagonal dominante.
Teorema
El método iterativo de Gauss-Seidel es convergente para todo
sistema de ecuaciones cuya matriz de coeficientes es simétrica
definida positiva.
Métodos de relajación
Métodos de relajación
Paso de sobrerrelajación
Expresión matricial
A=L+D+U
(ωL + D)x(k+1) = (1 − ω)Dx(k) + ω(b − U x(k) )
(ωL + D)x(k+1) = ωb + ((1 − ω)D − ωU )x(k)
Ejemplo
Teorema
Si A es una matriz simétrica definida positiva y tridiagonal ,
entonces: Los métodos de Jacobi, Gauss-Seidel y SOR convergen y
el valor óptimo del parámetro ω es
2
ω= p
1+ 1 − (ρ(T ))2
Máxima pendiente
Máxima pendiente
Máxima pendiente