Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Las operaciones fundamentales que se le pueden efectuar a las ecuaciones (filas) de un sistema lineal
de ecuaciones son las siguientes.
c) Sustitución: una fila puede ser reemplazada por la suma de esa fila más un múltiplo de cualquier
otra fila.
Además para que un sistema lineal de ecuaciones algebraicas tenga solución única debe cumplir las
siguientes dos condiciones:
B) Métodos Iterativos:
Parten de una aproximación inicial y que por aplicación de un determinado algoritmo, conducen a
aproximaciones sucesivamente mejores en cada caso.
- Jacobi
- Gauss – Seidel
Los métodos numéricos para la solución de Sistemas de Ecuaciones Lineales se dividen en dos
categorías generales:
1. Métodos exactos
2. Métodos aproximados
Se usan comúnmente dos métodos; la eliminación gaussiana y el método de Gauss-Jordan. Se
recomienda utilizar la estrategia de pivoteo en cualquier implementación que se haga de estos métodos
sobre una computadora. Con la ayuda de esta estrategia, los errores de redondeo disminuyen y se
evitan los problemas como división entre cero.
Aunque en todos los demás sentidos son iguales, la eliminación Gaussiana es preferible a Gauss-
Jordan, ya que la primera es un 50% más rápida. Sin embargo, el método de Gauss-Jordan sigue
siendo útil ya que se puede modificar un poco de manera que se pueda obtener la matriz inversa como
beneficio adicional en los cálculos. Aunque los métodos de eliminación tienen una gran utilidad, el uso
de toda la matriz de coeficientes puede ser un factor muy importante cuando se trata de sistemas muy
grandes y dispersos.
Estos 4 pasos se repiten tomando como pivotes las ecuaciones restantes hasta convertir el sistema
en una matriz triangular superior.
b) Sustitución hacia atrás: Ya obtenido el sistema equivalente que es un sistema triangular superior,
éste es más manejable y se puede resolver despejando primero la Xn y este valor utilizarlo para
obtener despejando la segunda incógnita hasta obtener el resultado completo del sistema.
Método de Gauss-Jordan
Este método también utiliza el teorema fundamental de equivalencia para resolver un sistema de
ecuaciones lineales. El método consiste en convertir el sistema expresado como matriz ampliada y
trabajar para transformarlo en un la matriz identidad quedando en el vector de términos independientes
el resultado del sistema.
Su procedimiento se distingue del método Gaussiano en que cuando se elimina una incógnita, se
elimina de todas las ecuaciones restantes, es decir, las que preceden a la ecuación pivote así como
de las que la siguen. Por lo tanto, la eliminación gaussiana es el método simple por excelencia en la
obtención de soluciones exactas a las ecuaciones lineales simultáneas. Una de las principales razones
para incluir el método de Gauss-Jordan, es la de proporcionar un método directo para obtener la
matriz inversa. Es importante mencionar que este método es muy adecuado para obtener la matriz
inversa de una matriz.
Para la matriz inversa aplicamos las propiedades, donde, el producto de la matriz de coeficiente por
su inversa es igual a la matriz unidad. Y el producto de su inversa por el vector de constantes es igual
el vector solución.
Ventajas
Con este método la solución se obtiene directamente sin la necesidad de la sustitución inversa que
utiliza el método de Gauss. Con este procedimiento de normalización y eliminación se puede obtener,
además la matriz inversa de la matriz de coeficientes, A-1. Si a la matriz aumentada se le adhiere o
aumenta la matriz unidad o identidad y se le aplica el método de Gauss-Jordan.
Dada la teoría básica, nos enfocaremos en resolver los sistemas de ecuaciones por los diferentes
métodos mencionados anteriormente.
Objetivo
Resolver sistemas de Ecuaciones Lineales con el mismo número de ecuaciones que de incógnitas.
Problema
Dados los números ai j y bi para i. j=1. 2….n se trata de hallar los números x1, x2,…xn que verifican
las n ecuaciones
Definimos:
𝒏
La matriz de coeficientes: 𝑨 = (𝒂𝒊.𝒋 )𝒊.𝒋−𝟏
Una vez establecida la ecuación vamos a desarrollar el Algoritmo de Sustitución Regresiva (Sustitución
hacia atrás).
Paso 1: Si Unn = 0, parar (no existe solución única).
𝑏𝑛
Paso 2: Hacer 𝑥𝑛 =
𝑈𝑛𝑛
Ejemplo:
Resuelva el siguiente sistema de Ecuaciones por el método Gauss
2x + 3y - z = 5
4x + 4y - 3z = 3
-2x + 3y - z = 1
Primero hacemos la Triangularización alrededor del 2, haciendo ceros por debajo del pivote 2 de la
1ra. Columna
Hacemos ceros por debajo del pivote -2 de la 2da. Columna
Y ya tenemos una matriz triangular superior (con ceros por debajo de la diagonal principal).
Ahora el máximo valor, el pivote 7/3 está en la 2da. Columna por lo que no hace falta intercambiar filas
Y ya tenemos una matriz triangular superior (con ceros debajo de la diagonal principal).
Sustitución Regresiva:
Despejamos las incógnitas empezando por la ecuación de abajo y progresamos hacia arriba.
Hacemos cero por encima y por debajo del pivote en la 2da. Columna
Factorización LU
Queremos descomponer la matriz de coeficientes A en una matriz triangular superior U y una matriz
triangular inferior L de forma que A = LU
Las matrices que admiten factorización LU son, por ejemplo:
Matrices estrictamente diagonal dominantes:
- Por filas: |𝑎𝑖𝑖 | > ∑𝑛𝑖=1 |𝑎𝑖𝑗 | 𝑝𝑎𝑟𝑎 𝑖 = 1,2, … . 𝑛
𝑗≠1
- Resolver L y = b
- Resolver U x = y
Los multiplicadores que aparecen en rojo, son los elementos con los que construimos la matriz L. Los
insertamos en la matriz, en lugar de los ceros creados.
Repetimos el proceso creando ceros por debajo de a´22:
Sustitución Progresiva:
Resolvemos el sistema triangular inferior L y = b y obtenemos a y
Sustitución Regresiva:
Resolvemos el sistema triangular superior Ux = y y obtenemos x, que era lo que buscábamos
B. Métodos Iterados.
Son generalmente más eficientes que los métodos directos para resolver sistemas de Ecuaciones
Lineales grandes y de matriz hueca, ya que se basan en multiplicar matriz por vector.
Ventajas:
Como consecuencia, solo es necesario almacenar los coeficientes no nulos de la matriz del
sistema.
- Si no se exige mucha precisión, se puede obtener una aproximación aceptable en un número
pequeño de iteraciones.
Son menos sensibles al redondeo.
Desventajas:
En general, no es posible predecir el número de operaciones que se requieren para obtener
una aproximación a la solución con una precisión determinada.
El tiempo de cálculo y la precisión del resultado puede depender de la elección de ciertos
parámetros.
Generalmente no se gana tiempo por iteración si la matriz de coeficientes es simétrica.
Dada una aproximación inicial (𝑥 0 ), un método iterativo genera una sucesión de aproximaciones (𝑥 𝑘 ),
𝑝𝑎𝑟𝑎 𝑘 = 1,2, … . ., que converge a la solución del sistema.
Para generar esta sucesión, se repite el mismo esquema de operaciones, hasta que:
o Se obtiene una aproximación a la solución con una precisión especificada de antemano.
O
o Se rebasa un número máximo de iteraciones.
Los métodos iterativos clásicos (lineales) se basan en reescribir el problema:
𝑨𝒙 = 𝒃 ⇔ 𝒙 = 𝑮𝒙 + 𝒄
Si tomamos un x0 una aproximación inicial a la solución, k= 1, 2,…. Podemos definir el Algoritmo
como la sucesión recursiva
x (k) = G x(k-1) + c
La matriz G se llama Matriz de Iteración, y el vector c Vector de Iteración.
Tenemos que:
Algoritmo de Jacobi
Paso 1: Elegir una aproximación inicial x(0)
Paso 2: Para k = 1, 2 ….. Max. Iterac.
o Para i = 1, 2 ….n, calcular
o Si se cumple el criterio de parada, tomar x (k) como aproximación a la solución.
Definimos la sucesión:
Criterio de Parada: impondremos que la distancia entre dos puntos consecutivos sea menor que
0.1
Segunda iteración:
Criterio de Parada: Se cumple? No
Criterio de Parada: impondremos que la distancia entre dos puntos consecutivos sea menor que 0.01