Está en la página 1de 24

Facultad de Facultad de Ingeniería Electrónica y Eléctrica

• PROFESORA: VICTORIA YSABEL ROJAS ROJAS

• Semestre: 2021 II
2
Teorema de Rouché- Frobenius

Sea 𝐴𝑥 = 𝑏 un sistema lineal, donde 𝐴 es una matriz de orden 𝑛𝑥𝑚, 𝑏 ∈ 𝑅𝑛 .

➢ Si 𝒃 = 𝜃 el sistema es llamado homogéneo, si 𝒃 ≠ 𝜃 el sistema es llamado no homogéneo,


➢ Se define la matriz aumentada 𝑩

𝑎11 𝑎12 … 𝑎1𝑚 𝑏1


𝑎 𝑎22 … 𝑎2𝑚 𝑏2
𝐵 = 21 ⋱ = 𝐴ȁ𝑏
⋮ ⋮ ⋮
𝑎𝑛1 𝑎𝑛1 … 𝑎𝑛𝑚 𝑏𝑛

1.- Si 𝑅𝑎𝑛𝑔𝑜 𝐴 = 𝑅𝑎𝑛𝑔𝑜 𝐵 = 𝑟 ⇒ el Sistema es compatible.

a) Si 𝑟 = 𝑚 𝑟𝑎𝑛𝑔𝑜 = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑖𝑛𝑐𝑜𝑔𝑛𝑖𝑡𝑎 , es compatible indeterminado


b) Si 𝑟 < 𝑚, el sistema tiene infinitas soluciones, es indeterminado

2.- Si 𝑅𝑎𝑛𝑔𝑜 𝐴 ≠ 𝑅𝑎𝑛𝑔𝑜 𝐵 ⇒ el Sistema es incompatible.


3
Los métodos directos consisten en transformar el
sistema en otro equivalente cuya resolución sea
prácticamente inmediata. Esta transformación se hace
mediante las llamadas operaciones elementales,
cuya interpretación matricial nos proporciona una
interesante y conocida factorización de la matriz del
sistema
El metodo consiste en transformar el sistema 𝐴𝑥 = 𝑏,

𝑎11 𝑥1 + 𝑎12 𝑥2 + ⋯ + 𝑎1𝑚 𝑥𝑚 = 𝑏1


𝑎21 𝑥1 + 𝑎22 𝑥2 + ⋯ + 𝑎2𝑚 𝑥𝑚 = 𝑏2
(1) …………………………………

𝑎𝑛1 𝑥1 + 𝑎𝑛2 𝑥2 + ⋯ + 𝑎𝑛𝑚 𝑥𝑚 = 𝑏𝑛

𝑎11 𝑎12 … 𝑎1𝑚 𝑥1 𝑏1


𝑎21 𝑎22 … 𝑎2𝑚 𝑥2 𝑏
⋱ = 2 𝑨𝒙 = 𝒃
⋮ ⋮ ⋮ ⋮ ⋮
𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑚 𝑥𝑚 𝑏𝑚

Mediante operaciones elementales, en un sistema equivalente, triangular superior o escalonado,


cuya resolución es más sencilla y se obtiene mediante la denominada sustitución regresiva o inversa

5
𝑢11 𝑢12 … 𝑢1𝑖 𝑢1𝑚 𝑥1 𝑐1
0 𝑢22 … 𝑢2𝑖 ⋯ 𝑢2𝑚 𝑥2 𝑐2
⋮ ⋮ ⋮ ⋮ ⋯ ⋮ 𝑥3 ⋮
0 0 𝑢𝑘𝑖 ⋮
… 𝑢𝑘𝑚 ⋮ = 𝑐𝑘
0 0 …… 0 ⋯ 0 𝑥𝑖 ⋮
⋮ ⋮ … ⋮ … ⋮ ⋮ 𝑐𝑛−1
0 0 0 0 𝑥𝑚 𝑐𝑛

El numero de filas no nulas de la matriz escalonada obtenida 𝑈 indica el rango de la matriz.

El inconveniente que presenta el método de Gauss, es que los errores de redondeo pueden
multiplicarse si no se elige un pivote adecuado. La estrategia a seguir para evitar, dentro de lo
posible, estos errores, consiste en elegir como pivote el elemento de mayor valor absoluto en
la columna a eliminar. Esta variante, denominada método de eliminación de Gauss con
pivotación parcial, es la que esta implementada en Matlab
𝑥 + 2𝑦 − 𝑧 = −1
ቐ2𝑥 − 3𝑦 + 𝑧 = −6
𝑥 + 4𝑧 = 2
Dado el sistema 𝐴𝑥 = 𝑏, al reducir la matriz 𝐴 de tamaño 𝑛𝑥𝑚 a la forma escalonada por el método
de Gauss, si no es necesario el intercambio de filas, utilizando la representación matricial de las
operaciones elementales, obtendremos la factorización 𝐿𝑈 de la matriz 𝐴, donde 𝑳 es una matriz de
tamaño 𝑛𝑥𝑛 triangular inferior con unos en la diagonal y 𝑼 es una matriz de tamaño 𝑛𝑥𝑚 triangular
superior o escalonada. El primer elemento no nulo de cada fila de 𝑈 recibe el nombre de pivote de
la eliminación.

El conocimiento de la descomposición de una matriz 𝑨 en factores triangulares 𝑳𝑼 facilita la


resolución de posteriores sistemas de ecuaciones lineales con la misma matriz de coeficientes 𝐴 y
distintos términos independientes. Dado el sistema 𝑨𝒙 = 𝒄, en lugar de repetir el proceso de
eliminación sobre la matriz 𝐴 resolvemos dos sistemas triangulares

𝑳𝒚 = 𝒄, 𝑼𝒙 = 𝒚

8
𝑳𝒚 = 𝒄, 𝑼𝒙 = 𝒚

El primero de ellos mediante sustitución progresiva y el segundo mediante sustitución


regresiva o inversa. De esta manera, el ahorro, en el número de operaciones, es considerable. El
coste de resolución de estos sistemas triangulares es de orden 𝒏𝟐 operaciones, mientras que en la
eliminación sobre matriz completa el coste es de orden 𝒏𝟑 operaciones.
MATLAB proporciona la descomposición 𝐿𝑈 de una matriz, mediante la función 𝐿𝑢. Si la
eliminación tiene lugar sin intercambio de filas, utilizamos

donde 𝐿 es una matriz de tamaño


𝑛𝑥𝑛 triangular inferior con unos en
la diagonal y 𝑈 es una matriz de
tamaño 𝑛𝑥𝑚 triangular superior o
escalonada.
En el caso general, hay que efectuar una
permutación de filas de 𝐴 para poder factorizar.
La matriz de esta permutación se obtiene junto
con los factores 𝐿 y 𝑈 de:

≫ 𝐿, 𝑈, 𝑃 = 𝑙𝑢(𝐴)

Verificandose la relación 𝑷𝑨 = 𝑳𝑼. Las


operaciones elementales de la eliminación
pueden aplicarse simultáneamente a varios
términos independientes, con los que resolvemos
varios sistemas de una vez. Un caso particular
interesante es el calculo de la inversa de una
matriz 𝐴, que puede interpretarse como la
resolución de 𝑛 sistemas lineales de matriz 𝐴 y
términos independientes las columnas de la
matriz identidad de orden 𝑛
El método de Gauss-Jordan consiste en realizar la eliminación de Gauss sobre los elementos por
encima de la diagonal y escalando las filas de forma que el pivote sea la unidad, de forma que
obtendremos un sistema escalonado o diagonal de resolución inmediata.

Las aplicaciones más usuales del método de Gauss-Jordan son:

1.- Hallar la inversa de una matriz

𝐴 ∶ 𝐼 ⟶ 𝐼 ∶ 𝐴−1

2.- Resolución de varios sistemas en los que solo varían los términos independientes

La matriz ampliada contendrá además de la matriz del sistema, varias columnas, con los
términos independientes, que al realizar el método de Gauss-Jordan, se convertirán en las
soluciones del sistema
Aplica el método de Gauss con
pivotación parcial para resolver
el siguiente sistema lineal.

𝑥 + 2𝑦 − 𝑧 = −1
ቐ2𝑥 − 3𝑦 + 𝑧 = −6
𝑥 + 4𝑧 = 2
𝐸4 ∗ 𝐸3 ∗ 𝐸2 ∗ 𝐸1 ∗ 𝐴 = 𝑈
⇒ 𝐴 = 𝐸1−1 ∗ 𝐸2−1 ∗ 𝐸3−1 ∗ 𝐸4−1 ∗ 𝑈

⇒ 𝐴 = 𝐿𝑈
Matriz inversa de 𝐴
Se denomina matrices bandas a las matrices que tienen ceros en
todos sus elementos excepto los de la diagonal principal y algunas
diagonales adyacentes.


𝑢11 𝑢12 0 … 0 ⋯ 0
𝑢21 𝑢22 𝑢23 … 0 ⋮ 0
0 𝑢32 𝑢33 … ⋮ … ⋮

⋮ ⋮ ⋮ ⋮ ⋯ ⋮
0 0 …
… 0 ⋮ 0
⋮ ⋮ … ⋮ 𝑢𝑛−1,𝑛−1 𝑢𝑛−1,𝑛
0 0 0 𝑢𝑛,𝑛−1 𝑢𝑛𝑛

Si la matriz tiene nulos todos los elementos excepto los de la diagonal


principal, la diagonal adyacente ´por arriba (𝑑𝑖𝑎𝑔(𝐴, 1)), y la diagonal
adyacentes por abajo (𝑑𝑖𝑎𝑔(𝐴, −1)) se tiene una matriz triagonal
Si la matriz del sistema 𝐴𝑥 = 𝑏 es tridiagonal, almacenamos solamente los elementos de las tres
diagonales no nulas en sendos vectores, pues los ceros no intervienen en la eliminación.

Denotamos la diagonal principal por 𝑎 ∈ 𝑅𝑛 , la diagonal 1 por 𝑏 ∈ 𝑅𝑛−1 y la diagonal -1 por 𝑐 ∈ 𝑅𝑛−1

Podemos factorizar 𝐴 como producto de dos matrices triangulares, 𝑳 bidiagonal inferior con la
diagonal -1 igual a 𝑐 y 𝑼 bidiagonal superior con unos en la diagonal principal. Esta
factorización es la que se obtiene con el método de Gauss, escalando cada fila parar que el pivote
sea 1.
𝑎1 𝑏1 0 … 0 𝑙1 0 0 … 0 1 𝑢1 0 … 0
𝑐1 𝑎2 𝑏2 … 0 𝑐1 𝑙2 0 … 0 0 1 𝑢2 … 0
0 𝑐2 𝑎3 … 0 = 0 𝑐2 𝑙3 … 0 . 0 0 1 … 0
⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮
0 0 0 … 𝑎𝑛 0 0 0 … 𝑙𝑛 0 0 0 … 1

Al hacer 𝐴 = 𝐿𝑈 se obtiene las expresiones que nos dan los elementos de 𝐿 y 𝑈


Al hacer 𝐿𝑈 = 𝐴 se obtiene las expresiones que nos dan los elementos de 𝐿 y 𝑈

𝑙1 0 0 … 0 1 𝑢1 0 … 0 𝑎1 𝑏1 0 … 0
𝑐1 𝑙2 0 … 0 0 1 𝑢2 … 0 𝑐1 𝑎2 𝑏2 … 0
0 𝑐2 𝑙3 … 0 .0 0 1 … 0 = 0 𝑐2 𝑎3 … 0
⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮
0 0 0 … 𝑙𝑛 0 0 0 … 1 0 0 0 … 𝑎𝑛

𝑙1 = 𝑎1
𝑏𝑖
𝑢𝑖 = , para 𝑖 = 1, … . , n − 1
𝑙𝑖

𝑙𝑖 = 𝑎𝑖 − 𝑢𝑖−1 𝑐𝑖−1 , para 𝑖 = 2, … . , 𝑛

De esta forma, el sistema 𝐴𝑥 = 𝑧 se convierte en dos sistemas lineales bidiagonales 𝐿𝑦 = 𝑧 y 𝑈𝑥 = 𝑦.


El primero se resuelve por sustitución progresiva El segundo se resuelve por sustitución regresiva
𝑧1
𝑦1 = 𝑥𝑛 = 𝑦𝑛
𝑙1
1 𝑥𝑖 = 𝑦𝑖 − 𝑢𝑖 𝑥𝑖+1 , para 𝑖 = 𝑛 − 1, 𝑛 − 2, … . , 1
𝑦𝑖 = (𝑧𝑖 − 𝑐𝑖 𝑦𝑖 ), para 𝑖 = 2, … . , 𝑛
𝑙𝑖
Aplica el método de Crout para para resolver el siguiente sistema lineal.
4 1 0 0 0 0 𝑥1 6
1 5 1 0 0 0 𝑥2 7
0 1 6 1 0 0 𝑥3 8
𝑥4 =
0 0 1 7 1 0 9
0 0 0 1 8 1 𝑥5 10
0 0 0 0 1 9 𝑥6 11
function [x,l,u]=crout(a,b,c,z)
n=length(a);
l(1)=a(1);
y(1)=z(1)/l(1);
for i=2:n
u(i-1)=b(i-1)/l(i-1);
l(i)=a(i)-c(i-1)*u(i-1);
y(i)=(z(i)-c(i-1)+y(i-1))/l(i);
end
x(n)=y(n);
for i=n-1:-1:1
x(i)=y(i)-u(i)*x(i+1);
endfor
Los sistemas lineales que aparecen en las aplicaciones suelen tener matrices dispersas, es decir
matrices con relativamente pocos elementos no nulos. Estas matrices son además de gran
tamaño por lo que almacenarlas y tratarlas como matrices normales supone un despilfarro
innecesario. Matlab dispones de funciones especificas para estas matrices
Hay sistemas en los que un pequeño cambio en los coeficientes provocan un gran cambio en la
solución. Estos sistemas se llaman mal condicionados. Un sistema mal condicionado es muy
sensible a los errores de redondeo y su solución es poco fiable. Por el contrario, en un sistema bien
condicionado la solución es poco sensible a los errores de los datos.
Los comandos cond y rcond miden la sensibilidad al error, al invertir una matriz o resolver un
sistema con dicha matriz

>>cond

[1,∞ >

>>rcond

[0, 1]; si esta cerca a cero la matriz es mal condicionada, si esta próxima a 1 la matriz esta bien condicionada
𝑥1 +2𝑥2 = 10

1.1𝑥1 + 2𝑥2 = 10.4

𝑥1 +2𝑥2 = 10

𝟏. 𝟎𝟓𝑥1 + 2𝑥2 = 10.4

Cramer
2 10 − 2(10.4)
𝑥1 = =4
𝟏 𝟐 − 𝟐(𝟏. 𝟏)

Tales diferencias son altamente sensibles a pequeñas variaciones en los números empleados

8 + 2(1) = 10

1.1(8) + 2(1) = 10.8 ≈ 10.4 El sistema es mal condicionado
3𝑥1 +2𝑥2 = 18 Sistema bien condicionado

−𝑥1 + 2𝑥2 = 2

𝑥1 +2𝑥2 = 10

1.1 𝑥1 + 2𝑥2 = 10.4 Sistema mal condicionado

Una forma practica de evitar parcialmente esta dificultad es escalando las ecuaciones en
forma que el elemento máximo en cualquier fila sea igual a 1

También podría gustarte