Está en la página 1de 57

“AÑO DE LA UNIVERSALIZACIÓN DE LA

SALUD”

UNIVERSIDAD NACIONAL DE PIURA

DOCENTE:
Juan Panta Cobeñas.
INTEGRANTES:
✓ Aguilar Quispe Israel Silvestre.
✓ Antón Panta Cristopher.
✓ Cardoza Palomino Giulianna.
✓ Celi Silva Walter.
✓ Noe Espinoza Armando Rafael.
✓ Zapata Lachira Juan Alexis.
CURSO:
Métodos Numéricos.
FACULTAD:
Ciencias.

ESCUELA PROFESIONAL:
Ingeniería Electrónica y Telecomunicaciones.
TEMA:
Sistemas lineales.

2020
MÉTODOS DIRECTOS DE RESOLUCIÓN DE SISTEMAS
LINEALES

Investigaremos algunos métodos de resolución de sistema de ecuaciones lineales, centrado en


sistemas cuadrado, es decir posee igual número de ecuaciones que de incógnitas. Por lo tanto,
vamos a trabajar la resolución de sistemas de ecuaciones de la forma:

Donde 𝑎𝑖𝑗 y 𝑏 , para 1 ≤ i, j ≤ m, son números reales dados y siendo 𝑥𝑗 ∈ IR, 1 ≤ j ≤ m, son las m
incógnitas. Entonces el sistema (1.1) es por tanto un sistema lineal 𝑚 𝑥 𝑚, es decir, es un sistema
cuadrado. Los 𝑎𝑖𝑗 son los coeficientes del sistema (1.1).
La formulación del sistema (1.1) se puede reducir a una forma compacta. Utilizando la notación
vectorial, llamaremos en particular a los elementos de IR𝑛 como vectores columna, es decir, como
matrices 𝑚 𝑥 1.
De la forma:

Y sea A una matriz 𝑚 𝑥 𝑚 de término general 𝑎𝑖𝑗, es decir


A = (𝑎𝑖𝑗) 1 ≤ i, j ≤ m
De esta forma, el sistema lineal (1.1) se escribe:
𝑨𝒙 = 𝒃 (1.2)

Para encontrar la solución del sistema (1.2), utilizaremos los distintos métodos directos, que se
estudiarán en esta actividad de titulación.
Hay dos clases de métodos para la resolución de sistemas de ecuaciones lineales, son los métodos
directos y los métodos iterados.
Los métodos directos, permiten calcular la solución exacta del sistema de ecuaciones en un
número finito de pasos, si es que no fuera por los errores de redondeo.
Por el contrario, los métodos iterados que en general solo conducen a una solución aproximada.
En esta actividad de titulación, vamos a estudiar los métodos directos, que consisten en adaptar
el sistema (1.2) en otro equivalente siendo su resolución casi inmediata.
Esta adaptación se realiza mediante las llamadas operaciones elementales, cuya interpretación de
la matriz nos entregara una interesante factorización del sistema.
El objetivo es estudiar los métodos directos para resolver sistemas de ecuaciones lineales, sus
aplicaciones y encontrar los valores del vector x del sistema (1.2) mediante el método que sea
más eficiente para la matriz A, estos métodos se estudiarán y explicarán más adelante.
Métodos Directos
Los métodos directos, son utilizados para adaptar el sistema 𝑨𝒙 = 𝒃 en otro equivalente, siendo
su resolución casi inmediata. Esta adaptación se realiza mediante las llamadas operaciones
elementales, cuya interpretación de la matriz, nos entregara una interesante factorización del
sistema.
Método de eliminación de Gauss:
Es el método directo de resolución de sistemas de ecuaciones lineales más conocido. Que consiste
en transformar el sistema 𝐴𝑥 = 𝑏, mediante las operaciones elementales, en otro sistema
equivalente que será una matriz triangular superior, cuya resolución será de manera sencilla y se
obtiene mediante la llamada sustitución regresiva o inversa. Cabe recordar que al aplicar las
operaciones elementales la solución del sistema no varía.
Demostración:
Comenzamos con 𝐴 (1) = 𝐴 y 𝐵 (1) = 𝐵. El método lo podemos explicar cómo una sucesión de 𝑛
− 1 pasos que dan como resultado una sucesión de matrices y vectores, como se indica a
continuación:
𝐴 (1) ⇾ (2) ⇾ ⋯ ⇾ 𝐴(𝑛) , 𝐵 (1) ⇾ 𝐵(2) ⇾ ⋯ ⇾ 𝐵(𝑛) ,
De forma de que 𝐴 (𝑛) sea una matriz triangular superior. Así, para el primer paso supondremos
que 𝑎11 (1) = 𝑎11 ≠ 0. Entonces, podemos eliminar 𝑥1 de las 𝑛 − 1 últimas ecuaciones.
En efecto, tomamos 𝑙𝑖1 = 𝑎𝑖1 (1) 𝑎11 (1) ⁄ (para 𝑖 = 2, … , 𝑛) y luego sumamos −𝑙𝑖1 veces la
primera ecuación a la i-ésima, quedando de la siguiente manera:
𝑎𝑖𝑗 (2) = 𝑎𝑖𝑗 (1) − 𝑙𝑖1𝑎1𝑗 (1) , 𝑗 = 1, 2, … , 𝑛 ; 𝑏𝑖 (2) = 𝑏𝑖 (1) − 𝑙𝑖1𝑏1 (1) .
(Observemos que 𝑎𝑖𝑗 (1) designa los elementos de 𝐴 (1) y 𝑏𝑖 (1) son los componentes de 𝐵 (1)).
Si 𝑎22 (2) ≠ 0, podemos eliminar de manera similar 𝑥2 de las 𝑛 − 2 últimas ecuaciones y así
sucesivamente. En general, el paso de la k-ésima matriz a la (𝑘 + 1)-ésima viene dada por las
siguientes formulas:
Como hemos visto, si los elementos 𝑎𝑘𝑘 (𝑘) que van apareciendo en los sucesivos pasos (que
denominaremos pivotes) no son nulos, entonces podemos aplicar con éxito el algoritmo.
Después de sumar a n pasos, llegamos al sistema triangular superior 𝐴 (𝑛) = 𝑏𝑛 siguiente

Que podemos resolver llevando a cabo la sustitución regresiva, obteniendo:

El procedimiento fallaría si en el paso k-ésimo el pivote 𝑎𝑘𝑘 (𝑘) es cero, porque en ese caso, o
bien los multiplicadores 𝑙𝑖𝑘 = 𝑎𝑖𝑘 (𝑘) 𝑎𝑘𝑘 (𝑘) no están definidos (lo que ocurre si 𝑎𝑘𝑘 (𝑘) = 0
para algún k < n) o no podemos realizar la sustitución regresiva (si 𝑎𝑛𝑛 (𝑛) = 0).
Esto no significa que el sistema no tenga solución, sino más bien el método a utilizar debe
modificarse.
Ejercicio 1:
Resolveremos el siguiente sistema de ecuaciones lineales dado en su forma matricial por el
método de eliminación de Gauss, que es el siguiente:

Primero, formamos la matriz ampliada del sistema, quedando de la siguiente manera:


Luego, hay que obtener un uno principal en la esquina superior izquierda y ceros en los demás
elementos de la primera columna. Entonces aplicamos el intercambio de las dos primeras filas,
obteniendo:

A continuación, multiplicamos la primera fila por −2 y se la sumamos a la tercera fila,


obteniendo una nueva tercera fila.

Ahora, multiplicamos la primera fila por −1 y se la sumamos a la cuarta fila, obteniendo una
nueva cuarta fila.

Como ya tenemos la primera columna de la forma deseada, ahora haremos cero los elementos
que están debajo de la diagonal principal de la segunda columna, para ellos multiplicamos la
segunda fila por 6 y se la sumamos a la cuarta fila, obteniendo una nueva cuarta fila.

Para escribir de manera adecuada la tercera columna, basta con multiplicar por 1 3 la tercera
fila, obteniendo:
Y finalmente para escribir de manera adecuada la cuarta columna, basta con multiplicar por − 1
13 la cuarta fila, obteniendo:

Ahora que la matriz esta triangulada superiormente o también llamada de forma escalonada y
obteniendo el siguiente sistema de ecuaciones lineales que se aprecia a continuación:
𝑥1 + 2𝑥2 − 𝑥3 + 0𝑥4 = 2
𝑥2 + 𝑥3 − 2𝑥4 = −3
𝑥3 − 𝑥4 = −2
𝑥4 = 3
A través de la sustitución regresiva se puede determinar el valor de cada incógnita:
𝑥1 = −1, 𝑥2 = 2, 𝑥3 = 1, 𝑥4 = 3
Siendo el vector solución, el siguiente:

Pivoteo parcial:
Se toma como pivote el elemento de mayor módulo de entre los 𝑛 − 𝑘 últimos elementos de la
columna k-ésima, es decir, se elige 𝑎𝑖𝑘 (𝑘) (𝑖 = 𝑘, 𝑘 + 1, … , 𝑛) de forma que:

Finalmente, intercambiamos las filas i-ésima y k-ésima.


Ejercicio 2:
Los candidatos para hacer el papel de pivote en la siguiente matriz ampliada, son los elementos
que están marcados con negrita.

Hay que elegir el máximo valor entre sus valores absolutos:


|𝑎22| = 5, |𝑎32| = 4, |𝑎42| = 7.
Por lo tanto, el máximo es |𝑎42| = 7, es por esto que se usara como pivote el elemento 𝑎42. Esto
significa que debemos intercambiar la segunda fila por la cuarta fila, obteniendo
Y luego, se aplicarán las operaciones elementales para anular los elementos 𝑎32 𝑦 𝑎42.
Método de factorización LU:
En este método, las operaciones con la matriz A se realizan sin utilizar, o cambiar, el vector b,
que se utiliza solo en la parte de sustitución de la solución. En este caso, sea A una matriz
cuadrada de orden 𝑚 y supongamos que existen dos matrices convenientes L y U, triangular
inferior y triangular superior, respectivamente, siendo 𝑙𝑘𝑘 = 1, (𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑘), es decir que
todos los elementos de la diagonal principal de L son igual a uno, tal que 𝐴 = 𝐿𝑈. Si A es no
singular (es decir que su determinante es distinto de cero) entonces también lo serán L y U, por
lo tanto sus elementos diagonales son distintos de cero.
Para resolver el sistema 𝐴𝑥 = 𝑏, debemos buscar la solución de los dos sistemas triangulares los
cuales son: 𝐿𝑧 = 𝑏 𝑦 𝑈𝑥 = 𝑧. Que se puede resolver mediante los siguientes pasos:
1. En primer lugar resolvemos el sistema 𝐿𝑧 = 𝑏 para calcular el vector 𝑧, mediante una
sustitución progresiva, de la siguiente manera:

2. Finalmente resolvemos el sistema 𝑈𝑥 = 𝑧 para calcular el vector solución 𝑥, la cual se


obtendrá a través de una sustitución regresiva:

Ejercicio 3:
Resolveremos el siguiente sistema de ecuaciones lineales dado en su forma matricial por el
método de factorización LU.

Luego, utilizaremos 𝐴 = 𝐿𝑈, siendo L triangular superior y U triangular inferior, obteniendo:


Luego multiplicamos la matriz L por U, resultando:

Ahora igualamos con su coeficiente de posición quedando las siguientes soluciones:


𝑢11 = −2, 𝑢12 = −1, 𝑢13 = −2, 𝑙21 = −3, 𝑢22 = −1
𝑢23 = 2, 𝑙31 = 1, 𝑙32 = 2, 𝑢33 = 1
Entonces el sistema 𝐴 = 𝐿𝑈 queda de la siguiente forma

Primero resolveremos el sistema triangular 𝐿𝑧 = 𝑏:

Resolviendo las ecuaciones, obtenemos las soluciones de z:


𝑧1 = −1
−3𝑧1 + 𝑧2 = 8 → 𝑧2 = 5
𝑧1 + 2𝑧2 + 𝑧3 = 11 → 𝑧3 = 2
Por lo tanto, nos queda el vector z de la siguiente forma:

Ahora resolvemos el sistema 𝑈𝑥 = 𝑧, quedando de la siguiente manera:

Resolviendo las ecuaciones, obtenemos las soluciones de x:


𝑥3 = 2
−𝑥2 + 2𝑥3 = 5 → 𝑥2 = −1
−2𝑥1 − 𝑥2 − 2𝑥3 = −1 → 𝑥1 = −1
Y finalmente, obtenemos los valores de x:

Método de Factorización de Cholesky:


Sea A una matriz de orden 𝑚 × 𝑚 con pivotes no nulo, además si A es simétrica definida
positiva esta puede ser escrita como el producto de una matriz triangular superior L y una matriz
triangular inferior U siendo esta ultima la transpuesta de L. Cumpliendo que 𝐴 = 𝐿𝑈 = 𝐿𝐿𝑡 . Así
es como obtendremos sus elementos:

Así los valores 𝑙𝑘𝑘 quedan determinados, por lo tanto, los elementos de la matriz L se obtienen
mediante la siguiente forma. Para 𝑘 = 1, 2, … , 𝑛.

Nótese que estas igualdades se deducen de 𝐴 = 𝐿𝐿 , al escribirlas como un sistema de


ecuaciones.

Ejercicio 4:
Sea A una matriz de orden 4 × 4.

En primer lugar, calcularemos los elementos de L en el orden por columnas:


𝑙11 = √𝑎11 = √25 → 𝑙11 = 5
𝑙21 = 𝑎21 𝑙11 = 15 5 → 𝑙21 = 3
𝑙31 = 𝑎31 𝑙11 = −5 5 → 𝑙31 = −1
𝑙41 = 𝑎41 𝑙11 = −10 5 → 𝑙41 = −2
𝑙22 = √𝑎22 − 𝑙21 2 = √10 − 9 → 𝑙22 = 1
𝑙32 = 𝑎32−𝑙31𝑙21 𝑙22 = 1 −(−3) 1 → 𝑙32 = 4
𝑙42 = 𝑎42−𝑙41𝑙21 𝑙22 = −7 −(−6) 1 → 𝑙42 = −1
𝑙33 = √𝑎33 − 𝑙31 2 − 𝑙32 2 = √21 − 1 − 16 → 𝑙33 = 2
𝑙43 = 𝑎43−𝑙41𝑙31−𝑙42𝑙32 𝑙33 = 4 −2 −(−4) 2 → 𝑙43 = 3
𝑙44 = √𝑎44 − 𝑙41 2 − 𝑙42 2 − 𝑙43 2 = √18 − 4 − 1 − 9 → 𝑙44 = 2
Por lo tanto, la matriz L queda formada de la siguiente manera:

Y su transpuesta es:

Por lo tanto, 𝐴 = 𝐿𝑈 ⇾ 𝐴 = 𝐿𝐿𝑇 .

Lo que implica que para encontrar la solución del sistema se aplicara como factorización LU. Es
decir, que en primera ocasión se resuelve el sistema 𝐿𝑧 = 𝑏, para encontrar el vector z y después
se resuelve el sistema 𝐿 𝑇𝑥 = 𝑧, obteniendo el vector solución x del sistema.
Método de factorización de Doolittle:
Sea A una matriz cuadrada con pivotes no nulos, primero se encuentra la matriz triangular
superior U mediante la eliminación de Gauss y luego formamos la matriz triangular inferior L a
partir de las operaciones elementales realizadas para encontrar U pero con signos contrarios,
además sus elementos 𝑙𝑖𝑖 = 1 (para todo 𝑖), esto quiere decir que los elementos de la diagonal
principal de matriz L serán iguales a uno. Llegando a una factorización LU. 𝐴 = 𝐿𝑈.
Ejercicio 5:
Sea A una matriz cuadrada, por lo cual le aplicaremos el método de factorización de Doolittle.
Primero le aplicaremos operaciones elementales. Multiplicaremos la primera fila por (−2) y se
la sumaremos a la segunda, obteniendo una nueva segunda fila y además, multiplicaremos la
primera fila por (5) y se la sumaremos a la tercera fila, obteniendo una nueva tercera fila,
resultando:

Ahora, multiplicaremos la segunda fila por (−3) y se la sumaremos a la tercera, obteniendo una
nueva tercera fila:

Por lo tanto, la matriz U es la siguiente:

Y para finalizar la matriz L está definida por las operaciones que se realizaron, pero con signo
contrario y su diagonal principal está compuesta por puros uno.

Lo que implica que 𝐴 = 𝐿𝑈, queda definido de la siguiente manera:

Ya contando con la matriz L y U. finalmente, para encontrar la solución del sistema se aplicará
como factorización LU. Es decir, que en primera ocasión se resuelve el sistema 𝐿𝑧 = 𝑏, para
encontrar el vector z y después se resuelve 𝑈𝑥 = 𝑧 obteniendo el vector solución del sistema.
Dato importante de mencionar, que una matriz A tiene factorización de doolittle si y solo si se le
puede aplicar el método de eliminación de Gauss sin pivoteo.
Método de factorización de Crout
Este método es muy similar al método de Doolittle ya que se utiliza el mismo sistema de la
factorización directa LU para encontrar la solución.
𝐴𝑥 = 𝑏, → 𝐴 = 𝐿𝑈,
Siendo L una matriz inferior y U una matriz superior. Este método busca encontrar los
elementos de 𝐿𝑖𝑗 y 𝑈𝑖𝑗. El producto de estas dos matrices dará como resultado la matriz A,
obteniendo lo siguiente:

Podemos notar que para el método de Crout se tiene que 𝑈𝑖𝑖 = 1, esto quiere decir que los
elementos de la diagonal principal de matriz U serán iguales a uno. Teniendo como objetivo el
cálculo de la k-ésima columna de L y la fila k-ésima de U por medio de una multiplicación entre
matrices y un posterior despeje.
Finalmente, ya contando con la matriz L y U. finalmente, para encontrar la solución del sistema
se aplicara como factorización LU. Es decir, que en primera ocasión se resuelve el sistema 𝐿𝑧 =
𝑏, para encontrar el vector z y después se resuelve 𝑈𝑥 = 𝑧 obteniendo el vector solución del
sistema.
Ejercicio 6:
Resolveremos el siguiente sistema de ecuaciones lineales dado en su forma matricial mediante
el método de factorización Crout, que es el siguiente:

Luego, utilizamos la definición del método de Crout, quedando de la siguiente manera:

Ahora realizaremos la multiplicación de las matrices L por U, obteniendo:

Luego, reemplazamos la matriz A, obteniendo:

Ahora igualamos con su coeficiente de posición quedando las siguientes soluciones:


𝑙11 = 1, 𝑢12 = 4, 𝑢13 = −2, 𝑙21 = 3, 𝑙22 = −14

𝑢23 = − 11/14, 𝑙31 = 2, 𝑙32 = −5, 𝑙33 = 15/14.


Finalmente sustituimos los elementos 𝑙𝑖𝑗 𝑦 𝑢𝑖𝑗, obteniendo su descomposición LU

Primero resolveremos el sistema triangular 𝐿𝑧 = 𝑏:

Resolviendo las ecuaciones, obtenemos las soluciones de z:


𝑧1 = 3

3𝑧1 − 14𝑧2 = 14 → 𝑧2 = − 5/14

2𝑧1 − 5𝑧2 + 15/14 𝑧3 = 11 → 𝑧2 = 3

Por lo tanto, nos queda el vector z de la siguiente forma:

Ahora resolvemos el sistema 𝑈𝑥 = 𝑧, quedando de la siguiente manera:

Resolviendo las ecuaciones, obtenemos las soluciones de x:


𝑥3 = 3

𝑥2 – 11/14 𝑥3 = − 5/14 → 𝑥2 = 2

𝑥1 + 4𝑥2 − 2𝑥3 = 3 → 𝑥1 = 1

Así, finalmente encontramos el vector solución de sistema de ecuaciones, quedando de la


siguiente manera:
CÁLCULO DE INVERSA DE UNA MATRIZ

En matemáticas, en particular en álgebra lineal, una matriz cuadrada A de orden n se dice que es
invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden n, llamada
matriz inversa de A y representada como 𝐴−1 ,tal que: 𝐴 × 𝐴−1 = 𝐴−1 × 𝐴 = 𝐼𝑛 ,donde 𝐼𝑛 es la
matriz de identidad de orden n y el producto utilizado es el producto de matrices usual.

Una matriz cuadrada no invertible se dice que es singular o degenerada. Una matriz es singular si
y sólo si su determinante es nulo. La matriz singular A se caracteriza porque su multiplicación
por la matriz columna X es igual a cero para algún X no nulo.

La inversión de matrices es el proceso de encontrar la matriz inversa de una matriz dada.

Matriz de dos filas (matriz adjunta).

Dada una matriz de 2x2 con determinante no nulo:

Está definida siempre y cuando 𝑏𝑐 ≠ 0. Así por ejemplo la inversa de la matriz

Dada una matriz de 3x3 con determinante no nulo:


Propiedades de la matriz inversa

• La inversa de una matriz, es única.


• La inversa del producto de dos matrices es el producto de las inversas cambiando el orden:

• Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es


la transpuesta de su inversa, es decir:

• Y, evidentemente:

• Una matriz con coeficientes en los reales es invertible si y sólo si el determinante de A es


distinto de cero. Además, la inversa satisface la igualdad:

Donde |𝐴| es el determinante de A y adj (A) es la matriz de adjuntos de A, entendida


como a la matriz de cofactores traspuesta. (Ver la explicación de la diferente manera de
entender el término adjunto en el artículo matriz de adjuntos).
• El conjunto de matrices de 𝑛 × 𝑛 con componentes sobre el cuerpo 𝒌 que admiten inversa,
con el producto de matrices, tiene una estructura isomorfa al grupo lineal 𝐺𝐿(𝑛, 𝒌 ) de
orden n. En este grupo la operación de inversa es un automorfismo (. )−1 : 𝐺𝐿(𝑛, 𝒌 ) →
𝐺𝐿(𝑛, 𝒌 )
Demostración de la unicidad de la inversa
Supongamos que B y C son inversas de A

Multiplicando ambas relaciones por C

De modo que B=C y se prueba que la inversa es única.


Demostración del criterio de invertibilidad de las matrices cuadradas
Se probará la doble implicación.
Suficiencia
Suponiendo que existe B tal que AB=BA=I. Entonces al aplicar la función determinante
se obtiene det(AB)=det(BA)=I
usando la propiedad de(I)=1
det(A)det(B)=1
Por lo tanto, det(A) es distinto de cero
𝑑𝑒𝑡(𝐴) ≠ 0
Necesidad
Suponiendo que el determinante de A es distinto de cero, sea 𝑎𝑖𝑗 es el elemento ij de la
matriz A y sea 𝐴𝑖𝑗 la matriz A sin la fila i y la columna j (comúnmente conocida como j-
ésimo menos de A). Entonces

Esta afirmación es válida por propiedades de los determinantes, pues la parte izquierda
de la relación es el determinante de la matriz A con la columna j igual a la columna k y
los demás términos iguales a los de A. Entonces

Es decir que A tiene inversa izquierda

Entonces
luego, aplicando la transpuesta

Que es lo que se quería demostrar

Métodos de inversión de matrices


Inversión de matrices 2×2
Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de
la siguiente manera:

Esto es posible siempre y cuando ad - bc, el determinante de la matriz, no sea cero.


Ejemplo numérico:

Inversión de matrices de órdenes superiores


Para matrices de órdenes superiores puede utilizarse la siguiente fórmula:

Donde |𝐴| es el determinante de A y adj(A) es la matriz de adjuntos de A.


Cuando la matriz tiene más de tres filas, esta fórmula es muy ineficiente y conduce a
largos cálculos. Hay métodos alternativos para calcular la matriz inversa que son bastante
más eficientes.
➢ Ejercicio 1
Sea la ecuación matricial, se pide hallar la matriz x
2𝐴 = 𝐴𝑋 + 𝐵
Siendo:

1 0 −1 2
𝐴=[ ] 𝑦 𝐵=[ ]
−1 1 −3 1
Despejamos y queda:
𝐴𝑋 = 2𝐴 − 𝐵
Calculamos en maple:
➢ Ejercicio 2
Se tiene el siguiente sistema de ecuaciones, se pide hallar los valores de x y z:

𝑥 + 2𝑦 − 𝑧 = 1
{ −𝑥 + 𝑦 = 2
3𝑥 + 2𝑦 + 𝑧 = 3

1 2 −1 𝑥 1
[−1 1 0 ] [𝑦] = [2]
3 2 1 𝑧 3
𝐴𝑋 = 𝐵

𝐴−1 𝐴𝑋 = 𝐴−1 𝐵
𝐼𝑋 = 𝐴−1 𝐵

𝑋 = 𝐴−1 𝐵

Por lo tanto:

1 1 1 1
− −
𝑥 8 2 8 2
1 1 1 1 3
𝑥 = [𝑦] = [ 2] =
𝑧 8 2 8 3 2
5 1 3 3
− [
[ 8 2 8] 2 ]
entonces por últimos tenemos que
1 3 3
𝑥=− 𝑦= 𝑧=
2 2 2

➢ Ejercicio 3
Se tiene el siguiente sistema de ecuaciones:

2𝑥 − 2𝑦 + 𝑧 = 1
{ −𝑥 +𝑦+𝑧 =0
−𝑥 + 3𝑦 + 5𝑧 = −4

2 −2 1 𝑥 1
[−1 1 1] [𝑦] = [ 0 ]
−1 3 5 𝑧 −4

𝐴𝑋 = 𝐵
𝐴−1 𝐴𝑋 = 𝐴−1 𝐵

𝐼𝑋 = 𝐴−1 𝐵

𝑋 = 𝐴−1 𝐵
Por lo tanto:

1 13 1 7
− − −
𝑥 3 6 2 2
2 11 1 1 8
𝑥 = [𝑦] = − − [ 0 ]= −
𝑧 3 6 2 −4 3
1 2 1
[ 3 0] [ 3 ]
3

7 8 1
𝒙=− 𝑦=− 𝑧=
2 3 3
➢ Ejercicio 4
Se tiene una placa rectangular cuyas orillas se mantienen a cierta temperatura. Encuentra la temperatura
en los puntos inferiores. Suponga que la temperatura en un punto interior es igual al promedio de la
temperatura de los cuatro puntos que lo rodean.

100 + 50 + T2 + T3 100 + 50 + T1 + T4
T1 = T2 =
4 4
4T1 = 150 + T2 + T3 4T2 = 150 + T1 + T4
4T1 − T2 − T3 = 150 4T2 − T1 − T4 = 150

50 + 0 + T4 + T1 50 + 0 + T3 + T2
T3 = T4 =
4 4
4T3 = 50 + T4 + T1 4T4 = 50 + T3 + T2
4T3 − T4 − T1 = 50 4T4 − T3 − T2 = 50

4T1 − T2 − T3 + 0T4 = 150


−T1 + 4T2 + 0T3 − T4 = 150
{
−T1 + 0T2 + 4T3 − T4 = 50
0T1 − T2 + 4T4 − T3 = 50

4 −2 −1 0 T1 150
−1 4 0 −1 T2 150
[ ][ ] = [ ]
−1 0 4 −1 T3 50
0 −1 4 −1 T4 50
Entonces tenemos:

125 125 75 75
T1 = T2 = T3 = T4 =
2 2 2 2
➢ Ejercicio 5
Los lados de un triángulo miden 26, 28 y 34 cm
Con centro en cada vértice se dibujan tres de conferencias, tangente entre sí dos a dos.
Calcular las longitudes de los radios de las circunferencias.

De hacer un bosquejo de la figura, y usar una variable para cada radio de las 3 circunferencias, tenemos el
sistema

𝑥 + 𝑦 = 26 𝑥 + 𝑦 + 0𝑧 = 26
{ 𝑥 + 𝑧 = 34 → {𝑥 + 0𝑦 + 𝑧 = 34
𝑦 + 𝑧 = 28 0𝑥 + 𝑦 + 𝑧 = 28

1 1 0 𝑥 26
[1 0 1 ] [𝑦 ] = [34]
0 1 1 𝑧 28
𝑥 = 16 𝑦 = 10 = 18

➢ Ejercicio 6
Un cliente de un supermercado ha pagado un total de 156€ por 24L de leche, 6kg de jamón serrano y 12L
de aceite de oliva. Calcular el precio de cada artículo, sabiendo que 1L de aceite cuesta el triple que 1L de
leche y que 1kg de jamón cuesta igual que 4L de aceite más 4L de leche.

Declaramos las variables


Leche: x
Jamón: y
Aceite: z
Cada oración nos da una ecuación con lo que se forma el siguiente sistema de ecuaciones lineales

24𝑥 + 6𝑦 + 12𝑧 = 156 24x + 6y + 12z = 156


{ 𝑧 = 3𝑥 → { −3x + 0y + z = 0
𝑦 = 4𝑧 + 4𝑥 −4x + y − 4z = 0
Esto quiere decir que los precios son:

Leche 1 €

Jamón 16 €

Aceite 3 €

➢ Ejercicio 7
Tenemos que repartir S/280 entre tres hermanos. El mayor se lleva el triple que el segundo, y el segundo
se lleva el doble que el tercero ¿Cuánto se lleva cada hermano?

𝑥 + 𝑦 + 𝑧 = 280 x + y + z = 280
{ 𝑥 = 3𝑦 → {x − 3y + 0z = 0
𝑦 = 2𝑧 0x + y − 2z = 0
Primer hermano: x
Segundo hermano: y
Tercer hermano: z

El primero hermano se lleva S/186.6

El segundo hermano se lleva S/62.2

El tercer hermano se lleva S/31.1


FACTORIZACIÓN MATRICIAL TRIANGULAR

la factorización es una forma de factorización de una matriz como el producto de una matriz
triangular inferior y una superior. Debido a la inestabilidad de este método, deben tenerse en
cuenta algunos casos especiales, por ejemplo, si uno o varios elementos de la diagonal
principal de la matriz a factorizar es cero, es necesario pre multiplicar la matriz por una o varias
matrices elementales de permutación.
es una factorización que resume el proceso de eliminación gaussiana aplicado a la matriz y que
es conveniente en términos del número total de operaciones de punto flotante cuando se desea
calcular la inversa de una matriz o cuando se resolverá una serie de sistemas de ecuaciones con
una misma matriz de coeficientes. En la lectura, primeramente, consideraremos la factorización
LU sin intercambio basada en matrices elementales y que es conocida como de Doolittle y
posteriormente veremos el algoritmo que da la factorización PA = LU.
FACTORIZACIÓN MATRICIAL:

Dado un sistema de ecuaciones de la forma Ax=b, los métodos que se prestan en factorización
buscan descomponer la matriz A de n x n en el producto de dos matrices triangulares L= (lij)
triangular inferior y U= (uij) triangular superior, es decir que A = L.U

Luego cambiamos el sistema por L.U.X = b para así poder resolverlo el en dos fases:

Resolver el sistema L.Y = b, para hallar Y

Resolver el sistema U.X = Y, para hallar X

La matriz A se afectará dependiendo del método que utilicemos.

Al tener elementos muy pequeños en la diagonal pueden ocasionar elementos muy grandes en el
resultado, causando así el crecimiento de los errores por redondeo, ya que se pueden presentar
problemas por acumulación de errores cuando los elementos de los factores triangulares son muy
grandes. Una solución a esto es pivotear la matriz, intercambiando filas para lograr que los
elementos de la diagonal sean lo mayor posible en valor absoluto.

Si se hace pivoteo el determinante de la matriz se afecta cambiando de signo por cada pivoteo que
se haga, si el número de pivotes es par el determinante no cambia de signo, pero si el número de
pivotes es impar el determinante si cambia de signo.

Su objetivo es hallar los valores que corresponden a cada Lij y a cada Uij tal que el producto de
estas matrices sea igual a la matriz A. si planteamos el problema de esta manera, obtenemos tres
caminos o soluciones para expresar A = L.U dependiendo de los valores que asumamos como
punto de partida en la diagonal de las matrices L y U. Estas tres soluciones son:

Choleski:

Si U = L (t), tanto los valores de la diagonal de U son iguales a los valores de la diagonal de L, es
decir Lii = Uii por ende
A = L*L (t) Para hallar los valores de Lij , lo hacemos mediante la multiplicación de matrices y
se procede a seguir encontrando los demás valores de igual manera que en los métodos de Crout
y Doolittle, si observamos los valores de la primera columna de la diagonal de la matriz L ya se
conoce, por ende también conocemos los valores de la primera fila de L(t).

Convención:

U_ii = U sub ii, posiciones de la diagonal donde i va cambiando

i = 1, 2,3,..., n

L_ii = L sub ii, posiciones de la diagonal donde i va cambiando

i = 1, 2,3,..., n

L (t) = L transpuesta

U = matriz triangular superior

L = matriz triangular inferior

A = matriz del sistema lineal

Lij = L sub ij, donde i y j van cambiando según la posición de la matriz de filas y columnas

Crout:

Si U_ii = 1 Es decir que la diagonal principal de la matriz triangular superior U es igual a 1 en


todas sus posiciones. Para hallar los valores y completar las matrices observamos que la primera
columna de U ya se conoce, por lo tanto, se multiplican todas las filas de L por la primera columna
de U, e igualamos cada operación a cada elemento que corresponda a la posición de la matriz A.

Convención:

U_ii = U sub ii, posiciones de la diagonal donde i va cambiando

i = 1, 2,3,..., n

Doolittle:
Si L_ii = 1 Es decir que la diagonal principal de la matriz triangular inferior L es igual a 1 en
todas sus posiciones. Para hallar los valores y completar las matrices observamos que la primera
columna de L ya se conoce, por lo tanto, se multiplican todas las columnas de L por

La primera fila de U, e igualamos cada operación a cada elemento que corresponda a la posición
de la matriz A.

Convención:

L_ii = L sub ii, posiciones de la diagonal donde i va cambiando


i = 1, 2,3,..., n

A=LU

Donde L es una matriz triangular inferior m × m y U es una matriz escalonada m × n. Entonces


para resolver el sistema:

A x = b,

Escribimos:

A x = (L U) x = L (U x).

Una posible estrategia de solución consiste en tomar y = U x y:

Resolver para y:

L y = b.

Como la matriz L es triangular superior este sistema puede resolverse mediante sustitución hacia
abajo, lo cual se hace fácilmente en m2 FLOPS. Una vez con los valores encontrados de y, las
incógnitas al sistema inicial se resuelven despejando x de

U x = y.

Nuevamente, como U es escalonada, este sistema puede resolverse en caso de tener solución
mediante sustitución hacia atrás, lo cual es sencillo. Estas observaciones nos dan la pauta para ver
la conveniencia de una factorización como la anterior, es decir factorizar A como el producto de
una matriz L triangular superior, por otra U la cual es escalonada. Esta factorización se llama
usualmente Descomposición LU.

Ejemplo 26.1

Use la factorización LU de A:

4 −2 1 1 0 0 4 −2 1
𝐴 = [ 20 −7 12] = [ 5 1 0] [0 3 7 ] = 𝐿𝑈
−8 13 17 −2 3 1 0 0 −2

para despejar x del sistema:

11
𝐴𝑥 = [70] = 𝑏
17

Solución Sea y = (y1, y2, y3) un nuevo vector de incógnitas. Primero resolveremos el sistema
triangular inferior L y = b:
1 0 0 11
[5 1 0] 𝑌 = [70]
−2 3 1 17

Ahora el sistema U x = y:

4 −2 1 11
[0 3 7 ] = [ 15 ]
0 0 −2 −6

Obtención de la factorización LU con elementales:

EJEMPLO:

Determine la factorización LU de la matriz:

Solución La idea del método es ir acumulando las inversas de las operaciones hechas sobre los
renglones la matriz para irla trasformando en una matriz escalonada. Y más que propiamente las
inversas de las operaciones sobre los renglones, las matrices elementales involucradas. Así por
ejemplo el primer cálculo que se realiza es hacer un cero debajo del elemento (1, 1) que es el
elemento 2, para ello debemos realizar la operación𝑅2 ← 𝑅2 ← 3𝑅1, esta operación tiene como
matriz elemental la matriz

Así la situación será:

En el siguiente paso del proceso de eliminación es 𝑅3 ← 𝑅3 ← 2𝑅1, esta operación tiene


como matriz elemental la matriz.

Así la situación está:


En el siguiente paso del proceso de eliminación es 𝑅4 ← 𝑅4 ← 𝑅1, esta operación tiene
como matriz elemental la matriz:

Así la situación está:

Observamos que el hipotético caso de que en:


𝐸3 𝐸2 𝐸1 𝐴 = 𝐵3

La matriz B3 ya fuera escalonada, es decir la U buscada, entonces:


A = 𝐸1−1 𝐸2−1 𝐸3−1 𝑈

Lo cual indica que lo que debemos acumular son las inversas de las matrices elementales
utilizadas. La forma sistemática de ir acumulando de las inversas de las 𝐸𝑖8 es ir
construyendo la matriz L:

Así, en el avance de la conversación a escalonada de A:

En este caso de la matriz U está en la forma escalonada y por consiguiente el proceso se detiene
haciendo cero aquellos valores desconocidos. Por consiguiente una factorización de A será:
SUMA DE MATRICES
Sean A = (aij ) y B = (bij ) dos matrices de m x n. Entonces la suma de A y B es la matriz de m x
n, A + B dada por:

Es decir, A + B es la matriz m x n que se obtiene al sumar los componentes de A y B.


Multiplicación de una matriz por un escalar Si A = (aij ) es una matriz de mxn y si α es un escalar,
entonces la matriz m x n, αA, está dada por:

Teorema: Sean A, B, C tres matrices de m x n y sen α y β dos escalares, Entonces:

1. A + 0 = A ,0 ∈ Mmxn(R)
2. 0A = 0 ,0 ∈ R
3. A+B=B+A
4. (A + B) + C = A + (B + C)
5. α(A + B) = αA + αB
6. 1A = A
7. (α + β)A = αA + βA
Estas propiedades hacen que el conjunto de las matrices M n x n (R) formen un espacio vectorial
real.

PRODUCTO DE DOS MATRICES:


Sea A = (aij) una matriz de m x n, y sea B = (bij) una matriz n x p. Entonces el producto de A y
B es una matriz de m x p, C = (cij), en donde:
cij = (f ila i de A) · (columna j de B)
Es decir, el elemento ij de AB es el producto punto entre la la i de A y la columna j de B. Si esto
existe, se obtiene
Si el número de columnas de A es igual al número de las de B, entonces se dice que A y B son
compatibles bajo la multiplicación.
Nota: Dos matrices se pueden multiplicar sólo si el número de columnas de la primera matriz es
igual al número de las de la segunda.

MATRIZ IDENTIDAD:
La matriz identidad In de n x n es una matriz de n x n cuyos elementos de la diagonal principal
son iguales a 1 y todos los demás son 0. Esto es,

TEOREMA: Sea A una matriz cuadrada de n x n. Entonces


AIn = InA
Es decir, In conmuta con toda matriz de n x n y la deja sin cambio después de la multiplicación
por la derecha o por la izquierda pues lm es el neutro o unidad.

FACTORIZACIÓN O DESCOMPOSICIÓN LU:


La factorización o descomposición LU, está directamente relacionada con las operaciones
elementales aplicadas a una matriz para llevarla a una forma triangular superior. En términos
generales, supongamos que se conoce como factorizar una matriz A, n x n en la forma
A = LU
Donde L es una matriz triangular inferior n x n y U es una matriz escalonada n x n. Entonces el
sistema
Ax = b
Puede resolverse utilizando A = LU. El sistema Ax = b se puede escribir en la forma:
L(Ux) = b
Donde podemos introducir una nueva variable y = Ux obteniendo así el nuevo sistema:
Ly = b
Podemos resolver dicho sistema para la variable y, mediante sustitución hacia adelante.
Finalmente, usamos sustitución hacia atrás para resolver el sistema:
Ux = y

Estos sistemas no tienen mayor dificultad de resolverse, pues se trata de matrices de coeficientes
triangulares inferiores y superiores respectivamente. La factorización LU es útil cuando se
requiere resolver de manera simultánea varios sistemas de ecuaciones que dieren en la parte no
homogénea.

EJERCICIO DE FACTORIZACION CON MATLAB:


% FACTORIZACION lU CHOLESKY
clc %permite borrar el area de trabajo
clear %permite borrar las variables almacenadas
format long % permite utilizar la maxima capacidad de la maquina
fprintf(' FACTORIZACION LU CHOLESKY\n\n\n');
%fprintf me permite ingresar comentarios de manera textual que pueden
%orientar al usuario en el uso del programa
%input es un comando de solicitud de entrada de datos del usuario.
A=input('Ingrese la matriz A = \n');
b=input('\nIngrese el vector b, correspondite a los terminos independientes b=\n');
% Las matrices A y b deben ser ingresadas entre corchetes separando las
%columnas mediante coma ',' y las filas mediante punto y coma ';'.
[n,m]=size(A);
C=[A,b];
% la matriz C, representa la forma de la matriz aumentada [Ab]
disp(C)
if n==m
for k=1:n
%La instrucción iterativa for permite repetir estamentos a un
%numero específico de veces
suma1=0;
for p=1:k-1
suma1=suma1+L(k,p)*u(p,k);
end
L(k,k)=sqrt(A(k,k)-suma1);
u(k,k)=L(k,k); %princio del metodo
for i=k+1:n
suma2=0;
for q=1:k-1
suma2=suma2+L(i,q)*u(q,k);
end
L(i,k)=(A(i,k)-suma2)/L(k,k); %obtencion de la matriz L
end
for j=k+1:n
suma3=0;
for r=1:k-1
suma3=suma3+L(k,r)*u(r,j);
end
u(k,j)=(A(k,j)-suma3)/L(k,k); %obtencion de la matriz U
end
end
producto=det(L)*det(u) %calculo del determinante
if producto~=0
for i=1:n
suma=0;
for p=1:i-1
suma=suma+L(i,p)*z(p);
end
z(i)=(b(i)-suma)/L(i,i); %obtencion del vector Z
end
for i=n:-1:1
suma=0;
for p=i+1:n
suma = suma+u(i,p)*x(p);
end
x(i)=(z(i)-suma)/u(i,i); % solcion, calculos de las variables
end
else
fprintf('\nEl determinante es igual a cero, por lo tanto el sistema tiene infinita o ninguna
solucion\n')
end
end
fprintf('\n Matriz Ab:\n')
disp(C)
fprintf('\n Matriz L:\n')
disp(L)
fprintf('\n Matriz U:\n')
disp(u)
fprintf('\n El vector Z:\n')
disp(z)
fprintf('\n\nLa solucion de X1 hasta Xn es:\n');
%a continuacion de utiliza una instruccion for, para mostrar el usuario,
%los resultados de una manera mas ordenada
for i=1:n
xi=x(1,i);
fprintf('\nX%g=',i)
disp(xi);
end

EJERCICIOS:
ESTRATEGIAS DE PIVOTEO

Objetivos. Resolver sistemas de ecuaciones lineales aplicando varias técnicas de pivoteo;

programar estos algoritmos.

Requisitos. Operaciones elementales, experiencia de resolver sistemas de ecuaciones lineales,


programación de la eliminación de Gauss con pivotes diagonales.

Motivación: la eliminación de Gauss puede no funcionar

Para motivar el estudio de varias técnicas de pivoteo consideremos dos ejemplos cuando

la eliminación con pivotes diagonales no procede. Luego veremos un ejemplo cuando la

eliminación con pivotes diagonales funciona mal por cuestiones de redondeo.

1. Ejemplo cuando la eliminación con pivotes diagonales no procede. Consideremos al sistema


de ecuaciones lineales dado por la siguiente matriz aumentada:

Apliquemos el primer paso de la eliminación de Gauss utilizando la entrada (1, 1) como

pivote:

En el segundo paso ya no podemos utilizar como pivote la entrada diagonal (2, 2) porque

esta entrada es nula.

Varias técnicas de pivoteo

Vamos a ilustrar varias t´ecnicas con el mismo ejemplo. Está dada una matriz aumentada A
después del primer paso de la eliminación de Gauss. Estamos empezando el segundo paso (p =
2).
En general, denotamos por m al número de los renglones de la matriz y por n al número

de las columnas. En el ejemplo m = 5 y n = 6.

2. Eliminación gaussiana sin pivoteo (con pivotes diagonales). En cada paso p se

usa como pivote la entrada diagonal En el ejemplo p = 2 y el pivote será A2,2 .

3. Pivoteo parcial. En cada paso p se elige en calidad de pivote la entrada con índices (ip , p) tal
que

es decir, la mayor entrada (en el sentido absoluto) de la p-ésima columna empezando con

(p, p) hasta (m, p). En el ejemplo, los candidatos para hacer el papel de pivote están

marcados con verde:

Hay que elegir el máximo entre sus valores absolutos:

El máximo es |A4,2 | = 7, por eso la entrada A4,2 se usará como pivote. Esto significa que

se aplicará el intercambio de renglones R2 ↔ R4 con el cual la entrada −7 ocupará el lugar

(2, 2), y luego se aplicarán operaciones elementales para eliminar las entradas (3, 2), (4, 2)

y (5, 2).

4. Pivoteo parcial escalado. Supongamos que estamos en paso número p. En cada

renglón i, con p ≤ i ≤ m, calculamos el valor máximo absoluto en la parte principal de

la matriz:
Supongamos que si > 0 para todo i ∈ {k, . . . , m}. Elijamos el menor entero q con

|Ai,p |
En otras palabras, sea q el menor de los índices i en los cuales la expresión Si
alcanza

su máximo. Si q 6= p, entonces se intercambian los renglones con índices p y q.

En el ejemplo de arriba tenemos

Ahora hay que comparar los cocientes

El máximo se alcanza en i = 3 y en i = 4, por eso se elige como pivote la entrada A3,2 = 6.

Esto significa que se hace el intercambio de renglones R2 ↔ R3 y luego se eliminan las

entradas por abajo de (2, 2).

Pivoteo completo

Pivoteo completo. En el k-ésimo paso se buscan los índices p, q ∈ {k, . . . , m} tales que

En otras palabras, se busca el máximo entre los números |Ai,j | con p ≤ i ≤ m y p ≤ j ≤ m.

En el ejemplo de arriba, se busca el máximo entre los valores absolutos de todas las

entradas marcadas con verde:


En este ejemplo p = 2 y (r, s) = (2, 5), porque el máximo es |A2,5 | = 8.

Si (r, s) 6= (p, p), entonces se intercambian los renglones y las columnas de tal manera

que la entrada Ar,s se pone en la posición (p, p). En el programa, en vez de intercambiar

las columnas de manera explícita se usa un vector auxiliar que guarda la permutación de

las columnas.

Ejercicios numéricos

Obtenga los intercambios de filas que se requieren en el primer paso del método de

Gauss con el pivoteo parcial y con el pivoteo parcial escalado:

Ejemplo. Resolver el sistema de ecuaciones lineales usando pivotes diagonales y haciendo los
cálculos en la aritmética con redondeo al más cercano con 3 dígitos (en otras

palabras, con 2 dígitos después del punto flotante). Luego resolver el mismo sistema usando el
pivoteo parcial.

Ejemplo cuando la eliminación con pivotes diagonales lleva a errores de

redondeos muy grandes. Resolver el sistema usando cálculos con 3 dígitos con redondeo

al más cercano:
Ejemplo cuando la eliminación gaussiana con pivoteo parcial funciona mal.
Sugerencias para programar los algoritmos

Algoritmo Reduce2 (con pivoteo parcial).

Algoritmo para buscar el ´índice de la máxima entrada.


METODOS ITERATIVOS PARA SISTEMAS LINEALES

Método de JACOBI:

Es un método iterativo, usado para resolver sistemas de ecuaciones lineales del tipo. El
algoritmo toma su nombre del matemático alemán Carl Gustav Jakob Jacobi. El método
de Jacobi consiste en usar fórmulas como iteración de punto fijo.

Un método iterativo con el cual se resuelve el sistema lineal A x = b comienza con una
aproximación inicial x (0) a la solución x y genera una sucesión de vectores x (k) que
converge a x. Los métodos iterativos traen consigo un proceso que convierte el sistema
A x = b en otro equivalente de la forma x = T x + c para alguna matriz fija T y un vector
c.

Luego de seleccionar el vector inicial x (0) la sucesión de los vectores de la solución


aproximada se genera calculando:
X (k) = Tx(k-1) + c
Para cada k = 1, 2,3,....

El método se escribe en la forma x (k) = T x (k-1) + c separando A en sus partes diagonal


D y fuera de la diagonal. Sea D la matriz diagonal cuya diagonal es la misma que A, sea
-L la parte estrictamente triangular inferior de la parte A y sea -U la parte estrictamente
triangular superior de A.
Método de Gauss-Seidel:

El Método de Gauss-Seidel consiste en hacer iteraciones, a partir de un vector inicial,


para encontrar los valores de las incógnitas hasta llegar a una tolerancia deseada, la
diferencia radica en que cada vez que se desee encontrar un nuevo valor de una xi, además
de usar los valores anteriores de las x, también utiliza valores actuales de
las x encontradas antes (desde x0 hasta xi-1). La ecuación es la siguiente:

El método de Gauss-Seidel surgió como una modificación del método de Jacobi que
acelera la convergencia de éste.

El método de Gauss-Seidel recorta sustancialmente el número de iteraciones a realizar


para obtener una cierta precisión en la solución. Evidentemente los criterios de
convergencia son similares a los de Jacobi.
MÉTODO DE POTENCIA

Tenemos un algoritmo para calcular una factorización de Schur de la matriz A de n × n, y sería


un algoritmo finito excepto por una cosa: para ejecutar el algoritmo, necesitamos un método para
encontrar un vector propio de una matriz cuadrada arbitraria.

No existe un algoritmo finito para esto, sin embargo, existe un método poderoso, conocido como
método de potencia. Para ver cómo funciona, considere primero un ejemplo simple.

1
Las filas de esta matriz suman cada una a 6, por lo que (1) es un vector propio con valor propio
1
6. Este resuelve nuestro problema para esta matriz de manera muy conveniente, pero echemos un
vistazo más de cerca. El polinomio característico de esta matriz es 𝑡 3 − 6𝑡 2 − 4𝑡 + 24. Sabiendo
que 6 es un vector propio, puedes factorizar fácilmente el polinomio característico para encontrar
t3 − 6t2 − 4t + 24 = (t − 6)(t − 2)(t + 2) .

Por tanto, los valores propios son 6, 2 y -2.


Hay otra forma de encontrar el primer vector propio y el valor propio: tomar sucesivos
potencias de A. Calculamos:

16 6 14
𝐴2 ≔ [12 10 14 ]
12 6 18

Cuadrando esto encontramos

496 240 560


𝐴4 ≔ [480 256 560 ]
480 240 576

Cuadrando esto encontramos

630016 314880 734720


𝐴8 ≔ [ 29760 315136 734720 ]
629760 314880 734976
Cuadrando esto encontramos

Ahora observe algo interesante: cada una de las columnas de A16 está muy cerca de ser un
1
múltiplo del vector propio [1]. La diferencia entre las entradas en cada columna está en el
1
duodécimo dígito.

Escribimos A en términos de sus vectores de columna:

A = [v1,v2,v3] .

Dado que A tiene tres valores propios distintos, es diagonalizable. Sea {u1,u2,u3} una base de R3
tal que
Au1 = 6u1 Au2 = 2u2 Au3 = −2u3 .

Ahora, cualquier vector en R3 puede expandirse como una combinación lineal de estos vectores
básicos. En particular, hay números a1, a2 y a3 para que

v1 = a1 u1 + a2 u2+ a3 u3

Entonces desde

𝐴−16 = 𝐴15 𝐴 = 𝐴15 [𝒗1 , 𝒗2 , 𝒗3 ] = [𝐴15 𝒗1 , 𝐴15 𝒗2 , 𝐴15 𝒗3 ]

La primera columna de A16 es

𝐴15 𝒗1 = 𝑎1 𝐴15 𝑢1 + 𝑎2 𝐴15 𝑢2 + 𝑎3 𝐴15 𝑢3

𝐴15 𝑢1 = 615 𝑢1 𝐴15 𝑢2 = 215 𝑢2 𝑦 𝐴15 𝑢3 = −215 𝑢3

Por lo tanto la primera columna A16 es

.
Ahora, 3−15 ≈ 7 × 10−8. Por lo tanto, a menos que a2 o a3 sea por alguna razón muy grande,
tendremos, con muy buena precisión, que la primera columna de A16 está dada por:

𝑎1 615 𝑢1

Que es un múltiplo de u1. Este es el vector propio de A con el valor propio más grande - 6 en
este caso.
Puede ver en este análisis que vamos a poder utilizar este tipo de cálculo para encontrar valores
propios de muchas otras matrices. De hecho, suponga que A es una matriz de 3 × 3, y hay una
base {u1,u2,u3} de R3 con
Au1 = µ1u1 Au2 = µ2u2 y Au3 = µ3u3
Cuando
|µ1| > |µ2| > |µ3|

Esta no es una mala restricción, pero necesitaremos algunos trucos para sortearla cuando nos
encontremos con tales matrices. Cruzaremos ese puente cuando lleguemos a él. Por ahora,
suponga Au1 = µ1u1 Au2 = µ2u2 y Au3 = µ3u3. Entonces, con A = [v1,v2,v3] y v1 = a1u1 + a2u2
+ a3u3 como antes, encontramos que la primera columna de AN+1 es

𝑢2 𝑢3
| |<1 𝑦 | |<1
𝑢1 𝑢1

𝑢2 𝑢3
lim | |=0 𝑦 lim | |=0
𝑁→∞ 𝑢1 𝑁→∞ 𝑢1

Entonces, para un valor suficientemente grande de N, tendremos

Siempre que a1 ≠0, la primera columna de AN+1 será un múltiplo de u1. En este caso, la primera
columna es desde el principio un múltiplo de u1que es un vector propio. No importa qué,
obtenemos un vector propio, el que tiene el valor propio más grande cuyo vector propio aparece
cuando expandimos v1 en nuestra base de vectores propios.
Ejercicio 02:

No hay valores propios obvios

µ1 ≈ 6 µ3 ≈ 2 y µ3 ≈ −2

Calculamos

16 8 14
𝐴2 = [15 15 15]
12 6 18
Encontramos
544 332 596
𝐴4 = [645 435 705]
498 294 582

Sea u la primera columna después de normalizarla para obtener un vector unitario.

u
Ahora, si fuera el caso de que Au = µ1u, podríamos tomar el producto escalar de ambos lados
con u para obtener
u · Au = µ1u · u = µ1

Ya que u es un vector unitario.


Calculando hallamos:

u · Au =
6.2260902209 .

Para 6 dígitos de precisión, esto es cero, y u es un vector propio aproximado.


Si quisiéramos una mejor aproximación, podríamos continuar y tomar más.
Sea M la matriz de reflexión del jefe de hogar tal que 𝑀𝑢 = 𝑒1 . Si u fuera el vector propio
exacto de A correspondiente a µ1, tendríamos:

Si hacemos el cálculo usando la matriz M se basa en nuestro vector propio aproximado u,


encontramos

Aunque usamos un autovector aproximado, y por lo tanto solo simplificamos parcialmente


nuestra matriz A, no hemos cambiado los autovalores en absoluto, aparte del error de redondeo.
Ahora es fácil encontrar un vector propio del bloque 2 × 2 en la parte inferior derecha de
MAM y completar la factorización de Schur aproximada. Sea M2 la correspondiente matriz
ortogonal 3x, de modo que M1(MAM)M2 sea nuestra matriz triangular aproximadamente superior
en nuestra factorización de Schur aproximada. El resultado es la matriz T = M1(MAM)M2 donde:

Las entradas de la parte inferior izquierda son todas muy pequeñas. Si fueran exactamente cero,
los valores propios de A serían las entradas diagonales

6.2260902187 2.6158934454 − 1.8419836653


Las entradas de la parte inferior izquierda no son exactamente cero, por lo que solo serán
aproximadas. Sin embargo, aparte de los errores causados por el redondeo en los cálculos de
punto flotante, la matriz es exactamente similar a A, y tiene los mismos valores propios de A.
Este problema se puede resolver de la misma manera que tratamos con matrices casi diagonales,
usando el teorema del disco de Gershgorin y un truco adicional.
Sin embargo, hay algo aún más simple y práctico de observar. Dado que T = M1(MAM)M2,

A = (MM1)T(M1M) = (MM1)T(MM1)−1

Sea 𝑇̃ la matriz triangular estrictamente superior obtenida de T estableciendo las entradas


triangulares inferiores en cero:

Definimos 𝐴̃:

𝐴̃ = (𝑀𝑀1 )𝑇̃(𝑀𝑀1 )−1

Dado que 𝑇̃ es exactamente triangular superior, por similitud, los valores propios de 𝐴̃ son
exactamente

6.2260902187 2.6158934454 − 1.8419836653 .

Por otra parte:

𝐴 − 𝐴̃ = (𝑀𝑀1 )(𝑇 − 𝑇̃)(𝑀𝑀1 )−1

Como MM1 es ortogonal, entonces kMM1k = k(MM1)−1k = 1 ,

𝐾𝐴 − 𝐴̃𝐾 = 𝐾𝑇 − 𝑇̃𝐾
Pero tenemos de nuestra estimación estándar sobre la norma de una matriz que

En el caso que nos ocupa, ciertamente tenemos

kA −𝐴̃k ≤ 10−6

Por lo tanto, no hemos encontrado los autovalores exactos de A, sino los autovalores
exactos de una matriz A que satisface. Dado que, en muchas aplicaciones, las entradas de A no
se conocen con precisión de todos modos, a menudo es tan bueno haber diagonalizado la matriz
cercana 𝐴̃ de todos modos.

EJERCICIO 03:

Google emplea para calcular el PageRank de los documentos en su motor de búsqueda el método de
potencia, ahora necesita saber con exactitud cuántas iteraciones el motor de búsqueda debe
hacer para hallar un documento de valor λ = 4.5
Teniendo:
1 1 2
𝐴 = (2 1 1)
1 1 3
Asumiendo que la segunda componente de x es igual a la unidad.
Tomamos como estimador inicial:
0
𝑥 (0) = (1)
0
Y aplicamos el esquema iterativo 𝑥 (𝑘+1) = 𝐴𝑥 (𝑘) 𝑐𝑜𝑛 𝑘 ≥ 0 manteniendo la notación del 𝑥 (𝑘)
antes y después del escalado de su segunda componente.
Dispongamos las sucesivas iteraciones en la tabla siguiente

𝑥 (0) 𝑥 (1) 𝑥 (2) 𝑥 (3) 𝑥 (4) 𝑥 (5)


0 1 4 1.00 4.50 0.9444 4.6503 1.0963 4.9268 1.0692
1 1 4 1.00 4.25 1.0000 4.2418 1.0000 4.6079 1.0000
0 1 5 1.25 5.75 1.3529 6.0033 1.4153 6.3421 1.3547
λ 4 4.25 4.2418 4.6079

𝑥 (6) 𝑥 (7) 𝑥 (8) 𝑥 (9) 𝑥 (10) ≈x


4.7785 1.0635 4.7936 1.0671 4.8091 1.0675 4.8110 1.0675 4.8113 1.0675
4.4931 1.0000 4.4921 1.0000 4.5052 1.0000 4.5067 1.0000 4.5070 1.0000
6.1332 1.3650 6.1586 1.3710 6.1801 1.3718 6.1828 1.3719 6.1833 1.3719
λ 4.492 4.492 4.505 4.506 4.507
1 1 2 7 0
1.0675
El resultado es, λ = 4,5070 y 𝑥 = (1.0000).
1.3719

También podría gustarte