Está en la página 1de 16

1.

Introducción
2. Planteamiento del Problema
3. Métodos Directos
3.1 Eliminación de Gauss
3.2 factorización triangular
3.3 factorización plu

3. Solución numérica de sistemas de ecuaciones lineales.


1. INTRODUCCIÓN

La resolución de sistemas de ecuaciones lineales aparece como una parte importante en


cualquier campo de la ciencia y de la ingeniería, como por ejemplo, la resolución de balances de
materia en un sistema.

La resolución de un sistema de ecuaciones lineales aparece también como un subproblema de


un problema más complicado de análisis numérico, tal como ocurre por ejemplo cuando se
resuelve iterativamente un sistema de ecuaciones no lineales por el método Newton-Raphson,
por ejemplo, donde en cada etapa de un proceso iterativo se requiere la resolución de un
sistema de ecuaciones lineales, o en procesos de optimización tanto lineales como no lineales.

Con frecuencia los sistemas de ecuaciones presentan una estructura muy especial que puede
ser objeto de tratamiento particular. Por ejemplo los problemas de interpolación polinómica,
etc...

La resolución de un sistema de ecuaciones lineales no tiene ninguna dificultad conceptual;


llevarlo a la práctica sí. Esto es debido a que los sistemas a resolver son frecuentemente de un
tamaño considerable y, esencialmente al hecho de que en el entorno físico en que se resuelven,
la aritmética opera con precisión finita, lo que introduce errores de redondeo en todas las
operaciones efectuadas, amén de que cualquier singularidad puede acarrear, si no se prevé,
consecuencias no deseadas.

A continuación vamos a estudiar algunos métodos, directos o por recursión, para dar solución
numérica a sistemas de ecuaciones lineales. Existen otros algoritmos especiales como es el
caso de las matrices dispersas o algunos otros tipos especiales de matrices que no se
estudiarán aquí, pero que es conveniente conocer dada su importancia.

2. PLANTEAMIENTO DEL PROBLEMA

El problema que se plantea es la solución de sistemas de ecuaciones lineales.


Lo que significa determinar el valor de las variables x1,....xn, que hacen que se cumplan
las igualdades. A los números aij se les denomina coeficientes del sistema, y a los bi
términos independientes.
Si se introducen las matrices el sistema puede representarse de forma más compacta por:
Axb
En el planteamiento del problema se ha supuesto de forma implícita que el sistema de
ecuaciones está bien definido, esto es, las ecuaciones que lo forman son todas linealmente
independientes entre sí y el número de ecuaciones es igual al número de variables.

3. MÉTODOS DIRECTOS
 ELIMINACIÓN DE GAUSS
Supondremos que la matriz A es de rango completo y por lo tanto invertible
eventualmente si no lo es el procedimiento deberá detectarlo.

La idea básica es muy sencilla, se trata de aplicar al sistema dado por la ecuación Ax=b una serie
de transformaciones lineales de tal manera que al final de n pasos se haya transformado en uno
mucho más fácil de resolver. Concretamente un sistema triangular superior de la forma:
O escrito de forma matricial: U x  b'; todo ello tratando de evitar el cálculo de la matriz inversa,
lo que comporta un número de operaciones significativamente mayor.
Un sistema triangular superior, siempre y cuando se satisfagan las condiciones uii 0,
i 1,.....,n es fácilmente resoluble de manera recurrente mediante las fórmulas:

Este es el proceso de sustitución inversa.


La eliminación de Gauss convierte un sistema de ecuaciones lineales cualquiera en uno
triangular superior equivalente, el cual se conforma de las siguientes operaciones
fundamentales:

 Multiplicación de una cualquiera de las ecuaciones del sistema por un número


distinto de cero.

 Sustitución de una ecuación cualquiera por la que resulta de sumarle otra


cualquiera de las ecuaciones del sistema.

 Permutación del orden en el que aparecen en el sistema dos ecuaciones cuales


quiera del mismo, y el problema estará resuelto.

EJEMPLO:
(Fuente:https://rua.ua.es/dspace/bitstream/10045/16373/2/Microsoft%20Word%20-
%202.%20ECUACIONES%20LINEALES.pdf)

Comencemos la exposición de la mecánica del método mediante un ejemplo que nos servirá
de introducción

 4x1  2x 2  3x 3  7x 4  9
4x1 1. x 2  2x 3  8x 4  2
2x1 1. x 2  4x 4  2
 3x 2  12x 3  x4  2

Dispongamos inicialmente la matriz A aumentada en la columna que define el término


independiente b y llamemos a la nueva matriz resultante A , es decir:

1. Comprobamos inicialmente que el elemento a11 denominado elemento pivote no es cero. Si


no es cero, el objetivo es hacer ceros los elementos de la primera columna por debajo de ese
a11. Para ello, definamos para cada fila por debajo de la del pivote, desde 2 hasta n, los factores
o multiplicadores

ri1

 a i1
a11

i=2,....n.

De esta forma, los elementos de las filas por debajo del pivote (cada fila de la matriz es un vector)
se sustituyen por el resultado de multiplicar este factor ri1 por la fila del pivote, y sumarle la
cada una de las filas i. Los elementos debajo del elemento pivote se hacen cero por esta
operación, variando del resto de los elementos de A :

a ij  a ij  ri1 a1 j

i=2,3,4. j = 1, 2,3, 4, 5.

En el ejemplo que venimos manejando los multiplicadores son r21 = -a21/a11 =-(4/-4) = 1
r31= - a31/a11 = -(2/-4) = 1/2 r41 = - a41/a11 = - (0/-4) = 0

La nueva matriz resultado de transformar A es:

Obsérvese que se habría obtenido el mismo resultado de haber multiplicado


A por la matriz:

1
1
Esta última es la denominada matriz de transformación de Gauss. Que también se puede
escribir de la forma L I  eT , donde:

2. Una vez realizados los ceros en la primera columna, por debajo de la diagonal principal, se
procede a hacer cero los elementos debajo de la diagonal principal de la segunda columna.
Observamos, no obstante que el elemento pivote a22 no es cero. Así, procedemos ahora
análogamente a como lo hicimos en el caso anterior para las filas 3,...n, definiendo los
multiplicadores r32 y r42 a partir del elemento pivote a22 y los de las filas por debajo:

Con estos factores, sustituyendo las filas 3 y 4 de Â1 por el resultado de multiplicar esas filas
por la del pivote (la fila 2) más las filas 3 y 4, resulta:

-4 -2 3 -7 -9
0 -1 1 1 -7
A 2 
0 0 -15 -4 23

Esta matriz Â2 también se hubiera obtenido multiplicando la matriz L2 por la Â1.

L I   eT

1. Finalmente, hay que hacer cero el elemento a43 a partir del elemento pivote en la fila 3.
Procediendo de forma análoga mediante el multiplicador:
r43 = - a43/a33 = 10;
Definiendo la matriz L3 de forma análoga a las L1 y L2, resulta:

4 2 3 7 9
0 1 1 1 7
0 0 3/ 2 1/ 2  5 /2
0 0 0 1 2

1 0 0 0
0 1 0 0
L3= 0 0 1 0
0 0 10 1

De esta forma, se ha obtenido un sistema de ecuaciones triangular superior, resoluble


directamente de forma secuencial desde la última fila hasta la primera.

La solución de este sistema se lleva a cabo muy fácilmente mediante sustitución inversa:

A la hora de valorar las prestaciones de un algoritmo numérico se han de considerar diversos


factores.
Dos de los más importantes son sin duda la estabilidad numérica del algoritmo ante los efectos
de los errores de redondeo y la cantidad de tiempo necesaria para completar los cálculos.
Errores de redondeo y tiempo de cálculo dependen del número de operaciones aritméticas
necesarias para la aplicación del algoritmo.
Por el método de Gauss el número de operaciones es del orden de lo que da idea de lo que
puede ser resolver sistemas de varios miles de ecuaciones por el método de Gauss.
 FACTORIZACIÓN TRIANGULAR
La factorización LU de una matriz es una factorización que resume el proceso de eliminación
gaussiana aplicado a la matriz y que es conveniente en términos del número total de
operaciones de punto flotante cuando se desea calcular la inversa de una matriz o cuando se
resolver una serie de sistemas de ecuaciones con una misma matriz de coeficientes. En la
lectura, primeramente consideraremos la factorización LU sin intercambio basada en matrices
elementales y que es conocida como de Doolittle y posteriormente veremos el algoritmo que
da la factorización PA = LU.
Suponga que la matriz A es una matriz m × n se puede escribir como el producto de dos
matrices:
A=LU

Donde L es una matriz triangular inferior m × m y U es una matriz escalonada m × n. Entonces


para resolver el sistema:
A x = b,
Escribimos:
A x = (L U) x = L (U x).
Una posible estrategia de solución consiste en tomar y = U x y resolver para y:

L y = b.

Como la matriz L es triangular superior este sistema puede resolverse mediante


sustitución hacia abajo, lo
cual se hace fácilmente en m2 FLOPS. Una vez con los valores encontrados de
y, las incógnitas al sistema inicial se resuelve despejando x de
U x = y.

Nuevamente, como U
es escalonada, este sistema puede resolverse en caso de tener solución mediant
e sustitución hacia atrás, lo cual es sencillo. Estas observaciones nos dan la pauta
para ver la conveniencia de una factorización como la anterior, es decir factorizar A
como el producto de una matriz L triangular superior, por otra U la cual es escalonada.
Esta factorización se llama usualmente Descomposición LU.

EJEMPLO:

(Fuente: http://cb.mty.itesm.mx/ma1010/materiales/ma1010-26.pdf)

Sea y = (y1, y2, y3) un nuevo vector de incógnitas. Primero resolveremos el sistema
triangular inferior L y = b:

Este sistema escrito en su forma de ecuaciones queda:


y1 = 11
5 y1 + y2 = 70
−2 y1 + 3 y2 + y3 = 17

Por eliminación directa de las ecuaciones:

Primera ecuación:
y1 = 11,
Segunda ecuación:
y2 = 70 − 5 y1 = 70 − 5 (11) = 15,
Tercera ecuación:
y3 = 17 + 2y1 − 3 y2 = 17 + 2 (11) − 3 (15) = −6.

El cual al ser resuelto por sustitución hacia atrás queda:

De la última ecuación:
x3 = 3,
Segunda ecuación:
x2 = 5 − 7/3 x3 = 5 − 7/3 (3) = −2,
Y de la primera:
x1 = 11/4 + 1/2x2 − 1/4 x3 = 11/4 + 1/2 (−2) − 1/4 (−3) = 1

 FACTORIZACIÓN PLU

Sea A 2Mn(R) una matriz invertible. Una terna de matrices (P; L; U) se llama
factorización PLU de A si P; L; U 2 Mn(R), PA = LU, U es una matriz triangular superior
con elementos diagonales no nulos, L es una matriz triangular inferior con elementos
diagonales iguales a 1 y P es una matriz de permutación.

EJEMPLO:
(Fuente: http://esfm.egormaximenko.com/numerical_methods/PLU_factorization_es.pdf)

Usando una factorización PLU resolver el siguiente sistema de ecuaciones lineales:

Para aplicar la factorización P1,3,2A = LU del ejemplo anterior multiplicamos ambos lados
de la ecuación por la matriz de permutación P1,3,2:
−7
LUx = c, donde c = P1,3,2b = 5
-1

Denotamos Ux por y. Primero resolvemos el sistema Ly = c:

Ahora resolvemos el sistema Ux =y:

Respuesta:
4. MÉTODOS DIRECTOS
4. INTRODUCCIÓN

La resolución de sistemas de ecuaciones lineales aparece como una parte importante en


cualquier campo de la ciencia y de la ingeniería, como por ejemplo, la resolución de balances de
materia en un sistema.

La resolución de un sistema de ecuaciones lineales aparece también como un subproblema de


un problema más complicado de análisis numérico, tal como ocurre por ejemplo cuando se
resuelve iterativamente un sistema de ecuaciones no lineales por el método Newton-Raphson,
por ejemplo, donde en cada etapa de un proceso iterativo se requiere la resolución de un
sistema de ecuaciones lineales, o en procesos de optimización tanto lineales como no lineales.

Con frecuencia los sistemas de ecuaciones presentan una estructura muy especial que puede
ser objeto de tratamiento particular. Por ejemplo los problemas de interpolación polinómica,
etc...

La resolución de un sistema de ecuaciones lineales no tiene ninguna dificultad conceptual;


llevarlo a la práctica sí. Esto es debido a que los sistemas a resolver son frecuentemente de un
tamaño considerable y, esencialmente al hecho de que en el entorno físico en que se resuelven,
la aritmética opera con precisión finita, lo que introduce errores de redondeo en todas las
operaciones efectuadas, amén de que cualquier singularidad puede acarrear, si no se prevé,
consecuencias no deseadas.

A continuación vamos a estudiar algunos métodos, directos o por recursión, para dar solución
numérica a sistemas de ecuaciones lineales. Existen otros algoritmos especiales como es el
caso de las matrices dispersas o algunos otros tipos especiales de matrices que no se
estudiarán aquí, pero que es conveniente conocer dada su importancia.

5. PLANTEAMIENTO DEL PROBLEMA

El problema que se plantea es la solución de sistemas de ecuaciones lineales.


Lo que significa determinar el valor de las variables x1,....xn, que hacen que se cumplan
las igualdades. A los números aij se les denomina coeficientes del sistema, y a los bi
términos independientes.
Si se introducen las matrices el sistema puede representarse de forma más compacta por:
Axb
En el planteamiento del problema se ha supuesto de forma implícita que el sistema de
ecuaciones está bien definido, esto es, las ecuaciones que lo forman son todas linealmente
independientes entre sí y el número de ecuaciones es igual al número de variables.

6. MÉTODOS DIRECTOS

 ELIMINACIÓN DE GAUSS
Supondremos que la matriz A es de rango completo y por lo tanto invertible
eventualmente si no lo es el procedimiento deberá detectarlo.

La idea básica es muy sencilla, se trata de aplicar al sistema dado por la ecuación Ax=b una serie
de transformaciones lineales de tal manera que al final de n pasos se haya transformado en uno
mucho más fácil de resolver. Concretamente un sistema triangular superior de la forma:
O escrito de forma matricial: U x  b'; todo ello tratando de evitar el cálculo de la matriz inversa,
lo que comporta un número de operaciones significativamente mayor.
Un sistema triangular superior, siempre y cuando se satisfagan las condiciones uii 0, i 1,.....,n
es fácilmente resoluble de manera recurrente mediante las fórmulas:

Este es el proceso de sustitución inversa.


La eliminación de Gauss convierte un sistema de ecuaciones lineales cualquiera en uno
triangular superior equivalente, el cual se conforma de las siguientes operaciones
fundamentales:

 Multiplicación de una cualquiera de las ecuaciones del sistema por un número


distinto de cero.

 Sustitución de una ecuación cualquiera por la que resulta de sumarle otra


cualquiera de las ecuaciones del sistema.

 Permutación del orden en el que aparecen en el sistema dos ecuaciones cuales


quiera del mismo, y el problema estará resuelto.

EJEMPLO:
(Fuente:https://rua.ua.es/dspace/bitstream/10045/16373/2/Microsoft%20Word%20-
%202.%20ECUACIONES%20LINEALES.pdf)

Comencemos la exposición de la mecánica del método mediante un ejemplo que nos servirá
de introducción

 4x1  2x 2  3x 3  7x 4  9
4x1 2. x 2  2x 3  8x 4  2
2x1 2. x 2  4x 4  2
 3x 2  12x 3  x4  2
Dispongamos inicialmente la matriz A aumentada en la columna que define el término
independiente b y llamemos a la nueva matriz resultante A , es decir:

1. Comprobamos inicialmente que el elemento a11 denominado elemento pivote no es cero. Si


no es cero, el objetivo es hacer ceros los elementos de la primera columna por debajo de ese
a11. Para ello, definamos para cada fila por debajo de la del pivote, desde 2 hasta n, los factores
o multiplicadores

ri1

 a i1
a11

i=2,....n.

De esta forma, los elementos de las filas por debajo del pivote (cada fila de la matriz es un vector)
se sustituyen por el resultado de multiplicar este factor ri1 por la fila del pivote, y sumarle la
cada una de las filas i. Los elementos debajo del elemento pivote se hacen cero por esta
operación, variando del resto de los elementos de A :

a ij  a ij  ri1 a1 j

i=2,3,4. j = 1, 2,3, 4, 5.

En el ejemplo que venimos manejando los multiplicadores son: r21 = -a21/a11 =-(4/-4) = 1
r31= - a31/a11 = -(2/-4) = 1/2 r41 = - a41/a11 = - (0/-4) = 0

La nueva matriz resultado de transformar A es:

Obsérvese que se habría obtenido el mismo resultado de haber multiplicado


A por la matriz:
Esta última es la denominada matriz de transformación de Gauss. Que también se puede
escribir de la forma L I  eT , donde:

2. Una vez realizados los ceros en la primera columna, por debajo de la diagonal principal, se
procede a hacer cero los elementos debajo de la diagonal principal de la segunda columna.
Observamos, no obstante que el elemento pivote a22 no es cero. Así, procedemos ahora
análogamente a como lo hicimos en el caso anterior para las filas 3,...n, definiendo los
multiplicadores r32 y r42 a partir del elemento pivote a22 y los de las filas por debajo:

Con estos factores, sustituyendo las filas 3 y 4 de Â1 por el resultado de multiplicar


esas filas por la del pivote (la fila 2) más las filas 3 y 4, resulta:

-4 -2 3 -7 -9
0 -1 1 1 -7
A2     
0 0 -15 -4 23

Esta matriz Â2 también se hubiera obtenido multiplicando la matriz L2 por la Â1.

L I   eT

2. Finalmente, hay que hacer cero el elemento a43 a partir del elemento pivote en la fila 3.
Procediendo de forma análoga mediante el multiplicador:
r43 = - a43/a33 = 10;
Definiendo la matriz L3 de forma análoga a las L1 y L2, resulta:

4 2 3 7 9
0 1 1 1 7
0 0 3/ 2 1/ 2  5 /2
0 0 0 1 2

1 0 0 0
0 1 0 0
L3= 0 0 1 0
0 0 10 1

De esta forma, se ha obtenido un sistema de ecuaciones triangular superior, resoluble


directamente de forma secuencial desde la última fila hasta la primera.

La solución de este sistema se lleva a cabo muy fácilmente mediante sustitución inversa:

A la hora de valorar las prestaciones de un algoritmo numérico se han de considerar diversos


factores.
Dos de los más importantes son sin duda la estabilidad numérica del algoritmo ante los efectos
de los errores de redondeo y la cantidad de tiempo necesaria para completar los cálculos.
Errores de redondeo y tiempo de cálculo dependen del número de operaciones aritméticas
necesarias para la aplicación del algoritmo.
Por el método de Gauss el número de operaciones es del orden de lo que da idea de lo que
puede ser resolver sistemas de varios miles de ecuaciones por el método de Gauss.

 FACTORIZACIÓN TRIANGULAR
La factorización LU de una matriz es una factorización que resume el proceso de eliminación
gaussiana aplicado a la matriz y que es conveniente en términos del número total de
operaciones de punto flotante cuando se desea calcular la inversa de una matriz o cuando se
resolver una serie de sistemas de ecuaciones con una misma matriz de coeficientes. En la
lectura, primeramente consideraremos la factorización LU sin intercambio basada en matrices
elementales y que es conocida como de Doolittle y posteriormente veremos el algoritmo que
da la factorización PA = LU.
Suponga que la matriz A es una matriz m × n se puede escribir como el producto de dos
matrices:
A=LU

Donde L es una matriz triangular inferior m × m y U es una matriz escalonada m × n. Entonces


para resolver el sistema:
A x = b,
Escribimos:
A x = (L U) x = L (U x).
Una posible estrategia de solución consiste en tomar y = U x y resolver para y:

L y = b.

Como la matriz L es triangular superior este sistema puede resolverse m


ediante sustitución hacia abajo, lo
cual se hace fácilmente en m2 FLOPS. Una vez con los valores encon
trados de y, las incógnitas al sistema inicial se resuelve despejando x de
U x = y.

Nuevamente, como U
es escalonada, este sistema puede resolverse en caso de tener solución
mediante sustitución hacia atrás, lo cual es sencillo. Estas observaciones nos
dan la pauta para ver la conveniencia de una factorización como la anterior, es
decir factorizar A como el producto de una matriz L triangular superior, por
otra U la cual es escalonada. Esta factorización se llama
usualmente Descomposición LU.

EJEMPLO:

(Fuente: http://cb.mty.itesm.mx/ma1010/materiales/ma1010-26.pdf)

Sea y = (y1, y2, y3) un nuevo vector de incógnitas. Primero resolveremos el


sistema triangular inferior L y = b:

Este sistema escrito en su forma de ecuaciones queda:

y1 = 11
5 y1 + y2 = 70
−2 y1 + 3 y2 + y3 = 17

Por eliminación directa de las ecuaciones:

Primera ecuación:
y1 = 11,
Segunda ecuación:
y2 = 70 − 5 y1 = 70 − 5 (11) = 15,
Tercera ecuación:
y3 = 17 + 2y1 − 3 y2 = 17 + 2 (11) − 3 (15) = −6.

El cual al ser resuelto por sustitución hacia atrás queda:

De la última ecuación:
x3 = 3,
Segunda ecuación:
x2 = 5 − 7/3 x3 = 5 − 7/3 (3) = −2,
Y de la primera:
x1 = 11/4 + 1/2x2 − 1/4 x3 = 11/4 + 1/2 (−2) − 1/4 (−3) = 1

Factorización LU
La práctica de factorizar un número no primo como la multiplicación de otros que sí lo
son, se aplica también a las matrices, así, cualquier representación de una matriz como
producto de dos o más matrices, se llama factorización de matrices. Por ejemplo:
En este caso, la descomposición LU, es una variante de la eliminación de Gauss (MEG),
que descompone o factoriza una matriz como el producto de una matriz triangular
inferior y una matriz triangular superior. Descomposición que conduce a un algoritmo
para resolver un sistema lineal Ax=b, donde A es una matriz de n x n.
Se muestra el siguiente ejemplo de factorización utilizando implícitamente el método de
eliminación de Gauss (MEG):

De esta reducción se obtiene tres matrices elementales:

Entonces:

Por lo tanto:
De acuerdo a este ejemplo, podemos dar la siguiente definición:

También, podemos extraer el siguiente teorema:

El sistema Ax = b, se puede reescribir de la forma LUx = b. Si se define y = Ux, se puede


hallar x de la siguiente forma:
i.Resolver Ly = b, para y mediante sustitución hacia adelante.
ii.Resolver Ux = y, para x mediante sustitución hacia atrás.

Ejemplo:
Use una factorización LU de para resolver Ax = b,
donde: .

i.

ii.

iii.Entonces, la solución a Ax = b, es .

¿Cómo encontrar factorizaciones LU?

Forma 1
1. Sabemos, mediante el método de eliminación de Gauss, el valor de U.
Ejemplo:

2. Y para L, tenemos el siguiente procedimiento:


i.En la reducción hecha al comienzo, se tienen operaciones entre renglones de la
forma: donde el escalar k se denomina multiplicador.
Ejemplo:
Multiplicador = 2
Multiplicador = -1
Multiplicador = -2

ii.En la operación elemental tiene el multiplicador k en la entrada (i,j) de L.


Ejemplo:
Multiplicador = 2
Multiplicador = -1
Multiplicador = -2

Forma 2
1. Cuando U es una matriz triangular superior y todas las entradas de la diagonal son
diferentes de cero, el sistema lineal Ux = b puede resolverse sin transformar la matriz
aumentada a la forma escalonada reducida por filas. Se resuelve mediante una sustitución
hacia atrás. La matriz aumentada del sistema está dada por:

La solución se obtiene mediante el siguiente algoritmo:


2. De igual manera, L es una matriz triangular inferior con todas las entradas de la
diagonal diferentes de cero, el sistema lineal Lx = b se resolverá mediante sustitución
hacia adelante. Se tiene la matriz aumentada de la forma:
La solución está dada por:
5.1 Existencia y Unicidad de la Factorización el LU
Sea A ∈ Matn(F). Entonces las siguientes condiciones son equivalentes:
(a) A admite una factorización LU con elementos diagonales de U distintos de cero.
(b) son invertibles todas las “matrices de esquina” de la matriz A, i.e. las matrices.
A{1,...,k},{1,...,k} (1 ≤ k ≤ n);
(c) son distintos de cero todos los “menores de esquina” de A, i.e. los menores.
(d) la matriz A se puede reducir a una matriz triangular superior con elementos
diagonales no nulos al aplicar solo operaciones elementales de tipo Ri + = λRj con i >
j.
Demostración. (a)⇒(b). Supongamos que A = LU con los elementos diagonales de U
no nulos. Consideremos un elemento arbitrario de la matriz “cortada” A{1,...,k},{1,...,k},
i.e. un elemento Ai,j con 1 ≤ i, j ≤ k:
Si s > k, entonces s > j y Us,j = 0. Por lo tanto:
Esto significa que la matriz cortada A{1,...,k},{1,...,k} es igual al producto de las
matrices cortadas.
L{1,...,k},{1,...,k} y U{1,...,k},{1,...,k}.
Pero estas matrices son triangulares, y sus elementos diagonales son distintos de
cero. Por eso las matrices (1) son invertibles, y su producto A{1,...,k},{1,...,k} también
es invertible.
(b)⇔(c). Sabemos que una matriz cuadrada es invertible ⇐⇒ su determinante es no
nulo. Aplicando este hecho a las matrices A{1,...,k},{1,...,k} obtenemos que las
condiciones (b) y (c) son equivalentes.
(c)⇒(d). Supongamos, que es posible reducir en sobredicha manera las primeras k
filas de A a la forma triangular con elementos diagonales no nulos y demostremos que
esto es posible hacer con las primeras k + 1 filas.
Sea B la matriz A con las primeras k filas reducidas. Usando que los elementos Bi,i, 1
≤ i ≤ k, son distintos de cero, podemos eliminar los elementos Bk+1,j , 1 ≤ j ≤ k, al
aplicar las operaciones de tipo Rk+1 + = λRi , 1 ≤ i ≤ k. Obtenemos una matriz C.

Como las operaciones de tipo Ri + = λRj con 1 ≤ j < i ≤ k + 1 no


cambiaron el menor ,
tenemos que:

Pero la submatriz C{1,...,k+1},{1,...,k+1} es triangular superior, y su menor es igual al


producto
C1,1 · C2,2 · · · · · Ck+1,k+1.
Por eso Ck+1,k+1 6= 0.
Aplicando este razonamiento n veces vemos que es posible convertir A en una matriz
triangular superior con elementos diagonales no nulos al aplicar operaciones de tipo.
Ri + = λRj , j < i.
(d)⇒(a). A se puede convertir en la matriz U al aplicar unas operaciones elementales
de tipo Ri + = λRj con j < i. Es decir,
U = Es · · · · · E1A,
Donde E1, . . . , Es son matrices elementales que corresponden a las operaciones Ri +
= λRj , j < i. Estas matrices son triangulares inferiores con elementos diagonales
iguales a 1. Por eso la matriz.
L := E −1 1 · · · · · E −1

Calculo de valores y de vectores propios


El cálculo de los valores propios y de los vectores propios de una matriz
simétrica tiene gran importancia en las matemáticas y en la ingeniería, entre los
que cabe destacar, el problema de la diagonalización de una matriz, el cálculo
de los momentos de inercia y de los ejes principales de inercia de un sólido
rígido, o de las frecuencias propias de oscilación de un sistema oscilante.
Los vectores propios o autovectores de un operador lineal son los vectores no
nulos que, cuando son transformados por el operador, dan lugar a un múltiplo
escalar de sí mismos, con lo que no cambian su dirección.
Este escalar ʎ recibe el nombre valor propio, autovalor o valor característico. A
menudo, una transformación queda completamente determinada por sus
vectores propios y valores propios. Un espacio Propio, autoespacio o
subespacio fundamental asociado al valor propio ʎ es el conjunto de vectores
propios con un valor propio común.
El método de la potencia, y de la potencia inversa
Sea A ϵ Rn x n. Obsérvese que si ʎ ϵ σ(A) y X ϵ Sʎ(A) es no nulo, entonces:
por lo que es suficiente con preocuparse por determinar vectores propios.
Supongamos que tenemos , donde ʎ1 = ʎ2 = ʎr es un valor propio dominante en
el sentido de que se verifica.
|ʎ1| = … = |ʎr| > |ʎr+1| > |ʎr+2| > … > |ʎn|,
Y que existe una base de Cn de vectores propios con Avi= ʎivi, 1 < i < n. Esta
última condición seré eliminada en la siguiente sección.
Tomando y0 ϵ Rn de partida. Entonces:
Por lo que:
Es claro que si hacemos tender k a infinito, el término entre paréntesis tiende
a Sʎ1(A), que es no nulo si el vector inicial tiene una componente en la dirección
del subespacio propio asociado al valor propio dominante. Para evitar el
término conflictivo normalizamos los vectores.
En efecto, la sucesión:
Se aproxima a un vector propio asociado a ʎ1 tanto como queramos, y
.
La técnica expuesta se denomina método de la potencia.
Evidentemente tendremos problemas con esta técnica si tenemos un valor
propio dominante complejo o valores propios reales distintos dominantes, pero
existen técnicas adaptadas para solucionar el problema. El método funcionará
tanto mejor cuanto mayor sea el cociente |ʎr+1/ ʎ1|.

Si suponemos que A es regular, los inversos de los valores propios de A son


valores propios de A-1 y viceversa (los vectores propios se conservan), de ahí
que esta técnica sea válida también para aproximar los valores propios
minorantes, sin más que aplicar la técnica a la matriz inversa A􀀀1 (método de
la potencia inversa).

El hecho de que los valores propios de la matriz trasladada sean los valores
propios trasladados, permite localizar cualquier valor propio de tamaño
intermedio, siempre que éste este separado de los restantes en módulo.

Aplicaríamos el método de la potencia inversa a la matriz trasladada, por


supuesto que con ciertos cambios para deshacer la traslación realizada.

Destaquemos por último que cada valor propio obtenido puede ser eliminado
por la técnica de deflación. En efecto, si conocemos ʎ ϵ σ(A) y X ϵ
Sʎ(A), unitario para la norma euclidea, entonces determinamos una matriz de
Householder P tal que Px = + e1 y entonces:
De donde se deduce que la matriz , semejante a A, tiene la forma:

Donde B es una matriz cuadrada de tamaño n-1. Continuaremos la búsqueda


de valores propios con la matriz B.

BIBLIOGRAFIA:
 www.dma.uvigo.es/~lino/Tema3.pdf
 www.dma.uvigo.es/~lino/Tema3.pdf
 https://www.cs.buap.mx/.../Resolucion%20Numerica%20de%20Sistemas%20de%20Ec...
 https://www.u-cursos.cl/ingenieria/2007/1/MA33A/2/material_docente/bajar?id...
 https://rua.ua.es/.../Microsoft%20Word%20-202.%20ECUACIONES%20LINEALE...
 https://ocw.unican.es/pluginfile.php/1390/course/section/1760/P5_IC1011.pdf
 http://cb.mty.itesm.mx/ma1010/materiales/ma1010-26.pdf
 http://148.206.53.84/tesiuami/151.pdf
 www.dma.uvigo.es/~lino/Tema3.pdf
 www.dma.uvigo.es/~lino/Tema3.pdf
 https://www.cs.buap.mx/.../Resolucion%20Numerica%20de%20Sistemas%20de%20Ec...
 https://www.u-cursos.cl/ingenieria/2007/1/MA33A/2/material_docente/bajar?id...
 https://rua.ua.es/.../Microsoft%20Word%20-202.%20ECUACIONES%20LINEALE...
 https://ocw.unican.es/pluginfile.php/1390/course/section/1760/P5_IC1011.pdf
 http://cb.mty.itesm.mx/ma1010/materiales/ma1010-26.pdf
 http://esfm.egormaximenko.com/numerical_methods/PLU_factorization_es.pdf

También podría gustarte