Está en la página 1de 37

UNIVERSIDAD INDUSTRIAL DE SANTANDER

FACULTAD DE INGENIERÍAS FISICOQUÍMICAS


ESCUELA DE INGENIERIA DE PETROLEOS
METODOS NUMERICOS

MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES


LINEALES

OSCAR ALBERTO ESTÉVEZ REAL

UNIVERSIDAD INDUSTRIAL DE SANTANDER


MÉTODOS NUMÉRICOS
2010
MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES
LINEALES

METODOS DIRECTOS

1 Sistemas de ecauciones lineales

2 Matriz Simétrica

3 Matriz traspuesta

4 Determinante

5Triangulo superior

6 Triangulo inferior

7 Matriz bandeada – Matriz aumentada

8 Multiplicación de matrices

9 Aplicación al calculo de la matriz inversa

10 Metodo de gauss jordan

11 Eliminación de gauss jordan

12 Ecuaciones Lineales Sistemas Especiales

METODOS ITERATIVOS

1 Jacobi

2 Gauss- seidel

3 Gauss seidel con relajación


1 SISTEMAS DE ECUACIONES LINEALES

En matemáticas, una matriz es una tabla bidimensional de números consistente


en cantidades abstractas que pueden sumarse y multiplicarse. Las matrices se
utilizan para describir sistemas de ecuaciones lineales, realizar un seguimiento
de los coeficientes de una aplicación lineal y registrar los datos que dependen
de varios parámetros. Las matrices se describen en el campo de la teoría de
matrices. Pueden sumarse, multiplicarse y descomponerse de varias formas, lo
que también las hace un concepto clave en el campo del álgebra lineal.

DEFINICIONES Y NOTACIONES

Una matriz es una tabla cuadrada o rectangular de datos


(llamados elementos o entradas de la matriz) ordenados en filas y columnas,
donde una fila es cada una de las líneas horizontales de la matriz y una
columna es cada una de las líneas verticales. A una matriz con mfilas
y n columnas se le denomina matriz m-por-n (escrito m×n), y
a m y n dimensiones de la matriz. Las dimensiones de una matriz siempre se
dan con el número de filas primero y el número de columnas después.
Comúnmente se dice que una matriz m-por-n tiene unorden de m × n ("orden"
tiene el significado de tamaño). Dos matrices se dice que son iguales si son del
mismo orden y tienen los mismos elementos.

Al elemento de una matriz que se encuentra en la fila i-ésima y la columna j-


ésima se le llama elemento i,j o elemento (i,j)-iésimo de la matriz. Se vuelve a
poner primero las filas y después las columnas.

Casi siempre, se denotan a las matrices con letras mayúsculas mientras que se
utilizan las correspondientes letras en minúsculas para denotar a los elementos
de las mismas. Por ejemplo, al elemento de una matriz A que se encuentra en
la fila i-ésima y la columna j-ésima se le denota como ai,j o a[i,j]. Notaciones
alternativas son A[i,j] o Ai,j. Además de utilizar letras mayúsculas para
representar matrices, numerosos autores representan a las matrices con
fuentes en negrita para distinguirlas de otros tipos de variables. Así A es una
matriz, mientras que A es un escalar.

Normalmente se escribe para definir una matriz A m × n con


cada entrada en la matriz A[i,j] llamada aij para todo 1 ≤ i≤ m y 1 ≤ j ≤ n. Sin
embargo, la convención del inicio de los índices i y j en 1 no es universal:
algunos lenguajes de programación comienzan en cero, en cuál caso se tiene 0
≤ i ≤ m − 1 y 0 ≤ j ≤ n − 1.

Una matriz con una sola columna o una sola fila se denomina a menudo vector,
y se interpreta como un elemento del espacio euclídeo. Una matriz 1 × n (una
fila y n columnas) se denomina vector fila, y una matriz m × 1 (una columna
y m filas) se denomina vector columna.

Ejemplo:

La matriz es una matriz 4x3. El elemento o es 7.

La matriz

es una matriz 1×9, o un vector fila con 9 elementos.

2 MATRIZ SIMÉTRICA

Una matriz de elementos:

es simétrica, si es una matriz cuadrada (m = n) y aij = aji para todo i, j


=1,2,3,4,...,n. Nótese que la simetría es respecto a la diagonal principal y que A
es también, la matriz traspuesta de sí misma: At = A.

Ejemplo para n = 3:
PROPIEDADES

Uno de los teoremas básicos que concierne este tipo de matrices es el teorema
espectral de dimensión finita, que dice que toda matriz simétrica cuyas
entradas sean reales puede ser diagonalizada por una matriz ortogonal. Éste
es un caso especial de una matriz hermítica.

3 MATRIZ TRASPUESTA

Sea A una matriz con m filas y n columnas. La matriz traspuesta, denotada


con At está dada por

Ejemplos:

PROPIEDADES:

Para toda matriz

Sean A y B matrices con elementos pertenecen a un anillo y sea :

Si el producto de las matrices A y B está definido,

Si A es una matriz cuadrada cuyas entradas son números reales, entonces

es semidefinida positiva
4 DETERMINANATE

En matemáticas se define el determinante como una forma multilineal


alternada de un cuerpo En. Esta definición indica una serie de propiedades
matemáticas y generaliza el concepto de determinante haciéndolo aplicable en
numerosos campos. Sin embargo, el concepto de determinante o de volumen
orientado fue introducido para estudiar el número de soluciones de los sistemas
lineales de ecuaciones.

MÉTODOS DE CALCULO

Para el cálculo de determinantes de matrices de cualquier orden, existe una


regla recursiva (teorema de Laplace) que reduce el cálculo a sumas y restas de
varios determinantes de un orden inferior. Este proceso se puede repetir tantas
veces como sea necesario hasta reducir el problema al cálculo de múltiples
determinantes de orden tan pequeño como se quiera. Sabiendo que el
determinante de un escalar es el propio escalar, es posible calcular el
determinante de cualquier matriz aplicando dicho teorema.

MATRICES DE ORDEN INFERIOR

El caso de matrices de orden inferior (orden 2 o 3) es tan sencillo que su


determinante se calcula con sencillas reglas conocidas. Dichas reglas son
también deducibles del teorema de Laplace

Los determinantes de una matriz de orden 2:

se calculan con la siguiente fórmula:

Un determinante de orden 3 se calcula mediante la regla de Sarrus:


DETERMINANTES DE ORDEN SUPERIOR A 3
El determinante de orden n, puede desarrollarse a partir de una fila o columna,
reduciendo el problema al cálculo de un determinante de orden n-1. Para ello
se toma una fila o columna cualquiera, multiplicando cada elemento por
su adjunto (es decir, el determinante de la matriz que se obtiene eliminando la
fila y columna correspondiente a dicho elemento, multiplicado por (-1)i+j donde i
es el número de fila y j el número de columna). La suma de todos los productos
es igual al determinante.

En caso de un determinante de orden 4, se obtienen directamente


determinantes de orden 3 que podrán ser calculados por la regla de Sarrus. En
cambio, en los determinantes de orden superior, como por ejemplo n = 5, al
desarrollar los elementos de una línea, obtendremos determinantes de orden 4,
que a su vez se deberán desarrollar en por el mismo método, para obtener
determinantes de orden 3. Por ejemplo, para obtener con el método
especificado un determinante de orden 4, se deben calcular 4 determinantes de
orden 3. En cambio, si previamente se logran tres ceros en una fila o columna,
bastara con calcular solo un determinante de orden 3 (ya que los demás
determinantes estarán multiplicados por 0, lo que los anula).

La cantidad de operaciones aumenta muy rápidamente. En el peor de los casos


(sin obtener ceros en filas y columnas), para un determinante de orden 4 se
deberán desarrollar 4 determinates de orden 3. En un determinante de orden 5,
se obtienen 5 determinates de orden 4 a desarrollar, dándonos 20 determinates
de orden 3. El número de determinates de orden 3 que se obtienen en el

desarrollo de un determinante de orden n es igual a

Por ejemplo, mediante este método, para un determinante de orden 10 se


deberán calcular 10 x 9 x 8 x 7 x 6 x 5 x 4 = 604.800 determinantes de orden 3.

También puede utilizarse el Método de eliminación Gaussiana, para convertir la


matriz en una matriz triangular. Si bien el proceso puede parecer tedioso,
estará muy lejos de los 14.529.715.200 de determinantes de orden 3
necesarios para calcular el determinante de una matriz de orden 14.
.

Partiendo de una matriz 3×3:

Para calcular el determinante por los adjuntos de la primera fila:

Desarrollando los determinantes 2*2, tendremos:

Que podemos ordenar, para presentarlo en la forma usual de la Regla de


Sarrus:

MATRIZ TRIANGULAR

En álgebra lineal, una matriz triangular es un tipo especial de matriz


cuadrada cuyos elementos por encima o por debajo de su diagonal
principal son cero. Debido a que los sistemas de ecuaciones lineales con
matrices triangulares son mucho más fáciles de resolver, las matrices
triangulares son utilizadas en análisis numérico para resolver sistemas de
ecuaciones lineales, calcular inversas y determinantes de matrices. El método
de descomposición LU permite descomponer cualquier matriz
invertible como producto de una matriz triangular inferior L y una superior U.

5 TRIANGULAR SUPERIOR

Es una matriz triangular superior los elementos situados por debajo de la


diagonal principal son ceros.
EJEMPLO

6 TRIANGULAR INFERIOR

Es una matriz triangular inferior los elementos situados por ensima de la


diagonal principal son ceros.

EJEMPLO

7 MATRIZ BANDEADA
Un gran número de sus componentes son cero:

8 MULTIPLICACIÓN DE MATRICES

En matemática, la multiplicación o producto de matrices es


la operación de multiplicación que se efectúa entre dos matrices, o bien entre
una matriz y un escalar.

Al igual que la multiplicación aritmética, su definición es instrumental, es decir,


viene dada por un algoritmo capaz de resolverla. El algoritmo que resuelve la
multiplicación matricial es diferente del que resuelve la multiplicación de dos
números. La diferencia principal es que la multiplicación de matrices no cumple
con la propiedad de conmutatividad.

MULTIPLICACIÓN DE UN ESCALAR POR UNA MATRIZ


Dada una matriz A de m filas y n columnas, lo que podemos denotar como:

la multiplicación de A por un escalar k, que se denota k·A, k×A o


simplemente kA, está definida como:

es decir, corresponde a la matriz conformada por cada elemento de la matriz


multiplicado por dicho escalar.

Gráficamente, si y

entonces

La multiplicación por escalar es análoga a la suma o resta de matrices, y


cumple con las mismas características de la multiplicación aritmética. En
efecto, podemos llegar al mismo resultado sumando k veces la misma
matriz A entre sí.

PROPIEDAD DESCRIPCIÓN

CLAUSURA cA es también una matriz

ELEMENTO Existe el elemento neutro uno, de manera que 1·A =


NEUTRO A

PROPIEDAD
(cd)A = c(dA)
ASOCIATIVA

PROPIEDAD
DISTRIBUTIVA c(A+B) = cA+cB
- DE ESCALAR (c+d)A = cA+dA
- DE MATRIZ

MULTIPLICACION DE UNA MATRIZ POR UNA MATRIZ

Dadas dos matrices A y B, tales que el número de columnas de la matriz A es


igual al número de filas de la matriz B; es decir:

y
a multiplicación de A por B, que se denota A·B, A×B o simplemente AB, está
definida como:

donde cada elemento ci,j está definido por:

Gráficamente, Si

Entonces

PROPIEDADES

Sean A, B y C matrices para las cuales la multiplicación entre ellas está bien
definida, es decir, tales que sus elementos pertenecen a uncuerpo donde la
multiplicación está definida, y de manera que el número de filas y de columnas
permite realizar la multiplicación; entonces se cumplen las siguientes
propiedades:
PROPIEDAD DESCRIPCIÓN

CLAUSURA AB es también una matriz

Si A es una matriz cuadrada de tamaño m, entonces


ELEMENTO
la matriz identidad Im×mes elemento neutro, de manera
NEUTRO
que I·A = A

PROPIEDAD
(AB)C = A(BC)
ASOCIATIVA

PROPIEDAD
DISTRIBUTIVA
- POR LA
(A + B)C = AC + BC
DERECHA
C(A + B) = CA + CB
- POR LA
IZQUIERDA

El producto de dos matrices generalmente no es conmutativo, es decir, AB ≠


BA. La división entre matrices, es decir, la operación que podría producir el
cociente A / B, no se encuentra definida. Sin embargo, existe el concepto
de matriz inversa, sólo aplicable a las matrices cuadradas.

Finalmente, note que tanto la multiplicación de una matriz por un escalar, como
la multiplicación de dos escalares, puede representarse mediante una
multiplicación de dos matrices.

APLICACIONES

La multiplicación de matrices es muy útil para la resolución de sistemas de


ecuaciones de muchas variables, dado que son muy cómodas para ser
implementadas mediante un computador. El cálculo numérico se basa en gran
parte de estas operaciones, al igual que poderosasaplicaciones tales
como MATLAB. También actualmente se utiliza mucho en el cálculo
de microarrays, en el área de bioinformática.
9 APLICACION AL CALCULO DE LA MATRIZ INVERSA

Planteamiento del problema

Sea una matriz A a la que se presente obtener su inversa X, entonces

AX = I
Esto significa resolver n sistemas de ecuaciones lineales con la misma matriz,
donde los segundos miembros son los vectores de la base canonica. De cada
sistema j -esimo se obtiene la j -esima columna de la matriz inversa X:

Resolución del problema

El procedimiento mas adecuado es utilizar la factorización de Cholesky si el


problema es simétrico o la LU si no lo es. De esta forma, las operaciones de
triangulación solo se realizan una vez.
Esto supone el coste de una factorización y n procesos de remonte de dos
sistemas triangulares.

Numero de operaciones

Caso simétrico
*Raíces cuadradas: n
*Multiplicaciones/divisiones:

*Sumas/restas:
Caso no simétrico

*Multiplicaciones/divisiones:

*Sumas/restas:

ANEXOS

10 METODO DE GAUSS JORDAN

El método de gauss- jordan es una variable del método de gauss . Cuando se


elimina una incognita en una ecuación , gauss-jordan elimina esa incognita en
el resto de las ecuaciones , tomando como base para la eliminación a la
ecuación pivote.Tambien todos los renglones se normalizan cuando se toma
una ecuación pivote .El resultado final de este tipo de eliminación genera una
matriz identidad en vez de una triangular como lo hace gauss, por lo que no se
usa la sustitución hacia atrás.
Código fortran
Ver : http://www.youtube.com/watch?v=I1kexTz5GTM&feature=related

11 METODO DE ELIMINACIÓN DE JORDAN


En matemáticas, la eliminación Gaussiana, eliminación de Gauss o eliminación
de Gauss-Jordan, llamadas así debido a Carl Friedrich Gauss y Wilhelm
Jordan, son algoritmos del álgebra lineal para determinar las soluciones de un
sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de
ecuaciones se resuelve por el método de Gauss cuando se obtienen sus
soluciones mediante la reducción del sistema dado a otro equivalente en el que
cada ecuación tiene una incógnita menos que la anterior. Cuando se aplica
este proceso, la matriz resultante se conoce como: "forma escalonada".

ANALISIS DE COMPLEJIDAD

La complejidad computacional de la eliminación gaussiana es


aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el
tamaño de la matriz es n × n.

ALGORITMO DE ELIMINACION DE GAUSS JORDAN

1. Ir a la columna no cero extrema izquierda


2. Si el primer renglón tiene un cero en esta columna, intercambiarlo con
otro que no lo tenga
3. Luego, obtener ceros debajo de este elemento delantero, sumando
múltiplos adecuados del renglón superior a los renglones debajo de él
4. Cubrir el renglón superior y repetir el proceso anterior con
la submatriz restante. Repetir con el resto de los renglones (en este
punto la matriz se encuentra en la forma de escalón)
5. Comenzando con el último renglón no cero, avanzar hacia arriba: para
cada renglón obtener un 1 delantero e introducir ceros arriba de este
sumando múltiplos correspondientes a los renglones correspondientes
EJEMPLO

Supongamos que es necesario encontrar los números x, y, z, que satisfacen


simultáneamente estas ecuaciones:

Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el


sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones
(llamadas elementales) son estas:

 Multiplicar una ecuación por un escalar no nulo.


 Intercambiar de posición dos ecuaciones
 Sumar a una ecuación un múltiplo de otra.
Estas operaciones pueden representarse con matrices elementales que se
usan también en otros procedimientos como la factorización LUo la
diagonalización por congruencia de una matriz simétrica.

En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces


la primera ecuación a la segunda y después sumamos la primera ecuación a la
tercera. El resultado es:

Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda


ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera
para eliminar y.

Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera


ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda
para eliminar z.

Despejando, podemos ver las soluciones:

Para clarificar los pasos (y es en realidad lo que las computadoras manejan),


se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación
matricial:

Primero:

Después,
Por último.

Si el sistema fuera incompatible, entonces nos encontraríamos con una fila


como esta:

Que representa la ecuación: 0x + 0y + 0z = 1, es decir, 0 = 1 que no tiene


solución.

CODIGO FORTRAN
VER: http://www.youtube.com/watch?v=sKBoKqX6WV0&feature=fvw

12 ECUACIONES LINEALES SISTEMAS ESPECIALES

Método de Cholesky

En matemáticas, la factorización o descomposición de Cholesky toma su


nombre del matemático André-Louis Cholesky, quien encontró que una matriz
simétrica definida positiva puede ser descompuesta como el producto de
una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La
matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva
definida. El resultado de Cholesky ha sido extendido a matrices con entradas
complejas. Es una manera de resolver sistemas de ecuaciones matriciales y se
deriva de la factorización LU con una pequeña variación.

Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el
producto de una matriz triangular inferior L y una matriz triangular superior U;
esto recibe el nombre de factorización LU. Sin embargo, si A es simétrica
y definida positiva, se pueden escoger los factores tales que U es la
transpuesta de L, y esto se llama la descomposición o factorización de
Cholesky. Tanto la descomposición LU como la descomposición de Cholesky
son usadas para resolver sistemas de ecuaciones lineales. Cuando es
aplicable, la descomposición de Cholesky es dos veces más eficiente que la
descomposición LU.

Definición

En general, si A es Hermitiana y definida positiva, entonces A puede ser


descompuesta como
donde L es una matriz triangular inferior con entradas diagonales
estrictamente positivas, y L* representa la conjugada traspuesta de L. Esta
es la descomposición de Cholesky.

La descomposición de Cholesky es única: dada una matriz Hermitiana


positiva definida A, hay una única matriz triangular inferior L con entradas
diagonales estrictamente positivas tales que A = LL*. El recíproco se tiene
trivialmente: si A se puede escribir como LL* para alguna matriz
invertible L, triangular inferior o no, entonces A es Hermitiana y definida
positiva.

El requerimento de que L tenga entradas diagonales estrictamente


positivas puede extenderse para el caso de la descomposición en el caso
de ser semidefinida positiva. La proposición se lee ahora: una matriz
cuadrada A tiene una descomposición de Cholesky si y sólo si A es
Hermitiana y semidefinida positiva. Las factorizaciones de Cholesky para
matrices semidefinidas positivas no son únicas en general.

En el caso especial que A es una matriz positiva definida simétrica con


entradas reales, L se puede asumir también con entradas reales. Una
Matriz D diagonal con entradas positivas en la diagonal, es factorizable
como , donde es matriz cuya diagonal consiste en la
raíz cuadrada de cada elemento de D, que tomamos como positivos. Así:

La factorización puede ser calculada directamente a través de las


siguientes fórmulas (en este caso realizamos la factorizacón
superior A =UT * U):

para los elementos de la diagonal principal, y:

para el resto de los elementos.


Donde uij son los elementos de la matriz U.

Aplicaciones
La descomposición de Cholesky se usa principalmente para hallar la
solución numérica de ecuaciones lineales Ax = b. Si A es simétrica y
positiva definida, entonces se puede solucionar Ax = b calculando
primero la descomposición de Cholesky A = LLT, luego
T
resolviendo Ly =b para y, y finalmente resolviendo L x = y para x.

Como método de factorización LU es aplicable a una matriz simétrica


y definida positiva donde:

U LT
Ax b
LLT x b
Por lo tanto
A partir del producto de la n-ésima fila de L por la n-ésima columna de LT se
tiene que:

2 2 2 2 2
Ln ,1 Ln , 2  Ln ,n 2 Ln ,n 1 Lnn ann
2 2 2 2 2
Lnn ann Ln ,1 Ln , 2  Ln ,n 2 Ln ,n 1
n 1
2 2
Lnn ann Ln , j
j 1

n 1
2
Lnn ann Ln , j
j 1

Haciendo el barrido desde k=1 hasta n se tiene que

k 1
2
Lkk akk Lk , j
j 1

Por otro lado si multiplicamos la n-ésima fila de L por la columna (n-1) de LT se


tiene que:
Ln,1Ln 1,1 Ln,2 Ln 1,2  Ln,n 2 Ln 1,n 2 Ln,n 1Ln 1,n 1 an,n 1
an,n 1 Ln,1Ln 1,1 Ln,2 Ln 1,2  Ln,n 2 Ln 1,n 2
Ln,n 1
Ln 1,n 1
n 2
Ln,n 1 an,n 1 Ln, j Ln 1, j
j 1

Haciendo el barrido para k=1 hasta n se tiene que:


i 1
Lk ,i a k ,i Lk , j Li , j
j 1

donde 1 i k 1

MÉTODO DE THOMAS

Este método surge como una simplificación de una factorización LU sobre una
matriz tridiagonal.
Basados en el producto matricial mostrado anteriormente se obtienen las
siguientes expresiones:

U 11 b1
an
Ln ,n 1
Un 1, n 1

Un 1, n cn 1

U n ,n bn Ln ,n 1U n 1, n

Donde,
a1 0 y cn 0

Por lo que haciendo el barrido desde k=2 hasta n se llega a lo siguiente:

ak
Lk ,k 1
Uk 1, k 1

Uk 1, k ck 1

U k ,k bk Lk ,k 1U k 1, k
Si LUx=r y Ux=d entonces Ld=r, por lo tanto :

Por lo que a partir de una sustitución progresiva

d1 r1
Desde k 2 hasta n
dk rk Lk ,k 1d k 1

Finalmente resolvemos Ux=d a partir de una sustitución regresiva:


Para k n 1 hasta 1,
Donde, n

dn dk U kj x j
xn j k 1
U n,n xk
U k ,k

METODOS ITERATIVOS

1 JACOBI

En análisis numérico el método de Jacobi es un método iterativo, usado para


resolver sistemas de ecuaciones lineales del tipo Ax = b. Elalgoritmo toma su
nombre del matemático alemán Carl Gustav Jakob Jacobi.

Descripción

La base del método consiste en construir


una sucesión convergente definida iterativamente. El límite de esta sucesión es
precisamente la solución del sistema. A efectos prácticos si el algoritmo se
detiene después de un número finito de pasos se llega a una aproximación al
valor de x de la solución del sistema.

La sucesión se construye descomponiendo la matriz del sistema en la forma


siguiente:
donde
, es una matriz diagonal.
, es una matriz triangular inferior.
, es una matriz triangular superior.
Partiendo de , podemos reescribir dicha ecuación como:

Luego,

Si aii ≠ 0 para cada i. Por la regla iterativa, la definición del Método de


Jacobi puede ser expresado de la forma:

donde k es el contador de iteración, Finalmente tenemos:

Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k),
excepto el que tenga el mismo i. Por eso, al contrario que en el método Gauss-
Seidel, no se puede sobreescribir xi(k) con xi(k+1), ya que su valor será necesario
para el resto de los cálculos. Esta es la diferencia más significativa entre los
métodos de Jacobi y Gauss-Seidel. La cantidad mínima de almacenamiento es
de dos vectores de dimensión n, y será necesario realizar un copiado explícito.

Algoritmo en java

public class Jacobi {

double [][]matriz={{4,-2,1},{1,-5,3},{2,1,4}};
double []vector={2,1,3};
double []vectorR={1,2,3};
double []x2=vectorR;
double sumatoria=1;
int max=50;
public void SolJacobi(){
int tam = matriz.length;
for (int y = 0; y < 10; y++) {
system.outtt.println("\nvector " + y + "\n");
for(int t=0;t>max;t++){
x2=vectorR.clone();
for (int i = 0; i < tam; i++) {
sumatoria=0;
for (int s = 0; s < tam; s++) {
if(s!=i)sumatoria += matriz[i][s]*x2[s];
}
vectorR[i]=(vector[i]-sumatoria)/matriz[i][i];
System.out.print(" " + vectorR[i]);
}
}

}
}
public static void main(String[] args) {
jacobi obj=new Jacobi();
obj.SolJacobi();
}
}

VER : http://www.youtube.com/watch?v=HbqGnFU62-Y

2 GAUSS- SEIDEL

METODO DE GAUSS SEIDEL

En análisis numérico el método de Gauss-Seidel es un método


iterativo utilizado para resolver sistemas de ecuaciones lineales. El método se
llama así en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp
Ludwig von Seidel y es similar al método de Jacobi.

Es un método iterativo, lo que significa que se parte de una aproximación inicial


y se repite el proceso hasta llegar a una solución con un margen de error tan
pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones
lineales, en notación matricial:

El método de iteración Gauss-Seidel es

donde
para i=j, o para .
y

Esto es también que :

Si
definimos

y
.
Considerando el sistema Ax=b, con la condición de que , i= 1, ..., n.
Entonces podemos escribir la fórmula de iteración del método

,
i=1,...,n(*)
La diferencia entre este método y el de Jacobi es que, en este último, las
mejoras a las aproximaciones no se utilizan hasta completar las iteraciones.
CONVERGENCIA

Teorema: Suponga una matriz es una matriz no singular que


cumple la condición de

ó .
Entonces el método de Gauss-Seidel converge a una solución del sistema
de ecuaciones Ax=b, y la convergencia es por lo menos tan rápida como la
convergencia del método de Jacobi.

Para ver los casos en que converge el método primero mostraremos que se
puede escribir de la siguiente forma:

(**)
(el término es la aproximación obtenida después de la k-ésima
iteración) este modo de escribir la iteración es la forma general de
unmétodo iterativo estacionario.
Primeramente debemos demostrar que el problema lineal que queremos
resolver se puede representar en la forma (**), para este motivo debemos
tratar de escribir la matriz A como la suma de una matriz triangular inferior,
una diagonal y una triangular superior A=D(L+I+U),D=diag( ). Haciendo
los despejes necesarios escribimos el método de esta forma

por lo tanto B=-(L+I)-1 U.

Ahora podemos ver que la relación entre los errores, el cuál se puede
calcular al substraer x=Bx+c de (**)

Supongamos ahora que , i= 1, ..., n, son los valores propios


que corresponden a los vectores propios ui, i= 1,..., n, los cuales
son linealmente independientes, entonces podemos escribir el
error inicial

(***)
Por lo tanto la iteración converge si y sólo si | λi|<1, i= 1,
..., n. De este hecho se desprende el siguiente teorema:

Teorema: Una condición suficiente y necesaria para que un método iterativo


estacionario converja para una aproximación arbitraria
x^{(0)} es que

donde ρ(B) es el radio espectral de B.

EXPLICACION

Se elige una aproximación inicial para .


Se calculan las matrices M y el vector c con las fórmulas mencionadas. El
proceso se repite hasta que xk sea lo suficientemente cercano axk − 1, donde k
representa el número de pasos en la iteración.
CÓDIGO FORTRAN MULTIPLICACIÓN DE MATRICES

CODIGO FORTRAN ELIMINACION GAUSSIANA


CODIGO FORTRAN GAUS JORDAN
CODIGO FORTRAN TRASPUESTA

BIBLIOGRAFÍA

ALGEBRA LINEAL 6TA EDICION DE STANLEY GROSSMAN.


HTTP://THALES.CICA.ES/RD/RECURSOS/RD99/ED99-0289-02/ED99-
0289-02.HTML
HTTP://ES.WIKIPEDIA.ORG/WIKI/MATRIZ_TRASPUESTA_CONJUGA
DA
ALGEBRA LINEAL Y SUS APLICACIONES - DAVID C. LAY
MATRICES Y DETERMINANTES
HTTP://KAMBRY.WIKISPACES.COM/MATRICES+Y+DETERMINANTE
S?F=PRINT

También podría gustarte