P. 1
MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES.

MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES.

|Views: 3.578|Likes:
Publicado poroscarcbz

More info:

Published by: oscarcbz on Jul 27, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

01/30/2014

pdf

text

original

UNIVERSIDAD INDUSTRIAL DE SANTANDER FACULTAD DE INGENIERÍAS FISICOQUÍMICAS ESCUELA DE INGENIERIA DE PETROLEOS METODOS NUMERICOS

MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES

OSCAR ALBERTO ESTÉVEZ REAL

UNIVERSIDAD INDUSTRIAL DE SANTANDER MÉTODOS NUMÉRICOS 2010

MÉTODOS DIRECTOS PARA SOLUCIÓN DE SISTEMAS ECUACIONES LINEALES METODOS DIRECTOS 1 Sistemas de ecauciones lineales 2 Matriz Simétrica 3 Matriz traspuesta 4 Determinante 5Triangulo superior 6 Triangulo inferior 7 Matriz bandeada – Matriz aumentada 8 Multiplicación de matrices 9 Aplicación al calculo de la matriz inversa 10 Metodo de gauss jordan 11 Eliminación de gauss jordan 12 Ecuaciones Lineales Sistemas Especiales

METODOS ITERATIVOS 1 Jacobi 2 Gauss- seidel 3 Gauss seidel con relajación

1

SISTEMAS DE ECUACIONES LINEALES

En matemáticas, una matriz es una tabla bidimensional de números consistente en cantidades abstractas que pueden sumarse y multiplicarse. Las matrices se utilizan para describir sistemas de ecuaciones lineales, realizar un seguimiento de los coeficientes de una aplicación lineal y registrar los datos que dependen de varios parámetros. Las matrices se describen en el campo de la teoría de matrices. Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que también las hace un concepto clave en el campo del álgebra lineal.

DEFINICIONES Y NOTACIONES Una matriz es una tabla cuadrada o rectangular de datos (llamados elementos o entradas de la matriz) ordenados en filas y columnas, donde una fila es cada una de las líneas horizontales de la matriz y una columna es cada una de las líneas verticales. A una matriz con mfilas y n columnas se le denomina matriz m-por-n (escrito m×n), y a m y n dimensiones de la matriz. Las dimensiones de una matriz siempre se dan con el número de filas primero y el número de columnas después. Comúnmente se dice que una matriz m-por-n tiene unorden de m × n ("orden" tiene el significado de tamaño). Dos matrices se dice que son iguales si son del mismo orden y tienen los mismos elementos.

Al elemento de una matriz que se encuentra en la fila i-ésima y la columna jésima se le llama elemento i,j o elemento (i,j)-iésimo de la matriz. Se vuelve a poner primero las filas y después las columnas. Casi siempre, se denotan a las matrices con letras mayúsculas mientras que se utilizan las correspondientes letras en minúsculas para denotar a los elementos de las mismas. Por ejemplo, al elemento de una matriz A que se encuentra en la fila i-ésima y la columna j-ésima se le denota como ai,j o a[i,j]. Notaciones alternativas son A[i,j] o Ai,j. Además de utilizar letras mayúsculas para representar matrices, numerosos autores representan a las matrices con fuentes en negrita para distinguirlas de otros tipos de variables. Así A es una matriz, mientras que A es un escalar. Normalmente se escribe para definir una matriz A m × n con

cada entrada en la matriz A[i,j] llamada aij para todo 1 ≤ i≤ m y 1 ≤ j ≤ n. Sin embargo, la convención del inicio de los índices i y j en 1 no es universal:

algunos lenguajes de programación comienzan en cero, en cuál caso se tiene 0 ≤ i ≤ m − 1 y 0 ≤ j ≤ n − 1. Una matriz con una sola columna o una sola fila se denomina a menudo vector, y se interpreta como un elemento del espacio euclídeo. Una matriz 1 × n (una fila y n columnas) se denomina vector fila, y una matriz m × 1 (una columna y m filas) se denomina vector columna. Ejemplo: La matriz es una matriz 4x3. El elemento o es 7.

La matriz

es una matriz 1×9, o un vector fila con 9 elementos.

2 MATRIZ SIMÉTRICA

Una matriz de

elementos:

es simétrica, si es una matriz cuadrada (m = n) y aij = aji para todo i, j =1,2,3,4,...,n. Nótese que la simetría es respecto a la diagonal principal y que A es también, la matriz traspuesta de sí misma: At = A. Ejemplo para n = 3:

PROPIEDADES Uno de los teoremas básicos que concierne este tipo de matrices es el teorema espectral de dimensión finita, que dice que toda matriz simétrica cuyas entradas sean reales puede ser diagonalizada por una matriz ortogonal. Éste es un caso especial de una matriz hermítica.

3 MATRIZ TRASPUESTA Sea A una matriz con m filas y n columnas. La matriz traspuesta, denotada con At está dada por

Ejemplos:

PROPIEDADES: Para toda matriz Sean A y B matrices con elementos pertenecen a un anillo y sea :

Si el producto de las matrices A y B está definido,

Si A es una matriz cuadrada cuyas entradas son números reales, entonces

es semidefinida positiva

4 DETERMINANATE

En matemáticas se define el determinante como una forma multilineal alternada de un cuerpo En. Esta definición indica una serie de propiedades matemáticas y generaliza el concepto de determinante haciéndolo aplicable en numerosos campos. Sin embargo, el concepto de determinante o de volumen orientado fue introducido para estudiar el número de soluciones de los sistemas lineales de ecuaciones.

MÉTODOS DE CALCULO Para el cálculo de determinantes de matrices de cualquier orden, existe una regla recursiva (teorema de Laplace) que reduce el cálculo a sumas y restas de varios determinantes de un orden inferior. Este proceso se puede repetir tantas veces como sea necesario hasta reducir el problema al cálculo de múltiples determinantes de orden tan pequeño como se quiera. Sabiendo que el determinante de un escalar es el propio escalar, es posible calcular el determinante de cualquier matriz aplicando dicho teorema.

MATRICES DE ORDEN INFERIOR

El caso de matrices de orden inferior (orden 2 o 3) es tan sencillo que su determinante se calcula con sencillas reglas conocidas. Dichas reglas son también deducibles del teorema de Laplace Los determinantes de una matriz de orden 2:

se calculan con la siguiente fórmula:

Un determinante de orden 3 se calcula mediante la regla de Sarrus:

DETERMINANTES DE ORDEN SUPERIOR A 3 El determinante de orden n, puede desarrollarse a partir de una fila o columna, reduciendo el problema al cálculo de un determinante de orden n-1. Para ello se toma una fila o columna cualquiera, multiplicando cada elemento por su adjunto (es decir, el determinante de la matriz que se obtiene eliminando la fila y columna correspondiente a dicho elemento, multiplicado por (-1)i+j donde i es el número de fila y j el número de columna). La suma de todos los productos es igual al determinante. En caso de un determinante de orden 4, se obtienen directamente determinantes de orden 3 que podrán ser calculados por la regla de Sarrus. En cambio, en los determinantes de orden superior, como por ejemplo n = 5, al desarrollar los elementos de una línea, obtendremos determinantes de orden 4, que a su vez se deberán desarrollar en por el mismo método, para obtener determinantes de orden 3. Por ejemplo, para obtener con el método especificado un determinante de orden 4, se deben calcular 4 determinantes de orden 3. En cambio, si previamente se logran tres ceros en una fila o columna, bastara con calcular solo un determinante de orden 3 (ya que los demás determinantes estarán multiplicados por 0, lo que los anula). La cantidad de operaciones aumenta muy rápidamente. En el peor de los casos (sin obtener ceros en filas y columnas), para un determinante de orden 4 se deberán desarrollar 4 determinates de orden 3. En un determinante de orden 5, se obtienen 5 determinates de orden 4 a desarrollar, dándonos 20 determinates de orden 3. El número de determinates de orden 3 que se obtienen en el desarrollo de un determinante de orden n es igual a Por ejemplo, mediante este método, para un determinante de orden 10 se deberán calcular 10 x 9 x 8 x 7 x 6 x 5 x 4 = 604.800 determinantes de orden 3. También puede utilizarse el Método de eliminación Gaussiana, para convertir la matriz en una matriz triangular. Si bien el proceso puede parecer tedioso, estará muy lejos de los 14.529.715.200 de determinantes de orden 3 necesarios para calcular el determinante de una matriz de orden 14.

. Partiendo de una matriz 3×3:

Para calcular el determinante por los adjuntos de la primera fila:

Desarrollando los determinantes 2*2, tendremos:

Que podemos ordenar, para presentarlo en la forma usual de la Regla de Sarrus:

MATRIZ TRIANGULAR En álgebra lineal, una matriz triangular es un tipo especial de matriz cuadrada cuyos elementos por encima o por debajo de su diagonal principal son cero. Debido a que los sistemas de ecuaciones lineales con matrices triangulares son mucho más fáciles de resolver, las matrices triangulares son utilizadas en análisis numérico para resolver sistemas de ecuaciones lineales, calcular inversas y determinantes de matrices. El método de descomposición LU permite descomponer cualquier matriz invertible como producto de una matriz triangular inferior L y una superior U.

5 TRIANGULAR SUPERIOR Es una matriz triangular superior los elementos situados diagonal principal son ceros. por debajo de la

EJEMPLO

6 TRIANGULAR INFERIOR Es una matriz triangular inferior los elementos situados por ensima de la diagonal principal son ceros.

EJEMPLO

7 MATRIZ BANDEADA

Un gran número de sus componentes son cero:

8 MULTIPLICACIÓN DE MATRICES En matemática, la multiplicación o producto de matrices es la operación de multiplicación que se efectúa entre dos matrices, o bien entre una matriz y un escalar. Al igual que la multiplicación aritmética, su definición es instrumental, es decir, viene dada por un algoritmo capaz de resolverla. El algoritmo que resuelve la multiplicación matricial es diferente del que resuelve la multiplicación de dos números. La diferencia principal es que la multiplicación de matrices no cumple con la propiedad de conmutatividad.

MULTIPLICACIÓN DE UN ESCALAR POR UNA MATRIZ

Dada una matriz A de m filas y n columnas, lo que podemos denotar como:

la multiplicación de A por un escalar k, simplemente kA, está definida como:

que

se

denota k·A, k×A o

es decir, corresponde a la matriz conformada por cada elemento de la matriz multiplicado por dicho escalar.

Gráficamente, si

y

entonces

La multiplicación por escalar es análoga a la suma o resta de matrices, y cumple con las mismas características de la multiplicación aritmética. En efecto, podemos llegar al mismo resultado sumando k veces la misma matriz A entre sí.

PROPIEDAD

DESCRIPCIÓN

CLAUSURA

cA es también una matriz

ELEMENTO NEUTRO

Existe el elemento neutro uno, de manera que 1·A = A

PROPIEDAD ASOCIATIVA

(cd)A = c(dA)

PROPIEDAD DISTRIBUTIVA

c(A+B)

=

cA+cB

- DE ESCALAR (c+d)A = cA+dA - DE MATRIZ

MULTIPLICACION DE UNA MATRIZ POR UNA MATRIZ

Dadas dos matrices A y B, tales que el número de columnas de la matriz A es igual al número de filas de la matriz B; es decir: y a multiplicación de A por B, que se denota A·B, A×B o simplemente AB, está definida como:

donde cada elemento ci,j está definido por:

Gráficamente, Si

y

Entonces

PROPIEDADES Sean A, B y C matrices para las cuales la multiplicación entre ellas está bien definida, es decir, tales que sus elementos pertenecen a uncuerpo donde la multiplicación está definida, y de manera que el número de filas y de columnas permite realizar la multiplicación; entonces se cumplen las siguientes propiedades:

PROPIEDAD

DESCRIPCIÓN

CLAUSURA

AB es también una matriz

ELEMENTO NEUTRO

Si A es una matriz cuadrada de tamaño m, entonces la matriz identidad Im×mes elemento neutro, de manera que I·A = A

PROPIEDAD ASOCIATIVA

(AB)C = A(BC)

PROPIEDAD DISTRIBUTIVA POR DERECHA POR IZQUIERDA

LA LA

(A + B)C C(A + B) = CA + CB

=

AC

+

BC

El producto de dos matrices generalmente no es conmutativo, es decir, AB ≠ BA. La división entre matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra definida. Sin embargo, existe el concepto de matriz inversa, sólo aplicable a las matrices cuadradas. Finalmente, note que tanto la multiplicación de una matriz por un escalar, como la multiplicación de dos escalares, puede representarse mediante una multiplicación de dos matrices. APLICACIONES La multiplicación de matrices es muy útil para la resolución de sistemas de ecuaciones de muchas variables, dado que son muy cómodas para ser implementadas mediante un computador. El cálculo numérico se basa en gran parte de estas operaciones, al igual que poderosasaplicaciones tales como MATLAB. También actualmente se utiliza mucho en el cálculo de microarrays, en el área de bioinformática.

9 APLICACION AL CALCULO DE LA MATRIZ INVERSA Planteamiento del problema Sea una matriz A a la que se presente obtener su inversa X, entonces AX = I Esto significa resolver n sistemas de ecuaciones lineales con la misma matriz, donde los segundos miembros son los vectores de la base canonica. De cada sistema j -esimo se obtiene la j -esima columna de la matriz inversa X:

Resolución del problema El procedimiento mas adecuado es utilizar la factorización de Cholesky si el problema es simétrico o la LU si no lo es. De esta forma, las operaciones de triangulación solo se realizan una vez. Esto supone el coste de una factorización y n procesos de remonte de dos sistemas triangulares. Numero de operaciones Caso simétrico *Raíces cuadradas: n *Multiplicaciones/divisiones:

*Sumas/restas:

Caso no simétrico *Multiplicaciones/divisiones:

*Sumas/restas:

ANEXOS

10 METODO DE GAUSS JORDAN El método de gauss- jordan es una variable del método de gauss . Cuando se elimina una incognita en una ecuación , gauss-jordan elimina esa incognita en el resto de las ecuaciones , tomando como base para la eliminación a la ecuación pivote.Tambien todos los renglones se normalizan cuando se toma una ecuación pivote .El resultado final de este tipo de eliminación genera una matriz identidad en vez de una triangular como lo hace gauss, por lo que no se usa la sustitución hacia atrás.

Código fortran

Ver : http://www.youtube.com/watch?v=I1kexTz5GTM&feature=related

11 METODO DE ELIMINACIÓN DE JORDAN

En matemáticas, la eliminación Gaussiana, eliminación de Gauss o eliminación de Gauss-Jordan, llamadas así debido a Carl Friedrich Gauss y Wilhelm Jordan, son algoritmos del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. Cuando se aplica este proceso, la matriz resultante se conoce como: "forma escalonada". ANALISIS DE COMPLEJIDAD La complejidad computacional de la eliminación gaussiana es aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el tamaño de la matriz es n × n. ALGORITMO DE ELIMINACION DE GAUSS JORDAN 1. Ir a la columna no cero extrema izquierda 2. Si el primer renglón tiene un cero en esta columna, intercambiarlo con otro que no lo tenga 3. Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos adecuados del renglón superior a los renglones debajo de él 4. Cubrir el renglón superior y repetir el proceso anterior con la submatriz restante. Repetir con el resto de los renglones (en este punto la matriz se encuentra en la forma de escalón) 5. Comenzando con el último renglón no cero, avanzar hacia arriba: para cada renglón obtener un 1 delantero e introducir ceros arriba de este sumando múltiplos correspondientes a los renglones correspondientes EJEMPLO Supongamos que es necesario encontrar los números x, y, z, que satisfacen simultáneamente estas ecuaciones:

Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales) son estas:
 

Multiplicar una ecuación por un escalar no nulo. Intercambiar de posición dos ecuaciones

Sumar a una ecuación un múltiplo de otra.

Estas operaciones pueden representarse con matrices elementales que se usan también en otros procedimientos como la factorización LUo la diagonalización por congruencia de una matriz simétrica. En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la primera ecuación a la segunda y después sumamos la primera ecuación a la tercera. El resultado es:

Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para eliminar y.

Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para eliminar z.

Despejando, podemos ver las soluciones:

Para clarificar los pasos (y es en realidad lo que las computadoras manejan), se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación matricial: Primero:

Después,

Por último.

Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como esta:

Que representa la ecuación: 0x + 0y + 0z = 1, es decir, 0 = 1 que no tiene solución.

CODIGO FORTRAN

VER: http://www.youtube.com/watch?v=sKBoKqX6WV0&feature=fvw

12 ECUACIONES LINEALES SISTEMAS ESPECIALES Método de Cholesky

En matemáticas, la factorización o descomposición de Cholesky toma su nombre del matemático André-Louis Cholesky, quien encontró que una matriz simétrica definida positiva puede ser descompuesta como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva definida. El resultado de Cholesky ha sido extendido a matrices con entradas complejas. Es una manera de resolver sistemas de ecuaciones matriciales y se deriva de la factorización LU con una pequeña variación. Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el producto de una matriz triangular inferior L y una matriz triangular superior U; esto recibe el nombre de factorización LU. Sin embargo, si A es simétrica y definida positiva, se pueden escoger los factores tales que U es la transpuesta de L, y esto se llama la descomposición o factorización de Cholesky. Tanto la descomposición LU como la descomposición de Cholesky son usadas para resolver sistemas de ecuaciones lineales. Cuando es aplicable, la descomposición de Cholesky es dos veces más eficiente que la descomposición LU.

Definición En general, si A es Hermitiana y definida positiva, entonces A puede ser descompuesta como

donde L es una matriz triangular inferior con entradas diagonales estrictamente positivas, y L* representa la conjugada traspuesta de L. Esta es la descomposición de Cholesky. La descomposición de Cholesky es única: dada una matriz Hermitiana positiva definida A, hay una única matriz triangular inferior L con entradas diagonales estrictamente positivas tales que A = LL*. El recíproco se tiene trivialmente: si A se puede escribir como LL* para alguna matriz invertible L, triangular inferior o no, entonces A es Hermitiana y definida positiva. El requerimento de que L tenga entradas diagonales estrictamente positivas puede extenderse para el caso de la descomposición en el caso de ser semidefinida positiva. La proposición se lee ahora: una matriz cuadrada A tiene una descomposición de Cholesky si y sólo si A es Hermitiana y semidefinida positiva. Las factorizaciones de Cholesky para matrices semidefinidas positivas no son únicas en general. En el caso especial que A es una matriz positiva definida simétrica con entradas reales, L se puede asumir también con entradas reales. Una Matriz D diagonal con entradas positivas en la diagonal, es factorizable como , donde es matriz cuya diagonal consiste en la raíz cuadrada de cada elemento de D, que tomamos como positivos. Así:

La factorización puede ser calculada directamente a través de las siguientes fórmulas (en este caso realizamos la factorizacón superior A =UT * U):

para los elementos de la diagonal principal, y:

para el resto Donde uij son los elementos de la matriz U.

de

los

elementos.

Aplicaciones

La descomposición de Cholesky se usa principalmente para hallar la solución numérica de ecuaciones lineales Ax = b. Si A es simétrica y positiva definida, entonces se puede solucionar Ax = b calculando primero la descomposición de Cholesky A = LLT, luego T resolviendo Ly =b para y, y finalmente resolviendo L x = y para x.

Como método de factorización LU es aplicable a una matriz simétrica y definida positiva donde:

U

LT

Ax LLT x
Por lo tanto

b b

A partir del producto de la n-ésima fila de L por la n-ésima columna de LT se tiene que:

Ln ,1 Lnn Lnn Lnn

2

Ln , 2 ann ann

2

 Ln ,n Ln ,1
n 1 j 1 n 1 2 2

2 2 2

Ln ,n

2 1

Lnn
2 2

2

ann
2 1

2

Ln , 2
2

 Ln ,n

Ln ,n

2

Ln , j

ann
j 1

Ln , j

Haciendo el barrido desde k=1 hasta n se tiene que
k 1 2

Lkk

akk
j 1

Lk , j

Por otro lado si multiplicamos la n-ésima fila de L por la columna (n-1) de LT se tiene que:

Ln,1Ln 1,1 Ln,2 Ln 1,2  Ln,n 2 Ln 1,n 2 Ln,n 1Ln 1,n 1 an,n 1 Ln,n 1 an,n 1 Ln,1Ln 1,1 Ln,2 Ln 1,2  Ln,n 2 Ln 1,n 2 Ln 1,n 1
n 2

Ln,n 1 an,n 1
j 1

Ln, j Ln 1, j

Haciendo el barrido para k=1 hasta n se tiene que:
i 1

Lk ,i

a k ,i
j 1

Lk , j Li , j k 1

donde 1 i

MÉTODO DE THOMAS Este método surge como una simplificación de una factorización LU sobre una matriz tridiagonal.

Basados en el producto matricial mostrado anteriormente se obtienen las siguientes expresiones:
U 11 Ln ,n Un
1

b1 an Un cn bn
1, n 1 1

1, n

U n ,n

Ln ,n 1U n 0

1, n

Donde, a1 0 y cn

Por lo que haciendo el barrido desde k=2 hasta n se llega a lo siguiente:

Lk ,k Uk

ak
1

Uk ck bk

1, k 1 1

1, k

U k ,k

Lk ,k 1U k

1, k

Si LUx=r y Ux=d entonces Ld=r, por lo tanto :

Por lo que a partir de una sustitución progresiva
d1 dk r1 2 hasta n
1

Desde k rk

Lk ,k 1d k

Finalmente resolvemos Ux=d a partir de una sustitución regresiva:

Donde, xn dn U n,n

Para k dk xk

n 1 hasta 1,
n

U kj x j
j k 1

U k ,k

METODOS ITERATIVOS 1 JACOBI En análisis numérico el método de Jacobi es un método iterativo, usado para resolver sistemas de ecuaciones lineales del tipo Ax = b. Elalgoritmo toma su nombre del matemático alemán Carl Gustav Jakob Jacobi. Descripción La base del método consiste en construir una sucesión convergente definida iterativamente. El límite de esta sucesión es precisamente la solución del sistema. A efectos prácticos si el algoritmo se detiene después de un número finito de pasos se llega a una aproximación al valor de x de la solución del sistema. La sucesión se construye descomponiendo la matriz del sistema siguiente: en la forma

donde , es una matriz diagonal. , es una matriz triangular inferior. , es una matriz triangular superior. Partiendo de , podemos reescribir dicha ecuación como:

Luego,

Si aii ≠ 0 para cada i. Por la regla iterativa, la definición del Método de Jacobi puede ser expresado de la forma:

donde k es el contador de iteración, Finalmente tenemos:

Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k), excepto el que tenga el mismo i. Por eso, al contrario que en el método GaussSeidel, no se puede sobreescribir xi(k) con xi(k+1), ya que su valor será necesario para el resto de los cálculos. Esta es la diferencia más significativa entre los métodos de Jacobi y Gauss-Seidel. La cantidad mínima de almacenamiento es de dos vectores de dimensión n, y será necesario realizar un copiado explícito. Algoritmo en java public class Jacobi { double [][]matriz={{4,-2,1},{1,-5,3},{2,1,4}}; double []vector={2,1,3}; double []vectorR={1,2,3}; double []x2=vectorR; double sumatoria=1; int max=50; public void SolJacobi(){ int tam = matriz.length; for (int y = 0; y < 10; y++) {

system.outtt.println("\nvector " + y + "\n"); for(int t=0;t>max;t++){ x2=vectorR.clone(); for (int i = 0; i < tam; i++) { sumatoria=0; for (int s = 0; s < tam; s++) { if(s!=i)sumatoria += matriz[i][s]*x2[s]; } vectorR[i]=(vector[i]-sumatoria)/matriz[i][i]; System.out.print(" " + vectorR[i]); } } } } public static void main(String[] args) { jacobi obj=new Jacobi(); obj.SolJacobi(); } }

VER : http://www.youtube.com/watch?v=HbqGnFU62-Y 2 GAUSS- SEIDEL METODO DE GAUSS SEIDEL En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado para resolver sistemas de ecuaciones lineales. El método se llama así en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al método de Jacobi.

Es un método iterativo, lo que significa que se parte de una aproximación inicial y se repite el proceso hasta llegar a una solución con un margen de error tan pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones lineales, en notación matricial:

El método de iteración Gauss-Seidel es

donde

para i=j, o y

para

.

Esto es también que : Si definimos

y . Considerando el sistema Ax=b, con la condición de que Entonces podemos escribir la fórmula de iteración del método , i= 1, ..., n.

, i=1,...,n(*) La diferencia entre este método y el de Jacobi es que, en este último, las mejoras a las aproximaciones no se utilizan hasta completar las iteraciones. CONVERGENCIA Teorema: Suponga una matriz cumple la condición de ó es una matriz no singular que

.

Entonces el método de Gauss-Seidel converge a una solución del sistema de ecuaciones Ax=b, y la convergencia es por lo menos tan rápida como la convergencia del método de Jacobi. Para ver los casos en que converge el método primero mostraremos que se puede escribir de la siguiente forma: (**) (el término es la aproximación obtenida después de la k-ésima iteración) este modo de escribir la iteración es la forma general de unmétodo iterativo estacionario.

Primeramente debemos demostrar que el problema lineal que queremos resolver se puede representar en la forma (**), para este motivo debemos tratar de escribir la matriz A como la suma de una matriz triangular inferior, una diagonal y una triangular superior A=D(L+I+U),D=diag( los despejes necesarios escribimos el método de esta forma ). Haciendo

por lo tanto B=-(L+I)-1 U. Ahora podemos ver que la relación entre los errores, el cuál se puede calcular al substraer x=Bx+c de (**)

Supongamos ahora que , i= 1, ..., n, son los valores propios que corresponden a los vectores propios ui, i= 1,..., n, los cuales son linealmente independientes, entonces podemos escribir el error inicial

(***) Por lo tanto la iteración converge si y sólo si | λi|<1, i= 1, ..., n. De este hecho se desprende el siguiente teorema: Teorema: Una condición suficiente y necesaria para que un método iterativo estacionario x^{(0)} es que converja para una aproximación arbitraria

donde ρ(B) es el radio espectral de B. EXPLICACION Se elige una aproximación inicial para . Se calculan las matrices M y el vector c con las fórmulas mencionadas. El proceso se repite hasta que xk sea lo suficientemente cercano axk − 1, donde k representa el número de pasos en la iteración.

CÓDIGO FORTRAN MULTIPLICACIÓN DE MATRICES

CODIGO FORTRAN ELIMINACION GAUSSIANA

CODIGO FORTRAN GAUS JORDAN

CODIGO FORTRAN TRASPUESTA

BIBLIOGRAFÍA

ALGEBRA LINEAL 6TA EDICION DE STANLEY GROSSMAN. HTTP://THALES.CICA.ES/RD/RECURSOS/RD99/ED99-0289-02/ED990289-02.HTML HTTP://ES.WIKIPEDIA.ORG/WIKI/MATRIZ_TRASPUESTA_CONJUGA DA ALGEBRA LINEAL Y SUS APLICACIONES - DAVID C. LAY MATRICES Y DETERMINANTES HTTP://KAMBRY.WIKISPACES.COM/MATRICES+Y+DETERMINANTE S?F=PRINT

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->