Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Investigacion de Metodos de Jacobi, Gauss Seidel PDF
Investigacion de Metodos de Jacobi, Gauss Seidel PDF
NOMBRE:
CURSO:
4° “A”
MATERIA:
MÉTODOS NUMÉRICOS
PROFESOR(A):
2019(2)
Métodos
1. Método de Jacobi
La forma más conveniente de expresar estos métodos es usar la notación matricial. La matriz A
matriz diagonal que contiene los elementos de la diagonal de A, y U es una matriz triangular
El método de Jacobi converge para matrices A que son diagonalmente dominantes, en el sentido
matriz de iteración
iteración tiene valores propios, cada uno de los cuales refleja el factor por el que se suprime durante
una iteración el valor propio particular de algún residual no deseado. Es evidente que estos factores
tienen un módulo menor que 1. Con módulo menor que uno. La rapidez de convergencia de este
método está dada por la rapidez de disminución del valor propio más lento: es decir, el factor con
el módulo más grande. El módulo de este factor está, por consiguiente, entre 0 y 1, y se le llama
radio espectral del operador de relajación (p). El número de iteraciones (r) necesarias para reducir
converger, dependiendo de las condiciones iniciales. La idea de iterar se puede aplicar fácilmente
factor 10−3 () son, respectivamente (ρs = 0.0755) y (r = 3). Es claro que las iteraciones pueden ser
un método muy útil de solución. Se demuestra ahora que éste también puede ser un método
inapropiado en ciertas circunstancias. Las ecuaciones del ejemplo 4.9 se pueden tomar en un orden
Con este acomodo, el radio espectral del sistema es (ρs = 27 7802.), lo cual lo hace divergente.
cual no tiene sentido. A continuación se muestra que esta forma de ordenar las ecuaciones es
aproximaciones sucesivas
tanto, es crucial obtener algún conocimiento para que se pueda asegurar que las iteraciones
converjan. El método anterior, conocido como método de Jacobi, rara vez se usa porque existen
varias mejoras que se pueden utilizar para elevar la rapidez de convergencia. Sin embargo, si se
cuenta con una computadora que efectúe cálculos en paralelo, se recomienda este método por ser
altamente paralelizable.
2. Método de Gauss-Seidel
Los métodos iterativos constituyen una alternativa a los métodos de eliminación descritos
hasta ahora, para aproximar la solución. Tales métodos son similares a las técnicas
que se desarrollaron en el capítulo 6 para obtener las raíces de una sola ecuación. Aquellos
obtener una aproximación mejorada de la raíz. Como esta parte del libro trata con un
ecuaciones). Entonces se esperaría que tales métodos aproximados fuesen útiles en este
un sistema de n ecuaciones:
[A]{X} = {B}
son todos cero, la primera ecuación se puede resolver para x1, la segunda para
Estos ceros se sustituyen en la ecuación (11.5a), la cual se utiliza para calcular un nuevo
valor x1 = b1/a11. Después, se sustituye este nuevo valor de x1 junto con el valor previo
cero de x3 en la ecuación (11.5b) y se calcula el nuevo valor de x2. Este proceso se repite
con la ecuación (11.5c) para calcular un nuevo valor de x3. Después se regresa a la primera
ecuación y se repite todo el procedimiento hasta que la solución converja suficientemente cerca
para todas las i, donde j y j – 1 son las iteraciones actuales y previas, respectivamente.
Solución. Primero, despeje la incógnita sobre la diagonal para cada una de las ecuaciones.
El método es, por lo tanto, convergente hacia la verdadera solución. Es posible aplicar
iteraciones adicionales para mejorar los resultados. Sin embargo, en un problema real, no se
podría saber a priori el resultado correcto. En consecuencia, la ecuación (11.6) nos da un medio
Para x2 y x3, los errores estimados son ⎪ea,2⎪ = 11.8% y ⎪ea,3⎪ = 0.076%. Observe que,
como cuando se determinaron las raíces de una sola ecuación, las formulaciones como la
cuando éstas se satisfacen, aseguran que el resultado se conozca con, al menos, la tolerancia
Hay ocasiones en las que resulta útil construir varios polinomios aproximantes P1(x), P2(x), ...,
PN(x) y, después, elegir el más adecuado a nuestras necesidades. Si usamos los polinomios de
interpolación de Lagrange, uno de los inconvenientes es que no se pueden utilizar los cálculos
operaciones. Vamos a seguir ahora un camino de construcción distinto, en el cual los polinomios
4. Diferenciación numérica
Euler
Una de las técnicas más simples para aproximar soluciones de una ecuación diferencial es el
Este se obtiene de considerar una aproximación lineal a la para la solución exacta Y (x) del
Denotando Y (x+h) como yn+1 y f[x, y(x)] por f(xn, yn) obtenemos la fórmula del método de
Referencias
Chapra, S., & Canal, R. (2007). Métodos numéricos para ingenieros(Quinta edición). México:
Gutiérrez, J., Olmos, M., & Casillas, J. (2010). Análisis numérico. México: McGRAW-
https://s3.amazonaws.com/academia.edu.documents/57871321/METODOS_NUMERICO
S.pdf?response-content-
disposition=inline%3B%20filename%3DMETODOS_NUMERICOS.pdf&X-Amz-
Algorithm=AWS4-HMAC-SHA256&X-Amz-
Credential=AKIAIWOWYYGZ2Y53UL3A%2F20200202%2Fus-east-1%2Fs3%2Fa
http://www3.fi.mdp.edu.ar/metodos/apuntes/diferencias%20divididas.pdf