Está en la página 1de 10

UNIVERSIDAD LAICA “ELOY ALFARO” DE MANABÍ

NOMBRE:

BARRE MUÑOZ ROBERTH ALEXANDER

CURSO:

4° “A”

MATERIA:

MÉTODOS NUMÉRICOS

PROFESOR(A):

ING, ADRIANA VIRGINIA MACIAS ESPINALES

2019(2)
Métodos
1. Método de Jacobi

La forma más conveniente de expresar estos métodos es usar la notación matricial. La matriz A

se divide en tres partes, correspondientes a los tres conjuntos de coeficientes. La ecuación AX = B

será (L D+ + U X) = B donde L es una matriz triangular inferior con ceros en la diagonal, D es la

matriz diagonal que contiene los elementos de la diagonal de A, y U es una matriz triangular

superior con ceros en la diagonal (Gutiérrez, Olmos, & Casillas, 2010).

El método de Jacobi para la r-ésima iteración se escribe como sigue

El método de Jacobi converge para matrices A que son diagonalmente dominantes, en el sentido

que es matemáticamente preciso. Para determinar si el método es convergente, si se tiene que la

matriz de iteración

además de un término aditivo, D B−1 , mapea un conjunto de X en el siguiente. Esta matriz de

iteración tiene valores propios, cada uno de los cuales refleja el factor por el que se suprime durante

una iteración el valor propio particular de algún residual no deseado. Es evidente que estos factores

tienen un módulo menor que 1. Con módulo menor que uno. La rapidez de convergencia de este

método está dada por la rapidez de disminución del valor propio más lento: es decir, el factor con

el módulo más grande. El módulo de este factor está, por consiguiente, entre 0 y 1, y se le llama

radio espectral del operador de relajación (p). El número de iteraciones (r) necesarias para reducir

el error total por un factor (10-p) se estima por:


En el límite, cuando (ρs) tiende a 1, el sistema está en el punto de ruptura. Aquí puede o no

converger, dependiendo de las condiciones iniciales. La idea de iterar se puede aplicar fácilmente

a ecuaciones simultáneas lineales. Esto se ilustra mediante un ejemplo numérico. El código

desarrollado en Matlab de este método se proporciona en la sección 4.6.10.

Planteamiento del problema. Mediante el método de Jacobi, resolver el conjunto de ecuaciones

lineales dadas por:

Despejando de la primera ecuación la primera variable y así sucesivamente, se obtiene

Si las primeras aproximaciones son x1 = 0, x2 = 0 y x3 = 0 entonces la siguiente iteración es

y las iteraciones sucesivas son

La sustitución de los valores x1 = 2, x2 =1 y x3 = 3 en el sistema inicial demuestra que el proceso

está convergiendo rápidamente a la solución verdadera. Si se utiliza la ecuación (4.51) y la ecuación


(4.52), se tiene que el radio espectral y el número de iteraciones para reducir el error total por un

factor 10−3 () son, respectivamente (ρs = 0.0755) y (r = 3). Es claro que las iteraciones pueden ser

un método muy útil de solución. Se demuestra ahora que éste también puede ser un método

inapropiado en ciertas circunstancias. Las ecuaciones del ejemplo 4.9 se pueden tomar en un orden

diferente, por ejemplo

Con este acomodo, el radio espectral del sistema es (ρs = 27 7802.), lo cual lo hace divergente.

Si se calcula el número de iteraciones con la ecuación (4.52), se obtiene un número negativo, lo

cual no tiene sentido. A continuación se muestra que esta forma de ordenar las ecuaciones es

divergente, resolviendo el sistema numéricamente. Despejando de la primera ecuación la primera

variable y así sucesivamente, se obtiene

Utilizando los valores x1 = 0, x2 = 0 y x3 = 0 para la primera aproximación, se obtienen las

aproximaciones sucesivas

y no hay posibilidad de que esta secuencia converja a los valores x1 = 2, x2 =1 y x3 = 3. Por

tanto, es crucial obtener algún conocimiento para que se pueda asegurar que las iteraciones

converjan. El método anterior, conocido como método de Jacobi, rara vez se usa porque existen
varias mejoras que se pueden utilizar para elevar la rapidez de convergencia. Sin embargo, si se

cuenta con una computadora que efectúe cálculos en paralelo, se recomienda este método por ser

altamente paralelizable.

2. Método de Gauss-Seidel

Los métodos iterativos constituyen una alternativa a los métodos de eliminación descritos

hasta ahora, para aproximar la solución. Tales métodos son similares a las técnicas

que se desarrollaron en el capítulo 6 para obtener las raíces de una sola ecuación. Aquellos

métodos consistían en suponer un valor y luego usar un método sistemático para

obtener una aproximación mejorada de la raíz. Como esta parte del libro trata con un

problema similar (obtener los valores que simultáneamente satisfagan un conjunto de

ecuaciones). Entonces se esperaría que tales métodos aproximados fuesen útiles en este

contexto (Chapra & Canal, 2007).

El método de Gauss-Seidel es el método iterativo más comúnmente usado. Suponga que se da

un sistema de n ecuaciones:

[A]{X} = {B}

Suponga que se limita a un conjunto de ecuaciones de 3 × 3. Si los elementos de la diagonal no

son todos cero, la primera ecuación se puede resolver para x1, la segunda para

x2 y la tercera para x3, para obtener

Ahora, se puede empezar el proceso de solución al escoger valores iniciales para


las x. Una forma simple para obtener los valores iniciales es suponer que todos son cero.

Estos ceros se sustituyen en la ecuación (11.5a), la cual se utiliza para calcular un nuevo

valor x1 = b1/a11. Después, se sustituye este nuevo valor de x1 junto con el valor previo

cero de x3 en la ecuación (11.5b) y se calcula el nuevo valor de x2. Este proceso se repite

con la ecuación (11.5c) para calcular un nuevo valor de x3. Después se regresa a la primera

ecuación y se repite todo el procedimiento hasta que la solución converja suficientemente cerca

a los valores verdaderos. La convergencia se verifica usando el criterio

para todas las i, donde j y j – 1 son las iteraciones actuales y previas, respectivamente.

Planteamiento del problema. Use el método de Gauss-Seidel para obtener la solución

del sistema usado en el ejemplo 11.1:

Recuerde que la verdadera solución es x1 = 3, x2 = –2.5 y x3 = 7.

Solución. Primero, despeje la incógnita sobre la diagonal para cada una de las ecuaciones.

Suponiendo que x2 y x3 son cero, se utiliza la ecuación (E11.3.1) para calcular


Este valor, junto con el valor de x3 = 0, se sustituye en la ecuación (E11.3.2) para calcular

La primera iteración termina al sustituir los valores calculados para x1 y x2 en la ecuación

(E11.3.3) para dar

En la segunda iteración, se repite el mismo proceso para calcular

El método es, por lo tanto, convergente hacia la verdadera solución. Es posible aplicar

iteraciones adicionales para mejorar los resultados. Sin embargo, en un problema real, no se

podría saber a priori el resultado correcto. En consecuencia, la ecuación (11.6) nos da un medio

para estimar el error. Por ejemplo, para x1,

Para x2 y x3, los errores estimados son ⎪ea,2⎪ = 11.8% y ⎪ea,3⎪ = 0.076%. Observe que,

como cuando se determinaron las raíces de una sola ecuación, las formulaciones como la

ecuación (11.6) usualmente ofrecen una valoración conservativa de la convergencia. Así,

cuando éstas se satisfacen, aseguran que el resultado se conozca con, al menos, la tolerancia

especificada por Es.


3. Interpolación por polinomios de Newton

Hay ocasiones en las que resulta útil construir varios polinomios aproximantes P1(x), P2(x), ...,

PN(x) y, después, elegir el más adecuado a nuestras necesidades. Si usamos los polinomios de

interpolación de Lagrange, uno de los inconvenientes es que no se pueden utilizar los cálculos

realizados en la construcción de PN-1(x) para la de PN(x); cada polinomio debe construirse

individualmente y para calcular polinomios de grado elevado es necesario hacer muchas

operaciones. Vamos a seguir ahora un camino de construcción distinto, en el cual los polinomios

de interpolación, que se llamaron de Newton, se calculan mediante un esquema recursivo:

El polinomio PN(x) se obtiene a partir de PN-1(x) usando la recurrencia:

El polinomio PN(x) calculado así es el polinomio de interpolación de Newton (Rodrigo, 2008).

4. Diferenciación numérica

Euler

Una de las técnicas más simples para aproximar soluciones de una ecuación diferencial es el

método de Euler o de las rectas tangentes.

Este se obtiene de considerar una aproximación lineal a la para la solución exacta Y (x) del

problema de valor inicial.


La aproximación lineal de Y 0(x) se representa como:

de donde, despejando Y (x + h) obtenemos:

Denotando Y (x+h) como yn+1 y f[x, y(x)] por f(xn, yn) obtenemos la fórmula del método de

Euler (Itzel, 2013).

Referencias
Chapra, S., & Canal, R. (2007). Métodos numéricos para ingenieros(Quinta edición). México:

McGRAW-HILL/INTERAMERICANA EDITORES, S.A. DE C.V.

Gutiérrez, J., Olmos, M., & Casillas, J. (2010). Análisis numérico. México: McGRAW-

HILL/INTERAMERICANA EDITORES, S.A. DE C.V.

Itzel, C. (2013). Obtenido de

https://s3.amazonaws.com/academia.edu.documents/57871321/METODOS_NUMERICO

S.pdf?response-content-

disposition=inline%3B%20filename%3DMETODOS_NUMERICOS.pdf&X-Amz-

Algorithm=AWS4-HMAC-SHA256&X-Amz-

Credential=AKIAIWOWYYGZ2Y53UL3A%2F20200202%2Fus-east-1%2Fs3%2Fa

Rodrigo, R. (2008). Obtenido de

http://www3.fi.mdp.edu.ar/metodos/apuntes/diferencias%20divididas.pdf

También podría gustarte