Está en la página 1de 16

EL MÉTODO DE BISECCIÓN (Cerrado)

Cuando se aplicaron las técnicas gráficas en el ejemplo 5.1, se observó (figura 5.1) que f(x) cambió de signo a
ambos lados de la raíz. En general, si f(x) es real y continúa en el intervalo que va desde xl hasta xu y f(xl ) y
f(xu) tienen signos opuestos, es decir, f(xl ) f(xu) < 0, entonces hay al menos una raíz real entre xl y xu.
MÉTODO DE LA FALSA POSICIÓN (Cerrado)
Un inconveniente del método de bisección es que al dividir el intervalo de xl a xu en mitades iguales, no se
toman en consideración las magnitudes de f(xl ) y f(xu). Por ejemplo, si f(xl ) está mucho más cercana a cero
que f(xu), es lógico que la raíz se encuentre más cerca de xl que de xu (figura 5.12). Un método alternativo que
aprovecha esta visualización gráfica consiste en unir f(xl ) y f(xu) con una línea recta. La intersección de esta
línea con el eje de las x representa una mejor aproximación de la raíz. El hecho de que se reemplace la curva por
una línea recta da una “falsa posición” de la raíz; de aquí el nombre de método de la falsa posición, o en latín,
regula falsi. También se le conoce como método de interpolación lineal.
Usando triángulos semejantes (figura 5.12), la intersección de la línea recta con el eje de las x se estima mediante:

Desventajas del método de la falsa posición


Aunque el método de la falsa posición parecería ser siempre la mejor opción entre los métodos cerrados, hay
casos donde funciona de manera deficiente.
Después de cinco iteraciones, el error verdadero sólo se ha reducido al 59%.
Entonces, el error aproximado es engañoso. Se obtiene mayor claridad sobre
estos resultados examinando una gráfica de la función. La curva viola la
premisa sobre la cual se basa la falsa posición; es decir, si f(xl ) se encuentra
mucho más cerca de cero que f(xu), la raíz se encuentra más cerca de xl que
de xu. Sin embargo, debido a la forma de esta función ocurre lo contrario.
METODO DE NEWTON RAPHSON (Abierto)
Si el valor inicial para la raíz es xi , entonces se puede trazar una tangente desde el punto [xi, f(xi )] de la curva. Por lo
común, el punto donde esta tangente cruza al eje x representa una aproximación mejorada de la raíz. El método de
Newton-Raphson se deduce a partir de esta interpretación geométrica (un método alternativo basado en la serie de
Taylor se describe en el cuadro 6.2). De la figura 6.5, se tiene que la primera derivada en x es equivalente a la
pendiente:

Desventajas del método de Newton-Raphson


Aunque en general el método de Newton-Raphson es muy eficiente, hay situaciones donde se comporta de
manera deficiente. Por ejemplo, en el caso especial de raíces múltiples. Sin embargo, también cuando se trata de
raíces simples, se encuentran dificultades.
De manera que no hay un criterio general de convergencia para el método de Newton-Raphson. Su convergencia
depende de la naturaleza de la función y de la exactitud del valor inicial. La única solución en estos casos es tener un
valor inicial que sea “suficientemente” cercano a la raíz. ¡Y para algunas funciones ningún valor inicial funcionará!

Cuatro casos donde el método de Newton-Raphson exhibe una convergencia deficiente.


EL MÉTODO DE LA SECANTE (Abierto)
Un problema potencial en la implementación del método de Newton-Raphson es la evaluación de la derivada.
Aunque esto no es un inconveniente para los polinomios ni para muchas otras funciones, existen algunas
funciones cuyas derivadas en ocasiones resultan muy difíciles de calcular. En dichos casos, la derivada se puede
aproximar mediante una diferencia finita dividida hacia atrás, como en (figura 6.7)

Esta aproximación se sustituye en la ecuación (6.6) para


obtener la siguiente ecuación iterativa

La ecuación (6.7) es la fórmula para el método de la


secante. Observe que el método requiere de dos valores
iniciales de x. Sin embargo, debido a que no se necesita
que f(x) cambie de signo entre los valores dados, este
método no se clasifica como un método cerrado

Diferencia entre los métodos de la secante y de la falsa posición


Observe la similitud entre los métodos de la secante y de la falsa posición. Por ejemplo, las ecuaciones (6.7) y
(5.7) son idénticas en todos los términos. Ambas usan dos valores iniciales para calcular una aproximación de
la pendiente de la función que se utiliza para proyectar hacia el eje x una nueva aproximación de la raíz. Sin
embargo, existe una diferencia crítica entre ambos métodos. Tal diferencia estriba en la forma en que uno de
los valores iniciales se reemplaza por la nueva aproximación. Recuerde que, en el método de la falsa posición, la
última aproximación de la raíz reemplaza cualquiera de los valores iniciales que dé un valor de la función con el
mismo signo que f(xr). En consecuencia, las dos aproximaciones siempre encierran a la raíz. Por lo tanto, para
todos los casos, el método siempre converge, pues la raíz se encuentra dentro del intervalo. En contraste, el
método de la secante reemplaza los valores en secuencia estricta: con el nuevo valor xi + 1 se reemplaza a xi y
xi reemplaza a xi – 1. En consecuencia, algunas veces los dos valores están en el mismo lado de la raíz. En
ciertos casos esto puede llevar a divergencias.

Comparación entre los métodos de la falsa posición y de la secante. Las primeras iteraciones a) y b) de ambos
métodos son idénticas. No obstante, en las segundas iteraciones c) y d), los puntos usados son diferentes. En
consecuencia, el método de la secante llega a diverger, como se indica en d).
REGRESIÓN POR MÍNIMOS CUADRADOS

Cuando los datos tienen errores sustanciales, la interpolación polinomial es inapropiada y puede dar
resultados poco satisfactorios cuando se utiliza para predecir valores intermedios. Con frecuencia los datos
experimentales son de este tipo.

Una estrategia más apropiada en tales casos consiste en obtener una función de aproximación que se ajuste a
la forma o a la tendencia general de los datos, sin coincidir necesariamente en todos los puntos.

REGRESION LINEAL

El ejemplo más simple de una aproximación por mínimos cuadrados es ajustar una línea recta a un conjunto de
observaciones definidas por puntos: (x1, y1), (x2, y2),…, (xn, yn). La expresión matemática para la línea recta es
y = a0 + a1x + e

donde a0 y a1 son coeficientes que representan la intersección con el eje y y la pendiente, respectivamente, e
es el error, o diferencia, entre el modelo y las observaciones, el cual se representa al reordenar la ecuación
como

e = y – a0 – a1x

Una estrategia para ajustar una “mejor” línea a través de los datos será minimizar la suma de los errores
residuales de todos los datos disponibles, como sigue:

Para determinar los valores de a0 y a1, la ecuación se deriva con respecto a cada uno de los coeficientes:

Al igualar estas derivadas a cero, se dará como resultado un Sr mínimo. Si se hace esto, las ecuaciones se
expresan como:
.

COEFICIENTE DE CORRELACIÓN DE PEARSON.

Definición En estadística

El coeficiente de correlación de Pearson es una medida lineal entre dos variables aleatorias cuantitativas. De
manera menos formal, podemos definir el coeficiente de correlación de Pearson como un índice que puede
utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas y
continuas. Interpretación: El valor del índice de correlación varía en el intervalo [-1,1], indicando el signo el
sentido de la relación:

• Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las dos
variables denominada relación directa: cuando una de ellas aumenta, la otra también lo hace en
proporción constante.
• Si 0 < r < 1, existe una correlación positiva.
• Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las variables son
independientes: pueden existir todavía relaciones no lineales entre las dos variables
• Si -1 < r < 0, existe una correlación negativa.
• Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia total entre las dos
variables llamada relación inversa: cuando una de ellas aumenta, la otra disminuye en proporción
constante.
INTERPOLACIÓN

Con frecuencia se encontrará con que tiene que estimar valores intermedios entre datos definidos por puntos.
El método más común que se usa para este propósito es la interpolación polinomial. Recuerde que la fórmula
general para un polinomio de n-ésimo grado es

Dados n + 1 puntos, hay uno y sólo un polinomio de grado* n que pasa a través de todos los puntos. Por
ejemplo, hay sólo una línea recta (es decir, un polinomio de primer grado) que une dos puntos. De manera
similar, únicamente una parábola une un conjunto de tres puntos. La interpolación polinomial consiste en
determinar el polinomio único de n-ésimo grado que se ajuste a n + 1 puntos. Este polinomio, entonces,
proporciona una fórmula para calcular valores intermedios.

POLINOMIOS DE INTERPOLACIÓN DE LAGRANGE

El polinomio de interpolación de Lagrange es simplemente una reformulación del polinomio de Newton.

donde Π designa el “producto de”. Por ejemplo, la versión lineal (n = 1) es

y la versión de segundo grado es

Y la versión en tercer grado

El razonamiento detrás de la formulación de Lagrange se comprede directamente al darse cuenta de que cada
término Li(x) será 1 en x = xi y 0 en todos los otros puntos. De esta forma, cada producto Li(x) f(xi ) toma el
valor de f(xi ) en el punto xi . En consecuencia, la sumatoria de todos los productos en la ecuación es el único
polinomio de n-ésimo grado que pasa exactamente a través de todos los n + 1 puntos, que se tienen como
datos.
DESCOMPOSICION LU

EL MÉTODO DE GAUSS-SEIDEL
La segunda parte de este capítulo presenta una alternativa a los métodos de eliminación, es decir, métodos
iterativos. El enfoque se da con el método de Gauss-Seidel, el cual emplea valores iniciales y después itera para
obtener mejores aproximaciones a la solución. El método de Gauss-Seidel es particularmente adecuado cuando
se tiene gran número de ecuaciones. En estos casos, los métodos de eliminación pueden estar sujetos a errores
de redondeo. Debido a que el error en el método de Gauss-Seidel es determinado por el número de iteraciones,
el error de redondeo no es un tema que preocupe a este método. Aunque, existen ciertos ejemplos donde la
técnica de Gauss-Seidel no convergerá al resultado correcto.
Aunque la eliminación de Gauss o la descomposición LU convencional se emplean para resolver sistemas de
ecuaciones bandeados, resultan ser ineficientes, debido a que si el pivoteo no es necesario, ninguno de los
elementos fuera de la banda cambiará su valor original igual a cero. Así, será necesario utilizar tiempo y espacio
en el almacenamiento y en el manejo de estos ceros inútiles. Si se sabe de antemano que el pivoteo no es
necesario, se pueden desarrollar algoritmos muy eficientes en los que no intervengan los ceros fuera de la banda.
Como en muchos problemas con sistemas bandeados, no se requiere el pivoteo; los algoritmos alternos, que se
describirán a continuación, son los métodos seleccionados para tal fin.
El método de Gauss-Seidel es el método iterativo más comúnmente usado. Suponga que se da un sistema de n
ecuaciones:
A]{X} = {B}
Suponga que se limita a un conjunto de ecuaciones de 3 × 3. Si los elementos de la diagonal no son todos cero, la
primera ecuación se puede resolver para x1, la segunda para x2 y la tercera para x3, para obtener
Ahora, se puede empezar el proceso de solución al escoger valores iniciales para las x. Una forma simple para
obtener los valores iniciales es suponer que todos son cero. Estos ceros se sustituyen en la ecuación (11.5a), la
cual se utiliza para calcular un nuevo valor x1 = b1/a11. Después, se sustituye este nuevo valor de x1 junto con
el valor previo cero de x3 en la ecuación (11.5b) y se calcula el nuevo valor de x2. Este proceso se repite con la
ecuación (11.5c) para calcular un nuevo valor de x3. Después se regresa a la primera ecuación y se repite todo el
procedimiento hasta que la solución converja suficientemente cerca a los valores verdaderos.
Conforme un nuevo valor de x se calcula con el método de Gauss-Seidel, éste se usa inmediatamente en la
siguiente ecuación para determinar el otro valor de x. De esta forma, si la solución es convergente, se empleará
la mejor aproximación disponible. Un método alternativo, llamado iteración de Jacobi, emplea una táctica algo
diferente. Más que usar inmediatamente el último valor disponible de x, esta técnica usa la ecuación (11.5) para
calcular un conjunto de nuevas x con base en un conjunto de x anteriores. De esta forma, conforme se generan
nuevos valores, no se usan en forma inmediata, sino que se retienen para la siguiente iteración.
La diferencia entre el método de Gauss-Seidel y la iteración de Jacobi se muestra en la figura 11.4. Aunque hay
ciertos casos donde es útil el método de Jacobi, la utilización de Gauss-Seidel da la mejor aproximación y
usualmente lo hace el método preferido.
11.2.1 Criterio de convergencia para el método de Gauss-Seidel

Ilustración gráfica de la
diferencia entre los métodos
de a) Gauss-Seidel y b)
iterativo de Jacobi, para
resolver sistemas de
ecuaciones algebraicas
lineales.
El coeficiente diagonal en
cada una de las ecuaciones
debe ser mayor que la suma
del valor absoluto de los otros
coeficientes de la ecuación.
Este criterio es suficiente pero
no necesario para la
convergencia. A los sistemas
que cumplen con la ecuación
se les conoce como
diagonalmente dominantes.
FÓRMULAS DE INTEGRACIÓN DE NEWTON-COTES
Las fórmulas de Newton-Cotes son los tipos de integración numérica más comunes. Se basan en la
estrategia de reemplazar una función complicada o datos tabulados por un polinomio de aproximación que
es fácil de integrar

donde f n(x) = un polinomio de la forma / donde n es el grado del polinomio

LA REGLA DEL TRAPECIO


La regla del trapecio es la primera de las fórmulas cerradas de integración de Newton-Cotes. Corresponde
al caso donde el polinomio de la ecuación es de primer grado

Geométricamente, la regla del trapecio es


equivalente a aproximar el área del
trapecio bajo la línea recta que une f(a) y
f(b) en la figura 21.4. Recuerde que la
fórmula para calcular el área de un
trapezoide es la altura por el promedio de
las bases. En nuestro caso, el concepto es
el mismo, pero el trapezoide está sobre su
lado. Por lo tanto, la integral aproximada
se representa como
I = ancho × altura promedio
LA REGLA DEL TRAPECIO DE APLICACIÓN MÚLTIPLE
Una forma de mejorar la precisión de la regla del trapecio consiste en dividir el intervalo de integración de
a a b en varios segmentos, y aplicar el método a cada uno de ellos. Las áreas de los segmentos se suman
después para obtener la integral en todo el intervalo. Las ecuaciones resultantes se llaman fórmulas de
integración, de aplicación múltiple o compuestas
Si a y b se designan como x0 y xn , respectivamente, la integral completa se representará como

Sustituyendo la regla del trapecio en cada integral se obtiene


REGLA DE SIMPSON 1/3
La regla de Simpson 1/3 resulta cuando un polinomio de interpolación de segundo grado se sustituye en la
ecuación:

Después de la integración y de las manipulaciones algebraicas, se obtiene la siguiente fórmula:

donde, en este caso, h = (b – a)/2. Esta ecuación se conoce como regla de Simpson 1/3. La especificación
“1/3” se origina del hecho de que h está dividida entre 3 en la ecuación.
LA REGLA DE SIMPSON 1/3 DE APLICACIÓN MÚLTIPLE
Así como en la regla del trapecio, la regla de Simpson se mejora al dividir el intervalo de integración en
varios segmentos de un mismo tamaño
La integral total se puede representar como

Al sustituir la regla de Simpson 1/3 en cada integral se obtiene

Observe que se debe utilizar un número par de segmentos para implementar el método. Además, los
coeficientes “4” y “2” a primera vista parecerían peculiares. No obstante, siguen en forma natural la regla
de Simpson 1/3. Los puntos impares representan el término medio en cada aplicación y, por lo tanto, llevan
el peso de 4. Los puntos pares son comunes a aplicaciones adyacentes y, por lo tanto, se cuentan dos veces.
CAPÍTULO 25 MÉTODOS DE RUNGE-KUTTA
Nuevo valor = valor anterior + pendiente × tamaño de paso

yi+1 = yi + h

MÉTODO DE EULER

EJEMPLO
Planteamiento del problema. Con el método de Euler integre numéricamente la ecuación (PT7.13) desde x =
0 hasta x = 4 con un tamaño de paso 0.5. La condición inicial en x = 0 es y = 1.

a) Comparación de dos soluciones numéricas con el método de Euler usando tamaños de paso 0.5 y 0.25. b)
Comparación del error de truncamiento local verdadero y estimado donde el tamaño de paso es 0.5. Observe que el
error “estimado” se basa en la ecuación (E25.2.5).
RUGEN-KUTTA
2° ORDEN 3° ORDEN

4° ORDEN

También podría gustarte