Está en la página 1de 8

Mtodo de la biseccin.

El mtodo consiste en lo siguiente:

Debe existir seguridad sobre la continuidad de la funcin f(x) en el


intervalo [a,b]
A continuacin se verifica que

Se calcula el punto medio m del intervalo [a,b] y se evala f(m) si ese


valor es igual a cero, ya hemos encontrado la raz buscada

En caso de que no lo sea, verificamos si f(m) tiene signo opuesto con f(a)
o con f(b)

Se redefine el intervalo [a, b] como [a, m] [m, b] segn se haya


determinado en cul de estos intervalos ocurre un cambio de signo

Con este nuevo intervalo se contina sucesivamente encerrando la


solucin en un intervalo cada vez ms pequeo, hasta alcanzar la precisin
deseada

En la siguiente figura se ilustra el procedimiento descrito.


El mtodo de biseccin es menos eficiente que el mtodo de Newton, pero es
mucho ms seguro para garantizar la convergencia. Si f es una funcin
continua en el intervalo [a, b] y f(a)f(b) < 0, entonces este mtodo converge a
la raz de f. De hecho, una cota del error absoluto es:

en la n-sima iteracin. La biseccin converge linealmente, por lo cual es un


poco lento. Sin embargo, se garantiza la convergencia si f(a) y f(b) tienen
distinto signo.
Si existieran ms de una raz en el intervalo entonces el mtodo sigue siendo
convergente pero no resulta tan fcil caracterizar hacia qu raz converge el
mtodo.

Mtodo de Newton-Raphson.
Tres son las formas principales por las que tradicionalmente se ha obtenido el
algoritmo de Newton-Raphson.
La primera de ellas es una simple interpretacin geomtrica. En efecto,
atendiendo al desarrollo geomtrico del mtodo de la secante, podra pensarse
en que si los puntos de iteracin estn lo suficientemente cerca (a una
distancia infinitesimal), entonces la secante se sustituye por la tangente a la

curva en el punto. As pues, si por un punto de iteracin trazamos la tangente a


la curva, por extensin con el mtodo de la secante, el nuevo punto de
iteracin se tomar como la abscisa en el origen de la tangente (punto de corte
de la tangente con el eje X). Esto es equivalente a linealizar la funcin, es
decir, f se reemplaza por una recta tal que contiene al punto ( , ( )) y cuya
pendiente coincide con la derivada de la funcin en el punto,
. La nueva
aproximacin a la raz, , se logra de la interseccin de la funcin lineal con el
eje X de abscisas. Matemticamente:

Ilustracin de una iteracin del mtodo de Newton (la funcin f se


muestra en azul y la lnea de la tangente en rojo). Vemos que
una aproximacin mejor que

para la raz

de la funcin

es

En la ilustracin adjunta del mtodo de Newton se puede ver que


una mejor aproximacin que
para el cero (x) de la funcin f.

es

Una forma alternativa de obtener el algoritmo es desarrollando la funcin f


(x) en serie de Taylor, para un entorno del punto
:

Si se trunca el desarrollo a partir del trmino de grado 2, y evaluamos


en
:

Si adems se acepta que

tiende a la raz, se ha de cumplir

que
, luego, sustituyendo en la expresin anterior,
obtenemos el algoritmo.

Finalmente, hay que indicar que el mtodo de Newton-Raphson


puede interpretarse como un mtodo de iteracin de punto fijo. As,
dada la ecuacin
, se puede considerar el siguiente mtodo
de iteracin de punto fijo:

Se escoge h (x) de manera que g'(r)=0 (r es la raz buscada).


Dado que g'(r) es:

Entonces:

Como h (x) no tiene que ser nica, se escoge de la forma


ms sencilla:

Por tanto, imponiendo subndices:

Expresin que coincide con la del algoritmo de


Newton-Raphson

Mtodo de la secante.
El mtodo de biseccin necesita de muchas iteraciones comparado con el
mtodo de la secante, ya que el proceso que ste sigue es mucho ms preciso
que el de biseccin, el cual solo divide por mitades sucesivamente hasta dar
con un valor aproximado al real y por consecuente conlleva un nmero
significativamente mayor de iteraciones.
El mtodo de la regla falsa utiliza la misma frmula que el mtodo de la
secante. Sin embargo, no se aplica la frmula en xn1 y xn, como el mtodo de
la secante, pero en xn y en la ltima iteracin xk tal que f(xk) y f(xn) tiene un
signo diferente. Esto significa que el mtodo de regla falsa siempre converge.
La frmula de recurrencia del mtodo de la secante se puede derivar de la
frmula para el mtodo de Newton-Raphson:

utilizando la aproximacin de diferencias finitas:

Si comparamos el mtodo de Newton-Raphson con el mtodo de la


secante, vemos que el mtodo de Newton-Raphson converge ms
rpido (para 2 en contra 1,6). Sin embargo, el mtodo de NewtonRaphson requiere la evaluacin de ambos f y su derivada en cada paso,
mientras que el mtodo de la secante slo requiere la evaluacin de f.
Por lo tanto, el mtodo de la secante puede muy bien ser ms rpido en
la prctica.

Mtodo de Gauss Jordan.


En matemticas, la eliminacin de Gauss-Jordan, llamada as debido a Carl
Friedrich Gauss y Wilhelm Jordan, es un algoritmo del lgebra lineal para
determinar las soluciones de un sistema de ecuaciones lineales, encontrar
matrices e inversas. Un sistema de ecuaciones se resuelve por el mtodo de
Gauss cuando se obtienen sus soluciones mediante la reduccin del sistema
dado a otro equivalente en el que cada ecuacin tiene una incgnita menos
que la anterior. El mtodo de Gauss transforma la matriz de coeficientes en una
matriz triangular superior. El mtodo de Gauss-Jordan contina el proceso de
transformacin hasta obtener una matriz diagonal.
El mtodo de eliminacin de Gauss aparece en el captulo ocho del importante
texto matemtico chino Jiuzhang suanshu o Los nueve captulos sobre el arte
matemtico. Su uso se ilustra en dieciocho problemas, con dos a cinco
ecuaciones. La primera referencia al libro por este ttulo data desde 179 dC,
pero algunas de sus partes fueron escritas tan temprano como
aproximadamente alrededor de 150 a. C.1 2 Fue comentado por Liu Hui en el
siglo tercero.
La
complejidad
computacional
de
la
eliminacin
gaussiana
es
3
3
aproximadamente n . Esto es, el nmero de operaciones requeridas es n si el
tamao de la matriz es n n.
Algoritmo de eliminacin de Gauss-Jordan.
1. Ir a la columna no cero extrema izquierda
2. Si el primer rengln tiene un cero en esta columna, intercambiarlo con
otro que no lo tenga
3. Luego, obtener ceros debajo de este elemento delantero, sumando
mltiplos adecuados del rengln superior a los renglones debajo de l
4. Cubrir el rengln superior y repetir el proceso anterior con
la submatriz restante. Repetir con el resto de los renglones (en este
punto la matriz se encuentra en la forma de escaln)

5. Comenzando con el ltimo rengln no cero, avanzar hacia arriba: para


cada rengln obtener un 1 delantero e introducir ceros arriba de ste
sumando mltiplos correspondientes a los renglones correspondientes
Una variante interesante de la eliminacin de Gauss es la que llamamos
eliminacin de Gauss-Jordan, (debido al mencionado Gauss y a Wilhelm
Jordan), esta consiste en ir obteniendo los 1 delanteros durante los pasos uno
al cuatro (llamados paso directo) as para cuando estos finalicen ya se
obtendr la matriz en forma escalonada reducida

Sistema de ecuaciones lineales.


En general, un sistema con m ecuaciones lineales y n incgnitas puede ser
escrito en forma normal como:

Donde

son

las

incgnitas

los

nmeros

son

los

coeficientes del sistema sobre el cuerpo


. Es posible reescribir
el sistema separando con coeficientes con notacin matricial:

(1)
Si representamos cada matriz con una nica letra obtenemos:

Donde A es una matriz m por n, x es un vector columna de longitud n y b es


otro vector columna de longitud m. El sistema de eliminacin de Gauss-Jordan
se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los
coeficientes. La matriz A se llama matriz de coeficientes de este sistema lineal.
A b se le llama vector de trminos independientes del sistema y a x se le llama
vector de incgnitas.

Mtodo de Gauss Seidel.


La secuencia de pasos que constituyen el mtodo de Gauss-Seidel es la
siguiente:
1. Asignar un valor inicial a cada incgnita que aparezca en el conjunto. Si
es posible hacer una hiptesis razonable de stos valores, hacerla. Si no,
se pueden asignar valores seleccionados arbitrariamente. Los valores

2.

3.

4.

5.

iniciales utilizados no afectarn la convergencia como tal, pero afectarn


el nmero de iteraciones requeridas para dicha convergencia.
Partiendo de la primera ecuacin, determinar un nuevo valor para la
incgnita que tiene el coeficiente ms grande en esa ecuacin,
utilizando para las otras incgnitas los valores supuestos.
Pasar a la segunda ecuacin y determinar en ella el valor de la incgnita
que tiene el coeficiente ms grande en esa ecuacin, utilizando el valor
calculado para la incgnita del paso 2 y los valores supuestos para las
incgnitas restantes.
Continuar con las ecuaciones restantes, determinando siempre el valor
calculado de la incgnita que tiene el coeficiente ms grande de cada
ecuacin particular, y utilizando siempre los ltimos valores calculados
para las otras incgnitas de la ecuacin. (Durante la primera iteracin,
se deben utilizar los valores supuestos para las incgnitas hasta que se
obtenga un valor calculado). Cuando la ecuacin final ha sido resuelta,
proporcionando un valor para la nica incgnita, se dice que se ha
completado una iteracin.
Continuar iterando hasta que el valor de cada incgnita, determinado en
una iteracin particular, difiera del valor obtenido en la iteracin previa,
en una cantidad menor que cierto E seleccionado arbitrariamente. El
procedimiento queda entonces completo.

Refirindonos al paso 5, mientras menor sea la magnitud del E


seleccionado, mayor ser la precisin de la solucin. Sin embargo, la
magnitud de la psilon no especifica el error que puede existir en los
valores obtenidos para las incgnitas, ya que sta es una funcin de la
velocidad de convergencia. Mientras mayor sea la velocidad de
convergencia, mayor ser la precisin obtenida en los valores de las
incgnitas para un E dado.

Interpolacin.
Eleccin de la interpolacin ms adecuada.
Consideremos una funcin de la cual solo conocemos una serie de
puntos de la misma:
(xo, yo), (x1, y1), .............., (xn, yn)

[1]

Deseamos encontrar la expresin analtica de dicha funcin para poder


estudiarla en otros puntos.
Ahora bien, por n+1 puntos pasan infinitas funciones, con cul de ellas
nos quedamos? Lo ms lgico es recurrir a la ms sencilla. La familia de
funciones ms sencillas es la de los polinomios, por tanto buscaremos el
polinomio de menor grado que pase por los n+1 puntos dados.
La funcin polinmica de menor grado que pasa por los puntos [1] es en
principio de grado n:

y= anxn+............+a1x+ao

Y se obtiene resolviendo el sistema de n+1 ecuaciones con n+1


incgnitas (sistema que tiene solucin nica ya que el determinante de la
matriz de los coeficientes es de Vandermonde y por lo tanto distinto de cero)
Se le llama polinomio interpolador correspondiente a esos puntos. Una
vez obtenida su expresin dando valores en l se pueden encontrar nuevos
puntos de la funcin. Los resultados obtenidos son naturalmente estimaciones
aproximadas.
La interpolacin se dir lineal cuando slo se tomen dos puntos
y cuadrtica cuando se tomen tres.
En este tema nos limitaremos a estos dos tipos de interpolacin.
Ejemplo 1. De una funcin conocemos tres puntos (-3, 5), (1, -1) y (3,
11). qu podemos decir de esa funcin cuando x=0 y cuando x=10?
Solucin
Calculamos el polinomio interpolador que ser de 2 grado
y= ax2 + bx +c, que pase por los tres puntos ,
Se verifica:
5=a(-3)2+b(-3)+c por pasar por el punto (-3, 5)
-1=a+b+c

por pasar por el punto (1, -1)

11=a.3 +b.3+c

por pasar por el punto (3, 11)

Resolviendo el sistema que se nos plantea nos queda:


y= P(x)=
Cuando x=0, P(0)=-13/4; si x=10, P(10)=527/4
El

primero,

una

interpolacin,

es

probablemente

una

buena

aproximacin del valor de la funcin desconocida, en el punto 0.


Sin embargo, el valor 527/4 es probable que se parezca poco al valor de
la funcin en el punto 10, pues es el resultado de una extrapolacin muy
lejana.
No se pueden dar reglas generales para decidir cul es la interpolacin
ms adecuada, pues no siempre al aumentar el grado del polinomio aumenta
la precisin en la estimacin.
Depende siempre del caso concreto a estudiar. A veces la naturaleza del
problema nos da una idea de cul es la interpolacin (o extrapolacin) ms
conveniente.

Interpolacin de Langrage.
Desventajas de su uso.
Si se aumenta en nmero de puntos a interpolar (o nodos) con la intencin de mejorar
la aproximacin a una funcin, tambin lo hace el grado del polinomio interpolador as
obtenido, por norma general. De este modo, aumenta la dificultad en el clculo,
hacindolo poco operativo manualmente a partir del grado 4, dado que no existen
mtodos directos de resolucin de ecuaciones de grado 4, salvo que se puedan tratar
como ecuaciones bicuadradas, situacin extremadamente rara.
La tecnologa actual permite manejar polinomios de grados superiores sin grandes
problemas, a costa de un elevado consumo de tiempo de computacin. Pero, a medida
que crece el grado, mayores son las oscilaciones entre puntos consecutivos o nodos. Se
podra decir que a partir del grado 6 las oscilaciones son tal que el mtodo deja de ser
vlido, aunque no para todos los casos.
Sin embargo, pocos estudios requieren la interpolacin de tan slo 6 puntos. Se suelen
contar por decenas e incluso centenas. En estos casos, el grado de este polimonio sera
tan alto que resultara inoperable. Por lo tanto, en estos casos, se recurre a otra tcnica
de interpolacin, como por ejemplo a la Interpolacin polinmica de Hermite o a
los splines cbicos
Otra gran desventaja, respecto a otros mtodos de interpolacin, es la necesidad de
recalcular todo el polinomio si se vara el nmero de nodos.

También podría gustarte