Está en la página 1de 10

RESUMENES DE CLASES DE CALCULO NUMERICO

1. MÉTODO GRÁFICO PARA OBTENER VALORES APROXIMADOS DE LA


RAÍZ DE UNA FUNCIÓN.

 Es un método simple para


obtener una aproximación a la raíz de la ecuación. Consiste en graficar la función y
observar dónde cruza el eje x. Este punto, que representa el valor de x para el cual,
ofrece una aproximación inicial de la raíz.

Un método simple para obtener una aproximación a la raíz


de la ecuación f(x) = 0 consiste en graficar la función y
observar en donde cruza el eje x. Este punto, que
representa el valor de x para la cual f(x) = 0, proporciona
una aproximación inicial de la raíz.

 Lo esencial en este método es poder construir un modelo gráfico de la ecuación y


luego por inspección estimar una aproximación a la raíz.

El mayor inconveniente de éste método es su poca precisión y exactitud. Sin


embargo, hoy día se cuenta con excelentes herramientas de software para realizar
rápidamente gráficas con un alto grado de realismo

 Las interpretaciones gráficas, además de proporcionar aproximaciones iniciales de la


raíz, son herramientas importantes en la comprensión de las propiedades de las
funciones, previendo las fallas de los métodos numéricos.
2. MÉTODOS CERRADOS PARA OBTENER RAÍCES DE FUNCIONES.

MÉTODO DE FALSA POSICIÓN.

El método de la regla falsa, también


llamado Regula falsi, se basa en la aplicación del teorema del valor intermedio, por lo que la
función debe ser continua y tener signos diferentes en los límites del intervalo de trabajo.

 Para determinar la raíz de f(x) utilizando el método de la regla falsa, construimos la


recta que pasa por los puntos (a, f(a)) y (b, f(b)), esta recta está dada por la ecuación:

 Haciendo y = 0 y despejando x, encontramos la intersección de la recta con el eje x.


 Esta intersección está dada por:

también se puede escribir como:

De manera que la expresión de recurrencia para el método de la regla falsa es:

Algoritmo
Paso 1: Elija valores iniciales inferior, xi, y superior xu, que encierran la raíz, de forma tal
que la función cambie de signo en el intervalo. Esto se verifica comprobando que
f (xl) f ( xu)< 0.
Paso 2: Una aproximación de la raíz xr se determina mediante:

Paso 3: Realice las siguientes evaluaciones para determinar en qué subintervalo está la raíz:

 Si f( xl) f (xr )<0, entonces la raíz se encuentra dentro del subintervalo inferior o
izquierdo. Por lo tanto, haga xu=xry vuelva al paso 2.
 b) Si f (xl) f ( xr)> 0 , entonces la raíz se encuentra dentro del subintervalo superior o
derecho. Por lo tanto, haga xl=xr y vuelva al paso 2.
 c) Si f (xl) f ( xr)=0, la raíz es igual a xr ; termina el cálculo.

Control de iteraciones
Las correcciones del intervalo que se realizan en cada iteración tienen a ser más pequeñas,
por lo que el control de iteraciones se realiza sobre la porción o tramo que se redujo el
intervalo.
 Si la reducción del intervalo es por la izquierda, tramo = c – a
 Si la reducción del intervalo es por la derecha, tramo = b – c

3. MÉTODOS ABIERTOS PARA OBTENER RAÍCES DE FUNCIONES.

MÉTODO DE
NEWTON RAPHSON.

 Este método es uno de los mas utilizados para


localizar raíces ya que en general es muy
eficiente y siempre converge para una función
polinomial.

 Se requiere que las funciones sean


diferenciables, y por tanto, continuas, para
poder aplicar este método.

 Se debe partir de  un valor inicial para la raíz:


xi , este puede ser cualquier valor, el método convergirá a la raíz mas cercana.

 Si se extiende una tangente desde el punto   , el punto donde esta tangente


cruza al eje x representa una aproximación mejorada de la raíz.

La fórmula de Newton-Raphson se deduce a partir de la fórmula de la pendiente de una recta.

Pendiente de una recta:


 Hay que determinar un número máximo de iteraciones

Normalmente esto se hace considerando una “tolerancia” , esto es:

 El valor absoluto de la diferencia de la   debe ser menor que la tolerancia o el


resultado de alguna fórmula de error debe ser menor que la tolerancia dada.

 Una de las fórmulas de error más útiles es la del error relativo porcentual aproximado:

           100 %

 El método de Newton-Raphson es convergente cuadráticamente, es decir, el error es


aproximadamente al cuadrado del error anterior.

Esto significa que el número de cifras decimales correctas se duplica aproximadamente en


cada interacción.

 Cuando el método de Newton-Raphson converge, se obtienen resultados en


relativamente pocas interacciones, ya que para raíces no repetidas este método
converge con orden 2 y el error Ei+1 es proporcional al cuadrado del resultado anterior
Ei

 Sin embargo, el método de Newton-Raphson algunas veces no converge, sino que


oscila. Esto ocurre si no hay raíz real, si la raíz es un punto de inflexión o si el valor
inicial está muy alejado de la raíz buscada y alguna otra parte de la función “atrapa” la
iteración.

4. MÉTODOS ABIERTOS PARA OBTENER RAÍCES DE FUNCIONES.

MÉTODO DE NEWTON RAPHSON MODIFICADO.

Para una ecuación polinómica de grado n, se tienen n raíces (entre complejas y reales).

 Se dice que hay una raíz doble, cuando 2 términos


de la ecuación son iguales a cero a un valor de x.
 Se dice que hay una raíz triple, cuando 3 términos
de la ecuación son iguales a cero a un valor de x.
 Cuando la cantidad de raíces es impar, la función cruza al eje; cuando la cantidad es
par, no lo cruza.

 “Una raíz múltiple corresponde a un punto donde una función es tangencial al eje x, y
varios valores de x hacen que f(x) sea cero.”
Definimos una función nueva U(x), dada por:

 Se observa que la función U(x) tiene las mismas raíces que f(x), entonces U(x) se
vuelve cero en cualquier punto que f(x) es cero.
 Suponiendo ahora que f(x) tiene una raíz múltiple en x = c de multicidad r. Esto
podría ocurrir, por ejemplo, si f(x) contiene un factor (x-c) . Entonces, podría
fácilmente demostrarse que U(x) tiene una raíz en x = c de multicidad r, o una raíz
simple. Puesto que el método de Newton Raphson es efectivo para raíces simples,
podemos aplicar el método de Newton para resolver U(x) en lugar de f(x).

derivando la función auxiliar U(x), xn

 Ya que este método está significantemente relacionado con el método de Newton-


Raphson, cuando la derivada tiende a cero, tiene problema con la convergencia.
 Cuando se tiene existencia de raíces múltiples, tanto el método de Newton-Raphson
como el de la secante convergen linealmente.

5. RAÍCES DE FUNCIONES POLINÓMICAS.

 Estas funciones son casos especiales de funciones polinómicas.


 Las funciones polinómicas nos permiten modelar muchas aplicaciones de la vida real.

 Una raíz a de una función polinómica es un valor donde f(a)=0


 Para encontrar las raíces de la función polinómica f, resolvemos la ecuación f(x)=0.
Ejemplo 1:
Encontrar las raíces de la función f(  x) = x 3 + 3 x 2 + 2 x
Solución:
 Buscamos resolver la ecuación f (x)=0. Factorizando la expresión obtenemos:
f (x)= x x+ 1 x +2
 Recordemos que si  A × B=0 entonces A=0 o B=0.Por lo que:

x =  0 o x+1 = 0 x = -1 o x+2 = 0 x = -2

 Las raíces de la función  f (x)= x 3+3 x 2+2 x son


x=0 , x=−1 y x =−2
 Puedes visualizar estas raíces observando la gráfica de esta función, que es la
siguiente:

Ejemplo 2:

Encontrar las raíces de la función f (x)= x 3+5 x 2+ 4 x

Solución:

 Buscamos resolver la ecuación f (x)=0. Factorizando la expresión obtenemos:


f (x)= x x+ 1 x +4
 Recordemos que si  A × B=0 entonces A=0 o B=0. Por lo que:

x =  0 o x+1 = 0 x = -1 o x+4 = 0 x = -4

 Las raíces de la función  f x=x 3+5 x 2+ 4 x  son


x=0 , x=−1 y x =−4
 Puedes visualizar estas raíces observando la gráfica de esta función, que es la
siguiente:
6. SOLUCIÓN DE SISTEMAS DE ECUACIONES NO LINEALES.

El sistema no lineal es aquel sistema de


ecuaciones en el que una o ambas de las
ecuaciones que forman el sistema es una ecuación no lineal, es decir, cuando alguna de las
incógnitas que forman parte de la ecuación no son de primer grado. Por tanto en este tipo de
sistemas nos podemos encontrar polinomios de segundo grado, raíces, logaritmos,
exponenciales….
La mayor parte de estos sistemas se resuelven utilizando el método de sustitución, aunque en
algunos casos puede ocurrir que no sea la forma más sencilla.

 CASO 1: Si una de las ecuaciones es lineal y la otra no lineal: En este caso


utilizaremos siempre el método de sustitución
 CASO 2: Si ambas ecuaciones son no lineales y ambas incógnitas son de segundo
grado o en ambas ecuaciones la incógnita de segundo grado es la misma:
En este caso podemos resolver el sistema utilizando el método de reducción, aunque
la ecuación que nos quede tras eliminar una de las incógnitas será una ecuación se
segundo grado.
 CASO 3: Ambas son ecuaciones no lineales, pero no de segundo grado, sino
utilizando alguna función, ya sean logaritmos, exponenciales o la función inversa.
En este caso, resolveremos el sistema utilizando un método nuevo: el cambio de
variable. Gracias a este método obtenemos un sistema más fácil de manejar

7. MÉTODOS EXACTOS DE SOLUCIÓN.


Los métodos exactos de solución son aquellos que obtiene la solución exacta, salvo errores de
redondeo en los cálculos, luego de un número finito de operaciones elementales. Pertenecen a
este grupo el método de reducción de Gauss, transformaciones LU, matriz inversa, etc.
7.1 REDUCCIÓN DE GAUSS
El método de Gauss o Gaussiana simple es una generalización del método de reducción, que
utilizamos para eliminar una incógnita en los sistemas de dos ecuaciones con dos incógnitas.
Consiste en la aplicación sucesiva del método de reducción, utilizando los criterios de
equivalencia de sistemas, para transformar la matriz ampliada con los términos
independientes ( A* ) en una matriz triangular, de modo que cada fila (ecuación) tenga una
incógnita menos que la inmediatamente anterior. Se obtiene así un sistema, que llamaremos
escalonado, tal que la última ecuación tiene una única incógnita, la penúltima dos incógnitas,
la antepenúltima tres incógnitas, ..., la primera todas las incógnitas.

7.2 TRANSFORMACIONES LU.


La factorización LU se basa en separar una matriz A en dos matrices triangulares A = LU,
donde L (lower) es una matriz triangular inferior y U (upper) es una matriz triangular
superior, así, la resolución de estas dos subecuaciones es trivial.

7.3 MATRIZ INVERSA.

 Se llama matriz inversa de una matriz cuadrada A, y se expresa A -1, a la única


matriz que cumple que:
A·A-1 = I = A-1·A
 La matriz inversa de A es la única matriz que al multiplicarla por ella obtenemos
la matriz identidad del orden correspondiente.
 Esta matriz no siempre existe, para que exista, es condición necesaria y suficiente
que el determinante de la matriz sea distinto de cero:
 Aunque existe otro procedimiento para calcular la inversa a través de
transformaciones elementales (método de Gauss), la formula con la que se calcula
la matriz inversa es:

10. MÉTODOS
ITERATIVOS DE SOLUCIÓN.

Estos son los métodos que dan como resultado términos de una sucesión {n} n U ∈ que se
aproxima a la solución exacta del problema u a medida que n crece. Tal y como ya se ha
comentado anteriormente, lo importante en ellos es la convergencia de la sucesión hacia la
solución exacta, así como su velocidad de convergencia.
En estos métodos los errores de redondeo suelen tener, en general, efectos menos negativos,
ya que si la sucesión converge a la solución exacta del problema las aproximaciones
obtenidas se van mejorando en cada paso.

10.1 MÉTODO DE JACOBI.


Un método iterativo con el cual se resuelve el sistema lineal A x = b comienza con una
aproximación inicial x (0) a la solución x y genera una sucesión de vectores x (k) que
converge a x. Los métodos iterativos traen consigo un proceso que convierte el sistema A x =
b en otro equivalente de la forma x = T x + c para alguna matriz fija T y un vector c.
10.2 MÉTODO DE GAUSS SEIDEL.
 El Método de Gauss-Seidel consiste en hacer iteraciones, a partir de un vector inicial, para
encontrar los valores de las incógnitas hasta llegar a una tolerancia deseada, la diferencia
radica en que cada vez que se desee encontrar un nuevo valor de una xi, además de usar los
valores anteriores de las x, también utiliza valores actuales de las x encontradas antes
(desde x0 hasta xi-1)

El método de Gauss-Seidel es el mas comúnmente usado para resolver sistemas muy grandes
de ecuaciones lineales.

Es una modificación del método de Jácobi que hace que la convergencia sea mas rápida.

Comienza con una aproximación inicial x(0) a la solución x y genera una sucesión de


vectores x(k) que convergen a la solución x.

Un sistema de ecuaciones algebraicas lineales es un conjunto de ecuaciones de la forma:

Tanto en el método de Gauss-Seidel como en el de Jácobi, el valor  que se le de al vector


inicial carece de importancia, ya que el método convergirá a la solución rápidamente no
obstante que el vector inicial tenga valores muy lejanos a la solución. Es por esto que se
acostumbra a dar el vector 0 como vector inicial.

En la solución de estos problemas pueden presentarse 3 casos:

1.- Solución única                           Sistema compatible determinado.


2.- Más de una solución  (número infinito de soluciones) Sistema compatible e indeterminado.
3.- Sin solución                                   Sistema incompatible

También podría gustarte