Documentos de Académico
Documentos de Profesional
Documentos de Cultura
de
método numéricos
Para resolver un problema físico se plantea una hipótesis o simplificaciones, obteniendo el modelo
matemático, el cual nos permite solucionar problemas matemático.
Cuando se refiere a problemas matemáticos se puede obtener solución exacta y solución aproximada.
Solución exacta:
Posee ciertos inconvenientes, como hipótesis simplificativas, aplicable solo a limitadas clases
de problemas y puede existir la posibilidad que no se pueda resolver analíticamente. Por esto
tiene un valor practico limitado.
Solución aproximada:
Esta se puede resolver por dos métodos, uno gráfico, el cual nos permite resolver problemas
complejos, aunque no son precisos y son tediosos; y un método numérico, el cual por medio de
una computadora, obtengo muy buenas aproximaciones, gran rapidez y la solución de
problemas complejos, o por medio de un calculo manual.
Por lo que los métodos numéricos son herramientas muy poderosas para la solución de problemas,
permiten cuantificar y acotar los errores que producen las computadores y nos ayudan a entender las
distintas ramas de la Matemática.
Los modelos matemáticos es una formulación o ecuación que expresa las características esenciales de
un sistema físico:
Pueden ser:
De redondeo, debido a la capacidad limitada de almacenamiento de las computadoras. Este
aumenta cuando se efectuá un mayor número de operaciones de punto flotante y cuando se
disminuye el paso. Este disminuye cuando se usan sistemas menores.
Cifras significativas:
Exactitud y precisión:
La exactitud se refiere a qué tan cercano está el valor calculado o medido del valor verdadero,
mientras que la precisión se refiere a que tan cercanos se encuentran, unos de otros, diversos
valores calculados o medidos. La inexactitud o sesgo se define como la desviación sistemática
del valor verdadero mientras que imprecisión o incertidumbre se refiere a la magnitud en la
dispersión de los disparos.
Definiciones de error
Los errores numéricos surgen del uso de aproximaciones para representar operaciones y cantidades
matemáticas exactas. Incluyendo los errores de truncamiento que resultan del empleo de
aproximaciones como un procedimiento matemático exacto y los errores de redondeo que se producen
cuando se usan que tienen un limite de cifras significativas para representar números exactos.
Para ambos tipos de errores, la relación entre el resultado exacto y aproximado esta dado por:
Debido a que las computadoras usan una representación en base 2, no pueden representar exactamente
algunos números en base 10. Esta discrepancia por la omisión de cifras significativas se llama error de
redondeo.
El rango de cantidades que pueden representarse es limitado. Intentar emplear números fuera del rango
aceptable dará como resultado el llamado error de desbordamiento (overflow).
Ademas existe solo un numero finito de cantidades que puede representarse dentro del rango, limitando
la precisión, obteniendo los errores de aproximación llamado errores de cuantificación. Podemos cortar
o truncar el numero en las cifras significativas (ΔX ) deseadas mientras que en el error de redondeo,
como dice su nombre produce un redondeo en la cifra a cortar, obteniendo la mitad del error, pero
generando mas trabajo comunicacional (ΔX/2).
El intervalo entre los números ΔX, aumenta conforme los números crecen en magnitud, esto permite
que la representación de punto flotante conserve los dígitos significativos. Los números irracionales no
se pueden de manera exacta. Sin embargo dice que los errores de cuantificación son proporcionales a la
magnitud del numero representado. Esto se puede calcular como:
|ΔX|
≤ε (para el caso de truncamiento)
|x|
|ΔX|
≤ε /2 (para el caso de redondeo)
|x|
llamándose “ε” como epsilon de maquina, la cual es el numero mas pequeño representable y puede
calcular como:
Son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemática exacto.
La serie de Taylor proporciona un medio para predecir el valor de una función en un punto en términos
del valor de la función y sus derivadas en otro punto. Este teorema establece que cualquier función
suave puede aproximarse por un polinomio.
Una buena manera de comprender la serie de Taylor consiste en construirla término por término, por
ejemplo el primer término de la serie es:
f(xi+1)̃= f(xi)
Esta relación se llama aproximación de orden cero, indica que el valor de f en el nuevo punto es el
mismo que su valor en el punto anterior.
Sin embargo si la función cambia en el intervalo entonces se utilizan términos adicionales de la serie de
Taylor, para obtener una mejor aproximación, llamándose aproximación de primer orden:
f(xi+1)̃= f(xi)+df̍ (xi)(xi+1- xi)
Y así sucesivamente.
También podemos calcular el termino residual como :
(n+1 )
f ∗ε
Rn = ∗( X(i+1) −x i)n+1 siendo ε el epsilon de maquina y xi<ε<xi+1
(n+1)!
Diferenciación numérica
donde Δfi se lo conoce como primera diferencia hacia adelante y a h se le llama el tamaño del paso o
incremento, esto es, la longitud del intervalo sobre el cual se realiza la aproximación. Se llama
diferencia hacia adelante porque usa los datos en i e i+1 para estimar la derivada. Al termino Δfi / h se
lo conoce como primer diferencia finita dividida.
En cambio en la diferencia hacia atrás, la serie de Taylor se expande hacia atrás para calcular un valor
anterior sobre la base del valor actual
l
También debemos mencionar la aproximación a la primera derivada con diferencias centradas, la cual
para aproximar se resta la ecuación de la expancion de la serie de Taylor hacia adelante:
l
Para obtener:
En donde despejamos:
De esta forma el error de truncamiento es del orden h2 en contraste con las anteriores que son de
orden h.
Propagación del error en una función de una única variable
donde Δf (̍̃x) representa la estimación del error de la función y Δx = (x-̃x) representa una estimación
del error de x.
Para calcular el error de una función con n variables independientes ̍̃x1, ̍̃x2,…, ̍̃xn, teniendo Δ̃x1,Δ̃x2,
…, Δ̃xn.
Estabilidad y condición
La condición de un problema matemático relaciona su sensibilidad con los cambios en los datos de
entrada. Se dice que un calculo es numéricamente inestable si la inexactitud de los valores de entrada
aumenta considerablemente por el método numérico.
Recordemos que el error relativo de x esta dado por
(x- ̍̃x) / ̍̃x
Y el numero de condición puede definirse como la razón entre estos errores relativos
Estos métodos aprovechan el hecho que una cambia de signo en la vecindad de una raíz. También son
llamados métodos de intervalos, porque se necesita de dos valores iniciales para la raíz, los cuales
deben encerrar o estar a ambos lados de la raíz. Estos métodos son convergentes porque siempre
general aproximaciones cada vez mas cercana a la raíz, sin embargo acumulan errores de redondeo.
Se pueden usar métodos gráficos, sin embargo tienen un valor practico limitado, ya que no son
precisas, por lo que se los utiliza para obtener aproximaciones de la raíz. Ademas sirve para la
compresión de las propiedades de las funciones en la prevención de las falla de los métodos numéricos.
Método de la Biseccion
Este es un método de búsqueda incremental, el cual localiza un intervalo en el que la función cambie
de signo.
En este método en cada iteración se reduce el error a la mitad, por lo que la formula que relaciona el
error y el numero de iteaciones (n) es:
=1/2n
El método anterior resulta muy ineficiente por su aproximación de fuerza bruta, aquí surge este método.
Un inconveniente del método anterior, es que al dividir el intervalo de Xi a Xu en mitades iguales, no
se toman en cuentas las magnitudes de f(Xi) y f(Xu). Un método alternativo aprovecha esta
visualización gráfica que consiste en unir f(Xi) y f(Xu) con una linea recta, resultando la intersección
de la linea con el eje de las x en una mejor aproximación de la raíz. Al remplazar la curva por una linea
recta da una falsa posición, de aquí surge su nombre.
Utilizando triángulos semejantes obtenemos:
despejando Xr obtenemos:
En este método uno de los valores iniciales puede permanecer fijo durante los cálculos, mientras que el
otro converge a la raíz.
Es unilateral, no se aplica a raices dobles y tiene en cuenta los valores en el externo del intervalo.
Este método si bien es relativamente mejor que el anterior, puede darse el casos que se converge
lentamente a la raíz y ademas la unilateral (un valor permanece fijo) que puede llevar a una mala
convergencia especialmente en funciones con una gran curvatura.
Método abierto
En estos métodos no se requiere de valores iniciales que encierren a la raíz, sino que se basan en
formulas que requieren unicamente un solo valor de inicio. Estos en algunas ocasiones pueden divergir
o se alojan de la raíz verdadera a medida que se avanza en el calculo, pero en contrapuesta, cuando
convergen lo hacen mucho mas rápido que los métodos abiertos y se pueden aplicar para sistemas de
ecuaciones no lineales
x=g(x)
Xi+1=g(Xi)
Esto nos proporciona una formula para predecir un nuevo valor de x en función del valor anterior.
Como podemos ver este es un método iterativo.
Debemos tener en cuenta al usar este método si la función converge, para esto usando el teorema de la
función de valor medio llegamos a la conclusion de que la función converge si y solo si:
| d g(x0)|<1
Si converge, se dice que el error es proporcional y menos que el error en la interacción anterior, por lo
que se dice que el método de punto fijo es linealmente convergente.
6
Esta es la mas ampliamente utilizada. Si el valor inicial para la raíz es xi, entonces se puede trazar una
tangente desde el punto [Xi; f(Xi)] de la curva. El punto donde donde esta tangente cruza al eje x
representa una aproximación mejorada de la raíz.
Si igualamos la pendiente, obtenemos:
Así obtenemos la fórmula de Newton-Raphson, ademas por medio de este método, el numero de cifras
significativas de precisión aproximadamente se duplica en cada iteración, siendo el error proporcional
al cuadrado del error anterior.
Si bien este método es muy eficiente, hay situaciones donde se comporta de manera deficiente, como
en el caso especial de raíces múltiples y en algunas ocasiones, en raíces simples. Un caso es cuando
obtenemos una pendiente igual a 0, lo que provoca que la solución se dispara horizontalmente y jamas
toca al eje x. En conclusión su convergencia depende la función y de tener un valor inicial que sea
suficientemente cercano a la raíz.
Método de la secante
Al igual que el método de la falsa posición, ambos usan dos valores iniciales para calcular una
aproximación de la pendiente de la función que se utiliza para proyectar hacia el eje x una
aproximación de la raíz, sin embargo se diferencian en la forma en que uno de los valores iniciales se
remplaza por la nueva aproximación. Recordemos que en el método de la falsa posición la ultima
aproximación de la raíz remplaza cualquiera de los valores iniciales que de un valor de la función con
el mismo signo que f(Xr), por lo que las dos aproximaciones encierran a la raíz. En cambio, el método
de la secante remplaza los valores en secuencia estricta, el nuevo valor de xi+1 remplaza a Xi y Xi
remplaza a xi-1.Esto puede generar divergencias. Sin embargo cuando el método de la secante converge,
lo hace mas rápido que el método de la falsa posición.
5
El método de Müller construye una parábola con 3 puntos para aproximarse a la raíz.
El método consiste en obtener los coeficientes de la parábola que pasa por los 3 puntos. Dichos
coeficientes se sustituyen en la fórmula cuadrática para obtener el valor donde la parábola interseca al
eje x, es decir la raíz. estimada. Este nos permite calcular raíces complejas. Esta aproximación se
facilita al escribir la ecuación de la parábola en una forma conveniente:
6
Método de la secante
Sistemas de ecuaciones
Existen diversos métodos que son apropiados para la solución de pequeños sistemas de ecuaciones
simultaneas (n<=3) que no requieren de una computadora. Estos son el método gráfico, la regla de
Cramer y la eliminación de incógnitas. Ademas puede ser métodos directos como la eliminacion de
Gauss simple y la descomposición LU (acumulan errores de rendondeo) o métodos indirectos como
Gauss-Seidel y de Jacobi (estos pueden divergir)
Método gráfico
Para dos ecuaciones se puede obtener una solución al graficarlas en coordenadas cartesianas con un eje
que corresponda a x1 y el otro a x2. Al ser un sistema lineal, cada ecuación se relaciona con un linea
recta, la cual se ilustra mediante las ecuaciones generales:
Un sistema mal condicionado presenta problemas cuando se encuentran durante la solución numerica
de ecuaciones lineales, lo cual se debe a que este tipo de sistemas son extremadamente sensibles a los
errores de redondeo.
La eliminación de incógnitas
1) Las ecuaciones se manipularon para eliminar una de las incógnitas de las ecuaciones. El
resultado de este paso de eliminación fue el de una sola ecuación con una incógnita.
2)En consecuencia, esta ecuación se pudo resolver directamente y el resultado sustituirse atrás
en una de las ecuaciones originales para encontrar la incógnita restante.
4
es decir:
Por lo que podemos concluir que, a medida que el sistema se vuelve mas grande, el tiempo de calculo
aumenta enormemente y la mayor marte del trabajo ocurre en la eliminación hacia adelante, por lo que
debemos enfocarnos en este método para ser mas eficientes.
Errores de redondeo:
Si se usan mas cifras significativas se disminuye el error en los resultados, o si se trabaja con
fracciones. Se presentan problemas graves cuando se trabaja con un gran numero de ecuaciones,
ya que el error se propagan, ya que cada resultado depende del anterior. Como regla general se
dice que los errores de redondeo son de importancia cuando se trabajan con sistemas de 100 o
mas ecuaciones.
Escalamiento:
Para solucionar los problemas en los sistemas mal acondicionados, para evitar esto se debe escalar las
ecuaciones en forma tal que el máximo en cualquier renglón sea igual a 1.
Pivoteo:
Antes de normalizar cada renglón, resulta conveniente determinar el coeficiente mas grande disponible
en la columna debajo del elemento pivote, esto se llama pivoteo parcial. Al procedimiento donde tanto
en las columnas como en los renglones se busca el elemento mas grande y luego se intercambian, se lo
conoce como pivoteo completo.
Escalamiento:
Como mencionamos anteriormente el escalamiento podía ser útil para la estandarización del tamaño
determinante, ademas minimiza los errores de redondeo en casos en los que alguna de las ecuaciones
de un sistema tiene coeficientes mucho mas grandes que otros. En estos se divide cada renglón del
sistema por su coeficiente de mayor absoluto.
La eliminación de Gauss resulta ineficiente cuando deben resolverse ecuaciones con los mismo
coeficientes [A], pero con diferentes constantes del lado derecho. [A]{X}={B}
Los métodos de descomposición LU separan el tiempo usado en las eliminaciones para la matriz [A] de
las manipulaciones en el lado derecho {B}. Una vez que [A] se ha descompuesto, los múltiples
vectores del lado derecho {B} se pueden evaluar de manera eficiente. Gauss se puede expresar como
una descomposición LU.
Ahora se realiza la eliminación de Gauss, es decir, se utiliza la eliminación para reducir el sistema a una
forma triangular superior:
Ahora supongamos que existe una matriz diagonal inferior con números 1 en la diagonal, la cual tiene
la propiedad que cuando se premultiplica por la ecuación anterior, el resultado es la ecuación original.
4
El costo computacional es igual a la eliminación de Gauss, solo que se distribuye en partes iguales
entre la descomposición y la sustitución.
A continuación se desarrollara el pseudocódigo:
Matriz inversa
Una norma es una función que toma valores reales y que proporciona una medida del tamaño o
longitud de entidades matemáticas multicomponentes, como los vectores y las matrices.
Para calcular las normas se hace lo siguiente:
Donde Cond [A] se llama numero de condición de una matriz, el cual sera mayor o igual a 1.
También la podemos expresar como:
5
Esto nos dice que el error relativo de la norma de la solución calculada puede ser grande como el error
relativo de la norma de los coeficientes de [A], multiplicada por el numero de condición. Esto tambien
nos permite identificar una sistema mal acondicionado.
Una matriz bandeada es una matriz cuadrada en la que todos sus elementos son cero, con excepción de
una banda centrada sobre la diagonal principal.
Las dimensiones de un sistema bandeado se cuantifica mediante dos parámetros: el ancho de banda
(BW) y el ancho de media banda (HBW). Estos dos valores se relacionan mediante BW = 2*HBW +1.
En general un sistema bandeado es aquel para el cual aij=0 si |i-j|>HBW.
Aunque la eliminación de Gauss o la descomposición LU convencional se emplean para resolver
sistemas de ecuaciones bandeados, resultan ineficientes, debido a que si el pivoteo no es necesario,
ninguno de los elementos fuera de la banda cambiara su valor original igual a 0, por lo que se usara
espacio y tiempo inútil. ancho de banda
Método de Gauss-Seidel
Los métodos iterativos constituyen una alternativa a los métodos de eliminación descriptos
anteriormente. El método Gauss-Seidel es el método iterativo más comúnmente usado, supongamos
que se da un sistema de n ecuaciones:
[ A]{X }={B}
Supongamos que se limita a un conjunto de ecuaciones de 3x3. Si los elementos de la diagonal no son
todos ceros, la primera ecuación se puede resolver para x1 , la segunda para x2x y la tercera para x3 ,
podemos obtener:
En este método se debe partir de un conjunto de valores iniciales para x(puede ser 0). Se remplaza en
los miembros derechos para obtener los valores actuales en los miembros izquierdos. Se repite hasta
que:
Como un nuevo valor de x se calcula con el método de Gauss-Seidel, éste se usa inmediatamente en la
siguiente ecuación para determinar el otro valor de x. De esta forma, si la solución es convergente, se
empleara la mejor aproximación disponible.
Un método alternativo, llamado interacion de Jacobu, emplea una táctica algo diferente, más que usar
inmediatamente el ultimo valor disponible de x, esta técnica usa la primera ecuación para calcular un
conjunto de nuevas x con base en un conjunto de x anteriores. De esta forma, conforme se generan
nuevos valores, no se usan inmediatamente sino que se retienen para la siguiente iteración.
Sin embargo la mas usada es la de Gauss-Seidel.
4
Gauss-Seidel
Jacobi
l
Optimización
En esta unidad nos dedicaremos a la búsqueda del mínimo o del máximo de una función.
El optimo es el punto donde la curva es plana, es decir donde la derivada en 0, ademas la segunda
derivada indica si es máximo o mínimo, si la segunda es mayor a 0 es un mínimo, mientras que si es
menor a 0, se trata de máximo.
Una estrategia consiste en buscar la raíz de su derivada.
Sección Áurea
La Optimización de una sola variable tiene como objetivo encontrar el valor de x que da un extremo, ya
sea un máximo. o un mínimo de f(x).
Este es un método cerrado, que comienza con dos valores iniciales, Xl y Xu. Después se eligen dos
puntos interiores X1 y X2 de acuerdo con la razón dorada.
La función se evalúa en estos dos puntos interiores, presentándose dos posibles casos:
1. Si f(x1) > f(x2), entonces el dominio de x a la izquierda de x2, de xl a x2, se puede
eliminar, ya que no contiene el máximo. En este caso, x2 sera el nuevo xl en la siguiente
vuelta.
2. Si f(x2) > f(x1), entonces el dominio de x a la derecha de x1, de x1 a xu podrá
eliminarse. En este caso x1 sera el nuevo xu en la siguiente iteración.
En cada iteración se reduce en un factor de R y se puede conocer a priori el error abs para
un numero de iteraciones
Este método aprovecha la ventaja de que un polinomio de segundo grado con frecuencia
proporciona una buena aproximación a la forma de f(x) en las cercanías de un valor optimo.
Existe solo una ecuación cuadrática o parábola que pasa por 3 puntos. De esta forma si se
tiene tres puntos que contienen un punto óptimo, se ajusta una parábola a los puntos.
Después se puede derivar e igual el resultado a cero y así obtener una estimación de la x
optima.
Luego de diversas operaciones algebraicas, el resultado es:
Donde x0, x1 y x2, son los valores iniciales y x3 es el valor de x que corresponde al valor
máximo del ajuste cuadrático para los valores iniciales.
Luego en la próxima iteración se elimina x0 si x1<=x3 ; o x2 si x1>x3
Este método siempre converge
4
Una desventaja de este método es que llega a divergir según la naturaleza de la función y la
calidad del valor inicial. Solo se emplea cuando se esta cerca del valor optimo.
Optimizan multidimensional – Métodos directos
Este es un algoritmo de fuerza bruta en el que se divide cada dominio en segmentos iguales.
Por lo que mientras mas densa es la malla, menor es el error de la busqueda del optimo
.
4
Ajuste de curvas
Primeramente debemos conocer la naturaleza de los datos para saber que ajuste usar.
Esto tiene diversas aplicaciones, a continuación mencionaremos algunas:
• Análisis de la tendencia: Predecir los valores de la variable dependiente -interpolar o
extrapolar-.
• Prueba de hipótesis: Nos permite validad un modelo matemático existente con los resultados
experimentales o adecuar el modelo de los datos.
• Integración, solución aproximada de ecuaciones diferenciales, etc.
Esto se puede lograr por diversos métodos, sin embargo, cuando hay errores en los valores datos, no
es posible acompañarlos y es relevante predecir la tendencia por regresión por minímos cuadrado
y otros. Ademas si los datos son muy precisos, es importante acompañarlos (interpolación) con :
• Interpolación Lineal
• Interpolación de Newton
• Interpolación de Lagrange
Comenzaremos desarrollando la regresión por mínimos cuadrados.
∑ e i=∑ ( y i−a0−a1 x i)
i=1 i=1
Sin embargo es un criterio inadecuado, ya que
cualquier línea recta (excepto vertical) que pase
por el punto hace que el error sea cero, por lo
que se puede minimizar la suma de los valores
absolutos de los errores:
n n
∑|ei|=∑|( y i−a0−a1 x i )|
i=1 i=1
sin embargo este ajuste tambien es inadecuado, ya que cualquier línea recta que esté comprendida
entre las lineas puntuadas minimizará el valor absoluto de la suma. Como 3er estrategia podemos
utilizar el criterio minimax, en esta la línea se elige de manera que minimice la máxima discrepancia a
que un punto se encuentre de la línea, sin embargo esto es inadecuado ya que excesiva influencia a
punto fuera del conjunto, es decir un solo punto con un gran error. Finalmente podemos llegar al
mejor criterio, es decir, minimizar la suma de los cuadrados de los errores:
n n n
S r =∑ e =∑ ( y i ,medida − y i ,modelo ) =∑ ( y i−a0−a1 x i)2
2
i
2
Para este 4to criterio, se obtiene los valores de a0 y a1, se deriva la ecuación con respecto a cada uno
de los coeficientes:
∂S r ∂S r
=−2 ∑ ( y i−a 0−a 1 x i) =−2 ∑ [( y i−a0−a 1 x i) x i ]
∂a0 ∂a1
Ahora si igualamos estas derivadas a cero, dará como resultado un Sr mínimo, si hacemos esto las expresiones se
expresan como:
0=∑ y i−∑ a 0−∑ a1 x i 0=∑ y i x i−∑ a0 x i−∑ a1 x2i
Ahora podemos ver que ∑a0 = na0 , expresamos las ecuaciones como un conjunto de dos ecuaciones lineales
simultaneas con dos incógnitas (a0 y a1):
∑ y i=n a0 +(∑ xi ) a1 ∑ y i xi =(∑ x i )a0 +(∑ x 2i )a i
De esta forma obtenemos las “ecuaciones normales”, las cuales se resuelven de forma simultanea:
n ∑ x i yi −∑ x i ∑ y i
a1 = 2
y a0 = ȳ−a1 x̄
2
n ∑ x i −( ∑ x i)
Algoritmo para la
regresión Lineal
Mientras que en la Polinomial se debe limitar a polinomios de grados inferiores para evitar el error de redondeo
de las ecuaciones normales mal condicionadas en sus coeficientes de grado superior.
Para este se utilizan distintos modelos, como el modelo exponencial, el de potencial y el de razón de
crecimiento.
Modelo Exponencial:
β1 x
y=α 1 e
ln y=ln α1 +β1 x ln e
ln y=ln α1 +β1 x
Modelo de Potencias:
β2
y=α 2 x
log y=β2 log x +log α 2
Algoritmo Polinominal
Interpolación:
Existen diversas formas de expresar una interpolación polinominal, entre ellas, la mas popular y útiles
son el polinomio de interpolación de Newton en diferencias divididas. Esta puede ser lineal, cuadrática
o polinomial.
Lineal:
Es la forma mas simple, consiste en unir dos puntos con una línea recta, mediante triángulos
semejantes:
f 1 (x)−f ( x0 ) f ( x 1 )−f ( x 0)
= reordenando esto, obtenemos:
x−x 0 x 1−x 0
f ( x 1)−f (x 0 )
f 1 ( x )=f (x 0)+ ( x−x 0 )
x 1−x 0
Interpolación Cuadratica:
Si se tiene 3 puntos como datos, puede ajustarse un polinomio de segundo grado:
f 2(x )=b 0+ b1 (x−x 0 )+ b2 (x−x 0 )(x−x 2)
b0 =f ( x0 )
f ( x 1)−f ( x 0 )
b1 =
x 1−x 0
f ( x2 )−f (x 1) f (x 1 )−f (x 0)
−
x 2−x 1 x 1−x 0
b2 =
x 2−x 0
Interpolación Polinomios:
Podemos generaliza un polinomio de n-ésimo grado a n +1 datos, gracias al análisis anterior. Este
polinomio es:
f n (x)=b0 +b1 (x−x 0 )+b2 (x−x 0 )(x−x 2)+...+b n (x−x 0)(x−x 1 )...( x−x n−1 )
f (x i )−f ( x j ) f [x i , x j ]−f [ x j , x k ]
f [x i , x j ]= f [x i , x j , x k ]=
x i−x j x i−x k
f n (x)=f (x 0 )+(x−x 0 ) f [ x1 , x 0]+(x−x 0 )( x−x 1) f [x 2 , x 1 , x 0 ]+...+( x−x 0)( x−x 1 )...(x−x n−1 ) f [ xn , x n−1 , ... , x 0 ]
De esto obtenemos:
x−x 1 x−x 0
f 1 (x )= f ( x 0 )+ f (x 1)
x 0−x 1 x 1−x 0
Derivada e integrales:
Diferenciar significa marcar por diferencias, distinguir, …, percibir la diferencia en o entre. La derivada
sirve como principal vehículo para la diferenciación, representa la razón de cambio de una variable
dependiente con respecto a una variable independiente.
Δ y f (x i + Δ x)−f ( xi )
= Cociente incremental
Δx Δx
dy f (x i + Δ x )−f (x i)
= lim . Derivada
d x Δ x ⇒0 Δx
4
Existen diversos tipos de funciones, a los cuales se les corresponde diversos métodos para integrar o derivar:
• Función continua simple: Métodos Analíticos
• Función continua complicada: Métodos Numéricos
• Función Tabulada: Métodos Numéricos
Los métodos analíticos cambian según el tipo de función, mientras que los numéricos, se aplican de igual forma
a todas las funciones.
Supongamos que se quiere aproximar la integral definida de una función f(x) en un intervalo [a,b] evaluando f(x)
en un número finito de puntos, para esto se pueden usar las fórmulas de Newton-Cotes. Estas se basan en la
estrategia de remplazar una función complicada o datos tabulados por un polinomio de aproximación que es facil
de integrar:
b b
I =∫ f (x) dx≃∫ f n ( x)dx
a a
n−1
donde fn(x) es un polinomio de la forma f n (x)=a0 +a1 x+ ...+ an−1 x +a n x n
Según el grado del polinomio puede ser:
Ademas pueden con forma cerrada o abierta. La primera son aquellas donde se conocen los datos al incio y final
de los límites de integración, mientras que en las abiertas se extienden más allá del intervalo de los datos.
.
Basicamente en las formulas de integración de Newton-Cotes se eligen n+1 puntos {x0,…,x n} en el intervalo
[a,b] y se aproxima f(x) con un polinomio de Lagrange de grado n:
n
f (x)≈P n ( x)=∑ f ( x i )Li (x )
i=0
b b n n
b
donde ai =∫ Li (x ) dx para i=0,1,…,n
a
Regla del trapecio:
Se utiliza para polinomio de primer grado, es decir, con n=1 y f (x)≈P 1(x ) .
Luego de diversos cálculos llegamos a que:
b
f (x 0 )+f ( x1 )
∫ f ( x)dx≈(x 1−x 0) 2
a
En caso que se trate de polinomios Pn (x) de grado n≤1, se obtiene un resultado exacto
1 3
Ademas el error de truncamiento aproximado es: Ea =− f̄ ' ' (ξ)(x 1−x 0 )
12
.
Existe una variación llamada Regla del trapecio de aplicación múltiple (regla compuesta), en esta se divide el
intervalo [a,b] en n segmentos de igual longitud h= (b-a)/n.
.
Luego sumamos las integrales de cada segmento:
b x1 x2 xn
b
f (x 0 )+ f ( x 1 ) f ( x 1 )+ f (x 2 ) f (x n−1 )+ f ( x n )
∫ f ( x)dx≈I T =h 2
+h
2
+...+h
2
a
n −1
h
I T = [f ( x 0 )+ 2 ∑ f ( x i )+ f (x n )]
2 i=1
1 ²
Ea =− h (b−a) f̄ ' ' Error de truncamiento aproximado
12
.
Algoritmo de Regla
Compuesta del Trapecio
Regla de Simpson ⅓:
Se utiliza para P(x) de segundo grado, es decir, n=2, donde f ( x)≈P 2( x) .
h f (x 0)+ 4 f ( x1 )+ f (x 2 )
I S = [f (x 0)+ 4 f ( x1 )+ f (x 2 )]=(b−a) en rojo el ancho y en azul la altura
1/3
3 6
Con respecto al error, da resultados para polinomios cubicos, aun cuando su fórmula se obtenga de una
parábola, son:
1 5 IV −(b−a) IV
Et =− h f ( ξ )= f ( ξ ) Error de truncamiento verdadero
90 2880
1 5 ¯IV −(b−a) ¯IV
Ea =− h f ( ξ )= f ( ξ ) Error de truncamiento aproximado
90 2880
.
Con respecto a su variación tenemos la regla de Simpson ⅓ de aplicación múltiple, en la cual se divide
b−a
el intervalo [a,b] en n segmentos de igual longitud: h= con n: numero par. Y obtenemos una
n
ecuación:
n−1 n−2
f (x 0 )+ 4 ∑ f ( x i)+2 ∑ f (x i)+ f ( x n )
i=1,3,5, ... i=2,4,6,..
I S =(b−a) En rojo el ancho y en azul la
1/3
3n
altura
Y obtenemos los errores:
n
1 5 IV
Et =− h ∑ f ( ξ ) Error de truncamiento verdadero
90 i=2,4,6, ...
1 4
Ea =− h (b−a) f¯IV Error de truncamiento aproximado
180
.
Algoritmo de Regla
Compuesta de Simpson
⅓
Regla de Simpson ⅜:
Se integra un polinomio de tercer grado:
3 3 x2 3 3
x−x i x−x i
P3 =∑ ∏ y I ≈∫ [ ∑ ∏ ]dx
i=0 j=0 x i−x j x0 i=0 j=0 x i−x j
j≠i j≠i
.
.
Con respecto a la precisión debemos aclarar que tanto la regla del trapecio como la regla de Simpson
⅓ disminuyen el error relativo porcentual a medida que aumenta la cantidad de segmentos, llega a un
punto en donde el error empieza a crecer nuevamente.
.
.
Aplacada con dos pasos distintos, siendo h1>h2: I ( h1)+ E (h1)=I( h2)+ E (h2 )
Ahora aplicando la regla del trapecio compuesta, el error de truncamiento se aproxima:
3 3
(b−a) ¯II (b−a) 2 ¯II
E≈− 2
f =− h f
12 n 12
I (h2)−I (h1) n +2
Y en el caso de que h2=h1/ 2: I =(h2)+ n
+ O(h )
2 −1
Algoritmo de Romberg:
k−1
4 I j+1 , k−1−I j ,k −1
En general: I j ,k = k−1
siendo k: nivel de integración y j: estimación.
4 −1
f (xi+1 ) − f (xi )
f I (xi ) = + O(h) (1)
h
−f (xi+2 ) + 4f (xi+1 ) − 3f (xi )
f I (xi ) = + O(h2 ) (2)
2h
f (xi ) − f (xi−1 )
f I (xi ) = + O(h) (9)
h
3f (xi ) − 4f (xi−1 ) + f (xi−2 )
f I (xi ) = + O(h2 ) (10)
2h
1
Extrapolación de Richardson para derivadas:
D(h 2)−D(h1)
También se puede aplicar a las derivadas (O(h 2)): D≈D (h2)+ 2
(h1 /h2 ) −1
Como caso especial, si h2=h1/2:
4 1
D≈ D( h2)− D(h1 )
3 3
Como caso general, tenemos que a partir de dos estimaciones de O(h n), se obtiene una aproximación de O(hn+2):
D(h2 )−D(h1)
D=D(h2)+ n
+ O(hn+ 2)
(h1 /h2) −1
Y en el caso de que si h2=h1/2:
d2 x dx
m 2
+c + kx=0
dt dt
Ademas se puede transformar un sistema de EDOs de primer orden a una de segundo orden, realizando:
dx dy d 2 x
• Sustitución: y= ⇒ =
dt dx dt 2
dy dy cy +kx
• Remplazando : m + c y + kx=0 ⇒ =−
dt dt m
dx dy cy +kx
• Cambiando el sistema: = y ⇒ =−
dt dt m
En algunos casos se obtiene por integración indefinida:
c
dv c c gm − t
=g− v (t )⇒ v=∫ (g− v (t))dt ⇒ v (t )= (1−e m )
dt m m c
Ademas, la técnica habitual es la linealización, como en el caso de un péndulo:
d2θ g d2θ g
+ sin θ =0 EDO orginal, no lineales, pero como Ѳ es pequeño: + θ =0
dt 2 l dt 2 l
Métodos de Runge-Kutta:
dy
Desarrollaremos métodos que nos permitan resolver ecuaciones del tipo: =f (x , y)
dx
Ademas, como método general usaremos:
Nuevo valor= Valor anterior + pendiente X paso
ó yi+1 = yi + Φ h
De acuerdo con esta ecuación, la pendiente estimada Φ se usa para extrapolar desde un valor anterior y i a un
nuevo valor yi+1 en una distancia h. Todos los métodos que se expresan así, van a diferir en la manera en la que se
estima la pendiente.
Método de Euler:
Serie de Taylor:
Una manera de reducir el error con el método de Euler, es agregar terminos de orden superior a la
expansión de la serie de Taylor para la solución. Por ejemplo agregar terminos de segundo orden a la
ecuación:
Método de Heun:
Para mejorar la estimación de la pendiente, se emplea la determinación de dos derivadas en el intervalo
(una en el punto incial y otra en el final), luego estas dos derivadas se promedian con la finalidad de
obtener una mejor estimación de la pendiente en todo el intervalo, esta forma de resolver, se llama Método
de Heun.
Recordemos que en el método de Euler, la pendiente al inicio del intervalo es: y ' i=f (x i , y i ) , luego se
0
utiliza para extrapolar linealmente a yi+1: y i+1= yi + f (x i , y i ) h esta se llama ecuación predictora. Da una
estimación de yi+1 que permite el cálculo de una estimación de la pendiente al final del intervalo :
0
y ' i+1=f (x i+ 1 , y i+1 ) .
Luego obtenemos una pendiente promedio en el intervalo:
f (x i)+ f (x i+1)
Supongamos que y’ = f(x.y) = f(x) entonces: y i+1= yi + h (en color rojo la regla del trapecio).
2
Y luego de diversas integrales y por regla del trapecio llegamos que:
x i+ 1
f ( x i )+ f ( x i+ 1) (ξ) 3 f ( x i)+ f (x i+1)
∫ f ( x)dx= h−f ' ' h y obtenemos que: y i+1= yi + h+O (h3 )
xi
2 12 2
siendo O(h3) el error local. Ademas el error global es O(h2). Por lo que al disminuir el paso, disminuye el error
mas rápido que en el método de Euler.
.
x i+ 1
Por esta razón este método se llama Método del Punto Medio.
.
Con respecto al método mas popular, le corresponde a los de métodos RK de 4to orden. A continuación se dara
la forma mas comunmente usadas, y por lo tanto, se denominara método clasico RK de 4to orden.
1
y i+1= yi + (k 1+2 k 2 +2 k 3 + k 4 )h donde:
6
1 1 1 1
k 1=f ( x i , y i ) , k 2=f ( x i + h , y i+ k 1 h) , k 3=f ( x i + h , y i+ k 2 h) y k 4=f ( x i+ h , y i + k 3 h)
2 2 2 2
.
.
Con respecto a los sistemas de ecuaciones, debemos decir que para resolver un sistema como el
siguiente:
dy 1
=f 1 (x , y 1 , y 2 , ... , y n )
dx
dy 2
=f 1 (x , y 1 , y 2 , ... , y n )
dx
dy n
=f 1 (x , y1 , y 2 , ... , y n)
dx
Se requiere de se conozcan n condiciones iniciales en el valor inicial de x.