Está en la página 1de 81

Resumen

de
método numéricos

Autor: Un simple estudiante con mucho café


Los métodos numéricos son técnica que permiten resolver problemas matemáticos a través de una gran
cantidad de operaciones aritméticas y lógicas.

Para resolver un problema físico se plantea una hipótesis o simplificaciones, obteniendo el modelo
matemático, el cual nos permite solucionar problemas matemático.

Cuando se refiere a problemas matemáticos se puede obtener solución exacta y solución aproximada.

Solución exacta:
Posee ciertos inconvenientes, como hipótesis simplificativas, aplicable solo a limitadas clases
de problemas y puede existir la posibilidad que no se pueda resolver analíticamente. Por esto
tiene un valor practico limitado.

Solución aproximada:
Esta se puede resolver por dos métodos, uno gráfico, el cual nos permite resolver problemas
complejos, aunque no son precisos y son tediosos; y un método numérico, el cual por medio de
una computadora, obtengo muy buenas aproximaciones, gran rapidez y la solución de
problemas complejos, o por medio de un calculo manual.

Por lo que los métodos numéricos son herramientas muy poderosas para la solución de problemas,
permiten cuantificar y acotar los errores que producen las computadores y nos ayudan a entender las
distintas ramas de la Matemática.

Los modelos matemáticos es una formulación o ecuación que expresa las características esenciales de
un sistema físico:

Variable dependiente = f | variable independientes; parámetros; términos fuente |


Errores numéricos

Pueden ser:
De redondeo, debido a la capacidad limitada de almacenamiento de las computadoras. Este
aumenta cuando se efectuá un mayor número de operaciones de punto flotante y cuando se
disminuye el paso. Este disminuye cuando se usan sistemas menores.

De truncamiento, o también conocido como error de método, es debido a la diferencia entre la


formula matemática exacta y la aproximación numérica. Disminuye con sistemas mayores,
cuando se achica el paso y cuando se agregan terminos en la serie de Taylor. Depende del
algoritmo o método utilizado en la resolución del problema. Sin embargo no depende de el
numero de operaciones de punto flotante o de la computadora o de la representacion numérica
usada.

Cifras significativas:

Son aquellas que pueden utilizarse en forma confiable

Exactitud y precisión:

La exactitud se refiere a qué tan cercano está el valor calculado o medido del valor verdadero,
mientras que la precisión se refiere a que tan cercanos se encuentran, unos de otros, diversos
valores calculados o medidos. La inexactitud o sesgo se define como la desviación sistemática
del valor verdadero mientras que imprecisión o incertidumbre se refiere a la magnitud en la
dispersión de los disparos.

Definiciones de error

Los errores numéricos surgen del uso de aproximaciones para representar operaciones y cantidades
matemáticas exactas. Incluyendo los errores de truncamiento que resultan del empleo de
aproximaciones como un procedimiento matemático exacto y los errores de redondeo que se producen
cuando se usan que tienen un limite de cifras significativas para representar números exactos.
Para ambos tipos de errores, la relación entre el resultado exacto y aproximado esta dado por:

Valor verdadero= valor aproximado + error

Reordenando obtenemos que el error numérico es :

ET= Valor verdadero- valor aproximado

Si queremos obtener en cuenta la magnitud de las cantidades, obtenemos:

Error relativo= error verdadero / valor verdadero


εt (error relativo porcentual verdadero)=error verdadero / valor verdadero *100%
Si no conocemos el valor verdadero, podemos usar la mejor estimación posible al valor verdadero:

εa(error relativo porcentual aproximado)= error aproximado / valor aproximado *100%


65358
En caso de métodos iterativos, el error se obtiene:

εa= (aproximación actual – aproximación anterior / aproximación actual) *100%


Esto se hace hasta que |εa|<εs

Para obtener εs en base a las cifras significativas (n), debemos hacer:


εs=(0,5 x 10^2-n)

Debido a que las computadoras usan una representación en base 2, no pueden representar exactamente
algunos números en base 10. Esta discrepancia por la omisión de cifras significativas se llama error de
redondeo.

Representación del punto-flotante

Las cantidades fraccionarias generalmente se representan en la computadora usando la forma de punto


flotante. Con este método, el numero se expresa como una parte fraccionaria, llamada mantisa o
significando y una parte entera denominada exponente o característica, esto es:
m . be
También se puede normalizar, sin embargo, esto limita el valor absoluto de m a:
1/b <=m<1

El rango de cantidades que pueden representarse es limitado. Intentar emplear números fuera del rango
aceptable dará como resultado el llamado error de desbordamiento (overflow).
Ademas existe solo un numero finito de cantidades que puede representarse dentro del rango, limitando
la precisión, obteniendo los errores de aproximación llamado errores de cuantificación. Podemos cortar
o truncar el numero en las cifras significativas (ΔX ) deseadas mientras que en el error de redondeo,
como dice su nombre produce un redondeo en la cifra a cortar, obteniendo la mitad del error, pero
generando mas trabajo comunicacional (ΔX/2).
El intervalo entre los números ΔX, aumenta conforme los números crecen en magnitud, esto permite
que la representación de punto flotante conserve los dígitos significativos. Los números irracionales no
se pueden de manera exacta. Sin embargo dice que los errores de cuantificación son proporcionales a la
magnitud del numero representado. Esto se puede calcular como:

|ΔX|
≤ε (para el caso de truncamiento)
|x|
|ΔX|
≤ε /2 (para el caso de redondeo)
|x|

llamándose “ε” como epsilon de maquina, la cual es el numero mas pequeño representable y puede
calcular como:

ε= b ^ (1-t) siendo b el numero base y t el numero de dígitos significativos de la mantisa

El error de cuantificion es debido a la aproximación a un valor verdadero y no el valor exacto en si


Error de truncamiento y la seria de Taylor

Son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemática exacto.

La serie de Taylor proporciona un medio para predecir el valor de una función en un punto en términos
del valor de la función y sus derivadas en otro punto. Este teorema establece que cualquier función
suave puede aproximarse por un polinomio.
Una buena manera de comprender la serie de Taylor consiste en construirla término por término, por
ejemplo el primer término de la serie es:
f(xi+1)̃= f(xi)
Esta relación se llama aproximación de orden cero, indica que el valor de f en el nuevo punto es el
mismo que su valor en el punto anterior.
Sin embargo si la función cambia en el intervalo entonces se utilizan términos adicionales de la serie de
Taylor, para obtener una mejor aproximación, llamándose aproximación de primer orden:
f(xi+1)̃= f(xi)+df̍ (xi)(xi+1- xi)
Y así sucesivamente.
También podemos calcular el termino residual como :
(n+1 )
f ∗ε
Rn = ∗( X(i+1) −x i)n+1 siendo ε el epsilon de maquina y xi<ε<xi+1
(n+1)!

Diferenciación numérica

Esta se llama diferencia finita dividida

donde Δfi se lo conoce como primera diferencia hacia adelante y a h se le llama el tamaño del paso o
incremento, esto es, la longitud del intervalo sobre el cual se realiza la aproximación. Se llama
diferencia hacia adelante porque usa los datos en i e i+1 para estimar la derivada. Al termino Δfi / h se
lo conoce como primer diferencia finita dividida.

En cambio en la diferencia hacia atrás, la serie de Taylor se expande hacia atrás para calcular un valor
anterior sobre la base del valor actual
l

Truncando la ecuación después de la primera derivada y reordenando, obtenemos:

Donde el error es O(h) y a Δfi se lo conoce


como primera diferencia dividida hacia atrás.

También debemos mencionar la aproximación a la primera derivada con diferencias centradas, la cual
para aproximar se resta la ecuación de la expancion de la serie de Taylor hacia adelante:
l

Para obtener:

En donde despejamos:

De esta forma el error de truncamiento es del orden h2 en contraste con las anteriores que son de
orden h.
Propagación del error en una función de una única variable

Para calcular esto se usa la siguiente formula:

donde Δf (̍̃x) representa la estimación del error de la función y Δx = (x-̃x) representa una estimación
del error de x.

Propagación del error en una función de mas de una variable

Para calcular el error de una función con n variables independientes ̍̃x1, ̍̃x2,…, ̍̃xn, teniendo Δ̃x1,Δ̃x2,
…, Δ̃xn.
Estabilidad y condición

La condición de un problema matemático relaciona su sensibilidad con los cambios en los datos de
entrada. Se dice que un calculo es numéricamente inestable si la inexactitud de los valores de entrada
aumenta considerablemente por el método numérico.
Recordemos que el error relativo de x esta dado por
(x- ̍̃x) / ̍̃x

Y el numero de condición puede definirse como la razón entre estos errores relativos

EL numero de condición proporciona una medida de que tanto una inexactitud de x se


aumenta por f(x). un valor de 1 nos indica que el error relativo de la función es idéntico
al error relativo de x. Un valor mayor a 1 nos señala que el error relativo se amplifica;
mientras que un valor menos que 1 nos dice que se atenuá. En funciones con valores
muy grandes se dice que están mal condicionas.

Error numérico total

El error numérico total es la suma de los errores de truncamiento y redondeo. La única


forma de minimizar los errores de redondeo consiste en incrementar el numero de cifras
significativas en la computadora. Hemos notado que el error de redondeo aumenta
debido a la cancelación por resta o debido que en el análisis aumente el numero de
cálculos. En cambio el error de truncamiento se reduce disminuyendo el tamaño del
incremento, los errores de truncamiento disminuyen cuando los errores de truncamiento
se incrementan.
Raíces de una ecuación
Las raíces de una función se puede obtener mediante dos métodos:
Método abierto: Interacción de punto fijo, Newton Rapson, secante, Muller.
Método cerrado: Biseccion y falsa posición.
Métodos cerrados

Estos métodos aprovechan el hecho que una cambia de signo en la vecindad de una raíz. También son
llamados métodos de intervalos, porque se necesita de dos valores iniciales para la raíz, los cuales
deben encerrar o estar a ambos lados de la raíz. Estos métodos son convergentes porque siempre
general aproximaciones cada vez mas cercana a la raíz, sin embargo acumulan errores de redondeo.
Se pueden usar métodos gráficos, sin embargo tienen un valor practico limitado, ya que no son
precisas, por lo que se los utiliza para obtener aproximaciones de la raíz. Ademas sirve para la
compresión de las propiedades de las funciones en la prevención de las falla de los métodos numéricos.

Método de la Biseccion

Este es un método de búsqueda incremental, el cual localiza un intervalo en el que la función cambie
de signo.

Los pasos son:


1. elegir valor inicial inferior Xi y superior Xu que encierre la raíz, de forma que la función
cambie de signo en el intervalo. Esto se verifica comprobando que f(Xi) * f(Xu) < 0.
2. se realiza una aproximación de la raíz Xr mediante: Xr = (Xi+Xu) / 2.
3. Se realiza las siguientes evaluaciones para determinar en que subintervalo esta la raíz
◦ si f(Xi) * f(Xr) < 0, entonces la raíz se encuentra dentro del subintervalo inferior o
izquierdo. Por lo tanto, Xu=Xr y vuelvo al paso 2.
◦ si f(Xi) * f(Xr) > 0, entonces la raíz se encuentra dentro del subintervalo superior o derecho,
por lo que Xi=Xr y vuelvo al paso 2.
◦ Si f(Xi) * f(Xr) = 0, la raíz es igual a Xr, termino el calculo

Recordemos las formulas de error relativo aproximado y error relativo verdadero


5

En este método en cada iteración se reduce el error a la mitad, por lo que la formula que relaciona el
error y el numero de iteaciones (n) es:

=1/2n

A continuación escribiremos el algoritmo de este método:


Método de la falsa posición o interpolacion lineal

El método anterior resulta muy ineficiente por su aproximación de fuerza bruta, aquí surge este método.
Un inconveniente del método anterior, es que al dividir el intervalo de Xi a Xu en mitades iguales, no
se toman en cuentas las magnitudes de f(Xi) y f(Xu). Un método alternativo aprovecha esta
visualización gráfica que consiste en unir f(Xi) y f(Xu) con una linea recta, resultando la intersección
de la linea con el eje de las x en una mejor aproximación de la raíz. Al remplazar la curva por una linea
recta da una falsa posición, de aquí surge su nombre.
Utilizando triángulos semejantes obtenemos:

despejando Xr obtenemos:

Los pasos para este método son:


1. elegir valor inicial inferior Xi y superior Xu que encierre la raíz, de forma que la función
cambie de signo en el intervalo. Esto se verifica comprobando que f(Xi) * f(Xu) < 0.
2. se aproxima a la raíz con la formula de la falsa posición.
3. Se realiza las siguientes evaluaciones para determinar en que subintervalo esta la raíz:
1. si f(Xi) * f(Xr) < 0, entonces la raíz se encuentra dentro del subintervalo inferior o
izquierdo. Por lo tanto, Xu=Xr y vuelvo al paso 2.
2. si f(Xi) * f(Xr) > 0, entonces la raíz se encuentra dentro del subintervalo superior o
derecho, por lo que Xi=Xr y vuelvo al paso 2.
3. Si f(Xi) * f(Xr) = 0, la raíz es igual a Xr, termino el calculo

En este método uno de los valores iniciales puede permanecer fijo durante los cálculos, mientras que el
otro converge a la raíz.
Es unilateral, no se aplica a raices dobles y tiene en cuenta los valores en el externo del intervalo.
Este método si bien es relativamente mejor que el anterior, puede darse el casos que se converge
lentamente a la raíz y ademas la unilateral (un valor permanece fijo) que puede llevar a una mala
convergencia especialmente en funciones con una gran curvatura.

A continuación desarrollaremos el pseucodigo:


Para evitar problemas de estancamiento en uno de los limites de los intervalos, se recurre al método de
la falsa posición modificado, en el que se divide a la mitad el valor de la función en el punto de
estancamiento. Se recurre a contadores para determinar si uno de los limites del intervalo permanece
fijo, en caso de ser así se divide a la mitad el valor de la función.

Método abierto
En estos métodos no se requiere de valores iniciales que encierren a la raíz, sino que se basan en
formulas que requieren unicamente un solo valor de inicio. Estos en algunas ocasiones pueden divergir
o se alojan de la raíz verdadera a medida que se avanza en el calculo, pero en contrapuesta, cuando
convergen lo hacen mucho mas rápido que los métodos abiertos y se pueden aplicar para sistemas de
ecuaciones no lineales

Iteración simple de punto fijo

En este método se trata de despejar la incógnita de la ecuación, obteniendo la ecuación :

x=g(x)
Xi+1=g(Xi)

Esto nos proporciona una formula para predecir un nuevo valor de x en función del valor anterior.
Como podemos ver este es un método iterativo.
Debemos tener en cuenta al usar este método si la función converge, para esto usando el teorema de la
función de valor medio llegamos a la conclusion de que la función converge si y solo si:

| d g(x0)|<1

Si converge, se dice que el error es proporcional y menos que el error en la interacción anterior, por lo
que se dice que el método de punto fijo es linealmente convergente.
6

A continuación dejamos el pseucodigo:


Método Newton-Raphson

Esta es la mas ampliamente utilizada. Si el valor inicial para la raíz es xi, entonces se puede trazar una
tangente desde el punto [Xi; f(Xi)] de la curva. El punto donde donde esta tangente cruza al eje x
representa una aproximación mejorada de la raíz.
Si igualamos la pendiente, obtenemos:

Y si despejamos Xi+1 obtenemos:


4

Así obtenemos la fórmula de Newton-Raphson, ademas por medio de este método, el numero de cifras
significativas de precisión aproximadamente se duplica en cada iteración, siendo el error proporcional
al cuadrado del error anterior.
Si bien este método es muy eficiente, hay situaciones donde se comporta de manera deficiente, como
en el caso especial de raíces múltiples y en algunas ocasiones, en raíces simples. Un caso es cuando
obtenemos una pendiente igual a 0, lo que provoca que la solución se dispara horizontalmente y jamas
toca al eje x. En conclusión su convergencia depende la función y de tener un valor inicial que sea
suficientemente cercano a la raíz.

A continuación desarrollaremos el pseudocódigo:

Método de la secante

Un problema que presenta el método anterior es la evaluación de la derivada.


Para esto se aproxima la derivada mediante una diferencia dividida hacia atrás:

Ahora se remplaza en la formula de Método de Newton-Raphson y obtenemos la


ecuación iterativa:
Esta es la formula del Método de la secante. Si bien se requieren de dos valores iniciales
de x, no se clasifica como método cerrado, porque no se necesita que f(x) cambie de
signo entre los valores dados.
4

Al igual que el método de la falsa posición, ambos usan dos valores iniciales para calcular una
aproximación de la pendiente de la función que se utiliza para proyectar hacia el eje x una
aproximación de la raíz, sin embargo se diferencian en la forma en que uno de los valores iniciales se
remplaza por la nueva aproximación. Recordemos que en el método de la falsa posición la ultima
aproximación de la raíz remplaza cualquiera de los valores iniciales que de un valor de la función con
el mismo signo que f(Xr), por lo que las dos aproximaciones encierran a la raíz. En cambio, el método
de la secante remplaza los valores en secuencia estricta, el nuevo valor de xi+1 remplaza a Xi y Xi
remplaza a xi-1.Esto puede generar divergencias. Sin embargo cuando el método de la secante converge,
lo hace mas rápido que el método de la falsa posición.
5

A continuación desarrollaremos el pseudocódigo:


4
Método de Müller

El método de Müller construye una parábola con 3 puntos para aproximarse a la raíz.
El método consiste en obtener los coeficientes de la parábola que pasa por los 3 puntos. Dichos
coeficientes se sustituyen en la fórmula cuadrática para obtener el valor donde la parábola interseca al
eje x, es decir la raíz. estimada. Este nos permite calcular raíces complejas. Esta aproximación se
facilita al escribir la ecuación de la parábola en una forma conveniente:

Se evaluá y sustituye cada uno de esos tres puntos para obtener:

De aquí podemos deducir que f(X2) = c, con lo que obtenemos:

Luego hacemos una manipulación álgebra :

Y sustituimos en la ecuación anterior:

Ahora podemos despejar a y b:


4

Ahora para encontrar la raíz. se aplica la formula resolvente:


Y el error se calcula como:

6
Método de la secante
Sistemas de ecuaciones

Existen diversos métodos que son apropiados para la solución de pequeños sistemas de ecuaciones
simultaneas (n<=3) que no requieren de una computadora. Estos son el método gráfico, la regla de
Cramer y la eliminación de incógnitas. Ademas puede ser métodos directos como la eliminacion de
Gauss simple y la descomposición LU (acumulan errores de rendondeo) o métodos indirectos como
Gauss-Seidel y de Jacobi (estos pueden divergir)

Método gráfico

Para dos ecuaciones se puede obtener una solución al graficarlas en coordenadas cartesianas con un eje
que corresponda a x1 y el otro a x2. Al ser un sistema lineal, cada ecuación se relaciona con un linea
recta, la cual se ilustra mediante las ecuaciones generales:

De ambas despejamos x2 y obtenemos:

Estas se grafican en un gráfico de


coordenadas cartesianas y en la
intersección de ambas rectas, se encuentra
la solución.
Sin embargo se pueden presentar diversos problemas, como que ambas rectas sean paralelas
paralelas, que sean iguales (singulares) o que estén mal acondicionados.

Un sistema mal condicionado presenta problemas cuando se encuentran durante la solución numerica
de ecuaciones lineales, lo cual se debe a que este tipo de sistemas son extremadamente sensibles a los
errores de redondeo.

Determinantes y la regla de Cramer

Recordemos que los determinantes para una matriz 2x2 se obtiene:

Y para una matriz 3x3:


4

Donde los determinantes 2x2 se llaman menores.

La regla de Cramer se calcula como:

y se va desplazando la columna b1,b2,b3 a medida que vamos


cambiando de incógnita x2,x3.

La eliminación de incógnitas

Es un método algebraico que se ilustra con un sistemas de dos ecuaciones simultaneas:


Eliminación de Gauss simple
En este método se puede conocer a priori el numero de operaciones a realizar

Esta consta de dos pasos:

1) Las ecuaciones se manipularon para eliminar una de las incógnitas de las ecuaciones. El
resultado de este paso de eliminación fue el de una sola ecuación con una incógnita.

2)En consecuencia, esta ecuación se pudo resolver directamente y el resultado sustituirse atrás
en una de las ecuaciones originales para encontrar la incógnita restante.

Eliminación hacia adelante:


Se multiplica la ecuación 1 (fila pivote) por:

y se resta a la ecuación 2 para obtener:

4
es decir:

se prosigue así hasta obtener:

Sustitución hacia atrás:

De la ultima ecuación, despejamos Xn:

Luego vamos despejando sistemáticamente de abajo hacia arriba:


4
El tiempo de ejecución en la eliminación gaussiana depende de la cantidad de operaciones con punto
flotante o FLOP usadas en el algoritmo. Para las multiplicaciones y divisiones el tiempo consumido es
el mismo, pero es mayor para las sumas y las restas.
Luego de diversos cálculos concluimos que el trabajo total en la eliminación de Gauss simple se
representa como:

Por lo que podemos concluir que, a medida que el sistema se vuelve mas grande, el tiempo de calculo
aumenta enormemente y la mayor marte del trabajo ocurre en la eliminación hacia adelante, por lo que
debemos enfocarnos en este método para ser mas eficientes.

Dificultades en los métodos de eliminación:

División entre cero:


Por ejemplos en sistemas donde a11= 0 o cuando se tiene coeficientes muy cercano a 0. Para
solucionar esto se usa la técnica de pivoteo.

Errores de redondeo:
Si se usan mas cifras significativas se disminuye el error en los resultados, o si se trabaja con
fracciones. Se presentan problemas graves cuando se trabaja con un gran numero de ecuaciones,
ya que el error se propagan, ya que cada resultado depende del anterior. Como regla general se
dice que los errores de redondeo son de importancia cuando se trabajan con sistemas de 100 o
mas ecuaciones.

Sistemas mal acondicionados:


Un sistema mal acondicionado es cuando un cambio pequeño en los coeficientes generan
grandes cambios en la solución. Debido a que los errores de redondeo llegan a provocar
pequeños cambios en los coeficientes, estos cambios pueden generar grandes errores en la
solución de sistemas mal acondicionados. Como conclusión general un sistema mal
acondicionado es aquel en el que su determinante es cercano a 0 o 0 (infinitas soluciones).
Como dato extra si es determinante es 0, se llama sistema singular.

Escalamiento:
Para solucionar los problemas en los sistemas mal acondicionados, para evitar esto se debe escalar las
ecuaciones en forma tal que el máximo en cualquier renglón sea igual a 1.
Pivoteo:
Antes de normalizar cada renglón, resulta conveniente determinar el coeficiente mas grande disponible
en la columna debajo del elemento pivote, esto se llama pivoteo parcial. Al procedimiento donde tanto
en las columnas como en los renglones se busca el elemento mas grande y luego se intercambian, se lo
conoce como pivoteo completo.

Escalamiento:
Como mencionamos anteriormente el escalamiento podía ser útil para la estandarización del tamaño
determinante, ademas minimiza los errores de redondeo en casos en los que alguna de las ecuaciones
de un sistema tiene coeficientes mucho mas grandes que otros. En estos se divide cada renglón del
sistema por su coeficiente de mayor absoluto.

A continuación desarrollaremos el pseudocódigo:


Descomposición LU:

La eliminación de Gauss resulta ineficiente cuando deben resolverse ecuaciones con los mismo
coeficientes [A], pero con diferentes constantes del lado derecho. [A]{X}={B}
Los métodos de descomposición LU separan el tiempo usado en las eliminaciones para la matriz [A] de
las manipulaciones en el lado derecho {B}. Una vez que [A] se ha descompuesto, los múltiples
vectores del lado derecho {B} se pueden evaluar de manera eficiente. Gauss se puede expresar como
una descomposición LU.

Primero se reordena la ecuación anterior:


[A]{X}-{B}=0

Ahora se realiza la eliminación de Gauss, es decir, se utiliza la eliminación para reducir el sistema a una
forma triangular superior:

Ahora supongamos que existe una matriz diagonal inferior con números 1 en la diagonal, la cual tiene
la propiedad que cuando se premultiplica por la ecuación anterior, el resultado es la ecuación original.
4

Es decir [L]{[U]{X} – {D}} = [A]{X} – {B}

Por lo que si esa ecuación se satisface, se obtiene:


[ L][ U ]=[ A] , [ L] {D}={B}

El costo computacional es igual a la eliminación de Gauss, solo que se distribuye en partes iguales
entre la descomposición y la sustitución.
A continuación se desarrollara el pseudocódigo:
Matriz inversa

Una matriz inversa es la que satisface :


[A][A]-1=[A]-1[A]=I

Para calcular la primera columnas

Para calcular la segunda columnas

Para calcular la tercera columnas


Para calcularla se utiliza el algoritmo de descomposición LU
El

trabajo computacional para este código es:


Para detectar mal condicionamiento se puede:
1. Escalar la matriz A e invertirla. Observar si hay elementos mucho mayores a 1-
2. Multiplicar la inversa de A por A y estimar qué tan lejos está el resultado de I.
3. Invertir la inversa de A y estimar que tan lejos esta el resultado de A.
4. Calcular el numero de condición de A, cond[A].

Norma vectorial y matriciales

Una norma es una función que toma valores reales y que proporciona una medida del tamaño o
longitud de entidades matemáticas multicomponentes, como los vectores y las matrices.
Para calcular las normas se hace lo siguiente:

Numero de condición de una matriz:

Se puede definir que:


Cond [A]=||A|| * ||A-1||

Donde Cond [A] se llama numero de condición de una matriz, el cual sera mayor o igual a 1.
También la podemos expresar como:
5

Esto nos dice que el error relativo de la norma de la solución calculada puede ser grande como el error
relativo de la norma de los coeficientes de [A], multiplicada por el numero de condición. Esto tambien
nos permite identificar una sistema mal acondicionado.

Matrices especiales o bandeada

Una matriz bandeada es una matriz cuadrada en la que todos sus elementos son cero, con excepción de
una banda centrada sobre la diagonal principal.
Las dimensiones de un sistema bandeado se cuantifica mediante dos parámetros: el ancho de banda
(BW) y el ancho de media banda (HBW). Estos dos valores se relacionan mediante BW = 2*HBW +1.
En general un sistema bandeado es aquel para el cual aij=0 si |i-j|>HBW.
Aunque la eliminación de Gauss o la descomposición LU convencional se emplean para resolver
sistemas de ecuaciones bandeados, resultan ineficientes, debido a que si el pivoteo no es necesario,
ninguno de los elementos fuera de la banda cambiara su valor original igual a 0, por lo que se usara
espacio y tiempo inútil. ancho de banda

Método de Gauss-Seidel

Los métodos iterativos constituyen una alternativa a los métodos de eliminación descriptos
anteriormente. El método Gauss-Seidel es el método iterativo más comúnmente usado, supongamos
que se da un sistema de n ecuaciones:
[ A]{X }={B}

Supongamos que se limita a un conjunto de ecuaciones de 3x3. Si los elementos de la diagonal no son
todos ceros, la primera ecuación se puede resolver para x1 , la segunda para x2x y la tercera para x3 ,
podemos obtener:

En este método se debe partir de un conjunto de valores iniciales para x(puede ser 0). Se remplaza en
los miembros derechos para obtener los valores actuales en los miembros izquierdos. Se repite hasta
que:

Como un nuevo valor de x se calcula con el método de Gauss-Seidel, éste se usa inmediatamente en la
siguiente ecuación para determinar el otro valor de x. De esta forma, si la solución es convergente, se
empleara la mejor aproximación disponible.
Un método alternativo, llamado interacion de Jacobu, emplea una táctica algo diferente, más que usar
inmediatamente el ultimo valor disponible de x, esta técnica usa la primera ecuación para calcular un
conjunto de nuevas x con base en un conjunto de x anteriores. De esta forma, conforme se generan
nuevos valores, no se usan inmediatamente sino que se retienen para la siguiente iteración.
Sin embargo la mas usada es la de Gauss-Seidel.
4

Se demuestra que el método es convergente si [A] es diagonalmente dominante:

Si no se puede cumplir con esta condición, al menos se


intentara:
4

A continuación desarrollaremos el pseudocódigo de Gauss-Seidel y Jacobi, respectivamente:

Gauss-Seidel
Jacobi
l

Optimización

En esta unidad nos dedicaremos a la búsqueda del mínimo o del máximo de una función.
El optimo es el punto donde la curva es plana, es decir donde la derivada en 0, ademas la segunda
derivada indica si es máximo o mínimo, si la segunda es mayor a 0 es un mínimo, mientras que si es
menor a 0, se trata de máximo.
Una estrategia consiste en buscar la raíz de su derivada.

Puede ser optimización:


• Unidimensional: De la sección dorada o áurea, Interpolacion cuadrática o de Newton
• Multidimensional: Directos o de gradiente

Sección Áurea

La Optimización de una sola variable tiene como objetivo encontrar el valor de x que da un extremo, ya
sea un máximo. o un mínimo de f(x).

La razón áurea es una raíz positiva cuyo valor es:


Ademas esta esta relacionada con la
sucesión de Fibonacci.

Este es un método cerrado, que comienza con dos valores iniciales, Xl y Xu. Después se eligen dos
puntos interiores X1 y X2 de acuerdo con la razón dorada.

La función se evalúa en estos dos puntos interiores, presentándose dos posibles casos:
1. Si f(x1) > f(x2), entonces el dominio de x a la izquierda de x2, de xl a x2, se puede
eliminar, ya que no contiene el máximo. En este caso, x2 sera el nuevo xl en la siguiente
vuelta.
2. Si f(x2) > f(x1), entonces el dominio de x a la derecha de x1, de x1 a xu podrá
eliminarse. En este caso x1 sera el nuevo xu en la siguiente iteración.

Finalmente el ciclo termina hasta que el error esperado es el εa<εs

Observando el intervalo superior, si el valor verdadero estuviera en el extremo izquierdo, la


máxima distancia al valor estimado seria:
Δxa= x1 – x2
Δxa= x1 + R(x u – x l ) – x u + R(x u – x l )
Δxa= 0,236 (xu-xl)

En cambio si estuviera en el extremo derecho:


Δxb= xu-x1=0,382 (xu-xl)

Con lo cual podemos obtener:

En cada iteración se reduce en un factor de R y se puede conocer a priori el error abs para
un numero de iteraciones

A continuación desarrollaremos el pseudocódigo


Interpolación cuadrática

Este método aprovecha la ventaja de que un polinomio de segundo grado con frecuencia
proporciona una buena aproximación a la forma de f(x) en las cercanías de un valor optimo.
Existe solo una ecuación cuadrática o parábola que pasa por 3 puntos. De esta forma si se
tiene tres puntos que contienen un punto óptimo, se ajusta una parábola a los puntos.
Después se puede derivar e igual el resultado a cero y así obtener una estimación de la x
optima.
Luego de diversas operaciones algebraicas, el resultado es:

Donde x0, x1 y x2, son los valores iniciales y x3 es el valor de x que corresponde al valor
máximo del ajuste cuadrático para los valores iniciales.
Luego en la próxima iteración se elimina x0 si x1<=x3 ; o x2 si x1>x3
Este método siempre converge
4

A continuación desarrollaremos el pseudocódigo:


Método de Newton

Este método se basa en el método de Newton-Raphson de búsqueda de raíces:


4

Para encontrar el máximo o el mínimo, busca la raíz de la primera derivada:

Una desventaja de este método es que llega a divergir según la naturaleza de la función y la
calidad del valor inicial. Solo se emplea cuando se esta cerca del valor optimo.
Optimizan multidimensional – Métodos directos

Búsqueda por malla

Este es un algoritmo de fuerza bruta en el que se divide cada dominio en segmentos iguales.
Por lo que mientras mas densa es la malla, menor es el error de la busqueda del optimo
.

Método aleatorio o de Monte Carlo

En este método se evalúan puntos de coordenadas aleatorias:

donde r es un número aleatorio uniformemente distribuido entre 0 y 1

4
Ajuste de curvas

Primeramente debemos conocer la naturaleza de los datos para saber que ajuste usar.
Esto tiene diversas aplicaciones, a continuación mencionaremos algunas:
• Análisis de la tendencia: Predecir los valores de la variable dependiente -interpolar o
extrapolar-.
• Prueba de hipótesis: Nos permite validad un modelo matemático existente con los resultados
experimentales o adecuar el modelo de los datos.
• Integración, solución aproximada de ecuaciones diferenciales, etc.

Esto se puede lograr por diversos métodos, sin embargo, cuando hay errores en los valores datos, no
es posible acompañarlos y es relevante predecir la tendencia por regresión por minímos cuadrado
y otros. Ademas si los datos son muy precisos, es importante acompañarlos (interpolación) con :
• Interpolación Lineal
• Interpolación de Newton
• Interpolación de Lagrange
Comenzaremos desarrollando la regresión por mínimos cuadrados.

Regresión por mínimos cuadrados:


Podemos usar Regresión Lineal ó Regresión Polinominal.
En la Lineal cada X tiene un valor fijo, no es
aleatorio y se conoce sin error, los valores de Y
son variables aleatorias independientes y todas
tienen la misma varianza, los valores de Y para
una X dada deben estar distribuidos
normalmente. El residuo de esta representa la
distancia vertical entre un dato y la línea recta .
Este es: e= y−a0−a1 x . Una estrategia para
ajustar una mejor linea, es minimizar la suma de
los errores residuales de todos los datos
disponibles, es decir:
n n

∑ e i=∑ ( y i−a0−a1 x i)
i=1 i=1
Sin embargo es un criterio inadecuado, ya que
cualquier línea recta (excepto vertical) que pase
por el punto hace que el error sea cero, por lo
que se puede minimizar la suma de los valores
absolutos de los errores:
n n

∑|ei|=∑|( y i−a0−a1 x i )|
i=1 i=1
sin embargo este ajuste tambien es inadecuado, ya que cualquier línea recta que esté comprendida
entre las lineas puntuadas minimizará el valor absoluto de la suma. Como 3er estrategia podemos
utilizar el criterio minimax, en esta la línea se elige de manera que minimice la máxima discrepancia a
que un punto se encuentre de la línea, sin embargo esto es inadecuado ya que excesiva influencia a
punto fuera del conjunto, es decir un solo punto con un gran error. Finalmente podemos llegar al
mejor criterio, es decir, minimizar la suma de los cuadrados de los errores:
n n n
S r =∑ e =∑ ( y i ,medida − y i ,modelo ) =∑ ( y i−a0−a1 x i)2
2
i
2

i=1 i=1 i=1


Con este, logramos un criterio correcto, ya que se obtiene una línea unica para un conjunto de datos.

Para este 4to criterio, se obtiene los valores de a0 y a1, se deriva la ecuación con respecto a cada uno
de los coeficientes:
∂S r ∂S r
=−2 ∑ ( y i−a 0−a 1 x i) =−2 ∑ [( y i−a0−a 1 x i) x i ]
∂a0 ∂a1
Ahora si igualamos estas derivadas a cero, dará como resultado un Sr mínimo, si hacemos esto las expresiones se
expresan como:
0=∑ y i−∑ a 0−∑ a1 x i 0=∑ y i x i−∑ a0 x i−∑ a1 x2i
Ahora podemos ver que ∑a0 = na0 , expresamos las ecuaciones como un conjunto de dos ecuaciones lineales
simultaneas con dos incógnitas (a0 y a1):
∑ y i=n a0 +(∑ xi ) a1 ∑ y i xi =(∑ x i )a0 +(∑ x 2i )a i
De esta forma obtenemos las “ecuaciones normales”, las cuales se resuelven de forma simultanea:
n ∑ x i yi −∑ x i ∑ y i
a1 = 2
y a0 = ȳ−a1 x̄
2
n ∑ x i −( ∑ x i)
Algoritmo para la
regresión Lineal

Mientras que en la Polinomial se debe limitar a polinomios de grados inferiores para evitar el error de redondeo
de las ecuaciones normales mal condicionadas en sus coeficientes de grado superior.
Para este se utilizan distintos modelos, como el modelo exponencial, el de potencial y el de razón de
crecimiento.

Modelo Exponencial:
β1 x
y=α 1 e
ln y=ln α1 +β1 x ln e
ln y=ln α1 +β1 x

Modelo de Potencias:
β2
y=α 2 x
log y=β2 log x +log α 2

Modelo de Razon de Crecimiento:


x
y=α 3
β3 + x
1 β 1 1
= α3 + α
y 3 x 3
f
Regresión Polinominal:
El procedimiento de mínimos cuadrados se puede extender fácilmente al ajuste de datos con un
polinomio de grado superior, por ejemplo, supongamos que ajustamos un polinomio de segundo
grado:
2
y=a0 +a1 x+ a2 x +e

Nos queda la suma de los cuadrado de los residuos:


n
S r =∑ ( y i −a0 −a1 x i−a2 x 2i )2
i=1

Y podemos derivar obteniendo:


∂S r 2
=−2 ∑ ( y i−a 0−a 1 x i−a 2 x i )
∂a0
∂S r 2
=−2 ∑ x i ( y i−a0−a1 x i−a 2 x i )
∂a1
∂S r
=−2 ∑ x 2i ( y i−a0−a 1 x i−a 2 x 2i )
∂a2
Y las ecuaciones normales:
2
n a0 +( ∑ x i) a1 +( ∑ xi ) a2=∑ y i
2 3
( ∑ x i)a0 +( ∑ x i )a1 +(∑ xi ) a2=∑ x i y i
2 3 4 2
( ∑ x i )a0 +( ∑ x i )a1 +(∑ x i )a 2=∑ x i y i

Adema podemos realizar este mismo procedimiento para un polinomio de grado m.

Algoritmo Polinominal

Interpolación:
Existen diversas formas de expresar una interpolación polinominal, entre ellas, la mas popular y útiles
son el polinomio de interpolación de Newton en diferencias divididas. Esta puede ser lineal, cuadrática
o polinomial.
Lineal:
Es la forma mas simple, consiste en unir dos puntos con una línea recta, mediante triángulos
semejantes:
f 1 (x)−f ( x0 ) f ( x 1 )−f ( x 0)
= reordenando esto, obtenemos:
x−x 0 x 1−x 0
f ( x 1)−f (x 0 )
f 1 ( x )=f (x 0)+ ( x−x 0 )
x 1−x 0

Cuanto menor sea el intervalo


entre los datos, mejor será la
aproximación.

Interpolación Cuadratica:
Si se tiene 3 puntos como datos, puede ajustarse un polinomio de segundo grado:
f 2(x )=b 0+ b1 (x−x 0 )+ b2 (x−x 0 )(x−x 2)

Si x=x0 , entonces b0=f(x0) , se remplaza en la anterior y se evalúa en x=x1 . Luego se remplaza en


la anterior y se evalua en x=x2.
f 2(x )=b 0+ b1 (x−x 0 )+ b2 (x−x 0 )(x−x 2)

b0 =f ( x0 )

f ( x 1)−f ( x 0 )
b1 =
x 1−x 0

f ( x2 )−f (x 1) f (x 1 )−f (x 0)

x 2−x 1 x 1−x 0
b2 =
x 2−x 0
Interpolación Polinomios:
Podemos generaliza un polinomio de n-ésimo grado a n +1 datos, gracias al análisis anterior. Este
polinomio es:
f n (x)=b0 +b1 (x−x 0 )+b2 (x−x 0 )(x−x 2)+...+b n (x−x 0)(x−x 1 )...( x−x n−1 )

Obteniendo los datos:


b0 =f ( x0 ) b1=f [ x 1 , x 0 ] b1=f [ x 2 , x 1 , x 0 ] … bn =f [x n , x n−1 ,... , x 1 , x 0 ]

f (x i )−f ( x j ) f [x i , x j ]−f [ x j , x k ]
f [x i , x j ]= f [x i , x j , x k ]=
x i−x j x i−x k

Podemos obtener la n-ésima diferencia divida finita es:


f [x n , xn−1 , ..., x 1 ]−f [ xn −1 , xn −2 , ..., x 0 ]
f [x n , x n−1 ,... , x 1 , x 0 ]=
x n −x0

f n (x)=f (x 0 )+(x−x 0 ) f [ x1 , x 0]+(x−x 0 )( x−x 1) f [x 2 , x 1 , x 0 ]+...+( x−x 0)( x−x 1 )...(x−x n−1 ) f [ xn , x n−1 , ... , x 0 ]

El error de esta Interpolación es:


Algoritmo de
Newton Polinomios
Ademas de estos polinomios de interpolación, tenemos el polinomio de Lagrange. Este es una
reformulación del polinomio de Newton que evita el calculo de las diferencias divididas y se representa
de manera concisa como:
n n
x−x j
f n (x)=∑ Li ( x ) f (x i) donde: Li (x)= ∏
i=0 j=0∧ j≠i x i−x j

De esto obtenemos:
x−x 1 x−x 0
f 1 (x )= f ( x 0 )+ f (x 1)
x 0−x 1 x 1−x 0

( x−x 1 )( x−x 2) (x− x0 )(x−x 2) ( x−x 0 )( x−x 1)


f 2(x )= f (x 0 )+ f (x 1)+ f (x 2)
(x 0−x 1 )( x 0−x 2) ( x1− x0 )(x 1−x 2) (x 2−x 0 )( x 2−x 1)
Algoritmo De
Lagrange

Podemos ver que mientras menor es el grado, menor es la precisión.


Diferenciación e integración numérica

Derivada e integrales:
Diferenciar significa marcar por diferencias, distinguir, …, percibir la diferencia en o entre. La derivada
sirve como principal vehículo para la diferenciación, representa la razón de cambio de una variable
dependiente con respecto a una variable independiente.

Δ y f (x i + Δ x)−f ( xi )
= Cociente incremental
Δx Δx
dy f (x i + Δ x )−f (x i)
= lim . Derivada
d x Δ x ⇒0 Δx
4

Recordemos el concepto de integral definida:


b
I=∫ f ( x)dx
a

Ahora gracias a la suma de Riemann, obtenemos que la esta expresion es igual a:


b n
I =∫ f ( x)dx= lim ∑ f (x i) Δ x 4
a Δ x⇒ 0 i=1
n⇒ ∞
Un ejemplo de la relación que existe entre la diferenciación (distinción) y la integración (juntar) ,es en el caso
de la velocidad/posición, gracias a la diferenciación podemos obtener la velocidad teniendo como dato la
posición, mientras que con la integral podemos obtener la posición si tenemos la velocidad como dato.
t
d
v (t )= y (t) Derivada y (t)=∫ v (t) dt Integral
dt 0

Existen diversos tipos de funciones, a los cuales se les corresponde diversos métodos para integrar o derivar:
• Función continua simple: Métodos Analíticos
• Función continua complicada: Métodos Numéricos
• Función Tabulada: Métodos Numéricos
Los métodos analíticos cambian según el tipo de función, mientras que los numéricos, se aplican de igual forma
a todas las funciones.
Supongamos que se quiere aproximar la integral definida de una función f(x) en un intervalo [a,b] evaluando f(x)
en un número finito de puntos, para esto se pueden usar las fórmulas de Newton-Cotes. Estas se basan en la
estrategia de remplazar una función complicada o datos tabulados por un polinomio de aproximación que es facil
de integrar:
b b
I =∫ f (x) dx≃∫ f n ( x)dx
a a

n−1
donde fn(x) es un polinomio de la forma f n (x)=a0 +a1 x+ ...+ an−1 x +a n x n
Según el grado del polinomio puede ser:

Ademas pueden con forma cerrada o abierta. La primera son aquellas donde se conocen los datos al incio y final
de los límites de integración, mientras que en las abiertas se extienden más allá del intervalo de los datos.
.

Basicamente en las formulas de integración de Newton-Cotes se eligen n+1 puntos {x0,…,x n} en el intervalo
[a,b] y se aproxima f(x) con un polinomio de Lagrange de grado n:
n
f (x)≈P n ( x)=∑ f ( x i )Li (x )
i=0

b b n n

∫ f (x)dx≈∫ ∑ f ( x i )Li (x )dx=∑ ai f ( x i ) obteniendo la fórmula de integración


a a i =0 i=0

b
donde ai =∫ Li (x ) dx para i=0,1,…,n
a
Regla del trapecio:

Se utiliza para polinomio de primer grado, es decir, con n=1 y f (x)≈P 1(x ) .
Luego de diversos cálculos llegamos a que:
b
f (x 0 )+f ( x1 )
∫ f ( x)dx≈(x 1−x 0) 2
a

Ademas podemos calcular la integral con el error quedándonos:


b
f ( x 0 )+ f (x 1 ) 1 3
∫ f ( x)dx=(x 1−x 0) 2
− f ' ' (ξ)( x 1−x 0) en rojo el error de truncamiento verdadero Et
12
a

En caso que se trate de polinomios Pn (x) de grado n≤1, se obtiene un resultado exacto
1 3
Ademas el error de truncamiento aproximado es: Ea =− f̄ ' ' (ξ)(x 1−x 0 )
12
.

Existe una variación llamada Regla del trapecio de aplicación múltiple (regla compuesta), en esta se divide el
intervalo [a,b] en n segmentos de igual longitud h= (b-a)/n.

.
Luego sumamos las integrales de cada segmento:
b x1 x2 xn

∫ f ( x)dx=∫ f ( x )dx +∫ f ( x)dx +...+ ∫ f ( x) dx


a x0 x1 x n−1

b
f (x 0 )+ f ( x 1 ) f ( x 1 )+ f (x 2 ) f (x n−1 )+ f ( x n )
∫ f ( x)dx≈I T =h 2
+h
2
+...+h
2
a

n −1
h
I T = [f ( x 0 )+ 2 ∑ f ( x i )+ f (x n )]
2 i=1

Con respecto al error, podemos obtener:


3 n
(b−a)
Et =− 3 ∑ f ' '( ξ ) Error de truncamiento verdadero
12 n i=1

1 ²
Ea =− h (b−a) f̄ ' ' Error de truncamiento aproximado
12
.

Algoritmo de Regla
Compuesta del Trapecio
Regla de Simpson ⅓:
Se utiliza para P(x) de segundo grado, es decir, n=2, donde f ( x)≈P 2( x) .

Luego de diversos calculos, podemos llegar a la conclusion que :

h f (x 0)+ 4 f ( x1 )+ f (x 2 )
I S = [f (x 0)+ 4 f ( x1 )+ f (x 2 )]=(b−a) en rojo el ancho y en azul la altura
1/3
3 6
Con respecto al error, da resultados para polinomios cubicos, aun cuando su fórmula se obtenga de una
parábola, son:
1 5 IV −(b−a) IV
Et =− h f ( ξ )= f ( ξ ) Error de truncamiento verdadero
90 2880
1 5 ¯IV −(b−a) ¯IV
Ea =− h f ( ξ )= f ( ξ ) Error de truncamiento aproximado
90 2880
.

Con respecto a su variación tenemos la regla de Simpson ⅓ de aplicación múltiple, en la cual se divide
b−a
el intervalo [a,b] en n segmentos de igual longitud: h= con n: numero par. Y obtenemos una
n
ecuación:
n−1 n−2
f (x 0 )+ 4 ∑ f ( x i)+2 ∑ f (x i)+ f ( x n )
i=1,3,5, ... i=2,4,6,..
I S =(b−a) En rojo el ancho y en azul la
1/3
3n
altura
Y obtenemos los errores:
n
1 5 IV
Et =− h ∑ f ( ξ ) Error de truncamiento verdadero
90 i=2,4,6, ...
1 4
Ea =− h (b−a) f¯IV Error de truncamiento aproximado
180
.

Algoritmo de Regla
Compuesta de Simpson

Regla de Simpson ⅜:
Se integra un polinomio de tercer grado:
3 3 x2 3 3
x−x i x−x i
P3 =∑ ∏ y I ≈∫ [ ∑ ∏ ]dx
i=0 j=0 x i−x j x0 i=0 j=0 x i−x j
j≠i j≠i

Luego integrando y sustituyendo a xi = x0 +i · h, siendo h=(b-a)/3:

3h f ( x 0)+3 f (x1 )+3 f ( x 2 )+ f (x 3 )


IS = [f (x 0)+3 f ( x1 )+3 f ( x 2 )+ f ( x 3 )]=(b−a) En rojo el ancho y en
3/8
8 8
azul la altura promedio.
Con respecto al error obtenemos el resultado exacto para polinomios Pn(x) de grado n≤3. Ademas los
errores son:
5
3 5 IV (b−a) IV
Et =− h f ( ξ )=− f ( ξ ) Error de truncamiento
80 6480

.
.

Con respecto a la precisión debemos aclarar que tanto la regla del trapecio como la regla de Simpson
⅓ disminuyen el error relativo porcentual a medida que aumenta la cantidad de segmentos, llega a un
punto en donde el error empieza a crecer nuevamente.
.
.

Integración Numérica Eficiente de Funciones:


Si se conoce la expresión de f(x), se puede utilizar:
• Extrapolación de Richardson: se san dos estimaciones numéricas de una integral con el
mismo orden del error de truncamiento, para obtener una tercera estimación más exacta.
• Algoritmo de Romberg: usa la regla compuesta del trapecio para obtener estimaciones
preliminares, aplicando luego el proceso de Extrapolación de Richardson para mejorar las
aproximaciones.
Comencemos a desarrollar estos dos puntos:
Extrapolación de Richardson:
El valor exacto I de una integral definida consta de la estimación y el error correspondiente de la fórmula
de integración numérica usada: I =I ( h)+ E (h) (1)

Aplacada con dos pasos distintos, siendo h1>h2: I ( h1)+ E (h1)=I( h2)+ E (h2 )
Ahora aplicando la regla del trapecio compuesta, el error de truncamiento se aproxima:
3 3
(b−a) ¯II (b−a) 2 ¯II
E≈− 2
f =− h f
12 n 12

I (h1 )−I (h2 )


Supongamos que f¯II ≈cte y luego de diversos calculos, llegamos a que: E(h 2)≈ 2
1−(h1 /h2 )
Por lo que finalmente podemos escribir (1) de forma completa:

I (h2 )−I (h1)


I=I (h)+ E (h)≈...≈ I (h2 )+ 2
(h1 /h2) −1
Determinamos que el error es del orden O(h4).
I (h2 )−I (h1 ) 4 1
Como caso especial de que h2 = h1 / 2, obtenemos : I ≈I (h2 )+ 2
=...= I ( h2)− I ( h1) .
2 −1 3 3
Si en cambio tenemos que :
4 1 4
I S ( h2)= I T (h2)− I T (h1 )+O( h ) , luego de realizar el mismo procedimiento
1/3
3 3
I (h2)−I (h1)
usado para la regla del trapecio, llegamos a que : I ≈(h2)+ 4
(h1 /h2 ) −1
Y en el caso en que h2= h1/2:
16 1 6
I= I (h2)− I (h1)+O( h )
15 15

Extrapolación de Richardson, caso general:


A partir de dos estimaciones O(hn), se obtiene una aproximación de O(hn+2):
I (h2)−I (h1) n +2
I =(h2)+ + O(h )
(h1 /h2 )n−1

I (h2)−I (h1) n +2
Y en el caso de que h2=h1/ 2: I =(h2)+ n
+ O(h )
2 −1

Algoritmo de Romberg:
k−1
4 I j+1 , k−1−I j ,k −1
En general: I j ,k = k−1
siendo k: nivel de integración y j: estimación.
4 −1

42−1 I 2,2 −I 1,1 4 I 1,1−I 1,1


Por ejemplo, para k=2 y j=1: I 1,2 = 2−1
=
4 −1 3
Y la interación continúa hasta que:
I 1 ,k −I 1 ,k−1
|εa|= | I 1 ,k | 100 %< εs
Fórmulas de derivación numérica

1. Fórmulas de diferencias finitas divididas hacia adelante


1.1. Primera derivada

f (xi+1 ) − f (xi )
f I (xi ) = + O(h) (1)
h
−f (xi+2 ) + 4f (xi+1 ) − 3f (xi )
f I (xi ) = + O(h2 ) (2)
2h

1.2. Segunda derivada

f (xi+2 ) − 2f (xi+1 ) + f (xi )


f II (xi ) = + O(h) (3)
h2
−f (xi+3 ) + 4f (xi+2 ) − 5f (xi+1 ) + 2f (xi )
f II (xi ) = + O(h2 ) (4)
h2

1.3. Tercera derivada

f (xi+3 ) − 3f (xi+2 ) + 3f (xi+1 ) − f (xi )


f III (xi ) = + O(h) (5)
h3
−3f (xi+4 ) + 14f (xi+3 ) − 24f (xi+2 ) + 18f (xi+1 ) − 5f (xi )
f III (xi ) = + O(h2 ) (6)
2h3

1.4. Cuarta derivada

f (xi+4 ) − 4f (xi+3 ) + 6f (xi+2 ) − 4f (xi+1 ) + f (xi )


f IV (xi ) = + O(h) (7)
h4
−2f (xi+5 ) + 11f (xi+4 ) − 24f (xi+3 ) + 26f (xi+2 ) − 14f (xi+1 ) + 3f (xi )
f IV (xi ) = + O(h2 ) (8)
h4

2. Fórmulas de diferencias finitas divididas hacia atrás


2.1. Primera derivada

f (xi ) − f (xi−1 )
f I (xi ) = + O(h) (9)
h
3f (xi ) − 4f (xi−1 ) + f (xi−2 )
f I (xi ) = + O(h2 ) (10)
2h

2.2. Segunda derivada

f (xi ) − 2f (xi−1 ) + f (xi−2 )


f II (xi ) = + O(h) (11)
h2
2f (xi ) − 5f (xi−1 ) + 4f (xi−2 ) − f (xi−3 )
f II (xi ) = + O(h2 ) (12)
h2

1
Extrapolación de Richardson para derivadas:

D(h 2)−D(h1)
También se puede aplicar a las derivadas (O(h 2)): D≈D (h2)+ 2
(h1 /h2 ) −1
Como caso especial, si h2=h1/2:
4 1
D≈ D( h2)− D(h1 )
3 3
Como caso general, tenemos que a partir de dos estimaciones de O(h n), se obtiene una aproximación de O(hn+2):

D(h2 )−D(h1)
D=D(h2)+ n
+ O(hn+ 2)
(h1 /h2) −1
Y en el caso de que si h2=h1/2:

D(h2 )−D (h1) n+ 2


D=D (h2)+ n
+ O(h ) y se puede usar el algoritmo de Romberg.
2 −1

Derivadas e integrales para datos con errores:


La diferenciación tiende a ser inestable, amplifica los errores, en cambio la integración tiende a hacerlo
muy estable respecto a datos inciertos. En esencia, conforme los puntos se suman para formar una integral ,
los errores aleatorios positivos y negativos tienden a compensarse. En cambio, como la diferenciación es
sustractiva, los errores aleatorios positivos y negativos tienden a sumarse.
Siempre se prefiere ajustar por mínimos cuadrados un polinomio de bajo grado y derivarlo.
.
Ecuaciones Diferenciales Ordinarias

Ejemplo de EDOs de primer orden son:


dv c
=g− v (t )
dt m
dx
y=
dt
Y de segundo orden:

d2 x dx
m 2
+c + kx=0
dt dt
Ademas se puede transformar un sistema de EDOs de primer orden a una de segundo orden, realizando:

dx dy d 2 x
• Sustitución: y= ⇒ =
dt dx dt 2
dy dy cy +kx
• Remplazando : m + c y + kx=0 ⇒ =−
dt dt m
dx dy cy +kx
• Cambiando el sistema: = y ⇒ =−
dt dt m
En algunos casos se obtiene por integración indefinida:
c
dv c c gm − t
=g− v (t )⇒ v=∫ (g− v (t))dt ⇒ v (t )= (1−e m )
dt m m c
Ademas, la técnica habitual es la linealización, como en el caso de un péndulo:

d2θ g d2θ g
+ sin θ =0 EDO orginal, no lineales, pero como Ѳ es pequeño: + θ =0
dt 2 l dt 2 l

Mencionaremos algunos ejemplos de EDOs:


dv F
= 2da Ley de Newton
st m
dt
q=−k Ley del calor de Fourier
dx
dC
J =−D Ley de difusión de Fick
dx
di
ΔV=L Ley de Faraday
dt
En general, una EDO de orden n requiere n condiciones, si todas se fijan en el mismo punto (por ejemplo x=0) es
un problema de valores iniciales, si no ocurre esto, es un problema de contorno.
A continuación desarrollaremos distintos métodos para su resolución.

Métodos de Runge-Kutta:
dy
Desarrollaremos métodos que nos permitan resolver ecuaciones del tipo: =f (x , y)
dx
Ademas, como método general usaremos:
Nuevo valor= Valor anterior + pendiente X paso
ó yi+1 = yi + Φ h
De acuerdo con esta ecuación, la pendiente estimada Φ se usa para extrapolar desde un valor anterior y i a un
nuevo valor yi+1 en una distancia h. Todos los métodos que se expresan así, van a diferir en la manera en la que se
estima la pendiente.
Método de Euler:

La pendiente se estima como: ϕ =f (x i , y i ) , por lo tanto: y i+1= yi + f ( x i , y i )h


.

La solución numérica de las EDO implica dos tipos de error:


• Truncamiento o de discretización, originados por la naturaleza de las técnicas empleadas para
aproximar los valores de y.
• Redondeo, causados por el número limitado de cifras significativas que una computadora
puede retener.
Con respecto al error de truncamiento, consta de dos partes, la primera es un error de truncamiento local que
resulta de una aplicación del método considerado, en un solo paso; mientras que la segunda, es un error de
truncamiento propagado, que resulta de las aproximaciones producidas durante los pasos previos. La suma de
ambos da el error de truncamiento global o total.
El erro de truncamiento en el método de Euler se atribuye a los términos remanentes de la expansión de la serie
f ' (x i , yi ) 2 n+1
de Taylor, y llegamos a : Et = h +...+O(h ) llamandose error de truncamiento local verdadero.
2!
Para h suficientemente pequeña, los errores en los términos de esta ecuación, normalmente disminuyen, en tanto
f ' (x i , y i ) 2 2
aumenta el orden y el resultado se representa como: Ea = h ó Ea =O(h ) siendo este el error
2!
de truncamiento local aproximado. Sin embargo debemos aclarar que el error de truncamiento global es O(h),
esto significa que el error es proporcional al paso.
Se puede reducir el error disminuyendo el paso. Cabe destacar que si trata de una ecuación lineal, el método dará
predicciones sin error alguno.
.
Algoritmo de Método de
Euler

Serie de Taylor:
Una manera de reducir el error con el método de Euler, es agregar terminos de orden superior a la
expansión de la serie de Taylor para la solución. Por ejemplo agregar terminos de segundo orden a la
ecuación:

f '( x i , y i ) 2 f ' ' ( xi , yi ) 3


y i+1= yi + f ( x i , y i ) h+ h con un error de truncamiento local: Ea = h
2! 6

Método de Heun:
Para mejorar la estimación de la pendiente, se emplea la determinación de dos derivadas en el intervalo
(una en el punto incial y otra en el final), luego estas dos derivadas se promedian con la finalidad de
obtener una mejor estimación de la pendiente en todo el intervalo, esta forma de resolver, se llama Método
de Heun.

Recordemos que en el método de Euler, la pendiente al inicio del intervalo es: y ' i=f (x i , y i ) , luego se
0
utiliza para extrapolar linealmente a yi+1: y i+1= yi + f (x i , y i ) h esta se llama ecuación predictora. Da una
estimación de yi+1 que permite el cálculo de una estimación de la pendiente al final del intervalo :
0
y ' i+1=f (x i+ 1 , y i+1 ) .
Luego obtenemos una pendiente promedio en el intervalo:

y i ' + y i+1 ' f ( x i , y i)+ f ( x i+1 , y 0i +1)


ȳ '= =
2 2
Luego extrapolamos linealmente desde yi hasta yi+1 con el método de Euler:
0
f (x i , y i)+ f ( x i+1 , y i+1)
y i+1= yi + h llamándose esta como ecuación correctora o corrector.
2
.

f (x i)+ f (x i+1)
Supongamos que y’ = f(x.y) = f(x) entonces: y i+1= yi + h (en color rojo la regla del trapecio).
2
Y luego de diversas integrales y por regla del trapecio llegamos que:
x i+ 1
f ( x i )+ f ( x i+ 1) (ξ) 3 f ( x i)+ f (x i+1)
∫ f ( x)dx= h−f ' ' h y obtenemos que: y i+1= yi + h+O (h3 )
xi
2 12 2
siendo O(h3) el error local. Ademas el error global es O(h2). Por lo que al disminuir el paso, disminuye el error
mas rápido que en el método de Euler.
.

Método del punto medio:


Esta técnica utiliza el método de Euler para predecir un valor de y en el punto medio del
h
intervalo y i+1 /2= yi + f ( x i , y i ) .
2
Luego, este valor predicho se utiliza para calcular una pendiente en el punto medio: y i+1 /2 '=f ( x i+1 /2 , y i+1 /2 )
Dicha pendiente se usa después para extrapolar linealmente desde xi hasta xi+1: y i+1= yi + f (x i+1 /2 , y i+1 /2) h
Este procedimiento también se relaciona con las fórmulas de integración de Newton-Cotes, utilizamos el método
del punto medio, el cual se puede representar como:
b

∫ f (x) dx≃(b−a)f ( x 1) luego usando la nomenclarura anterior.


a

x i+ 1

∫ f ( x)dx≃hf ( x i+ 1/ 2) con error local= O(h3) y error global= O(h2)


xi

Por esta razón este método se llama Método del Punto Medio.
.

Método de Runge-Kutta de 4to orden:


Los métodos de Runge-Kutta logran la exactitud del procedimiento de la serie de Taylor sin necesitar el
cálculo de la derivada de orden superior. Existen muchas versiones, pero todas tienen la forma
generalizada: y i+1= yi + ϕ ( xi , y i , h) h en rojo se conoce como función incremento.

Con respecto al método mas popular, le corresponde a los de métodos RK de 4to orden. A continuación se dara
la forma mas comunmente usadas, y por lo tanto, se denominara método clasico RK de 4to orden.
1
y i+1= yi + (k 1+2 k 2 +2 k 3 + k 4 )h donde:
6
1 1 1 1
k 1=f ( x i , y i ) , k 2=f ( x i + h , y i+ k 1 h) , k 3=f ( x i + h , y i+ k 2 h) y k 4=f ( x i+ h , y i + k 3 h)
2 2 2 2
.

.
Con respecto a los sistemas de ecuaciones, debemos decir que para resolver un sistema como el
siguiente:
dy 1
=f 1 (x , y 1 , y 2 , ... , y n )
dx
dy 2
=f 1 (x , y 1 , y 2 , ... , y n )
dx
dy n
=f 1 (x , y1 , y 2 , ... , y n)
dx
Se requiere de se conozcan n condiciones iniciales en el valor inicial de x.

También podría gustarte