Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Analisis Numerico I PDF
Analisis Numerico I PDF
26 de abril de 2017
Índice
1. Errores 2
5. Interpolación 14
7. Diferenciación numérica 18
8. Integración numérica 19
1
Algunas deniciones preliminares:
Supongamos que la secuencia {xk } converge al número ξ. Decimos que la sucesión converge con
orden q a ξ si
|xk+1 − xi | Figura 1:
lı́m =λ con λ>0
k→∞ |xk − xi |q Precisión y
exactitud.
El número q es llamado orden de convergencia. En particular, convergencia de orden 1 es lla-
mada convergencia lineal, la de orden 2 convergencia cuadrática y la convergencia de orden 3
convergencia cúbica.
1 Errores
Error inherente: error de los datos de entrada que puede provenir de la precisión en la medición de los datos,
la representación numérica, etc. Dado un valor exacto m y una aproximación m̃, denimos:
X ∂f (x) |xi |
CP = ∂xi · |f (x)|
i
2a2 2b2
∂z a ∂z b a b
CP = + = 2a · 2 2
+ 2b · 2 2
= 2 2
+ 2 =2
∂a z ∂b z a +b a +b a +b a + b2
N∼
= d, d1 d2 ...dt × β p con β base
p exponente
2
Redondeo: forma de redondear que consiste en modicar el último dígito según el siguiente criterio:
(
dk si 0 ≤ dk+1 ≤ 4
dk =
dk + 1 si 5 ≤ dk+1 ≤ 9
La cota para el error de redondeo es:
Error de truncamiento / discretización: error que aparece al transformar un procedimiento innito en uno
nito.
Error del modelo matemático: se debe a las simplicaciones e hipótesis introducidas para denir el modelo
matemático que representa el modelo físico.
Error humano: error producido por la intervención humana y/o por programas de computación mal hechos.
erT = CP · r + Te · µ
1.2 Algoritmos
op + − × ÷
x1 x1
f1 y y 1 1
x2
f2 y − xy2 1 -1
Algoritmo bien condicionado: un problema matemático está bien condicionado cuando al introducir peque-
ñas variaciones en los datos de entrada se producen pequeñas variaciones en los resultados.
En ≈ c · n · E0
Te 1 =⇒algoritmo inestable Te 6 1 =⇒algoritmo estable
Resumiendo:
Te Te
1+ CP 1 =⇒mal algoritmo 1+ CP 6 1 =⇒buen algoritmo
3
1.3 Gráca de proceso y perturbaciones experimentales
er
Si suponemos Te ≈ 0 =⇒CP = r
yµ −yξ
Si suponemos r ≈ 0 =⇒ Te = yξ (µ−ξ)
Y nalmente tenemos que CP = máx{Cp1 , Cp2 }. Como hemos supuesto que los errores de redondeo son despre-
ciables, los Cp deberían ser similares, con lo cual tendremos una estimación de la condición del problema.
ȳu −ȳs
Tes = ȳu (µs −µu ) = 1, 565
ȳu −ȳt
Tet = ȳu (µt −µu ) = 0, 241
En este caso concluimos que calcular f (y ) con más precisión mejora el resultado nal, pero esto no siempre es
cierto.
a x + ... + a1n xn = b1 a11 ··· a1n x1 b1
11 1
. . .. . . .
. =⇒ Ax = B =⇒ . . . = .
. . . . . .
an1 ··· ann xn bn
a x + ... + a x = b
n1 1 nn n n
Si A es una matriz cuadrada tal que det(A) 6= 0, podemos resolver el sistema mediante x = A−1 B . Sin embargo,
−1
los coecientes de la matriz A puede provenir de mediciones imprecisas, lo que haría que calcular A resulte
en más errores. Por este motivo surgen alternativas a esta forma de resolución del sistema.
4
Norma innito de una matriz A: es la máxima suma absoluta de las las de una matriz.
n
X
kAk∞ = max |aij |
1≤i≤m
j=1
Número de condición de una matriz A: se dene como κ(A) = kAk∞
A−1
∞ . Puede estimarse mediante
kx−x̃k∞ t
kx̃k∞ · 10 ≤ κ(A). El error relativo de x̂ al resolver Ax = B depende de κ(A).
Matriz bien condicionada: si κ(A) es chico entonces la matriz A es bien condicionada, y no hay alta propa-
gación de errores de redondeo al resolver Ax = B . Caso contrario, A es mal condicionada. Generalmente, las
matrices mal condicionadas mezclan coecientes chicos con coecientes grandes, o satisfacen det(A) ≈ 0. Si A
es tal que 6 ∃A−1 entonces κ(A) = ∞.
Ventajas Desventajas
- sólo hay errores de redondeo - no resuelven bien matrices mal condicionadas
- el número de operaciones es nito - se vuelven inestables con matrices grandes
Eliminación con pivoteo parcial: es necesario intercambiar de lugar las. Es del orden O(cn3 ).
Eliminación con pivoteo total: es necesario intercambiar de lugar las y columnas.
Pn
Convergencia: cuando A es diagonal dominante, es decir |aii | > j=1,j6=i |aij |
Ventajas Desventajas
- fácil de programar - si cambia el vector B es necesario retriangular A.
- O(n3 )
4 5
convierte en:
h1i h1i
1 0 ··· 0 a ··· a1n
11
.. . .
x1 b1 (
. .
m2,1 1 . . 0 .
.. .. Ux = y (I)
.
.
. = . →7
.. .. Ly = B (II)
.. . 0 ..
.
xn bn
mn,1 ··· mn,n−1 1 hni
0 ··· 0 ann
5
hii
aji
donde mi,j = hii son los coecientes de la triangulación de Gauss. El sistema (I) se resuelve aplicando sustitución
aii
inversa y para (II) sustitución directa.
Teorema : si se puede efectuar la eliminación de Gauss en el sistema lineal Ax = B sin intercambios de las,
entonces A se puede factorizar en el producto LU . Dos ejemplos de estos tipos de matrices son: estrictamente
diagonal dominantes, denidas positivas.
Ventajas Desventajas
- si cambia el vector B no hay que refactorizar A - determinar L y U requiere O(n3 ) pasos
2
- resolver Ax = B requiere O(n ) pasos
- no sirve para todas las A
h Pi−1 i
1
lji = uii aji − k=1 ljk uki
Pi−1
uii = aii − k=1 lik uki
Pi−1
uij = aij − k=1 lik ukj
4 5
q Pi−1
sii = aii − k=1 s2ik
h Pi−1 i
sji = s1ii aji − k=1 sjk sik para i 6= j
Ventajas Desventajas
- menor cantidad de cálculos que Crout y Doolittle - O(n3 )
B − Ax = 0
B − Ax + P x = P x
B + (−A + P )x = Px
x = (I − P −1 A)x + P −1 B
xhi+1i = (I − P −1 A)xhii + P −1
| {z B}
| {z }
T C
Son muy útiles para resolver sistemas con matrices ralas (con muchos coecientes nulos). También son
útiles para resolver sistemas con matrices mal condicionadas (pero si κ(A) 10t , siendo t la precisión
utilizada para realizar los cálculos, entonces debe aumentarse t para obtener una solución aceptable). Y
por último, son útiles cuando A es grande.
6
Para que el método converja a la única solución con cualquier xh0i , T debe ser tal que ρ(T ) < 1, o lo que
es lo mismo kT k < 1 para cualquier norma natural. Idealmente, debería ser kT k 1.
Nunca dan una solución exacta, incluso si usamos una precisión innita.
Renamiento iterativo: es una técnica que, dada una solución obtenida por el método de Gauss, factorización
LU o Cholesky, mejora el resultado.
Cuando la matriz A es muy mal condicionada, la primera solución obtenida mediante un método directo puede
no estar muy cerca de la solución correcta. Entonces podemos usar el renamiento iterativo:
n→∞
X
x = xh1i + dhii
i=1
Dado el sistema inicial Ax = B , el método de Jacobi consiste en despejar de cada ecuación las incógnitas:
b1 −a12 x2 −...−a1n xn Pn hii
a x + ... + a1n xn = b1 x = bi − aik xk
11 1 1 a11
k6=i
. . hi+1i k=1
. =⇒ . =⇒ xi =
. .
aii
a x + ... + a x = b
x = bn −an1 x1 −...−an n−1 xn−1
n1 1 nn n n n ann
siendo:
P =D
T = −D−1 (L + U )
C = D−1 B
Pn
Convergencia: cuando A es estrictamente diagonal dominante, es decir |aii | > j=1,j6=i |aij |
El método de Gauss-Seidel es similar al método de Jacobi pero más rápido, con la diferencia de que en el
cálculo de xi (i > 0) se aprovecha lo calculado en el paso anterior:
7
P =D+L
T = I − (D + L)−1 A
C = (D + L)−1 B
Pn
Convergencia: cuando A es estrictamente diagonal dominante, es decir |aii | > j=1,j6=i |aij |, o bien cuando A
es simétrica y denida positiva.
El método de las sobrerelajaciones es una variante del método de Gauss-Seidel, pero que converge más
rápido.
1
P = ωD +L
Ventajas Desventajas
- obtener ω no es fácil
En estos métodos se aplica xhi+1i = T xhii + C , y las matrices T y C varían en cada iteración.
El método de los residuos mínimos consiste en buscar que Rhi+1i sea mínimo en cada iteración. Su fórmula
es:
Siendo:
8
Rh0i = B − Axh0i
Ventajas Desventajas
- fácil de programar - convergencia similar a Jacobi
El método del descenso más rápido determina un mínimo local para una función de varias variables de la
forma g : <n → <. Intuitivamente puede describirse así:
2. Determine una dirección desde xh0i que origine una disminución en el valor de g.
3. Desplace una cantidad apropiada hacia esta dirección y llame al nuevo vector xh1i .
4. Repita los pasos 1 a 3 reemplazando xh0i con xh1i .
siendo:
Rh0i = B − Axh0i
T
Rhii Rhii
αi = RhiiT ARhii
Ventajas Desventajas
- converge independientemente del xh0i - convergencia lineal
- fácil de programar - puede converger en algo que no es el mínimo de g
- mejor velocidad que MRM - no usa bien las direcciones más empinadas
- menos cantidad de operaciones
El método del gradiente conjugado es muy útil como método iterativo de aproximación para resolver
sistemas de gran tamaño con entradas no nulas. Supondremos que A es simétrica y denida positiva.
El cálculo multivariable nos dice que la dirección de máximo descenso en el valor de g(x) es la dirección dada
por −∇g(x); es decir, en la dirección del residual r = b − Ax.
con:
9
Convergencia: cuando A es simétrica y denida positiva.
Ventajas Desventajas
- convergencia muy rápida para matrices grandes - suele ser inestable
- Si A ∈ Rn×n , n iteraciones alcanzan
n×n
- Si A∈R tiene k autovalores repetidos, n−k iteraciones alcanzan
Si la matriz A es mal condicionada, este método es altamente susceptible a los errores de redondeo. Es por
esto que existe el método de gradientes conjugados precondicionado. Un ejemplo de su uso es, en vez
de resolver Ax = B , podemos resolver AT Ax = AT B . Notar que en este caso à = AT A es simétrica y denida
positiva.
Sea el problema f (x) = 0. Resolver esta ecuación equivale a encontrar las raíces de la función f. Sin embargo,
no siempre es posible despejar x e igualar a 0. Una forma de obtener la solución sería gracando la función y
viendo donde ésta corta al eje X . Pero esto es poco práctico en casos complejos.
Si tenemos como datos af (x), una tolerancia máxima y un intervalo inicial [a, b], podemos utilizar los métodos
de arranque (bisección y Regula Falsi) para achicar este intervalo, y luego utilizar otros métodos para aproximar
la solución.
Teorema del valor intermedio : sea f una función continua en un intervalo [a, b] y supongamos que f (a) < f (b).
Entonces para cada u tal que f (a) < u < f (b), existe al menos un c dentro de (a, b) tal que f (c) = u.
|b0 − a0 |
T OL ≤
2n+1
Es importante destacar que para elegir el intervalo donde se encuentra la raíz debe vericarse que f (a)·f (b) < 0.
Sin embargo, si esto no se cumple no implica que la raíz no exista (pues puede ser una raíz doble).
Ventajas Desventajas
- fácil de entender - convergencia lenta
- converge siempre - podemos rechazar una buena aproximación intermedia
10
Un punto jo de una función g es un número p que satisface g(p) = p.
Teorema de suciencia para la existencia y unicidad del punto jo :
Método de iteración de punto jo: supongamos que deseamos resolver Figura 3: Método del punto -
f (x) = 0. Para hallar el x tal que g(x) = x escogemos una aproximación inicial jo.
x0 y generamos la sucesión x1 , ..., xn haciendo
Si la secuencia converge en xyg es continua, entonces obtenemos una solución con x = g(x). El error está dado
por:
|xn − x| ≤ k n |b − a|
Ventajas Desventajas
- si k≈0 converge rápidamente - convergencia lineal
- si k≈1 converge lentamente
f (xhii )
xhi+1i = xhii −
f 0 (xhii )
El método obtiene las aproximaciones utilizando tangentes sucesivas. Comenzando
con x0 , la aproximación x1 es la intersección entre la línea tangente a la gráca de
f en (x0 , f (x0 )) y el eje X . La aproximación x2 es la intersección entre la tangente
Figura 4: Una iteración
a la gráca de f en (x1 , f (x1 )) y el eje X , y así sucesivamente.
del método de Newton-
Es importante notar que no es posible continuar con este método si f 0 (xn−1 ) = 0
Raphson. 00
para alguna n. Además, f (x) debe estar acotada.
Teorema de convergencia : sea f ∈ C 2 [a, b]. Si x ∈ [a, b] es tal que f (x) = 0 y f 0 (x) 6= 0, entonces existe δ > 0 tal
que el método de Newton genera una sucesión x1 , ..., xn que converge a p para cualquier aproximación inicial
x0 ∈ [x − δ, x + δ].
Ventajas Desventajas
- muy poderoso - necesitamos conocer la derivada de f
- convergencia cuadrática para raíces simples - necesita una buena aproximación inicial
- convergencia lineal para raíces dobles
11
Si queremos evitarnos el problema de evaluar la derivada en el método de New-
f (xi )−f (xi−1 )
ton, podemos aproximarla mediante la denición: f 0 (xi ) ≈ xi −xi−1 . Entonces
tenemos:
Ventajas Desventajas
- es más rápido que el método - es más lento que el método de
del punto jo Newton
- fácil de usar
- no necesitamos conocer f0
Primero elegimos p0 y p1 tales que f (p0 ) · f (p1 ) < 0. p2 será la intersección en X de la recta secante. Luego
calculamos f (p1 ) · f (p2 ), si es mayor a 0 la raíz está entre p0 y p1 , sino está entre p1 y p2 . Su fórmula general es:
Ventajas Desventajas
- converge siempre - requiere más cálculos que el método de la secante
- más rápido que el método de la bisección - converge lentamente
- puede fallar si el denominador se anula
Diferencias progresivas: dada la sucesión p0 , ..., pn la diferencia progresiva 4pn está dada por 4pn = pn+1 −pn
con n ≥ 0.
Supongamos que p0 , ..., pn es una sucesión linealmente convergente con un límite p. El método 42 de Aitken
se basa en la suposición de que la sucesión p̂0 , ..., p̂n denida por
(pn+1 − pn )2 (4pn )2
p̂n = pn − = pn −
pn+2 − 2pn+1 + pn 42 pn
Ventajas Desventajas
- convergencia acelerada - poco práctico para programar
- no evaluamos la derivada
12
3.7 Método de Steensen
Existe una mejora para el método de Aitken, que se basa en aplicar este método para una sucesión dada por
aproximaciones sucesivas, y se conoce como método de Steensen.
La sucesión que genera está dada por:
Ventajas Desventajas
- Convergencia cuadrática
f1 (x1 , . . . , xn ) = 0
f2 (x1 , . . . , xn ) = 0
. =⇒ F(x1 , . . . , xn ) = (f1 , . . . , fn )T = 0
.
.
fn (x1 , . . . , xn ) = 0
13
Podemos resolverlo mediante una adaptación del método de Gauss-Seidel a sistemas de ecuaciones mediante:
r 2
hi+1i hii
x1 = ± 1 − x2
2
hi+1i hi+1i hi+1i
x2 = x1 − 2x1 +1
Ventajas Desventajas
- convergencia cuadrática - debe conocerse un valor inicial bueno
- necesita calcular e invertir J(x) en cada paso
- O(n3 ) pasos
El método de Broyden es una variante del método de Newton. En este método se reemplaza la matriz
jacobiana con una matriz de aproximación que se actualiza en cada iteración.
Supongamos que se da una aproximación inicial xh0i a la solución p de F (x) = 0. Calculamos xh1i como en
h2i
el método de Newton, y para calcular x nos apartamos de Newton y examinamos el método de la secante
para una ecuación no lineal: reemplazamos la matriz J(xh1i ) por una matriz A que tiene la propiedad de que
h1i h0i h1i h0i
x = xh1i − A−1
h2i h1i
A1 x −x =F x −F x , es decir que 1 F x . En general, calculamos:
xhi+1i = xhii − A−1
i F x hii
siendo
F xhii − F xhi+1i − Ai−1 xhii − xhi+1i
Ai = Ai−1 +
xhii − xhi+1i
2
2
Ventajas Desventajas
- no hay que invertir matrices - hay que invertir una matriz al comienzo
- no hay que calcular el jacobiano - convergencia superlineal
- O(n2 ) pasos - debe conocerse un valor inicial bueno
5 Interpolación
En ingeniería y algunas ciencias es frecuente disponer de un cierto número de puntos obtenidos por muestreo o
a partir de un experimento y pretender construir una función que los ajuste. Se denomina interpolación a la
obtención de nuevos puntos partiendo del conocimiento de un conjunto discreto de puntos.
Para curvas que no pueden denirse mediante polinomios contamos con curvas paramétricas llamadas curvas
de Bezier.
Supongamos que tenemos los puntos y0 = f (x0 ), y1 = f (x1 ),...,yn = f (xn ) y queremos obtener un polinomio de
grado n que pase lo más cerca posible de y0 , ..., yn . Lo que podemos hacer es plantear el sistema de ecuaciones:
xn0
1 x0 ···
n
a0 + a1 x0 + ... + an x0 = y0
n a0 y0
.
1 x1 ··· x1 . .
. =⇒ . . .. = ..
. . ..
.. .
. . .
.
a + a x + ... + a xn = y an yn
0 1 n n n n 1 xn ··· xnn
14
La matriz de este sistema se llama matriz de Vandermonde. Esta matriz es mal condicionada. Por lo tanto,
este generalmente no es un buen método.
Fenómeno de Runge: se da cuando aparecen oscilaciones no deseadas en los extremos del intervalo a interpolar.
Teorema : si x0 , . . . , x n son n+1 números distintos y si f es una función cuyos valores están dados en esos
números, entonces existe un único polinomio P (x) de grado a lo sumo n que satisface f (xk ) = P (xk ) con
k = 0, 1, ..., n.
Este polinomio está dado por:
n
Y (x − xj )
Ln;i =
(xi − xj )
j=0,j6=i
Xn
Pn (x) = [f (xi ) · Ln;i ]
i=0
Ventajas Desventajas
- la distribución de puntos no incide - O(n2 ) operaciones para evaluar Pn (x)
- es sencillo - agregar (xn+1 , yn+1 ) requiere recular todo
- es inestable
f (xi ) = yi
f (xi+1 )−f (xi )
f (xi , xi+1 ) = xi+1 −xi
.
.
.
P (x) = f (x0 ) + f (x0 , x1 )(x − x0 ) + f (x0 , x1 , x2 )(x − x0 )(x − x1 ) + f (x0 , x1 , x2 , x3 )(x − x0 )(x − x1 )(x − x2 )
donde x0 > x1 > x2 > x3 .
El método de las diferencias divididas regresivas de Newton de grado 3 consiste en:
P (x) = f (x3 ) + f (x2 , x3 )(x − x3 ) + f (x1 , x2 , x3 )(x − x3 )(x − x2 ) + f (x0 , x1 , x2 , x3 )(x − x3 )(x − x2 )(x − x1 )
donde x0 < x1 < x2 < x3 .
Ventajas Desventajas
- agregar un punto inicial o nal es muy sencillo - O(n2 ) operaciones para obtener f (xk , . . . , xn )
- O(n) operaciones para evaluar Pn (x) - agregar un punto intermedio requiere recalcular todo
- se exigen datos xi ordenados
15
5.3 Interpolación baricéntrica de Lagrange
Qn
Sea el polinomio genérico L(x) = i=0 (x − xi )
Sean los pesos baricéntricos
1
wi = Qn para todo i = 0...n
k=0,k6=i xi − xk
Entonces podemos denir al polinomio interpolante como:
n
X wi
Pn (x) = L(x) · f (xi )
i=0
x − xi
Ventajas Desventajas
- O(n) operaciones para evaluar Pn (x)
- O(n) operaciones para agregar un par de datos
- wi no depende de f (xn+1 )
- no es necesario ordenar los datos
Ventajas Desventajas
- O(n) operaciones para agregar un par de datos - es inestable
- es más estable que Lagrange original
n
X n
X
H2n+1 (x) = f (xi )Hn;i (x) + f 0 (xi )Ĥn;i (x)
i=0 i=0
donde
2
Hn;i (x) = 1 − 2(x − xi )L0n;i (xi ) [Ln;i (x)]
2
Ĥn;i (x) = (x − xi ) [Ln;i (x)]
Este polinomio también se puede calcular mediante el método de diferencias divididas Newton. Denimos una
sucesión {z0 , . . . , z2n+1 } dada por z2i = z2i+1 = xi , con i = 0 . . . n. Entonces:
2n+1
X k−1
Y
H2n+1 (x) = f (z0 ) + f (z0 , . . . , zk ) · (x − zj )
k=1 j=0
zi f (zi ) f (zi , zi+1 ) f (zi , zi+1 , zi+2 ) f (zi , zi+1 , zi+2 , zi+3 )
z0 = x0 f (z0 ) = f (x0 ) f (z0 , z1 ) = f 0 (x0 )
z1 = x0 f (z1 ) = f (x0 ) f (z1 , z2 ) f (z0 , z1 , z2 ) f (z0 , z1 , z2 , z3 )
z2 = x1 f (z2 ) = f (x1 ) f (z2 , z3 ) = f 0 (x1 ) f (z1 , z2 , z3 )
z3 = x1 f (z3 ) = f (x1 ) f (z3 , z4 )
Ventajas Desventajas
- procedimiento tedioso incluso
para valores chicos de n
16
5.5 Interpolación por splines
Figura 8: Spline.
1. Si (xi ) = f (xi ) para i = 0, . . . , n (la curva pasa por los puntos)
0
3. Si+1 (xi+1 ) = Si0 (xi+1 ) para i = 0, . . . , n − 2 (Si0 es continua)
00
4. Si+1 (xi+1 ) = Si00 (xi+1 ) para i = 0, . . . , n − 2 (Si00 es continua)
1
Para hallar los coecientes ai , bi , ci y di con spline de frontera libre debe plantearse:
ai = f (xi )
hi = xi+1 − xi
1 0 0 ··· 0
0
.
c0
.
h0 2(h0 + h1 ) h1 3[fN (x1 , x2 ) − fN (x0 , x1 )]
.
c1
0 h1 2(h1 + h2 ) h2
.
=
. .
. . . .
.
. .
. 0
3[f (x , x ) − fN (xn−2 , xn−1 )]
.
N n−1 n
cn
hn−2 2(hn−2 + hn−1 ) hn−1
0
0 ··· 0 0 1
hi
bi = fN (xi , xi+1 ) − 3 (2ci + ci+1 )
ci+1 −ci
di = 3hi
Para hallar los coecientes ai , bi , ci y di con spline de frontera sujeta debe plantearse:
ai = f (xi )
hi = xi+1 − xi
2h0 h0 0 ··· 0
3fN (x0 , x1 ) − 3f 0 (a)
.
c0
.
h0 2(h0 + h1 ) h1 3fN (x1 , x2 ) = 3fN (x0 , x1 )
.
c1
0 h1 2(h1 + h2 ) h2
.
=
. .
. . . .
.
. .
n−1 , xn ) − 3fN (xn−2 , xn−1 )
.
3f (x
0
.
N
cn
0
hn−2 2(hn−2 + hn−1 ) hn−1
3f (b) − 3fN (xn−1 , xn )
0 ··· 0 hn−1 2hn−1
hi
bi = fN (xi , xi+1 ) − 3 (2ci + ci+1 )
ci+1 −ci
di = 3hi
La interpolación con spline de frontera sujeta es más precisa que la natural, pero requiere los valores de la
derivada en los extremos, o al menos buenas aproximaciones.
Puede demostrarse que las matrices asociadas a los dos sistemas mencionados son estrictamente diagonal do-
minantes, denidas positivas, tribandas y simétricas, y que la solución de los dos es única.
1f
N denota la diferencia dividida de Newton
17
6 Ajuste de funciones y mejor aproximación
Cuando para un mismo xi tenemos varios valores de f (xi ) podemos construir una
curva que ajuste lo mejor posible los datos disponibles, sin que la curva pase por los
puntos dados.
Pm
La aproximación la hacemos con una función g(x) = i=0 ci φi (x), donde m < n.
Figura 9: Ajuste.
El problema general de aproximar un conjunto de datos distintos (x1 , y1 ), . . . , (xm , ym ) con un polinomio
Pn (x) = a0 + a1 x + a2 x2 + · · · + an xn de grado n < m − 1 puede resolverse mediante el método de los
cuadrados mínimos. Este método consiste en resolver las n + 1 ecuaciones normales para las n + 1 incógnitas
aj .
n
X m
X m
X
ak xj+k
i = yi xji para cada j = 0, . . . , n
k=0 i=1 i=1
Pm Pm Pm
x0i x1i xni
i=1 i=1 ··· i=1 a0
Pm
yi x0i
. Pi=1
m 1
. a1 i=1 yi xi
Pm 1 Pm
i=1 xi x2i .
i=1 . =
.
. .. . .
. .
Pm .
.
Pm. n
n
···
Pm
x2n an i=1 yi xi
i=1 xi i=1 i
Nótese que el coeciente A11 nos dice la cantidad de puntos que intervienen en el ajuste, y que la matriz es
simétrica y denida positiva, y es similar a una matriz de Vandermonde. De ahí que cualquier ajuste de curvas
hecho con polinomios es un problema mal condicionado, y por ello no se recomienda trabajar con polinomios
de grado mayor a 4 o 5.
Puede demostrarse que las ecuaciones normales tienen una solución única, a condición de que las xi sean
distintas.
Si sospechamos que los datos (xi , yi ) tienen una relación exponencial, podemos proponer la función de ajuste
y = aebx .
7 Diferenciación numérica
Dado que no siempre las soluciones analíticas al problema de diferenciar son aplicables a los problemas, y no
siempre existe tal solución numérica, existen métodos numéricos que aproximan las soluciones con distinto grado
de exactitud.
Sin embargo, debe notarse que la diferenciación numérica es inestable y depende mucho de la precisión utilizada.
f (x+h)−f (x)
1. Diferencias progresivas: f 0 (x) ≈ h . Su orden de convergencia es O(h).
f (x)−f (x−h)
2. Diferencias regresivas: f 0 (x) ≈ h . Su orden de convergencia es O(h).
18
f (x+h)−f (x−h)
3. Diferencias centradas: f 0 (x) ≈ 2h . Su orden de convergencia es O(h2 ). Es el que mejor
aproxima de los tres.
Tener en cuenta que achicar el paso h en los tres algoritmos anteriores no siempre es una manera de obtener
una aproximación mejor, ya que empieza a incidir el error de redondeo, dado que el numerador se vuelve cada
vez más chico. Además, no es posible calcular un valor óptimo para h.
h
j−1 q − Nj−1 (h)
N
h
Nj (h) = Nj−1 +
q q j−1 − 1
siendo N1 el resultado de aproximar la derivada con alguno de los métodos mencionados anteriormente (por
ejemplo, diferencias progresivas).
f 0 (1) π
Ejemplo: aproximar siendo f (x) = sin 3x con extrapolación de Richardson, con q = 2.
f (1+h)−f (1) N1 ( h
2 )−N1 (h) N2 ( h
2 )−N2 (h)
N2 = N1 ( h2 ) + h
hi N1 = h 21 −1 N3 = N2 2 − 22 −1 N4
0,2 N1 (0, 2) = 0, 4252
0,1 N1 (0, 1) = 0, 4752 N2 (0, 2) = 0, 5252
0,05 N1 (0, 05) = 0, 4996 N2 (0, 1) = 0, 5240 N3 (0, 2) = 0, 5236
0,025 N1 (0, 025) = 0, 5117 N2 (0, 05) = 0, 5238 N3 (0, 1) = 0, 5237 N4 (0, 2) = 0, 5237
Pn−1
La extrapolación puede aplicarse si el error de truncamiento es j=1 kj hα α
j + O(h m).
8 Integración numérica
Cuando necesitamos obtener el valor de una integral denida, pueden ocurrir dos cosas: que la función no tenga
una antiderivada explícita, o que ésta no sea fácil de obtener. Entonces podemos obtener una aproximación
utilizando una cuadratura.
Rb Pn
Cuadratura numérica: a f (x) dx ≈ i=1 ci f (xi ), donde ci son los coecientes de peso y los f (xi ) son los
puntos de cuadratura.
Los siguientes métodos aproximan la función f (x) con un polinomio interpolante, cuyas antiderivadas son fáciles
de calcular.
19
8.1 Fórmulas cerradas de Newton-Cotes
Fórmula cerrada de Newton-Cotes: la fórmula cerrada de n+1 puntos de Newton-Cotes utiliza los nodos
equidistantes xi = x0 + ih, para i = 0..n, donde x0 = a, xn = b y h = b−a
n . Se llama cerrada porque se incluyen
los extremos del intervalo como nodos.
Su orden de convergencia es O(h). Esta regla da un resultado exacto para funciones del tipo f (x) = c.
Regla del trapecio (n=1): se obtiene al integrar en [a, b] el primer polinomio de Lagrange. Se aproxima
el área bajo una función f de valores positivos con un trapecio.
x1
h3
Z
h
f (x) dx = · [f (x0 ) + f (x1 )] − f 00 (ξ)
x0 2 12
siendo h = b − a. Su convergencia es O(h2 ). Esta regla da un resultado exacto para polinomios de grado
1 o menos.
x2
h5
Z
h a+b
f (x) dx = f (a) + 4f + f (b) − f (4) (ξ)
x0 3 2 90
b−a
siendo h= 2 . Su convergencia es O(h4 ). Esta regla proporciona resultados exactos al aplicarla a poli-
nomios de grado 3 o menos.
x3
3h5 (4)
Z
3h
f (x) dx = [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] − f (ξ)
x0 8 80
b−a
siendo h= 3 .
Fórmula abierta de Newton-Cotes: la fórmula abierta de n + 1 puntos de Newton-Cotes utiliza los nodos
equidistantes xi = x0 + ih, para i = 0..n, donde x0 = a + h, xn = b − h y h = b−a
n+2 . Se llama abierta porque
no se incluyen los extremos del intervalo como nodos.
x1
h3 00
Z
f (x) dx = 2hf (x0 ) + f (ξ)
x0 3
x0 + x1
= (x1 − x0 ) · f
2
En general, las fórmulas de Newton-Cotes no son adecuadas para utilizarse en intervalos de integración grandes.
Para estos casos se utilizan los siguientes métodos, que tienen la ventaja de que son estables respecto del error
de redondeo. Todos estos algoritmos son O(h4 ), pero tienen una desventaja: el tiempo de procesamiento. Esto
quiere decir que reducir el paso h mejora la precisión, pero llegará un punto en que la representación numérica
nos impedirá anar el paso. Además, cada vez que querramos anar el paso, deberemos calcular todo otra vez.
20
Regla compuesta del rectángulo:
"n−1 #
Z b X
f (x) dx ≈ h f (xj ) + f (b)
a i=1
b−a
siendo h= n y xj = a + jh.
Regla compuesta del trapecio: sea f ∈ C 2 [a, b]. Entonces la fórmula compuesta del trapecio para n
subintervalos puede escribirse como
b n−1
b − a 2 00
Z
h X
f (x) dx = f (a) + 2 f (xj ) + f (b) − h f (µ)
a 2 j=1
12
b−a
siendo h= n y xj = a + jh para cada j = 0..n.
Regla compuesta de Simpson: sea f ∈ C 4 [a, b] y n par. Entonces la fórmula compuesta de Simpson
para n subintervalos puede escribirse como
n n
b 2 −1 2
b − a 4 (4)
Z
h X X
f (x) dx = f (a) + 2 f (x2j ) + 4 f (x2j−1 ) + f (b) − h f (µ)
a 3 j=1 j=1
180
b−a
siendo h= n y xj = a + jh para cada j = 0..n.
Regla compuesta del punto medio: sea f ∈ C 2 [a, b] y n par. Entonces la fórmula compuesta del punto
medio para n+2 subintervalos puede escribirse como
n
b 2
b − a 2 00
Z X
f (x) dx = 2h f (x2j ) + h f (µ)
a j=0
6
b−a
siendo h= n+2 y xj = a + (j + 1)h para cada j = −1..(n + 1).
El método de integración de Romberg utiliza la regla compuesta del trapecio para obtener aproximaciones
preliminares y luego se aplica el proceso de extrapolación de Richardson para mejorar las aproximaciones. Si se
verica que f ∈ C 2(k+1) [a, b], la fórmula está dada por
Rk,j−1 − Rk−1,j−1
Rk,j = Rk,j−1 +
4j−1 − 1
donde k = 2, 3, . . . , n y j = 2, . . . , k . Su convergencia es O(h2j
k ). Los resultados generados con éstas fórmulas se
incluyen en la siguiente tabla.
R1,1
R2,1 R2,2
. . ..
. . .
. .
Rn,1 Rn,2 ··· Rn,n
El mejor valor es Rn,n . Otra ventaja de este método es que permite agregar una nueva la a la tabla con sólo
hacer una aplicación más de la regla compuesta del trapecio (y luego promediar los demás valores).
En todas las fórmulas de Newton-Cotes se emplean valores de la función en puntos equidistantes. Esta práctica
es útil cuando utilizamos dichos métodos en reglas compuestas, pero esta restricción puede afectar la exactitud
de la aproximación.
21
n xi ci
1 x0 = 0 c0 = 2
2 x0 = 0, 57735 c0 = 1
x1 = −0, 57735 c1 = 1
3 x0 = 0, 77459 c0 = 0, 55555
x1 = 0 c1 = 0, 88888
x2 = −0, 77459 c2 = 0, 55555
. . .
. . .
. . .
b 1
(b − a)t + (b + a) b−a
Z Z
f (x) dx = f dt
a −1 2 2
Este método arroja resultados exactos cuando g ≤ 2n − 1, donde g es el grado del polinomio a integrar, y n es
la cantidad de puntos de Gauss. Además, el error cometido es proporcional a la derivada de orden 2n.
Ventajas Desventajas
- pocas evaluaciones del polinomio
- fácil de programar
- sólo desconocemos el error de redondeo
d b
(b − a)(d − c)
Z Z
f (x, y) dxdy ≈ [f (a, c) + f (a, d) + f (b, c) + f (b, d)]
c a 4
Método de Simpson
Z d Z b (b − a)(d − c)
f (x, y) dxdy ≈ {f (x0 , y0 ) + f (x0 , y2 ) + f (x2 , y0 ) + f (x2 , y2 )
c a 36
+4 [f (x0 , y1 ) + f (x1 , y0 ) + f (x1 , y2 ) + f (x2 , y1 ) + 4f (x1 , y1 )]}
a+b c+d
donde x0 = a, x1 = 2 , x2 = b, y0 = c, y1 = 2 , y2 = d.
Método de cuadratura de Gauss
d b n m
(b − a)(d − c) X X
Z Z
f (x, y) dxdy ≈ ci cj f (xi , yj )
c a 4 i=1 j=1
b−a b+a d−c d+c
con xi =2 ti + 2 , yj = 2 tj + 2 , siendo ti , tj las raíces de los polinomios de Legendre y ci , cj los
coecientes de peso.
(
dy
dt = f (t, y) para a≤t≤b
y(a) = α
Condición de Lipschitz: una función f (t, y) satisface la condición de Lipschitz en la variable y en un conjunto
D ⊂ R2 si existe una constante L>0 tal que
|f (t, y1 ) − f (t, y2 )|
≤L para todo (t, y1 ), (t, y2 ) ∈ D
|y1 − y2 |
22
Teorema
: si f (t, y) está denida en un conjunto convexo D ⊂ R2 y existe una constante L > 0 tal que
∂f (t,y)
∂y ≤ L para toda (t, y) ∈ D, entonces f satisface la condición de Lipschitz.
Teorema (de suciencia ): supongamos que D = {(t, y)|a ≤ t ≤ b; −∞ < y < ∞} y que f (t, y) es continua en D.
Si f satisface la condición de Lipschitz, entonces el problema de valor inicial y 0 (t) = f (t, y), a ≤ t ≤ b, y(a) = α
tiene solución única.
dy
Problema bien planteado: el problema de valor inicial dt = f (t, y), a ≤ t ≤ b, y(a) = α es bien planteado si:
Los siguientes métodos no nos proporcionan la función y(t), sino que nos da aproximaciones a y(ti ) para puntos
a ≤ ti ≤ b igualmente espaciados. Si queremos valores intermedios deberemos interpolarlos, generalmente
utilizando el método de Hermite.
En los métodos de un paso la aproximación del punto de red ti+1 contiene información proveniente de uno
solo de los puntos anteriores de red ti .
El método de Euler es un caso particular del método de Taylor para n = 1. Este método no es lo sucientemente
exacto para utilizarlo en la vida real, pero resulta simple para analizarlo. Sin embargo, son métodos estables.
b−a
Método de Euler explícito: siendo el paso h= N , donde N es la cantidad de intervalos, la expresión
de este método es:
wi = y(ti )
wi+1 = wi + h · f (ti , wi ) parai = 0, 1, . . . , N − 1
b−a
Método de Euler implícito: siendo el paso h= N , donde N es la cantidad de intervalos, la expresión
de este método es:
wi = y(ti )
wi+1 = wi + h · f (ti+1 , wi+1 ) para i = 0, 1, . . . , N − 1
El error local es O(h). El método de Euler implícito suele dar mejores resultados que el explícito (aunque
esto no siempre es así). La desventaja del método implícito es que no siempre es posible implementarlo.
Método predictor-corrector de Euler: este método consiste en obtener una primera aproximación
con el método explícito, y con ésta obtener una nueva aproximación con el método implícito, que
corrige la anterior.
∗
wi+1 = wi + h · f (ti , wi )
∗
wi+1 = wi + h · f (ti , wi+1 )
w0 = α
wi = y(ti )
h2 0 hn (n−1)
wi+1 = wi + h · f (ti , wi ) + f (ti , wi ) + · · · + f (ti , wi ) para i = 0, . . . , n − 1
2 n!
Puede demostrarse que si f ∈ C n+1 [a, b], entonces el error de truncamiento es O(hn ). Este método rara vez se
emplea en la práctica, pues tiene la desventaja de requerir el cálculo y evaluación de las derivadas de f (t, y).
23
9.1.3 Métodos de Runge-Kutta
Teorema : seaf (t, y) ∈ C n+1 en D = {(t, y)|a ≤ t ≤ b, c ≤ y ≤ d} y sea (t0 , y0 ) ∈ D. Entonces, para toda
(t, y) ∈ D, existe ξ ∈ [t0 , t] y µ ∈ [y0 , y] con f (t, y) = Pn (t, y) + Rn (t, y) tal que Pn (t, y) es el n-ésimo polinomio
de Taylor en dos variables para la función f alrededor de (t0 , y0 ), y Rn (t, y) es el término residual asociado a
Pn (t, y).
Los métodos de Runge-Kutta se basan en aproximar el polinomio de Taylor para una variable mediante
polinomios de Taylor de dos variables. Existen varios métodos de Runge Kutta, que se clasican según su orden
de convergencia. Los más sencillos son los de orden 2:
w0 = α
h h
wi+1 = wi + h · f ti + , wi + · f (ti , wi ) para cada i = 0, 1, . . . , N − 1
2 2
w0 = α
h
wi+1 = wi + [f (ti , wi ) + f (ti+1 , wi + h · f (ti , wi ))] para cada i = 0, 1, . . . , N − 1
2
w0 = α
h
wi+1 = wi + [f (ti , wi ) + f (ti+1 , wi+1 )] para i = 0, 1, . . . , N − 1
2
Método de Heun:
w0 = α
h 2 2
wi+1 = wi + f (ti , wi ) + 3f ti + h, wi + h · f (ti , wi ) para i = 0, 1, . . . , N − 1
4 3 3
Para obtener métodos con mayor orden de convergencia se aplica el teorema antes mencionado, y con él se
obtiene el método de Runge-Kutta de orden 4, que es muy preciso siempre y cuando la función y(t) tenga
al menos cinco derivadas continuas:
w0 = α
k1 = h · f (ti , wi )
h 1
k2 = h · f ti + , wi + · k1
2 2
h 1
k3 = h · f ti + , wi + · k2
2 2
k4 = h · f (ti+1 , wi + k3 )
1
wi+1 = wi + (k1 + 2k2 + 2k3 + k4 ) para cada i = 0, 1, . . . , N − 1
6
Los métodos multipasos son aquellos que emplean la aproximación en más de uno de los puntos de red
precedentes para determinar la aproximación en el siguiente punto. Se pueden deducir de las series de Taylor o
del polinomio interpolante de Lagrange.
Para obtener wi , wi−1 , wi−2 , . . . debemos utilizar un método de paso simple del mismo orden que el método de
paso múltiple.
24
9.2.1 Métodos explícitos de Adams-Bashforth
Dado un orden de convergencia p, los métodos explícitos de Adams-Bashforth usan los puntos wi , wi−1 ,
. . ., wi+1−p para obtener el wi+1 . El paso no puede ser arbitrario.
w0 = α
w1 = α1
h
wi+1 = wi + [3f (ti , wi ) − f (ti−1 , wi−1 )] para i = 1, 2, . . . , N − 1
2
w0 = α
w1 = α1
w2 = α2
w3 = α3
h
wi+1 = wi + [55f (ti , wi ) − 59f (ti−1 , wi−1 ) + 37f (ti−2 , wi−2 ) − 9f (ti−3 , wi−3 )] para i = 3, 4, . . . , N − 1
24
Dado un orden de convergencia p, los métodos implícitos de Adams-Moulton usan los puntos wi+1 , wi ,
wi−1 , . . ., wi+2−p para obtener el wi+1 . El tamaño del paso puede ser arbitrario.
w0 = α
w1 = α1
h
wi+1 = wi + [f (ti+1 , wi+1 ) − f (ti , wi )] para i = 1, 2, . . . , N − 1
2
w0 = α
w1 = α1
w2 = α2
h
wi+1 = wi + [9f (ti+1 , wi+1 ) + 19f (ti , wi ) − 5f (ti−1 , wi−1 ) + f (ti−2 , wi−2 )] para i = 2, 3, . . . , N − 1
24
Como no siempre es posible transformar la expresión de Adams-Moulton a una de forma explícita, existen los
métodos predictores-correctores de Adams, que combinan un método de Adams-Bashforth y un método
de Adams-Moulton, ambos del mismo orden de convergencia.
Adams-Bashforth Adams-Moulton
- más sencillos de programar - más estables
- menos errores de redondeo
- más precisos
25
9.3.1 Método del disparo lineal
Corolario : sea el problema y 00 = p(x)y 0 + q(x)y + r(x) con a ≤ x ≤ b y las condiciones iniciales y(a) = α,
y(b) = β . Si se satisface que
El método del disparo lineal tiene problemas de estabilidad. Se basa en la sustitución del problema de valor en
la frontera por 2 problemas de valor inicial:
Si llamamos y1 (x) a la solución de (I) e y2 (x) a la solución de (II), la solución nal es:
β−y1 (b)
y(x) = y1 (x) + y2 (b) · y2 (x)
1 h2
y 00 (xi ) = 2
[y(xi+1 ) − 2y(xi ) + y(xi−1 )] − y (4) (ξi )
h 12
El método de diferencias nitas con error de truncamiento de orden O(h²) consiste en resolver el siguiente
sistema de ecuaciones:
2 + h2 q(x1 ) h
−1 + 2 p(x1 ) 0 ··· 0
−h2 r(x1 ) + 1 + h
. 2 p(x1 ) w0
.
−1 − h p(x2 ) 2 + h2 q(x2 ) −h2 r(x2 )
2 .
w1
.
. .
. . = .
0 . 0 . .
. . .
wN −h2 r(xN −1 )
. . .
. . . h
−1 + 2 p(xN −1 ) −h2 r(xN ) + 1 + h
2 p(xN ) wN +1
0 ··· 0 −1 − h
2 p(xN ) 2 + h2 q(xN )
El método de los elementos nitos es un método para aproximar soluciones de ecuaciones diferenciales muy
utilizado en análisis estructural.
26