Está en la página 1de 26

[75.

12] Análisis Numérico I

María Inés Parnisari

26 de abril de 2017

Índice

1. Errores 2

2. Sistemas de ecuaciones lineales 4

3. Ecuaciones de una variable 10

4. Sistemas de ecuaciones no lineales 13

5. Interpolación 14

6. Ajuste de funciones y mejor aproximación 18

7. Diferenciación numérica 18

8. Integración numérica 19

9. Ecuaciones diferenciales ordinarias 22

1
Algunas deniciones preliminares:

Análisis numérico: diseño de algoritmos para resolver problemas de matemática continua.


Error: incertidumbre tanto de los datos de ingreso como de los resultados obtenidos en un
procedimiento. Está asociado a la aproximación.

Exactitud: error absoluto o relativo de un valor. No está limitada por la precisión.


Precisión: exactitud con que se llevan a cabo operaciones aritméticas. No siempre mejora una
aproximación.

Orden de convergencia de un algoritmo: la velocidad con la cual una sucesión converge


a su límite. Este concepto es, desde el punto de vista práctico, muy importante si necesitamos
trabajar con secuencias de sucesivas aproximaciones de un método iterativo.

Supongamos que la secuencia {xk } converge al número ξ. Decimos que la sucesión converge con
orden q a ξ si

|xk+1 − xi | Figura 1:
lı́m =λ con λ>0
k→∞ |xk − xi |q Precisión y
exactitud.
El número q es llamado orden de convergencia. En particular, convergencia de orden 1 es lla-
mada convergencia lineal, la de orden 2 convergencia cuadrática y la convergencia de orden 3
convergencia cúbica.

1 Errores

1.1 Fuentes de error

1.1.1 Error inherente

Error inherente: error de los datos de entrada que puede provenir de la precisión en la medición de los datos,
la representación numérica, etc. Dado un valor exacto m y una aproximación m̃, denimos:

Error absoluto: |ea | = |m − m̃|


|ea | |m−m̃|
Error relativo: |er | = |m̃| = |m̃| (mejor aproximación que el error absoluto)

Número de condición / factor de amplicación: sea la función y = f (x). El error relativo de y es


∂f (x) x
e ry u · · erx . Al coeciente que multiplica el error relativo de x lo llamamos número de condición.
∂x f (x)
| {z }
CP
∂f (x) xi
Si la función es dos o más variables, tendremos CPi = ∂xi · f (x̄) . Es decir:

X ∂f (x) |xi |
CP = ∂xi · |f (x)|

i

Ejemplo: sea el algoritmo z = a2 + b2 . Su número de condición está dado por

2a2 2b2
       
∂z a ∂z b a b
CP = + = 2a · 2 2
+ 2b · 2 2
= 2 2
+ 2 =2
∂a z ∂b z a +b a +b a +b a + b2

1.1.2 Error de redondeo

Error de redondeo / corte: error debido a la representación numérica utilizada.


El error de redondeo surge por la notación de punto otante:

t cantidad de
 dígitos

N∼
= d, d1 d2 ...dt × β p con β base

p exponente

Corte: forma de redondear que consiste en borrar dígitos.

2
Redondeo: forma de redondear que consiste en modicar el último dígito según el siguiente criterio:
(
dk si 0 ≤ dk+1 ≤ 4
dk =
dk + 1 si 5 ≤ dk+1 ≤ 9
La cota para el error de redondeo es:

Para números de la forma Para números de la forma


d, d1 d2 ...dk 0, d1 d2 ...dk
Corte 10−t 101−t
1 −t 1 1−t
Redondeo
2 · 10 2 · 10

Término de estabilidad: nos da una idea de la inuencia del error de redondeo.


Pk
El error relativo por el error de redondeo es er = i=1 |T (x)| µi = Te µ

1.1.3 Otras fuentes de error

Error de truncamiento / discretización: error que aparece al transformar un procedimiento innito en uno
nito.

Error del modelo matemático: se debe a las simplicaciones e hipótesis introducidas para denir el modelo
matemático que representa el modelo físico.

Error humano: error producido por la intervención humana y/o por programas de computación mal hechos.

1.1.4 Error total

erT = CP · r + Te · µ

1.2 Algoritmos

Factores de amplicación de errores de entrada: y = x1 (op)x2 =⇒ ry = f1 x1 + f2 x2

op + − × ÷
x1 x1
f1 y y 1 1
x2
f2 y − xy2 1 -1

Algoritmo bien condicionado: un problema matemático está bien condicionado cuando al introducir peque-
ñas variaciones en los datos de entrada se producen pequeñas variaciones en los resultados.

CP  1 =⇒problema mal condicionado CP 6 1 problema bien condicionado

Si f representa al algoritmo real y f∗ al algoritmo computacional, y x a la variable real y x∗ a la variable


computacional entonces el error en los resultados se dene como:

|f (x) − f ∗ (x∗)| ≤ |f (x) − f (x∗)| + |f (x∗) − f ∗ (x)| + |f ∗ (x) − f ∗ (x∗)|


Algoritmo estable: tiene la propiedad de que la propagación de los errores de redondeo es lineal o cuasi-lineal.

En ≈ c · n · E0
Te  1 =⇒algoritmo inestable Te 6 1 =⇒algoritmo estable

Para obtener algoritmos estables se recomienda:

1. Evitar la resta de números con errores

2. Minimizar el tamaño de los números intermedios relativos al resultado nal

3. valornuevo = valorviejo + corrección


4. Usar transformaciones bien condicionadas

Resumiendo:

Te Te
1+ CP  1 =⇒mal algoritmo 1+ CP 6 1 =⇒buen algoritmo

3
1.3 Gráca de proceso y perturbaciones experimentales

Una forma de obtener los coecientes Te y CP es la gráca de proceso: un


diagrama de ujo que representa la propagación de los errores relativos y de
redondeo.

La gráca de proceso no siempre es útil y práctica. También podemos estimar


el CP y el Te mediante perturbaciones experimentales:

er
Si suponemos Te ≈ 0 =⇒CP = r
yµ −yξ
Si suponemos r ≈ 0 =⇒ Te = yξ (µ−ξ)

1.3.1 Estimación del Cp


Consiste en suponer que no existen errores de redondeo y perturbar los valores de entrada. La idea es: se toman
los datos de entrada y se aplica el algoritmo a analizar, obteniendo el resultado exacto x. Luego se perturban
los datos de entrada introduciéndoles un error ±k y se vuelven a calcular los resultados, obteniéndose x̂1 y x̂2 .
Entonces se calculan los Cp :

Cp1 = x−x̂1
· 1

x +k

Cp2 = x−x̂2
· 1

x −k

Y nalmente tenemos que CP = máx{Cp1 , Cp2 }. Como hemos supuesto que los errores de redondeo son despre-
ciables, los Cp deberían ser similares, con lo cual tendremos una estimación de la condición del problema.

1.3.2 Estimación del Te


Consiste en suponer que no existen errores inherentes.
x3 x5 x7 x9
Ejemplo: aproximamos la función f (x) = sin(x) con su serie de MacLaurin g(x) = x − 6 + 120 − 5040 + 362880 .
Calculemos el valor de f ( π4 ) con tres precisiones utilizando g(x):

u = 15 → µu = 10−14 → ȳu = 0, 70710678293687


t = 8 → µt = 10−7 → ȳt = 0, 7071068
s = 4 → µs = 10−3 → ȳs = 0, 706

Tomando como valor exacto a ȳu tenemos que:

ȳu −ȳs
Tes = ȳu (µs −µu ) = 1, 565
ȳu −ȳt
Tet = ȳu (µt −µu ) = 0, 241

En este caso concluimos que calcular f (y ) con más precisión mejora el resultado nal, pero esto no siempre es
cierto.

2 Sistemas de ecuaciones lineales

Sea el sistema de ecuaciones dado por

     
a x + ... + a1n xn = b1 a11 ··· a1n x1 b1
 11 1


. . .. . . .
. =⇒ Ax = B =⇒  . . . = .
    
. . . .  . . 

an1 ··· ann xn bn

a x + ... + a x = b
n1 1 nn n n

Si A es una matriz cuadrada tal que det(A) 6= 0, podemos resolver el sistema mediante x = A−1 B . Sin embargo,
−1
los coecientes de la matriz A puede provenir de mediciones imprecisas, lo que haría que calcular A resulte
en más errores. Por este motivo surgen alternativas a esta forma de resolución del sistema.

4
Norma innito de una matriz A: es la máxima suma absoluta de las las de una matriz.
n
X
kAk∞ = max |aij |
1≤i≤m
j=1

Número de condición de una matriz A: se dene como κ(A) = kAk∞ A−1 ∞ . Puede estimarse mediante
kx−x̃k∞ t
kx̃k∞ · 10 ≤ κ(A). El error relativo de x̂ al resolver Ax = B depende de κ(A).
Matriz bien condicionada: si κ(A) es chico entonces la matriz A es bien condicionada, y no hay alta propa-
gación de errores de redondeo al resolver Ax = B . Caso contrario, A es mal condicionada. Generalmente, las
matrices mal condicionadas mezclan coecientes chicos con coecientes grandes, o satisfacen det(A) ≈ 0. Si A
es tal que 6 ∃A−1 entonces κ(A) = ∞.

2.1 Sustitución directa e inversa


Dada una matriz A que es triangular superior o triangular inferior, existen dos métodos para resolver el sistema
Ax = B .
Si A es triangular inferior, la sustitución directa consiste en:
Pi−1
bi − j=1 lij xj
xi =
lii
Si A es triangular superior, la sustitución inversa consiste en:
Pn
bi − j=i+1 uij xj
xi =
uii

2.2 Métodos directos

Ax = B y la matriz A tiene en su mayoría coecientes no nulos (matriz


Cuando queremos resolver el sistema
densa) podemos aplicar un método directo para resolverlo. Estos métodos consisten en transformar la matriz
original A en una matriz triangular y luego aplicar sustitución directa o inversa.

Ventajas Desventajas
- sólo hay errores de redondeo - no resuelven bien matrices mal condicionadas
- el número de operaciones es nito - se vuelven inestables con matrices grandes

2.2.1 Método de eliminación de Gauss


Consiste en transformar la matriz A de Ax = B en una matriz triangular superior mediante operaciones entre
las y luego aplicar sustitución inversa.

Eliminación con pivoteo parcial: es necesario intercambiar de lugar las. Es del orden O(cn3 ).
Eliminación con pivoteo total: es necesario intercambiar de lugar las y columnas.
Pn
Convergencia: cuando A es diagonal dominante, es decir |aii | > j=1,j6=i |aij |

Ventajas Desventajas
- fácil de programar - si cambia el vector B es necesario retriangular A.
- O(n3 )

2.2.2 Factorización LU; métodos de Doolittle y Crout


La factorización LU consiste en transformar la matriz A en A = |{z}
L |{z}
U . Entonces el sistema Ax = B se

4 5
convierte en:
   h1i h1i

1 0 ··· 0 a ··· a1n
 11
   
.. .  .
 x1 b1 (
.  .

 m2,1 1 . . 0 .

  ..   ..  Ux = y (I)

 .

.
 .  =  .  →7
..  .. Ly = B (II)
 .. . 0   ..

.

 xn bn
mn,1 ··· mn,n−1 1 hni
0 ··· 0 ann

5
hii
aji
donde mi,j = hii son los coecientes de la triangulación de Gauss. El sistema (I) se resuelve aplicando sustitución
aii
inversa y para (II) sustitución directa.

Teorema : si se puede efectuar la eliminación de Gauss en el sistema lineal Ax = B sin intercambios de las,
entonces A se puede factorizar en el producto LU . Dos ejemplos de estos tipos de matrices son: estrictamente
diagonal dominantes, denidas positivas.

Ventajas Desventajas
- si cambia el vector B no hay que refactorizar A - determinar L y U requiere O(n3 ) pasos
2
- resolver Ax = B requiere O(n ) pasos
- no sirve para todas las A

Método de Doolittle: consiste en factorizar A asumiendo que lii = 1.


  
1 0 ··· 0 u11 ··· u1n
.. . .. .
. .
  
 l21 1 . .  0 . . 
A = LU = 
 .

 .

.. .. ..
 .. 0   ..

. . . 
ln1 ··· ln,n−1 1 0 ··· 0 unn
La fórmula general es:

h Pi−1 i
1
lji = uii aji − k=1 ljk uki
Pi−1
uii = aii − k=1 lik uki
Pi−1
uij = aij − k=1 lik ukj

Método de Crout: consiste en factorizar A asumiendo que uii = 1.

2.2.3 Método de Cholesky

Si A es una matriz simétrica y denida positiva, entonces planteamos que A = |{z} ST .


S |{z} La fórmula es:

4 5

q Pi−1
sii = aii − k=1 s2ik
h Pi−1 i
sji = s1ii aji − k=1 sjk sik para i 6= j

Ventajas Desventajas
- menor cantidad de cálculos que Crout y Doolittle - O(n3 )

2.3 Métodos iterativos estacionarios

Supongamos el sistema Ax = B . Tenemos que:

B − Ax = 0
B − Ax + P x = P x
B + (−A + P )x = Px
x = (I − P −1 A)x + P −1 B
xhi+1i = (I − P −1 A)xhii + P −1
| {z B}
| {z }
T C

Los métodos iterativos:

Son muy útiles para resolver sistemas con matrices ralas (con muchos coecientes nulos). También son
útiles para resolver sistemas con matrices mal condicionadas (pero si κ(A)  10t , siendo t la precisión
utilizada para realizar los cálculos, entonces debe aumentarse t para obtener una solución aceptable). Y
por último, son útiles cuando A es grande.

6
Para que el método converja a la única solución con cualquier xh0i , T debe ser tal que ρ(T ) < 1, o lo que
es lo mismo kT k < 1 para cualquier norma natural. Idealmente, debería ser kT k  1.
Nunca dan una solución exacta, incluso si usamos una precisión innita.

Renamiento iterativo: es una técnica que, dada una solución obtenida por el método de Gauss, factorización
LU o Cholesky, mejora el resultado.

Ax = B =⇒ Ax̃0 = B̃ =⇒ B−Ax̃0 = r0 =⇒ Ax−Ax̃0 = r0 =⇒ A(x − x̃0 ) = r0 =⇒ Ad0 = r0 =⇒ d˜0 +x̃0 = x̃1 =⇒ . . .


| {z }
d0

Cuando la matriz A es muy mal condicionada, la primera solución obtenida mediante un método directo puede
no estar muy cerca de la solución correcta. Entonces podemos usar el renamiento iterativo:

n→∞
X
x = xh1i + dhii
i=1

Un criterio de corte aceptado para parar las iteraciones es:


hn+1i
x − xhni

xhn+1i ≤ T OL

|xhn+1i −xhni | kRk


Y además, puesto que ≤ κ(A) kBk , si A es mal condicionada la tolerancia debe ser más chica.
|xhn+1i |
Los siguientes métodos se llaman métodos iterativos estacionarios porque las matrices T y C no se modi-
can.

2.3.1 Método de Jacobi

Dado el sistema inicial Ax = B , el método de Jacobi consiste en despejar de cada ecuación las incógnitas:
 
b1 −a12 x2 −...−a1n xn Pn hii
a x + ... + a1n xn = b1 x = bi − aik xk
 11 1  1 a11
 
k6=i
 
. . hi+1i k=1
. =⇒ . =⇒ xi =
. .
  aii

a x + ... + a x = b 
x = bn −an1 x1 −...−an n−1 xn−1
n1 1 nn n n n ann

En forma matricial esto es


a
0 − aa12 ··· − a1,n
 
11 11  b1 
.. . a11
.
 
. . .
xhi+1i = T xhii + C = 
  hii 
x +  .

. .. . 
.
 
 . .  bn
a
n,1 an,n−1 an,n
− an,n ··· − an,n 0

siendo:

P =D
T = −D−1 (L + U )
C = D−1 B
Pn
Convergencia: cuando A es estrictamente diagonal dominante, es decir |aii | > j=1,j6=i |aij |

2.3.2 Método de Gauss-Seidel

El método de Gauss-Seidel es similar al método de Jacobi pero más rápido, con la diferencia de que en el
cálculo de xi (i > 0) se aprovecha lo calculado en el paso anterior:

Pi−1 hi+1i Pn hii


hi+1i bi − k=1 aik xk − k=1 aik xk
xi =
aii
En forma matricial esto es xhi+1i = T xhii + C siendo:

7
P =D+L
T = I − (D + L)−1 A
C = (D + L)−1 B
Pn
Convergencia: cuando A es estrictamente diagonal dominante, es decir |aii | > j=1,j6=i |aij |, o bien cuando A
es simétrica y denida positiva.

2.3.3 Métodos de las sobrerelajaciones (SOR)

El método de las sobrerelajaciones es una variante del método de Gauss-Seidel, pero que converge más
rápido.

Pi−1 hi+1i Pn hii


!
bi − k=1 aik xk − k=1 aik xk
xhi+1i = (1 − ω)xhii + ω
aii
| {z }
xGAU SS−SEIDEL

En forma matricial esto es xhi+1i = (1 − ω)xhii + ωD−1 (B − Lxhi+1i − U xhii ) siendo:

1
P = ωD +L

0<ω<2 (notar que si ω=1 estamos en el método de Gauss-Seidel)

Convergencia: cuando A es simétrica (A = AT ) y denida positiva (x


T
Ax > 0 ∀x 6= 0).

Ventajas Desventajas
- obtener ω no es fácil

Teorema : si A es una matriz tribanda, es decir:


 
a11 a12 0
 .. .. 
 a21 . . 
A= 
 .. .. 
 . . an−1,n 
0 an,n−1 ann
entonces:
2
ωoptimo = p
1+ 1 − ρ(Tj )2
donde ρ(Tj ) es el mayor autovalor de la matriz T obtenida mediante el método de Jacobi.

2.4 Métodos iterativos no estacionarios

En estos métodos se aplica xhi+1i = T xhii + C , y las matrices T y C varían en cada iteración.

2.4.1 Método de los residuos mínimos

El método de los residuos mínimos consiste en buscar que Rhi+1i sea mínimo en cada iteración. Su fórmula
es:

xhi+1i = xhii + αi Rhii

Siendo:

Rhi+1i = Rhii − αi ARhii


T
[ARhii ] Rhii
αi =
[ARhii ]ARhii

8
Rh0i = B − Axh0i

Las iteraciones nalizan cuando Rhi+1i < T OL.


Convergencia: cuando A es simétrica y denida positiva.

Ventajas Desventajas
- fácil de programar - convergencia similar a Jacobi

2.4.2 Método del descenso más rápido

El método del descenso más rápido determina un mínimo local para una función de varias variables de la
forma g : <n → <. Intuitivamente puede describirse así:

1. Evalúe g en una aproximación inicial xh0i .

2. Determine una dirección desde xh0i que origine una disminución en el valor de g.
3. Desplace una cantidad apropiada hacia esta dirección y llame al nuevo vector xh1i .
4. Repita los pasos 1 a 3 reemplazando xh0i con xh1i .

La fórmula general es:

xhi+1i = xhii + αi Rhii

siendo:

Rh0i = B − Axh0i
T
Rhii Rhii
αi = RhiiT ARhii

Rhi+1i = Rhii − αi ARhii

Convergencia: cuando A es simétrica y denida positiva.

Ventajas Desventajas
- converge independientemente del xh0i - convergencia lineal
- fácil de programar - puede converger en algo que no es el mínimo de g
- mejor velocidad que MRM - no usa bien las direcciones más empinadas
- menos cantidad de operaciones

2.4.3 Método de los gradientes conjugados

El método del gradiente conjugado es muy útil como método iterativo de aproximación para resolver
sistemas de gran tamaño con entradas no nulas. Supondremos que A es simétrica y denida positiva.

El cálculo multivariable nos dice que la dirección de máximo descenso en el valor de g(x) es la dirección dada
por −∇g(x); es decir, en la dirección del residual r = b − Ax.

xhi+1i = xhii + αi dhii

con:

dh0i = Rh0i = b − Axh0i


T
Rhii Rhii
αi = dhiiT Adhii

Rhi+1i = Rhii − αi Adhii


T
Rhi+1i Rhi+1i
β hi+1i = RhiiT Rhii

dhi+1i = Rhi+1i + β hi+1i · dhii

9
Convergencia: cuando A es simétrica y denida positiva.

Ventajas Desventajas
- convergencia muy rápida para matrices grandes - suele ser inestable
- Si A ∈ Rn×n , n iteraciones alcanzan
n×n
- Si A∈R tiene k autovalores repetidos, n−k iteraciones alcanzan

Si la matriz A es mal condicionada, este método es altamente susceptible a los errores de redondeo. Es por
esto que existe el método de gradientes conjugados precondicionado. Un ejemplo de su uso es, en vez
de resolver Ax = B , podemos resolver AT Ax = AT B . Notar que en este caso à = AT A es simétrica y denida
positiva.

3 Ecuaciones de una variable

Sea el problema f (x) = 0. Resolver esta ecuación equivale a encontrar las raíces de la función f. Sin embargo,
no siempre es posible despejar x e igualar a 0. Una forma de obtener la solución sería gracando la función y
viendo donde ésta corta al eje X . Pero esto es poco práctico en casos complejos.
Si tenemos como datos af (x), una tolerancia máxima y un intervalo inicial [a, b], podemos utilizar los métodos
de arranque (bisección y Regula Falsi) para achicar este intervalo, y luego utilizar otros métodos para aproximar
la solución.

Teorema del valor intermedio : sea f una función continua en un intervalo [a, b] y supongamos que f (a) < f (b).
Entonces para cada u tal que f (a) < u < f (b), existe al menos un c dentro de (a, b) tal que f (c) = u.

3.1 Método de la bisección

Método de la bisección: se basa en el teorema del valor intermedio y en la


búsqueda binaria. Si f [a, b] con f (a) y
es una función continua denida en
f (b) con signos diferentes, entonces existep ∈ [a, b] tal que f (p) = 0. El método
requiere dividir varias veces a la mitad el intervalo [a, b] y, en cada paso, localizar
a la mitad que contenga a p. Conviene elegir el intervalo inicial lo más pequeño
posible.
Ejemplo: supongamos el intervalo inicial [a1 , b1 ]. Luego p1 = a1 +b
2 . Si f (p1 ) = 0
1

hemos llegado a la solución. Si f (a1 ) yf (p1 ) tienen el mismo signo, el nuevo


intervalo será [p1 , b1 ]. Si f (a1 ) y f (p1 ) tienen distinto signo, el nuevo intervalo
es [a1 , p1 ].
Teorema : sea f ∈ C[a, b] y f (a) · f (b) < 0. El método de la bisección genera una
sucesión p1 , ..., pn que aproxima a un cero de f tal que:
Figura 2: Bisección aplicada

b−a ln(b − a) − ln(T OL) en el rango [a1 , b1 ].


|pn − p| ≤ =⇒ n ≥
2n ln(2)
En este caso, tenemos que la condición de corte es:

|b0 − a0 |
T OL ≤
2n+1
Es importante destacar que para elegir el intervalo donde se encuentra la raíz debe vericarse que f (a)·f (b) < 0.
Sin embargo, si esto no se cumple no implica que la raíz no exista (pues puede ser una raíz doble).

Ventajas Desventajas
- fácil de entender - convergencia lenta
- converge siempre - podemos rechazar una buena aproximación intermedia

3.2 Método del de punto jo o de las aproximaciones sucesivas

10
Un punto jo de una función g es un número p que satisface g(p) = p.
Teorema de suciencia para la existencia y unicidad del punto jo :

1. Si g ∈ C[a, b] y g(x) ∈ [a, b] para toda x ∈ [a, b] entonces g tiene un punto


jo en [a, b].
2. Si g 0 (x) existe en (a, b) y existe una constante 0 < k < 1 con |g 0 (x)| ≤ k
para toda x ∈ (a, b) entonces el punto jo en [a, b] es único.

Método de iteración de punto jo: supongamos que deseamos resolver Figura 3: Método del punto -
f (x) = 0. Para hallar el x tal que g(x) = x escogemos una aproximación inicial jo.
x0 y generamos la sucesión x1 , ..., xn haciendo

xi+1 = g (xi ) para i≥0

Si la secuencia converge en xyg es continua, entonces obtenemos una solución con x = g(x). El error está dado
por:

|xn − x| ≤ k n |b − a|

Ventajas Desventajas
- si k≈0 converge rápidamente - convergencia lineal
- si k≈1 converge lentamente

3.3 Método de Newton-Raphson

El método de Newton-Raphson es una de las técnicas más poderosas que exis-


ten para resolver un problema del tipo f (x) = 0. Este método comienza con una
aproximación inicial x0 y genera la sucesión x1 , ..., xn denida por:

f (xhii )
xhi+1i = xhii −
f 0 (xhii )
El método obtiene las aproximaciones utilizando tangentes sucesivas. Comenzando
con x0 , la aproximación x1 es la intersección entre la línea tangente a la gráca de
f en (x0 , f (x0 )) y el eje X . La aproximación x2 es la intersección entre la tangente
Figura 4: Una iteración
a la gráca de f en (x1 , f (x1 )) y el eje X , y así sucesivamente.
del método de Newton-
Es importante notar que no es posible continuar con este método si f 0 (xn−1 ) = 0
Raphson. 00
para alguna n. Además, f (x) debe estar acotada.

La deducción de este método proviene del desarrollo por Taylor:

f (x) = f (x̄) + (x − x̄)f 0 (x̄) + · · · = 0


(x − x̄)f 0 (x̄) = −f (x̄)
f (x̄)
x = x̄ − 0
f (x̄)

Teorema de convergencia : sea f ∈ C 2 [a, b]. Si x ∈ [a, b] es tal que f (x) = 0 y f 0 (x) 6= 0, entonces existe δ > 0 tal
que el método de Newton genera una sucesión x1 , ..., xn que converge a p para cualquier aproximación inicial
x0 ∈ [x − δ, x + δ].

Ventajas Desventajas
- muy poderoso - necesitamos conocer la derivada de f
- convergencia cuadrática para raíces simples - necesita una buena aproximación inicial
- convergencia lineal para raíces dobles

3.4 Método de la secante

11
Si queremos evitarnos el problema de evaluar la derivada en el método de New-
f (xi )−f (xi−1 )
ton, podemos aproximarla mediante la denición: f 0 (xi ) ≈ xi −xi−1 . Entonces
tenemos:

f (xi )(xi − xi−1 )


xi+1 = xi −
f (xi ) − f (xi−1 )
La técnica que se utiliza en esta fórmula se llama método de la secante. Co-
menzando con las dos aproximaciones iniciales x0 y x1 , la aproximación x2 es la Figura 5: Método de la se-
intersección entre la línea que une (x0 , f (x0 )) y (x1 , f (x1 )) con el eje X . cante.

Ventajas Desventajas
- es más rápido que el método - es más lento que el método de
del punto jo Newton
- fácil de usar
- no necesitamos conocer f0

3.5 Método de la posición falsa / Regla falsa

Figura 6: Método de la regula Falsi.


El método de la posición falsa combina el método de bisección y el método de la secante, pero ofrece una
prueba para asegurarnos que la raíz queda entre dos iteraciones sucesivas.

Primero elegimos p0 y p1 tales que f (p0 ) · f (p1 ) < 0. p2 será la intersección en X de la recta secante. Luego
calculamos f (p1 ) · f (p2 ), si es mayor a 0 la raíz está entre p0 y p1 , sino está entre p1 y p2 . Su fórmula general es:

f (an )(bn − an ) f (bn )(bn − an )


pn = an − ó p n = bn −
f (bn ) − f (an ) f (bn ) − f (an )

Ventajas Desventajas
- converge siempre - requiere más cálculos que el método de la secante
- más rápido que el método de la bisección - converge lentamente
- puede fallar si el denominador se anula

3.6 Método 42 de Aitken

Diferencias progresivas: dada la sucesión p0 , ..., pn la diferencia progresiva 4pn está dada por 4pn = pn+1 −pn
con n ≥ 0.
Supongamos que p0 , ..., pn es una sucesión linealmente convergente con un límite p. El método 42 de Aitken
se basa en la suposición de que la sucesión p̂0 , ..., p̂n denida por

(pn+1 − pn )2 (4pn )2
p̂n = pn − = pn −
pn+2 − 2pn+1 + pn 42 pn

converge más rápidamente a p que la sucesión original.

Ventajas Desventajas
- convergencia acelerada - poco práctico para programar
- no evaluamos la derivada

12
3.7 Método de Steensen

Existe una mejora para el método de Aitken, que se basa en aplicar este método para una sucesión dada por
aproximaciones sucesivas, y se conoce como método de Steensen.
La sucesión que genera está dada por:

h0i h1i h2i


p0 p0 p0 · · ·
h0i h1i h2i
p1 p1 p1 · · ·
h0i
p2

Ventajas Desventajas
- Convergencia cuadrática

Algoritmo 1 Método de Steensen


función steffensen(p0,TOL,itermax,g(p)):
iter = 1
while (iter < itermax):
p1 = g(p0)
p2 = g(p1)
p = p0 - (p1 - p0)^2/(p2 - 2p1 + p0)
if (|p - p0| < TOL):
return p
else:
iter = iter + 1
p0 = p
return 'El método fracasó después de'+itermax+'iteraciones.'

4 Sistemas de ecuaciones no lineales

Un sistema de ecuaciones no lineales tiene la forma



f1 (x1 , . . . , xn ) = 0

f2 (x1 , . . . , xn ) = 0

. =⇒ F(x1 , . . . , xn ) = (f1 , . . . , fn )T = 0
.
.




fn (x1 , . . . , xn ) = 0

4.1 Adaptación del método de Jacobi


(
f (x1 , x2 ) = x21 + x22 − 1 = 0
Ejemplo: supongamos el sistema dado por
g(x1 , x2 ) = x21 − 2x1 − x2 + 1 = 0
Podemos resolverlo mediante una adaptación del método de Jacobi a sistemas de ecuaciones mediante:
r  2
hi+1i hii
x1 = ± 1 − x2
 2
hi+1i hii hii
x2 = x1 − 2x1 + 1

4.2 Adaptación del método de Gauss-Seidel


(
f (x1 , x2 ) = x21 + x22 − 1 = 0
Ejemplo: supongamos el sistema dado por
g(x1 , x2 ) = x21 − 2x1 − x2 + 1 = 0

13
Podemos resolverlo mediante una adaptación del método de Gauss-Seidel a sistemas de ecuaciones mediante:
r  2
hi+1i hii
x1 = ± 1 − x2
 2
hi+1i hi+1i hi+1i
x2 = x1 − 2x1 +1

4.3 Método de Newton

El método de Newton para sistemas no lineales consiste en


 −1  
xhi+1i = xhii − J xhii · F xhii

siendo J(x) la matriz jacobiana de F (x).

Ventajas Desventajas
- convergencia cuadrática - debe conocerse un valor inicial bueno
- necesita calcular e invertir J(x) en cada paso
- O(n3 ) pasos

4.4 Método de Broyden

El método de Broyden es una variante del método de Newton. En este método se reemplaza la matriz
jacobiana con una matriz de aproximación que se actualiza en cada iteración.

Supongamos que se da una aproximación inicial xh0i a la solución p de F (x) = 0. Calculamos xh1i como en
h2i
el método de Newton, y para calcular x nos apartamos de Newton y examinamos el método de la secante
para una ecuación no lineal: reemplazamos la matriz J(xh1i ) por una matriz A que tiene la propiedad de que
h1i h0i h1i h0i
x = xh1i − A−1
h2i h1i
  
A1 x −x =F x −F x , es decir que 1 F x . En general, calculamos:

 
xhi+1i = xhii − A−1
i F x hii

siendo
F xhii − F xhi+1i − Ai−1 xhii − xhi+1i
  
Ai = Ai−1 +
xhii − xhi+1i 2

2

Ventajas Desventajas
- no hay que invertir matrices - hay que invertir una matriz al comienzo
- no hay que calcular el jacobiano - convergencia superlineal
- O(n2 ) pasos - debe conocerse un valor inicial bueno

5 Interpolación

En ingeniería y algunas ciencias es frecuente disponer de un cierto número de puntos obtenidos por muestreo o
a partir de un experimento y pretender construir una función que los ajuste. Se denomina interpolación a la
obtención de nuevos puntos partiendo del conocimiento de un conjunto discreto de puntos.

Polinomios: funciones de la forma Pn (x) = a0 + a1 x1 + a2 x2 + · · · + an xn . Dado que las derivadas e integrales


de los polinomios son fáciles de calcular, éstos se usan para aproximar funciones continuas.

Para curvas que no pueden denirse mediante polinomios contamos con curvas paramétricas llamadas curvas
de Bezier.
Supongamos que tenemos los puntos y0 = f (x0 ), y1 = f (x1 ),...,yn = f (xn ) y queremos obtener un polinomio de
grado n que pase lo más cerca posible de y0 , ..., yn . Lo que podemos hacer es plantear el sistema de ecuaciones:

xn0
 
1 x0 ···

n    
a0 + a1 x0 + ... + an x0 = y0
 n  a0 y0

.
 1 x1 ··· x1   .   . 
. =⇒  . .   ..  =  .. 

. . ..
  .. .
. . . 
.
a + a x + ... + a xn = y an yn

0 1 n n n n 1 xn ··· xnn

14
La matriz de este sistema se llama matriz de Vandermonde. Esta matriz es mal condicionada. Por lo tanto,
este generalmente no es un buen método.

Fenómeno de Runge: se da cuando aparecen oscilaciones no deseadas en los extremos del intervalo a interpolar.

Figura 7: Fenómeno de Runge.

5.1 Interpolación y polinomio de Lagrange

Teorema : si x0 , . . . , x n son n+1 números distintos y si f es una función cuyos valores están dados en esos
números, entonces existe un único polinomio P (x) de grado a lo sumo n que satisface f (xk ) = P (xk ) con
k = 0, 1, ..., n.
Este polinomio está dado por:
n
Y (x − xj )
Ln;i =
(xi − xj )
j=0,j6=i
Xn
Pn (x) = [f (xi ) · Ln;i ]
i=0

Ventajas Desventajas
- la distribución de puntos no incide - O(n2 ) operaciones para evaluar Pn (x)
- es sencillo - agregar (xn+1 , yn+1 ) requiere recular todo
- es inestable

5.2 Método de Newton

El método de las diferencias divididas de Newton consiste en denir

f (xi ) = yi
f (xi+1 )−f (xi )
f (xi , xi+1 ) = xi+1 −xi

f (xi+1 ,xi+2 )−f (xi ,xi+1 )


f (xi , xi+1 , xi+2 ) = xi+2 −xi

.
.
.

f (xk+1 ,...,xn )−f (xk ,...,xn−1 )


f (xk , . . . , xn ) = xn −xk

El método de las diferencias divididas  progresivas de Newton de grado 3 consiste en:

P (x) = f (x0 ) + f (x0 , x1 )(x − x0 ) + f (x0 , x1 , x2 )(x − x0 )(x − x1 ) + f (x0 , x1 , x2 , x3 )(x − x0 )(x − x1 )(x − x2 )
donde x0 > x1 > x2 > x3 .
El método de las diferencias divididas  regresivas de Newton de grado 3 consiste en:

P (x) = f (x3 ) + f (x2 , x3 )(x − x3 ) + f (x1 , x2 , x3 )(x − x3 )(x − x2 ) + f (x0 , x1 , x2 , x3 )(x − x3 )(x − x2 )(x − x1 )
donde x0 < x1 < x2 < x3 .
Ventajas Desventajas
- agregar un punto inicial o nal es muy sencillo - O(n2 ) operaciones para obtener f (xk , . . . , xn )
- O(n) operaciones para evaluar Pn (x) - agregar un punto intermedio requiere recalcular todo
- se exigen datos xi ordenados

15
5.3 Interpolación baricéntrica de Lagrange
Qn
Sea el polinomio genérico L(x) = i=0 (x − xi )
Sean los pesos baricéntricos
1
wi = Qn para todo i = 0...n
k=0,k6=i xi − xk
Entonces podemos denir al polinomio interpolante como:

n  
X wi
Pn (x) = L(x) · f (xi )
i=0
x − xi

Este es el llamado método mejorado de Lagrange.

Ventajas Desventajas
- O(n) operaciones para evaluar Pn (x)
- O(n) operaciones para agregar un par de datos
- wi no depende de f (xn+1 )
- no es necesario ordenar los datos

El método baricéntrico de Lagrange consiste en:


Pn wi
i=0 f (xi ) x−xi
Pn (x) = Pn wi
i=0 x−xi

Ventajas Desventajas
- O(n) operaciones para agregar un par de datos - es inestable
- es más estable que Lagrange original

5.4 Interpolación de Hermite

La interpolación de Hermite se utiliza cuando conocemos el valor de la función en el punto y la derivada.


Teorema : sea f ∈ C 1 [a, b] y sean x0 , . . . , xn ∈ [a, b] distintos, el polinomio único que concuerda con f (xi ) y
0
f (xi ) para i = 0 . . . n es el polinomio de Hermite de grado, a lo sumo, 2n + 1, que está dado por

n
X n
X
H2n+1 (x) = f (xi )Hn;i (x) + f 0 (xi )Ĥn;i (x)
i=0 i=0

donde

2
Hn;i (x) = 1 − 2(x − xi )L0n;i (xi ) [Ln;i (x)]
 

2
Ĥn;i (x) = (x − xi ) [Ln;i (x)]

Este polinomio también se puede calcular mediante el método de diferencias divididas Newton. Denimos una
sucesión {z0 , . . . , z2n+1 } dada por z2i = z2i+1 = xi , con i = 0 . . . n. Entonces:

 
2n+1
X k−1
Y
H2n+1 (x) = f (z0 ) + f (z0 , . . . , zk ) · (x − zj )
k=1 j=0

Y podemos formar la tabla correspondiente:

zi f (zi ) f (zi , zi+1 ) f (zi , zi+1 , zi+2 ) f (zi , zi+1 , zi+2 , zi+3 )
z0 = x0 f (z0 ) = f (x0 ) f (z0 , z1 ) = f 0 (x0 )
z1 = x0 f (z1 ) = f (x0 ) f (z1 , z2 ) f (z0 , z1 , z2 ) f (z0 , z1 , z2 , z3 )
z2 = x1 f (z2 ) = f (x1 ) f (z2 , z3 ) = f 0 (x1 ) f (z1 , z2 , z3 )
z3 = x1 f (z3 ) = f (x1 ) f (z3 , z4 )

Ventajas Desventajas
- procedimiento tedioso incluso
para valores chicos de n

16
5.5 Interpolación por splines

La interpolación por splines consiste en interpolar datos mediante segmentos


de curvas. En este caso los segmentos serán polinomios de tercer grado, denominados
trazadores cúbicos. Sean los n+1 puntos, denimos las n curvas interpolantes
como:

Si (x) = ai + bi (x − xi ) + ci (x − xi )2 + di (x − xi )3 con i = 0..n − 1

Este polinomio debe cumplir las siguientes condiciones:

Figura 8: Spline.
1. Si (xi ) = f (xi ) para i = 0, . . . , n (la curva pasa por los puntos)

2. Si+1 (xi+1 ) = Si (xi+1 ) para i = 0, . . . , n − 2 (Si es continua)

0
3. Si+1 (xi+1 ) = Si0 (xi+1 ) para i = 0, . . . , n − 2 (Si0 es continua)

00
4. Si+1 (xi+1 ) = Si00 (xi+1 ) para i = 0, . . . , n − 2 (Si00 es continua)

5. Alguna de las siguientes condiciones de borde:

a) Frontera libre / natural: S000 (x0 ) = Sn−1


00
(xn ) = Sn00 (xn ) = 0
(
S00 (x0 ) = f 0 (x0 ) = α
b) Frontera sujeta: 0
Sn−1 (xn ) = Sn0 (xn ) = f 0 (xn ) = β

1
Para hallar los coecientes ai , bi , ci y di con spline de frontera libre debe plantearse:

ai = f (xi )
hi = xi+1 − xi
1 0 0 ··· 0
 
0
 
.
c0
  
.
 h0 2(h0 + h1 ) h1 3[fN (x1 , x2 ) − fN (x0 , x1 )]
 
.
  c1
  
 0 h1 2(h1 + h2 ) h2
   
.
=
   
  . . 
 . .  . .
.
  
 . .
. 0
 3[f (x , x ) − fN (xn−2 , xn−1 )]

 .

N n−1 n
cn


hn−2 2(hn−2 + hn−1 ) hn−1
 0
0 ··· 0 0 1

hi
bi = fN (xi , xi+1 ) − 3 (2ci + ci+1 )
ci+1 −ci
di = 3hi

Para hallar los coecientes ai , bi , ci y di con spline de frontera sujeta debe plantearse:

ai = f (xi )
hi = xi+1 − xi
2h0 h0 0 ··· 0
 
3fN (x0 , x1 ) − 3f 0 (a)
 
.
c0
  
.
 h0 2(h0 + h1 ) h1 3fN (x1 , x2 ) = 3fN (x0 , x1 )
 
.
  c1
  
 0 h1 2(h1 + h2 ) h2
   
.
=
   
  . . 
 . .  . .
.
  
 . .
n−1 , xn ) − 3fN (xn−2 , xn−1 )
.
 3f (x
0

 .

N
cn

0

hn−2 2(hn−2 + hn−1 ) hn−1
 3f (b) − 3fN (xn−1 , xn )
0 ··· 0 hn−1 2hn−1

hi
bi = fN (xi , xi+1 ) − 3 (2ci + ci+1 )
ci+1 −ci
di = 3hi

La interpolación con spline de frontera sujeta es más precisa que la natural, pero requiere los valores de la
derivada en los extremos, o al menos buenas aproximaciones.

Puede demostrarse que las matrices asociadas a los dos sistemas mencionados son estrictamente diagonal do-
minantes, denidas positivas, tribandas y simétricas, y que la solución de los dos es única.

1f
N denota la diferencia dividida de Newton

17
6 Ajuste de funciones y mejor aproximación

6.1 Mejor aproximación

Si la cantidad de puntos xi dados es muy grande, interpolar mediante polinomios


crea curvas de alto grado que se vuelven muy inestables en los extremos. Esto se
puede resolver, en parte, mediante interpolaciones fragmentadas o segmentos de curvas
(polinomios de Hermite o splines). Sin embargo, una de las condiciones fundamentales
para estos métodos es que los puntos xi sean distintos.

Cuando para un mismo xi tenemos varios valores de f (xi ) podemos construir una
curva que ajuste lo mejor posible los datos disponibles, sin que la curva pase por los
puntos dados.
Pm
La aproximación la hacemos con una función g(x) = i=0 ci φi (x), donde m < n.
Figura 9: Ajuste.

6.2 Método de los cuadrados mínimos

El problema general de aproximar un conjunto de datos distintos (x1 , y1 ), . . . , (xm , ym ) con un polinomio
Pn (x) = a0 + a1 x + a2 x2 + · · · + an xn de grado n < m − 1 puede resolverse mediante el método de los
cuadrados mínimos. Este método consiste en resolver las n + 1 ecuaciones normales para las n + 1 incógnitas
aj .

n
X m
X m
X
ak xj+k
i = yi xji para cada j = 0, . . . , n
k=0 i=1 i=1

En forma matricial esto es

 Pm Pm Pm
x0i x1i xni

i=1 i=1 ··· i=1 a0
  Pm
yi x0i

. Pi=1
m 1
.   a1   i=1 yi xi
 Pm 1 Pm 
i=1 xi x2i .
   
i=1  .  =  
.

. ..  .   .

. .
Pm .

.
Pm. n
  
n
···
Pm
x2n an i=1 yi xi
i=1 xi i=1 i

Nótese que el coeciente A11 nos dice la cantidad de puntos que intervienen en el ajuste, y que la matriz es
simétrica y denida positiva, y es similar a una matriz de Vandermonde. De ahí que cualquier ajuste de curvas
hecho con polinomios es un problema mal condicionado, y por ello no se recomienda trabajar con polinomios
de grado mayor a 4 o 5.

Puede demostrarse que las ecuaciones normales tienen una solución única, a condición de que las xi sean
distintas.

Si sospechamos que los datos (xi , yi ) tienen una relación exponencial, podemos proponer la función de ajuste
y = aebx .

7 Diferenciación numérica

Dado que no siempre las soluciones analíticas al problema de diferenciar son aplicables a los problemas, y no
siempre existe tal solución numérica, existen métodos numéricos que aproximan las soluciones con distinto grado
de exactitud.

Sin embargo, debe notarse que la diferenciación numérica es inestable y depende mucho de la precisión utilizada.

7.1 Aproximación por diferencias

Se pueden clasicar según 3 tipos:

f (x+h)−f (x)
1. Diferencias progresivas: f 0 (x) ≈ h . Su orden de convergencia es O(h).
f (x)−f (x−h)
2. Diferencias regresivas: f 0 (x) ≈ h . Su orden de convergencia es O(h).

18
f (x+h)−f (x−h)
3. Diferencias centradas: f 0 (x) ≈ 2h . Su orden de convergencia es O(h2 ). Es el que mejor
aproxima de los tres.

Tener en cuenta que achicar el paso h en los tres algoritmos anteriores no siempre es una manera de obtener
una aproximación mejor, ya que empieza a incidir el error de redondeo, dado que el numerador se vuelve cada
vez más chico. Además, no es posible calcular un valor óptimo para h.

7.2 Método de los tres y cinco puntos

El algoritmo del método de los tres puntos es:

−3f (x) + 4f (x + h) − f (x + 2h)


f 0 (x) ≈
2h
Su orden de convergencia es O(h2 ).
El algoritmo llamado método de los cinco puntos es:

f (x − 2h) − 8f (x − h) + 8f (x + h) − f (x + 2h) h4 (5)


f 0 (x) = + f (ξ)
12h 30
Su orden de convergencia es O(h4 ), es decir, proporcional a la derivada quinta, lo que lo hace muy preciso.

7.3 Extrapolación de Richardson

El método de extrapolación de Richardson es aplicable solo si E(h) = k1 h1 + k2 h21 + k3 h31 + · · · , y se puede


generalizar de la siguiente manera:

 
h
j−1 q − Nj−1 (h)
  N
h
Nj (h) = Nj−1 +
q q j−1 − 1

siendo N1 el resultado de aproximar la derivada con alguno de los métodos mencionados anteriormente (por
ejemplo, diferencias progresivas).

f 0 (1) π

Ejemplo: aproximar siendo f (x) = sin 3x con extrapolación de Richardson, con q = 2.

f (1+h)−f (1) N1 ( h
2 )−N1 (h) N2 ( h
2 )−N2 (h)
N2 = N1 ( h2 ) + h

hi N1 = h 21 −1 N3 = N2 2 − 22 −1 N4
0,2 N1 (0, 2) = 0, 4252
0,1 N1 (0, 1) = 0, 4752 N2 (0, 2) = 0, 5252
0,05 N1 (0, 05) = 0, 4996 N2 (0, 1) = 0, 5240 N3 (0, 2) = 0, 5236
0,025 N1 (0, 025) = 0, 5117 N2 (0, 05) = 0, 5238 N3 (0, 1) = 0, 5237 N4 (0, 2) = 0, 5237

Pn−1
La extrapolación puede aplicarse si el error de truncamiento es j=1 kj hα α
j + O(h m).

8 Integración numérica

Cuando necesitamos obtener el valor de una integral denida, pueden ocurrir dos cosas: que la función no tenga
una antiderivada explícita, o que ésta no sea fácil de obtener. Entonces podemos obtener una aproximación
utilizando una cuadratura.
Rb Pn
Cuadratura numérica: a f (x) dx ≈ i=1 ci f (xi ), donde ci son los coecientes de peso y los f (xi ) son los
puntos de cuadratura.

Los siguientes métodos aproximan la función f (x) con un polinomio interpolante, cuyas antiderivadas son fáciles
de calcular.

19
8.1 Fórmulas cerradas de Newton-Cotes

Fórmula cerrada de Newton-Cotes: la fórmula cerrada de n+1 puntos de Newton-Cotes utiliza los nodos
equidistantes xi = x0 + ih, para i = 0..n, donde x0 = a, xn = b y h = b−a
n . Se llama cerrada porque se incluyen
los extremos del intervalo como nodos.

Regla del rectángulo:


Z b Z b
f (x) dx ≈ (b − a) · f (a) o f (x) dx ≈ (b − a) · f (b)
a a
| {z } | {z }
por defecto por exceso

Su orden de convergencia es O(h). Esta regla da un resultado exacto para funciones del tipo f (x) = c.

Regla del trapecio (n=1): se obtiene al integrar en [a, b] el primer polinomio de Lagrange. Se aproxima
el área bajo una función f de valores positivos con un trapecio.

x1
h3
Z
h
f (x) dx = · [f (x0 ) + f (x1 )] − f 00 (ξ)
x0 2 12
siendo h = b − a. Su convergencia es O(h2 ). Esta regla da un resultado exacto para polinomios de grado
1 o menos.

Regla de Simpson (n=2): se obtiene al integrar el segundo polinomio de Lagrange.

x2
h5
Z    
h a+b
f (x) dx = f (a) + 4f + f (b) − f (4) (ξ)
x0 3 2 90
b−a
siendo h= 2 . Su convergencia es O(h4 ). Esta regla proporciona resultados exactos al aplicarla a poli-
nomios de grado 3 o menos.

Regla de tres octavos de Simpson (n=3):

x3
3h5 (4)
Z
3h
f (x) dx = [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] − f (ξ)
x0 8 80
b−a
siendo h= 3 .

8.2 Fórmulas abiertas de Newton-Cotes

Fórmula abierta de Newton-Cotes: la fórmula abierta de n + 1 puntos de Newton-Cotes utiliza los nodos
equidistantes xi = x0 + ih, para i = 0..n, donde x0 = a + h, xn = b − h y h = b−a
n+2 . Se llama abierta porque
no se incluyen los extremos del intervalo como nodos.

Regla del punto medio (n=0):

x1
h3 00
Z
f (x) dx = 2hf (x0 ) + f (ξ)
x0 3
 
x0 + x1
= (x1 − x0 ) · f
2

8.3 Métodos compuestos

En general, las fórmulas de Newton-Cotes no son adecuadas para utilizarse en intervalos de integración grandes.
Para estos casos se utilizan los siguientes métodos, que tienen la ventaja de que son estables respecto del error
de redondeo. Todos estos algoritmos son O(h4 ), pero tienen una desventaja: el tiempo de procesamiento. Esto
quiere decir que reducir el paso h mejora la precisión, pero llegará un punto en que la representación numérica
nos impedirá anar el paso. Además, cada vez que querramos anar el paso, deberemos calcular todo otra vez.

20
Regla compuesta del rectángulo:
"n−1 #
Z b X
f (x) dx ≈ h f (xj ) + f (b)
a i=1

b−a
siendo h= n y xj = a + jh.
Regla compuesta del trapecio: sea f ∈ C 2 [a, b]. Entonces la fórmula compuesta del trapecio para n
subintervalos puede escribirse como

 
b n−1
b − a 2 00
Z
h X
f (x) dx = f (a) + 2 f (xj ) + f (b) − h f (µ)
a 2 j=1
12
b−a
siendo h= n y xj = a + jh para cada j = 0..n.
Regla compuesta de Simpson: sea f ∈ C 4 [a, b] y n par. Entonces la fórmula compuesta de Simpson
para n subintervalos puede escribirse como

 n n

b 2 −1 2
b − a 4 (4)
Z
h X X
f (x) dx = f (a) + 2 f (x2j ) + 4 f (x2j−1 ) + f (b) − h f (µ)
a 3 j=1 j=1
180

b−a
siendo h= n y xj = a + jh para cada j = 0..n.
Regla compuesta del punto medio: sea f ∈ C 2 [a, b] y n par. Entonces la fórmula compuesta del punto
medio para n+2 subintervalos puede escribirse como

n
b 2
b − a 2 00
Z X
f (x) dx = 2h f (x2j ) + h f (µ)
a j=0
6
b−a
siendo h= n+2 y xj = a + (j + 1)h para cada j = −1..(n + 1).

8.4 Método de Romberg

El método de integración de Romberg utiliza la regla compuesta del trapecio para obtener aproximaciones
preliminares y luego se aplica el proceso de extrapolación de Richardson para mejorar las aproximaciones. Si se
verica que f ∈ C 2(k+1) [a, b], la fórmula está dada por

Rk,j−1 − Rk−1,j−1
Rk,j = Rk,j−1 +
4j−1 − 1
donde k = 2, 3, . . . , n y j = 2, . . . , k . Su convergencia es O(h2j
k ). Los resultados generados con éstas fórmulas se
incluyen en la siguiente tabla.

R1,1
R2,1 R2,2
. . ..
. . .
. .
Rn,1 Rn,2 ··· Rn,n

El mejor valor es Rn,n . Otra ventaja de este método es que permite agregar una nueva la a la tabla con sólo
hacer una aplicación más de la regla compuesta del trapecio (y luego promediar los demás valores).

8.5 Cuadratura de Gauss

En todas las fórmulas de Newton-Cotes se emplean valores de la función en puntos equidistantes. Esta práctica
es útil cuando utilizamos dichos métodos en reglas compuestas, pero esta restricción puede afectar la exactitud
de la aproximación.

El método de cuadratura de Gauss selecciona los puntos de la evaluación de manera óptima y


Pn no en una
forma igualmente espaciada. Recordando la fórmula de una cuadratura i=1 ci f (xi ), los valores xi son las raíces
del polinomio de Legendre, y las constantes ci se obtienen operando con los xi . Estos valores están tabulados:

21
n xi ci
1 x0 = 0 c0 = 2
2 x0 = 0, 57735 c0 = 1
x1 = −0, 57735 c1 = 1
3 x0 = 0, 77459 c0 = 0, 55555
x1 = 0 c1 = 0, 88888
x2 = −0, 77459 c2 = 0, 55555
. . .
. . .
. . .

La fórmula para este método es

b 1  
(b − a)t + (b + a) b−a
Z Z
f (x) dx = f dt
a −1 2 2
Este método arroja resultados exactos cuando g ≤ 2n − 1, donde g es el grado del polinomio a integrar, y n es
la cantidad de puntos de Gauss. Además, el error cometido es proporcional a la derivada de orden 2n.

Ventajas Desventajas
- pocas evaluaciones del polinomio
- fácil de programar
- sólo desconocemos el error de redondeo

8.6 Integrales múltiples


RR
Dada la integral
A
f (x, y) dxdy , donde A es una región rectangular del plano tal que A = {(x, y) : a ≤ x ≤ b ∧ c ≤ y ≤ d},
podemos obtener una aproximación utilizando una adaptación de los métodos anteriormente estudiados.

Método del trapecio

d b
(b − a)(d − c)
Z Z
f (x, y) dxdy ≈ [f (a, c) + f (a, d) + f (b, c) + f (b, d)]
c a 4

Método de Simpson

Z d Z b (b − a)(d − c)
f (x, y) dxdy ≈ {f (x0 , y0 ) + f (x0 , y2 ) + f (x2 , y0 ) + f (x2 , y2 )
c a 36
+4 [f (x0 , y1 ) + f (x1 , y0 ) + f (x1 , y2 ) + f (x2 , y1 ) + 4f (x1 , y1 )]}

a+b c+d
donde x0 = a, x1 = 2 , x2 = b, y0 = c, y1 = 2 , y2 = d.
Método de cuadratura de Gauss

d b n m
(b − a)(d − c) X X
Z Z
f (x, y) dxdy ≈ ci cj f (xi , yj )
c a 4 i=1 j=1
b−a b+a d−c d+c
con xi =2 ti + 2 , yj = 2 tj + 2 , siendo ti , tj las raíces de los polinomios de Legendre y ci , cj los
coecientes de peso.

9 Ecuaciones diferenciales ordinarias

Estudiaremos cómo aproximar la solución y(t) a un problema de la forma

(
dy
dt = f (t, y) para a≤t≤b
y(a) = α

Condición de Lipschitz: una función f (t, y) satisface la condición de Lipschitz en la variable y en un conjunto
D ⊂ R2 si existe una constante L>0 tal que

|f (t, y1 ) − f (t, y2 )|
≤L para todo (t, y1 ), (t, y2 ) ∈ D
|y1 − y2 |

22
Teorema
: si f (t, y) está denida en un conjunto convexo D ⊂ R2 y existe una constante L > 0 tal que
∂f (t,y)
∂y ≤ L para toda (t, y) ∈ D, entonces f satisface la condición de Lipschitz.

Teorema (de suciencia ): supongamos que D = {(t, y)|a ≤ t ≤ b; −∞ < y < ∞} y que f (t, y) es continua en D.
Si f satisface la condición de Lipschitz, entonces el problema de valor inicial y 0 (t) = f (t, y), a ≤ t ≤ b, y(a) = α
tiene solución única.
dy
Problema bien planteado: el problema de valor inicial dt = f (t, y), a ≤ t ≤ b, y(a) = α es bien planteado si:

1. El problema tiene solución única y(t),


2. Si perturbamos el problema, la solución también se perturbará, pero poco.

Los siguientes métodos no nos proporcionan la función y(t), sino que nos da aproximaciones a y(ti ) para puntos
a ≤ ti ≤ b igualmente espaciados. Si queremos valores intermedios deberemos interpolarlos, generalmente
utilizando el método de Hermite.

9.1 Métodos de un paso

En los métodos de un paso la aproximación del punto de red ti+1 contiene información proveniente de uno
solo de los puntos anteriores de red ti .

9.1.1 Método de Euler

El método de Euler es un caso particular del método de Taylor para n = 1. Este método no es lo sucientemente
exacto para utilizarlo en la vida real, pero resulta simple para analizarlo. Sin embargo, son métodos estables.

b−a
Método de Euler explícito: siendo el paso h= N , donde N es la cantidad de intervalos, la expresión
de este método es:

wi = y(ti )
wi+1 = wi + h · f (ti , wi ) parai = 0, 1, . . . , N − 1

El error local es O(h). Converge siempre.

b−a
Método de Euler implícito: siendo el paso h= N , donde N es la cantidad de intervalos, la expresión
de este método es:

wi = y(ti )
wi+1 = wi + h · f (ti+1 , wi+1 ) para i = 0, 1, . . . , N − 1

El error local es O(h). El método de Euler implícito suele dar mejores resultados que el explícito (aunque
esto no siempre es así). La desventaja del método implícito es que no siempre es posible implementarlo.

Método predictor-corrector de Euler: este método consiste en obtener una primera aproximación
con el método explícito, y con ésta obtener una nueva aproximación con el método implícito, que
corrige la anterior.


wi+1 = wi + h · f (ti , wi )

wi+1 = wi + h · f (ti , wi+1 )

El error local de este método es O(h).

9.1.2 Métodos de Taylor de orden superior

El método de Taylor de orden n tiene la siguiente expresión:

w0 = α
wi = y(ti )
h2 0 hn (n−1)
wi+1 = wi + h · f (ti , wi ) + f (ti , wi ) + · · · + f (ti , wi ) para i = 0, . . . , n − 1
2 n!
Puede demostrarse que si f ∈ C n+1 [a, b], entonces el error de truncamiento es O(hn ). Este método rara vez se
emplea en la práctica, pues tiene la desventaja de requerir el cálculo y evaluación de las derivadas de f (t, y).

23
9.1.3 Métodos de Runge-Kutta

Teorema : seaf (t, y) ∈ C n+1 en D = {(t, y)|a ≤ t ≤ b, c ≤ y ≤ d} y sea (t0 , y0 ) ∈ D. Entonces, para toda
(t, y) ∈ D, existe ξ ∈ [t0 , t] y µ ∈ [y0 , y] con f (t, y) = Pn (t, y) + Rn (t, y) tal que Pn (t, y) es el n-ésimo polinomio
de Taylor en dos variables para la función f alrededor de (t0 , y0 ), y Rn (t, y) es el término residual asociado a
Pn (t, y).
Los métodos de Runge-Kutta se basan en aproximar el polinomio de Taylor para una variable mediante
polinomios de Taylor de dos variables. Existen varios métodos de Runge Kutta, que se clasican según su orden
de convergencia. Los más sencillos son los de orden 2:

Método del punto medio:

w0 = α
 
h h
wi+1 = wi + h · f ti + , wi + · f (ti , wi ) para cada i = 0, 1, . . . , N − 1
2 2

Método modicado de Euler:

w0 = α
h
wi+1 = wi + [f (ti , wi ) + f (ti+1 , wi + h · f (ti , wi ))] para cada i = 0, 1, . . . , N − 1
2

Método de Crank-Nicolson (implícito):

w0 = α
h
wi+1 = wi + [f (ti , wi ) + f (ti+1 , wi+1 )] para i = 0, 1, . . . , N − 1
2

Método de Heun:

w0 = α
  
h 2 2
wi+1 = wi + f (ti , wi ) + 3f ti + h, wi + h · f (ti , wi ) para i = 0, 1, . . . , N − 1
4 3 3

Para obtener métodos con mayor orden de convergencia se aplica el teorema antes mencionado, y con él se
obtiene el método de Runge-Kutta de orden 4, que es muy preciso siempre y cuando la función y(t) tenga
al menos cinco derivadas continuas:

w0 = α
k1 = h · f (ti , wi )
 
h 1
k2 = h · f ti + , wi + · k1
2 2
 
h 1
k3 = h · f ti + , wi + · k2
2 2
k4 = h · f (ti+1 , wi + k3 )
1
wi+1 = wi + (k1 + 2k2 + 2k3 + k4 ) para cada i = 0, 1, . . . , N − 1
6

9.2 Métodos multipasos

Los métodos multipasos son aquellos que emplean la aproximación en más de uno de los puntos de red
precedentes para determinar la aproximación en el siguiente punto. Se pueden deducir de las series de Taylor o
del polinomio interpolante de Lagrange.

Para obtener wi , wi−1 , wi−2 , . . . debemos utilizar un método de paso simple del mismo orden que el método de
paso múltiple.

24
9.2.1 Métodos explícitos de Adams-Bashforth

Dado un orden de convergencia p, los métodos explícitos de Adams-Bashforth usan los puntos wi , wi−1 ,
. . ., wi+1−p para obtener el wi+1 . El paso no puede ser arbitrario.

Método de Adams-Bashforth de orden 2 (2 pasos):

w0 = α
w1 = α1
h
wi+1 = wi + [3f (ti , wi ) − f (ti−1 , wi−1 )] para i = 1, 2, . . . , N − 1
2

Método de Adams-Bashforth de orden 4 (4 pasos):

w0 = α
w1 = α1
w2 = α2
w3 = α3
h
wi+1 = wi + [55f (ti , wi ) − 59f (ti−1 , wi−1 ) + 37f (ti−2 , wi−2 ) − 9f (ti−3 , wi−3 )] para i = 3, 4, . . . , N − 1
24

9.2.2 Métodos implícitos de Adams-Moulton

Dado un orden de convergencia p, los métodos implícitos de Adams-Moulton usan los puntos wi+1 , wi ,
wi−1 , . . ., wi+2−p para obtener el wi+1 . El tamaño del paso puede ser arbitrario.

Método de Adams-Moulton de orden 2 (1 paso):

w0 = α
w1 = α1
h
wi+1 = wi + [f (ti+1 , wi+1 ) − f (ti , wi )] para i = 1, 2, . . . , N − 1
2

Este método es equivalente al método de Crank-Nicolson.

Método de Adams-Moulton de orden 4 (3 pasos):

w0 = α
w1 = α1
w2 = α2
h
wi+1 = wi + [9f (ti+1 , wi+1 ) + 19f (ti , wi ) − 5f (ti−1 , wi−1 ) + f (ti−2 , wi−2 )] para i = 2, 3, . . . , N − 1
24

Como no siempre es posible transformar la expresión de Adams-Moulton a una de forma explícita, existen los
métodos predictores-correctores de Adams, que combinan un método de Adams-Bashforth y un método
de Adams-Moulton, ambos del mismo orden de convergencia.

Adams-Bashforth Adams-Moulton
- más sencillos de programar - más estables
- menos errores de redondeo
- más precisos

9.3 EDOs con condiciones de contorno


dn y
= f t, y, y 0 , . . . , y (n−1)

Trataremos de resolver ecuaciones del tipo
dtn en el intervalo [a, b] y con las condiciones
iniciales y(a) = α, y 0 (a) = β , . . ., y (n−1) (a) = γ .

25
9.3.1 Método del disparo lineal

Teorema : sea el problema y


00
= f (x, y, y 0 ) con a ≤ x ≤ b y las condiciones y(a) = α, y(b) = β . Si f , fy0 ,
fy0 son continuas en D = {(x, y, y 0 ) : a ≤ x ≤ b, −∞ < y < ∞, −∞ < y 0 < ∞} y si fy0 (x, y, y 0 )
0
> 0 para toda

(x, y, y 0 ) ∈ D y si existe una constante M tal que fy0 0 (x, y, y 0 ) ≤ M para toda (x, y, y 0 ) ∈ D, entonces el
problema con valor en la frontera tiene una solución única.

Corolario : sea el problema y 00 = p(x)y 0 + q(x)y + r(x) con a ≤ x ≤ b y las condiciones iniciales y(a) = α,
y(b) = β . Si se satisface que

p(x), q(x), r(x) son continuas en [a, b]


q(x) > 0 en [a, b]

entonces el problema tiene una solución única.

El método del disparo lineal tiene problemas de estabilidad. Se basa en la sustitución del problema de valor en
la frontera por 2 problemas de valor inicial:

(I) y 00 = p(x) · y 0 + q(x) · y + r(x) con y(a) = α, y 0 (a) = 0

(II) y 00 = p(x) · y 0 + q(x) · y con y(a) = 0, y 0 (a) = 1

Si llamamos y1 (x) a la solución de (I) e y2 (x) a la solución de (II), la solución nal es:
β−y1 (b)
y(x) = y1 (x) + y2 (b) · y2 (x)

9.3.2 Métodos de diferencias nitas para problemas lineales

El método de diferencias nitas es un método para resolver resoluciones de ecuaciones diferenciales de


orden mayor o igual a dos. Consiste en reemplazar las derivadas por diferencias nitas mediante un cociente
de diferencias. La aplicación de diferencias nitas generan un sistema de ecuaciones lineales del tipo Ax = B .
Primero seleccionamos un entero N > 0 y dividimos el intervalo [a, b] en N + 1 subintervalos iguales cuyos
b−a
extremos son los puntos de malla xi = a + ih para i = 0, 1, . . . , N + 1, donde h =
N +1 . Al escoger h de este
modo (no muy chico), se facilita la aplicación de un algoritmo matricial.

La fórmula de las diferencias centradas para y 00 (xi ) es

1 h2
y 00 (xi ) = 2
[y(xi+1 ) − 2y(xi ) + y(xi−1 )] − y (4) (ξi )
h 12
El método de diferencias nitas con error de truncamiento de orden O(h²) consiste en resolver el siguiente
sistema de ecuaciones:

2 + h2 q(x1 ) h
 
−1 + 2 p(x1 ) 0 ··· 0
−h2 r(x1 ) + 1 + h
  
. 2 p(x1 ) w0
 
.
 −1 − h p(x2 ) 2 + h2 q(x2 ) −h2 r(x2 )
  
 2 . 
 w1 



 .
 .   .

 .  . = . 
 0 . 0  .   . 
   
 . . .
 wN  −h2 r(xN −1 )  
. . .
 
 . . . h
−1 + 2 p(xN −1 )  −h2 r(xN ) + 1 + h
2 p(xN ) wN +1
0 ··· 0 −1 − h
2 p(xN ) 2 + h2 q(xN )

9.3.3 Método de los elementos nitos

El método de los elementos nitos es un método para aproximar soluciones de ecuaciones diferenciales muy
utilizado en análisis estructural.

26

También podría gustarte