Está en la página 1de 31

Resolución de Sistemas de Ecuaciones no Lineales

Interpolación polinómica avanzada y ajuste de curvas


Resolución Numérica de Ecuaciones Diferenciales Ordinarias (EDO)

Luis Galán Valiente

Contents
1 Resolución de Sistemas de Ecuaciones no Lineales 2
1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Método de Aproximaciones Sucesivas . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Método de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2 Interpolación Polinómica Avanzada y Ajuste de Curvas 5


2.1 Repaso: Interpolación de Lagrange y Hermite . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Interpolación a trozos y convergencia uniforme . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Splines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4 Mejor Aproximación Mı́nimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3 Resolución Numérica de Ecuaciones Diferenciales Ordinarias (EDO) 17


3.1 Introducción al problema de valor inicial (PVI). Algunos resultados teóricos . . . . . . . 17
3.2 El método de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3 Métodos generales de un paso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 Métodos de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.5 Métodos de Runge-Kutta (explı́citos) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.6 Problemas de Contorno (P.Co) para EDO . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.7 Método de las diferencias finitas para (P.Co) lineales . . . . . . . . . . . . . . . . . . . . 31

1
1 Resolución de Sistemas de Ecuaciones no Lineales
1.1 Introducción
Sea D ∈ Rn y sean f, g : D ∈ Rn → Rn funciones continuas. Consideraremos en este
tema sistemas (algebraicos) no lineales, que escribimos en forma homogénea o en forma
de punto fijo, como:

(SH) 
 f1 (x1 , ..., xn ) = 0
f (x) = 0 ⇔ ...
fn (x1 , ..., xn ) = 0

(SPF) 
 g1 (x1 , ..., xn ) = x1
g(x) = x ⇔ ...
 g (x , ..., x ) = x
n 1 n n

Llamemos α a la solución de nuestro problema.

Decimos que el método converge globalmente si la sucesión que generamos { xk }


converge a α independientemente del x0 elegido inicialmente.
Decimos que el método converge localmente si la sucesión que generamos { xk }
converge a α independientemente del x0 elegido inicialmente en un entorno [α−ρ, α+ρ].

Diremos que un método iterativo { xk } tiene orden de convergencia al menos p ≥ 1


hacia la solución α si es localmente convergente hacia α y

∃k0 ∈ N, ∃C > 0 : ∥xk+1 − α∥ ≤ C∥xk − α∥p , ∀k ≥ k0


Si p = 1, se exige C < 1.

2
1.2 Método de Aproximaciones Sucesivas
Consideremos el sistema no lineal en forma de punto fijo
(SPF) 
 g1 (x1 , ..., xn ) = x1
g(x) = x ⇔ ...
gn (x1 , ..., xn ) = xn

para el que se define el método de aproximaciones sucesivas


(MAS)  0
x ∈ Rn dado
xk+1 = g(xk )∀k ≥ 0
Teorema A
(Convergencia global y estimación del error).

Sea D ∈ Rn cerrado y g : D ∈ Rn → Rn tal que


1. g(D) ⊆ D (D es g-invariante).
2. ∃L ∈ (0, 1) : ∥g(x) − g(y)∥ ≤ L∥x − y∥, ∀x, y ∈ D (g es L-contractiva en D).

Entonces:
1.∃!α ∈ D solución del (SPF).
2.El (MAS) es globalmente convergente hacia α.
3. Se tienen las siguientes estimaciones de error
∥xk+1 − α∥ ≤ L∥xk − α∥ y ∥xk − α∥ ≤ Lk ∥x0 − α∥(a priori)
L Lk
∥xk − α∥ ≤ ∥xk − xk−1 ∥ y ∥xk − α∥ ≤ ∥x1 − x0 ∥(a posteriori)
1−L 1−L
En particular, la convergencia es al menos lineal.

Lema B

Sea D ⊆ Rn convexo y compacto, y sea g ∈ C 1 (D) (es decir, que existe un abierto
G tal que D ⊆ G y g ∈ C 1 (G)). Si
∂gi (x)
maxx∈D ∥g ′ (x)∥ ≤ L (g ′ (x) = ( )ij )
∂xj
para alguna norma matricial ∥A∥ (que es consistente con alguna norma vectorial ∥u∥),
entonces
∥g(x) − g(y)∥ ≤ L∥x − y∥, ∀x, y ∈ D
Teorema C
(Convergencia local).

Sea D ∈ Rn cerrado y g : D ∈ Rn → Rn tal que


1. ∃α ∈ int(D) : α = g(α).
2. g ∈ C 1 (D) y ∥g ′ (α)∥ < 1 para alguna norma matricial consistente.

Entonces, ∃ρ ≥ 0 tal que el (MAS) converge hacia α, ∀x0 ∈ B(α, ρ), con convergencia
al menos lineal.

3
1.3 Método de Newton
Sea f : D ⊆ Rn → Rn derivable. Se considera el sistema no lineal homogéneo

(SH)
f (x) = 0
Por razones análogas a las del caso escalar, (SH) se escribe como el sistema de punto fijo

(SPF)
x = x − (f ′ (x))−1 f (x)
que será equivalente al (SH) si la matriz jacobiana f ′ (x) es regular. El método de
Newton es el (MAS) asociado al anterior (SPF):

(MN) 
x0 ∈ Rn dado
xk+1 = xk − (f ′ (xk ))−1 f (xk )∀k ≥ 0
Desde el punto de vista algorı́tmico, el método consiste en, dado xk ,
1. Hallar la solución, δ k , del sistema lineal (f ′ (xk ))δ k = f (xk ).
2. Hacer: xk+1 = xk − δ k .

Teorema D
(Convergencia local).

Sea D ∈ Rn cerrado y g : D ∈ Rn → Rn tal que


1. ∃α ∈ int(D) : f (α) = 0.
2. f ∈ C 2 (D) y f ′ (α) regular.

Entonces, ∃r ≥ 0 tal que ∀x0 ∈ B(α, r), el (MN) converge hacia α y la


convergencia es al menos cuadrática.

Variante de Whittaker

(MW) 
x0 ∈ Rn dado
xk+1 = xk − M −1 f (xk )∀k ≥ 0

Podemos tomar M = f ′ (x0 ).

Desde el punto de vista algorı́tmico, el método consiste en, dado xk ,


1. Hallar la solución, δ k , del sistema lineal M δ k = f (xk ).
2. Hacer: xk+1 = xk − δ k .

Al ser M fija, se puede aplicar un método de resolución directa, pero la


convergencia ya no es cudrática.

Si la convergencia es muy lenta se puede actualizar la matriz M con f ′ (xk ) en alguna


iteración.

4
2 Interpolación Polinómica Avanzada y Ajuste de Curvas
Cuando hablamos del problema de interpolación hablamos de hallar una función que
pase por un soporte dado, sin embargo, cuando hablamos de un problema de ajuste de
datos, buscamos una función que se parezca a la dada, sin necesariamente pasar por
los puntos dados.

2.1 Repaso: Interpolación de Lagrange y Hermite


Problema A (Interpolación global de Lagrange)

Dada f ∈ C 0 ([a, b]) y un soporte S = {x0 < ... < xn } ⊆ [a, b] de n+1 puntos
distintos, consideramos el siguiente problema de interpolación:

Hallar p ∈ Pn [x] tal que
p(xi ) = f (xi ), ∀i = 0, ..., n
Teorema A
(Existencia y Unicidad)

Fijados un soporte de n+1 puntos distintos S = {xi }n y unos valores reales {yi }n
cualesquiera, existe un único p.i. de los valores {xi , yi }n , es decir existe un único
p ∈ Pn [x] tal que p(xi ) = yi , i = 0, ..., n.

Demostración

Etapa 1: Reducción del problema de interpolación a un sistema lineal algebraico. Se


busca p ∈ Pn [x] de la forma
p(x) = a0 + a1 x + ... + an xn
con ai ∈ R, i = 0, ..., n a determinar. Las condiciones de interpolación p(xi ) = yi ,
i = 0, ..., n, conducen al sistema lineal cuadrado con la matriz de Vandermonde:
    
1 x0 ... xn0 a0 y0
1 x1 ... xn1   a1   y1 
. . . .   .  =  . 
    
1 xn ... xnn an yn
Etapa 2.Unicidad: Supongamos que existen p, q ∈ Pn [x] tales que

p(xi ) = q(xi ) = yi , i = 0, ..., n


Sea r = p − q. Luego, r ∈ Pn [x] y verifica
r(xi ) = 0, i = 0, ..., n
Como r es un polinomio de grado a lo más n con n+ 1 raı́ces distintas, entonces r ≡ 0,
es decir p ≡ q.

Etapa 3.Existencia: La existencia se obtiene, como consecuencia de las dos etapas


anteriores, ya que un sistema lineal cuadrado si tiene unicidad entonces tiene
existencia. ■

5
Teorema B
(Expresión del error y acotación)

Sea f ∈ C n+1 ([a, b]). Fijados un soporte S = {xi }n ⊆ [a, b], y los valores asociados
{f (xi )}n y el p.i. p ∈ Pn [x] tal que p(xi ) = f (xi ), i = 0, ..., n, entonces se tiene que
∀x ∈ [a, b], ∃ξx ∈ (a, b) tal que

f n+1) (ξx )
f (x) − p(x) = ωS (x)
(n + 1)!
donde ωS (x) = (x − x0 )(x − x1 )...(x − xn ) es el polinomio soporte asociado a S.

Demostración

Si x = xi para algún i, el resultado es evidente (0 = 0).

Supongamos que x ̸= xi ∀i = 0, ..., n. Consideramos la función auxiliar

ϕ(t) = f (t) − p(t) − λωS (t), t ∈ R


con λ ∈ R tal que ϕ(x) = 0. Entonces
f (x) − p(x)
λ=
ωS (x)
Se verifica que ϕ(xi ) = 0, ∀i = 0, ..., n y ϕ(x) = 0.
Como ϕ ∈ C n+1 ([a, b]) y se anula en n+2 puntos distintos, por el Teorema de Rolle,
deducimos que ϕ′ ∈ C n ([a, b]) se anula (al menos) en n+1 puntos distintos del intervalo
(a,b). Aplicando el Teorema de Rolle sucesivamente, llegamos a que ϕn+1) ∈ C 0 ([a, b])
y se anula (al menos) en un punto de (a,b). Sea ξx ∈ (a, b) tal que ϕn+1) (ξx ) = 0.
Se tiene que
f (x) − p(x)
0 = ϕn+1) (ξx ) = f n+1) (ξx ) − pn+1) (ξx ) − λ(n + 1)! = f n+1) (ξx ) − (n + 1)!
ωS (x)
de donde se deduce la igualdad. ■

Si tomamos Mn+1 = ∥f n+1) ∥∞,[a,b] , obtenemos las siguientes cotas de error:


Mn+1 Mn+1
∥f − p∥∞,[a,b] ≤ ∥ωS (x)∥∞,[a,b] ; ∥f − p∥∞,[a,b] ≤ (b − a)n+1
(n + 1)! (n + 1)!

6
Algoritmos de Construcción

Algoritmo de Newton

Fijados un soporte de n+1 puntos distintos S = {x0 , ..., xn } y unos valores reales {yi}n
cualesquiera, el algoritmo de Newton de construcción del polinomio de
interpolación consiste en buscar el polinomio de interpolación pn ∈ Pn [x] de la forma:
pn (x) = c0 + c1 (x − x0 ) + ... + cn (x − x0 )...(x − xn−1 )
Se trata de ir calculando los coeficientes de forma iterativa.

La ventaja del método es que permite la fácil incorporación de nuevos puntos al soporte,
pero si queremos calcular distintos polinomios con mismo soporte y distintos puntos
asociados, los cálculos son completamente distintos.

Algoritmo de Lagrange

Fijados un soporte de n+1 puntos distintos S = {x0 , ..., xn } y unos valores reales {yi}n
cualesquiera, el algoritmo de Lagrange de construcción del polinomio de
interpolación consiste en buscar el polinomio de interpolación pn ∈ Pn [x] de la forma:
pn (x) = y0 L0 (x) + ... + yn Ln (x)
donde Li ∈ Pn [x], tal que Li (xi ) = 1 y Li (xj ) = 0 para cada j ̸= i (es decir, es un p.i.
asociado a los valores canónicos {0, ..., 1, ..., 0}). No es difı́cil comprobar que Li (x) es
de la forma:
(x − x0 )...(x − xi−1 )(x − xi+1 )...(x − xn )
Li (x) = ∀i = 0, ..., n
(xi − x0 )...(xi − xi−1 )(xi − xi+1 )...(xi − xn )
El conjunto de polinomios {Li }n se llama la base de Lagrange asociada a los puntos
{xi }n , es decir, una base del espacio vectorial de polinomios de interpolación asociados
a dicho soporte.
Identificando el polinomio de interpolación con los valores {yi }n , la base de Lagrange
son los polinomios de interpolación correspondientes a la base canónica de Rn+1 .

La ventaja del método es que permite calcular distintos polinomios con mismo so-
porte y distintos puntos asociados fácilmente, pero si queremos añadir nuevos puntos
al soporte, es necesario calcular de nuevo la base de polinomios de Lagrange asociada.

Convergencia Uniforme

Sean f ∈ C 0 ([a, b]) y {Sn}n una sucesión de soportes contenidos en [a,b] tales que
Sn tiene n+1 puntos distintos. Sea pn el polinomio de interpolación asociado a f y Sn .
Se plantea la siguiente cuestión: ¿ Existe limn→∞ pn (x) = f (x), ∀x ∈ [a, b]?

La respuesta, en general, es negativa. Un ejemplo importante debido a Runge muestra


que para la función
1
f (x) = , x ∈ [−1, 1]
1 + 12x2
y soporte equidistante Sn de n+1 puntos distintos, se tiene que limn→∞ ∥f −pn ∥∞ = ∞.

7
Problema B (Interpolación global de Hermite)

Dada f ∈ C 1 ([a, b]) y un soporte S = {x0 < ... < xn } ⊆ [a, b] de n+1 puntos
distintos, consideramos el siguiente problema de interpolación:

Hallar p ∈ P2n+1 [x]tal que
p(xi ) = f (xi ), p′ (xi ) = f ′ (xi ), ∀i = 0, ..., n
Teorema C
(Existencia y Unicidad)

Fijados un soporte de n+1 puntos distintos S = {xi }n y unos valores reales {yi }n
y {zi }n cualesquiera, existe un único p.i. de los valores {xi , yi , zi }n , es decir existe un
único p ∈ P2n+1 [x] tal que p(xi ) = yi , p′ (xi ) = zi , i = 0, ..., n.

Demostración

Etapa 1: Reducción del problema de interpolación a un sistema lineal algebraico. Se


busca p ∈ P2n+1 [x] de la forma
p(x) = a0 + a1 x + ... + a2n+1 x2n+1

con ai ∈ R, i = 0, ..., 2n + 1 a determinar. Las condiciones de interpolación


p(xi ) = yi , p′ (xi ) = zi , representa una ecuación lineal respecto a las incógnitas ai , el
problema se reduce a resolver un problema de 2n+2 ecuaciones con 2n+2 incógnitas.

Etapa 2.Unicidad: Supongamos que existen p, q ∈ P2n+1 [x] tales que

p(xi ) = q(xi ) = yi , p′ (xi ) = q ′ (xi ) = zi , i = 0, ..., n


Sea r = p − q. Luego, r ∈ P2n+1 [x] y verifica

r(xi ) = 0, r′ (xi ) = 0, i = 0, ..., n


Como r es un polinomio con n+ 1 raı́ces, usando el Teorema de Rolle, deducimos que
r′ tiene (al menos) n raı́ces distintas, una en cada intervalo {(xi−1 , xi )}i , i = 0, ..., n.
Como estas raı́ces son distintas a las raı́ces xi para i = 0,..., n; r′ debe tener (al menos)
2n+1 raı́ces distintas. Pero r′ ∈ P2n [x], por tanto r′ ≡ 0, es decir r es igual a una
constante y teniendo en cuenta que r(xi ) = 0, necesariamente r ≡ 0.

Etapa 3.Existencia: La existencia es consecuencia de las dos etapas anteriores. ■

8
Teorema D
(Expresión del error y acotación)

Sea f ∈ C 2n+2 ([a, b]). Fijados un soporte S = {xi }n ⊆ [a, b], y los valores asocia-
dos {f (xi )}n , {f ′ (xi )}n y el p.i. p ∈ P2n+1 [x] tal que p(xi ) = f (xi ), p(xi ) = f ′ (xi ),
i = 0,...,n, entonces se tiene que ∀x ∈ [a, b], ∃ξx ∈ (a, b) tal que

f 2n+2) (ξx )
f (x) − p(x) = ωS (x)2
(2n + 2)!
donde ωS (x) = (x − x0 )(x − x1 )...(x − xn ) es el polinomio soporte asociado a S.

Demostración

Sea x ∈ [a, b].


Si x ∈ S, la expresión es cierta para cualquier ξx ∈ (a, b).

Si x ∈
/ S, consideremos la función auxiliar
ϕ(t) = f (t) − p(t) − λωS (t)2 , t ∈ R, λ ∈ R

tal que ϕ(x) = 0. Tenemos entonces


ϕ(xi ) = 0, ϕ′ (xi ) = 0, i = 0, ..., n; ϕ(x) = 0
Supongamos que x ∈ [xj−1 , xj ] para cierto j ∈ 1, ..., n. Aplicando el Teorema de Rolle,
deducimos que
1.Si i ̸= j, i = 1, ..., n; existe zi ∈ (xi−1 , xi ) tal que ϕ′ (zi ) = 0.
2.Existen zj,1 ∈ (xj−1 , x) y zj,2 ∈ (x, xj ) tales que ϕ′ (zj,1 ) = ϕ′ (zj,2 ) = 0.

Puesto que ϕ′ (xk ) = 0, k = 0,...,n; deducimos que ϕ′ se anula en al menos 2n+2


puntos distintos de [a,b]. Aplicando de nuevo el Teorema de Rolle, deducimos que ϕ′′
se anula en al menos 2n+1 puntos distintos de (a,b). Recursivamente deducimos ası́
que ϕ2n+2) admite al menos un cero ξx ∈ [a, b], utilizando que ϕ ∈ C 2n+2 ([a, b]).

Ahora bien, como p ∈ P2n+1 [x], tenemos ϕ2n+2) (t) = f 2n+2) (t) − λ(2n + 2)!.

Imponiendo la condición ϕ2n+2) (ξx ) = 0 obtenemos la expresión buscada. ■

Si tomamos M2n+2 = ∥f 2n+2) ∥∞,[a,b] , obtenemos las siguientes cotas de error:


M2n+2 M2n+2
∥f − p∥∞,[a,b] ≤ ∥ωS (x)∥2∞,[a,b] ; ∥f − p∥∞,[a,b] ≤ (b − a)2n+2
(2n + 2)! (2n + 2)!

9
2.2 Interpolación a trozos y convergencia uniforme
Se fija una partición P = {a = x0 < ... < xn = b} del intervalo [a,b] y se usa
la interpolación (simple) en cada subintervalo Ii = [xi−1 , xi ],i=1,...,n por polinomios
de grado ≤ m con m pequeño, m < n (en la práctica m = 1, 2, 3). Si llamamos
h = max1≤i≤n (xi − xi−1 ) (el diámetro de la partición), se trata de aproximar f en [a,b]
haciendo h → 0 (en particular n → ∞).

Problema C (Interpolación a trozos)

Dada f ∈ C 0 ([a, b]) y una partición P = {x0 < ... < xn } ⊆ [a, b]. Dado m ∈ N
i
(m pequeño en la práctica), en cada Ii = [xi−1 , xi ], elegimos un soporte Sm
de m+1 puntos distintos (por simplicidad considerando sus extremos):
i
Sm = {xi−1 , ξi,1 , ..., ξi,m−1 , xi }
El problema de interpolación a trozos consiste en

Hallar ph ∈ Vh = {qh ∈ C 0 ([a, b]) : qh |Ii ∈ Pm [x]} tal que
ph (xi ) = f (xi ), ∀i = 0, ..., n y ph (ξi,j ) = f (ξi,j ), ∀j = 1, ..., m − 1
Es claro que, gracias a la existencia y unicidad del polinomio de interpolación de la
i
función f en Sm ⊆ Ii , i = 0,...,n, se tiene la existencia y unicidad del polinomio de
interpolación a trozos ph . Notemos que, en cada Ii , la función ph es un polinomio de
grado ≤ m y que, en principio, ph es solo continua en los extremos de los subintervalos.
Por ejemplo, para m = 1 la interplación a trozos no es más que una poligonal.

Teorema E
(Estimaciones de error en norma uniforme)

Si f ∈ C m+1 ([a, b]), y tomamos Mm+1 = ∥f m+1) ∥∞,[a,b] entonces


Mm+1 m+1
∥f − p∥∞,[a,b] ≤ h
(m + 1)!
En consecuencia, limh→0 ∥f − ph ∥∞,[a,b] = 0 con orden de convergencia m+1.

Demostración

Dado x ∈ [a, b], existe i=1,...,n tal que x ∈ Ii . Luego, para cada i=1,...,n,
ph (x) = pim (x), siendo pim (x) el polinomio de interpolación asociado al soporte Sm
i
⊆ Ii .
Como f ∈ C m+1 ([a, b]), podemos usar el teorema sobre el error de interpolación de
Lagrange en cada subintervalo Ii , i=1,...,n y afirmar que
Mm+1
∥f − ph ∥∞,Ii ≤ ∥ωSm
i ∥∞,I
i
(m + 1)!
m+1
Usando que ∥ωSm
i ∥∞,I ≤ h
i
concluimos la demostración del teorema. ■

10
2.3 Splines
Se fija una partición P = {a = x0 < ... < xn = b} del intervalo [a,b] y unos
valores {yi }n ,se trata de construir funciones polinómicas a trozos (en cada subintervalo
Ii = [xi , xi+1 ],i=0,...,n-1) que interpolan los valores yi en los nodos xi (se obtienen ası́
funciones continuas globalmente) y además se les impone más regularidad global.

Definición
(Función spline)

Sean P = {a = x0 < ... < xn = b} una partición del intervalo [a,b], {yi }n unos
valores cualesquiera y k ∈ N. Diremos que sh : [a, b] → R es una función spline de
grado k que interpola {yi }n en {xi }n , si sh ∈ Vh con
Vh = {qh ∈ C k−1 ([a, b]) : qh |[xi−1 ,xi ] ∈ Pk [x], i = 1, ..., n}

y verifica sh (xi ) = yi , i = 0, ..., n.

Cuando k=1 se habla de un spline lineal (que coincide con la interpolante a trozos con
rectas), para k=2 se refiere a un spline cuadrático y k=3 corresponde a un spline cúbico.

Splines Cúbicos

Sea f ∈ C 0 ([a, b]). Se trata de determinar


sh ∈ Vh = {qh ∈ C 2 ([a, b]) : qh |Ii ∈ P3 [x], i = 0, ..., n − 1}
y que verifica sh (xi ) = f (xi ), i = 0, ..., n.

Para cada i=1,...,n, sh |Ii ∈ P3 [x] viene determinado por 4 coeficientes. Luego, como
hay n subientervalos, tenemos 4n incógnitas a determinar. Los grados de libertad
disponibles son:

1. 2n condiciones de interpolación:
sh |Ii (xi−1 ) = f (xi−1 ), i = 1, ..., n; sh |Ii (xi ) = f (xi ), i = 1, ..., n

2. 2n-2 condiciones al exigir a sh la regularidad global C 2 :


(sh |Ii+1 )′ (xi ) = (sh |Ii )′ (xi ), i = 1, ..., n − 1; (sh |Ii+1 )′′ (xi ) = (sh |Ii )′′ (xi ), i = 1, ..., n − 1
Tenemos pues 4n-2 ecuaciones para determinar 4n incógnitas. En consecuencia, sobran
dos incógnitas, que pueden encontrarse, por ejemplo, imponiendo una de las siguientes
dos condiciones sobre los extremos del intervalo:

a.Frontera Libre (Spline Natural)


s′′h (a) = 0, s′′h (b) = 0
a.Frontera sujeta (Spline Sujeto)
s′h (a) = f ′ (a), s′h (b) = f ′ (b)

11
Splines Cuadráticos
Sea f ∈ C 0 ([a, b]), P = {a = x0 < ... < xn = b} una partición del intervalo [a,b] e
Ii = [xi−1 , xi ], i=1,...,n. Determinar un spline cuadrático sh consiste en hallar sh tal
que
sh ∈ Vh = {qh ∈ C 1 ([a, b]) : qh |[xi−1 ,xi ] ∈ P2 [x], i = 0, ..., n − 1}
y que verifica sh (xi ) = f (xi ), i = 0, ..., n.

Para cada i=1,...,n, la restricción sh |Ii ∈ P2 [x] viene determinado por 3 coeficientes
y, como hay n subintervalos, tenemos 3n incógnitas a determinar. Por otra parte, de
entre los grados de libertad disponibles, hay 2n condiciones de interpolación y n-1
condiciones al exigir la regularidad global C 1 . En total son 3n-1 grados de libertad.

En consecuencia, sobra una incógnita, que se puede fijar por ejemplo con una condición
sobre la derivada en uno de los extremos, para tener existencia y unicidad de spline
cuadrático interpolador.

12
2.4 Mejor Aproximación Mı́nimos Cuadrados
Problema D (Ajuste de Curvas)

Dada f ∈ C 0 ([a, b]), hallar una función “fácil de calcular” g que se “ajuste” bien a
f en [a,b], es decir, que dist(f, g) ≤ ϵ, para una cierta distancia entre funciones.

Definición
(Mejor aproximación)

Sean (V, ∥.∥) espacio vectorial normado y U ⊆ V . Dado f ∈ V , decimos que u ∈ U es


mejor aproximación a f en U si se verifica que
∥f − u∥ ≤ ∥f − u∥∀u ∈ U
Mejor aproximación en normas Hilbertianas
Problema E (Mejor aproximación por mı́nimos cuadrados)

Sean V un espacio vectorial sobre R dotado de un producto escalar ⟨., .⟩ y U ⊆ V


un subespacio vectorial de V. Denotamos por ∥.∥ la norma en V inducida por el
producto escalar ⟨., .⟩ y consideramos f ∈ V un elemento de V a aproximar en U. El
problema se formula como sigue:

Dado f ∈ V, hallar u ∈ U tal que
∥f − u∥2 ≤ ∥f − u∥2 ∀u ∈ U
Teorema F
(Caracterización de mejor aproximación por mı́nimos cuadrados)

Sea (V, ⟨., .⟩) un espacio prehilbertiano, U ⊆ V un subespacio vectorial y f ∈ V dada.


Entonces, u ∈ U es mejor aproximación de f en U si y solo si f − u ∈ U ⊥ , es decir,
⟨f − u, u⟩ = 0, ∀u ∈ U . Además (en caso de existir), la mejor aproximación u es única.

Demostración

Supongamos que u es mejor aproximación de f en U. Sea u ∈ U y α ∈ R. Como


u + αu ∈ U , se tiene
∥f − u∥2 ≤ ∥f − (u + αu)∥2 = ∥f − u∥2 − 2α⟨f − u, u⟩ + α2 ∥u∥2
En consecuencia, 2α⟨f − u, u⟩ ≤ α2 ∥u∥2 . Dividiendo por α, tenemos

2⟨f − u, u⟩ ≤ α∥u∥2 , si α > 0
2⟨f − u, u⟩ ≥ α∥u∥2 , si α < 0
Haciendo α → 0, llegamos a ⟨f − u, u⟩ = 0, ∀u ∈ U .

Recı́procamente, sea u ∈ U cualquiera. Se tiene


∥f − u∥2 = ∥f − u + u − u∥2 = ∥f − u∥2 + 2⟨f − u, u − u⟩ + ∥u − u∥2 ≥ ∥f − u∥2
Aquı́, hemos usado la hipótesis de ortogonalidad ⟨f − u, u − u⟩ = 0, pues u − u ∈ U .

13
Unicidad. Del cálculo anterior, se tiene
∥f − u∥2 = ∥f − u∥2 + ∥u − u∥2 , ∀u ∈ U
de donde, en particular, se tiene la unicidad del Problema. ■

Teorema G

Sea (V, ⟨., .⟩) un espacio prehilbertiano, y f ∈ V dada. Si U ⊆ V , dim(U ) = N < ∞


y U = ⟨φ1 , ..., φN ⟩, entonces existe una única u ∈ U mejor aproximación de f en U
en el sentido de mı́nimos cuadrados, que viene caracterizada por el vector a ∈ RN de
coordenadas de u respecto de la base {φ1 , ..., φN } es la solución del sistema lineal de
ecuaciones normales.

Demostración

Supongamos que dim(U ) = N y que B = {φ1 , ..., φN } es una base de U,


U = ⟨φ1 , ..., φN ⟩. Entonces, gracias al Teorema F, u es la mejor aproximación en el
sentido de mı́nimos cuadrados a f ∈ V en U si y solo si
N
X
u= aj φj y ⟨f − u, u⟩ = 0, ∀u ∈ U
j=1

es decir, si y solo si,


N
X
⟨f − u, φi ⟩ = 0, ∀i = 1, ..., N ⇔ aj ⟨φi , φi ⟩ = ⟨f, φi ⟩, ∀i = 1, ..., N
j=1

Las igualdades previas pueden ser escritas como el siguiente sistema lineal:
Ga=b [Ecuaciones normales],G [Matriz Grammiana] donde
   
a0 ⟨f, φ1 ⟩
G = {⟨φi , φi ⟩}ni,j=1 ; a =  .  ; b =  . 
aN ⟨f, φN ⟩

Ahora bien, G es una matriz simétrica y definida positiva. En efecto, sea a ∈ RN − {0}
cualquiera, se tiene
N
X XN N
X N
X
t
a Ga = ⟨φi , φj ⟩ai aj = ⟨ ai φ i , aj φ j ⟩ = ∥ ai φi ∥2 > 0
i,j=1 i=1 j=1 i=1

porque N
P
i=1 ai φi ̸= 0 ya que el vector a ̸= 0 y los φi , i=1,...,N son linealmente
independientes. ■

14
Resolución de ecuaciones normales con base ortogonal

Para la resolución del sistema lineal de ecuaciones normales, las mejores bases {φ1 , ..., φN }
son las bases ortogonales y ortonormales respecto del producto escalar ⟨., .⟩, ya que
entonces la matriz grammiana es diagonal.
De hecho, si {φ1 , ..., φN } es una base ortogonal, i.e. ⟨φi , φj ⟩ = 0 para i ̸= j, entonces
la matriz Grammiana G es diagonal, con G = diag(∥φi ∥2 ) y, en consecuencia,
N
X ⟨f, φi ⟩
u= φi
i=1
∥φi ∥2

Para una base ortonormal, i.e. ⟨φi , φj ⟩ = δi,j , la matriz Grammiana G es la matriz
identidad, luego
XN
u= ⟨f, φi ⟩φi
i=1

Existen varias formas de conseguir bases ortogonales/ortonormales. A continuación,


mencionemos dos de ellas.
1. Proceso de ortogonalización de Gram-Schmidt. Sea {p1 , ..., pn } una base en U, para
construir una base ortogonal {q1 , ..., qn } en U, se sigue el proceso recurrente:
-q1 = p1
-(Iteración k) Dados {q1 , ..., qk−1 }, calcular
k−1
X ⟨pk , qi ⟩
qk = p k − qi
i=1
∥qi ∥2

2.Construcción directa. Por ejemplo, 1, cos(x), sen(x), cos(2x), sen(2x), ..., cos(nx), sen(nx)
es un sistema ortogonal en L2 (−π, π). Con un cambio de variable afı́n [a, b] ⇔ [−π, π],
llegamos a un sistema ortogonal en L2 (a, b).

15
Mejor aproximación en seminormas hilbertianas (caso discreto)

Sean {xi }M ⊆ [a, b] y {yi }M unos valores conocidos, V = C 0 ([a, b]) y U ⊆ V un


subespacio vectorial con dim(U ) = N el espacio de funciones aproximantes.

Problema E (Mejor aproximación a valores discretos)

El problema de mejor aproximación en U asociado a los valores {yi }M en el sentido


de mı́nimos cuadrados se formula como sigue:

Hallar u ∈ U tal que
PM 2
PM 2
k=1 |y k − u(x k )| ≤ k=1 |yk − u(xk )| , ∀u ∈ U

Vamos a definir el producto ⟨f, g⟩M = M


P
k=1 f (xk )g(xk ). Se trata de un semiproducto
0
escalar en C ([a, b]). Luego, el problema se escribe como:

Hallar u ∈ U tal que
∥y − u∥2M ≤ ∥y − u∥2M , ∀u ∈ U
Razonando ahora como en el caso “continuo” de normas hilbertianas, tenemos que
u ∈ U es mejor aproximación en U en el sentido de mı́nimos cuadrados discreto a y si
y solo si
⟨y − u, u⟩M = 0, ∀u ∈ U
es decir, Ga = b (ecuaciones normales discretas) con G = {⟨φi , φj ⟩M }N i,j=1 la matriz
Grammiana discreta, a = {ai }N los coeficientes de la mejor aproximación u respecto de
la base {φi }N y b = {⟨y, φi ⟩M }N .
Se tiene que G es una matriz simétrica y semidefinida positiva, porque
N
X
t
a Ga = ∥ ai φi ∥2 ≥ 0, ∀a ∈ RN
i=1

Además, G es definida positiva si y solo si ⟨., .⟩M es un producto escalar (y∥.∥M es


una norma) restringida al subespacio vectorial U (es decir, si ⟨u, u⟩M = 0 y u ∈ U
entonces u=0). Luego, en este caso, existe una única solución del sistema de ecuaciones
normales, y en consecuencia, del problema de mejor aproximación discreto.

16
3 Resolución Numérica de Ecuaciones Diferenciales Ordinarias (EDO)
3.1 Introducción al problema de valor inicial (PVI). Algunos resultados teóricos

Un problema de Cauchy (P.C.) asociado a un sistema de EDO de primer orden


(en forma normal) se escribe:
y ′ = f (t, y), t ∈ [t0 − T, t0 + T ], y(t0 ) = ỹ0 ,

donde f : [t0 − T, t0 + T ] × RN → RN e ỹ0 son dados.

Por simplicidad, en este tema analizaremos problemas de valor inicial (PVI) en donde
conocida la solución en t = t0 , se pretende aproximar en t ∈ [t0 , t0 + T ], y para EDO
escalares, es decir N = 1. (Las soluciones a izquierda son análogas).

Definición

Diremos que una función φ : [t0 , t0 + T ] → R es una solución en [t0 , t0 + T ] de


(PVI)  ′
y = f (t, y), t ∈ [t0 − T, t0 + T ],
y(t0 ) = ỹ0
si verifica φ ∈ C 1 ([t0 , t0 + T ]) tal que φ′ (t) = f (t, φ(t))∀t ∈ [t0 , t0 + T ] y φ(t0 ) = ỹ0 .

Resultados teóricos importantes de (PVI)

1. Sea f ∈ C 0 ([t0 , t0 + T ] × R), (f = f (t, y)) y localmente Lipschitz/y (respecto de


la segunda componente y), es decir
∀K ⊆ R compacto ∃LK > 0 tal que |f (t, y)−f (t, z)| ≤ LK |y−z|, ∀t ∈ [t0 , t0 +T ], ∀y ∈ K
Entonces existe una única solución local (definida en [t0 , t0 + ϵ]) y existe una única
solución maximal. Además, o bien la solución maximal φ está definida en todo
[t0 , t0 + T ], o bien existe T∗ ∈ (t0 , t0 + T ) tal que φ está definida en [t0 , T∗ ) y
limt→T∗− φ(t) = ∞ (explosión en tiempo finito).

2. Si f ∈ C 1 ([t0 , t0 + T ] × R), entonces la solución maximal φ ∈ C 2 ([t0 , t0 + T ]).


Además, φ′′ (t) = f 1) (t, φ(t)), conf 1) = ∂t f + f ∂y f .
Más generalmente, si f ∈ C k ([t0 , t0 + T ] × R), entonces la solución maximal
φ ∈ C k+1 ([t0 , t0 + T ]) y φk+1) (t) = f k) (t, φ(t)), conf k) = ∂t f k−1) + f ∂y f k−1) y f 0) = f .

3. Sea f ∈ C 1 ([t0 , t0 + T ] × R) y de clase C/y1


. Si f está acotada en [t0 , t0 + T ] × R
(∥f ∥∞ ≤ M ), entonces la solución maximal φ está definida en todo [t0 , t0 +T ]. Además,
∀t ∈ [t0 , t0 + T ],
|φ(t) − φ(t0 )| ≤ M |t − t0 |
4. Si f ∈ C 0 ([t0 , t0 + T ] × R) y globalmente Lipschitz/y (con constante de Lipschitz
L > 0), entonces la solución maximal φ está definida en todo [t0 , t0 + T ]. Además,
∀t ∈ [t0 , t0 + T ], se tiene (consecuencia del lema de Gronwall)
|φ(t) − φ(t0 )| ≤ T (maxt∈[t0 ,t0 +T ] |f (t, φ(t0 ))|) eL|t−t0 |

17
Vamos a considerar el análisis numérico de (PVI). Para ello, supondremos que
f ∈ C 0 ([t0 , t0 + T ] × R) y localmente Lipschitz/y

en consecuencia existe una única solución maximal φ de (PVI). Supondremos T > 0


tal que [t0 , t0 + T ] está contenido en el intervalo de solución maximal, luego siempre
tendremos una única

φ ∈ C 1 [t0 , t0 + T ] solución de (PVI)


Definiciones previas (por simplicidad)

T
h= ,N ∈ N
N
yn+1 − yn
δt yn+1 := (derivada discreta)
h
tn+1 = tn + h
h
tn+ 1 = tn +
2 2
h2
φ(tn+1 ) = φ(tn + h) = φ(tn ) + hφ′ (tn ) + φ′′ (ξn )
2
Veremos métodos iterativos de un paso y con paso de tiempo (o parámetro de
discretización) h.
Más concretamente, fijada una partición uniforme del intervalo
[t0 , t0 + T ]:t0 < ... < tn < tN = t0 + T, {tn = t0 + nh}N n=0 y, dado el valor de arranque
(inicialización) y0 ≈ ỹ0 = φ(t0 ), en cada paso de tiempo, dado yn ≈ φ(tn ) se trata de
calcular yn+1 ≈ φ(tn+1 ), tales que:

1. La solución exacta {φ(tn )}n verifique aproximadamente el esquema


(esquema consistente).

2. yn dependa continuamente de pequeñas perturbaciones del esquema


(esquema estable).

3. { yn }n aproxime a {φ(tn )}n cuando h → 0 (esquema convergente).

18
3.2 El método de Euler
(EE) 
y0 dado (inicialización)
δt yn+1 = f (tn , yn ), n = 0, ..., N − 1 (iteración n+1)
Consistencia y orden

Sea φ ∈ C 1 ([t0 , t0 + T ]) la solución exacta de (PVI). Se tiene:

Definición

Se llama error de consistencia de (EE) asociado a la solución φ al vector


N −1
ε(φ) = (εn (φ))n=0 siendo
φ(tn+1 ) − φ(tn )
εn (φ) = δt φ(tn+1 ) − f (tn , φ(tn )) ≡ − f (tn , φ(tn ))
h
el error de consistencia en el instante tn .

Definición

Diremos que el método (EE) es consistente (con la EDO y ′ = f (t, y)) si, para toda
solución φ de (PVI), se verifica que

limh→0 ∥ε(φ)∥∞ ≡ limh→0 (max0≤n≤N −1 |εn (φ)|) = 0


Definición

Diremos que el método (EE) es de orden (al menos) p > 0, si existen dos constantes
positivas K y h∗ (independientes de h) tal que
∥ε(φ)∥∞ ≤ Khp , ∀h ≤ h∗

Teorema A

Si φ ∈ C 2 ([t0 , t0 + T ]), entonces el método de Euler (explı́cito) (EE) es consistente


y de orden uno. Además, se verifica
h ′′
∥ε(φ)∥∞ ≤ ∥φ ∥∞;[t0 ,t0 +T ]
2
Demostración

Usando la definición anterior y desarrollando en serie de Taylor, tenemos


h ′′
εn (φ) = δt φ(tn+1 ) − φ′ (tn ) = φ (ξn ), para algún ξn ∈ (tn , tn+1 )
2
de donde se deduce el teorema. ■

19
Convergencia, orden de convergencia y estimaciones del error

Definición

(Error de discretización)
Se llama error de discretización de (EE) asociado a la solución φ al vector e = (en )N
n=0 ,
donde en = φ(tn ) − yn es el error de discretización (local) en el instante tn .

Definición

(Convergencia)
Diremos que el esquema (EE) es convergente si, bajo la condición limh→0 |e0 | = 0, se
verifica que
limh→0 ∥e∥∞ ≡ limh→0 (max0≤n≤N −1 |e|) = 0
Definición

(Orden de convergencia)
Diremos que el orden de convergencia de (EE) es (al menos) p > 0 si, partiendo una
condición inicial tal que |e0 | ≤ C0 hp , se verifica
∥e∥∞ ≤ Chp , ∀h ≤ h∗
para ciertas constantes positivas C0 ,C y h∗ independientes de h.

Definición

(Esquema acotado)
Diremos que el esquema (EE) es acotado si existe un compacto K ⊆ R tal que
yn ∈ K, ∀n = 0, ..., N ; ∀h ≤ h∗
A continuación se demostrarán dos resultados de carácter técnico que usaremos más
adelante.

Lema B

Sean (an )n≥0 , (bn )n≥0 dos sucesiones de números reales no negativos y K > 1 tales
que an+1 ≤ Kan + bn , ∀n ≥ 0. Entonces, se verifica
Kn − 1
an ≤ K n a0 + max0≤k≤n−1 |bk |
K −1
Demostración

Usando la hipótesis junto con la expresión explı́cita de una suma parcial geométrica,
podemos escribir
an ≤ Kan−1 + bn−1 ≤ K(Kan−2 + bn−2 ) + bn−1 = K 2 an−2 + Kbn−2 + bn−1 ≤ ...
≤ K n a0 + K n−1 b0 + K n−2 b1 + ... + Kbn−2 + bn−1
Kn − 1
≤ K n a0 + (K n−1 + K n−2 + ... + K + 1)max0≤k≤n−1 |bk | = K n a0 + max0≤k≤n−1 |bk |
K −1
de donde se deduce el resultado. ■

20
Lema C

Sean (an )n≥0 , (cn )n≥0 dos sucesiones de números reales no negativos y Λ > 0 tales
que an+1 ≤ (1 + hΛ)an + hcn , ∀n ≥ 0. Entonces, se verifica
enhΛ − 1
an ≤ enhΛ a0 + max0≤k≤n−1 |ck |
Λ
Demostración

Aplicando el Lema B para bn = hcn y K = 1 + hΛ, deducimos que


(1 + hΛ)n − 1
an ≤ (1 + hΛ)n a0 + max0≤k≤n−1 |ck |
Λ
Usando la desigualdad 1 + x ≤ ex , ∀x > 0, se llega al resultado.

Teorema D

(Estimaciones del error de discretización)


Supongamos que el esquema (EE) es acotado. Entonces existen dos constantes positivas
C1 y C2 independientes de n y h tales que se verifica la siguiente estimación del error
de discretización:
∥e∥∞ ≤ C1 |e0 | + C2 ∥ε(φ)∥∞ , ∀h ≤ h∗
Demostración

Usando el error de consistencia de (EE) y (EE) tenemos


φ(tn+1 ) = φ(tn ) + h(f (tn , φ(tn )) + εn (φ)) y yn+1 = yn + hf (tn , yn ). Restando y tomando
valores absolutos, llegamos a
|yn+1 − φ(tn+1 )| ≤ |yn − φ(tn )| + h|f (tn , yn ) − f (tn , φ(tn ))| + h|εn (φ)|
Usando que es un esquema acotado y que f es localmente Lipschitz/y , obtenemos
|yn+1 − φ(tn+1 )| ≤ (1 + LK h)|yn − φ(tn )| + h|εn (φ)|
donde K ⊆ R es un compacto que contiene a {φ(t) : t ∈ [t0 , t0 + T ]} y a
{yn : n = 0, ..., N }, ∀h ≤ h∗ , y LK > 0 es una constante de Lipschitz de f en el compacto
[t0 , t0 + T ] × K. Aplicando el Lema C con an = |yn − φ(tn )|, cn = |εn (φ)| y
Λ = LK , deducimos
e(tn −t0 )LK − 1
|en | ≤ e(tn −t0 )LK |e0 | + max0≤k≤N −1 |εk (φ)|, ∀n = 0, ..., N
LK
Luego, gracias a que tn − t0 ≤ T, ∀n, llegamos al resultado. ■

Usando los teorema A y D, tenemos

Corolario E

Bajo las hipótesis del Teorema D, supongamos además que φ ∈ C 2 ([t0 , t0 +T ]). Entonces
el método de Euler (EE) es convergente con orden de convergencia uno si |e0 | ≤ C0 h.
Además, se verifica la siguiente estimación del error de discretización:
h
∥e∥∞ ≤ C1 C0 h + C2 ∥φ′′ ∥∞;[t0 ,t0 +T ] , ∀h ≤ h∗
2

21
Estabilidad
La estabilidad estudia la dependencia continua del esquema (EE) respecto a los datos
del esquema. En concreto, se trata de comparar el esquema (EE) con un esquema
perturbado
(EPE) 
z0 = y0 + δ0 dado (inicialización)
δt zn+1 = f (tn , zn ) + δn , n = 0, ..., N − 1 (iteración n+1)
N −1
con (δn )n=0 ∈ RN .

Definición

(Error de estabilidad)
−1
Se llama error de estabilidad de (EE) al vector s = (sn )Nn=0 , donde sn = zn − yn es el
−1
error de estabilidad en el instante tn . Denotamos δ al vector (δn )N
n=0 .

Definición

Diremos que el método de Euler es estable si, para cada ε > 0, existen constantes
−1
γ > 0 y h∗ > 0 tal que, si δ = (δn )N
n=0 ∈ R
N
satisface ∥δ∥∞ ≤ γ, entonces,
∥s∥∞ ≤ ϵ, ∀h ≤ h∗

El hecho de que un esquema sea estable es fundamental para que dicho esquema sea
aplicable en la práctica.
La estabilidad es una propiedad difı́cil de demostrar con hipótesis generales. Aquı́, solo
veremos un caso muy particular, imponiendo que f sea globalmente Lipschitz respecto
de la variable y.

Teorema F

Supongamos que f es globalmente Lipschitz respecto de la variable y con constante


de Lipschitz L > 0. Entonces el método de Euler (EE) es estable. Además, se tiene la
siguiente estimación de estabilidad:
eT L − 1
∥s∥∞ ≤ eT L |δ0 | + ∥δ∥∞
L
Demostración

Denotemos por simplicidad sn = zn − yn el error de estabilidad. Restando (EE) y


(EPE), obtenemos s0 = δ0 y
sn+1 = sn + h(f (tn , zn ) − f (tn , yn ) + δn ), ∀n = 0, ..., N − 1

Usando que f es globalmente Lipschitz respecto de su segunda componente, llegamos a


que |sn | verifica la siguiente desigualdad recursiva:

|sn+1 | ≤ |sn | + hL|sn | + h|δn |

22
Aplicándolo el Lema C para an = |sn |, cn = |δn |, Λ = L y, teniendo en cuenta que
nh = tn − t0 , obtenemos la siguiente estimación

(tn −t0 )L e(tn −t0 )L − 1


|sn | ≤ e |s0 | + max0≤k≤n−1 |δk |
L
de donde se deduce fácilmente el resultado. ■

El resultado del Teorema continua siendo cierto si solo suponemos que f es localmente
Lipschitziana respecto de su segunda componente y que las sucesiones {yn } y {zn } están
acotadas en R respecto de h, ∀h ≤ h∗ . En efecto, basta razonar como en la prueba del
Teorema D, usando que f es globalmente Lipschitz/y en un compacto que contenga a
{yn } y {zn }.

El método de Euler implı́cito


Vamos a analizar ahora el método de Euler implı́cito con paso constante:
(EI) 
y0 dado (inicialización)
δt yn+1 = f (tn+1 , yn+1 ), n = 0, ..., N − 1 (iteración n+1)
Teorema G

Supongamos que f es globalmente Lipschitz/y con constante de Lipschitz L > 0 y h


es suficientemente pequeño tal que hL < 1. Entonces,

1. El esquema (EI) está bien definido (∀y0 ∈ R).

2. Supongamos además que φ ∈ C 2 ([t0 , t0 + T ]), entonces el esquema de Euler implı́cito


es consistente y de orden uno. El error de consistencia viene definido por
ε(φ) = (εn (φ))Nn=0 , donde εn (φ) = δt φ(tn+1 ) − f (tn+1 , φ(tn+1 )) y se verifica la siguiente
estimación:
h
∥ε(φ)∥∞ ≤ ∥φ′′ ∥∞;[t0 ,t0 +T ]
2
3. El método es convergente con orden de convergencia igual a uno si |e0 | ≤ C0 h y se
tiene la siguiente estimación del error de discretización e = (en )N n=0 , en = φ(tn ) − yn :
(tn −t0 )L
(tn −t0 )L e 1−hL −1
∥e∥∞ ≤ e 1−hL |e0 | + ∥ε(φ)∥∞
L
4. El método es estable y se verifica la siguiente estimación de estabilidad (global):
(tn −t0 )L
(tn −t0 )L e 1−hL −1
∥s∥∞ ≤ e 1−hL |s0 | + max0≤k≤n−1 |δn |
L
donde s = (sn )N
n=0 , sn = zn − yn y zn verifica el esquema como (EI) pero con
perturbaciones δn .

23
Demostración

1. Veamos que se trata de un método bien definido. En efecto, en cada etapa, hay
que resolver la ecuación no lineal:
yn+1 = yn + hf (tn + h, yn+1 )
con incógnita yn+1 y datos tn , yn , h. De forma genérica, tenemos que estudiar la ecuación
no lineal
z = g(z) := y + hf (t + h, z)
con incógnita z ∈ R y datos t,y,h. La aplicación g : R → R es continua. Además,
veamos que g es contractiva en R, con lo que la ecuación anterior tiene una única
solución z = z(t, y, h) ∈ R. En efecto,
|g(z1 ) − g(z2 )| = h|f (y, z1 ) − f (y, z2 )| ≤ hL|z1 − z2 |
Aquı́, hemos usado el carácter globalmente Lipschitz de f. Luego la hipótesis hL < 1
implica la contractividad de g en K.

2. Supongamos además que φ ∈ C 2 ([t0 , t0 + T ]). Desarrollando en serie de Taylor


tenemos
h2
φ(tn ) = φ(tn + h − h) = φ(tn+1 ) − hφ′ (tn+1 ) + φ′′ (ηn ), ηn ∈ (tn , tn+1 )
2
Luego εn (φ) = δt φ(tn+1 ) − φ′ (tn+1 ) = h2 φ′′ (ηn ), de donde se tiene el resultado. En
particular esto implica que el esquema es consistente y de orden uno.

3. Tenemos que δt φ(tn+1 ) = f (tn+1 , φ(tn+1 )) + εn (φ) y δt yn+1 = f (tn+1 , yn+1 ).


Restando ambas expresiones y razonando de forma análoga a la demostración del
Teorema D llegamos al resultado.
Usando la cota del error de consistencia de (2) y que |e0 | ≤ Ch se deduce la
convergencia del método y que el orden de convergencia es igual a uno.

4. Consideramos el esquema (EI) y una perturbación del mismo: z0 dado, δt zn+1 =


f (tn+1 , zn+1 ) + δn , n = 0, ..., N − 1. Pongamos sn = yn − zn . Restando ambos esquemas,
tenemos:
sn+1 = sn + h(f (tn+1 , yn+1 ) − f (tn+1 , zn+1 ) − δn )
Luego, llegamos a que |sn | verifica la siguiente desigualdad recursiva:
|sn+1 | ≤ |sn | + hL|sn+1 | + h|δn |
de donde
(1 − hL)|sn+1 | ≤ |sn | + h|δn | ⇒ |sn+1 | ≤ (1 − hL)−1 |sn | + (1 − hL)−1 h|δn |
pues hL < 1. Usando que
L
(1 − hL)−1 = 1 + h
1 − hL
podemos aplicar el Lema C de estimación recursiva, para an = |sn |, Λ = L(1 − hL)−1
y cn = (1 − hL)−1 |δn |, se llega a la estimación buscada. Esto prueba que el método de
Euler implı́cito es estable (con constantes de estabilidad mayores que para el método
de Euler explı́cito). ■

24
3.3 Métodos generales de un paso
(G1P) 
y0 dado (inicialización)
δt yn+1 = ϕ(tn , yn , h), n = 0, ..., N − 1 (iteración n+1)
donde ϕ : [t0 , t0 +T ]×R×[0, h∗ ] → R una función continua dada (depende de la función
f del (PVI)) y h∗ > 0. Los conceptos de consistencia, estabilidad y convergencia
considerados para el método de Euler (EE) se pueden generalizar para el esquema
(G1P), obteniendo resultados generales de consistencia, estabilidad y convergencia.

Consistencia y orden
−1
El error de consistencia asociado al esquema (G1P) viene definido por ε(φ) = (εn (φ))N
n=0
siendo
εn (φ) = δt φ(tn+1 ) − ϕ(tn , φ(tn ), h)
Se tiene
h2 ′′ h3 ∂ϕ h2 ∂ 2 ϕ
εn (φ) = φ′ (tn )+ φ (tn )+ φ′′′ (tn )+...−ϕ(tn , φ(tn ), 0)−h (tn , φ(tn ), 0)− (tn , φ(tn ), 0)−...
2! 3! ∂h 2! ∂ 2 h
1 ∂ϕ
= (f (tn , φ(tn )) − ϕ(tn , φ(tn ), 0)) + h( f ′ (tn , φ(tn )) − (tn , φ(tn ), 0))
2 ∂h
h2 1 ∂ 2ϕ
+ ( f ′′ (tn , φ(tn )) − 2 (tn , φ(tn ), 0)) + ...
2! 3 ∂ h
Teorema H

Supongamos que f ∈ C 1 ([t0 , t0 + t] × RN ). Entonces el método (G1P) es consistente si


y solo si
ϕ(t, y, 0) = f (t, y), ∀(t, y) ∈ [t0 , t0 + t] × RN
Más aún, si f ∈ C p ([t0 , t0 + t] × R), p ∈ N (en particular φ ∈ C p+1 [t0 , t0 + T ]) y existen y
2 p
son continuas ∂ϕ , ∂ ϕ , ..., ∂∂ p ϕh , entonces (G1P) tiene orden de consistencia exactamente
∂h ∂ 2 h
p si y solo si ∀(t, y) ∈ [t0 , t0 + t] × RN se verifica
∂ϕ 1
ϕ(t, y, 0) = f (t, y); (t, y, 0) = f ′ (t, y); ...;
∂h 2
∂ p−1 ϕ 1 p−1) ∂ pϕ 1
p−1
(t, y, 0) = f (t, y); p
(t, y, 0) ̸= f p) (t, y)
∂ h p ∂ h p+1
Además, en este caso, ∥ε(φ)∥∞ ≤ Khp para cierta constante K > 0 independiente
de h.

25
Convergencia, orden de convergencia y estimaciones del error

Teorema I

Si el esquema (G1P) es acotado y ϕ es localmente Lipschitzy , entonces

(tn −t0 )ΛK e(tn −t0 )ΛK − 1


|en | ≤ e |e0 | + max0≤n≤N −1 |εn (φ)|
ΛK
donde en = φ(tn ) − yn y ΛK > 0 es una constante de Lipschitz/y de ϕ en un compacto
[t0 , t0 + T ] × K con K ⊆ R un compacto que contiene a {φ(t) : t ∈ [t0 , t0 + T ]} y al
esquema (yn ), ∀h ≤ h∗ . Si |e0 | ≤ C0 hp , para cierta constante C0 independiente de h, y
el esquema tiene orden (de consistencia) p > 0, entonces

e(tn −t0 )ΛK − 1


|en | ≤ e(tn −t0 )ΛK C0 hp + Khp
ΛK
En particular, el esquema es convergente con orden de convergencia p.

Demostración

Como la solución exacta φ de (PVI) verifica δt φ(tn+1 ) = ϕ(tn , φ(tn ), h) + εn (φ) y


δt yn+1 = ϕ(tn , yn , h), razonando como para (EE) llegamos al primer resultado.

Por otra parte, gracias a que el orden de consistencia es p y que ∥ε(φ)∥∞ ≤ Khp
(por el Teorema H), llegamos fácilmente al segundo resultado, de donde concluimos la
prueba del teorema. ■

26
Estabilidad
(G1PP) 
z0 dado (inicialización)
δt zn+1 = ϕ(tn , zn , h) + δn , n = 0, ..., N − 1 (iteración n+1)
Como en el caso del esquema de Euler, en el apartado de estabilidad supondremos que
la función ϕ es globalmente Lipschitz/y con constante de Lipschitz Λ > 0.

Teorema J

Si ϕ es globalmente Lipschitz/y con constante de Lipschitz Λ > 0, entonces el método


(G1P) es estable. Además, se verifica la siguiente estimación de estabilidad:

e(tn −t0 )Λ − 1
|sn | ≤ e(tn −t0 )Λ |s0 | + max0≤k≤N −1 |δk |
Λ
donde sn = zn − yn , ∀n ≥ 0.

Demostración

Restando (G1P) y (G1PP), obtenemos


sn+1 = sn + h(ϕ(tn , yn , h) − ϕ(tn , zn , h) − δn )
Luego, llegamos a
|sn+1 | ≤ |sn | + hΛ|sn | + h|δn |
Aplicando el Lema C deducimos el resultado, luego el método es estable. ■

Corolario K
(Teorema de Lax)

Si el método (G1P) es estable y consistente, entonces es convergente.

Demostración

Gracias a la estabilidad, tenemos el Teorema I para ΛK = Λ. Usando la


consistencia, sabemos que lımh→0 ∥ε(φ)∥∞ = 0, lo que prueba la convergencia del
método (G1P). ■

27
3.4 Métodos de Taylor
Hemos visto que cuanto más grande sea p, más rápido converge el método. Interesa, por
tanto idear métodos de un paso con p elevados. Dado p ∈ N, la idea más simple para
construir un método de orden p es utilizar el desarrollo de Taylor. Más concretamente,
tenemos
h2 hp+1 p+1)
φ(tn+1 ) = φ(tn ) + hφ′ (tn ) + φ′′ (tn )... + φ (ξn )
2! (p + 1)!
h2 ′ hp+1 p−1)
= φ(tn ) + hφ′ (tn ) + f (tn , φ(tn )) + ... + f (tn , φ(tn )) + O(hp+1 )
2! (p + 1)!
siendo ξn ∈ (tn , tn+1 ). Aproximando φ′ (tn ) ≈ φ(tn+1h)−φ(tn ) , llegamos al método de
Taylor, es decir al esquema (G1P) para la función ϕ definida
h hp−1 p−1)
ϕ(t, y, h) = f (t, y) + f ′ (t, y) + ... + f (t, y)
2 p!
Para esta función ϕ, el Teorema H se verifica trivialmente, luego el método de Taylor
es de orden p > 0.
p−1
Por otra parte, este método es estable si las {f n) }n=0 son globalmente Lipschitz/y con
p−1
constantes de Lipschitz {Li }n=0 .
En efecto, según el Teorema J, basta comprobar que ϕ es globalmente Lipschitziana
p−1
respecto de su segunda variable con constante de Lipschitz Λ = L1 + h2 L2 +...+ h p! Lp−1 .
Luego, el método converge con orden de convergencia p.

No obstante, el método de Taylor posee las siguientes inconvenientes: las expresiones


de las {f n) }p−1
n=0 son complejas y se requieren muchas evaluaciones de derivadas parciales
de f hasta el orden p-1. Esto hace que, en la práctica el método de Taylor no se use
con frecuencia.

28
3.5 Métodos de Runge-Kutta (explı́citos)
La idea principal de los métodos de Runge-Kutta es, dado p ∈ N, obtener esquemas
de orden al menos p, sin usar derivadas parciales de f, sino evaluaciones de f en puntos
intermedios entre (tn , yn ) y (tn+1 , yn+1 ).

(RK)

 y0 dado (inicialización)
δt yn+1 = qi=1 bi ki , n ≥ 0 (iteración n+1)
P

siendo ki = f (tn + ci h, yn + h i−1


P
j=1 aij kj ); i = 1, ..., q; c1 = 0; ci , bi ∈ R, aij ∈ R

En (RK), los parámetros que podemos elegir son q, bi , ci , aij . Obsérvese que c1 = 0, es
decir, k1 = f (tn , yn ). Se trata de un método de un paso para
q
X
ϕ(t, y, h) = bi ki
i=1

El método P (RK) es consistente si b1 + ... + bq = 1, ya que en este caso se verifica


ϕ(t, y, 0) = qi=1 bi f (t, y) = f (t, y).
Por otra parte, este método es estable si f globalmente Lipschitziana/y .
En efecto, si L > 0 es la constante de Lipschitz de f, tenemos que ϕ es globalmente Lipschitziana/y
con constante de Lipschitz
q i−1
X X
Λ=L |bi |Li ; L1 = L; Li = L(1 + h |aij |Lj ), i ≥ 2
i=1 j=1

El orden del método depende de la elección de los parámetros.

29
3.6 Problemas de Contorno (P.Co) para EDO
(P.Co)
y ′′ = f (x, y, y ′ ), x ∈ [a, b]

y(a) = α, y(b) = β
donde f : [a, b] × R × R → R es una función continua dada y a, b, α, β ∈ R.
Los problemas de contorno no siempre tienen solución (y si la tienen, no tiene por qué
ser única).

Teorema L

Supongamos que f, ∂y f y ∂z f son continuas en [a, b] × R × R y que además existen


dos constantes positivas M y N tales que
0 < ∂y f ≤ M < ∞, |∂z f | ≤ N

(en particular f es globalmente Lipschitz respecto de (y,z)).


Entonces, para cada α, β ∈ R, existe una única solución φ ∈ C 2 ([a, b]) del problema
(P.Co).
En el caso de una EDO lineal, consideramos el siguiente problema de contorno:

(P.CoL)
y ′′ = p(x)y ′ + q(x)y + r(x), x ∈ [a, b]

y(a) = α, y(b) = β
Corolario M

Supongamos que p, q, r ∈ C 0 ([a, b]) y q > 0 en [a,b]. Entonces (P.CoL) posee


exactamente una solución.

Se puede considerar otro tipo de condiciones de contorno para la ecuación


diferencial en (P.CoL).
Por ejemplo, en vez de condiciones de contorno de Dirichlet que aparecen en (P.CoL)
podemos considerar condiciones de Neumann y ′ (a) = α, y ′ (b) = β o bien condiciones
mixtas.

30
3.7 Método de las diferencias finitas para (P.Co) lineales
Supondremos las hipótesis del Corolario M: p, q, r ∈ C 0 ([a, b]) y q > 0 en [a,b].

Sea N ∈ N dado. Dividimos el intervalo [a,b] en N+1 subintervalos


(por simplicidad) equidistantes, de longitud h = Nb−a
+1
, con nodos
a = x0 < ... < xN +1 = b, siendo xj = a + jh; j=0,...,N +1.
Se trata de calcular yj ≈ φ(xj ), j = 1, ..., N . Para ello, se aproximan derivadas por
cocientes incrementales (centrados) de segundo orden:
φ(xj+1 ) − 2φ(xj ) + φ(xj−1 ) h2 4)
φ′′ (xj ) = − φ (ηj ), ηj ∈ (xj−1 , xj+1 )
h2 12
2
φ(xj+1 ) − φ(xj−1 ) h 3)
φ′ (xj ) = − φ (ξj ), ξj ∈ (xj−1 , xj+1 )
2h 6
Usando estas aproximaciones llegamos a:
(PD) 
y0 = α, yN +1 = β
yj+1 −2yj +yj−1 y −y
h2
= p(xj ) j+12h j−1 + q(xj )yj + r(xj ); j = 1, ..., N
El cálculo de la solución de este esquema se reduce a hallar y = (yj )N ∈ RN solución
del sistema lineal Ay = b, donde
 
2 + h2 q(x1 ) −1 + h2 p(x1 ) 0 0 ... 0 0
−1 − h p(x2 ) 2 + h2 q(x2 ) −1 + h p(x2 ) 0 ... 0 0 
 2 2 
h 2 h
A=  0 −1 − 2 p(x3 ) 2 + h q(x3 ) −1 + 2 p(x3 ) ... 0 0 

 ... ... ... ... ... ... ... 
h
0 0 0 0 ... −1 − 2 p(xN ) 2 + h2 q(xN )
 
(1 + h2 p(x1 ))α − h2 r(x1 )

 −h2 r(x2 ) 

b=  ... 

2
 −h r(xN −1 ) 
h 2
(1 − 2 p(xN ))β − h r(xN )
La matriz A es tridiagonal pero no es simétrica en general. De hecho, si p ≡ 0, entonces
A es tridiagonal y de diagonal estrictamente dominate, en particular A es definida pos-
itiva. Por tanto, en este caso el problema discreto (PD) tiene una única solución.

Para el caso general, veamos hipótesis sobre h para que la matriz A sea de diagonal
estrictamente dominate. Queremos verificar:
h h
|2 + h2 q(x1 )| > | − 1 + p(x1 )|; |2 + h2 q(xN )| > | − 1 − p(xN )|
2 2
h h
|2 + h2 q(xj )| > | − 1 + p(xj )| + | − 1 − p(xj )|; j = 2, ..., N − 1
2 2
h 2
Suponiendo h pequeño tal que 2 |p(x)| ≤ 1, ∀x ∈ [a, b], es decir h ≤ maxx∈[a,b] |p(x)|
se
cumplen las 3 desigualdades. En consecuencia, entonces A es de diagonal estrictamente
dominante, luego en particular A es regular para h suficientemente pequeño y el
problema discreto (PD) admite una única solución.

Podemos considerar también otras condiciones de contorno, por ejemplo de tipo Neu-
mann, Dirichlet-Neumann y algunas condiciones mixtas.

31

También podría gustarte