Está en la página 1de 76

Universidad de Los Andes

Facultad de Ciencias
ticas
Departamento de Matema
n
Grupo de Ciencias de la Computacio

Soluci
on Num
erica de Problemas de Valor de Frontera
para Ecuaciones Diferenciales Ordinarias1

rquez
Br. Luis Jos
e Berbes Ma
Trabajo Especial de Grado
Para Optar al Ttulo de
ticas.
Licenciado en Matema
n.
Tutor: Dr. Giovanni Caldero

M
erida-Venezuela
2010
1

Este trabajo fue parcialmente financiado por Consejo de Desarrollo Cientfico Humanstico y Tecnol
ogico, CDCHT ULA, bajo el proyecto C - 1687 - 10 - 02 - ED

RESUMEN
En muchas
areas de las Ciencias B
asicas e Ingeniera existen problemas donde es necesario encontrar
la soluci
on de una Ecuaci
on Diferencial Ordinaria. Este tipo de problema, representa en la actualidad,
uno de los temas b
asicos del An
alisis Numerico. Un caso particular, el cual representar
a la base de este
trabajo, est
a dado por encontrar la aproximaci
on de la soluci
on de un Problema de Valor de Frontera
(PVF) de segundo orden, esto es, aproximar la soluci
on de la ecuaci
on diferencial ordinaria:

y = f (x, y, y ),
y(a) = ,

y(b) = .

En los u
ltimos a
nos, se han introducido en la literatura una variedad de metodos numericos para resolver
este problema.
En este trabajo se estudian cinco metodos para estimar la soluci
on del problema planteado. Estos
metodos son: el metodo del Disparo y Diferencias Finitas, considerados cl
asicos en la literatura puesto
que est
an presentes en la mayora de los textos de An
alisis Numerico que abordan el problema propuesto,
el metodo de los Elementos Finitos y Galerkin Discontinuo, los cuales parten de la teora de Espacios
Normados y del An
alisis Funcional, y el metodo Bvp4c, un metodo que usa la idea se superposicion y el
mismo se encuentra implementado en Matlab.

Indice general

Introducci
on

III

1. Preliminares

1
O(hn )

1.1. Orden de aproximaci


on
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2. Teora de Algebra


Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.3. Teora de Ecuaciones Diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4. Teora de An
alisis Funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4.1. Los espacios normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4.2. El espacio euclidiano y el espacio unitario . . . . . . . . . . . . . . . . . . . . . . .

1.4.3. Funcionales lineales

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4.4. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4.5. El Teorema de Lax - Milgram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.5. Metodo de Newton Raphson y Runge Kutta . . . . . . . . . . . . . . . . . . . . . . . . . .

2. M
etodos Num
ericos para aproximar la soluci
on de un Problema de Valor de Frontera
de segundo orden
11
2.1. Metodo del Disparo

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2.1.1. Planteamiento para el caso

2.1.2. Planteamiento para el caso

p(x)y

f (x, y, y )

+ q(x)y + r(x) . . . . . . . . . . . . . . . .

11
12

. . . . . . . . . . . . . . . . . . . . . . .

14

2.2. Metodo de Diferencias Finitas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17

2.2.1. Planteamiento para el caso

2.2.2. Planteamiento para el caso

p(x)y

f (x, y, y )

+ q(x)y + r(x) . . . . . . . . . . . . . . . .

17

. . . . . . . . . . . . . . . . . . . . . . .

20

2.3. Metodo de Elementos Finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

2.3.1. Formulaci
on debil de un problema modelo unidimensional . . . . . . . . . . . . . .

23

2.3.2. El MEF para el problema modelo con funciones lineales a trozos . . . . . . . . . .

24

2.3.3. Integraci
on numerica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

2.4. Metodo Galerkin Discontinuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

28

2.4.1. Formulaci
on debil de un problema modelo unidimensional . . . . . . . . . . . . . .

28

Indice General
2.4.2. Derivaci
on del sistema lineal A = b mediante el uso de polinomios discontinuos a
trozos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.3. Construcci
on de la matriz A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31
32

2.4.4. Construcci
on del vector b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5. Metodo Bvp4c . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

34
36

3. Experimentaci
on Num
erica

39

A. Pruebas de algunas afirmaciones

65

A.1. Correspondientes al Metodo del Disparo . . . . . . . . . . . . . . . . . . . . . . . . . . . .


A.2. Correspondientes al Metodo de Diferencias Finitas . . . . . . . . . . . . . . . . . . . . . .
Referencias

65
66
68

ii

Introducci
on

En muchas
areas de las Ciencias B
asicas e Ingeniera existen problemas donde es necesario encontrar la
soluci
on de una Ecuaci
on Diferencial Ordinaria. Estas describen fen
omenos que cambian frecuentemente.
Com
unmente, una soluci
on de interes est
a determinada especificando los valores de todas sus componentes
en un punto x = a. Esto es un Problema de Valor Inicial. Sin embargo, en muchas ocasiones, una soluci
on
est
a determinada en m
as de un punto. Un problema de este tipo es denominado Problema de Valor de
Frontera (PVF). Un PVF muy trabajado en la actualidad son los de segundo orden, es decir, los PVF
que se especifican en dos puntos:

y = f (x, y, y ),
y(a) = ,

y(b) = .

Los PVF de segundo orden suelen ser comunes en todas las ramas de las Ciencias Experimentales.
Por ejemplo, en Fsica, las leyes de Newton y muchas otras se expresan como un problema de este tipo,
en Biologa aparecen en el modelado de din
amica de poblaciones, en la Qumica surgen en la evaluaci
on
de las concentraciones de diversos reactivos durante una reacci
on, etc.
A lo largo de los a
nos se han desarrollado tecnicas para encontrar la soluci
on analtica a Ecuaciones
Diferenciales Ordinarias, y por ende, la soluci
on de los PVF que surgen de los modelos anteriormente mencionados. Sin embargo, resulta habitual que en la mayora de los casos no se conozca la soluci
on analtica
de la misma, y s
olo estudios cualitativos de dichas ecuaciones son presentados en la literatura. Debido a
esto, en la pr
actica, resulta impetuoso usar metodos numericos para dar aproximaciones numericas de la
soluci
on (aproximaciones tan buenas como se quiera).
Hoy en da, en la literatura, existen muchos metodos que ayudan a estimar la soluci
on de un PVF de
segundo orden, y es por esta raz
on, que este trabajo se concentrar
a en el estudio de cinco de ellos. Estos
metodos son: el metodo del Disparo y Diferencias Finitas (ver [9, 18]), considerados cl
asicos dentro de la
literatura, el metodo de los Elementos Finitos y Galerkin Discontinuo (ver [3, 17] y [1], respectivamente),
los cuales se fundamentan en resultados del An
alisis Funcional, y el metodo Bvp4c (ver [14]), un metodo
que usa la idea se superposici
on y el mismo se encuentra implementado en Matlab.
Las implementaciones numericas de los cinco metodos mencionados es llevada a cabo en Matlab. No
obstante, por considerarlo irrelevante, los c
odigos no son dados explcitamente.
En general, el trabajo queda dividido de la siguiente manera: en el Captulo 1 se desarrollan los preliminares teoricos necesarios para abordar adecuadamente el estudio de los cinco metodos. Se introducen

resultados del Algebra


Lineal (ver [2]), Ecuaciones Diferenciales (ver [7]) y An
alisis Funcional (ver [3, 17]).
As mismo, se introducen el metodo de Newton Raphson, tanto para una ecuaci
on como para un sistema
de ecuaciones no lineales, y el metodo de Runge Kutta, para resolver Problemas de Valor Inicial de
iii

Introducci
on
Ecuaciones Diferenciales Ordinarias, estudiados en un curso b
asico de An
alisis Numerico, necesarios al
momento de definir los metodos numericos. En el Captulo 2 se expondr
an cada uno de los cinco metodos
que se emplear
an para aproximar la soluci
on de un PVF de segundo orden. Se presenta la construcci
on de
cada metodo, y en mucho de ellos, el an
alisis del error. En el u
ltimo captulo se har
a una breve discusi
on,
m
as que comparaci
on, sobre la eficiencia y propiedades de cada uno de estos metodos, esto en vista de
que no se presentan las condiciones adecuadas para realizar una comparaci
on detallada y
optima entre
ellos. En el Apendice A se realizan las demostraciones de varios teoremas presentes en el Captulo 2. Por
u
ltimo, la Bibliografa presenta las referencias literarias usadas.

iv

1
Preliminares

En este captulo se expondr


an los preliminares matem
aticos necesarios para abordar adecuadamente
el estudio de los metodos numericos usados para aproximar la soluci
on de problema de valor de frontera
de segundo orden. As pues, el objetivo principal de este captulo es el desarrollo de las herramientas
matem
aticas comunmente usadas en el planteamiento y an
alisis de estos metodos numericos. Al mismo
tiempo, se introducen el metodo de Newton Raphson, tanto para una ecuaci
on como para un sistema de
ecuaciones no lineales, y el metodo de Runge Kutta para resolver Problemas de Valor Inicial de Ecuaciones
Diferenciales Ordinarias, estudiados en un curso b
asico de An
alisis Numerico, necesarios al momento de
definir los metodos usados en este trabajo.
Es importante resaltar que los resultados que se desarrollan en el presente captulo no ser
an tratados
de forma detallada por completo, pues el objetivo es s
olamente dejar asentado un material de repaso,
cuyo conocimiento es importante para entender el resto de este trabajo. Muchos de estos temas se tratan

de modo mas amplio en algunos textos de An


alisis Numerico (ver [6, 12, 18]), Algebra
Lineal (ver [2]),
Ecuaciones Diferenciales (ver [7]) y An
alisis Funcional (ver [3]).

1.1.

Orden de aproximaci
on O(hn )

Definici
on 1.1 Se dice que f (h) es de orden g(h) cuando h 0 y h 6= 0, se denotar
a por f (h) = O(g(h)),
si existen n
umeros reales M > 0 y k > 0 tales que,
|f (h)| M |g(h)|, siempre que |h| < k.
Ejemplo 1.1 Consideremos las funciones f (x) = x3 + 2x2 y g(x) = x2 . Puesto que, x3 < x2 para |x| 1,
se obtiene, |x3 + 2x2 | < 3|x2 |. Por lo tanto, f (x) = O(g(x)).
Definici
on 1.2 Sean p y f funciones, se dice que p(h) aproxima a f (h) con un orden de aproximaci
on
O(hn ), lo que se denota por f (h) = p(h) + O(hn ), si existe un n
umero real M > 0 y un n
umero natural
n tales que,
|f (h) p(h)|
M, para h suficientemente peque
no.
|hn |
Al considerar el caso en que p(x) es la n-esima aproximaci
on por polinomios de Taylor a f (x) alrededor
de x0 , es decir
n
X
f (k) (x0 )
f n+1 (c)
f (x) =
(x x0 )k +
(x x0 )n+1 ,
k!
(n + 1)!
k=0

Captulo 1: Preliminares
para alg
un c entre x y x0 . Cuando x x0 0, por la definici
on 1.1 se tiene que
O((x x0 )n+1 ) =

f n+1 (c)
(x x0 )n+1 ,
(n + 1)!

as, f (x) = p(x) + O((x x0 )n+1 ), es decir, p(x), con p(x) el primer termino del lado derecho de la
igualdad, se aproxima a f (x) con un orden de aproximaci
on O((x x0 )n+1 ). Luego, el Teorema de Taylor
se puede enunciar de la siguiente forma:
Teorema 1.1 (Teorema de Taylor) Si f C n+1 [a, b] y x0 [a, b], entonces para cada x [a, b],
f (x0 + h) =

n
X
f (k) (x0 )
k=0

1.2.

k!

hk + O(hn+1 ), donde h = x x0 .

Teora de Algebra
Lineal

Definici
on 1.3 Se dice que una matriz A de n n es invertible, si existe una matriz A1 de n n, con
AA1 = A1 A = I, donde I es la matriz identidad. La matriz A1 se llama inversa de A. Una matriz
que no tiene inversa se le da el nombre de no invertible o singular.
Definici
on 1.4 (Matriz tridiagonal)
siempre que |i j| > 1. Esto es,

a11

a21

0
A=
..
.

..
.
0

Una matriz A = (aij ) de n n se dice tridiagonal si aij = 0,


a12

a22 a23

..
.

0
..
.
..
.

..
.
a32 a33 a34
..
..
..
..
.
.
.
.
0
..
..
..
.
.
.
an1,1

0 an,n1
ann

Ahora bien, en muchas ocasiones estamos interesados en saber que condiciones debe cumplir una
matriz tridiagonal para que sea invertible. Dichas condiciones nos los da el siguiente teorema.
Teorema 1.2 Sea A una matriz tridiagonal, con entradas [A]ij = ai,j . Supongamos que, para cada i =
2, 3, . . . , n 1, se cumple ai,i1 ai,i+1 6= 0. Si |a11 | > |a12 |, |aii | |ai,i1 | + |ai,i+1 |, para i = 2, 3, . . . , n 1
y |ann | > |an,n1 |, entonces A es invertible.
Demostraci
on: Ver referencia [9], Captulo 2, Secci
on 3, p
ag. 56.

1.3.

Teora de Ecuaciones Diferenciales

Es bien conocido en el quehacer cientfico, bien sea en las ciencias puras o la ingeniera, la utilidad
de las ecuaciones diferenciales. El estudio de las ecuaciones diferenciales han influenciado el desarrollo
de varias
areas de las matem
aticas, como es el caso de la Topologa, el An
alisis Real, y nuestra
area de
estudio: el An
alisis Numerico.
A lo largo de los a
nos se han desarrollado tecnicas para encontrar soluciones analticas a ecuaciones
diferenciales ordinarias que modelan un sin fin de problemas que surgen de cualquiera de las
areas antes
2

Secci
on 1.3: Teora de Ecuaciones Diferenciales
mencionadas. Sin embargo, resulta habitual que en la mayora de los casos no se conozca la soluci
on
analtica de la misma, y s
olo estudios cualitativos de dichas ecuaciones son presentados en la literatura. Debido a esto, en la pr
actica, resulta impetuoso definir metodos numericos para dar aproximaciones
numericas de la soluci
on (aproximaciones tan buenas como se quiera). Vale se
nalar que muchos de estos estudios cualitativos se basan en aproximaciones numericas para iniciar la investigaci
on del problema. Antes
de continuar, es importante recordar algunas definiciones y conceptos b
asicos de ecuaciones diferenciales.
Una ecuaci
on diferencial, el cual denotaremos mediante ED, es una ecuaci
on que involucra una
o m
as variables dependientes, con respecto a una o m
as variables independientes. Por ejemplo, en la
ecuaci
on:
d2 x
+ 16x = 0,
dt2
se tiene que el smbolo x representa una variable dependiente mientras que la variable independiente es t.
Si una ecuaci
on contiene s
olo las derivadas ordinarias de una o m
as variables dependientes con respecto
a una s
ola variable independiente, entonces se dice que es una ecuaci
on diferencial ordinaria (EDO).
Las ecuaciones:
dy
+ 5y = ex ,
dx
d2 y
dy
+ 6y = 0,

dx2 dx
dx dy
+
= 2x + y,
dt
dt
son ejemplos de ecuaciones diferenciales ordinarias. Es importante resaltar que en este trabajo las derivadas
dy d2 y d3 y
,
ordinarias se escribir
an con la notaci
on de Leibniz:
,
,. . . , o bien la notaci
on del smbolo
dx dx2 dx3

de prima: y , y , y . En realidad, la notaci


on de prima se emplea para denotar s
olo las tres primeras
derivadas, la cuarta derivada se escribir
a y (4) en lugar de y ; m
as general, la n-esima derivada de y se
dn y
o y (n) . Por otro lado, el orden de la m
as alta derivada de una ED se llama orden de la
escribir
a
dxn
ecuaci
on. Por ejemplo:
 dy 3
d2 y
+
5
4y = ex ,
dx2
dx
es una EDO de segundo orden.
En smbolos, una EDO de n-esimo orden de una variable dependiente, se puede expresar mediante la
forma general

F x, y, y , . . . , y (n) = 0,
(1.1)

donde F es una funci


on de valores reales de n + 2 variables: x, y, y ,. . . ,y (n) . Por razones pr
acticas y
te
oricas supondremos de aqu en adelante que es posible despejar en una EDO en forma u
nica la derivada
superior y (n) de una ED que este en la forma (1.1), en terminos de n + 1 variables restantes. La ecuaci
on
diferencial

dn y
= f x, y, y , . . . , y (n1) ,
n
dx
donde f es una funci
on continua de valores reales, se denomina forma normal de (1.1). As, cuando sea
conveniente, se usan las formas normales
dy
= f (x, y) y
dx


d2 y
= f x, y, y
2
dx

para representar las EDO de primer y segundo orden.

Captulo 1: Preliminares
Un concepto importante dentro del marco de las EDO es el concepto de linealidad. Se dice que una
EDO de orden n es lineal si F es lineal en y, y ,. . ., y (n) . Esto significa que una EDO de orden n es lineal
cuando (1.1) se puede reescribir como
an (x)y (n) + an1 (x)y (n1) + + a1 (x)y + a0 (x)y = g(x).
Las ecuaciones diferenciales lineales se caracterizan por dos propiedades:
1. la variable independiente y junto con todas sus derivadas son de primer grado, es decir, la potencia
de cada termino en y es 1,
2. los coeficientes a0 , a1 ,. . . , an , de y, y ,. . . ,y (n) , dependen s
olo de la variable independiente x.
Una ecuaci
on que no es lineal se dice no lineal.
Con frecuencia nos interesa problemas en los que se busca una soluci
on y(x) de una ED de modo que
y(x) satisfaga condiciones adicionales prescritas, es decir, condiciones impuestas en la y(x) desconocida o
sus derivadas. Dos conceptos importantes dentro del marco de las EDO son los conceptos de problema de
valor inicial y problema de valor de frontera.
Para una ED, un Problema de Valor Inicial (el cual se denotar
a como PVI) de n-esimo orden es
resolver

y (n) = f x, y, y , . . . , y (n1) ,

sujeta a:

y(x0 ) = y0 , y (x0 ) = y1 , . . . , y (n1) (x0 ) = yn1 .

Otro tipo de problemas consiste en resolver una ED de orden dos o mayor en el que la variable dependiente
y o sus derivadas se especifican en diferentes puntos. Un problema que consiste en resolver

y = f x, y, y

sujeta a:

y(a) = y0 , y(b) = y1 ,
se llama Problema de Valor de Frontera (el cual se denotar
a mediante PVF). Los valores preescritos
y(a) = y0 y y(b) = y1 se llaman condiciones de frontera.
Ahora bien, estamos interesados en saber bajo que condiciones un PVF de segundo orden tiene soluci
on. El siguiente teorema establece condiciones generales que garantizan la existencia y unicidad de la
soluci
on a dicho problema de segundo orden.
Teorema 1.3 Supongamos que la funci
on f en el PVF
y = f (x, y, y ), a x b, y(a) = , y(b) = ,
es continua en el conjunto
D = {(x, y, y ) / a x b, < y < , < y < },
y que fy y fy tambien son continuas en D. Si
1. fy (x, y, y ) > 0, para toda (x, y, y ) D, y
2. existe una constante M , con |fy (x, y, y )| M, para todo (x, y, y ) D,
entonces el PVF tiene soluci
on u
nica.
4

Secci
on 1.4: Teora de An
alisis Funcional
Demostraci
on: Ver referencia [13].

Como consecuencia del teorema anterior, tenemos el siguiente resultado.


Corolario 1.1 Si el problema lineal con valor en la frontera
y = p(x)y + q(x)y + r(x), a x b, y(a) = , y(b) = ,
satisface:
1. p(x), q(x) y r(x) son continuas en [a, b], y
2. q(x) > 0 en [a, b],
entonces el problema tiene soluci
on u
nica.

1.4.

Teora de An
alisis Funcional

Para considerar los aspectos referentes al Metodo de los Elementos Finitos y al Metodo Galerkin
Discontinuo, es importante conocer algunos resultados del An
alisis Funcional.

1.4.1.

Los espacios normados

En un espacio lineal podemos asignar a cada elemento x la noci


on de longitud por medio del n
umero
real ||x|| que es llamado norma de x. En particular, la norma es una funci
on de valor real definida en un
espacio lineal E que satisface las siguientes condiciones o axiomas:
1. ||x|| 0, con la particularidad de que ||x|| = 0 s
olo si x = 0.
2. ||x|| = ||||x||, donde es un n
umero real.
3. ||x + y|| ||x|| + ||y||, x, y E.
Ejemplo 1.2 Si E = R2 , la selecci
on usual para la longitud o norma || ||2 de un vector x = (x1 , x2 ) en
el plano real es
q
||x||2 = x21 + x22 ,
que es llamada norma 2 o norma euclidiana. Otro ejemplo de norma es la norma 1 que se define como
||x||1 = |x1 | + |x2 |,
o la norma infinita que se define como
||x|| = m
ax{|x1 |, |x2 |}.
Ejemplo 1.3 Sea E = C[a, b]. La funci
on de valor real definida por
||f || = m
ax |f (t)|
atb

es una norma en E, conocida como norma uniforme o norma Chebyshev de f en el espacio C[a, b]. Una
segunda norma en C[a, b], que es tambien muy importante, es la llamada norma L2 , que se denota
Z b
1/2
2
|| ||L2 =
[f (t)] dt
.
a

Captulo 1: Preliminares
Sea E un espacio normado. La sucesi
on {un }
n=1 E se dice acotada en E si existe un C > 0 tal que
||un || < C, para todo n. La sucesi
on se dice convergente en E si existe un elemento u E tal que para
todo 0 < R, existe un N0 N tal que ||u un || < , para todo n > N0 . El elemento u es el lmite de
la sucesi
on {un }
a de forma indistinta
n=1 . Usualmente se escibir
lm un = u

||u un || 0, para n .

La sucesi
on {un }
a una sucesi
on de Cauchy si para todo > 0, existe N0 N tal que
n=1 E ser
||un um || , para todo n, m N0 .
Un espacio lineal normado E se llama completo, cuando toda sucesi
on de Cauchy de este espacio
converge hacia un cierto elemento u E. Los espacios lineales normados completos se llaman espacios de
Banach. Todo espacio lineal normado de dimensi
on finita es completo.

1.4.2.

El espacio euclidiano y el espacio unitario

Una forma conocida de introducir una norma en un espacio lineal consiste en definir en este el producto
escalar o producto interior. Se llama producto escalar en un espacio lineal real (o complejo) E a una funci
on
(, ) : E E R (o C) con las siguientes propiedades para todo par de elementos x, y E:
1. (x, y) = (y, x),
2. (x + y, z) = (x, z) + (y, z),
3. (x, y) = (x, y), R (o C),
4. (x, x) 0, y (x, x) = 0 s
olo si x = 0.
En el caso de un espacio lineal real el primer axioma se reduce a la simetra (x, y) = (y, x).
Ejemplo 1.4 Sean x(t) e y(t) dos funciones de C 2 [a, b]. Se pueden definir varios productos escalares:
(x, y) =

x(t)y(t)dt,

(x, y) =

Z bh
a

(x, y) =

Z bh
a

i
x(t)y(t) + x (t)y (t) dt,

i
x(t)y(t) + x (t)y (t) + x (t)y (t) dt,

donde las integrales son integrales de Riemann.


Lema 1.1 Sea E un espacio con producto interno. Entonces la funci
on
||u|| =
es una norma en E.

(u, u), u E

Secci
on 1.4: Teora de An
alisis Funcional
Los espacios dotados de un producto interno son llamados espacio producto interno. Un espacio lineal
real normado E, en el cual la norma est
a generada por un producto escalar, es decir,
p
||u|| = (u, u),

se llama espacio euclidiano; en el caso complejo recibe el nombre de espacio unitario. Un espacio unitario
(euclidiano) completo es llamado espacio de Hilbert H.
Ahora se introducen algunos espacios de Hilbert que resultan naturales para la formulaci
on variacional
de los problemas de valor de frontera que ser
an considerados. Si es un dominio acotado en R2 , se define
el espacio de funciones de cuadrado integrables sobre :
Z
L2 () = {v : R tal que
v 2 d < }.

El espacio L2 () es un espacio de Hilbert con el producto escalar


Z
(u, v)L2 () =
vud,

y la correspondiente norma
||v||L2 () =

Z

[v(x)]2 dx

1/2

1/2

= (v, v)L2 () .

Se introduce adem
as el espacio


v
2
2
H () = v L () :
L (), i = 1, 2 ,
xi
1

dotado del producto escalar y la correspondiente norma


Z
(v, w)H1 () = (vw + vw)d,

1/2

|| ||H1 () = (, )H1 () .

El espacio H1 () consiste de todas las funciones v definidas en junto con sus primeras derivadas que
son de cuadrado integrable, es decir, pertenecen a L2 (). Adem
as, se define el espacio


H10 = v H1 () : v = 0 en v ,

que se dota del mismo producto interno y norma que el espacio H1 (). Para evitar sobrecargar la notaci
on,
siempre y cuando no se lleve a confusi
on, se utilizar
a la notaci
on (, ) y |||| en lugar de (, )L2 () y ||||L2 () .
De forma an
aloga, (, )1 y || ||1 denotar
an (, )H1 () y || ||H1 () , respectivamente.
Los espacios L2 () y H1 () pertenecen a familias de espacios m
as generales, conocidas como espacios
con p 1,y espacios de Sobolev, respectivamente.

Lp (),

1.4.3.

Funcionales lineales

Un funcional lineal es un caso particular de un operador lineal, es decir, es un operador lineal que
transforma el espacio dado E en valores de R o C. En general, si E es un espacio lineal normado sobre un
cuerpo K, entonces un funcional lineal f es una aplicaci
on lineal de E K tal que
1. f (u + w) = f (u) + f (v), u, v E,
2. f (u) = f (u), u E, K.
7

Captulo 1: Preliminares
El espacio de todos los funcionales lineales de un espacio normado E sobre su cuerpo, L(E, K), se le llama
espacio dual de E, y suele denotarse por E .
Consideremos algunos ejemplos de funcionales.
Ejemplo 1.5 Sea E = Rn . El operador F : E R definido como el promedio de las componentes del
vector
n
1X
f (v) =
vi , para todo v E,
n
i=1

es un funcional lineal sobre E, es decir, f E .


Ejemplo 1.6 El operador integral A : C[a, b] R, definido por
A(f ) =

f (x)dx,

para todo v C[a, b],

es un funcional lineal sobre C[a, b].


Teorema 1.4 (Teorema de Representaci
on de Riesz) Sea H un espacio de Hilbert y sea F un funcional lineal continuo de H. Entonces existe un u
nico elemento u H tal que
F (v) = (u, v),

v H.

Adem
as ||F || = ||u||

1.4.4.

Formas bilineales

Otro tipo especial de operador que pueden ocurrir muy frecuentemente en el estudio de problemas de
valor de frontera es uno que mapea un par de elementos a los n
umeros reales, y que es lineal en cada uno
de estos. Un operador B : U V R (U, V espacios lineales) se dice que es una forma bilineal si:
1. B(u + w, v) = B(u, v) + B(w, v),

u, w U, v V

2. B(u, v + w) = B(u, v) + B(u, w),

u U, v, w V

Formas bilineales continuas. Consideremos una forma bilineal B : U V R, donde U y V son


espacios lineales normados. Si existe una constante k > 0 tal que
|B(u, v)| k||u||||v||

para todo u U, v V,

entonces B es llamada una forma bilineal continua.


Formas bilineales H - elpticas. Dada una forma bilineal B : H H R, donde H es un espacio
con producto interno, se dice que B es H - elptica si existe una constante > 0 tal que
B(v, v) ||v||2 ,

v H.

As una forma H - elptica es acotada inferiormente.


8

Secci
on 1.5: Metodo de Newton Raphson y Runge Kutta

1.4.5.

El Teorema de Lax - Milgram

Teorema 1.5 (El Teorema de Lax - Milgram) Sea H un espacio de Hilbert y sea B : H H R
una forma bilineal, H - elptica, continua, definida en H. Entonces, dada cualquier funcional lineal F
definida en H, existe un u
nico elemento u H tal que
B(u, v) = F (v),

v H,

adem
as,
||u||1 1 ||f ||H .

1.5.

M
etodo de Newton Raphson y Runge Kutta

En esta secci
on se introducen dos metodos que ser
an necesarios para el estudios de los metodos que
se emplear
an para aproximar la soluci
on de un PVF de segundo orden. Estos metodos son el de Newton
Raphson, tanto para una ecuaci
on como para un sistema de ecuaciones no lineales, y el de Runge Kutta,
para resolver PVI de ecuaciones diferenciales ordinarias.
M
etodo de Newton Raphson. Sea f una funci
on dos veces diferenciable. Supongamos que es una
raz simple de f (x) = 0 y x0 es una aproximaci
on inicial a . El metodo de Newton-Raphson consiste en
conseguir la aproximaci
on usando la recta tangente a la curva f , que pasa por el punto (x0 , f (x0 )). Esta
recta intersecta al eje OX en el punto (x1 , 0), donde x1 ser
a la aproximaci
on a la raz de f , luego
x1 = x0

f (x0 )
.
f (x0 )

Para continuar, se renombra x0 = x1 y se repite el proceso tanto como desee.


Teorema 1.6 (Convergencia del M
etodo de Newton-Rapson) Sean f C 2 [a, b] y [a, b] tal

on {xk }
que f () = 0. Si f () 6= 0, entonces existe > 0 tal que la sucesi
k=0 definida por el proceso
iterativo,
f (xk1 )
xk = g(xk1 ) = xk1
, para k = 1, 2, 3, . . . ,
f (xk1 )
converge a cualesquiera que sea la aproximaci
on inicial x0 [ , + ].
Demostraci
on: Ver la referencia [18], Captulo 2, Secci
on 2.1, p
ag. 69.

M
etodo de Newton para sistemas de ecuaciones no lineales. En muchas ocasiones aparece la
necesidad de resolver sistemas de ecuaciones algebraicas no lineales de la forma

f1 (x1 , x2 , . . . , xn ) = 0,

f2 (x1 , x2 , . . . , xn ) = 0,
..

fn (x1 , x2 , . . . , xn ) = 0.

El metodo de Newton para sistema de ecuaciones no lineales es una extensi


on directa del metodo del
mismo nombre para buscar ceros de funciones de una variable. La idea es realizar el desarrollo de Taylor
en n variables en el entorno de una raiz,


fi
f(x) = f(x(0) ) +
(x x(0) ) + O(||x x(0) ||2 ).
xj x(0)
9

Captulo 1: Preliminares

Si x es una raz aproximada, definiendo la matriz jacobiana como

J(x(0) )

fi
xj

encontramos que
x(0)

x x(0) J 1 (x(0) )f(x(0) ).


En la pr
actica, esta f
ormula nos permite definir un proceso iterativo,
x(k+1) = x(k) J 1 (x(k) )f(x(k) ),
que es el metodo de Newton en varias variables. A la hora de implementar el metodo, es costoso tener
que calcular la inversa de J y por eso, normalmente, lo que se hace es resolver el sistema de ecuaciones
lineales


J(x(k) ) x(k) x(k+1) = f(x(k) ),

on.
del cual se puede despejar x(k+1) una vez conocida la soluci
En [18], Captulo 10, Secci
on 10.2, se hace el estudio de la convergencia y la implementacion del
metodo.
M
etodo de Runge Kutta. Es un metodo de resoluci
on numerica de ecuaciones diferenciales ordinarias,
el cual fue inicialmente desarrollado alrededor del a
no 1900 por los matem
aticos C. Runge 1 y M. W.
2
Kutta . El metodo de Runge Kutta no es s
olo un metodo sino una importante familia de metodos iterativos
tanto implcitos como explcitos. Un metodo cl
asico es el metodo de RK explcito de cuarto orden. Para
introducirlo definamos el PVI:
y = f (t, y), y(t0 ) = y0 .
Entonces el metodo de RK de cuarto orden para este problema est
a dado por la siguiente ecuaci
on:
yn+1 = yn +
donde:


h
k1 + 2k2 + 2k3 + k4 ,
6

k1 = f (tn , yn ),

h
k2 = f tn + , yn +
2

h
k3 = f tn + , yn +
2

k1 
,
2
k2 
,
2

k4 = f (tn + h, yn + k3 ).
Por ser de cuarto orden, se tiene que el error de paso es de orden O(h5 ), mientras que el error total
acumulado tiene orden O(h4 ). Para mayores detalles del metodo, ver [6], Captulo 8, Secci
on 8.3, p
ag.
514.

1
C. Runge naci
o el 30 de agosto de 1856 y muri
o el 03 de enero de 1927. Fue un matem
atico, fsico y espestroscopista
alem
an. Su primer nombre suele escribirse Carl.
2
Martin Wilhelm Kutta fue un fsico y matem
atico alem
an, naci
o el 03 de noviembre de 1867 en Pitschen, Alta Silecia
(en la actualidad pertenece a Polonia) y muri
o el 25 de diciembre de 1944 en F
urstenfeldbruck, Alemania.

10

2
M
etodos Num
ericos para aproximar la soluci
on de un Problema de Valor
de Frontera de segundo orden

Las Ecuaciones Diferenciales Ordinarias describen fen


omenos que cambian frecuentemente. Estas surgen en modelos totalmente matem
aticos, fsicos o qumicos. Un sistema de ecuaciones diferenciales ordinarias puede tener muchas soluciones. Com
unmente, una soluci
on de interes est
a determinada especificando
los valores de todas sus componentes en un punto x = a. Esto es un Problema de Valor Inicial. Sin embargo, en muchas aplicaciones, una solucion est
a determinada en m
as de un punto. Un problema de este tipo
es denominado Problema de Valor de Frontera, el cual es nuestro problema a resolver, especficamente en
dos puntos:

y = f (x, y, y ),
y(a) = ,

y(b) = .
Es importante resaltar que si el PVF anterior se expresa mediante

y = p(x)y + q(x)y + r(x), a x b, y(a) = , y(b) = ,


entonces se dice que el PVF es del tipo lineal, en caso contrario, se dice que el PVF es del tipo no lineal.
Problemas de este tipo suelen ser comunes en muchas
areas de la vida cotidiana, como, por ejemplo,
en las Ciencias b
asicas o en la Ingeniera. Sin embargo, su principal dificultad radica en que la soluci
on
a dichos problemas no son f
aciles de obtener analticamente. Debido a esto, resulta importante definir
metodos numericos para dar estimaciones numericas de la soluci
on. En este captulo se expondr
an cinco
metodos numericos que nos ayudar
an a encontrar estas estimaciones: el Metodo del Disparo y el Metodo
de Diferencias Finitas, los cuales son presentados en las referencias [9, 18], el Metodo de Elementos
Finitos, planteado en [3, 17], el Metodo Galerkin Discontinuo, planteado en la referencia [1], y el Metodo
Bvp4c, el cual se presenta en la referencia [14]. Es importante resaltar que, cuando el PVF es del tipo
lineal, usaremos los cinco metodos mencionados, mientras que si el PVF es del tipo no lineal, entonces
se emplear
a s
olo los metodos de Disparo, Diferencias Finitas y Bvp4c, en vista de que los metodos de
Elementos Finitos y Galerkin Discontinuo ameritan un estudio mucho m
as amplio que para el caso lineal,
y esto conlleva a que la implementaci
on de los c
odigos requieran m
as tiempo.

2.1.

M
etodo del Disparo

Uno de los metodos numericos, considerado cl


asico en la literatura, para aproximar la soluci
on de
un Problema de Valor de Frontera de segundo orden, es el metodo del Disparo. Este metodo, el cual se
plantea en las referencias [9, 18], se reduce a resolver varios PVI para encontrar la soluci
on al problema
planteado.
11

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF

2.1.1.

Planteamiento para el caso y = p(x)y + q(x)y + r(x)

Para aproximar la soluci


on u
nica del problema lineal
y = p(x)y + q(x)y + r(x), a x b, y(a) = , y(b) = ,

(2.1)

garantizada por el cumplimiento de las hip


otesis del Corolario 1.1, primero de considera los PVI:
u = p(x)u + q(x)u + r(x), a x b, u(a) = , u (a) = 0

(2.2)

v = p(x)v + q(x)v, a x b, v(a) = 0, v (a) = 1.

(2.3)

y
Seg
un las hip
otesis del Corolario 1.1, tanto (2.2) como (2.3) tienen soluci
on u
nica. La soluci
on de (2.1)
viene dada por


u(b)
y(x) = u(x) +
v(x).
(2.4)
v(b)
A partir de esta,




u(b)
u(b)

v (x), y (x) = u (x) +


v (x).
y (x) = u (x) +
v(b)
v(b)
As,
y (x)

p(x)u (x)

+ q(x)u(x) + r(x) +


u(b)
(p(x)v (x) + q(x)v(x))
v(b)









u(b)
u(b)

= p(x) u (x) +
v (x) + q(x) u(x) +
v(x) + r(x)
v(b)
v(b)
= p(x)y (x) + q(x)y(x) + r(x).
Como se puede apreciar, la soluci
on (2.4) satisface las condiciones de frontera. En efecto,


u(b)
y(a) = u(a) +
v(a)
v(b)
= +


u(b)
0
v(b)

= ,
y
y(b) = u(b) +


u(b)
v(b)
v(b)

= u(b) + u(b)
= .
Por tanto, y(x) es la soluci
on u
nica al problema de valor de frontera (sujeta a que v(b) 6= 0).
El metodo del Disparo para las ecuaciones lineales se basa en la sustituci
on del PVF por dos PVI. En
el estudio de PVI para ecuaciones diferenciales ordinarias, se describen muchos metodos con los cuales se
pueden aproximar las soluciones u(x) y v(x) (como ejemplo: el metodo de Euler, Trapecio, Punto Medio,
Runge Kutta), y una vez que se cuenta con estas aproximaciones, la soluci
on del PVF se aproxima por
medio de la ecuaci
on (2.4). Para efecto de nuestro estudio, el metodo que se usar
a para aproximar (2.2)
y (2.3) ser
a el metodo de Runge Kutta.
Desde el punto de vista gr
afico, el metodo tiene el aspecto que se observa en la Figura 2.1.
12

Secci
on 2.1: Metodo del Disparo

v(x)
y(x)
b

u(x)

Figura 2.1: Metodo del Disparo para el caso lineal.

Algoritmo del M
etodo del Disparo para el caso lineal.
Entrada: extremos a, b; condiciones de frontera , ; n
umero de subintervalos N .
Salida: aproximaciones w1,i a y(xi ); w2,i a y (xi ), para cada i = 0, . . . , N.
1. Tomar h = (b a)/N ; u1,0 = ; u2,0 = 0; v1,0 = 0; v2,0 = 1.
2. Para i = 1, . . . , N 1, hacer los pasos 3 y 4.
3. Tomar x = a + ih.
4. Aplicar Runge - Kutta para obtener u1,i+1 , u2,i+1 , v1,i+1 , v2,i+1 .
5. Tomar w1,0 = ; w2,0 = ( u1,N )/v1,N . Mostrar (a, w1,0 , w2,0 ).
6. Para i = 1, . . . , N , tomar
w1,i = u1,i + w2,0 v1,i ,
w2,i = u2,i + w2,0 v2,i ,
x = a + ih.
Mostrar (x, w1,i , w2,i ).
7. Parar.
Problemas por errores de redondeo. Desafortunadamente, esta tecnica, por errores de rodondeo,
puede contener problemas ocultos. Si u(x) crece r
apidamente cuando x recorre [a, b], entonces u1,N es
grande; si adem
as, es peque
no en comparaci
on con u1,N , entonces
w2,0 =

u1,N
v1,N

u1,N
.
v1,N

Por lo tanto,
w1,i = u1,i + w2,0 v1,i
u1,i

u1,N
v1,i ,
v1,N
13

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF
lo cual permite una posible perdida de dgitos significativos debido a la cancelaci
on. Pero como u1,i es una
aproximaci
on a u(xi ), se puede entonces vigilar el comportamiento de u(x), y si u1,i aumenta r
apidamente
de a a b, podemos aplicar hacia atr
as el metodo del disparo, esto es, resolver en su lugar los problemas
de valor inicial
u = p(x)u + q(x)u + r(x), a x b, u(b) = , u (b) = 0,
y

v = p(x)v + q(x)v, a x b, v(b) = 0, v (b) = 1.

Si este metodo de disparo inverso todava presenta la eliminaci


on de los dgitos significativos y si el
aumento de precisi
on no produce mayor exactitud, ser
a necesario utilizar otros metodos numericos, como
las que explicaremos m
as adelante.
An
alisis del error. En muchas ocasiones estamos interesados en encontrar cotas para el error que se
est
a produciendo al momento de aproximar. El siguiente teorema nos proporciona dichas cotas. Para no
recargar demasiado la exposici
on, presentaremos la prueba en el Apendice A, al que referimos al lector
interesado.
Teorema 2.1 Sea h = (b a)/N , xi = a + nh, con i = 0, 1, . . . , N. Sean u(x), v(x) y y(x) las soluciones
respectivas de (2.2), (2.3) y (2.4). Si u
ei y vei son aproximaciones de O(hn ) para ui = u(xi ) y vi = v(xi ),
respectivamente, entonces wi ser
a una aproximaci
on de O(hn ) para yi = y(xi ). En particular,



vi
n
|wi yi | Kh 1 +
,
vN
para alguna K apropiada.

Demostraci
on: Ver Apendice A, secci
on A.1.

2.1.2.

Planteamiento para el caso y = f (x, y, y )

El metodo del Disparo para el PVF no lineal


y = f (x, y, y ), a x b, y(a) = , y(b) = ,

(2.5)

utiliza las soluciones de una sucesi


on de PVI de la forma que contenga un par
ametro t, para aproximar
la soluci
on al PVF
y = f (x, y, y ), a x b, y(a) = , y (a) = t.
(2.6)
Esto se hace escogiendo los par
ametros t = tk de tal forma que

lm y(b, tk ) = y(b) = ,

donde y(b, tk ) denotar


a la soluci
on al PVI (2.6) con t = tk y y(x) denota la soluci
on al PVF (2.5). Esta
tecnica se conoce con el nombre de metodo del Disparo, por la analoga con el procedimiento de dispararle
a objetos situados en un blanco fijo (ver Figura 2.2). Se comienza con un par
ametro t0 que determina la
elevaci
on inicial a la cual se le dispara al objeto desde el punto (a, ) y a lo largo de la curva descrita por
la soluci
on al PVI:
y = f (x, y, y ), a x b, y(a) = , y (a) = t0 .
Si y(b, t0 ) no est
a suficientemente cerca de , se cambia la aproximaci
on seleccionando las elevaciones t1 ,
t2 , y as sucesivamente, hasta que y(b, tk ) este bastante cerca de acertar en el blanco (Ver Figura 2.3).
Para determinar los par
ametros tk , supongamos que (2.5) satisface las hip
otesis del Teorema (1.3). Si
y(x, t) denota la soluci
on de (2.6), el problema consistir
a en determinar t tal que
y(b, t) = 0.

(2.7)

Esta es una ecuaci


on no lineal, y para resolverlo se disponen de varios metodos.
14

Secci
on 2.1: Metodo del Disparo

y(b, t0 )

(b, y(b, t0 ))
b

y(x, t0 )

Pendiente t0

(a, )
a

Figura 2.2: Metodo del Disparo para el caso no lineal.

M
etodo de la Secante. Para emplear este metodo, se necesita elegir las aproximaciones iniciales t0 y
t1 y luego generar los terminos restantes de la sucesi
on mediante
tk = tk1

(y(b, tk1 ) )(tk1 tk2 )


, k = 2, 3, . . .
y(b, tk1 ) y(b, tk2 )

M
etodo de Newton. Para generar la sucesi
on {tk } con este metodo, que es m
as poderoso, s
olo se
necesita una aproximaci
on inicial t0 . Sin embargo, la iteraci
on tiene la forma
tk = tk1

y(b, tk1 )
,
dy
(b, tk1 )
dt

(2.8)

dy
(b, tk1 ). Esto presenta un problema porque no se conoce una representaci
on explcita
dt
de y(b, t); se conoce s
olo los valores y(b, t0 ), y(b, t1 ), . . . , y(b, tk1 ). Supongamos que se reescribe el problema
de valor inicial (2.6), haciendo enfasis en que la soluci
on se basa tanto en x como en el par
ametro t:
y requiere conocer

y (x, t) = f (x, y(x, t), y (x, t)), a x b, y(a, t) = , y (a, t) = t.

(2.9)

Se conserva la notaci
on prima para indicar la derivada respecto a x. Puesto que se necesita determinar
dy
(b, t) cuando t = tk1 , primero se toma la derivada parcial de (2.9) respecto a t. Esto significa que
dt
y
(x, t) =
t
=

f
(x, y(x, t), y (x, t))
t
f
x
f
y
(x, y(x, t), y (x, t)) (x, t) +
(x, y(x, t), y (x, t)) (x, t)
x
t
y
t
+

f
(x, t)) y (x, t).
(x,
y(x,
t),
y
y
t

Dado que x y t son independientes,

x
= 0, y
t

y
f
y
f
y
(x, t) =
(x, y(x, t), y (x, t)) (x, t) + (x, y(x, t), y (x, t))
(x, t),
t
y
t
y
t

(2.10)
15

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF
y(b, t2 )

y(b, t3 )
y(b, t1 )
y(b, t0 )

y(x, t2 )
b

y(x, t3 )
y(x, t1 )
y(x, t0 )

(a, )
a

Figura 2.3: Escogencia de los par


ametros tk .

con a x b. Las condiciones iniciales dan


y
(a, t) = 0,
t
y
(a, t) = 1.
t
y
(x, t) y si se supone que el orden de derivaci
on
t
de x y t puede invertirse, con las condiciones iniciales, la ecuaci
on (2.10) se convierte en el PVI:
Si se simplifica la notaci
on usando z(x, t) para denotar

z (x, t) =

f
f
(x, y, y )z (x, t) +
(x, y, y )z(x, t), a x b, z(a, t) = 0, z (a, t) = 1.

y
y

(2.11)

As pues, el metodo de Newton requiere que los PVI (2.9) y (2.11), sean resueltos en cada iteraci
on.
Entonces, conforme a la ecuaci
on (2.8),
tk = tk1

y(b, tk1 )
.
z(b, tk1 )

(2.12)

Para efecto de nuestro estudio, se emplear


a el metodo de Runge - Kutta de cuarto orden para aproximar
las soluciones de (2.9) y (2.11).
Algoritmo del M
etodo del Disparo para el caso no lineal.
Entrada: extremos a, b; condiciones de frontera , ; n
umero de subintervalos N 2; tolerancia Tol,
n
umero m
aximo de iteraciones M .
Salida: aproximaciones w1,i a y(xi ); w2,i a y (xi ), para cada i = 0, . . . , N , o bien un mensaje de que se
excedi
o el n
umero m
aximo de iteraciones.
1. Tomar h = (b a)/N ; u1,0 = ; k = 1, T K = ( )/(b a).
2. Mientras k M , hace los pasos 3 - 10.
3. Tomar w1,0 = , w2,0 = T K, u1 = 0, u2 = 1.
4. Para i = 1, . . . , N , hacer los pasos 5 - 6.
16

Secci
on 2.2: Metodo de Diferencias Finitas
5. Tomar x = a + (i 1)h.

6. Aplicar Runge - Kutta para obtener w1,i , w2,i , u1 , u2 .


7. Si |w1,N | < Tol, entonces hacer los pasos 8 y 9.

8. Para i = 0, 1, . . . N , tomar x = a + ih, mostrar (x, w1,1 , w2,i ).


9. Procedimiento terminado, PARAR.

10. Tomar k = k + 1 y T K = T K (w1,N )/u1 . El metodo de Newton se emplea para calcular


T K.
11. N
umero m
aximo de iteraciones excedido, procedimiento terminado sin exito, PARAR.
El valor t0 = T K escogido en el paso 1 es la pendiente de la recta que pasa por (a, ) y por (b, ). Como
el metodo del Disparo emplea el metodo de Runge Kutta de cuarto orden para aproximar la soluci
on de
dos problemas de valor inicial, entonces la soluci
on encontrada aproxima la soluci
on exacta con un orden
de aproximaci
on O(h4 ) (ver [9], Captulo 8, Secci
on 7.2, p
ag. 426).

2.2.

M
etodo de Diferencias Finitas

El metodo de Diferencias Finitas, al igual que el Disparo, es considerado cl


asico dentro de la literatura. Este metodo, presentado en las referencias [9, 18], se basa en la idea de aproximar las derivadas que
aparecen en un problema de contorno o valor de frontera mediante una f
ormula de diferencias sobre una
malla de puntos. Luego se sustituye dichas aproximaciones en la ecuaci
on diferencial para posteriormente
resolver un sistema de ecuaciones lineales o no lineales, dependiendo si el PVF es lineal o no lineal.

2.2.1.

Planteamiento para el caso y = p(x)y + q(x)y + r(x)

Para el problema de contorno


y = p(x)y + q(x)y + r(x), a x b, y(a) = , y(b) = ,
se procede a discretizar el intervalo [a, b] en una malla de puntos a = x0 < x1 < < xn+1 = b, el cual
se tomar
a uniforme, esto es, xi+1 xi = h, aunque, en general, los puntos no necesitan estar distribuidos
de esta manera.
En los puntos interiores de la malla (xi = a + ih, i = 1, 2, . . . , n), la ecuaci
on diferencial a aproximar
es
y (xi ) = p(xi )y (xi ) + q(xi )y(xi ) + r(xi ).
(2.13)
Si se usa el polinomio de Taylor de orden 3 para y(x), alrededor de xi , y se eval
ua en xi+1 y xi1 ,
entonces, suponiendo que y C 4 [xi1 , xi+1 ], se tiene
y(xi+1 ) = y(xi + h)
= y(xi ) + hy (xi ) +

h2
h3
h4
y (xi ) + y (3) (xi ) + y (4) (i+ ),
2
6
24

para alg
un i+ en (xi , xi+1 ), y
y(xi1 ) = y(xi h)
= y(xi ) hy (xi ) +

h2
h3
h4
y (xi ) y (3) (xi ) + y (4) (i ),
2
6
24

para alg
un i en (xi1 , xi ).
17

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF
Si sumamos adecuadamente estas dos u
ltimas igualdades,


h2 (4) +
(4)
y (i ) + y (i ) ,
y(xi+1 ) + y(xi1 ) = 2y(xi ) + h y (xi ) +
24
2

y al despejar y (xi ),




1
h2 (4) +
(4)
y (i ) + y (i ) .
y (xi ) = 2 y(xi+1 ) 2y(xi ) + y(xi1 )
h
24

Ahora, aplicando el teorema de valor intermedio, tenemos que




1
h2

y (xi ) = 2 y(xi+1 ) 2y(xi ) + y(xi1 ) y (4) (i ),


h
12

(2.14)

para alg
un i en (xi1 , xi+1 ). A este esquema se le llama f
ormula de diferencias centradas para y (xi ).
De manera semejante se obtiene una f
ormula de este tipo para y (xi ), el cual viene dada por


1
h2

y(xi+1 ) y(xi1 ) y (3) (i ),


(2.15)
y (xi ) =
2h
6
para alg
un i en (xi1 , xi+1 ).
Formaci
on del sistema de ecuaciones.
la igualdad

Sustituyendo (2.14) y (2.15) en (2.13), entonces se obtiene



y(xi+1 ) y(xi1 )
= p(xi )
+ q(xi )y(xi ) + r(xi )
2h

y(xi+1 ) 2y(xi ) + y(xi1 )


h2



h2
(3)
(4)

2p(xi )y (i ) y (i ) .
12
El metodo de Diferencias Finitas con error de truncamiento de orden O(h2 ) se obtiene empleando esta
ecuaci
on junto con las condiciones de frontera y(a) = y y(b) = para definir
w0 = ,

wn+1 =



wi+1 2wi + wi1
wi+1 wi1
p(xi )
q(xi )wi = r(xi ),
h2
2h
para cada i = 1, 2, . . . , n. Reescribiendo la ecuaci
on anterior, se tiene que






h
h
2
1 + p(xi ) wi1 + 2 + h q(xi ) wi 1 p(xi ) wi+1 = h2 r(xi ).
2
2

(2.16)

El sistema de ecuaciones resultante se expresa en la forma


Aw = z,
donde,

A=

0
..
.
..
.
0

3
..
.

3
..
.
..
.

..
.
3
..
.
..
.
0

..

0
..
.
..
.

..

..

n1
n

(2.17)

i = 2 + h2 q(xi ),

1 i n,

i = 1 +

h
p(xi ), 1 i n 1,
2

i = 1

h
p(xi ), 2 i n,
2
18

Secci
on 2.2: Metodo de Diferencias Finitas

w1
w2
w3
..
.

w=

wn1
wn

z=


h2 r(x1 ) + 1 + h2 p(x1 ) w0
h2 r(x2 )
h2 r(x3 )
..
.
h2 r(xn1 ) 
1 + h2 p(xn ) wn+1

h2 r(xn ) +

El siguiente teorema establece bajo cu


ales condiciones el sistema lineal (2.17) tiene solucion u
nica. Su
demostraci
on es consecuencia del Teorema 1.2.
Teorema 2.2 Supongamos que p(x), q(x) y r(x) son continuas en [a, b]. Si q(x) 0 en [a, b], en2
tonces el sistema lineal tridiagonal (2.17) tiene una soluci
on u
nica siempre y cuando h < , donde
L


L = m
ax p(x) .
axb

Demostraci
on: Ver secci
on A.2 del Apendice A.

Algoritmo del M
etodo de Diferencias Finitas para el caso lineal.
Entrada: extremos a, b; condiciones de frontera , ; N 2.
Salida: aproximaciones wi a y(xi ), para cada i = 0, . . . , N + 1.
1. Tomar

2. Para i = 2, . . . , N 1, tomar

3. Tomar

4. Tomar

h
x
a1
b1
d1

=
=
=
=
=

(b a)/(N + 1),
a + h,
2 + h2 q(x),
1 + (h/2)p(x),
h2 r(x) + (1 + (h/2)p(x)).
x
ai
bi
ci
di

x =
aN =
cN =
dN =

=
=
=
=
=

a + ih,
2 + h2 q(x),
1 + (h/2)p(x),
1 (h/2)p(x),
h2 r(x).

b h,
2 + h2 q(x),
1 (h/2)p(x),
h2 r(x) + (1 (h/2)p(x)).
l1 = a1 ,
u1 = b1 /a1 ,
z1 = d1 /l1 .

(Los pasos 4 - 8 resuelven un sistema lineal tridiagonal utilizando el algoritmo de Crout).


19

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF
5. Para i = 2, . . . , N 1, tomar

6. Tomar

li = ai ci ui1 ,
ui = bi /li
zi = (di ci zi1 )/li .
lN
zN

= aN cN uN 1 ,
= (dN cN zN 1 )/lN .

7. Tomar

w0 = ,
wN +1 = ,
wN = zN .

8. Para N 1, . . . , 1, tomar wi = zi ui wi+1 .


9. Para i = 0, . . . , N + 1, tomar x = a + ih. Mostrar (x, wi ).
10. Parar.
An
alisis del error El siguiente teorema nos ayuda a deducir cotas para el error de la aproximaci
on de las
ecuaciones diferenciales mediante f
ormula de diferencias finitas de segundo orden. La prueba est
a detallada
en la Secci
on A.2 del Apendice A.




Teorema 2.3 Sean Q tal que q(x) Q > 0, para a x b, L = m
ax p(x) , M3 = m
ax y (3) (x) y
axb
axb


M4 = m
ax y (4) (x) . Entonces, para i = 0, 1, . . . , n + 1, se cumple:
axb

!


M
+
2LM
4
3
2
wi y(xi ) h
.
12Q

Demostraci
on: Ver Apendice A, Secci
on A.2.

El teorema anterior nos dice que la soluci


on de diferencias finitas converge a la soluci
on exacta cuando
h 0, y el error es O(h2 ).
Observaci
on. Cuando, en la ecuaci
on diferencial lineal, p(x) = 0, entonces se puede demostrar que el
error cometido es del orden O(h4 ).

2.2.2.

Planteamiento para el caso y = f (x, y, y )

Para el caso del problema no lineal general con valor de frontera:


y = f (x, y, y ), a x b, y(a) = , y(b) = ,
el metodo de Diferencias Finitas se parece al que se aplic
o en la subsecci
on anterior para el caso lineal.
Sin embargo, el sistema de ecuaciones ser
a no lineal y, por tanto, se requiere un proceso iterativo para
resolverlo. Nuevamente, se procede a discretizar el intervalo [a, b] en una malla de puntos a = x0 < x1 <
< xn+1 = b, que tomaremos equiespaciada o uniforme, es decir, xi+1 xi = h.
En los puntos interiores de la malla (xi = a + ih, i = 1, 2, . . . , n), la ecuaci
on diferencial a aproximar

es:
y (xi ) = f (xi , y(xi ), y (xi )).

(2.18)
20

Secci
on 2.2: Metodo de Diferencias Finitas
Formaci
on del sistema de ecuaciones. Sustituyendo (2.14) y (2.15) en (2.18), obtendremos:


y(xi+1 ) 2y(xi ) + y(xi1 )
y(xi+1 ) y(xi1 ) h2 (3)
h2 (4)

y
y (i ),
=
f
x
,
y(x
),
(
)
+
i
i
i
h2
2h
6
12
para alg
un i y i en el intervalo (xi1 , xi+1 ), con i = 1, 2, . . . , n. El metodo de Diferencias Finitas se
obtiene empleando esta ecuaci
on junto con las condiciones de frontera y(a) = y y(b) = para definir
w0 = ,

wn+1 = ,



wi+1 2wi + wi1
wi+1 wi1
= 0,
f xi , wi ,
h2
2h
para cada i = 1, 2, . . . , n. El sistema no lineal de n n obtenido con este metodo
Fi (w1 , . . . , wn ) = 0,

(2.19)

con



wi+1 wi1
, i = 1, . . . , n,
Fi (w1 , . . . , wn ) = wi+1 2wi + wi1 h f xi , wi ,
2h


f

2
tiene soluci
on u
nica si h < , donde L es tal que (x, y, y ) L (ver [13], p
ag. 86).
L
y
2

Resoluci
on del sistema no lineal.

Para resolver el sistema no lineal (2.19), se usa el metodo de




(0)
(0) T
Newton para sistemas de ecuaciones no lineales. Si tomamos inicialmente w(0) = w1 , . . . , wn
, la
iteraci
on mediante este metodo es:

 

w(j+1) = w(j) J 1 w(j) F w(j) ,


donde J w(j) es la matriz jacobiana. En la pr
actica es m
as conveniente a efectos computacionales iterar
resolviendo las ecuaciones:





J w(j) w(j+1) w(j) = F w(j) .
h
i
Fp
Calculemos el jacobiano J(w(j) )
=
,
wq
p,q


f
wk+1 wk1
2
[J]k,k = 2 h
xk , wk ,
,
y
2h
[J]k,k+1

[J]k+1,k



h f
wk+1 wk1
= 1
xk , wk ,
,
2 y
2h


h f
wk+1 wk1
,
= 1+
xk , wk ,
2 y
2h

con k = 1, . . . , n. El resto de las entradas de la matriz J son nulos. En particular, como todos los elementos
con |p q| > 1 son nulos, entonces J es tridiagonal. En cada iteraci
on del sistema lineal:




J w(j) v = F w(j) ,
con v = (v1 , . . . , vn )T , se requiere obtener v, porque

w(j+1) = w(j) + v.
Puesto que J es tridiagonal, se puede utilizar un metodo para resolver sistemas de ecuaciones lineales.
Para efecto de la implementaci
on del c
odigo, se usar
a el algoritmo de reducci
on de Crout para sistemas
tridiagonales (ver referencia [18], Captulo 6, Secci
on 6.6, p
ag. 408).
21

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF
Algoritmo del M
etodo de Diferencias Finitas para el caso no lineal.
Entrada: extremos a, b; condiciones de frontera , ; entero N 2; tolerancia Tol, n
umero m
aximo de
iteraciones M .
Salida: aproximaciones wi a y(xi ), para cada i = 0, . . . , N +1, o un mensaje de que se excedi
o el n
umero
m
aximo de iteraciones.
1. Tomar h = (b a)/(N + 1); w0 = ; wN +1 = .



2. Para i = 1, . . . , N , tomar wi = + i
h.
ba

3. Tomar k = 1.

4. Mientras k M , hacer los pasos 5 - 16.


5. Tomar

x
t
a1
b1
d1

6. Para i = 2, . . . , N 1, tomar
x
t
ai
bi
ci
di

7. Tomar

=
=
=
=
=
=

=
=
=
=
=

a + h,
(w2 )/2h,
2 + h2 fy (x, w1 , t),
1 + (h/2)fy (x, w1 , t),
(2w1 w2 + h2 f (x, w1 , t)).

a + ih,
(wi+1 wi1 )/2h,
2 + h2 fy (x, wi , t),
1 + (h/2)fy (x, wi , t),
1 (h/2)fy (x, wi , t),
(2wi wi+1 wi1 + h2 f (x, wi , t)).

x = b h,
t = ( wN 1 )/2h,
aN = 2 + h2 fy (x, wN , t),
cN = 1 (h/2)fy (x, wN , t),
dN = (2wN wN 1 + h2 f (x, wN , t)).

8. Tomar l1 = a1 ; u1 = b1 /a1 ; z1 = d1 /l1 . (Los pasos 8-12 resuelven un sistema lineal tridiagonal
utilizando el algoritmo de Crout).
9. Para i = 2, . . . , N 1, tomar li = ai ci ui1 ; ui = bi /li ; zi = (di ci zi1 )/li .
10. Tomar lN = aN cN uN 1 ; zN = (dN cN zN 1 )/lN .
11. Tomar vN = zN ; wN = wN + vN .
12. Para i = N 1, . . . , 1, tomar vi = zi ui vi+1 ; wi = wi + vi .
13. Si ||v|| Tol, hacer los pasos 14-15.
14. Para i = 0, . . . , N + 1, tomar x = a + ih. Mostrar (x, wi ).
15. Parar. Procedimiento terminado con exito.
16. Tomar k = k + 1.
17. M
aximo de iteraciones, procedimiento terminado sin exito. Parar.
Al igual que el caso lineal, la soluci
on encontrada por el metodo de Diferencias Finitas aproxima a la
soluci
on exacta con un orden de aproximaci
on O(h2 ) (ver [9], Captulo 8, Secci
on 7.2, p
ag. 432 - 433).
22

Secci
on 2.3: Metodo de los Elementos Finitos

Figura 2.4: La funci


on y(x) = 3x2 + 3x es un ejemplo de una funci
on en V.

2.3.

M
etodo de Elementos Finitos

El metodo de Elementos Finitos (MEF), el cual se plantea en las referencias [3, 17], constituye hoy
en da el procedimiento habitual para la aproximaci
on numerica de la soluci
on de problemas pr
acticos
que surgen en Ingeniera o las Ciencias. Se trata de un metodo general para la soluci
on de problemas de
contorno de ecuaciones diferenciales ordinarias o parciales. En esencia se trata de una tecnica que sustituye
el problema diferencial por otro algebraico, aproximadamente equivalente, para el cual se conocen tecnicas
generales de resoluci
on. Para ello hace uso de la discretizaci
on o subdivisi
on de una regi
on sobre la cual
est
an definidas las ecuaciones en formas geometricas simples denominadas elementos finitos. Una de las
ventajas de este metodo es su facilidad de implementaci
on en un programa computacional, que a su vez
es una condici
on b
asica para su utilizaci
on ya que el tratamiento de un problema, en particular, debe
efectuarse en un n
umero muy elevado de operaciones para resolver sistemas algebraicos del orden de
cientos o miles de ecuaciones. No obstante, esta cantidad no es una limitaci
on con las computadoras
est
andar de hoy.
El MEF fue al principio desarrollado en 1943 por R. Courant, quien utiliz
o el metodo de Ritz de an
alisis
numerico y minimizaci
on de las variables de c
alculo para obtener soluciones aproximadas a un sistema de
vibraci
on. En la decada de 1960 el metodo fue generalizado para la soluci
on aproximada de problemas de
an
alisis de tensi
on, flujo de fluidos y transferencia de calor. El primer libro sobre Elementos Finitos fue
publicado en 1967 por Zienkiewicz y Cheung ([19]). En la decada de 1970 el metodo fue extendido al an
alisis
de problemas no lineales de la mec
anica del continuo. Hoy el metodo permite resolver pr
acticamente
cualquier situaci
on fsica que pueda formularse mediante un sistema de ecuaciones diferenciales.

2.3.1.

Formulaci
on d
ebil de un problema modelo unidimensional

Consideremos el problema de valor de frontera siguiente:


u (x) = f (x),

(2.20)

u(0) = u(1) = 0,
dv
donde v =
y f es una funci
on continua. Se introduce el siguiente espacio vectorial de funciones:
dx


V = v : v C[0, 1], v es continua a trozos y acotada en [0, 1], v(0) = v(1) = 0 .

Si se multiplica la ecuaci
on (2.20) por una funci
on cualquiera de V (ver Figura 2.4) e integramos en el
intervalo [0, 1] usando la f
ormula de integraci
on por partes, entonces se tiene:
Z 1
Z 1
Z 1

u (x)v(x)dx = u (1)v(1) + u (0)v(0) +


u (x)v (x)dx =
u (x)v (x)dx,
0

23

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF
b

Figura 2.5: Ejemplo de una funci


on vh Vh , 5 subintervalos.

y concluimos que para toda funci


on v V, la soluci
on u del problema modelo (2.20) verifica:
B(u, v) = F(v),
donde B(u, v) =

u (x)v (x)dx es una forma bilineal y F(v) =

(2.21)
Z

f (x)v(x)dx es un funcional lineal.

La formulaci
on anterior (2.21) se llama formulaci
on debil o variacional del problema de partida (2.20).
Las dos formulaciones no son estrictamente equivalentes. En efecto, toda soluci
on de (2.20) es soluci
on
de (2.21). Sin embargo, para que toda soluci
on de (2.21) sea soluci
on de (2.20), se debe exigir que dicha
soluci
on sea dos veces continuamente diferenciable. La existencia y unicidad de la soluci
on de (2.21)
queda garantizada en virtud del Teorema de Lax Milgram y el Teorema de Representaci
on de Riesz (Ver
Preliminares, Teora de An
alisis Funcional).

2.3.2.

El MEF para el problema modelo con funciones lineales a trozos

El espacio V es un espacio de funciones de dimensi


on infinita. La idea del metodo de los elementos
finitos es buscar soluciones de (2.21) en un subespacio de V m
as sencillo, en particular, en un espacio
vectorial de funciones que sea de dimensi
on finita. Esto nos permitir
a representar cualquier funci
on de este
subespacio como una combinaci
on lineal de elementos de una base. En primer lugar, construiremos un
subespacio Vh de V. Para ello sea 0 = x0 < x1 < < xM < xM +1 = 1, una partici
on del intervalo (0, 1)
en subintervalos Ij = (xj1 , xj ) de longitud hj = xj xj1 , j = 1, 2, . . . , M + 1, y sea h = m
ax hj . La
cantidad h es una medida de lo fina que es la partici
on. Consideremos ahora
Vh = {v : v es lineal en cada subintervalo Ij , v C[0, 1] y v(0) = v(1) = 0}.
Un ejemplo de una funci
on en Vh se aprecia en la Figura 2.5.
Una base del espacio Vh est
a constituido por el siguiente conjunto de funciones j Vh , j = 1, . . . , M ,
definidas por:

1 si i = j,
j (xi ) =
0 si i 6= j.
es decir, j es continua y lineal a trozos, y toma el valor 1 en el nodo xj y el valor 0 en los otros nodos.
24

Secci
on 2.3: Metodo de los Elementos Finitos
1

Figura 2.6: Ejemplo de una funci


on de la base de Vh , 10 subintervalos.

De forma m
as precisa:

j (x) =

x xj1

xj xj1

xj+1 x

xj+1 xj

si x xj1 ,
si xj1 < x xj ,
si xj < x < xj+1 ,
si xj+1 x.

Una funci
on de esta base se aprecia en la Figura 2.6.

Una funci
on vh Vh se escribe de forma u
nica como combinaci
on lineal de funciones de la base
M
{j }j=1 ,
M
X
vh (x) =
vh (xi )j (x), x [0, 1].
j=1

El metodo de los elementos finitos para el problema (2.20) se formula de la siguiente manera: encontrar
uh Vh tal que para todo vh Vh verifique
B(uh , vh ) = F(vh ).

(2.22)

Este problema, como vamos a ver, es equivalente a resolver un sistema algebraico lineal. En efecto, por
una parte la soluci
on uh (x) se expresa en funci
on de los elementos de la base {i }M
i=1 , esto es,
uh (x) =

M
X

ui i (x),

i=1

donde ui = uh (xi ). Por otro lado, para que se verifique (2.22) con cualquier vh (x), es necesario y suficiente
que se verifique para cualquier funci
on de la base. Teniendo en cuenta la linealidad de la integral, resulta
que el problema a resolver es:
M
X
i=1

B(i (x), j (x))ui = F(j ),

para j = 1, . . . , M .

En forma matricial, el sistema se puede escribir como:


Au = b,

(2.23)
25

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF
donde [A]ij = B(i (x), j (x)) y bj = F(j ).

Los elementos [A]ij se calculan f


acilmente. Primero notemos que si |i j| > 1, entonces [A]ij = 0,
pues, en este caso, para x [0, 1], i (x) o j (x) es igual a cero. Por lo tanto, la matriz A es tridiagonal,
esto es, u
nicamente los elementos de la diagonal principal y los elementos de las dos diagonales adyacentes
pueden ser diferentes de cero. As, para j = 1, . . . , M ,
Z 1
j (x)j (x)dx
B(j (x), j (x)) =
0

xj

xj1

j (x)j (x)dx +

xj+1

xj

j (x)j (x)dx

1
1
+
,
hj
hj+1

y para j = 2, . . . , M ,
B(j (x), j1 (x)) =
=

j (x)j1 (x)dx

xj

xj1

1
dx
h2j

1
.
hj

La matriz A es simetrica y definida positiva, esto es, xAxT > 0, para todo vector fila x de dimensi
on M
no nulo. En efecto, notemos que [A]ij = B(i (x), j (x)) = B(j (x), i (x)) = [A]ji . Por otro lado, para un
vector fila x arbitrario no nulo, tenemos
!
M
M
X
X
vp B(p (x), k (x)) vk
xAxT =
p=1

k=1

M
X
k=1

= B

B
M
X

M
X

vp p (x), k (x) vk

p=1

vp p (x),

p=1

M
X
k=1

vk k (x) ,

= B(e
v (x), ve(x))
> 0.

As, como A es definida positiva, entonces A es invertible, por tanto, el sistema (2.23) tiene solucion. En
el caso especial en que los subintervalos Ij tengan todos la misma longitud h = M1+1 , el sistema tiene la
forma:

2 1 0 . . . 0
u1
b1

1 2 1 . . . ..

.
.

.
.
.
.
.
= . .
..
..
..
.

1
uM
bM
0
0 . . . 1 2
26

Secci
on 2.3: Metodo de los Elementos Finitos
Observaci
on: Si consideramos la ecuaci
on diferencial u (x) = f (x), con u(0) = u(1) = 0, entonces la
matriz A, del metodo de Diferencias Finitas para el caso lineal, coincide con la matriz A del metodo de
los Elementos Finitos.

2.3.3.

Integraci
on num
erica

A la hora de calcular el segundo miembro del sistema (2.23), aparecen integrales de la forma
Z

xj

f (x)j (x)dx +
xj1

xj+1

f (x)j (x)dx,

(2.24)

xj

con j = 1, . . . , M . Salvo en el caso en que la funci


on f sea una funci
on constante a trozos, la forma
pr
actica de calcular estas integrales ser
a mediante la integraci
on numerica. Para efecto de este trabajo, se
usar
a la f
ormula de cuadratura Gaussiana, especficamente la de dos puntos (Ver [12], Captulo 5, Secci
on
5.3, p
ag. 270). Dicha f
ormula dice que
Z
Por otro lado, una integral

1
1

f ()d f


1

+f
.
3

g(x)dx en un intervalo arbitrario [a, b] se puede transformar en otra en

[1, 1], usando el cambio de variables


t=
el cual equivale a decir que

2x a b
,
ba



1
x=
(b a)t + a + b .
2

Esto permite aplicar la f


ormula de cuadratura Gaussiana a cualquier intervalo [a, b], ya que
Z

b
a

ba
g(x)dx =
2


(b a)t + b + a
g
dt.
2
1
1

Por comodidad pongamos j (x) = f (x)j (x), j = 1, . . . , M . Para (2.24), se cumple


bj =

xj

j (x)dx +

xj1

1
donde pe = .
3

hj
2

xj+1

j (x)dx
xj




Z
hj t + xj + xj1
hj+1 1
hj+1 t + xj+1 + xj
dt +
j
dt
2
2
2
1

 



hj
hj pe + xj + xj1
hj pe + xj + xj1
j
+ j
2
2
2

 



hj+1
hj+1 pe + xj+1 + xj
hj+1 pe + xj+1 + xj
+
j
+ j
,
2
2
2

27

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF
Descripci
on de un algoritmo del M
etodo de Elementos Finitos.
del metodo de Elementos Finitos requiere, en general, de cuatro etapas:

El desarrollo de un algoritmo

1. El problema debe reformularse en forma variacional.


2. El dominio de la variable independiente debe dividirse mediante una partici
on en subdominios,
llamados elementos finitos. Asociada a la partici
on anterior se construye un espacio vectorial de
dimensi
on finita, llamado espacio de elementos finitos, siendo la soluci
on numerica una combinaci
on
lineal en dicho espacio vectorial.
3. Se obtiene la proyecci
on del problema variacional original sobre el espacio de elementos finitos
obtenido de la partici
on. Esto da lugar a un finito sistema de ecuaciones con un n
umero elevado de
inc
ognitas. El n
umero de ecuaciones y de inc
ognitas ser
a igual a la dimensi
on del espacio vectorial.
En general, cuanto mayor sea dicha dimensi
on tanto mejor ser
a la aproximaci
on numerica obtenida.
4. El u
ltimo paso es el c
alculo numerico de la soluci
on del sistema de ecuaciones.
Es importante resaltar que la soluci
on estimada por el metodo de Elementos Finitos aproxima la
soluci
on exacta con un orden de aproximaci
on O(h2 ) (ver [17]).

2.4.

M
etodo Galerkin Discontinuo

El metodo Galerkin Discontinuo, presentado en la referencia [1], forma parte de una clase de metodos
numericos para solucionar ecuaciones diferenciales parciales y ordinarias. Combina muchas caractersticas del metodo de Elementos Finitos y se ha aplicado con exito a problemas hiperb
olicos, elpticos y
parab
olicos. Este metodo fue propuesto y analizado en los a
nos 70 como una tecnica para solucionar
numericamente ecuaciones diferenciales parciales que surgen en muchas aplicaciones.
Este metodo numerico sigue la misma estructura del metodo de Elementos Finitos. La idea consiste
en reformular el problema dado en forma debil o forma variacional. Se procede a dividir el dominio de la
variable independiente en subdominios. Asociada a la partici
on anterior se construye un espacio vectorial
de dimensi
on finita, siendo la soluci
on numerica una combinaci
on lineal en dicho espacio vectorial, lo que
conllevar
a a un sistema de ecuaciones lineales, es decir, encontrar la soluci
on de una ecuaci
on diferencial
se limita a encontrar la soluci
on de un sistema de ecuaciones lineales.

2.4.1.

Formulaci
on d
ebil de un problema modelo unidimensional

Consideremos el problema siguiente en el intervalo (0, 1)


(K(x)p (x)) = f (x),
p(0) = 1,
p(1) = 0,

(2.25)

donde K C 1 (0, 1), es positiva y acotada, y f C 0 (0, 1). Vamos a reformular el problema modelo, pero
antes se introducir
a algunos conceptos que ser
an u
tiles para todo lo que sigue.
Sea 0 = x0 < x1 < < xN = 1 una partici
on h de (0, 1), pongamos In = (xn , xn+1 ), y definamos
hn = xn+1 xn , hn1,n = m
ax(hn1 , hn ), h =

m
ax

0nN 1

hn .

Denotemos por Dk (h ) el espacio de los polinomios discontinuos a trozos de grado k:




Dk (h ) = v : v|In Pk (In ), n = 0, . . . , N 1 ,

28

Secci
on 2.4: Metodo Galerkin Discontinuo
1

0.25

0.5

0.75

Figura 2.7: Ejemplo de una funci


on v en D2 (h ), 4 subintervalos de igual longitud. En I0 e I2 v es un
abola cuadr
atica.
segmento de recta, mientras que en I1 e I3 v es una par

donde Pk (In ) es el espacio de los polinomios de grado k en el intervalo In . Sean v(x+


m v(xn + )
n ) = l
0

y v(x
m v(xn ), donde > 0. Definiremos el salto y promedio de v en los extremos de In ,
n ) = l
0
respectivamente, como
1
+

+
[v(xn )] = v(x
n ) v(xn ), {v(xn )} = (v(xn ) + v(xn )), n = 1, . . . , N 1,
2
mientras que el salto y promedio en los extremos del intervalo (0, 1) se define como:
+

[v(x0 )] = v(x+
0 ), {v(x0 )} = v(x0 ), [v(xN )] = v(xN ), {v(xN )} = v(xN ).

Ahora, se introducen los terminos de salto de la soluci


on y su derivada. Estos terminos vienen dados por
J0 (v, w) =

N
X

h
n=0 n1,n

[v(xn )][w(xn )],

J1 (v, w) =

N
1
X
n=1

1
hn1,n

[v (xn )][w (xn )],

donde 0 y 1 son dos n


umeros reales no negativos.
Ahora bien, ya estamos en condici
on de reformular el problema modelo. Sea v una funcion en Dk (h )
(Ver Figura 2.7). Si se multiplica la ecuaci
on (2.25) por v y se integra en In , con n = 0, . . . , N 1, usando
la f
ormula de integraci
on por partes, entonces
Z xn+1
Z xn+1

+
K(x)p (x)v (x)dx K(xn+1 )p (xn+1 )v(xn+1 ) + K(xn )p (xn )v(xn ) =
f (x)v(x)dx.
xn

xn

Sumando las N ecuaciones anteriores y usando la definici


on de salto para v en cada nodo de la partici
on,
se tiene
Z 1
N
1 Z xn+1
N
X
X
K(x)p (x)v (x)dx
[K(xn )p (xn )v(xn )] =
f (x)v(x)dx.
n=0

xn

n=0

Notemos que, para n = 1, . . . , N 1, se cumple

[K(xn )p (xn )v(xn )] = {K(xn )p (xn )}[v(xn )] + {v(xn )}[K(xn )p (xn )].

(2.26)

Si se usa (2.26) y sabiendo que la soluci


on exacta p satisface [K(xn )p (xn )] = 0 en los nodos interiores de
la partici
on h (esto gracias a la continuidad de p ), se obtiene
N
1 Z xn+1
X
n=0

xn

K(x)p (x)v (x)dx

N
X

{K(xn )p (xn )}[v(xn )] =

n=0

f (x)v(x)dx.

29

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF
Como la soluci
on exacta p es tambien continua, entonces [p(xn )] = 0. Notemos que p(x0 ) = p(0) = 1 y
p(xN ) = p(1) = 0, con lo que
N
1 Z xn+1
X
n=0

xn

K(x)p (x)v (x)dx


=

Z
Z

1
0
1
0

N
X

{K(xn )p (xn )}[v(xn )] +

n=0

N
X

{K(xn )v (xn )}[p(xn )]

n=0

f (x)v(x)dx K(x0 )v (x0 )p(x0 ) + K(xN )v (xN )p(xN )


f (x)v(x)dx K(x0 )v (x0 ).

El tercer termino del primer miembro de la igualdad anterior es casi siempre cero. Adem
as, puede ser
cualquier n
umero real, sin embargo, nos restringiremos al caso en que = 1, = 0 o = 1. As, definimos
la forma bilineal del metodo Galerkin Discontinuo B : Dk (h ) Dk (h ) R, como
N
1 Z xn+1
X

B (w, v) =

n=0

xn

N
X

K(x)w (x)v (x)dx

N
X

{K(xn )w (xn )}[v(xn )]

n=0

{K(xn )v (xn )}[w(xn )] + J0 (w, v) + J1 (w, v).

n=0

La forma bilineal B tiene las siguientes propiedades:


1. Para = 1, la forma es simetrica, y adem
as
B1 (v, v) =

N
1 Z xn+1
X
n=0

xn

K(x)(v (x))2 dx 2

N
X

n=0

{K(xn )v (xn )}[v(xn )] + J0 (v, v) + J1 (v, v).

2. Para = 0 o = 1, la forma es no simetrica, y cumple


B1 (v, v) =

N
1 Z xn+1
X

B0 (v, v) =

N
1 Z xn+1
X

n=0

n=0

xn

xn

K(x)(v (x))2 dx + J0 (v, v) + J1 (v, v) 0,

K(x)(v (x)) dx

N
X

{K(xn )v (xn )}[v(xn )] + J0 (v, v) + J1 (v, v).

n=0

La idea de este metodo consiste en encontrar Pe Dk (h ) tal que


B (Pe, v) = L(v),

(2.27)

para cada v Dk (h ), donde L : Dk (h ) R es el funcional lineal definido por


Z 1
0
L(v) =
f (x)v(x)dx K(x0 )v (x0 ) +
v(x0 ).
h0,1
0
La existencia y unicidad de la soluci
on de (2.27) queda garantizada en virtud del Teorema de Lax Milgram
y el Teorema de Representaci
on de Riesz (Ver Preliminares, Teora de An
alisis Funcional).
0
1
Dependiendo de la elecci
on de los par
ametros , y , el metodo Galerkin Discontinuo recibe varios
nombres.
30

Secci
on 2.4: Metodo Galerkin Discontinuo
Si = 1, 1 = 0 y 0 est
a acotado inferiormente por un n
umero de gran magnitud, el metodo
resultante es llamado symmetric interior penalty Galerkin (SIPG), introducido despues de
1970 por Wheeler (ver [16]) y Arnold (ver [8]).
Si = 1 y 0 = 1 = 0, el metodo resultante es llamado global element, introducido en 1979 por
Delves y Hall (ver [15]). Sin embargo, la matriz asociada a la forma bilineal es indefinida, la parte
real de los autovalores no son todos positivos y, por tanto, el metodo es inestable.
Si = 1, 1 = 0 y 0 = 1, el metodo resultante es llamado nonsymmetric interior penalty
Galerkin (NIPG), introducido en 1999 por Rivi`ere, Wheeler and Girault (ver [4]).
Si = +1 y 0 = 1 = 0, el metodo resultante fue introducido por Oden, Babuska y Baumann
en 1998 (ver [10]). Haremos referencia a este metodo como NIPG 0, ya que corresponde al caso
particular de NIPG, con 0 = 0.
Si = 0, obtenemos el metodo incomplete interior penalty Galerkin (IIPG), el cual fue
introducido por Dawson, Sun and Wheeler en 2004 (ver [5]).
Cabe preguntarnos, que pasa si = 0 y 0 = 1 = 0?. Resulta que el metodo no es convergente y es
inestable, m
as a
un, no se puede probar la existencia y unicidad de la soluci
on.

2.4.2.

Derivaci
on del sistema lineal A = b mediante el uso de polinomios discontinuos
a trozos

En este apartado se deriva el sistema lineal que se obtiene al emplear el esquema Galerkin Discontinuo
para el problema modelo, tomando el caso simple cuando K(x) es identicamente igual a 1 y 1 = 0. Al
mismo tiempo, y por efectos de c
alculo, se consideran los polinomios cuadr
aticos discontinuos a trozos,
es decir, cuando se trabaja en D2 (h ).
Una base del espacio P2 (In ) est
a contituido por el siguiente conjunto de funciones nj P2 (In ),
j = 0, 1, 2, definidas por
n0 (x) = 1,

n1 (x) = 2

xx
en
,
xn+1 xn

n2 (x) = 4

(x x
en )2
,
(xn+1 xn )2


1
xn +xn+1 es el punto medio del intervalo In . Notemos que n0 , n1 y n2 son las traslaciones
2
respectivas de las funciones g0 (x) = 1, g1 (x) = x y g2 (x) = x2 , desde el intervalo (1, 1) al intervalo In
(Ver Figura 2.8). Con efecto de simplificar un poco los c
alculos, supongamos que h es una partici
on
uniforme de (0, 1). Por tanto, las funciones de base local y sus derivadas se pueden simplificar


 


 2
2
1
4
1
n
n
n
0 (x) = 1, 1 (x) =
x n+
h , 2 (x) = 2 x n +
h ,
(2.28)
h
2
h
2


 
2
8
1
n
n
n
h .
(2.29)
(0 ) (x) = 0, (1 ) (x) = , (2 ) (x) = 2 x n +
h
h
2
donde x
en =

Las funciones de base global {ni } para el espacio D2 (h ) son obtenidas de las funciones de base local
extendiendolas a cero:
 n
i (x), x In ,
n
i (x) =
0, x 6 In .

Ahora, para cada x (0, 1), notemos que la soluci


on aproximada Pe viene dada por
Pe (x) =

N
1 X
2
X

m
m
i i (x),

(2.30)

m=0 i=0

31

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF
n0 (x)

n2 (x)
0

xn+1

xn

n1 (x)
1

Figura 2.8: Funciones de base local para el espacio P2 (In ).

donde los coeficientes m


i son desconocidos y requieren ser calculados. Si se sustituye (2.30) en (2.27),
entonces, gracias a la linealidad de B y L, se tiene
N
1 X
2
X
m=0 i=0

m
n
n
m
i B (i (x), j (x)) = L(j (x)),

para n = 0, . . . , N 1 y j = 0, 1, 2. La igualdad anterior no es m


as que un sistema lineal de la forma
m
n
A = b, donde es el vector con componentes j , A es la matriz con entradas B (m
i (x), j (x)), y b es
n
el vector con componentes L(j (x)).

2.4.3.

Construcci
on de la matriz A

Las entradas de la matriz global A pueden ser obtenidas calculando y ensamblando matrices locales,
por tanto, vamos a describir c
omo calcular dichas matrices. Se reagrupar
an los terminos de la definici
on
B en tres grupos: los terminos que involucran las integrales sobre In , los terminos que involucran los
nodos interiores xn , y los relacionados con los nodos de la frontera x0 y xN . Primero se considera los
terminos correspondientes a las integrales sobre los intervalos In . En cada elemento In , la soluci
on Pe es
un polinomio de grado 2, y se puede expresar como
Pe(x) = n0 n0 (x) + n1 n1 (x) + n2 n2 (x),

(2.31)

para cada x In . Usando (2.31) y elegiendo v = nj (x), para cada j = 0, 1, 2, se obtiene


Z

In

Pe (x)(nj ) (x)dx =

2
X

ni

i=0

In

(ni ) (x)(nj ) (x)dx,

Este sistema lineal puede ser reescrito como An n , donde


n
Z
0
n = n1 , [An ]ij =
(ni ) (x)(nj ) (x)dx.
In
n2
La matriz An es f
acil de determinar,

0 0
1 0 4
An =
h
0 0

0
0
.
16
3
32

Secci
on 2.4: Metodo Galerkin Discontinuo
En segundo lugar, se considera los terminos que involucran los nodos interiores xn . Usando la definici
on
promedio y salto de la funci
on v para dichos nodos, se tiene

donde






 0 


Pe (xn ) v(xn ) + v (xn ) Pe(xn ) +
Pe(xn ) v(xn ) = bn + cn + dn + en ,
h
bn =

1 e +
e + +
0 e +
P (xn )v(x+
P
(x
P (xn )v(x+
)

)v
(x
)
+
n
n
n
n ),
2
2
h

1
e
0 e

cn = Pe (x
P (xn )v(x
n )v(xn ) + P (xn )v (xn ) +
n ),
2
2
h

1
e +
0 e +

dn = Pe (x+
P (xn )v(x
n )v(xn ) P (xn )v (xn )
n ),
2
2
h
en =

1 e
e +
0 e
P (xn )v(x+
)
+
P
(x
)v
(x
)

P (xn )v(x+
n
n
n
n ).
2
2
h

an las matrices
Usando (2.31) y con el cambio v = nj (x), los cuatros terminos anteriores determinar
locales Bn , Cn , Dn y En , respectivamente. Las entradas de dichas matrices son
1 n + n +

0 n + n +
n +
(i ) (xn )j (xn ) ni (x+
(x ) (x ),
n )(j ) (xn ) +
2
2
h i n j n

[Bn ]ij

[Cn ]ij

0
1 n n

n ) (x ) + n (x )n (x ),
(i ) (xn )j (xn ) + ni (x
)(
n
n
j
2
2
h i n j n

[Dn ]ij

1 n + n

0 n + n
n
(i ) (xn )j (xn ) ni (x+
(x ) (x ),
n )(j ) (xn )
2
2
h i n j n

[En ]ij

0
1 n n +

n ) (x+ ) n (x )n (x+ ).
(i ) (xn )j (xn ) + ni (x
)(
n
n
j
2
2
h i n j n

Las entradas ij de cada matriz local 3 3 se puede calcular f


acilmente usando (2.28) y (2.29):
Bn =

Cn =

Dn =

En =

0
1 0
2 + 0
1
0 1 + + 0
2 0 ,
h
0
0
2 +
1 2
2 + 2 0

0
1 + 0
2 + 0
1
+ 0 1 + + 0 2 + + 0 ,
h
2 + 0 1 + 2 + 0 2 + 2 + 0

0
1 + 0
2 0
1
0 1 + + 0 2 0 ,
h
2 0 1 + 2 + 0 2 2 0

0
1 0
2 0
1
+ 0
1 + + 0 2 + + 0 .
h
0
2
1 2 0 2 2 0

33

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF
Para finalizar, se considera los terminos relacionados con los nodos de frontera x0 y xN :
0
f0 = Pe (x0 )v(x0 ) Pe (x0 )v (x0 ) + Pe(x0 )v(x0 ),
h

fN

0
= Pe (xN )v(xN ) + Pe(xN )v (xN ) + Pe(xN )v(xN ).
h

Los dos terminos anteriores determinar


an, respectivamente, dos matrices locales, F0 y FN , las cuales
vienen dadas por:

0
2 0
4 + 0
1
F0 =
2 0 2 + 2 + 0 4 2 0 ,
h
4 + 0
2 4 0 4 + 4 + 0
FN

0
2 + 0
4 + 0
1
2 + 0 2 + 2 + 0 4 + 2 + 0 .
h
4 + 0 2 + 4 + 0 4 + 4 + 0

Estas matrices locales son independientes del intervalo In . Una vez que las matrices han sido calculadas,
ellas son ensambladas dentro de la matriz global. El ensamble depende del orden de las incognitas ni . Si
se supone que las incognitas est
an ordenadas de la siguiente manera


1
N 1
N 1
00 , 01 , 02 , 10 , 11 , 12 , 20 , 21 , 22 , . . . , N
,
,

0
1
2
entonces la matriz global viene dada por:

M0 D1
E1 M D2

EN 2

M
DN 1
EN 1 MN

donde

M = An + Bn + Cn+1 ,

M0 = A0 + F0 + C1 ,

MN = AN 1 + FN + BN 1 .

Observaci
on: Ya que el par
ametro de penalizaci
on es constante, las matrices locales son independientes
de los subintervalos. Por tanto, ellas pueden ser definidas antes de ensamblar la matriz global.

2.4.4.

Construcci
on del vector b

Recordemos que el vector b es un vector con componentes L(nj (x)), donde


Z 1
0
n
L(j (x)) =
f (x)nj (x)dx (nj ) (x0 ) + nj (x0 ),
h
0
para n = 0, . . . , N 1 y j = 0, 1, 2. En virtud de la definici
on de nj (x), se tiene
Z 1
Z xn+1
n
f (x)j (x)dx =
f (x)nj (x)dx.
0

xn

Despues de un cambio de variable (ver [18], Captulo 4, Secci


on 4.7, p
ag. 224), se obtiene


 
Z 1
Z
h 1
h
1
f (x)nj (x)dx =
f
t+ n+
h tj dt.
2
2
2
0
1
34

Secci
on 2.5: Metodo Galerkin Discontinuo
Salvo en el caso en que la funci
on f sea una funci
on constante a trozos, la forma pr
actica de calcular la
integral anterior ser
a mediante la integraci
on numerica, y, al igual que en el MEF, usaremos la f
ormula
de cuadratura Gaussiana de dos puntos (Ver [12], Captulo 5, Secci
on 5.3, p
ag. 270). Por lo tanto
Z

1
0

f (x)nj (x)dx



 
2
hX
h
1

f
sp + n +
h (sp )j ,
2
2
2
p=1

donde s1 = 13 y s2 = 13 . Escribiremos las componentes del vector b en un orden consecuente con el


orden de las incognitas ni


1
1
1
b00 , b01 , b02 , b10 , b11 , b12 , b20 , b21 , b22 , . . . , bN
, bN
, bN
,
0
1
2
donde las tres primeras componentes vienen dadas por
b00



2
hX
h
h
0
sp +
f
+ ,
2
2
2
h
p=1

b01



2
hX
h
h
2 0
f
sp +
sp ,
2
2
2
h
h
p=1

b02 =



2
hX
h
h
4 0
f
sp +
(sp )2 + + ,
2 p=1
2
2
h
h

mientras que el resto de las 3(N 1) componentes son


bni



 
2
hX
h
1
=
f
sp + n +
h (sp )i .
2
2
2
p=1

A continuaci
on se presenta un breve algoritmo de este metodo, el cual emplea las ideas b
asicas anteriormente descritas.
Algoritmo del M
etodo Galerkin Discontinuo.
Entrada: N
umero de subintervalos N 2; par
ametros y 0 .
Salida: Vector de inc
ognitas ni , i = 0, 1, 2; n = 0, . . . , N .
1. Tomar h = 1/N .
2. Construir las matrices locales An , Bn , Cn , Dn , En , F0 , FN .
3. Ensamblar las matrices locales dentro de la matriz global A.
4. Aplicar cuadratura Gaussiana de dos puntos para calcular y construir el vector b.
5. Tomar A1 b.
Para efecto de la implementaci
on de los c
odigos, se trabajar
a con SIPG, esto es, cuando = 1 y
0 = 106 . A raz de esto, la soluci
on encontrada por este metodo aproxima la soluci
on exacta con un
3
orden de aproximaci
on O(h ) (ver [1], p
ag. 13).
35

Captulo 2: Metodos Numericos para aproximar la soluci


on de un PVF

2.5.

M
etodo Bvp4c

Hasta los momentos se han planteado cuatro metodos para aproximar la soluci
on de un Problema
de Valor de Frontera de segundo orden: los metodos de Disparo y Diferencias Finitas son los metodos
com
unmente m
as usados, con frecuencia aparecen en todas las referencias b
asicas de An
alisis Numerico,
mientras que los metodos de los Elementos Finitos y Galerkin Discontinuo, un poco m
as complejos que los
anteriores, parten de la teora de espacios normados y se fundamentan en resultados del An
alisis Funcional.
En esta secci
on se plantear
a el u
ltimo de los metodos numericos que se emplear
a para la resolucion del
problema planteado: el Metodo Bvp4c, presentado en [14], el cual se encuentra implementado en Matlab.
El Metodo Bvp4c pone en pr
actica el principio de superposici
on para aproximar la soluci
on del Problema de Valor de Frontera de segundo orden:

y = f (x, y, y ),
y(a) = ,
(2.32)

y(b) = .

Para conseguir esto, se reescribe (2.32) como un sistema de ecuaciones diferenciales ordinarias de primer
orden:
(2.33)
y = f(x, y), a x b,
sujeta a condiciones generales de frontera no lineales:

g(y(a), y(b)) = 0.
La soluci
on aproximada del sistema (2.33), S(x), es una funci
on continua. M
as en general, la soluci
on
S(x) es un polinomio c
ubico en cada subintervalo In = [xn , xn+1 ], de una malla de puntos a = x0 < x1 <
< xN = b. Esta soluci
on aproximada satisface las condiciones de frontera que cumple y, es decir:
g(S(a), S(b)) = 0.
As mismo, la soluci
on S(x) satisface la ecuaci
on diferencial en los extremos y punto medio de cada
subintervalo In , esto es,
S (xn ) = f(xn , S(xn )),

xn + xn+1
2



xn + xn+1
xn + xn+1
= f
,S
,
2
2

S (xn+1 ) = f(xn+1 , S(xn+1 )).


Estas ecuaciones conllevan a un sistema de ecuaciones algebraicas no lineales para los coeficientes de
S(x). A diferencia del metodo del Disparo para el caso no lineal, la soluci
on y(x) es aproximada sobre
todo el intervalo [a, b] y las condiciones de frontera son tomadas en cuenta todo el tiempo. Las ecuaciones
algebraicas no lineales son resueltas iterativamente por linealizaci
on. La soluci
on S(x) es una aproximaci
on
de cuarto orden para y(x), es decir, ||y(x) S(x)|| Ch4 (ver [11]). Aqu, h es el m
aximo tama
no de
paso hn = xn+1 xn y C una constante.

Este metodo adapta la malla para obtener as una soluci


on numerica acertada con un modesto n
umero
de puntos de dicha malla. Poder hacer una aproximaci
on suficientemente buena es la parte m
as difcil al
momento de resolver un PVF. La continuidad de S(x) en [a, b] y la superposici
on en los extremos y punto
medio de cada intervalo implica que la derivada de S(x) tambien es continua en [a, b].
El metodo Bvp4c controla el error cometido al momento de aproximar y(x) mediante S(x). Para el
control de dicho error, se introduce el residuo o resto de la ecuaci
on diferencial. Este viene dado por
r(x) = S (x) f(x, S(x)).
Como se puede apreciar, en los extremos y punto medio de cada intervalo In , el resto es cero.
36

Secci
on 2.5: Metodo Bvp4c
Sintaxis. Como se dijo, el metodo Bvp4c es un metodo que usa la idea se superposici
on y el mismo se
encuentra implementado en Matlab, el cual permite resolver numericamente un PFV del tipo
y (x) = f (x, y(x), y (x)), x [a, b],
sujeta a
g(y(a), y(b)) = 0.
La sintaxis b
asica, empleando Matlab, es la siguiente:
sol = bvp4c(@odef un, @bcf un, solinit),
donde,
1. @odef un es el nombre del fichero de la ecuaci
on diferencial ordinaria que se quiere resolver, expresado
como un sistema de ecuaciones diferenciales ordinarias de primer orden,
dv = h(x, v).
Aqu x es un escalar, y adem
as,
v

= [v1 v2 ]T = [y(x) y (x)]T ,

dv = [v1 v2 ]T = [y (x), f (x, y(x), y (x))]T .


2. @bcf un es el nombre del fichero que contiene las condiciones de contorno.
3. solinit es el dato inicial de la ecuaci
on diferencial en un conjunto de nodos ordenados a = x0 <
x1 < < xN = b. Para ello se usa la funci
on bvpinit:
solinit = bvpinit(xmesh, yinit),
para un mallado inicial.
La salida sol es una estructura con
sol.x, que es el mallado seleccionado por Bvp4c,
sol.y, aproximaci
on a y(x) en los puntos del mallado sol.x,
sol.yp, aproximaci
on a y (x) en los puntos del mallado sol.x.

37

Captulo 2: Experimentaci
on Numerica

38

3
Experimentaci
on Num
erica

Como ya se ha dicho, los problemas de valor de frontera de segundo orden suelen ser comunes en
todas las ramas de las Ciencias Experimentales e Ingeniera. Por ejemplo, en Fsica, las leyes de Newton y
muchas otras se expresan como un problema de este tipo, en Biologa aparecen en el modelado de din
amica
de poblaciones, en la Qumica surgen en la evaluaci
on de las concentraciones de diversos reactivos durante
una reacci
on, etc. Sin embargo, la dificultad radica en que las ecuaciones diferenciales que surgen de estos
modelos no pueden resolverse analticamente excepto en algunos casos especiales. A raz de esto, resulta
necesario usar metodos numericos para dar aproximaciones (suficientemente buenas) de la soluci
on de
dichos modelos. En ese sentido, se han introducido, en este trabajo, cinco metodos numericos con la
finalidad de estimar esas aproximaciones, los cuales son: el Metodo del Disparo y Diferencias Finitas
(ver [9, 18]), el Metodo de los Elementos Finitos (ver [3, 17]), el Metodo Galerkin Discontinuo (ver [1]) y
el Metodo Bvp4c, un metodo que usa la idea se superposici
on y el mismo se encuentra implementado en
Matlab (ver[14]).
En muchas ocasiones estamos interesados en tener conocimento sobre costo de error y costo computacional (tiempo de CPU usado) que ocurre al momento de usar uno de los metodos anteriormente
mencionados, es decir, nos interesa saber que tan grande es la magnitud del error que se comete cuando se
aproxima la soluci
on y el tiempo de m
aquina que se requiere para realizar tal aproximaci
on. Es por esto
que en este captulo se har
a una breve discusi
on, m
as que comparaci
on, sobre la eficiencia y propiedades
de cada uno de estos metodos, esto en vista de que no se presentan las condiciones adecuadas para realizar una comparaci
on detallada y
optima entre ellos. Por ejemplo, el metodo Bvp4c realiza proceso
adaptativo mientras que los otros metodos no realizan. Otro ejemplo es que el metodo de los Elementos
Finitos y Galerkin Discontinuo s
olo son aplicables al caso en que la ecuaci
on diferencial es del tipo lineal,
mientras que los metodos del Disparo, Diferencias Finitas y Bvp4c se pueden emplear en un PVF ya sea
lineal como no lineal. Esta discusi
on se har
a usando los c
odigos de estos metodos sobre un conjunto de
ejemplos. Las implementaciones numericas de estos metodos es llevada a cabo en Matlab. No obstante,
por considerarlo irrelevante, los c
odigos no son dados explcitamente en este trabajo. Igualmente, en este
captulo, se estimar
a el error cometido al momento de aproximar la soluci
on con los metodos que se han
introducido. Para ello se emplear
a la norma del m
aximo o norma infinita, esto es, si x es un vector de n
componentes, entonces
||x|| = m
ax{|x1 |, |x2 |, . . . , |xn |}.
De la misma maner
a, se usar
a la norma L2 , dada por
Z b
1/2
2
||eh (x)||L2 =
(eh (x)) dx
,
a

con eh (x) = u(x) u


e(x), donde u(x) es la soluci
on exacta del PVF planteado y u
e(x) su aproximaci
on.
En el caso en que se emplee el metodo Galerkin Discontinuo, u
e(x) es un polinomio de grado 2 en cada
39

Captulo 3: Experimentaci
on Numerica
subintervalo de la partici
on, mientras que si se emplea alguno de los otros metodos, entonces u
e(x) es un
polinomio lineal en cada subintervalo de dicha partici
on.

En lo que sigue, se ponen a prueba los c


odigos de los metodos numericos sobre un conjunto de seis
ejemplos. Los tres primeros son del tipo lineal, lo que permite emplear los cinco metodos, mientras que
los ejemplos 4, 5 y 6 son del tipo no lineal, lo que conlleva a usar s
olo el metodo del Disparo, Diferencias
Finitas y Bvp4c. En vista de que el metodo del Disparo y Diferencias Finitas, para el caso no lineal, usan
un metodo iterativo para encontrar el cero de una funci
on no lineal y resolver un sistema de ecuaciones no
lineales, respectivamente, estos se ejecutar
an usando una tolerancia de 103 . De la misma manera, como
el metodo Bvp4c realiza proceso adaptativo, este se ejecutar
a usando una tolerancia tambien de 103 .
Para el metodo Galerkin Discontinuo, se trabajar
a en el caso particular en que = 1 y 0 = 106 , es
decir, se trabajara con el metodo SIPG. Se estimar
a el error mediante la norma del m
aximo y la norma
L2 , los cuales se denotar
an mediante |||| y ||||L2 , respectivamente, as como tambien el tiempo de
m
aquina, en segundos, requerido para realizar las distintas operaciones, y estos datos se representar
an en
cuadros. Para finalizar, se presentan un conjunto de gr
aficas que revelan el comportamiento de los errores
producidos para una partici
on particular del dominio donde est
a definida la soluci
on de la ecuaci
on
diferencial planteada.

Ejemplo 1
Consideremos el siguiente problema de valor de frontera lineal:
y = 27x +

y(0) = 1,
y(1) = 0,

28
,
3

el cual tiene por soluci


on exacta
14
7
9
y(x) = x3 + x2 x + 1.
2
3
6
La gr
afica de la soluci
on exacta y(x) se refleja en la Figura 3.1. Si se particiona el intervalo [0, 1] en
10, 50 y 100 subintervalos de igual longitud, entonces, en virtud del Cuadro 3.1, se logra apreciar que los
errores, empleando la norma del m
aximo, son relativamente buenos. Notemos que el metodo del Disparo
logra obtener una mejor aproximaci
on que los restantes metodos, a pesar que emplea casi el doble del
tiempo que el metodo de Diferencias Finitas, que es m
as r
apido. Esto es previsible debido a que Disparo
emplea el metodo de Runge - Kutta de cuarto orden, el cual ofrece una exactitud O(h4 ) a las soluciones
de los problemas de valor inicial.
Para un tama
no de paso de h = 0.02, el comportamiento del error cometido por cada uno de los
metodos se ilustra en la Figura 3.1. En las gr
aficas se reflejan como, para Diferencias Finitas, Elementos
Finitos y Galerkin Discontinuo, al aumentar x, el error va aumentando, hasta llegar a un cierto punto a
partir del cual el error empieza a disminuir. Para Disparo y Bvp4c, el error empieza a aumentar y disminuir
en peque
na magnitud, pero a partir de un cierto valor el error presenta oscilaciones considerables. Para
el error empleando la norma L2 , el metodo Galerkin Discontinuo logra obtener una mejor aproximaci
on
sobre los otros metodos, en vista de que este emplea polinomios de grado 2, a diferencias de los otros
metodos que emplean polinomios de grado 1.
Es importante resaltar que el metodo Bvp4c no realiza proceso de adaptatividad en las tres mallas
iniciales dadas, ya que en cada subintervalo de cada una de las tres particiones, la norma del residuo, que
resulta de aproximar la soluci
on mediante polinomios c
ubicos, est
a por debajo de la tolerancia dada. Si
se toma como referencia la malla de 10 subintervalos de igual longitud, entonces, en vista del Cuadro 3.1,
40

Ejemplo 1

x 10

16

7
6
5
y
4
3
2
1
0
0

0.1

(a) Gr
afica de la soluci
on exacta
8

x 10

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

0.9

(b) Error absoluto producido con Disparo

15

1.2

x 10

14

1
6

0.8

y
4

0.6

0.4
2

0.2

1
0
0

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

0
0

(c) Error absoluto producido con Diferencias. Finitas


8

x 10

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

(d) Error absoluto producido con Elementos Finitos

1.8

1.6

1.4

x 10

15

1.2

5
y

1
0.8

0.6
2

0.4
1
0
0

0.2
0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

(e) Error absoluto producido con Galerkin Discontinuo

0
0

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

(f) Error absoluto producido con Bvp4c

Figura 3.1: Ejemplo 1. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y
el error absoluto obtenidos con Disparo, Diferencias Finitas, Elementos Finitos, Galerkin Discontinuo y
Bvp4c, para un mallado de 50 subintervalos, empleando la norma del m
aximo.
41

Captulo 3: Experimentaci
on Numerica

x 10

15

7
6
5
y
4
3
2
1
0
0

0.2

0.4

0.6

0.8

(a) Gr
afica de la soluci
on exacta
1

x 10

(b) Error relativo producido con Disparo

14

1.4

x 10

14

1.2
0.8
1
0.6

0.8

y
0.6

0.4

0.4
0.2
0.2
0
0

0.2

0.4

0.6

0.8

0
0

0.2

0.4

(c) Error relativo producido con Diferencias. Finitas


8

x 10

0.6

0.8

(d) Error relativo producido con Elementos Finitos

x 10

15

7
5
6
4
5
y

4
3

2
2
1
1
0
0

0.2

0.4

0.6

0.8

(e) Error relativo producido con Galerkin Discontinuo

0
0

0.2

0.4

0.6

0.8

(f) Error relativo producido con Bvp4c

Figura 3.2: Ejemplo 1. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y
el error relativo obtenidos con Disparo, Diferencias Finitas, Elementos Finitos, Galerkin Discontinuo y
Bvp4c, para un mallado de 50 subintervalos, empleando la norma del m
aximo.
42

Ejemplo 2
N = 10

Metodo
Disparo
Dif. Finitas
Elementos Finitos
G. Discontinuo
Bvp4c

Tiempo
0.043
0.021
0.062
0.115
0.979

N = 50

Disparo
Dif. Finitas
Elementos Finitos
G. Discontinuo
Bvp4c

0.046
0.024
0.080
0.127
1.028

N = 100

Disparo
Dif. Finitas
Elementos Finitos
G. Discontinuo
Bvp4c

0.049
0.026
0.104
0.148
1.064

||||
4.441 1016
5.551 1016
8.882 1016
1.788 109
7.772 1016

||||L2
7.340 103
7.340 103
7.340 103
2.165 104
7.340 103

6.661 1016
1.088 1014
1.410 1014
2.195 108
2.442 1015

7.365 105
7.365 105
7.365 105
2.170 107
7.365 105

7.772 1016
7.994 1015
1.177 1014
7.703 109
1.665 1015

2.946 104
2.946 104
2.946 104
1.732 106
2.946 104

Cuadro 3.1: Ejemplo 1. Tiempo empleado y errores obtenidos para un mallado de 10, 50 y 100 subintervalos.
Bvp4c emplea 0.979 segundos para obtener la aproximaci
on con un error m
aximo de 7.772 1016 . Para
que los restantes cuatros metodos requieran un tiempo relativamente igual, necesitan emplear el n
umero
de intervalos que vienen dados en el Cuadro 3.2.
Metodo

Intervalos

Disparo

3610

Dif. Finitas

5635

Elementos Finitos
G. Discontinuo

1100
524

||||

6.151 1014
5.358 1012
7.480 1013
1.570 107

Cuadro 3.2: Ejemplo 1. N


umeros de intervalos necesarios y error obtenido por los metodos para requerir
un tiempo pr
oximo a 0.979 segundos.
Como se puede apreciar en el Cuadro 3.2, el metodo de Elementos Finitos logra obtener una aproximaci
on casi tan buena como la aportada por Disparo, en una cantidad de intervalos mucho menor,
mientras que, si se hace la comparaci
on con Diferencias Finitas, la aproximaci
on es mejor y emplea s
olo
casi una quinta parte de los intervalos que amerita este u
ltimo metodo. El metodo Galerkin Discontinuo
requiere menos intervalos pero el error obtenido aumenta significativamente en relaci
on cuando se usan
menos intervalos.

Ejemplo 2
Trabajemos ahora con el siguiente problema de valor de frontera:
2

y = (4x3 4x2 6x + 2)ex ,


y(0) = 1,
y(1) = 0,
43

Captulo 3: Experimentaci
on Numerica
N = 10

Metodo
Disparo
Dif. Finitas
Elementos Finitos
G. Discontinuo
Bvp4c

Tiempo
0.041
0.023
0.061
0.115
0.987

N = 50

Disparo
Dif. Finitas
Elementos Finitos
G. Discontinuo
Bvp4c

0.045
0.024
0.084
0.141
1.018

N = 100

Disparo
Dif. Finitas
Elementos Finitos
G. Discontinuo
Bvp4c

0.049
0.027
0.103
0.151
1.075

||||
1.915 106
1.203 103
1.277 106
1.277 106
1.915 106

||||L2
1.115 103
8.653 104
1.114 103
3.796 105
1.115 103

1.902 1010
1.211 105
1.268 1010
9.361 109
1.902 1010

1.118 105
8.637 106
1.118 105
3.846 108
1.118 105

3.042 109
4.845 105
2.028 109
1.755 109
3.042 109

4.472 105
3.455 105
4.472 105
3.041 107
4.472 105

Cuadro 3.3: Ejemplo 2. Tiempo empleado y errores obtenidos para un mallado de 10, 50 y 100 subintervalos.
con soluci
on

y(x) = (1 x)ex .
La gr
afica de la soluci
on exacta de este problema lineal se refleja en la Figura 3.3. Particionando
uniformente el intervalo [0, 1] en 10, 50 y 100 subintervalos, se aprecia, en virtud del Cuadro 3.3, que las
aproximaciones, empleando la norma del m
aximo, son
optimas. Para el caso del metodo de Diferencias
Finitas, los resultados son menos exactos que los restantes metodos, esto se debe a que presenta un error
del orden O(h2 ), cosa que no sucede, por citar, con el metodo del Disparo o Bvp4c, que presentan un
error del orden O(h4 ).

El comportamiento del error al dividir el intervalo [0, 1] en 50 subintervalos de igual longitud se ilustra
en la Figura 3.3. Se puede apreciar en las gr
aficas como, para Disparo, Diferencias finitas, Elementos
Finitos y Bvp4c, el error empieza a aumentar hasta alrededor de x = 0.5, punto en el cual empieza a
disminuir en forma considerable. Para el metodo Galerkin Discontinuo, el error se comporta de manera
oscilatoria hasta un entorno de x = 0.5, para luego empezar a disminuir de manera estable. Al igual que
en el ejemplo anterior, el metodo Galerkin Discontinuo logra dar una mejor aproximaci
on a la soluci
on
del PVF empleando la norma L2 , por encima de los otros cuatros metodos.

Para cada una de las tres mallas que se usan en el Cuadro 3.3, el metodo Bvp4c no realiza proceso de
adaptatividad, en vista de que en cada subintervalo de esas tres mallas, la norma del residuo, que resulta
de aproximar la soluci
on mediante polinomios c
ubicos, est
a por debajo de la tolerancia dada. Tomando
como referencia la malla de 10 subintervalos de igual longitud, entonces, en vista del Cuadro 3.3, el metodo
Bvp4c emplea 0.987 segundos para obtener la aproximaci
on con un error m
aximo de 1.915 106 . Para
que los restantes cuatros metodos requieran un tiempo relativamente igual, necesitan emplear el n
umero
de intervalos que se expresan en el Cuadro 3.4.
Como resultado se tiene, empleando el Cuadro 3.3 y el Cuadro 3.4, que tanto el metodo del Disparo
como Diferencias Finitas requieren una cantidad considerable de intervalos para usar el tiempo empleado
por Bvp4c para 10 subintervalos. Sin embargo, esto implica que los errores, empleando la norma del
44

Ejemplo 2

3.5

x 10

3
2.5
2
y
1.5
1
0.5
0
0

0.1

(a) Gr
afica de la soluci
on exacta
5

x 10

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

0.9

(b) Error absoluto producido con Disparo

2.5

1.5

x 10

y
2

0.5

0
0

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

0
0

(c) Error absoluto producido con Diferencias. Finitas


1.8

x 10

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

(d) Error absoluto producido con Elementos Finitos

3.5

x 10

1.6
3

1.4
2.5

1.2
y

0.8

2
1.5

0.6
1

0.4
0.5

0.2
0
0

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

(e) Error absoluto producido con Galerkin Discontinuo

0
0

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

(f) Error absoluto producido con Bvp4c

Figura 3.3: Ejemplo 2. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y
el error absoluto obtenidos con Disparo, Diferencias Finitas, Elementos Finitos, Galerkin Discontinuo y
Bvp4c, para un mallado de 50 subintervalos, empleando la norma del m
aximo.
45

Captulo 3: Experimentaci
on Numerica

2.5

x 10

1.5
y
1

0.5

0
0

0.1

(a) Gr
afica de la soluci
on exacta
6

x 10

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

(b) Error relativo producido con Disparo

x 10

1.6

1.4
5
1.2
4
1
y

y
0.8

0.6
2
0.4
1
0.2
0
0

0.2

0.4

0.6

0.8

0
0

0.2

0.4

(c) Error relativo producido con Diferencias. Finitas


2

x 10

0.6

0.8

(d) Error relativo producido con Elementos Finitos

2.5

x 10

2
1.5
1.5
y

1
0.5
0.5

0
0

0.2

0.4

0.6

0.8

(e) Error relativo producido con Galerkin Discontinuo

0
0

0.2

0.4

0.6

0.8

(f) Error relativo producido con Bvp4c

Figura 3.4: Ejemplo 2. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y
el error relativo obtenidos con Disparo, Diferencias Finitas, Elementos Finitos, Galerkin Discontinuo y
Bvp4c, para un mallado de 50 subintervalos, empleando la norma del m
aximo.
46

Ejemplo 3
Metodo

Intervalos

Disparo
Dif. Finitas

3554
5559

Elementos Finitos

1108

G. Discontinuo

514

||||

4.796 1014
3.918 109
3.221 1012
3.160 107

Cuadro 3.4: Ejemplo 2. N


umeros de intervalos necesarios y error obtenido por los metodos para requerir
un tiempo pr
oximo a 0.987 segundos.
m
aximo, aunmenten considerablemente, en relaci
on a cuando se usan menos intervalos. Por otro lado, y
a diferencia del metodo del Disparo y Diferencias Finitas, tanto el metodo de Elementos Finitos como
el metodo Galerkin Discontinuo requieren menos intervalos para obtener el tiempo de prueba, aunque
el error aumenta levemente. Como es de apreciar, el metodo de Elementos Finitos aproxima mejor la
soluci
on en menos intervalos en comparaci
on con Diferencias Finitas. Para finalizar, Galerkin Discontinuo
emplea menos intervalos, m
as el error obtenido no disminuye, por el contrario, aumenta debido al gran
volumen de operaciones que se ven involucrados en la implementaci
on del c
odigo.

Ejemplo 3
Consideremos el problema de valor de frontera lineal:
y = 4

sin(2x) + 4 cos2 (x) 4x cos2 (x) 5 + 5x


,
cos6 (x)

y(0) = 1,
y(1) = 0,
con soluci
on exacta
y(x) =

1x
.
cos4 (x)

La gr
afica de la soluci
on exacta y(x) viene dada en la Figura 3.5. En el Cuadro 3.5, se reflejan los
datos obtenidos para una partici
on uniforme de [0, 1] en 10, 50 y 100 subintervalos. Para el mallado
inicial de 10 subintervalos, el metodo Bvp4c adapta la malla con la finalidad de que el residuo satisfaga
la tolerancia dada, obteniendo as un nuevo mallado de 15 subintervalos (no todos de la misma longitud).
Al igual que los dos ejemplos anteriores, las aproximaciones arrojadas por cada metodo son relativamente
optimas, haciendo enfasis, nuevamente, en que el metodo de Diferencias Finitas proporciona errores un

poco mayor que los dados por los otros metodos, esto, en parte, al bajo orden de aproximaci
on (O(h2 ))
que presenta. Es importante resaltar que el proceso de adaptatividad por parte de Bvp4c conlleva a que
se realicen realizen m
as operaciones con el fin de mejorar los resultados. Es por eso, por ejemplo, que el
tiempo empleado al usar la malla inicial de 10 subintervalos es mucho mayor que el tiempo usado en la
malla de 50 o 100 subintervalos.
Para el caso particular en que el mallado consta de 51 puntos distribuidos uniformemente, el comportamiento del error cometido se refleja en la Figura 3.5. Aqu se puede notar como los errores, para cada uno
de los cinco metodos, se comportan de manera similar. Los errores empiezan a aumentar de forma lineal
hasta un entorno de x = 0.8, punto donde aproximadamente alcanzan el m
aximo, para luego disminuir
de manera r
apida. En esta malla, el metodo Bvp4c usa un tiempo de 1.045 segundos para realizar las
operaciones involucradas en la aproximaci
on, cometiendo un error m
aximo de 3.073 106 . Para tener un
tiempo aproximadamente igual, los cuatros metodos necesitar
an aproximar la soluci
on sobre el n
umero
de intervalos que se reflejan en el Cuadro 3.6.
47

Captulo 3: Experimentaci
on Numerica

3.5

x 10

3
2.5

2
1.5
1
0.5
0
0

0.1

(a) Gr
afica de la soluci
on exacta
3.5

x 10

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

0.9

(b) Error absoluto producido con Disparo

2.5

x 10

2
2.5

1.5

y
1.5

0.5
0.5
0
0

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

0
0

(c) Error absoluto producido con Diferencias. Finitas


2.5

x 10

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

(d) Error absoluto producido con Elementos Finitos

3.5

x 10

2
2.5

1.5
y

2
1.5

0.5
0.5

0
0

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

(e) Error absoluto producido con Galerkin Discontinuo

0
0

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

(f) Error absoluto producido con Bvp4c

Figura 3.5: Ejemplo 3. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y
el error absoluto obtenidos con Disparo, Diferencias Finitas, Elementos Finitos, Galerkin Discontinuo y
Bvp4c, para un mallado de 50 subintervalos, empleando la norma del m
aximo.
48

Ejemplo 3

x 10

3
y
2

0
0

0.2

0.4

0.6

0.8

(a) Gr
afica de la soluci
on exacta
5

x 10

(b) Error relativo producido con Disparo

3.5

x 10

3
4
2.5
3

2
y

1.5

1
1
0.5
0
0

0.2

0.4

0.6

0.8

0
0

0.2

0.4

(c) Error relativo producido con Diferencias. Finitas


3.5

x 10

0.6

0.8

(d) Error relativo producido con Elementos Finitos

x 10

3
4
2.5
3

2
y

y
1.5

1
1
0.5
0
0

0.2

0.4

0.6

0.8

(e) Error relativo producido con Galerkin Discontinuo

0
0

0.2

0.4

0.6

0.8

(f) Error relativo producido con Bvp4c

Figura 3.6: Ejemplo 3. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y
el error relativo obtenidos con Disparo, Diferencias Finitas, Elementos Finitos, Galerkin Discontinuo y
Bvp4c, para un mallado de 50 subintervalos, empleando la norma del m
aximo.
49

Captulo 3: Experimentaci
on Numerica
N = 10

Metodo
Disparo
Dif. Finitas
Elementos Finitos
G. Discontinuo
Bvp4c

Tiempo
0.043
0.021
0.059
0.116
1.118

N = 50

Disparo
Dif. Finitas
Elementos Finitos
G. Discontinuo
Bvp4c

0.045
0.024
0.077
0.129
1.045

N = 100

Disparo
Dif. Finitas
Elementos Finitos
G. Discontinuo
Bvp4c

0.049
0.027
0.102
0.148
1.070

N = 15

||||
1.706 103
7.850 102
1.128 103
1.128 103
1.120 104

||||L2
2.340 102
6.295 102
2.274 102
2.877 103
6.232 103

1.928 107
8.543 104
1.285 107
1.159 107
1.928 107

2.466 104
6.933 105
2.465 104
2.901 106
2.466 104

3.073 106
3.407 103
2.048 106
2.052 106
3.073 106

9.846 104
2.765 103
9.833 104
2.321 105
9.846 104

Cuadro 3.5: Ejemplo 3. Tiempo empleado y errores obtenidos para un mallado de 10, 50 y 100 subintervalos. Para la malla inicial de 10 subintervalos, el metodo Bvp4c adapta la malla con la finalidad de
mejorar la estimaci
on de la soluci
on, obteniendo as una malla final de 15 subintervalos.
Metodo

Intervalos

Disparo

3654

Dif. Finitas

5801

Elementos Finitos

1109

G. Discontinuo

533

||||

1.020 1013
2.542 107

8.607 1012
2.698 107

Cuadro 3.6: Ejemplo 3. N


umeros de intervalos necesarios y error obtenido por los metodos para requerir
un tiempo pr
oximo a 1.045 segundos.
Nuevamente, al igual que los Ejemplos 1 y 2, se obtiene, en virtud del Cuadro 3.5 y del Cuadro 3.6,
que los errores se incrementan a medida que aumentan los intervalos de la partici
on. Tanto el metodo del
Disparo como Elementos Finitos aportan errores relativamente iguales, con la diferencia de que Elementos
Finitos requiere menos intervalos para aproximar la soluci
on. De la misma manera, tanto Diferencias
Finitas como Galerkin Discontinuo obtienen errores similares, pero se diferencian en el hecho de que
Galerkin Discontinuo necesita menos de la decima parte del total de intervalos que necesita Diferencias
Finitas.

Ejemplo 4
Trabajemos ahora con la siguiente ecuaci
on diferencial:
12(2x 1)p
,
(p + (2x 1)2 )5/2
y(0) = 1,
y(1) = 0,
y =

50

Ejemplo 4
el cual tiene por soluci
on exacta

1 (2 p + 1 + p + 1)(2x 1) 1
y(x) = p

+ ,
p+1
2
p + (2x 1)2 2
2x 1

donde p = 103 . En la Figura 3.7, se ilustra la gr


afica de la soluci
on y(x).
Para una partici
on uniforme del intervalo [0, 1] en 100, 200 y 500 subintervalos, los errores y tiempo
requerido por cada metodo se expresan en el Cuadro 3.7. Es importante mencionar que para el mallado
inicial que consta de 101 puntos distribuidos uniformemente, el metodo Bvp4c realiza proceso adaptativo,
para obtener as una malla final que consta de 65 puntos, mientras que para el mallado de 201 puntos,
este metodo realiza nuevamente proceso adaptativo para obtener una mallado constitudo por 139 puntos,
no necesariamente distribudos uniformente.

N = 100

N = 64
N = 200

N = 138
N = 500

Metodo
Disparo
Dif. Finitas
Elementos Finitos
G. Discontinuo
Bvp4c

Tiempo
0.066
0.032
0.120
0.199
1.582

Disparo
Dif. Finitas
Elementos Finitos
G. Discontinuo
Bvp4c

0.091
0.047
0.164
0.376
1.669

Disparo
Dif. Finitas
Elementos Finitos
G. Discontinuo
Bvp4c

0.171
0.064
0.417
1.231
1.744

||||
1.230 103
2.522 102
8.797 104
8.796 104
1.115 103

||||L2
4.154 103
2.438 103
4.479 103
4.479 103
1.408 103

2.144 106
1.150 103
1.431 106
1.435 106
2.144 106

1.761 104
9.045 106
1.758 104
1.758 104
1.761 104

9.264 105
6.931 103
6.216 105
6.223 105
9.849 104

1.096 103
1.479 104
1.087 103
1.087 103
1.404 103

Cuadro 3.7: Ejemplo 4. Tiempo empleado y errores obtenidos para un mallado de 100, 200 y 500 subintervalos. Para las mallas iniciales de 100 y 200 subintervalos, el metodo Bvp4c adapta dichas mallas
con la finalidad de mejorar la estimaci
on de la soluci
on, obteniendo as dos mallas finales de 64 y 138
subintervalos, respectivamente

En la Figura 3.7 se muestran las gr


aficas de los distintos errores absolutos al emplear cada uno de los
cinco metodos numericos, trabajando con un mallado de 200 subintervalos. Como se dijo anteriormente,
para esta malla en metodo Bvp4c realiza proceso adaptativo con la finalidad de mejorar la estimaci
on,
para ello crea una malla final que va a constar de 139 nodos. Para realizar dicha adaptatividad, este
metodo emplea 1.669 segundos, cometiendo un error m
aximo de 9.849 104 . Para que los restantes
cuatros metodo usen un tiempo similar, necesitar
an usar aproximadamente el n
umero de subintervalos
que se ilustran en el Cuadro 3.8
51

Captulo 3: Experimentaci
on Numerica

x 10

0.8

0.6
y
0.4

0.2

0
0

0.2

0.4

0.6

0.8

(a) Gr
afica de la soluci
on exacta
7

x 10

(b) Error absoluto producido con Disparo

x 10

y
3

0
0

0.2

0.4

0.6

0.8

0
0

0.2

0.4

(c) Error absoluto producido con Diferencias. Finitas


7

x 10

0.6

0.8

(d) Error absoluto producido con Elementos Finitos

x 10

6
0.8
5
0.6

4
y

y
3

0.4

2
0.2
1
0
0

0.2

0.4

0.6

0.8

(e) Error absoluto producido con Galerkin Discontinuo

0
0

0.2

0.4

0.6

0.8

(f) Error absoluto producido con Bvp4c

Figura 3.7: Ejemplo 4. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y
el error absoluto obtenidos con Disparo, Diferencias Finitas, Elementos Finitos, Galerkin Discontinuo y
Bvp4c, para un mallado de 200 subintervalos, empleando la norma del m
aximo.
52

Ejemplo 4

x 10

6
5
4
y
3
2
1
0
0

0.1

(a) Gr
afica de la soluci
on exacta

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

0.9

(b) Error relativo producido con Disparo

1.6
4.5

1.4

0.2

x 10

1.2

3.5

3
2.5

0.8

y
2

0.6
1.5

0.4
1

0.2

0.5

0
0

0.5
0.6
0.7
0.8
0.9
x
(c) Error relativo producido con Diferencias. Finitas

4.5

x 10

0.1

0.2

0.3

0.4

0
0

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

(d) Error relativo producido con Elementos Finitos

0.25

0.2
3.5
3

0.15

2.5

y
2

0.1

1.5
1

0.05

0.5
0
0

0.1

0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

0.9

(e) Error relativo producido con Galerkin Discontinuo

0
0

0.1

0.2

0.3

0.4

0.5
0.6
0.7
0.8
x
(f) Error relativo producido con Bvp4c

0.9

Figura 3.8: Ejemplo 4. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y
el error relativo obtenidos con Disparo, Diferencias Finitas, Elementos Finitos, Galerkin Discontinuo y
Bvp4c, para un mallado de 50 subintervalos, empleando la norma del m
aximo.
53

Captulo 3: Experimentaci
on Numerica
Metodo

Intervalos

Disparo
Dif. Finitas

3841
6930

Elementos Finitos

1301

G. Discontinuo

631

||||

6.173 1010
5.960 106
3.123 108
9.876 107

Cuadro 3.8: Ejemplo 4. N


umeros de intervalos necesarios y error obtenido por los metodos para requerir
un tiempo pr
oximo a 1.669 segundos.
N = 20

Metodo
Disparo
Dif. Finitas
Bvp4c

Tiempo
0.045
0.042
0.886

N = 40

Disparo
Dif. Finitas
Bvp4c

0.052
0.047
1.046

N = 80

Disparo
Dif. Finitas
Bvp4c

0.059
0.052
1.087

||||
1.672 106
3.643 105
3.087 107

||||L2
7.431 105
5.530 105
7.384 105

4.807 107
2.276 106
3.079 107

4.785 106
3.454 106
4.759 106

8.711 107
9.106 106
3.077 107

1.875 105
1.382 105
1.857 105

Cuadro 3.9: Ejemplo 5. Tiempo empleado y errores obtenidos para un mallado de 20, 40 y 80 subintervalos.

Ejemplo 5
Consideremos la siguiente ecuaci
on diferencial:
y = y 3 +
y(0.2) =

0.2
,
1.04

y(0.8) =

0.8
,
1.64

el cual tiene por soluci


on exacta
y(x) =

3x3 6x
,
(1 + x2 )3

x
.
1 + x2

Como se puede notar, la ecuaci


on planteada es un problema de valor de frontera del tipo no lineal. En
la Figura 3.9, se ilustra la gr
afica de la soluci
on y(x). Particionando uniformemente el intervalo [0.2, 0.8] en
20, 40 y 80 subintervalos, entonces, en virtud del Cuadro 3.9, se aprecia que los errores, empleando las dos
normas, son relativamente buenos. Se puede notar que las estimaciones aportadas tanto por Disparo como
por Bvp4c son mejores que las aportadas por Diferencias Finitas, en vista de que el orden de aproximaci
on
4
2
de los dos primeros es el doble que el orden de aproximaci
on de Diferencias Finitas (O(h ) contra O(h )).

Para un tama
no de paso h = 0.0075, el comportamiento del error que se comete con los tres metodos
se refleja en la Figura 3.9. Como es de apreciar, los errores, tanto para Diferencias Finitas (que amerita dos
iteraciones por parte del metodo de Newton para sistemas de ecuaciones no lineales) como Bvp4c, empiezan
a aumentar considerablemente, alcanzando el m
aximo alrededor de x = 0.4 y x = 0.5, respectivamente,
54

Ejemplo 5

x 10

3
y
2

0
0.2

0.3

0.5
0.6
0.7
x
(b) Error absoluto producido con Disparo

(a) Gr
afica de la soluci
on exacta
2.5

x 10

0.4

0.8

3.5

x 10

2
2.5

1.5
y

2
1.5

1
1

0.5
0.5

0
0.2

0.3

0.4

0.5
0.6
0.7
0.8
x
(c) Error absoluto producido con Diferencias. Finitas

0
0.2

0.3

0.4

0.5
x

0.6

0.7

0.8

(d) Error absoluto producido con Bvp4c

Figura 3.9: Ejemplo 5. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y el
error absoluto obtenidos con Disparo, Diferencias Finitas y Bvp4c, para un mallado de 80 subintervalos,
usando la norma del m
aximo.

55

Captulo 3: Experimentaci
on Numerica

x 10

0.8

0.6
y
0.4

0.2

0
0.2

0.4

0.6

0.8

(a) Gr
afica de la soluci
on exacta
7

x 10

(b) Error relativo producido con Disparo

x 10

5
5

3
3

1
0
0.2

0.4

0.6

0.8

(c) Error relativo producido con Diferencias. Finitas

0
0.2

0.4

0.6

0.8

(d) Error relativo producido con Bvp4c

Figura 3.10: Ejemplo 5. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y
el error relativo obtenido con Disparo, Diferencias Finitas y Bvp4c, para un mallado de 80 subintervalos,
usando la norma del m
aximo.

56

Ejemplo 6
para luego empezar a disminuir. En el caso del metodo del Disparo (que requiere tres iteraciones del
metodo Newton Raphson) el error crece de forma lineal. Es importante resaltar que tanto en el metodo
de Diferencias Finitas como en Bvp4c, la soluci
on es aproximada sobre todo el intervalo [0.2, 0.8] y las
condiciones de frontera son tomadas todo el tiempo, cosa que no ocurre con Disparo. Es por esta raz
on,
para este u
ltimo metodo, que el error producido para x = 0.8 no necesariamente es cero, como se podra
pensar.
Para las tres mallas iniciales dadas, el metodo Bvp4c no realiza proceso de adaptatividad, lo que
hace pensar que las aproximaciones usando los polinomios c
ubicos son buenas. Particularmente, cuando
se trabaja en una malla uniforme que consta de 21 nodos, el metodo Bvp4c usa un tiempo de 0.886
segundos para realizar las operaciones involucradas en la aproximaci
on, cometiendo un error m
aximo de
3.087 107 . Para que Disparo y Diferencias Finitas requieran un tiempo similar, necesitan emplear el
n
umero de intervalos que vienen dados en el Cuadro 3.10.
Metodo

Intervalos

Disparo

3601

Dif. Finitas

3391

||||

1.050 107
1.267 109

Cuadro 3.10: Ejemplo 5. N


umeros de intervalos necesarios y error obtenido por los metodos para requerir
un tiempo pr
oximo a 0.886 segundos.
Empleando el Cuadro 3.9 y el Cuadro 3.10, se logra apreciar que el error obtenido por el metodo
del Disparo no mejora, sino que se mantiene aproximadamente igual pese a aumentar la partici
on del
dominio de la ecuaci
on diferencial. Por el contrario, las estimaciones aportadas por Diferencias Finitas
son mejores a medida que se incrementa la partici
on del dominio. El error que comete Diferencias Finitas
es mucho menor en comparaci
on con el metodo del Disparo, con la ventaja de que el mallado requiere
menos intervalos.

Ejemplo 6
Consideremos el siguiente PVF no lineal:
y = yy 2 sin(x) x cos(x) + x cos2 (x)

y(1) = cos(1),
y(2) = 2 cos(2),

x2 sin(2x)
,
2

con soluci
on exacta
y(x) = x cos(x).
La gr
afica de la soluci
on del PVF planteado se muestra en la Figura 3.11. Nuevamente, al igual que el
ejemplo anterior, se realiza una partici
on uniforme del intervalo [1, 2] en 20, 40 y 80 subintervalos. En
virtud del Cuadro 3.11, se logra notar que los errores usando cada una de las dos normas introducidas son
aceptables. Las estimaciones aportadas por Disparo y Bvp4c siguen siendo mejores que las aportadas por
Diferencias Finitas, debido a que este u
ltimo metodo posee un orden de aproximaci
on bajo, en comparaci
on
con los otros dos.
Para un tama
no de paso h = 0.0375, es decir, dividiendo uniformemente el intervalo [1, 2] en 80
subintervalos, el comportamiento del error cometido viene dada en la Figura 3.11. Para el metodo del
Disparo, que amerita cuatro iteraciones por parte del metodo de Newton Raphson, el error aumenta
considerablemente a lo largo de todo el intervalo [1, 2], sucediendo lo mismo que en el ejemplo anterior,
en el cual el error en la segunda condici
on de frontera no necesariamente es cero. Para Diferencias Finitas,
que requiere cuatro iteraciones por parte del metodo de Newton para sistemas de ecuaciones no lineales,
57

Captulo 3: Experimentaci
on Numerica

x 10

5
4
y
3
2
1
0
1

0.5
1
1.5
x
(b) Error absoluto producido con Disparo

(a) Gr
afica de la soluci
on exacta
x 10

1.8

x 10

0.5

0.5

1.6
1.4
2

1.2
y

1
0.8

0.6
0.4
0.2

0
1

0.5

0.5
1
1.5
2
x
(c) Error absoluto producido con Diferencias. Finitas

0
1

0.5
1
1.5
x
(d) Error absoluto producido con Bvp4c

Figura 3.11: Ejemplo 6. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y el
error absoluto obtenidos con Disparo, Diferencias Finitas y Bvp4c, para un mallado de 80 subintervalos,
usando la norma del m
aximo.

58

Ejemplo 6

2.5

x 10

1.5
y
1

0.5

0
1

(a) Gr
afica de la soluci
on exacta

0.5

0.5
x

1.5

(b) Error relativo producido con Disparo

0.012
2

x 10

0.01
1.5

0.008
y
0.006

0.004
0.5

0.002
0
1

0.5

0.5
1
1.5
2
x
(c) Error relativo producido con Diferencias. Finitas

0
1

0.5

0.5
x

1.5

(d) Error relativo producido con Bvp4c

Figura 3.12: Ejemplo 6. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y
el error relativo obtenidos con Disparo, Diferencias Finitas y Bvp4c, para un mallado de 80 subintervalos,
usando la norma del m
aximo.

59

Captulo 3: Experimentaci
on Numerica
N = 20

Metodo
Disparo
Dif. Finitas
Bvp4c

Tiempo
0.049
0.046
1.070

N = 40

Disparo
Dif. Finitas
Bvp4c

0.053
0.049
1.136

N = 80

Disparo
Dif. Finitas
Bvp4c

0.062
0.059
1.230

||||
6.304 104
3.210 103
3.095 106

||||L2
5.778 103
4.085 103
5.356 103

5.792 105
2.010 104
1.769 106

2.995 104
2.551 104
3.359 104

8.948 105
8.038 104
1.901 106

1.282 103
1.020 103
1.340 103

Cuadro 3.11: Ejemplo 6. Tiempo empleado y errores obtenidos para un mallado de 20, 40 y 80 subintervalos.

el error aumenta hasta la proximidades de x = 0.75, punto en el cual aproximadamente alcanza su


m
aximo, para posteriormente empezar a disminuir. Para el metodo Bvp4c, el error se comporta de manera
oscilatoria hasta una vecindad de x = 0.5, punto donde alcanza su m
aximo, y luego empieza a disminuir
de forma estable. Es importante acotar, que para las tres mallas iniciales dadas, el metodo Bvp4c no
realiza proceso de adaptatividad, con lo que se concluye que las estimaciones usando polinomios c
ubicos
son buenas. En particular, trabajando en una malla uniforme de 21 puntos, el metodo Bvp4c usa un
tiempo de 1.070 segundos para realizar las operaciones relacionadas con el c
alculo de la aproximaci
on de
6
la soluci
on, cometiendo un error m
aximo de 3.095 10 . Para requerir un tiempo aproximadamente igual,
tanto Disparo como Diferencias Finitas necesitar
an aproximar la soluci
on sobre el n
umero de intervalos
que se muestran en el Cuadro 3.12.

Metodo

Intervalos

Disparo

3841

Dif. Finitas

3092

||||

1.021 105
1.347 107

Cuadro 3.12: Ejemplo 6. N


umeros de intervalos necesarios y error obtenido por los metodos para requerir
un tiempo pr
oximo a 1.070 segundos.

En virtud del Cuadro 3.11 y del Cuadro 3.12, se obtiene, al igual que el Ejemplo 5, que el error que
proporciona el metodo del Disparo se sigue manteniendo igual, pese a aumentar considerablemente el
total de subintervalos de la partici
on del dominio donde est
a definido el PVF. Todo lo contrario ocurre
con Diferencias Finitas, ya que su error disminuy
o relativamente a medida que se consider
o m
as intervalos
en la partici
on del dominio.
60

Ejemplo 7

Ejemplo 7
Para finalizar, consideremos ahora el PVF no lineal:
p
p
2 3p + x3 p + x2 )
x(px
p
+
x
p
y = y 2 +
,
(p + x2 )5
y(0.1) =
y(0.1) =

0.1
,
p + 0.01

0.1
,
p + 0.01

con soluci
on
y(x) = p

x
p + x2

donde p = 105 .
La soluci
on gr
afica del PVF planteado se ilustra en la Figura 3.13. Nuevamente, al igual que el
ejemplo anterior, se realiza una partici
on uniforme del intervalo [1, 2], pero esta vez en 200, 300 y 500
subintervalos. En virtud del Cuadro 3.13, se aprecia que los errores, empleando cada una de las dos
N = 200

Metodo
Disparo
Dif. Finitas
Bvp4c

Tiempo
0.157
0.079
1.249

N = 300

Disparo
Dif. Finitas
Bvp4c

0.214
0.097
1.383

N = 500

Disparo
Dif. Finitas
Bvp4c

0.333
0.134
1.618

||||
9.359 105
6.934 103
9.266 105

||||L2
4.901 104
6.614 105
4.901 104

2.709 106
1.151 103
2.153 106

7.874 105
4.047 106
7.874 105

1.685 105
3.171 103
1.613 105

2.184 104
1.901 105
2.184 104

Cuadro 3.13: Ejemplo 7. Tiempo empleado y errores obtenidos para un mallado de 200, 300 y 500 subintervalos.
normas introducidas, no son los esperados para la gran cantidad de subintervalos de las tres particiones.
De nuevo, las estimaciones aportadas por Disparo y Bvp4c siguen siendo mejores que las aportadas por
Diferencias Finitas, debido a que ambos presentan un orden de aproximaci
on de O(h4 ), contra el orden
2
de aproximaci
on O(h ) que presenta Diferencias Finitas.
Usando un tama
no de paso h = 0.0004, es decir, dividiendo uniformemente el intervalo [0.1, 0.1] en
500 subintervalos, el comportamiento del error que se produce se refleja en la Figura 3.13. Para el metodo
del Disparo, que amerita tres iteraciones por parte del metodo de Newton Raphson, el error tiene un
comportamiento lineal, pero alrededor de x = 0 presenta oscilaciones, esto debido a la alta pendiente que
presenta la soluci
on en un entorno de ese punto. Para el metodo de Diferencias Finitas (que requiere tres
iteraciones por parte del metodo de Newton para sistemas de ecuaciones no lineales), y el metodo Bvp4c,
el error tiene un comportamiento estable en casi todo en intervalo [0.1, 0.1], presentando una mayor
magnitud en un entorno de x = 0, donde presenta oscilaciones considerablemente altas.
Es importante resaltar que en las tres mallas iniciales dadas, el metodo Bvp4c no realiza proceso
de adaptatividad. En particular, cuando se trabaja en una malla uniforme que consta de 201 nodos, el
61

Captulo 3: Experimentaci
on Numerica

x 10

2.5
2
y
1.5
1
0.5
0
0.1 0.08 0.06 0.04 0.02

0
0.02 0.04 0.06 0.08
x
(b) Error absoluto producido con Disparo

(a) Gr
afica de la soluci
on exacta
1.2

x 10

2.5

x 10

0.1

0.8
1.5

y
0.6

y
1

0.4
0.2
0
0.1 0.08 0.06 0.04 0.02

0
0.02 0.04 0.06 0.08 0.1
x
(c) Error absoluto producido con Diferencias. Finitas

0.5

0
0.1 0.08 0.06 0.04 0.02

0
0.02 0.04 0.06 0.08
x
(d) Error absoluto producido con Bvp4c

0.1

Figura 3.13: Ejemplo 7. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y el
error absoluto obtenidos con Disparo, Diferencias Finitas y Bvp4c, para un mallado de 500 subintervalos
usando la norma infinita.

62

Ejemplo 7

1.6

x 10

1.4
1.2
1
y
0.8
0.6
0.4
0.2
0
0.1

(a) Gr
afica de la soluci
on exacta
4

x 10

0.05

0
x

0.05

0.1

(b) Error relativo producido con Disparo

1.2

x 10

3.5
1
3
0.8
2.5
y

0.6

1.5
0.4
1
0.2
0.5
0
0.1

0.05

0
x

0.05

(c) Error relativo producido con Diferencias. Finitas

0.1

0
0.1

0.05

0
x

0.05

0.1

(d) Error relativo producido con Bvp4c

Figura 3.14: Ejemplo 7. De arriba hacia abajo y de izquierda a derecha se muestran la soluci
on exacta y el
error relativo obtenidos con Disparo, Diferencias Finitas y Bvp4c, para un mallado de 500 subintervalos,
usando la norma del m
aximo.

63

Captulo 3: Experimentaci
on Numerica
metodo Bvp4c usa un tiempo de 1.249 segundos para realizar las operaciones involucradas, cometiendo
un error m
aximo de 9.266 105 . Para que Disparo y Diferencias Finitas requieran un tiempo similar,
necesitan emplear el n
umero de intervalos que vienen dados en el Cuadro 3.14.
Metodo

Intervalos

Disparo

1889

Dif. Finitas

4250

||||

7.399 107
1.585 105

Cuadro 3.14: Ejemplo 7. N


umeros de intervalos necesarios y error obtenido por los metodos para requerir
un tiempo pr
oximo a 1.249 segundos.
Como se logra apreciar, pese a aumentar ampliamente la cantidad de intervalos de la particion del
dominio donde est
a definida la soluci
on del PVF, los errores s
olo disminuyen levemente. El metodo del
Disparo logra aportar mejores estimaciones en menos subintervalos que el metodo de Diferencias Finitas.

64

A
Pruebas de algunas afirmaciones

A.1.

Correspondientes al M
etodo del Disparo

Teorema A.1 Sea h = (b a)/N , xi = a + nh, con i = 0, 1, . . . , N. Sean u(x), v(x) y y(x) las soluciones
respectivas de (2.2), (2.3) y (2.4). Si u
ei y vei son aproximaciones de O(hn ) para ui = u(xi ) y vi = v(xi ),
respectivamente, entonces wi ser
a una aproximaci
on de O(hn ) para yi = y(xi ). En particular,



vi
n
|wi yi | Kh 1 +
,
vN
para alguna K apropiada.

Demostraci
on: Definamos

ei = wi yi ,
(u)

ei

(v)

ei

= u
ei ui ,
= vei vi ,

para i = 0, 1, . . . , N. En virtud de (2.4), en cada nodo xi , se tiene,


yi = ui + Cvi ,
donde
C=

(A.1)

u(b)
.
v(b)

Por otra parte,


donde

Restando (A.1) a (A.2),

evi ,
wi = u
ei + Ce
eN
e = u
C
.
veN

evi Cvi
wi yi = u
ei ui + Ce

evi Cv
e i + Cv
e i Cvi
= u
ei ui + Ce

e vi vi ) + (C
e C)vi .
= u
ei ui + C(e
65

(A.2)

Apendice
Por tanto,
(u)

ei = ei
Para j = N , notemos que eN = 0, as,

(v)

e
+ Ce
i

e C)vi .
+ (C

(u)
e (v)
eN + Ce
N
e
.
C C =
vN

Sustituyendo (A.4) en (A.3),

(A.3)

(A.4)



vi
(v)
(u)
(v)
e
e
ei =
+ Cei eN + CeN
.
vN




(u)
(v)
Tomando valor absoluto, y sabiendo que ei M1 hn y ei M2 hn , para ciertas constantes positivas
M1 y M2 , tenemos




vi
n
n
n
n
e
e




|ei | M1 h + C M2 h + M1 h + C M2 h
vN
(u)
ei


 


e M2 hn 1 + vi .
M1 + C
vN


e M2 , concluimos que wi aproxima a yi con un orden O(hn ).
As, eligiendo K = M1 + C

A.2.

Correspondientes al M
etodo de Diferencias Finitas

Teorema A.2 Supongamos que p(x), q(x) y r(x) son continuas en [a, b]. Si q(x) 0 en [a, b], entonces
el sistema lineal tridiagonal (2.17) tiene una soluci
on u
nica siempre y cuando h < 2/L, donde L =
m
ax |p(x)|.
axb

Demostraci
on: Basta verificar que se cumplen las hip
otesis del teorema (1.2).
Como L < 2/h, entonces, para cada i = 1, 2, . . . , n, se tiene que |p(xi )| < 2/h, con lo que,
1 <
De la u
ltima desigualdad se obtiene que 0 < 1

h
p(xi ) < 1
2

h
h
p(xi ) = |i | y 0 < 1 + p(xi ) = |i |. Por tanto,
2
2

1. Para i = 2, 3, . . . , n 1, se verifica que i i 6= 0.


2. Usando (A.5) y sabiendo que q(x) 0, en [a, b], se tiene,
|1 | = 1

h
p(x1 )
2

< 2
2 + h2 q(x1 )
= |1 |.

3. Para i = 2, . . . , n 1,

|i | + |i | = 1 +

h
h
p(xi ) + 1 p(xi )
2
2

= 2
2 + h2 q(xi )
= |i |.

(A.5)

Secci
on A.2: Correspondientes al Metodo de Diferencias Finitas
4. Nuevamente, usando (A.5), se obtine,
|n | = 1 +

h
p(xn )
2

< 2
2 + h2 q(xn )
= |n |.

As, el sistema (2.17) tiene soluci


on u
nica.





Teorema A.3 Sean Q tal que q(x) Q > 0, para a x b, L = m
ax p(x) , M3 = m
ax y (3) (x) y
axb
axb


ax y (4) (x) . Entonces, para i = 0, 1, . . . , n + 1, se cumple:
M4 = m
axb

!


M
+
2LM
4
3
2
wi y(xi ) h
.
12Q

Demostraci
on: Para i = 0, 1, . . . , n + 1, pongamos ei = wi y(xi ), y sea e =
Existen i , i (xi1 , xi+1 ) tales que,
y(xi+1 ) 2y(xi ) + y(xi1 )
h2

m
ax |ei |.

0in+1



y(xi+1 ) y(xi1 )
= p(xi )
+ q(xi )y(xi ) + r(xi )
2h


h2
(3)
(4)

2p(xi )y (i ) y (i ) ,
12

Se sabe que,



wi+1 2wi + wi1
wi+1 wi1
= p(xi )
+ q(xi )wi + r(xi ).
h2
2h

(A.6)

(A.7)

Restando (A.6) de (A.7) y usando la definici


on de ei ,




ei+1 2ei + ei1
ei+1 ei1
h2
(3)
(4)
= p(xi )
+ q(xi )ei +
2p(xi )y (i ) y (i ) .
h2
2h
12
Multiplicando la igualdad anterior por h2 y manipulando algebr
aicamente se obtiene,






h
h
h4 (4)
2
(3)
(2 + h q(xi ))ei = 1 p(xi ) ei+1 + 1 + p(xi ) ei1
y (i ) 2p(xi )y (i ) ,
2
2
12
para i = 1, 2, . . . , n. Por tanto,






h
h
h4
2
(4)
(3)
(2 + h q(xi ))|ei |
1 p(xi ) e + 1 + p(xi ) e +
|y (i )| + 2|p(xi )||y (i )|
2
2
12
2e +



h4
M4 + 2LM3 ,
12

Notemos que e0 = en+1 = 0. As, la desigualdad anterior es v


alida para todo i = 0, 1, . . . , n + 1. Adem
as
h2 q(xi ) h2 Q . Por lo tanto,


h4
2
M4 + 2LM3 ,
h Q e
12
de donde,


h4
e
M4 + 2LM3 .
12Q


Referencias

[1] Beatrice Rivi`ere, Discontinuous Galerkin Methods for Solving Elliptic and Parabolic Equation, SIAM
(2008) 3-17.
[2] Charles W. Curtis, Linear Algebra: An Introductory Approach, Editorial Board, 1974.
[3] B. Dayanad Reddy, Functional Analysis and Boundary-Value Problems: an Introductory treatment.
John Wiley & Sons, Inc. 1986.
[4] B. Rivi`ere, M. Wheeler, and V. Girault, Improved energy estimates for interior penalty, constrained
and discontinuous Galerkin methods for elliptic problems. Part I, Computational Geosciences, 3 (1999),
pp. 337 - 360.
[5] C. Dawson, S. Sun, and M. Wheeler, Compatible algorithms for coupled flow and transport, Computer
Methods in Applied Mechanics and Engineering, 193 (2004), pp. 2565 - 2580.
[6] David Kincaid y Ward Cheney, An
alisis Numerico: Las matem
aticas del c
alculo cientfico. Addison Wesley Iberoamericana, 1994.
[7] Dennis G. Zill, Ecuaciones diferenciales con aplicaciones de modelado, 7a. ed., Thomson Learning,
2002.
[8] D. N. Arnold, An interior penalty finite element method with discontinuous elements, SIAM Journal
on Numerical Analysis, 19 (1982), pp. 742 - 760.
[9] Eugene Isaacson y Helbert Bishop Keller, Analysis of Numerical Methods, John Wiley & Sons, Inc.,
1966.
[10] J. Oden, I. Babuska, and C. Baumann, A discontinuous hp finite element method for diffusion problems, Journal of Computational Physics, 146 (1998), pp. 491 - 519.
[11] J. Kierzenka, Studies in the Numerical Solution of Ordinary Differential Equations, PhD thesis,
Southern Methodist University, Dallas, TX, 1998.
[12] Kendall E. Atkinson, An introduction to NUMERICAL ANALYSIS, Second Edition, John Wiley &
Sons, Inc., 1989.
[13] Keller, H. B., Numerical methods for two-point boundary-value problems, Blaisdell, Waltham, MA,
1968.
69

Referencias
[14] Lawrence F. Shampine, Jacek Kierzenka and Mark W. Reichelt, Solving Boundary Value Problems
for Ordinary Differential Equations in MATLAB with bvp4c. El tutorial y programas est
an disponibles
en http : //www.mathworks.com/bvp tutorial.
[15] L. Delves and C. Hall, An implicit matching principle for global element calculations, Journal of the
Institute of Mathematics and its Applications, 23 (1979), pp. 223 - 234.
[16] M. F. Wheeler, An elliptic collocation - finite element method with interior penalties, SIAM Journal
on Numerical Analysis, 15 (1978), pp. 152 - 161.
n, Partial Differential Equations and the Finite Element Method. John Wiley & Sons, Ltd.
[17] Pavel Sol
2006
[18] Richard L. Burden y J. Douglas Faires, An
alisis numerico, 7a. ed., Thomson Learning, 2002.
[19] Zienkiewicz and Cheung, The Finite Element Method in Structural and Continuum Mechanics, 1967.

70

También podría gustarte