Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Petronio Pulino
Departamento de Matemática Aplicada
Instituto de Matemática, Estatı́stica e Computação Cientı́fica
Universidade Estadual de Campinas
Caixa Postal 6065, CEP 13083-859, Campinas–SP, Brasil
e-mail: pulino@ime.unicamp.br
Conteúdo
1 Interpolação Polinomial 1
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 O Problema de Interpolação Polinomial . . . . . . . . . . . . . . . . . . . . 1
1.2.1 Base de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Método da Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Interpolação Polinomial de Lagrange . . . . . . . . . . . . . . . . . . . . . 5
1.4 Análise de Erro da Interpolação Polinomial . . . . . . . . . . . . . . . . . . 6
1.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
i
ii CONTEÚDO
Bibliografia 41
Capı́tulo 1
Interpolação Polinomial
1.1 Introdução
Neste capı́tulo vamos fazer uma breve introdução ao problema de interpolação polino-
mial, apresentando dois métodos de construção do polinômio interpolador e a análise de
erro da interpolação polinomial. Os conceitos e os resultados das próximas seções serão
funtamentais para o estudo dos Métodos de Elementos Finitos que iremos estudar nos
capı́tulos que seguem. Podemos indicar as referências (Conte, 1980) e (Rappaz, 1998)
para um estudo mais detalhado sobre interpolação polinomial.
1
2 Métodos dos Elementos Finitos
1
ci = .
(xi − x0 )(xi − x1 ) · · · (xi − xi−1 )(xi − xi+1 ) · · · (xi − xn )
como uma base para Pn ([a, b]) . Neste caso, dizemos que os polinômios L0 , · · · , Ln
formam a base de Lagrange para Pn ([a, b]) associada aos pontos x0 , x1 , · · · , xn .
onde
α0
α1
~ =
α ..
∈ IRn+1
.
αn
β = { 1, x, x2 , · · · , xn } ,
p(x) = c0 + c1 x + · · · + cn xn , (1.6)
onde
c0
c1
~c =
..
∈ IRn+1
.
cn
Vamos escrever as equações (1.7) na forma matricial. Assim a matriz do sistema linear
fica dada por:
1 x0 · · · xn0
1 x1 · · · xn1
. . ..
.. .. .
A = (1.8)
1 xi · · · xni
.. .. ..
. . .
1 xn · · · xnn
f (x0 )
f (x1 )
~b = .. ∈ IRn+1
.
f (xn )
Assim o sistema linear definido em (1.7) pode ser reescrito da seguinte forma
A ~c = ~b . (1.9)
Sabemos que o custo computacional para obtermos a solução numérica do sistema linear
(1.9) pelo Método de Decomposição LU , ou pelo Método de Eliminação Gaussiana, é da
ordem de ( n + 1 )3 /3 . Podemos dizer que todo custo computacional para a obtenção do
polinômio interpolador pelo Método da Matriz está na resolução do sistema linear, pois
a avaliação do polinômio pode ser feita de maneira eficiente e barata pela regra de Horner.
Capı́tulo 1. Interpolação Polinomial 5
Sabemos que a estabilidade do sistema linear definido pela matriz de Vandermonde está
relacionada com a escolha dos pontos de interpolação, bem como com a ordem da matriz.
A seguir vamos apresentar um método mais elegante de construção do polinômio inter-
polador que não necessita da resolução de um sistema linear. Portanto, não temos que
nos preocupar com a estabilidade da solução numérica e nem com o fato de termos que
armazenar uma matriz cheia, como é o caso da matriz de Vandermonde.
p(xi ) = f (xi ) ; i = 0, 1, · · · , n .
αi = f (xi ) ; i = 0, 1, · · · , n .
Considerando uma partição regular de [a, b] , isto é, h = xk+1 − xk para todo
k = 0, 1, · · · , (n − 1) , podemos mostrar que a função W satisfaz a desigualdade
hn+1
| W (x) | ≤ n! ; ∀ x ∈ [a, b] . (1.13)
4
Assim, temos a seguinte Estimativa para o Erro da Interpolação Polinomial
hn+1 ¯ ¯
| e(x) | ≤ max{ ¯ f (n+1) (x) ¯ ; a ≤ x ≤ b } . (1.14)
4(n + 1)
A estimativa dada por (1.14) tem uma utilização prática maior do que a expressão para
o erro (2.12), como veremos mais adiante. Para a demonstração do Teorema 1.1 vamos
precisar dos seguintes teoremas.
Teorema 1.2 ( Teorema de Rolle ) Seja ϕ : [a, b] −→ IR uma função contı́nua e
diferenciável em (a, b) . Se ϕ(a) = ϕ(b) , então existe pelo menos um ponto ξ ∈ (a, b)
tal que ϕ0 (ξ) = 0 .
1.5 Exercı́cios
Exercı́cio 1.1 Mostre que os polinômios de Lagrange L0 , · · · , Ln , associados aos
pontos de interpolação x0 , x1 , · · · , xn , formam um conjunto linearmente independente
no espaço vetorial Pn ([a, b]) .
Exercı́cio 1.2 Construa a base de Lagrange para o espaço vetorial P2 ([−1, 1]) asso-
ciada aos pontos x0 = −1 , x1 = 0 e x2 = 1 . Faça o esboço do gráfico de cada
uma das funções da base de Lagrange.
Neste capı́tulo vamos abordar o problema da interpolação polinomial por partes. Cons-
truiremos as bases de Lagrange para os espaço das Funções de Lagrange Polinomiais por
Partes e para as Funções Cúbicas de Hermite, bem como faremos uma análise de erro
para cada uma das interpolações. Esses espaço são utilizados no Método de Galerkin que
iremos estudar nos capı́tulos 5 e 6. Para um estudo mais profundo sobre interpolação
polinomial por partes e suas aplicações nos Métodos de Elementos finitos podemos citar
(Axelsson, 1984) e (Rappaz, 1998).
9
10 Métodos dos Elementos Finitos
2 2
1.5 1.5
1 1
0.5 0.5
0 0
−0.5 −0.5
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
Temos duas maneiras muito eficientes para evitar o fenômeno de Runge. A primeira
é na escolha dos pontos de interpolação. A escolha é feita observando que o erro da
Interpolação Polinomial, dado por (2.13), depende dos pontos de interpolação através da
função W . Assim, vamos escolher os pontos de interpolação de modo que tenhamos
Digamos que o fenômeno de Runge seria uma motivação para o estudo dos espaços de
elementos finitos, bem como dos métodos variacionais, dentre os quais podemos menci-
onar o método dos quadrados mı́nimos e o método de Galerkin. Entretanto, uma outra
motivação está baseada no fato que, em geral, os métodos de aproximação de funções
requerem a resolução de um sistema linear. Quando utilizamos os espaços de elementos
finitos, a matriz do sistema linear resultante do método de aproximação tem sempre uma
estrutura especial de esparsidade , o que facilita o seu armazenamento no que se refere à
economia de memória. A combinação de espaços de elementos finitos e métodos variacio-
nais resulta em sistemas lineares com boas propriedades de estabilidade numérica, o que
é uma nova motivação para o estudos desses tópicos.
Vamos considerar a base de Lagrange para o espaço vetorial P1 (K) associada aos
pontos xk−1 e xk , com o objetivo de utilizá-la na representação da restrição da função
s aos subintervalos K = [xk−1 , xk ].
(k) (k)
Denotando por λ1 e λ2 as funções da base de Lagrange para P1 (K) , tem-se que:
(k)
λ1 (x) = ( xk − x ) / h k (2.8)
(k)
λ2 (x) = ( x − xk−1 ) / hk , (2.9)
(k) (k)
As funções λ1 e λ2 são chamadas de Funções de Base Local, no k-ésimo subin-
tervalo, do espaço L1 (Π) .
À partir da definição de base local, vamos construir as funções que são denominadas
Funções de Base Global do espaço L1 (Π) associadas aos pontos xj da partição Π .
Denotando por ϕ0 , ϕ1 , · · · , ϕj , · · · , ϕn as funções da base global e considerando as
equações (2.8) − (2.10) , temos que:
( x1 − x ) / h 1 ; se x ∈ [x0 , x1 ]
ϕ0 (x) = (2.11)
0 ; caso contrário.
Capı́tulo 2. Espaços de Elementos Finitos 13
( x − xj−1 ) / hj ; se x ∈ [xj−1 , xj ]
ϕj (x) = ( xj+1 − x ) / hj+1 ; se x ∈ [xj , xj+1 ] (2.12)
0 ; caso contrário.
( x − xn−1 ) / hn ; se x ∈ [xn−1 , xn ]
ϕn (x) = (2.13)
0 ; caso contrário.
6
ϕ0 (x) ϕj (x) ϕn (x)
1
A ¢A ¢
A ¢ A ¢
A ¢ A ¢
A ¢ A ¢
A ¢ A ¢
A ¢ A ¢
A ¢ A ¢
A ¢ A ¢
r Ar r¢ r Ar ¢r r-
0 x0 x1 xj−1 xj xj+1 xn−1 xn
Vamos considerar a base de Lagrange para o espaço vetorial P2 (K) associada aos pon-
tos xk−1 , xk e xk , onde xk é o ponto médio do k-ésimo subintervalo K = [xk−1 , xk ].
Desse modo, temos que toda função s ∈ L2 (Π) pode ser escrita da seguinte forma:
(k) (k) (k)
s(x) = α1k β1 (x) + α2k β2 (x) + α3k β3 (x) ; x ∈ K = [xk−1 , xk ] . (2.21)
(k) (k)
As funções β1 , β2k e β3 são chamadas Funções de Base Local, no k-ésimo
subintervalo, do espaço L2 (Π) . À partir da definição de base local, vamos construir as
funções que são denominadas Funções de Base Global do espaço L2 (Π) associadas
aos pontos x0 , x1 , · · · , xj , · · · , xn da partição Π e também aos pontos médios de
cada subintervalo x1 ∈ [x0 , x1 ], · · · , xk ∈ [xk−1 , xk ], · · · , xn ∈ [xn−1 , xn ] . Desse modo,
teremos 2n + 1 funções de base nodais para o espaço L2 (Π) .
Capı́tulo 2. Espaços de Elementos Finitos 15
(1)
β1 (x) ; se x ∈ [x0 , x1 ]
β0 (x) = (2.22)
0 ; caso contrário.
(n)
β3 (x) ; se x ∈ [xn−1 , xn ]
β2n (x) = (2.25)
0 ; caso contrário.
Portanto, temos que ∀ s ∈ L2 (Π) pode ser escrita de modo único da seguinte forma:
2n
X
s(x) = αj βj (x) . (2.26)
j=0
16 Métodos dos Elementos Finitos
1.2 1
1
0.8
0.8
0.6
β (x)
β2(x)
0.6
1
0.4 0.4
0.2
0.2
0
−0.2 0
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
x
1.2
1
0.8
0.6
β (x)
0.4
3
0.2
0
−0.2
−1 −0.5 0 0.5 1
(k) (k)
ψ3 (xk−1 ) = 0 , ψ3 (xk ) = 1
(2.30)
(ψ (k) )0 (x ) = 0 (k)
3 k−1 , (ψ3 )0 (xk ) = 0
18 Métodos dos Elementos Finitos
(k) (k)
(ψ2 )0 (xk−1 ) = 1 , (ψ2 )0 (xk ) = 0
(2.31)
ψ (k) (x ) = 0 (k)
2 k−1 , ψ2 (xk ) = 0
(k) (k)
(ψ4 )0 (xk−1 ) = 0 , (ψ4 )0 (xk ) = 1
(2.32)
ψ (k) (x ) = 0 (k)
4 k−1 , ψ4 (xk ) = 0.
Impondo as condições (2.29) temos que resolver um sistema linear com 4 equações a 4
incógnitas ak0 , ak1 , ak2 , ak3 e ak4 para obtermos a primeira função da base:
(k)
ψ1 (x) = ( x − xk )2 ( 2x + xk − 3xk−1 ) /h3k . (2.33)
Impondo as condições (2.30) temos que resolver um sistema linear com 4 equações a 4
incógnitas ak0 , ak1 , ak2 , ak3 e ak4 para obtermos a terceira função da base:
(k)
ψ3 (x) = −( x − xk−1 )2 ( 2x + xk−1 − 3xk ) /h3k . (2.34)
Impondo as condições (2.31) temos que resolver um sistema linear com 4 equações a 4
incógnitas ak0 , ak1 , ak2 , ak3 e ak4 para obtermos a segunda função da base:
(k)
ψ2 (x) = ( x − xk )2 ( x − xk−1 ) /h2k . (2.35)
Impondo as condições (2.32) temos que resolver um sistema linear com 4 equações a 4
incógnitas ak0 , ak1 , ak2 , ak3 e ak4 para obtermos a quarta função da base:
(k)
ψ4 (x) = ( x − xk−1 )2 ( x − xk ) /h2k . (2.36)
Desse modo, temos que ∀ s ∈ H3 (Π) pode ser escrita da seguinte forma:
(k) (k) (k) (k)
s(x) = α1k ψ1 (x) + α2k ψ2 (x) + α3k ψ3 (x) + α4k ψ4 (x) ; x ∈ K . (2.37)
(k) (k)
As funções ψ1 , ψ2k , ψ3k e ψ4 são chamadas de Funções de Base Local, no
k-ésimo subintervalo, do espaço H3 (Π) .
(1)
ψ1 (x) ; se x ∈ [x0 , x1 ]
ψ0 (x) = (2.38)
0 ; caso contrário
(1)
ψ2 (x) ; se x ∈ [x0 , x1 ]
ψ1 (x) = (2.39)
0 ; caso contrário.
(n)
ψ3 (x) ; se x ∈ [xn−1 , xn ]
ψ2n (x) = (2.42)
0 ; caso contrário
(n)
ψ4 (x) ; se x ∈ [xn−1 , xn ]
ψ2n+1 (x) = (2.43)
0 ; caso contrário.
0
ψ2j+1 (xi ) = δij ; 0 ≤ i, j ≤ n
(2.45)
ψ
2j+1 (xi ) = 0 ; 0 ≤ i, j ≤ n.
Portanto, temos que ∀ s ∈ H3 (Π) pode ser escrita de modo único da seguinte forma:
2n+1
X
s(x) = αj ψj (x) . (2.46)
j=0
Capı́tulo 2. Espaços de Elementos Finitos 21
1 1
0.8 0.8
0.6 0.6
ψ (x)
ψ (x)
1
3
0.4 0.4
0.2 0.2
0 0
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
1.4
1.2 0
−0.2
1
−0.4
ψ (x)
ψ4(x)
0.8
−0.6
2
0.6
−0.8
0.4
−1
0.2 −1.2
0
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
x x
n
X
s2 (xi ) = αj βj (xi ) = f (xi ) ; 1 ≤ i ≤ n. (2.52)
j=0
Como as funções de base do espaço L2 (Π) são nodais, obtemos que α2i = f (xi ) para
i = 0, 1, · · · , n e obtemos α2i−1 = f (xi ) para i = 1, 2, · · · , n , sem a necessidade
da resolução de um sistema linear.
Capı́tulo 2. Espaços de Elementos Finitos 23
2n+1
X
s(xi ) = αj ψj (xi ) = f (xi ) ; 0 ≤ i ≤ n . (2.55)
j=0
Teorema 2.1 Seja f ∈ C (2) ([a, b]) e s1 ∈ L1 (Π) a função spline linear que interpola
a função f nos pontos da partição Π : a = x0 < x1 < . . . < xn = b. Então, para
todo x ∈ [xk−1 , xk ] , existe pelo menos um ponto ξk = ξ(x) ∈ (xk−1 , xk ) tal que
Teorema 2.2 Seja f ∈ C (3) ([a, b]) e s2 ∈ L2 (Π) a função de Lagrange Quadrática
que interpola a função f nos pontos da partição Π : a = x0 < x1 < . . . < xn = b.
Então, para todo x ∈ [xk−1 , xk ] , existe pelo menos um ponto ξk = ξ(x) ∈ (xk−1 , xk )
tal que
W (k) (x) (3)
e(k) (x) = f (x) − s2 (x) = f (ξk ) , (2.59)
3!
¯ (k) ¯ 3 ¯ ¯
¯ e (x) ¯ ≤ hk max{ ¯ f (3) (x) ¯ ; xk−1 ≤ x ≤ xk } . (2.61)
96
Teorema 2.3 Seja f ∈ C (4) ([a, b]) e s ∈ H3 (Π) a função cúbica de Hermite que
interpola as funções f e f 0 nos pontos da partição Π : a = x0 < x1 < . . . < xn = b.
Então, para todo x ∈ [xk−1 , xk ] , existe pelo menos um ponto ξk = ξ(x) ∈ (xk−1 , xk )
tal que
De modo análogo à demonstração do Teorema 1.1, basta verificar que a função ϕ é uma
função de classe C (4) ([xk−1 , xk ]) e que se anula nos pontos xk−1 , xk , x . Observe
a multiplicidade dos zeros, em seguida aplique sucessivamente o Teorema de Rolle às
funções ϕ , ϕ0 , · · · , ϕ(4) .
2.4 Exercı́cios
Exercı́cio 2.1 Considere a função f (t) = 1 / ( 1 + 25t2 ) para t ∈ [−1, 1] . Encontre
os polinômios p5 ∈ P5 ([−1, 1]) e p10 ∈ P10 ([−1, 1]) que interpolam a função f nos
pontos de Chebyshev. Fazer os gráficos dos polinômios interpolantes e comparar com a
Figura 2.1.
Exercı́cio 2.2 Mostre que o conjunto L1 (Π) é um subespaço vetorial de C([a, b]) .
Exercı́cio 2.5 Mostre que o conjunto L2 (Π) é um subespaço vetorial de C([a, b]) .
Exercı́cio 2.9 Utilizando o Teorema 1.1, demonstre o Teorema 2.1 e o Teorema 2.2.
Exercı́cio 2.10 Obter a estimativa para o erro da interpolação em H3 (Π) dada por
(2.63).
Definição 3.2 Seja (E, +, ·) um espaço vetorial real de dimensão infinita munido do
produto interno h · , · iE e k · kE a norma proveniente do produto interno. Dizemos
que uma forma bilinear a(·, ·) sobre E é uma Forma Bilinear Coerciva se existe
uma constante ρ > 0 tal que
Desse modo, se uma forma bilinear a(·, ·) sobre E for simétrica e coerciva, então ela
define um produto interno sobre E , isto é, a aplicação h · , · ia : E ×E −→ IR definida
da forma h u , v ia = a(u, v) para todo u, v ∈ E , define um produto interno sobre
E, denominado produto interno energia. Este fato é de extrema importância para os
nosso objetivos. Vamos denotar por k · ka a norma proveniente desse produto interno,
denominada norma energia.
27
28 Métodos dos Elementos Finitos
Teorema 3.1 Seja (E, +, ·) um espaço vetorial real de dimensão infinita munido do
produto interno h · , · iE e k · kE a norma proveniente do produto interno. Seja
a(·, ·) uma forma bilinear simétrica, contı́nua e coerciva sobre E . Seja k · ka a norma
proveniente do produto interno h · , · ia associado à forma bilinear a(·, ·) . Então, as
normas k · kE e k · ka são equivalentes, isto é,
√ p
ρ k u kE ≤ k u ka ≤ β k u kE para todo u ∈ E ,
1 1
√ k u ka ≤ k u kE ≤ √ k u ka para todo u ∈ E .
β ρ
Podemos observar que o conjunto de funções reais L([a, b]) munido das operações usuais
de soma de funções e multiplicação de uma função por um escalar, (L([a, b]), +, ·) , é um
subespaço vetorial do espaço vetorial real (C([a, b]), +, ·) munido do produto interno
usual h · , · iL2 definido da seguinte forma
Z b
h f , g i L2 = f (x) g(x) dx para toda f, g ∈ C([a, b]) .
a
Considerando o espaço vetorial real E = (L([a, b]), +, ·) vamos definir uma forma
bilinear a(·, ·) sobre E da seguinte maneira
Z b Z b
0 0
a(u, v) = α(x) u (x) v (x) dx + σ(x) u(x) v(x) dx , (3.5)
a a
bilinear simétrica e positiva. Podemos também mostrar que essa forma bilinear é contı́nua
e coerciva com relação a norma k · kE proveniente do produto interno h · , · iE
definido em (3.4).
Teorema 3.2 Seja (E, +, ·) um espaço vetorial real de dimensão infinita munido do
produto interno h · , · iE e k · kE a norma proveniente do produto interno. Seja
a(·, ·) uma forma bilinear simétrica, contı́nua e coerciva sobre E e b(·) uma forma
linear contı́nua. Seja k · ka a norma proveniente do produto interno h · , · ia associado
à forma bilinear a(·, ·) . Então, a forma linear b(·) é contı́nua com relação à norma
k · ka , isto é,
δ
| b(u) | ≤ √ k u ka para todo u ∈ E .
ρ
onde a função f é uma função contı́nua no intervalo [a, b]. Podemos mostrar que a
forma linear definida em (3.7) é contı́nua com relação a norma k · kE proveniente do
produto interno h · , · iE definido em (3.4). Assim, a forma linear definida em (3.7)
também é contı́nua em relação a norma energia k · ka .
²2
g(²) = J(u∗ ) + ² a(u∗ , v) − ² b(v) + a(v, v) . (3.14)
2
Sabemos que g possui um ponto de mı́nimo em ² = 0 , assim temos que g 0 (0) = 0 .
Desse modo, obtemos
Portanto, fica natural uma Discretização para o Problema Variacional (3.8), usu-
almente denominada de Método de Galerkin, que pode ser formalizado da seguinte
maneira
Como (3.18) é válida para toda função em Eh , em particular será válida para as funções
de base. Desse modo, utilizando as funções de base e substituindo (3.19) em (3.18) tem-se
que
n
X
αj a(ϕj , ϕi ) = b(ϕi ) para todo i = 1, · · · , n . (3.20)
j=1
Teorema 3.3 Seja (Eh , +, ·) um espaço vetorial real de dimensão finita munido do
produto interno h · , · ia associado à forma bilinear a(·, ·) simétrica, contı́nua e coerciva
sobre Eh . Se b(·) é uma forma linear contı́nua sobre Eh . Então, existe um único
elemento u∗h ∈ Eh solução do Problema Variacional Discreto definido em (3.18). Além
disso, temos a seguinte estimativa de estabilidade
δ
k u∗h kE ≤ , (3.22)
ρ
com δ a constante de continuidade da forma linear e ρ a constante de coercividade da
forma bilinear.
Z b
kij = α(x) ϕ0j (x) ϕ0i (x) dx para todo i, j = 1, · · · , n . (3.25)
a
34 Métodos dos Elementos Finitos
Tendo em vista a simetria e a positividade da forma bilinear a(·, ·) , temos que a matriz
C é simétrica e positiva-definida. Estas duas propriedades indicam que o Método de De-
composição de Cholesky, que possui uma boa estabilidade numérica, é o mais apropriado
para resolver o sistema linear proveniente do Método de Galerkin. Considerando a forma
linear b(·) definida em (3.7) os elementos do vetor d , denominado vetor de carga, são
dados por
Z b
di = f (x) ϕi (x) dx para todo i = 1, · · · , n . (3.26)
a
Portanto, temos que a resolução do Problema Variacional Discreto fica convertido na re-
solução de um sistema linear, cuja solução é um vetor com os coeficientes da aproximação
de Galerkin uh ∈ Eh com relação à base escolhida. A estrutura da matriz do sistema
linear proveniente do Método de Galerkin depende da escolha da base para o subespaço
de aproximação Eh . Os espaços de aproximação mais adequados são os Espaços de
Elementos Finitos. No caso em que Eh for o espaço das Funções Splines Lineares
a matriz proveniente do Método de Galerkin tem uma estrutura tridiagonal. Assim, o
Método de Galerkin é usualmente denominado de Método dos Elementos Finitos.
É importante observar que podemos utilizar os espaços (L0 ([a, b]), +, ·) , (L0+ ([a, b]), +, ·)
e (L0− ([a, b]), +, ·) , nos quais as funções satisfazem certas condições de contorno, para
definirmos os Problemas Variacionais. Desse modo, as funções do subespaço Eh con-
tido em cada um dos espaços anteriores, respectivamente, devem satisfazer as mesmas
condições de contorno. Assim, para cada escolha temos um Problema Variacional dife-
rente.
Capı́tulo 3. Problema Variacional Simétrico 35
O teorema acima e o Teorema de Céa serão muito utilizados para obtermos estimativas
de erro para a solução de Galerkin.
Capı́tulo 3. Problema Variacional Simétrico 37
Fazendo uma integração por partes na primeira integral de (3.43) , tem-se que
Z b
− ( α(x) u0 (x) )0 v(x) dx =
a
Z b
0 0
− α(b) u (b) v(b) + α(a) u (a) v(a) + α(x) u0 (x) v 0 (x) dx . (3.44)
a
que aparece da integração por partes. Assim, a condição de contorno u(a) = 0 e/ou
u(b) = 0 devem ser impostas no espaço das funções admissı́veis e no espaço das funções
testes impondo v(a) = 0 e/ou v(b) = 0 . Esse tipo de condição de contorno é
denominada condição essencial. Entretanto, a condição de contorno u0 (a) = 0
e/ou u0 (b) = 0 aparecem naturalmente na integração por partes, não sendo necessário
impor no espaço das funções admissı́veis ou no espaço das funções testes. Esse tipo de
condição de contorno é denominada condição natural.
[1] Axelsson, O. & Barker, V. A., 1984. Finite element solution of boundary value
problems, Academic Press.
[3] Ciarlet, P. G., 1991. Introduction to Numerical Linear Algebra and Optimisation,
Cambridge University Press.
[4] Conte, S. D. & Carl de Boor, 1980. Elementary Numerical Analysis, MacGraw–
Hill.
[5] Johnson, C. , 1987. Numerical solution of partial differential equations by the finite
element method, Cambridge University Press.
[6] Rappaz, J. & Picasso, M., 1998. Introduction à l’analyse numérique, Presses
polytechniques et universitaires romandes.
[7] Rektorys, K., 1980. Variational Methods in Mathematics, Science and Enginne-
ring, D. Reidel Publishing Company.
41
Métodos dos Elementos Finitos
Aspectos Teóricos, Computacionais e Aplicações
Petronio Pulino
PULINUS sq