Está en la página 1de 45

Métodos dos Elementos Finitos

Aspectos Teóricos, Computacionais e Aplicações

Petronio Pulino
Departamento de Matemática Aplicada
Instituto de Matemática, Estatı́stica e Computação Cientı́fica
Universidade Estadual de Campinas
Caixa Postal 6065, CEP 13083-859, Campinas–SP, Brasil
e-mail: pulino@ime.unicamp.br
Conteúdo

1 Interpolação Polinomial 1
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 O Problema de Interpolação Polinomial . . . . . . . . . . . . . . . . . . . . 1
1.2.1 Base de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Método da Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Interpolação Polinomial de Lagrange . . . . . . . . . . . . . . . . . . . . . 5
1.4 Análise de Erro da Interpolação Polinomial . . . . . . . . . . . . . . . . . . 6
1.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Espaços de Elementos Finitos 9


2.1 Espaços de Lagrange Polinomial por Partes . . . . . . . . . . . . . . . . . . 9
2.1.1 Espaço das Funções de Lagrange Lineares . . . . . . . . . . . . . . 11
2.1.2 Espaço das Funções de Lagrange Quadráticas . . . . . . . . . . . . 14
2.2 Espaço das Funções Cúbicas de Hermite . . . . . . . . . . . . . . . . . . . 17
2.3 Interpolação Polinomial por Partes . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1 Erro da Interpolação Polinomial por Partes . . . . . . . . . . . . . . 23
2.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3 Problema Variacional Simétrico 27


3.1 Formas Bilineares. Continuidade e Coercividade . . . . . . . . . . . . . . . 27
3.1.1 Exemplo de Forma Bilinear Contı́nua e Coerciva . . . . . . . . . . . 28
3.2 Formas Lineares. Continuidade . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2.1 Exemplo de Forma Linear Contı́nua . . . . . . . . . . . . . . . . . . 30
3.3 Problema Variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4 Problema de Minimização . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.5 Método de Galerkin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5.1 Exemplos de Problemas Variacionais Simétricos . . . . . . . . . . . 33
3.6 Teorema de Lax–Milgram . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

i
ii CONTEÚDO

3.6.1 Interpretação Geométrica para Solução de Galerkin . . . . . . . . . 36


3.7 Problema Variacional de Valores de Contorno . . . . . . . . . . . . . . . . 37

Bibliografia 41
Capı́tulo 1

Interpolação Polinomial

1.1 Introdução
Neste capı́tulo vamos fazer uma breve introdução ao problema de interpolação polino-
mial, apresentando dois métodos de construção do polinômio interpolador e a análise de
erro da interpolação polinomial. Os conceitos e os resultados das próximas seções serão
funtamentais para o estudo dos Métodos de Elementos Finitos que iremos estudar nos
capı́tulos que seguem. Podemos indicar as referências (Conte, 1980) e (Rappaz, 1998)
para um estudo mais detalhado sobre interpolação polinomial.

1.2 O Problema de Interpolação Polinomial


Seja f : [a, b] −→ IR uma função contı́nua e Π uma partição qualquer de [a, b] , isto
é, Π : a = x0 < x1 < · · · < xn = b . Queremos construir um polinômio de grau ≤ n
que satisfaça as condições de interpolação pura, isto é,

p(xi ) = f (xi ) ; i = 0, 1, · · · , n . (1.1)

O polinômio p construı́do com as condições acima é denominado de polinômio interpo-


lador da função f nos pontos da partição Π . A seguir mostraremos a Unicidade do
Polinômio Interpolador

Vamos considerar que existam dois polinômios de grau ≤ n , p e q , que interpolam a


função f nos pontos da partição Π , isto é,

p(xi ) = f (xi ) ; i = 0, 1, · · · , n , (1.2)

1
2 Métodos dos Elementos Finitos

q(xi ) = f (xi ) ; i = 0, 1, · · · , n . (1.3)

Desse modo, temos que o polinômio r = p − q que é de grau ≤ n possui n + 1


raı́zes distintas, que são os pontos de interpolação x0 , · · · , xn . De fato

r(xi ) = p(xi ) − q(xi ) = 0 ; i = 0, 1, · · · , n . (1.4)

Portanto, temos que o polinômio r é identicamente nulo, e podemos concluir que p = q .


Provamos desse maneira a unicidade do polinômio interpolador.

Podemos observar que o Problema de Interpolação Polinomial consiste em encontrar um


polinômio p ∈ Pn ([a, b]) satisfazendo as condições (1.1), onde Pn ([a, b]) é o espaço
vetorial real dos polinômios de grau ≤ n definidos em [a, b] .

A seguir, vamos apresentar alguns métodos para a construção do polinômio interpo-


lador que são baseados simplesmente na escolha da base para o espaço vetorial Pn ([a, b]) .
Sabemos que dada uma partição Π de [a, b] o polinômio interpolador é único, indepen-
dendo do método pelo qual foi construı́do.

1.2.1 Base de Lagrange


Dada uma partição qualquer de [a, b] , isto é, Π : a = x0 < x1 < · · · < xn = b ,
queremos construir polinômios Li para i = 0, 1, · · · , n , de grau n que satisfazem
as seguintes condições
(
1 se i = j
Li (xj ) =
0 se i 6= j .

Como Li é um polinômio de grau n com n raı́zes distintas nos pontos


x0 , x1 , · · · , xi−1 , xi+1 , · · · , xn , podemos escrevê-lo da seguinte forma:

Li (x) = ci (x − x0 )(x − x1 ) · · · (x − xi−1 )(x − xi+1 ) · · · (x − xn )

e impondo a condição de que Li (xi ) = 1 obtemos o valor para a constante ci :

1
ci = .
(xi − x0 )(xi − x1 ) · · · (xi − xi−1 )(xi − xi+1 ) · · · (xi − xn )

Podemos mostrar que o conjunto Γ = { L0 , · · · , Ln } é linearmente independente no


espaço vetorial Pn ([a, b]) que tem dimensão n + 1 , portanto pode ser considerado
Capı́tulo 1. Interpolação Polinomial 3

como uma base para Pn ([a, b]) . Neste caso, dizemos que os polinômios L0 , · · · , Ln
formam a base de Lagrange para Pn ([a, b]) associada aos pontos x0 , x1 , · · · , xn .

Desse modo, temos que ∀ p ∈ Pn ([a, b]) é escrito da seguinte forma:

p(x) = α0 L0 (x) + α1 L1 (x) + · · · + αn Ln (x) , (1.5)

onde
 
α0
 
 α1 
~ = 
α  .. 
 ∈ IRn+1
 . 
αn

é o vetor de coordenadas de p com relação à base Γ .

1.2.2 Método da Matriz


Consideremos o espaço vetorial Pn ([a, b]) com a base canônica, isto é,

β = { 1, x, x2 , · · · , xn } ,

desse modo temos que ∀ p ∈ Pn ([a, b]) é escrito da seguinte forma:

p(x) = c0 + c1 x + · · · + cn xn , (1.6)

onde
 
c0
 
 c1 
~c = 
 .. 
 ∈ IRn+1
 . 
cn

é o vetor de coordenadas de p com relação à base canônica β .

Queremos encontrar um polinômio p ∈ Pn ([a, b]) satisfazendo as condições de inter-


polação pura (1.1). Considerando que o polinômio p está escrito na forma (1.6), temos
as seguintes equações dadas pelas condições (1.1)

p(xi ) = c0 + c1 xi + · · · + cn xni = f (xi ) , i = 0, 1, · · · , n . (1.7)


4 Métodos dos Elementos Finitos

Desse modo, para cada ponto xi ∈ Π para i = 0, 1, · · · , n as equações (1.7)


formam um sistema linear com n + 1 equações a n + 1 incógnitas c0 , · · · , cn .

Vamos escrever as equações (1.7) na forma matricial. Assim a matriz do sistema linear
fica dada por:
 
1 x0 · · · xn0
 
 1 x1 · · · xn1 
 . . .. 
 .. .. . 
 
A =   (1.8)
 1 xi · · · xni 
 
 .. .. .. 
 . . . 
1 xn · · · xnn

que é denominada Matriz de Vandermonde associada aos pontos x0 , x1 , · · · , xn .


O vetor do lado direito do sistema linear fica dado por

 
f (x0 )
 
 f (x1 ) 
~b =  ..  ∈ IRn+1
 
 . 
f (xn )

Assim o sistema linear definido em (1.7) pode ser reescrito da seguinte forma

A ~c = ~b . (1.9)

Portanto, o problema de Interpolação Polinomial se resume na resolução de um sistema


linear de ordem n + 1 , cuja solução é o vetor de coordenadas do polinômio interpolador,
da função f nos pontos da partição Π , com relação à base canônica para Pn ([a, b]) .
Como o polinômio interpolador é único, e fica bem determinado pelo vetor de coorde-
nadas, podemos concluir que o sistema linear dado pela matriz de Vandermonde possui
solução única.

Sabemos que o custo computacional para obtermos a solução numérica do sistema linear
(1.9) pelo Método de Decomposição LU , ou pelo Método de Eliminação Gaussiana, é da
ordem de ( n + 1 )3 /3 . Podemos dizer que todo custo computacional para a obtenção do
polinômio interpolador pelo Método da Matriz está na resolução do sistema linear, pois
a avaliação do polinômio pode ser feita de maneira eficiente e barata pela regra de Horner.
Capı́tulo 1. Interpolação Polinomial 5

Sabemos que a estabilidade do sistema linear definido pela matriz de Vandermonde está
relacionada com a escolha dos pontos de interpolação, bem como com a ordem da matriz.
A seguir vamos apresentar um método mais elegante de construção do polinômio inter-
polador que não necessita da resolução de um sistema linear. Portanto, não temos que
nos preocupar com a estabilidade da solução numérica e nem com o fato de termos que
armazenar uma matriz cheia, como é o caso da matriz de Vandermonde.

1.3 Interpolação Polinomial de Lagrange


Seja f : [a, b] −→ IR uma função contı́nua e Π uma partição qualquer de [a, b] , isto é,
Π : a = x0 < x1 < · · · < xn = b. Queremos construir um polinômio p ∈ Pn ([a, b]) ,
considerando o espaço vetorial Pn ([a, b]) com a base de Lagrange associada aos pontos
de interpolação e que satisfaça as condições de interpolação pura (1.1), isto é,

p(xi ) = f (xi ) ; i = 0, 1, · · · , n .

O polinômio p construı́do com as condições acima é denominado polinômio interpolador


de Lagrange da função f nos pontos da partição Π . Considerando que o polinômio p
é representado como em (1.5) e impondo as condições de interpolação pura, tem-se que
n
X
αj Lj (xi ) = f (xi ) ; i = 0, 1, · · · , n . (1.10)
j=0

Como Lj (xi ) = δij temos que as coordenadas do polinômio interpolador de Lagrange


são dadas por

αi = f (xi ) ; i = 0, 1, · · · , n .

Desse modo, o polinômio interpolador fica escrito da seguinte forma:


n
X
p(x) = f (xj ) Lj (x) ; ∀ x ∈ [a, b] . (1.11)
j=0

Podemos observar que as coordenadas do polinômio interpolador de Lagrange são obtidas


sem nenhum custo computacional. Entretanto todo custo operacional está na construção
dos polinômios de Lagrange, Li para i = 0, 1, · · · , n , associados aos pontos de
interpolação. Neste caso, como não temos que resolver um sistema linear evitamos a
instabilidade numérica na construção do polinômio interpolador.
6 Métodos dos Elementos Finitos

1.4 Análise de Erro da Interpolação Polinomial


Teorema 1.1 Seja f ∈ C (n+1) ([a, b]) e pn ∈ Pn ([a, b]) o polinômio interpolador da
função f nos pontos da partição Π : a = x0 < x1 < . . . < xn = b. Então, para todo
x ∈ [a, b] , existe pelo menos um ponto ξ = ξ(x) ∈ (a, b) tal que
W (x) (n+1)
e(x) = f (x) − pn (x) = f (ξ) , (1.12)
(n + 1)!
onde W (x) = (x − x0 )(x − x1 ) · · · (x − xn ) .

Considerando uma partição regular de [a, b] , isto é, h = xk+1 − xk para todo
k = 0, 1, · · · , (n − 1) , podemos mostrar que a função W satisfaz a desigualdade
hn+1
| W (x) | ≤ n! ; ∀ x ∈ [a, b] . (1.13)
4
Assim, temos a seguinte Estimativa para o Erro da Interpolação Polinomial
hn+1 ¯ ¯
| e(x) | ≤ max{ ¯ f (n+1) (x) ¯ ; a ≤ x ≤ b } . (1.14)
4(n + 1)
A estimativa dada por (1.14) tem uma utilização prática maior do que a expressão para
o erro (2.12), como veremos mais adiante. Para a demonstração do Teorema 1.1 vamos
precisar dos seguintes teoremas.
Teorema 1.2 ( Teorema de Rolle ) Seja ϕ : [a, b] −→ IR uma função contı́nua e
diferenciável em (a, b) . Se ϕ(a) = ϕ(b) , então existe pelo menos um ponto ξ ∈ (a, b)
tal que ϕ0 (ξ) = 0 .

Teorema 1.3 ( Extensão do Teorema de Rolle ) Seja ϕ : [a, b] −→ IR uma


função de classe C (n+1) ([a, b]) . Se a função ϕ possui (n + 2) zeros em [a, b] , então
existe pelo menos um ponto ξ ∈ (a, b) tal que ϕ(n+1) (ξ) = 0 .

Demonstração do Teorema 1.1 Considere um ponto x ∈ (a, b) ; x ∈ / Π , fixo porém


arbitrário. Vamos construir uma função auxiliar da seguinte forma
W (x)
ϕ(x) = [ f (x) − pn (x) ] − [ f (x) − pn (x) ] ; x ∈ [a, b] . (1.15)
W (x)

Agora, basta verificar que a função ϕ satisfaz as hipóteses da Extensão do Teorema


de Rolle. Do mesmo, modo podemos verificar que a função ϕ é uma função de classe
C (n+1) ([a, b]) e que possui (n+2) zeros em [a, b] . Em seguida, aplicamos sucessivamente
o Teorema de Rolle às funções ϕ , ϕ0 , · · · , ϕ(n+1) .
Capı́tulo 1. Interpolação Polinomial 7

1.5 Exercı́cios
Exercı́cio 1.1 Mostre que os polinômios de Lagrange L0 , · · · , Ln , associados aos
pontos de interpolação x0 , x1 , · · · , xn , formam um conjunto linearmente independente
no espaço vetorial Pn ([a, b]) .

Exercı́cio 1.2 Construa a base de Lagrange para o espaço vetorial P2 ([−1, 1]) asso-
ciada aos pontos x0 = −1 , x1 = 0 e x2 = 1 . Faça o esboço do gráfico de cada
uma das funções da base de Lagrange.

Exercı́cio 1.3 Encontre o polinômio p ∈ P2 ([−1, 1]) tal que p(−1) = 8 ,


p(0) = 3 e p(1) = 6 , utilizando a base de Lagrange obtida no exercı́cio anterior.

Exercı́cio 1.4 Idem o exercı́cio 1.3 utilizando o Método da Matriz.

Exercı́cio 1.5 Considere a seguinte função f (x) = sin(πx/2) ; x ∈ [−1, 1] .


Construir o polinômio interpolador de f nos pontos x0 = −1 , x1 = 0 e x2 = 1 .
Faça uma estimativa do erro da interpolação polinomial utilizando (1.14)

Exercı́cio 1.6 Seja f uma função contı́nua definida no intervalo [−1, 1] e


p ∈ P2 ([−1, 1]) o polinômio que interpola f nos pontos x0 = −1 , x1 = 0 e
R1
x2 = 1 . Calcule −1 p(x)dx em função dos valores f (−1) , f (0) e f (1) . Verifique
que a fórmula obtida coincide com a regra de Simpson.

Exercı́cio 1.7 Termine de escrever os detalhes da demonstração do Teorema 1.1.

Exercı́cio 1.8 Mostre a desigualdade (2.13).


8 Métodos dos Elementos Finitos
Capı́tulo 2

Espaços de Elementos Finitos

Neste capı́tulo vamos abordar o problema da interpolação polinomial por partes. Cons-
truiremos as bases de Lagrange para os espaço das Funções de Lagrange Polinomiais por
Partes e para as Funções Cúbicas de Hermite, bem como faremos uma análise de erro
para cada uma das interpolações. Esses espaço são utilizados no Método de Galerkin que
iremos estudar nos capı́tulos 5 e 6. Para um estudo mais profundo sobre interpolação
polinomial por partes e suas aplicações nos Métodos de Elementos finitos podemos citar
(Axelsson, 1984) e (Rappaz, 1998).

2.1 Espaços de Lagrange Polinomial por Partes


Podemos observar que a estimativa do erro da Interpolação Polinomial, dada por (1.14),
depende fortemente do comportamento de f n+1 . Assim, quando estamos interpolando
uma função, em pontos eqüidistantes, por um polinômio de grau muito elevado o erro
vai depender se as derivadas de ordem (n + 1) da função f ficam limitadas ou não .
Temos um exemplo muito interessante de um problema de interpolação polinomial onde
a função é infinitamente continuamente diferenciável, mas suas derivadas crescem muito
rapidamente fazendo com que o polinômio interpolador fique cada vez mais afastado da
função conforme vamos aumentando o seu grau.

Exemplo 2.1 Considere a função f (t) = 1 / ( 1 + 25t2 ) para t ∈ [−1, 1] . A


função f possui derivada contı́nua de qualquer ordem no intervalo [−1, 1] , entretanto
¯ ¯
tem-se que ¯ f (n+1) (0) ¯ cresce muito rápido quando n cresce. A Figura 2.1 mostra este
fenômeno, que é denominado de fenômeno de Runge, para polinômios interpoladores
pn ∈ Pn ([−1, 1]) , em pontos eqüidistantes, nos casos em que n = 5 e n = 10.

9
10 Métodos dos Elementos Finitos

2 2

1.5 1.5

1 1

0.5 0.5

0 0

−0.5 −0.5
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1

Figura 2.1: Fenômeno de Runge: Interpolantes de grau 5 e 10

Temos duas maneiras muito eficientes para evitar o fenômeno de Runge. A primeira
é na escolha dos pontos de interpolação. A escolha é feita observando que o erro da
Interpolação Polinomial, dado por (2.13), depende dos pontos de interpolação através da
função W . Assim, vamos escolher os pontos de interpolação de modo que tenhamos

min { max { | W (x) | ; x ∈ [a, b] } ; Π }. (2.1)

A escolha adequada dos pontos de interpolação para o problema apresentado no exemplo


2.1 são os zeros do polinômio de Chebyshev Tn+1 , denominados Pontos de Inter-
polação de Chebyshev, que são dados por:
2j + 1
tj = − cos( π) ; j = 0, 1, · · · , n . (2.2)
2n + 2
No caso em que estamos trabalhando no intervalo [a, b] , basta fazer uma mudança de
variável para obtermos os pontos de interpolação adequados:
(b + a) (b − a)
xj = + tj ; j = 0, 1, · · · , n . (2.3)
2 2
Vamos deixar como exercı́cio para o leitor refazer o exemplo 2.1 utilizando os zeros de
Tn+1 como pontos de interpolação para obter o polinômio interpolador pn da função f .

A segunda maneira para evitar o fenômeno de Runge está na escolha do espaço de


funções no qual vamos buscar a função interpolante. Vamos fazer a interpolação não
em Pn ([a, b]) , mas em determinados espaços de funções onde seus elementos são po-
linômios por partes, definidos em uma partição qualquer de [a, b] . Esses espaços de
funções são denominados Espaços de Elementos Finitos, que passaremos a definir a
seguir. Os espaços de Elementos Finitos são muito utilizados não somente em problemas
Capı́tulo 2. Espaços de Elementos Finitos 11

de interpolação, mas também em problemas de quadrados mı́nimos e na obtenção de uma


solução aproximada para problemas de valores de contorno por métodos variacionais. Os
métodos variacionais serão abordados em um capı́tulo especial.

Digamos que o fenômeno de Runge seria uma motivação para o estudo dos espaços de
elementos finitos, bem como dos métodos variacionais, dentre os quais podemos menci-
onar o método dos quadrados mı́nimos e o método de Galerkin. Entretanto, uma outra
motivação está baseada no fato que, em geral, os métodos de aproximação de funções
requerem a resolução de um sistema linear. Quando utilizamos os espaços de elementos
finitos, a matriz do sistema linear resultante do método de aproximação tem sempre uma
estrutura especial de esparsidade , o que facilita o seu armazenamento no que se refere à
economia de memória. A combinação de espaços de elementos finitos e métodos variacio-
nais resulta em sistemas lineares com boas propriedades de estabilidade numérica, o que
é uma nova motivação para o estudos desses tópicos.

Definiremos a seguir os Espaços de Funções de Lagrange Polinomial por Partes.


Dada uma partição qualquer de [a, b] , isto é, Π : a = x0 < x1 < · · · < xn = b ,
seja Ld (Π) o conjunto das funções definidas no intervalo [a, b] com as propriedades:
∀ s ∈ Ld (Π) , tem-se que

s(x) = p(x) ∈ Pd (K) ; x ∈ K = [xk−1 , xk ] (2.4)

s ∈ C([a, b]) , (2.5)

isto é, s é um polinômio de grau menor ou igual a d em cada subintervalo K =


[xk−1 , xk ] e uma função contı́nua no intervalo [a, b]. Podemos mostrar que Ld (Π) é um
subespaço vetorial de C([a, b]) com dim( Ld (Π) ) = nd + 1 . é importante observar que
nos espaços Ld (Π) o grau do polinômio em cada subintervalo K é sempre o mesmo,
independendo do número de subintervalos da partição Π. Assim, evitamos o fenômeno
de Runge nos problemas de interpolação.

2.1.1 Espaço das Funções de Lagrange Lineares


De acordo com a definição do espaço Ld (Π) temos as propriedades das funções no
espaço L1 (Π) que é denominado de Espaço das Funções de Lagrange Lineares
por Partes.
12 Métodos dos Elementos Finitos

Assim temos que, ∀ s ∈ L1 (Π)

s(x) = p(x) ∈ P1 (K) ; x ∈ K = [xk−1 , xk ] (2.6)

s ∈ C([a, b]) . (2.7)

A seguir, vamos construir as funções em L1 (Π) e mostrar que este é um subespaço


vetorial de C([a, b]) com dim( L1 (Π) ) = n + 1 . Neste caso, temos que a restrição
de uma função que pertence a L1 (Π) é sempre um polinômio de grau menor ou igual
a 1 em cada subintervalo, isto é , s|K = p ∈ P1 (K) . O espaço L1 (Π) também é
denominado Espaço das Funções Splines Lineares.

Vamos considerar a base de Lagrange para o espaço vetorial P1 (K) associada aos
pontos xk−1 e xk , com o objetivo de utilizá-la na representação da restrição da função
s aos subintervalos K = [xk−1 , xk ].

(k) (k)
Denotando por λ1 e λ2 as funções da base de Lagrange para P1 (K) , tem-se que:
(k)
λ1 (x) = ( xk − x ) / h k (2.8)

(k)
λ2 (x) = ( x − xk−1 ) / hk , (2.9)

onde hk = xk − xk−1 é o comprimento do k-ésimo subintervalo. Desse modo, temos


que ∀ s ∈ L1 (Π) pode ser escrita da seguinte forma:
(k) (k)
s(x) = α1k λ1 (x) + α2k λ2 (x) ; x∈K . (2.10)

(k) (k)
As funções λ1 e λ2 são chamadas de Funções de Base Local, no k-ésimo subin-
tervalo, do espaço L1 (Π) .

À partir da definição de base local, vamos construir as funções que são denominadas
Funções de Base Global do espaço L1 (Π) associadas aos pontos xj da partição Π .
Denotando por ϕ0 , ϕ1 , · · · , ϕj , · · · , ϕn as funções da base global e considerando as
equações (2.8) − (2.10) , temos que:



 ( x1 − x ) / h 1 ; se x ∈ [x0 , x1 ]
ϕ0 (x) = (2.11)

 0 ; caso contrário.
Capı́tulo 2. Espaços de Elementos Finitos 13



 ( x − xj−1 ) / hj ; se x ∈ [xj−1 , xj ]




ϕj (x) = ( xj+1 − x ) / hj+1 ; se x ∈ [xj , xj+1 ] (2.12)






0 ; caso contrário.



 ( x − xn−1 ) / hn ; se x ∈ [xn−1 , xn ]
ϕn (x) = (2.13)

 0 ; caso contrário.

6
ϕ0 (x) ϕj (x) ϕn (x)
1
A ¢A ¢
A ¢ A ¢
A ¢ A ¢
A ¢ A ¢
A ¢ A ¢
A ¢ A ¢
A ¢ A ¢
A ¢ A ¢
r Ar r¢ r Ar ¢r r-
0 x0 x1 xj−1 xj xj+1 xn−1 xn

Figura 2.2: Funções de base para o subespaço L1 (Π)

Podemos mostrar que as funções ϕ0 , ϕ1 , · · · , ϕj , · · · , ϕn , ilustradas na Figura 2.2,


são linearmente independentes e formam uma base para o espaço L1 (Π) . Observamos
também que as funções ϕj possuem a seguinte propriedade
ϕj (xi ) = δij ; 0 ≤ i, j ≤ n, (2.14)
fazendo com que essas funções sejam denominadas funções de base nodais. O espaço
L1 (Π) será muito utilizado nos Métodos de Elementos Finitos que vamos estudar nos
próximos capı́tulos. Portanto, temos que toda função s ∈ L1 (Π) pode ser escrita de
modo único da seguinte forma:
Xn
s(x) = αj ϕj (x) . (2.15)
j=0
14 Métodos dos Elementos Finitos

2.1.2 Espaço das Funções de Lagrange Quadráticas


Os elementos do espaço L2 (Π) , que é denominado Espaço das Funções de Lagrange
Quadráticas por Partes, têm as seguintes propriedades : para toda s ∈ L2 (Π)

s(x) = p(x) ∈ P2 (K) ; x ∈ K = [xk−1 , xk ] (2.16)

s ∈ C([a, b]) . (2.17)

A seguir, vamos construir as funções em L2 (Π) e mostrar que L2 (Π) é um subespaço


vetorial de C([a, b]) com dim( L2 (Π) ) = 2n + 1 . Neste caso, temos que a restrição
de uma função que pertence a L2 (Π) é sempre um polinômio de grau menor ou igual
à 2 em cada subintervalo, isto é , s|K = p ∈ P2 (K) .

Vamos considerar a base de Lagrange para o espaço vetorial P2 (K) associada aos pon-
tos xk−1 , xk e xk , onde xk é o ponto médio do k-ésimo subintervalo K = [xk−1 , xk ].

(k) (k) (k)


Denotamos por β1 , β2 e β3 as funções da base de Lagrange para P2 (K) , que
podem ser construı́das em função da base de Lagrange para P1 (K) da seguinte forma

(k) (k) (k)


β1 (x) = λ1 (x) ( 2 λ1 (x) − 1 ) (2.18)

(k) (k) (k)


β2 (x) = 4 λ1 (x) λ2 (x) (2.19)

(k) (k) (k)


β3 (x) = λ2 (x) ( 2 λ2 (x) − 1 ). (2.20)

Desse modo, temos que toda função s ∈ L2 (Π) pode ser escrita da seguinte forma:
(k) (k) (k)
s(x) = α1k β1 (x) + α2k β2 (x) + α3k β3 (x) ; x ∈ K = [xk−1 , xk ] . (2.21)

(k) (k)
As funções β1 , β2k e β3 são chamadas Funções de Base Local, no k-ésimo
subintervalo, do espaço L2 (Π) . À partir da definição de base local, vamos construir as
funções que são denominadas Funções de Base Global do espaço L2 (Π) associadas
aos pontos x0 , x1 , · · · , xj , · · · , xn da partição Π e também aos pontos médios de
cada subintervalo x1 ∈ [x0 , x1 ], · · · , xk ∈ [xk−1 , xk ], · · · , xn ∈ [xn−1 , xn ] . Desse modo,
teremos 2n + 1 funções de base nodais para o espaço L2 (Π) .
Capı́tulo 2. Espaços de Elementos Finitos 15

Denotamos por β0 , β1 , · · · , β2k−1 , β2k , · · · , β2n−1 , β2n as funções da base


global. Por convenção, as funções com enumeração par estão associadas aos pontos da
partição Π e as funções com enumeração ı́mpar estão associadas aos pontos médios dos
subintervalos. Considerando as equações (2.18)–(2.20), temos que:

a função β0 associada ao ponto x0 é dada por


(1)

 β1 (x) ; se x ∈ [x0 , x1 ]
β0 (x) = (2.22)

 0 ; caso contrário.

As funções β2k associadas aos pontos xk ∈ Π para k = 1, · · · , (n − 1) , são dadas por


 (k)

 β3 ; se x ∈ [xk−1 , xk ]




(k+1)
β2k (x) = β1 ; se x ∈ [xk , xk+1 ] (2.23)






0 ; caso contrário.

As funções β2k−1 associadas aos pontos médios xk ∈ K para k = 1, · · · , n , são dadas


por

(k)

 β2 ; se x ∈ [xk−1 , xk ]
β2k−1 (x) = (2.24)

 0 ; caso contrário.

A função β2n associada ao ponto xn é dada por


(n)

 β3 (x) ; se x ∈ [xn−1 , xn ]
β2n (x) = (2.25)

 0 ; caso contrário.

Portanto, temos que ∀ s ∈ L2 (Π) pode ser escrita de modo único da seguinte forma:
2n
X
s(x) = αj βj (x) . (2.26)
j=0
16 Métodos dos Elementos Finitos

1.2 1

1
0.8
0.8
0.6
β (x)

β2(x)
0.6
1

0.4 0.4
0.2
0.2
0

−0.2 0
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1

x
1.2
1
0.8
0.6
β (x)

0.4
3

0.2
0
−0.2

−1 −0.5 0 0.5 1

Figura 2.3: Funções da Base local para o espaço L2 (Π)


Capı́tulo 2. Espaços de Elementos Finitos 17

2.2 Espaço das Funções Cúbicas de Hermite


Os espaços L1 (Π) e L2 (Π) são subespaços vetoriais de C([a, b]) , cujas funções são
contı́nuas em [a, b] mas com derivada descontı́nua nos pontos da partição Π . Vamos
agora estudar um espaço de funções polinomiais por partes, definidas sobre uma partição
Π : a = x0 < x1 < · · · < xn = b , cujas funções são contı́nuas com derivada também
contı́nua no intervalo [a, b] .

Vamos definir o espaço H3 (Π) denominado Espaço das Funções Cúbicas de


Hermite, no qual seus elementos têm as seguintes propriedades : ∀ s ∈ H3 (Π)

s(x) = p(x) ∈ P3 (K) ; x ∈ K = [xk−1 , xk ] (2.27)

s ∈ C (1) ([a, b]) . (2.28)

A seguir, vamos construir as funções em H3 (Π) e mostrar que este é um subespaço de


C (1) ([a, b]) com dim( H3 (Π) ) = 2n + 2 . Neste caso, temos que a restrição de uma
função que pertence a H3 (Π) é sempre um polinômio de grau menor ou igual a 3 em
cada subintervalo, isto é, s|K = p ∈ P3 (K) .

Inicialmente definimos a Base de Hermite para o espaço vetorial P3 (K) associada


aos pontos xk−1 e xk , com o objetivo de utilizá-la na representação da restrição da
função s aos subintervalos K = [xk−1 , xk ].

(k) (k) (k) (k)


Denotando por ψ1 , ψ2 , ψ3 e ψ4 as funções da base de Hermite para P3 (K)
que possuem as seguinte propriedades

(k) (k)

 ψ1 (xk−1 ) = 1 , ψ1 (xk ) = 0
(2.29)

 (ψ (k) )0 (x ) = 0 (k)
1 k−1 , (ψ1 )0 (xk ) = 0


(k) (k)

 ψ3 (xk−1 ) = 0 , ψ3 (xk ) = 1
(2.30)

 (ψ (k) )0 (x ) = 0 (k)
3 k−1 , (ψ3 )0 (xk ) = 0
18 Métodos dos Elementos Finitos


(k) (k)

 (ψ2 )0 (xk−1 ) = 1 , (ψ2 )0 (xk ) = 0
(2.31)

 ψ (k) (x ) = 0 (k)
2 k−1 , ψ2 (xk ) = 0


(k) (k)

 (ψ4 )0 (xk−1 ) = 0 , (ψ4 )0 (xk ) = 1
(2.32)

 ψ (k) (x ) = 0 (k)
4 k−1 , ψ4 (xk ) = 0.

Como as funções da base de Hermite são polinômios de grau 3, podemos escrevê-las da


seguinte forma:
(k)
ψj (x) = ak0 + ak1 x + ak2 x2 + ak3 x3 ; k = 1, · · · , n e j = 1, 2, 3, 4 .

Impondo as condições (2.29) temos que resolver um sistema linear com 4 equações a 4
incógnitas ak0 , ak1 , ak2 , ak3 e ak4 para obtermos a primeira função da base:
(k)
ψ1 (x) = ( x − xk )2 ( 2x + xk − 3xk−1 ) /h3k . (2.33)

Impondo as condições (2.30) temos que resolver um sistema linear com 4 equações a 4
incógnitas ak0 , ak1 , ak2 , ak3 e ak4 para obtermos a terceira função da base:
(k)
ψ3 (x) = −( x − xk−1 )2 ( 2x + xk−1 − 3xk ) /h3k . (2.34)

Impondo as condições (2.31) temos que resolver um sistema linear com 4 equações a 4
incógnitas ak0 , ak1 , ak2 , ak3 e ak4 para obtermos a segunda função da base:
(k)
ψ2 (x) = ( x − xk )2 ( x − xk−1 ) /h2k . (2.35)

Impondo as condições (2.32) temos que resolver um sistema linear com 4 equações a 4
incógnitas ak0 , ak1 , ak2 , ak3 e ak4 para obtermos a quarta função da base:
(k)
ψ4 (x) = ( x − xk−1 )2 ( x − xk ) /h2k . (2.36)

(k) (k) (k) (k)


Podemos mostrar que as funções ψ1 , ψ2 , ψ3 e ψ4 são linearmente indepen-
dentes em P3 (K) , portanto, formam uma base para este espaço.
Capı́tulo 2. Espaços de Elementos Finitos 19

Desse modo, temos que ∀ s ∈ H3 (Π) pode ser escrita da seguinte forma:
(k) (k) (k) (k)
s(x) = α1k ψ1 (x) + α2k ψ2 (x) + α3k ψ3 (x) + α4k ψ4 (x) ; x ∈ K . (2.37)

(k) (k)
As funções ψ1 , ψ2k , ψ3k e ψ4 são chamadas de Funções de Base Local, no
k-ésimo subintervalo, do espaço H3 (Π) .

Denotaremos por ψ0 , ψ1 , · · · , ψ2k , ψ2k+1 , · · · , ψ2n , ψ2n+1 as funções da base glo-


bal para o espaço H3 (Π) . As funções com enumeração par estão associadas aos pontos
da partição Π com informações sobre a interpolação do valor da função e as funções com
enumeração ı́mpar estão associadas aos pontos da partição Π com informações sobre a
interpolação do valor da derivada.

As funções ψ0 e ψ1 associadas ao ponto x0 são dadas por


(1)

 ψ1 (x) ; se x ∈ [x0 , x1 ]
ψ0 (x) = (2.38)

 0 ; caso contrário


(1)

 ψ2 (x) ; se x ∈ [x0 , x1 ]
ψ1 (x) = (2.39)

 0 ; caso contrário.

As funções ψ2k associadas aos pontos xk ∈ Π para k = 1, · · · , (n − 1) , são dadas por


 (k)

 ψ3 ; se x ∈ [xk−1 , xk ]




(k+1)
ψ2k (x) = ψ1 ; se x ∈ [xk , xk+1 ] (2.40)






0 ; caso contrário.

As funções ψ2k+1 associadas aos pontos xk ∈ Π para k = 1, · · · , (n − 1) , são dadas


por
 (k)

 ψ4 ; se x ∈ [xk−1 , xk ]




(k+1)
ψ2k+1 (x) = ψ2 ; se x ∈ [xk , xk+1 ] (2.41)






0 ; caso contrário.
20 Métodos dos Elementos Finitos

As funções ψ2n e ψ2n+1 associadas ao ponto xn , são dadas por


(n)

 ψ3 (x) ; se x ∈ [xn−1 , xn ]
ψ2n (x) = (2.42)

 0 ; caso contrário


(n)

 ψ4 (x) ; se x ∈ [xn−1 , xn ]
ψ2n+1 (x) = (2.43)

 0 ; caso contrário.

Podemos mostrar que as funções ψ0 , ψ1 , · · · , ψ2k , ψ2k+1 , · · · , ψ2n , ψ2n+1 são


linearmente independentes e formam uma base para o espaço H3 (Π) . Observamos
também que as funções da base global possuem as seguintes propriedades


 ψ2j (xi ) = δij ; 0 ≤ i, j ≤ n
(2.44)

 ψ 0 (x ) = 0
2j i ; 0 ≤ i, j ≤ n


 0
 ψ2j+1 (xi ) = δij ; 0 ≤ i, j ≤ n
(2.45)

 ψ
2j+1 (xi ) = 0 ; 0 ≤ i, j ≤ n.

Portanto, temos que ∀ s ∈ H3 (Π) pode ser escrita de modo único da seguinte forma:
2n+1
X
s(x) = αj ψj (x) . (2.46)
j=0
Capı́tulo 2. Espaços de Elementos Finitos 21

1 1

0.8 0.8

0.6 0.6
ψ (x)

ψ (x)
1

3
0.4 0.4

0.2 0.2

0 0
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1

1.4

1.2 0
−0.2
1
−0.4
ψ (x)

ψ4(x)

0.8
−0.6
2

0.6
−0.8
0.4
−1
0.2 −1.2
0
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1

x x

Figura 2.4: Funções da Base local para o espaço H3 (Π)


22 Métodos dos Elementos Finitos

2.3 Interpolação Polinomial por Partes


Seja f : [a, b] −→ IR uma função contı́nua e Π uma partição qualquer de [a, b] , isto
é, Π : a = x0 < x1 < · · · < xn = b . Queremos encontrar uma função s1 ∈ L1 (Π)
satisfazendo as condições de interpolação pura, isto é,

s1 (xi ) = f (xi ) ; i = 0, 1, · · · , n . (2.47)

A função s1 construı́da com as condições acima é denominada função spline linear


interpolante da função f nos pontos da partição Π . Utilizando as funções de base do
espaço L1 (Π) temos que
n
X
s1 (xi ) = αj ϕj (xi ) = f (xi ) ; 0 ≤ i ≤ n. (2.48)
j=0

Como ϕj (xi ) = δij obtemos que αi = f (xi ) para i = 0, 1, · · · , n . Podemos


observar que na interpolação por partes em L1 (Π) , como as funções de base são nodais,
os coeficientes da função interpolante são obtidos sem a necessidade da resolução de um
sistema linear.

De modo análogo, podemos encontrar uma função s2 ∈ L2 (Π) satisfazendo as condições


de interpolação pura, isto é,

s2 (xi ) = f (xi ) ; i = 0, 1, · · · , n (2.49)

s2 (xi ) = f (xi ) ; i = 1, 2, · · · , n . (2.50)

A função s2 construı́da com as condições acima é denominada função de Lagrange


Quadrática interpolante da função f nos pontos da partição Π e nos pontos médios de
cada subintervalo. Utilizando as funções de base do espaço L2 (Π) temos que
n
X
s2 (xi ) = αj βj (xi ) = f (xi ) ; 0 ≤ i ≤ n (2.51)
j=0

n
X
s2 (xi ) = αj βj (xi ) = f (xi ) ; 1 ≤ i ≤ n. (2.52)
j=0

Como as funções de base do espaço L2 (Π) são nodais, obtemos que α2i = f (xi ) para
i = 0, 1, · · · , n e obtemos α2i−1 = f (xi ) para i = 1, 2, · · · , n , sem a necessidade
da resolução de um sistema linear.
Capı́tulo 2. Espaços de Elementos Finitos 23

Finalmente veremos como usar as funções cúbicas de Hermite em problemas de inter-


polação. Seja f : [a, b] −→ IR uma função de classe C (1) ([a, b]) e Π uma partição
qualquer de [a, b] , isto é, Π : a = x0 < x1 < · · · < xn = b . Queremos encontrar uma
função s ∈ H3 (Π) satisfazendo as condições mistas de interpolação e suavidade, isto é,

s(xi ) = f (xi ) ; i = 0, 1, · · · , n (2.53)

s0 (xi ) = f 0 (xi ) ; i = 0, 1, · · · , n . (2.54)

A função s construı́da com as condições acima é denominada função cúbica de Hermite


interpolante das funções f e f 0 nos pontos da partição Π . Utilizando as funções de
base do espaço H3 (Π) temos que

2n+1
X
s(xi ) = αj ψj (xi ) = f (xi ) ; 0 ≤ i ≤ n . (2.55)
j=0

Como as funções de base do espaço H3 (Π) possuem as propriedades (2.44) − (2.45) ,


obtemos que α2i = f (xi ) para i = 0, 1, · · · , n e obtemos α2i+1 = f 0 (xi ) para
i = 0, 1, · · · , n , sem a necessidade da resolução de um sistema linear.

2.3.1 Erro da Interpolação Polinomial por Partes


À partir do Teorema 1.1 e das desigualdades (2.13) e (1.14) obtemos os seguinte resultados
para o erro da interpolação polinomial por partes.

Teorema 2.1 Seja f ∈ C (2) ([a, b]) e s1 ∈ L1 (Π) a função spline linear que interpola
a função f nos pontos da partição Π : a = x0 < x1 < . . . < xn = b. Então, para
todo x ∈ [xk−1 , xk ] , existe pelo menos um ponto ξk = ξ(x) ∈ (xk−1 , xk ) tal que

W (k) (x) (2)


e(k) (x) = f (x) − s1 (x) = f (ξk ) , (2.56)
2!

onde W (k) (x) = ( x − xk−1 )( x − xk ).

é fácil mostrar que a função W (k) satisfaz


¯ (k) ¯ ¯ ¯ h2k
¯ W (xk ) ¯ = max{ ¯ W (k) (x) ¯ ; xk−1 ≤ x ≤ xk } = . (2.57)
4
24 Métodos dos Elementos Finitos

Assim, temos uma Estimativa para o Erro da Interpolação em L1 (Π) :


¯ (k) ¯ 2 ¯ ¯
¯ e (x) ¯ ≤ hk max{ ¯ f (2) (x) ¯ ; xk−1 ≤ x ≤ xk }. (2.58)
8

Teorema 2.2 Seja f ∈ C (3) ([a, b]) e s2 ∈ L2 (Π) a função de Lagrange Quadrática
que interpola a função f nos pontos da partição Π : a = x0 < x1 < . . . < xn = b.
Então, para todo x ∈ [xk−1 , xk ] , existe pelo menos um ponto ξk = ξ(x) ∈ (xk−1 , xk )
tal que
W (k) (x) (3)
e(k) (x) = f (x) − s2 (x) = f (ξk ) , (2.59)
3!

onde W (k) (x) = ( x − xk−1 )( x − xk )( x − xk ).

Utilizando a desigualdade (2.13) podemos mostrar que a função W (k) satisfaz


h3k
| W (x) | ≤ ; ∀ x ∈ [xk−1 , xk ] . (2.60)
16

Assim, temos uma Estimativa para o Erro da Interpolação em L2 (Π) :

¯ (k) ¯ 3 ¯ ¯
¯ e (x) ¯ ≤ hk max{ ¯ f (3) (x) ¯ ; xk−1 ≤ x ≤ xk } . (2.61)
96

Teorema 2.3 Seja f ∈ C (4) ([a, b]) e s ∈ H3 (Π) a função cúbica de Hermite que
interpola as funções f e f 0 nos pontos da partição Π : a = x0 < x1 < . . . < xn = b.
Então, para todo x ∈ [xk−1 , xk ] , existe pelo menos um ponto ξk = ξ(x) ∈ (xk−1 , xk )
tal que

(k) W (k) (x) (4)


e (x) = f (x) − s(x) = f (ξk ) , (2.62)
4!
onde W (k) (x) = ( x − xk−1 )2 ( x − xk )2 .

Utilizando a relação (2.57) temos a seguinte Estimativa para o Erro da Interpolação


em H3 (Π) :
¯ (k) ¯ h4k ¯ ¯
¯ e (x) ¯ ≤ max{ ¯ f (4) (x) ¯ ; xk−1 ≤ x ≤ xk } . (2.63)
384
Capı́tulo 2. Espaços de Elementos Finitos 25

Demonstração do Teorema 2.3 Considere um ponto x ∈ (xk−1 , xk ) , fixo porém


arbitrário. Vamos construir uma função auxiliar da seguinte forma
W (k) (x)
ϕ(x) = [ f (x) − s(x) ] − [ f (x) − s(x) ] ; x ∈ [xk−1 , xk ] . (2.64)
W (k) (x)

De modo análogo à demonstração do Teorema 1.1, basta verificar que a função ϕ é uma
função de classe C (4) ([xk−1 , xk ]) e que se anula nos pontos xk−1 , xk , x . Observe
a multiplicidade dos zeros, em seguida aplique sucessivamente o Teorema de Rolle às
funções ϕ , ϕ0 , · · · , ϕ(4) .

2.4 Exercı́cios
Exercı́cio 2.1 Considere a função f (t) = 1 / ( 1 + 25t2 ) para t ∈ [−1, 1] . Encontre
os polinômios p5 ∈ P5 ([−1, 1]) e p10 ∈ P10 ([−1, 1]) que interpolam a função f nos
pontos de Chebyshev. Fazer os gráficos dos polinômios interpolantes e comparar com a
Figura 2.1.

Exercı́cio 2.2 Mostre que o conjunto L1 (Π) é um subespaço vetorial de C([a, b]) .

Exercı́cio 2.3 Esboçar os gráficos das funções ϕ0 , ϕ1 , · · · , ϕn definidas em (2.11)–


(2.13). Mostrar que são linearmente independentes e formam uma base para o espaço
L1 (Π) .

(k) (k) (k)


Exercı́cio 2.4 Esboçar os gráficos das funções β1 , β2 e β3 definidas em
(2.18)–(2.20). Mostrar que são linearmente independentes e formam uma base para o
espaço P2 (K) .

Exercı́cio 2.5 Mostre que o conjunto L2 (Π) é um subespaço vetorial de C([a, b]) .

Exercı́cio 2.6 Esboçar os gráficos das funções β0 , β1 , · · · , β2k−1 , β2k , · · · ,


β2n−1 , β2n definidas em (2.22)–(2.25). Mostrar que são linearmente independentes e
formam uma base para o espaço L2 (Π) .

(k) (k) (k)


Exercı́cio 2.7 Construir as funções da base para o espaço P3 (K) , ψ1 , ψ2 , ψ3
(k)
e ψ4 , impondo as condições (2.29)–(2.32). Esboçar os gráficos das funções e mostrar
que são linearmente independentes em P3 (K) .
26 Métodos dos Elementos Finitos

Exercı́cio 2.8 Esboçar os gráficos das funções ψ0 , ψ1 , · · · , ψ2k , ψ2k+1 , · · · ,


ψ2n , ψ2n+1 definidas em (2.38)–(2.43). Mostrar que são linearmente independentes e
formam uma base para o espço H3 (Π) .

Exercı́cio 2.9 Utilizando o Teorema 1.1, demonstre o Teorema 2.1 e o Teorema 2.2.

Exercı́cio 2.10 Obter a estimativa para o erro da interpolação em H3 (Π) dada por
(2.63).

Exercı́cio 2.11 Mostre o resultado dado em (2.57).

Exercı́cio 2.12 Termine de escrever os detalhes da demonstração do Teorema 2.3.


Capı́tulo 3

Problema Variacional Simétrico

3.1 Formas Bilineares. Continuidade e Coercividade


Definição 3.1 Seja (E, +, ·) um espaço vetorial real de dimensão infinita munido do
produto interno h · , · iE e k · kE a norma proveniente do produto interno. Dizemos
que uma forma bilinear a(·, ·) sobre E é uma Forma Bilinear Contı́nua se existe
uma constante β > 0 tal que

| a(u, v) | ≤ β k u kE k v kE para todo u, v ∈ E , (3.1)

a constante β é denominada constante de continuidade da forma bilinear.

Definição 3.2 Seja (E, +, ·) um espaço vetorial real de dimensão infinita munido do
produto interno h · , · iE e k · kE a norma proveniente do produto interno. Dizemos
que uma forma bilinear a(·, ·) sobre E é uma Forma Bilinear Coerciva se existe
uma constante ρ > 0 tal que

a(u, u) ≥ ρ k u k2E para todo u ∈ E . (3.2)

a constante ρ é denominada constante de coercividade da forma bilinear. Note


que a condição de coercividade implica na positividade da forma bilinear.

Desse modo, se uma forma bilinear a(·, ·) sobre E for simétrica e coerciva, então ela
define um produto interno sobre E , isto é, a aplicação h · , · ia : E ×E −→ IR definida
da forma h u , v ia = a(u, v) para todo u, v ∈ E , define um produto interno sobre
E, denominado produto interno energia. Este fato é de extrema importância para os
nosso objetivos. Vamos denotar por k · ka a norma proveniente desse produto interno,
denominada norma energia.

27
28 Métodos dos Elementos Finitos

Teorema 3.1 Seja (E, +, ·) um espaço vetorial real de dimensão infinita munido do
produto interno h · , · iE e k · kE a norma proveniente do produto interno. Seja
a(·, ·) uma forma bilinear simétrica, contı́nua e coerciva sobre E . Seja k · ka a norma
proveniente do produto interno h · , · ia associado à forma bilinear a(·, ·) . Então, as
normas k · kE e k · ka são equivalentes, isto é,
√ p
ρ k u kE ≤ k u ka ≤ β k u kE para todo u ∈ E ,

1 1
√ k u ka ≤ k u kE ≤ √ k u ka para todo u ∈ E .
β ρ

O resultado acima é de extrema importância para a demonstração do Teorema de Lax–


Milgram, que iremos ver mais adiante.

3.1.1 Exemplo de Forma Bilinear Contı́nua e Coerciva


Vamos considerar o seguinte conjunto de funções reais

L([a, b]) = { f : [a, b] −→ IR / f contı́nua, f 0 contı́nua por partes e limitada } .


(3.3)

Podemos observar que o conjunto de funções reais L([a, b]) munido das operações usuais
de soma de funções e multiplicação de uma função por um escalar, (L([a, b]), +, ·) , é um
subespaço vetorial do espaço vetorial real (C([a, b]), +, ·) munido do produto interno
usual h · , · iL2 definido da seguinte forma
Z b
h f , g i L2 = f (x) g(x) dx para toda f, g ∈ C([a, b]) .
a

Considerando o espaço vetorial real E = (L([a, b]), +, ·) vamos definir um produto


interno h · , · iE sobre E da seguinte maneira
Z b Z b
0 0
h u , v iE = u (x) v (x) dx + u(x) v(x) dx . (3.4)
a a

Considerando o espaço vetorial real E = (L([a, b]), +, ·) vamos definir uma forma
bilinear a(·, ·) sobre E da seguinte maneira
Z b Z b
0 0
a(u, v) = α(x) u (x) v (x) dx + σ(x) u(x) v(x) dx , (3.5)
a a

onde as funções α e σ são contı́nuas e estritamente positivas no intervalo [a, b] .


Podemos observar facilmente que a forma bilinear a(·, ·) definida em (3.5) é uma forma
Capı́tulo 3. Problema Variacional Simétrico 29

bilinear simétrica e positiva. Podemos também mostrar que essa forma bilinear é contı́nua
e coerciva com relação a norma k · kE proveniente do produto interno h · , · iE
definido em (3.4).

Vamos também utilizar os seguintes subespaços de L([a, b])

L0 ([a, b]) = { f ∈ L([a, b]) / f (a) = f (b) = 0 }

L0+ ([a, b]) = { f ∈ L([a, b]) / f (b) = 0 }

L0− ([a, b]) = { f ∈ L([a, b]) / f (a) = 0 } ,

os quais estabelecem certas condições de contorno para os Problemas Variacionais, que


iremos estudar mais adiante, definidos sobre esses espaços.

3.2 Formas Lineares. Continuidade


Definição 3.3 Seja (E, +, ·) um espaço vetorial real de dimensão infinita munido do
produto interno h · , · iE e k · kE a norma proveniente do produto interno. Dizemos
que uma forma linear b(·) sobre E é uma Forma Linear Contı́nua se existe uma
constante δ > 0 tal que

| b(u) | ≤ δ k u kE para todo u ∈ E . (3.6)

a constante δ é denominada constante de continuidade da forma linear.

Teorema 3.2 Seja (E, +, ·) um espaço vetorial real de dimensão infinita munido do
produto interno h · , · iE e k · kE a norma proveniente do produto interno. Seja
a(·, ·) uma forma bilinear simétrica, contı́nua e coerciva sobre E e b(·) uma forma
linear contı́nua. Seja k · ka a norma proveniente do produto interno h · , · ia associado
à forma bilinear a(·, ·) . Então, a forma linear b(·) é contı́nua com relação à norma
k · ka , isto é,

δ
| b(u) | ≤ √ k u ka para todo u ∈ E .
ρ

O resultado acima é de extrema importância para a demonstração do Teorema de Lax–


Milgram, que iremos ver mais adiante.
30 Métodos dos Elementos Finitos

3.2.1 Exemplo de Forma Linear Contı́nua


Considerando o espaço vetorial real E = (L([a, b]), +, ·) vamos definir uma forma
linear b(·) sobre E da seguinte maneira
Z b
b(v) = f (x) v(x) dx . (3.7)
a

onde a função f é uma função contı́nua no intervalo [a, b]. Podemos mostrar que a
forma linear definida em (3.7) é contı́nua com relação a norma k · kE proveniente do
produto interno h · , · iE definido em (3.4). Assim, a forma linear definida em (3.7)
também é contı́nua em relação a norma energia k · ka .

3.3 Problema Variacional


Definição 3.4 Seja (E, +, ·) um espaço vetorial real de dimensão infinita munido
do produto interno h · , · iE e k · kE a norma proveniente do produto interno.
Consideremos a(·, ·) uma forma bilinear sobre E simétrica, contı́nua e coerciva e b(·)
uma forma linear sobre E contı́nua. O problema definido da seguinte maneira

(V) encontrar u∗ ∈ E solução da equação

a(u, v) = b(v) para todo v ∈ E , (3.8)

é denominado Problema Variacional Simétrico.

3.4 Problema de Minimização


Vamos agora definir o Problema de Minimização associado ao Problema Variacio-
nal definido em (3.8). Isto pode ser feito desde que a forma bilinear seja simétrica. Para
isso, necessitamos do seguinte funcional quadrático
1
J(u) = a( u , u ) − b(u) para todo u ∈ E , (3.9)
2
e consideramos o seguinte Problema de Minimização

(M) encontrar u∗ ∈ E tal que

J(u∗ ) = min{ J(u) ; u ∈ E }. (3.10)


Capı́tulo 3. Problema Variacional Simétrico 31

Mostraremos a seguir a equivalência entre os problemas (V) e (M) .

Inicialmente, vamos considerar que u∗ ∈ E é uma solução do problema variacional (V) .


Seja w ∈ E definimos v = u∗ + w . Desse modo, tem-se que para todo u ∈ E
1
J(v) = J(u∗ ) + [ a(u∗ , w) − b(w) ] + a(w, w) ≥ J(u∗ ) , (3.11)
2
desde que, u∗ é solução do problema variacional (V) e a(w, w) ≥ 0 pois temos uma
forma bilinear positiva. Portanto u∗ é solução do problema de minimização (M) .
Por outro lado, consideremos u∗ ∈ E solução do problema de minimização (M) . Dessa
forma, temos que para todo v ∈ E e ² ∈ IR

J(u∗ ) ≤ J(u∗ + ² v) . (3.12)

Definimos agora uma função g : IR −→ IR , que é diferenciável, da seguinte forma

g(²) = J(u∗ + ² v) (3.13)

²2
g(²) = J(u∗ ) + ² a(u∗ , v) − ² b(v) + a(v, v) . (3.14)
2
Sabemos que g possui um ponto de mı́nimo em ² = 0 , assim temos que g 0 (0) = 0 .
Desse modo, obtemos

g 0 (²) = a(u∗ , v) − b(v) + ² a(v, v) (3.15)

g 0 (0) = a(u∗ , v) − b(v) = 0 para todo v ∈ E . (3.16)

Portanto mostramos que u∗ é solução do problema variacional (V) . Assim acabamos


de mostrar a equivalência entre o problema variacional (V) e o problema de minimização
(M) .

3.5 Método de Galerkin


Temos neste momento a ferramenta necessária para apresentarmos o Método de Ga-
lerkin, que é baseado no Problema Variacional (3.8), ponto de partida para os Métodos
dos Elementos Finitos e para os Métodos Espectrais.

Vamos considerar um subespaço de dimensão finita Eh do espaço vetorial E. Vamos


tomar uma base para o subespaço vetorial Eh , β = { ϕ1 , · · · , ϕn } .
32 Métodos dos Elementos Finitos

Desse modo, toda função v ∈ Eh é escrita da seguinte forma


n
X
v(x) = αj ϕj (x) . (3.17)
j=1

Portanto, fica natural uma Discretização para o Problema Variacional (3.8), usu-
almente denominada de Método de Galerkin, que pode ser formalizado da seguinte
maneira

(Vh ) encontrar uma função u∗h ∈ Eh solução da equação

a(uh , v) = b(v) para todo v ∈ Eh . (3.18)

Como a função uh ∈ Eh , podemos escrevê-la da seguinte forma


n
X
uh (x) = αj ϕj (x) . (3.19)
j=1

Como (3.18) é válida para toda função em Eh , em particular será válida para as funções
de base. Desse modo, utilizando as funções de base e substituindo (3.19) em (3.18) tem-se
que
n
X
αj a(ϕj , ϕi ) = b(ϕi ) para todo i = 1, · · · , n . (3.20)
j=1

Podemos observar que (3.20) é um sistema linear com n equações e n incógnitas


α1 , · · · , αn , que são as coordenadas de uh com relação à base do subespaço Eh .
Fazendo uma representação matricial do sistema linear acima, C α = d , temos que os
elementos da matriz do sistema C = [ cij ] são dados por

cij = a(ϕj , ϕi ) para todo i, j = 1, · · · , n ,

e os elementos do vetor d = [ di ] são dados por

di = b(ϕi ) para todo i = 1, · · · , n .

Podemos também definir uma Aproximação para o Problema de Minimização


(3.10), usualmente denominado de Método de Ritz, da seguinte forma
Capı́tulo 3. Problema Variacional Simétrico 33

(Mh ) encontrar uma função u∗h ∈ Eh tal que

J(u∗h ) = min{ J(v) ; v ∈ Eh } . (3.21)

De maneira análoga ao procedimento anterior, podemos mostrar que os problemas (Mh )


e (Vh ) são equivalentes.

Teorema 3.3 Seja (Eh , +, ·) um espaço vetorial real de dimensão finita munido do
produto interno h · , · ia associado à forma bilinear a(·, ·) simétrica, contı́nua e coerciva
sobre Eh . Se b(·) é uma forma linear contı́nua sobre Eh . Então, existe um único
elemento u∗h ∈ Eh solução do Problema Variacional Discreto definido em (3.18). Além
disso, temos a seguinte estimativa de estabilidade
δ
k u∗h kE ≤ , (3.22)
ρ
com δ a constante de continuidade da forma linear e ρ a constante de coercividade da
forma bilinear.

3.5.1 Exemplos de Problemas Variacionais Simétricos


Considerando a forma bilinear a(·, ·) definida em (3.5) e Eh um subespaço de dimensão
finita do espaço vetorial E = (L([a, b]), +, ·) , que pode ser o espaço das Funções
Splines Lineares associado a uma partição qualquer do intervalo [a, b]. Note que no
espaço L([a, b]) não impomos condições nas fronteira para as funções. Desse modo,
temos que os elementos da matriz C = [cij ] , cij = a(ϕj , ϕi ) , são da seguinte forma
Z b Z b
cij = α(x) ϕ0j (x) ϕ0i (x) dx + σ(x) ϕj (x) ϕi (x) dx ; i, j = 1, · · · , n .
a a
(3.23)

Geralmente, a matriz C é escrita como a soma de duas matrizes; M = [ mij ]


denominada de matriz de massa e K = [ kij ] denominada matriz de rigidez, que
são definidas por
Z b
mij = σ(x) ϕj (x) ϕi (x) dx para todo i, j = 1, · · · , n , (3.24)
a

Z b
kij = α(x) ϕ0j (x) ϕ0i (x) dx para todo i, j = 1, · · · , n . (3.25)
a
34 Métodos dos Elementos Finitos

Tendo em vista a simetria e a positividade da forma bilinear a(·, ·) , temos que a matriz
C é simétrica e positiva-definida. Estas duas propriedades indicam que o Método de De-
composição de Cholesky, que possui uma boa estabilidade numérica, é o mais apropriado
para resolver o sistema linear proveniente do Método de Galerkin. Considerando a forma
linear b(·) definida em (3.7) os elementos do vetor d , denominado vetor de carga, são
dados por
Z b
di = f (x) ϕi (x) dx para todo i = 1, · · · , n . (3.26)
a

Portanto, temos que a resolução do Problema Variacional Discreto fica convertido na re-
solução de um sistema linear, cuja solução é um vetor com os coeficientes da aproximação
de Galerkin uh ∈ Eh com relação à base escolhida. A estrutura da matriz do sistema
linear proveniente do Método de Galerkin depende da escolha da base para o subespaço
de aproximação Eh . Os espaços de aproximação mais adequados são os Espaços de
Elementos Finitos. No caso em que Eh for o espaço das Funções Splines Lineares
a matriz proveniente do Método de Galerkin tem uma estrutura tridiagonal. Assim, o
Método de Galerkin é usualmente denominado de Método dos Elementos Finitos.

É importante observar que podemos utilizar os espaços (L0 ([a, b]), +, ·) , (L0+ ([a, b]), +, ·)
e (L0− ([a, b]), +, ·) , nos quais as funções satisfazem certas condições de contorno, para
definirmos os Problemas Variacionais. Desse modo, as funções do subespaço Eh con-
tido em cada um dos espaços anteriores, respectivamente, devem satisfazer as mesmas
condições de contorno. Assim, para cada escolha temos um Problema Variacional dife-
rente.
Capı́tulo 3. Problema Variacional Simétrico 35

3.6 Teorema de Lax–Milgram


Consideremos o espaço vetorial real (E, +, ·) de dimensão infinita munido do produto
interno h · , · iE e k · kE a norma proveniente do produto interno. Vamos apresentar
os resultados de existência e unicidade, bem como uma estimativa de estabilidade, para
a solução do problema variacional simétrico (V) .
Teorema 3.4 (Teorema de Lax–Milgram) Seja a(·, ·) uma forma bilinear contı́nua,
simétrica e coerciva sobre E e b(·) uma forma linear contı́nua sobre E. Então, existe
um único elemento u∗ ∈ E solução da equação
a(u, v) = b(v) para todo v ∈ E , (3.27)
valendo a seguinte estimativa de estabilidade
δ
k u∗ k E ≤ , (3.28)
ρ
com δ a constante de continuidade da forma linear e ρ a constante de coercividade da
forma bilinear. Além disso, como a(·, ·) é uma forma bilinear simétrica temos que u∗
é a única solução do problema de minimização (M).
Para a demonstração do Teorema de Lax–Milgram vamos necessitar do Teorema de Re-
presentação de Riesz no caso em que o espaço vetorial (E, +, ·) seja de dimensão
infinita. Desse modo, precisamos que o espaço vetorial (E, +, ·) munido da norma
k · kE seja um espaço de Hilbert, isto é, todo seqüência de Cauchy em E converge para
um elemento de E com relação à norma k · kE .
Teorema 3.5 (Teorema de Representação de Riesz) Seja (E, +, ·) um espaço
vetorial real de dimensão infinita munido do produto interno h · , · iE e k · kE a
norma proveniente do produto interno, com E um espaço de Hilbert. Se f : E −→ IR
é um funcional linear contı́nuo. Então, existe um único elemento u ∈ E de modo que
o funcional f é representado por
f (v) = h v , u iE para todo v ∈ E . (3.29)
Teorema 3.6 (Teorema de Céa) Considerando as hipóteses do Teorema de Lax-Milgram,
sejam u∗ a solução do Problema Variacional (V) e u∗h a solução do Problema Va-
riacional Discreto (Vh ). Então, temos a seguinte estimativa de erro para a solução de
Galerkin
β
k u∗ − u∗h kE ≤ min{ k u∗ − v kE para todo v ∈ Eh } , (3.30)
ρ
com β a constante de continuidade e ρ a constante de coercividade da forma bilinear
a(·, ·) em (V).
36 Métodos dos Elementos Finitos

3.6.1 Interpretação Geométrica para Solução de Galerkin


Vamos apresentar uma interpretação geométrica para a solução de Galerkin do Problema
Variacional (V) com relação ao produto interno energia h · , · ia associado à
forma bilinear a(·, ·) sobre E.

Considerando que u∗ ∈ E é a solução do Problema Variacional (V) e que u∗h ∈ Eh ⊂


E é a solução do Problema Variacional Discreto (Vh ) , temos que

a(u∗ , v) = b(v) para todo v ∈ Eh (3.31)

a(u∗h , v) = b(v) para todo v ∈ Eh . (3.32)

Desse modo, subtraindo (3.32) de (3.31) e utilizando a definição de h · , · ia obtemos

a( (u∗ − u∗h ) , v ) = h (u∗ − u∗h ) , v ia = 0 para todo v ∈ Eh . (3.33)

O que equivale a dizer que o erro da solução de Galerkin eh = u∗ − u∗h é orto-


gonal ao subespaço de aproximação Eh com relação ao produto interno energia, isto é,
a solução de Galerkin u∗h é a projeção ortogonal de u∗ no espaço de aproximação
Eh com relação ao produto interno energia. Portanto, temos que a solução de Galerkin
u∗h ∈ Eh ⊂ E é a Melhor Aproximação de u∗ ∈ E com relação à norma energia.
Desse modo, podemos enunciar o seguinte resultado.

Teorema 3.7 Considerando que u∗ ∈ E seja a solução do Problema Variacional (V)


e que u∗h ∈ Eh ⊂ E seja a solução do Problema Variacional Discreto (3.18), temos que

k u∗ − u∗h ka ≤ k u∗ − v ka para todo v ∈ Eh (3.34)

O teorema acima e o Teorema de Céa serão muito utilizados para obtermos estimativas
de erro para a solução de Galerkin.
Capı́tulo 3. Problema Variacional Simétrico 37

3.7 Problema Variacional de Valores de Contorno


Consideremos inicialmente os seguintes Problemas de Valores de Contorno Unidimensio-
nais:

Exemplo 3.1 Encontrar u∗ ∈ C 2 ([a, b]) solução da equação diferencial ordinária

−( α(x) u0 (x) )0 + σ(x) u(x) = f (x) ; x ∈ (a, b) (3.35)

sujeita às condições de contorno

u(a) = 0 e u(b) = 0 . (3.36)

Exemplo 3.2 Encontrar u∗ ∈ C 2 ([a, b]) solução da equação diferencial ordinária

−( α(x) u0 (x) )0 + σ(x) u(x) = f (x) ; x ∈ (a, b) (3.37)

sujeita às condições de contorno

u0 (a) = 0 e u(b) = 0 . (3.38)

Exemplo 3.3 Encontrar u∗ ∈ C 2 ([a, b]) solução da equação diferencial ordinária

−( α(x) u0 (x) )0 + σ(x) u(x) = f (x) ; x ∈ (a, b) (3.39)

sujeita às condições de contorno

u(a) = 0 e u0 (b) = 0 . (3.40)

Exemplo 3.4 Encontrar u∗ ∈ C 2 ([a, b]) solução da equação diferencial ordinária

−( α(x) u0 (x) )0 + σ(x) u(x) = f (x) ; x ∈ (a, b) (3.41)

sujeita às condições de contorno

u0 (a) = 0 e u0 (b) = 0 . (3.42)

Vamos considerar que as funções σ e f sejam contı́nuas em [a, b] e α uma


função continuamente diferenciável em [a, b]. Consideremos que as funções α e σ
são estritamente positivas, para que possamos dar uma interpretação fı́sica ao problema.
Geralmente, dizemos que a função α representa um coeficiente de difusão, a função σ
representa um coeficiente de absorção e a função f representa uma fonte externa.
38 Métodos dos Elementos Finitos

Vamos agora obter a Formulação Variacional de cada um dos Problemas de Valores de


Contorno definidos acima. Inicialmente, multiplicamos a equação diferencial ordinária
por uma função v ∈ C 1 ([a, b]) , denominada função teste, e em seguida integramos
sobre o domı́nio [a, b]. Assim, obtemos
Z b Z b Z b
0 0
− ( α(x) u (x) ) v(x) dx + σ(x) u(x) v(x) dx = f (x) v(x) dx . (3.43)
a a a

Fazendo uma integração por partes na primeira integral de (3.43) , tem-se que
Z b
− ( α(x) u0 (x) )0 v(x) dx =
a

Z b
0 0
− α(b) u (b) v(b) + α(a) u (a) v(a) + α(x) u0 (x) v 0 (x) dx . (3.44)
a

As condições de contorno do problema são impostas na expressão

− α(b) u0 (b) v(b) + α(a) u0 (a) v(a)

que aparece da integração por partes. Assim, a condição de contorno u(a) = 0 e/ou
u(b) = 0 devem ser impostas no espaço das funções admissı́veis e no espaço das funções
testes impondo v(a) = 0 e/ou v(b) = 0 . Esse tipo de condição de contorno é
denominada condição essencial. Entretanto, a condição de contorno u0 (a) = 0
e/ou u0 (b) = 0 aparecem naturalmente na integração por partes, não sendo necessário
impor no espaço das funções admissı́veis ou no espaço das funções testes. Esse tipo de
condição de contorno é denominada condição natural.

Depois de analisada as condições de contorno, obtemos de (3.43)–(3.44) a seguinte igual-


dade
Z b Z b Z b
0 0
α(x) u (x) v (x) dx + σ(x) u(x) v(x) dx = f (x) v(x) dx . (3.45)
a a a

Finalmente, podemos apresentar a Formulação Variacional de cada um dos Problemas


de Valores de Contorno dados nos exemplos 3.1–3.4, da seguinte forma
Capı́tulo 3. Problema Variacional Simétrico 39

Exemplo 3.5 Encontrar u∗ ∈ L0 ([a, b]) solução da equação


Z b Z b Z b
0 0
α(x) u (x) v (x) dx + σ(x) u(x) v(x) dx = f (x) v(x) dx
a a a

para toda v ∈ L0 ([a, b]).

Exemplo 3.6 Encontrar u∗ ∈ L0+ ([a, b]) solução da equação


Z b Z b Z b
0 0
α(x) u (x) v (x) dx + σ(x) u(x) v(x) dx = f (x) v(x) dx
a a a

para toda v ∈ L0+ ([a, b]).

Exemplo 3.7 Encontrar u∗ ∈ L0− ([a, b]) solução da equação


Z b Z b Z b
0 0
α(x) u (x) v (x) dx + σ(x) u(x) v(x) dx = f (x) v(x) dx
a a a

para toda v ∈ L0− ([a, b]).

Exemplo 3.8 Encontrar u∗ ∈ L([a, b]) solução da equação


Z b Z b Z b
0 0
α(x) u (x) v (x) dx + σ(x) u(x) v(x) dx = f (x) v(x) dx
a a a

para toda v ∈ L([a, b]).

A priori, a solução do problema variacional é menos regular que a solução do problema de


valores de contorno. De fato, no problema variacional as funções devem ter as propriedades
necessárias para que as integrais estejam bem definidas, enquanto que no problema de
valores de contorno necessitamos de informação pontual da segunda derivada da solução.
Podemos mostrar sob certas condições que o problema de valores de contorno e o problema
variacional são equivalentes.
40 Métodos dos Elementos Finitos
Bibliografia

[1] Axelsson, O. & Barker, V. A., 1984. Finite element solution of boundary value
problems, Academic Press.

[2] Becher, E. B. , Carey, G. F. & Oden, J. T., 1981. Finite Elements – An


Introduction, Volume I, Prentece–Hall.

[3] Ciarlet, P. G., 1991. Introduction to Numerical Linear Algebra and Optimisation,
Cambridge University Press.

[4] Conte, S. D. & Carl de Boor, 1980. Elementary Numerical Analysis, MacGraw–
Hill.

[5] Johnson, C. , 1987. Numerical solution of partial differential equations by the finite
element method, Cambridge University Press.

[6] Rappaz, J. & Picasso, M., 1998. Introduction à l’analyse numérique, Presses
polytechniques et universitaires romandes.

[7] Rektorys, K., 1980. Variational Methods in Mathematics, Science and Enginne-
ring, D. Reidel Publishing Company.

41
Métodos dos Elementos Finitos
Aspectos Teóricos, Computacionais e Aplicações

Petronio Pulino

PULINUS sq

También podría gustarte