Está en la página 1de 13

Métodos Numéricos

Demostraciones principales

29 de diciembre de 2017

1
Índice
1. Introducción 3
2. Teorema del Punto Fijo 3
2.1. Consideraciones previas . . . . . . . . . . . . . . . . . . . . . . . 3
2.1.1. Espacio Métrico . . . . . . . . . . . . . . . . . . . . . . . 3
2.1.2. Sucesión de Cauchy . . . . . . . . . . . . . . . . . . . . . 3
2.1.3. Sucesión de Cauchy y Espacio Métrico Completo . . . . . 3
2.1.4. Función r-contracción . . . . . . . . . . . . . . . . . . . . 3
2.1.5. Continuidad de r-contracción . . . . . . . . . . . . . . . . 4
2.2. Enunciado del Teorema de Punto Fijo . . . . . . . . . . . . . . . 4
3. Teorema de Convergencia para Sistemas Lineales 5
3.1. Consideraciones previas . . . . . . . . . . . . . . . . . . . . . . . 5
3.1.1. Propiedad de matrices y vectores propios . . . . . . . . . 5
3.1.2. Propiedad de matrices y normas . . . . . . . . . . . . . . 5
3.1.3. Errores y métodos iterativos . . . . . . . . . . . . . . . . . 5
3.1.4. Matriz y radio espectral . . . . . . . . . . . . . . . . . . . 6
3.2. Enunciado del Teorema de Convergencia para Sistemas Lineales . 6
4. Condición suciente de Convergencia para Jacobi y Gauss-Seidel 7
4.1. Consideraciones previas . . . . . . . . . . . . . . . . . . . . . . . 7
4.1.1. Matriz diagonal estrictamente dominante . . . . . . . . . 7
4.1.2. Norma innito de una matriz . . . . . . . . . . . . . . . . 7
4.2. Enunciado de condición suciente de convergencia . . . . . . . . 7
5. Teorema de Orden de Convergencia 8
5.1. Consideraciones previas . . . . . . . . . . . . . . . . . . . . . . . 8
5.1.1. Denición de orden de convergencia . . . . . . . . . . . . 8
5.1.2. Método Iterativo General (MIG) . . . . . . . . . . . . . . 9
5.2. Enunciado del Teorema de Orden de Convergencia . . . . . . . . 9
6. Coincidencia de solución entre el PMCL y las Ecuaciones Nor-
males 10
6.1. Consideraciones previas . . . . . . . . . . . . . . . . . . . . . . . 10
6.1.1. Propiedades de normas y matrices . . . . . . . . . . . . . 10
6.2. Enunciado del Teorema de Coincidencia de solución entre el PMCL
y las Ecuaciones Normales . . . . . . . . . . . . . . . . . . . . . . 10
7. Teorema de acotación del Error en Interpolación Polinómica 13

2
1. Introducción
En este pdf se presentan las principales demostraciones del teórico de Mé-
todos Numéricos del curso de 2017. En dicho curso se dijo que en los exámenes
se preguntan al menos una de las demostraciones. De la lista que se enume-
ró falta una demostración solamente: Corolario del Teorema del Punto Fijo en
Rn . Este texto se hizo en base a las notas teóricas y apuntes de clase. Son las
demostraciones un poco más explicadas. Espero sean de ayuda. Salú.

2. Teorema del Punto Fijo


2.1. Consideraciones previas
2.1.1. Espacio Métrico
Sea X un conjunto distinto del vacío. Una métrica o distancia en X es una
función d : X xX → {0} ∪ R+ que cumple que:
d(x, y) ≥ 0 y d(x, y) = 0 ⇔ x = y .
d(x, y) = d(y, x) ∀x, y ∈ X .
d(x, y) ≤ d(x, z) + d(z, y) ∀x, y, z ∈ X .
En tales condiciones (X, d) es un espacio métrico, que abreviaremos EM . Un
ejemplo de espacio métrico es (R, |.|), es decir los reales y el valor absoluto.

2.1.2. Sucesión de Cauchy


Sea (X, d) un EM y {xn } una sucesión en X . Decimos que {xn } es de Cauchy
si ∀ε > 0, ∃ n0 ∈ N tal que:

∀n1 , n2 ≥ n0 se cumple d(xn1 , xn2 ) < ε.


En palabras, una sucesión es de Cauchy si para cualquier epsilon positivo,
se pueden encontrar dos naturales tales que a partir de ellos la distancia de los
valores de la sucesión siempre es menor a dicho epsilon.

2.1.3. Sucesión de Cauchy y Espacio Métrico Completo


Un EM es completo si toda sucesión de Cauchy en dicho espacio, es conver-
gente.

2.1.4. Función r-contracción


Sea (X, d) un EM , y ϕ : X → X una función. Se dice que la función ϕ es
una r-contracción si existe 0 < r < 1 tal que:
d(ϕ(x), ϕ(y)) ≤ r.d(x, y), ∀x, y ∈ X

3
2.1.5. Continuidad de r-contracción
Toda función ϕ en un EM que sea una r-contracción es continua.

2.2. Enunciado del Teorema de Punto Fijo


Sea (X, d) un EM , y ϕ : X → X una r-contracción. Sea la sucesión {xn } ⊂
X denida como xn+1 = ϕ(xn ). Entonces se cumple lo siguiente:
1. xn converge a α ∈ X sin importar qué valor tiene x0 .
2. Dicho α es un punto jo de ϕ. (ϕ(α) = α).
3. Dicho α es el único punto jo de ϕ, es decir @ β tal que ϕ(β) = β .
Demostración
1. Dado que (X, d) es completo, basta probar que xn es de Cauchy. Sea
ε > 0 arbitrario, veamos que ∃ n0 tal que para m ≥ n ≥ n0 se cumple
que d(xm , xn ) < ε. Observar que para cualquier m natural, se tiene que:
xm = ϕ(m) (x0 ), es decir que es aplicar m veces ϕ hasta llegar a x0 . En-
tonces:

d(xm , xn ) = d(ϕ(m) (x0 ), ϕ(n) (x0 )) ≤ (desigualdad triangular)

d(ϕ(n) (x0 ), ϕ(n+1) (x0 )) + d(ϕ(n+1) (x0 ), ϕ(n+2) (x0 ))+ ...
+d(ϕ(m−1) (x0 ), ϕ(m) (x0 )) ≤ (r-contracción)

rn .d(x0 , x1 ) + rn+1 .d(x0 , x1 ) + ... + rm−1 .d(x0 , x1 ) =

(sucesión geométrica)
Pm−1
i=n ri .d(x0 , x1 ) =

r n −r m (m−n)

1−r .d(x0 , x1 ) = rn .( 1−r1−r ).d(x0 , x1 )

Dado que 0 < r < 1, podemos tomar n lo sucientemente grande para que
se cumpla que:

).d(x0 , x1 ) < ε.
(m−n)
d(xm , xn ) ≤ rn .( 1−r1−r

Por lo tanto se puede armar que xn es de Cauchy. Luego, como el espacio


es completo se demuestra que xn converge a α.

4
2. ϕ(α) = ϕ(lı́mn→∞ xn ) = (continuidad de ϕ)

lı́mn→∞ ϕ(xn ) = (def de xn+1 )

lı́mn→∞ xn+1 = α

Entonces α es punto jo de ϕ.


3. Sea β tal que ϕ(β) = β se tiene que:

0 ≤ d(α, β) = d(ϕ(α), ϕ(β)) ≤ r.d(α, β) (⇔)

0 ≤ d(ϕ(α), ϕ(β)) − r.d(α, β) ≤ 0 (⇔)

0 ≤ d(α, β) − r.d(α, β) ≤ 0 (⇔)

(1 − r).d(α, β) = 0

Dado que 0 < r < 1 se tiene que d(α, β) = 0 ⇒ α = β .

3. Teorema de Convergencia para Sistemas Li-


neales
3.1. Consideraciones previas
3.1.1. Propiedad de matrices y vectores propios
Sea Q una matriz y v un vector propio asociado a λ, entonces se tiene que
Qk v = λk v

3.1.2. Propiedad de matrices y normas


Sea Q una matriz y v un vector, para cualquier norma de Q se cumple que:
kQvk ≤ kQk kvk. Además se cumple que Qk ≤ (kQk)k .

3.1.3. Errores y métodos iterativos


1. Sea X ∗ la solución del método iterativo, se dene al error en el paso k
como: ek = X ∗ − X k .
2. El método iterativo converge ⇔ si lı́mn→∞ ek = 0.

3. Para el error en un paso k se cumple que: ek = Qk e0 .

5
3.1.4. Matriz y radio espectral
1. Sea Q una matriz, se dene el radio espectral de Q como el mayor de
los valores absolutos de sus valores propios y se denota ρ(Q). Es decir:
ρ(Q) = max{|λ| : λ es valor propio de Q}.
2. El radio espectral de Q es una cota inferior de cualquier norma de Q. Es
decir ρ(Q) ≤ kQk.
3. Para toda norma de Q ∃ε > 0 tal que: kQkε < ρ(Q)+ε. (Esto es inmediato
por el punto anterior)

3.2. Enunciado del Teorema de Convergencia para Siste-


mas Lineales
(
X n+1 = QX n + r
El método iterativo: converge ⇔ ρ(Q) < 1.
X 0 ∈ Rn
Demostración
Nota: En esta demostración se denota X ∗ como la solución del método y
e como el error en el paso k .
k

(⇒) Por absurdo se asume que ρ(Q) ≥ 1. Entonces se tiene que ∃ λ tal que
|λ| ≥ 1 y v 6= ~0 tal que Qv = λv . Ahora se elige X 0 = X ∗ − v , entonces se tiene
que e0 = X ∗ − X 0 = X ∗ − (X ∗ − v) = v . Veremos que el error k con k → ∞ es
distinto de 0. Aplicando la propiedad:
k k 0 k k
e = Q .e = Q .v = λ .v = (|λ|)k . kvk

Entonces se llega a que:

6 0, ya que |λ| ≥ 1 y v 6= ~0. Por lo tanto



lı́mn→∞ ek = lı́mk→∞ (|λ|)k . kvk =
el método no converge. Esto contradice la hipótesis, por lo que se demuestra
que ρ(Q) < 1.

(⇐) Se intenta probar que la norma del error tiende a 0. Elegimos ε a la


mitad de la distancia entre 1 y ρ(Q), es decir: ε = 1−ρ(Q)
2 , luego:
1−ρ(Q) 2ρ(Q)+1−ρ(Q) 1+ρ(Q)
kQkε < ρ(Q) + ε = ρ(Q) + 2 = 2 = 2

Dado que ρ(Q) < 1 se cumple que kQkε < 1.

6
Entonces:
k k 0 k 0
e = Q e ≤ Q e ≤ (kQk )k e0
ε ε

Si tomamos los límites:

lı́mk→∞ ek ≤ lı́mk→∞ (kQkε )k e0 = 0, ya que kQkε < 1. Entonces el


método converge.

4. Condición suciente de Convergencia para Ja-


cobi y Gauss-Seidel
4.1. Consideraciones previas
4.1.1. Matriz diagonal estrictamente dominante
Sea A una matriz nxn, se dice que A es diagonal estrictamente dominante
por las sí y sólo si:

|aij | < |aii | ∀i en 1, 2, ..., n.


Pn
j=1j6=i

En palabras, se cumple para cada la que el valor absoluto de la diagonal,


es mayor que la suma de todos los valores absolutos restantes de dicha la. La
denición de matriz estrictamente diagonal dominante por columnas es análoga.

4.1.2. Norma innito de una matriz


Sea A una matriz, la norma innito de A se dene como:
kAk∞ = maxi j=1 |aij |.
Pn

4.2. Enunciado de condición suciente de convergencia


Dado el sistema AX = b, si A es diagonal estrictamente dominante por las
entonces los métodos de Jacobi y Gauss-Seidel convergen.

Notas:
Es importante ver que para Jacobi, la matriz A no es igual a QJ sino que
QJ se construye a partir de ella.
La demostración se da sólo para Jacobi. Para Gauss-Seidel es muy com-
pleja y no se da en el curso.
Dado que es una condición suciente, si se tiene una matriz A que no es
diagonal dominante, no se puede armar que el método no converge.
Para la demostración se asume que la diagonal de A no tiene ningun
elemento nulo.

7
Demostración (Para Jacobi)
Dado que A es diagonal estrictamente dominante, tenemos que:

|aij | < |aii | ∀i en 1, 2, ..., n, entonces es fácil ver que:


Pn
j=1j6=i
Pn |aij |
j=1j6=i |aii | <1

Ahora vemos como se escribe QJ en función de los elementos de A:

0 ( −a −a13
a11 ) ( a11 )
12
... ( −a
a11 )
1n
 
 ( −a
a22 )
21
0 ( −a
a22 )
23
... −a2n
( a22 ) 
 −a −a32
( −a

 ( 31 ) ( a33 ) 0 ... a33 )
3n
QJ =  a33

.. .. .. .. ..

. . . . .
 
 
( −a
ann )
n1
... ... ... 0

Es decir que QJ es A pero con la diagonal nula, y cada entrada está dividida
por el opuesto de la diagonal de A. Ahora hallamos la norma innito de QJ :
Pn Pn −aij Pn |aij |
kQJ k∞ = maxi j=1 |qij | = maxi j=1 | aii | = maxi j=1j6=i |aii | <1

Por propiedad podemos armar que: ρ(QJ ) ≤ kQJ k∞ < 1, entonces por teorema
de convergencia de sistemas lineales, queda demostrado que Jacobi converge.

5. Teorema de Orden de Convergencia


5.1. Consideraciones previas
5.1.1. Denición de orden de convergencia
Sea xn una sucesión que converge a α. Se dice que xn tiene orden de con-
vergencia p ≥ 1 si se cumple que:
kxn+1 −αk
lı́mn→∞ (kxn −αk)p =β>0

Y a β se le llama tasa de convergencia. Se desea que p sea pequeño, ya que


para un método de orden p, el error se reduce un factor p en cada paso.

8
5.1.2. Método Iterativo General (MIG)
Sea f una función a la cuál se le quiere hallar la raíz α. Un método iterativo
general para hallar α tiene la siguiente forma:
(
xn+1 = g(xn )
x0 ∈ R

Se dice que el MIG es consistente si α es un punto jo de g .

5.2. Enunciado del Teorema de Orden de Convergencia


Sea xn una sucesión denida como xn+1 = g(xn ) que converge a α. Además
g cumple que:
g ∈ C p y tiene a α como punto jo.
g 0 (α) = g 00 (α) = ... = g (p−1) (α) = 0.
g (p) (α) 6= 0
|g (p) (α)|
En estas condiciones, el MIG converge con un orden p, y además β = p!

Demostración
Sea n ∈ N, por el teorema de Taylor se sabe que ∃γn entre xn y α tal que:
2
g(xn ) = g(α) + g 0 (α)(xn − α) + g 00 (α) (xn −α)
2 + ...
(p−1) p
−α) −α)
... + g (p−1) (α) (xn(p−1)! + g (p) (γn ) (xn p!

Entonces:
2
g(xn ) − g(α) = g 0 (α)(xn − α) + g 00 (α) (xn −α)
2 + ...
(p−1) p
−α) −α)
... + g (p−1) (α) (xn(p−1)! + g (p) (γn ) (xn p!

Ahora aplicamos que g 0 (α) = g 00 (α) = ... = g (p−1) (α) = 0, que xn+1 = g(xn ) y
α = g(α).
p
−α) |xn+1 −α| |g (p) (γn )|
xn+1 − α = g (p) (γn ) (xn p! ⇒ (|xn −α|)p = p!
(p)
Ahora se debe demostrar que lı́mn→∞ |g p!(γn )| existe y es mayor que 0. Por
hipótesis sabemos que xn −→ α entonces |xn − α| −→ 0 (con −→ se asume n
tendiendo a ∞). Dado que γn está entre α y xn tenemos que:

|γn − α| ≤ |xn − α| −→ 0 es decir que γn −→ α.

9
A partir de esto, como g ∈ C p se tiene que |g (p) | es también continua enton-
ces podemos armar que |g (p) (γn )| −→ |g (p) (α)|. Finalmente, recordando que
|g (p) (α)| y p! son mayores estrictos que 0 se demuestra que:
|g (p) (γn )| |g (p) (α)|
lı́mn→∞ |xn+1 −α|
(|xn −α|)p = lı́mn→∞ p! = p! = β > 0.

6. Coincidencia de solución entre el PMCL y las


Ecuaciones Normales
6.1. Consideraciones previas
6.1.1. Propiedades de normas y matrices
1. Sean A y B matrices, se cumple que:

2 2 2
kA + Bk = kAk + kBk + 2.B t .A
2 2 2
kA − Bk = kAk + kBk − 2.B t .A

2. Sea v un vector, se tiene que: v t .v = kvk2

6.2. Enunciado del Teorema de Coincidencia de solución


entre el PMCL y las Ecuaciones Normales
El vector X̂ es solución del PMCL (X̂ = minX kAX − bk22 ) ⇔
X̂ es solución de las Ecuaciones Normales (At (AX̂ − b) = ~0).

Notas:
Para el PMCL se toma el cuadrado de la norma para simplicar las cuen-
tas. Pero en cuanto a denición es lo mismo no tomarlo ya que la norma
siempre es mayor o igual a 0.
Para la demostración, la norma euclídea k.k2 se denota como k.k por cues-
tiones de simplicidad.
Para la demostración, la solución X̂ la denotamos como X , también para
simplicar.
Demostración
(⇒) Vamos a asumir por absurdo que X no es solución de las ecuaciones
normales. Es decir ∃ Z 6= ~0 tal que At (AX − b) = Z . Ahora tomamos un vector
Y 6= X de la forma Y = X − hZ , donde h es un escalar mayor que 0. Podemos
ver que:

10
2 2 2 2
kAY − bk = kA(X − hZ) − bk = kAX − hAZ − bk = k(AX − b) − hAZk =

Aplicamos propiedad de norma:


2 2
= kAX − bk + h2 kAZk − 2.h(AZ)t (AX − b)

Observemos el tercer término de la expresión anterior:


2
2h(AZ)t (AX − b) = 2hZ t At (AX − b) = 2hZ t Z = 2h kZk

ya que At (AX − b) = Z

Volviendo a la expresión principal:


2 2 2 2
kAY − bk = kAX − bk + h2 kAZk − 2h kZk =
2 2 2
kAX − bk + h(h kAZk − 2 kZk )

Para llegar al absurdo, se desea que el segundo término(el que multiplica a h)


sea negativo. Entonces tomando dicha expresión se ve que:
2 2 2kZk2
h kAZk − 2 kZk < 0 ⇔ h< kAZk2

Tomando h menor que ese valor encontrado, podemos asegurar que ese término
es negativo. En conclusión llegamos a que kAY − bk2 es igual a kAX − bk2 me-
nos cierto valor. En conclusión:

kAY − bk ≤ kAX − bk entonces X no es solución al PMCL, lo que con-


2 2

tradice las hipótesis, llegando a un absurdo. Entonces queda demostrado que X


es solución de las ecuaciones normales.

(⇐) Para demostrar que X es solución del PMCL, tomemos un Y cualquie-


ra. Entonces tenemos que:
2 2 2
kAY − bk = kAY − b + AX − AXk = k(AX − b) + (AY − AX)k =

Desarrollando llegamos a que:


2
= k(AX − b) + A(Y − X)k =
2 2
= kAX − bk + kA(Y − X)k + 2(A(Y − X))t (AX − b)
2 2
= kAX − bk + kA(Y − X)k + 2(Y − X)t At (AX − b)

Observando el tercer término de la expresión anterior tenemos que


2(Y − X)t At (AX − b) = 2(Y − X)t .~0 = 0 ya que At (AX − b) = ~0.

11
Por lo tanto:
2 2 2
kAY − bk = kAX − bk + kA(Y − X)k

De esto se concluye que para cualquier Y arbitrario kAY − bk2 ≥ kAX − bk2 ,
es decir que X es el que minimiza dicha norma. Queda demostrado que X es
solución del PMCL.

7. Teorema de acotación del Error en Interpola-


ción Polinómica
Sea f de clase C n+1 en el intervalo [x0 , xn ] y pn el polinomio interpolante a
f por las abscisas x0 < x1 < ... < xn . Entonces, para cada x ∈ [x0 , xn ] ∃ γx ∈
[x0 , xn ] tal que se cumple la siguiente igualdad para el error E(x):
f (n+1) (γx ) Qn
E(x) = f (x) − pn (x) = (n+1)! i=0 (x − xi )

Demostración
Para el caso en que x = xi con i = 0, ..., n es inmediato ya que E(xi ) = 0.
En el caso en que x ∈ [x0 , xn ] es distinto a las abscisas, se ja x, y se dene la
siguiente función F :[x0 , xn ]→ R de la siguiente forma:
Qn
(t−x )
F (t) = f (t) − pn (t) − (f (x) − pn (x)) Qni=0 (x−xii )
i=0

Es importante notar que F está denida para x pero sólo depende de t. Se ob-
serva que F tiene n + 2 raíces, (n + 1 por cada xi , mas una que es x). Además,
como f es C (n+1) , también se cumple que F lo es. Si aplicamos varias veces
Rolle podemos ver que:

F 0 tiene n + 1 raíces.
F 00 tiene n raíces.
F 000 tiene n − 1 raíces.
..
.
F (n+1) tiene una sola raíz, que llamaremos γx .

Dado que pn es de grado menor o igual que n, se puede ver que su derivada
n + 1 es nula. Entonces, derivando a F n + 1 veces y evaluando en su raíz γx :

F (n+1) (γx ) = f (n+1) (γx ) − (f (x) − pn (x)) Qn(n+1)!


(x−xi ) = 0
i=0

12
Despejando (f (x) − pn (x)) llegamos a que:
f (n+1) (γx ) Qn
E(x) = f (x) − pn (x) = (n+1)! i=0 (x − xi )

Lo que demuestra lo deseado.

13

También podría gustarte