Está en la página 1de 20

Universidad Nacional de Rosario

Facultad de Ciencias Exactas, Ingeniería y Agrimensura


Escuela de Formación Básica
Departamento de Matemática

Página 1 de 20
Prólogo
Prólogo

El objetivo principal es el tratamiento de algunas cuestiones fundamentales


vinculadas a la resolución aproximada de sistemas lineales normales (con solución
única) mediante métodos directos.

Siendo el sistema lineal normal de aspecto matricial A-̅ = 01 , con el vector columna
incógnita -̅ de dimensión n x 1.

La matriz A de coeficientes reales de dimensión n x n, regular o no singular


(det(A) ≠ 0), y 01 vector columna término independiente de componentes reales
de dimensión n x 1.

Así, la solución única -̅ tendrá componentes reales.

Es de destacar la relevancia de estos sistemas. En nuestra asignatura, aparecen en:

- Linearización de NEWTON sobre Sistemas No Lineales


- Enfoque Directo en Interpolación Polinomial
- Splines Cúbicos
- Sistemas Lineales de Ecuaciones de GAUSS para Ajustes de Datos mediante
Mínimos Cuadrados

Numerosos problemas de Ingeniería y Ciencias Aplicadas se remiten (por


discretización) a la resolución de esta familia de sistemas. Como ser, y entre otros:

- Problemas de Valores Iniciales y Problemas de Contorno con Ecuaciones


Diferenciales Ordinarias (EDOS)
- Problemas de Contorno con Ecuaciones Diferenciales en Derivadas
Parciales (EDDPS)
- Sistemas de EDOS con Condiciones Iniciales o con Condiciones de Contorno
y Sistemas de EDDPS con Condiciones de Contorno

Para aplicar técnicas de discretización contamos con una variada y adecuada


familia de procedimientos basados en Diferencias Finitas.

También enfrentamos estos sistemas cuando se utilizan Métodos de Elementos


Finitos, entre tantos otros procesos de resoluciones por aproximaciones numéricas
que circulan por diversos ámbitos especializados en Cálculo Numérico.

Un lector principiante puede asombrarse si se le solicitara que resuelva un sistema


lineal de 10 ecuaciones con 10 incógnitas. Le resultaría un sistema enorme. Nada
de eso. Es un sistema de tamaño insignificante.

Cuando resolvemos un sistema lineal 10 x 10 con el método directo de eliminación


gaussiana (sustitución hacia atrás o hacia adelante) debemos efectuar un total de
805 operaciones elementales. Desde hace decenas de años hay calculadoras
electrónicas que resuelven sistemas lineales de 10 ecuaciones con 10 incógnitas,
incluyendo el caso de datos en el campo complejo.

Página 2 de 20
Cincuenta años atrás ya se resolvían aproximadamente sistemas lineales de 10000
ecuaciones con 10000 incógnitas. Digamos que de tamaño menos que mediano hoy
en día, pero enormes para aquella época.

Hoy se resuelven sistemas lineales de millones de ecuaciones con millones de


incógnitas. Digamos que son de tamaño grande. Para resolver sistemas medianos o
grandes necesitamos computadoras, programas confiables y tiempo importante de
cálculo.

Ante la cantidad enorme de operaciones con números redondeados (longitud finita


de palabra) no se puede soslayar un análisis de errores respecto a la solución
aproximada del sistema.

Cuando A es de coeficientes racionales y 01 es de componentes racionales,


utilizando MATLAB podemos determinar la solución única -̅ (de componentes
racionales) de modo exacto.

Pero en la mayoría de los Problemas Aplicados, los datos A y 01 tendrán coeficientes


en representación decimal redondeada. Entonces, se comprende que, la solución
única calculada (por cualquier método apto) dejará de ser exacta y pasará a ser
aproximada (afectada de error).

Para despertar curiosidad, y alertar sobre posibles resultados erróneos,


supongamos que resolvemos aproximadamente un sistema lineal de 10000
ecuaciones con 10000 incógnitas.

También supongamos que utilizamos el método directo de eliminación gaussiana


con sustitución hacia atrás o hacia adelante.

Esto requiere un total de 333 433 330 000 multiplicaciones y divisiones y un total
de 333 383 325 000 sumas y restas. Es decir: un total de 666 816 655 000
operaciones elementales.

La técnica de pivoteo parcial escalado en la eliminación gaussiana (más confiable


pero más lento) agregará un total de 50 004 999 divisiones a las cantidades
anteriores. Ahora, un total de 666 866 659 999 operaciones elementales.

Resumiendo, una cantidad enorme de operaciones elementales para resolver un


sistema lineal de tamaño menor a uno mediano.

En general, el conocimiento previo de la cantidad de operaciones elementales a


realizar con un método determinado, es muy importante; al igual que la precisión
de cálculo elegida. Elecciones posiblemente equivocadas generan mayor tiempo de
ejecución y requieren disponer de mayor memoria.

Cuando resolvemos aproximadamente un sistema lineal n x n con eliminación


gaussiana, los errores por redondeos crecen, por lo menos, de modo proporcional
a n3. Este crecimiento es inevitable.

Página 3 de 20
1- Normas de Vectores Reales n x 1

Indicamos con V el espacio vectorial real de los vectores columnas n x 1 a


componentes reales. Tal espacio tiene dimensión n. Un elemento -̅ ∈ V se
representa -̅ = (-K , -L , …. , -N )T donde -O ∈ ℝ para i = 1 ,2 ,... ,n.

Una aplicación ‖ ‖ ∶ V → ℝTU tal que -̅ ∈ V → ‖ -V ‖ ≥ 0


(transforma elementos de V en números reales no negativos)
es una norma vectorial en V si se verifican simultáneamente las tres propiedades
siguientes:

(N V 1) ‖ -̅ ‖ = 0 ⇔ -̅ = 01 donde 01 = (0 , 0 , … , 0)T

(N V 2) ‖ Y -̅ ‖ = | Y | ‖ -V ‖ ∀ Y ∈ ℝ y -̅ ∈ V
llamada propiedad de homogeneidad.

(N V 3) ‖ -̅ + ]1 ‖ ≤ ‖ -V ‖ + ‖ ]V ‖ ∀ -̅ ∈ V y ]1 ∈ V
denominada desigualdad triangular.

Un espacio vectorial dotado de una norma se dice espacio normado.

Ejercicio
Demuestre las cuatro propiedades siguientes para una norma vectorial en V

‖ −-V ‖ = ‖ -V ‖ ∀ -̅ ∈ V
‖ -̅ − ]1 ‖ ≤ ‖ -V ‖ + ‖ ]1 ‖ ∀ -̅ ∈ V y ]1 ∈ V
‖ -̅ − ]1 ‖ ≥ ‖ -̅ ‖ − ‖ ]V ‖ ∀ -̅ ∈ V y ]1 ∈ V
‖ -̅ − ]1 ‖ ≥ | ‖ -V ‖ − ‖ ]V ‖ | ∀ -̅ ∈ V y ]1 ∈ V

Una norma vectorial ‖ ‖ en V induce naturalmente una distancia o métrica d en


V x V (o distancia entre pares de elementos de V):

d ∶ V x V → ℝU 1) = ‖ -̅ − ]1 ‖
T tal que d(-̅ , ]
En particular, la distancia d de -̅ a 01 es d(-̅ , 01) = ‖ -̅ ‖

Un espacio normado dotado de una métrica (aquí heredada de la norma) se dice


espacio métrico.

Conocemos la norma vectorial euclídea en V:


N

‖ -̅ ‖L = +`-KL + -LL + …. + -NL = +ab -O L ∀ -̅ ∈ V


OcK

Sabemos que la normal vectorial euclídea en V es inducida por el producto escalar


interno euclídeo en V x V:
N

( , )L ∶ V x V → ℝU
T tal que (-̅ , ]1)L = b -O ]O
OcK
siendo -̅ = (-K , -L , …. , -N )T , ]1 = (]K , ]L , …. , ]N )T

Página 4 de 20
Luego ‖ -̅ ‖L = +d(-̅ , -̅ )L

Esta norma induce una métrica, la distancia euclídea en V x V:


N

T tal que dL (-̅ , ]


dL ∶ V x V → ℝU 1) = ab(-O − ]O )L
OcK

La norma vectorial euclídea (como la distancia euclídea) es poco utilizada en


MÉTODOS NUMÉRICOS por involucrar el cálculo de una raíz cuadrada y también
por otro motivo que luego comentaremos: cuestiones de compatibilidad.

Teorema 1
N

‖ -̅ ‖K = b| -O | ∀ -̅ ∈ V es una norma vectorial en V


OcK
conocida como norma vectorial de la suma.

Se debería demostrar, pero no lo haremos, que la aplicación ‖ ‖K verifica las


propiedades (N V 1) , (N V 2) y (N V 3)

En este caso:
N

dK (-̅ , ]1) = b | -O − ]O |
OcK

Teorema 2

‖ -̅ ‖f = max 〈 | -O | , h = 1 , 2 , … , i 〉 ∀ -̅ ∈ V es una norma vectorial en V

conocida como norma vectorial del máximo.

Se debería demostrar, pero no lo haremos, que la aplicación ‖ ‖f verifica las


propiedades (N V 1) , (N V 2) y (N V 3)

En este caso:
df (-̅ , ]1) = max 〈 | -O − ]O | , h = 1 ,2 ,…,i 〉

De las tres normas vectoriales (como sus distancias heredadas) mencionadas, las
dos últimas son más aptas para su cálculo que la norma vectorial (y su distancia
heredada) euclídea. A menor cantidad de operaciones sencillas, doble ganancia:
menor tiempo invertido y menor cantidad de errores por redondeos.

Nota: Se puede probar que


K
N k
‖ -̅ ‖k = l b| -O |k m ∀ -̅ ∈ V es una norma vectorial en V
OcK
para cualquier número real p tal que p ≥ 1

Página 5 de 20
Casos particulares del caso anterior:

para p = 2 obtenemos la ya conocida norma euclídea ‖ ‖L


para p = 1 tenemos la norma de la suma ‖ ‖K
para p → +∞ se demuestra que generamos la norma del máximo ‖ ‖f

Ejemplo (n = 4)
Veamos longitudes de vectores y distancias entre ellos según distintas normas
vectoriales, para los datos

-̅ = ( −3 , 0 , 1 , −1 )T , ]1 = ( 3 , 4 , −1 , 0 )T

‖ -̅ ‖L = √11 ≅ 3.31662 ‖ -̅ ‖K = 5 ‖ -̅ ‖f = 3
‖ ]1 ‖L = √26 ≅ 5.09902 ‖ ]1 ‖K = 8 ‖ ]1 ‖f = 4

-̅ − ]1 = ( −6 , −4 , 2 , −1 )T
dL (-̅ , ]1) = √57 ≅ 7.54983 dK (-̅ , ]1) = 13 df (-̅ , ]1) = 6

Observe que calculamos longitudes y distancias con criterios diferentes.

2- Normas de Matrices Reales n x n

Indicamos con M el espacio vectorial real de las matrices n x n a coeficientes


reales. Tal espacio tiene dimensión n2
.
Un elemento A ∈ M se representa A = (rOs )N t N ,
donde rOs ∈ ℝ para i = 1 ,2 ,... ,n y j = 1 ,2 ,... ,n.

rKK rKL … rKN


rLK rLL … rLN
A=u … … … … v
rNK rNL … rNN

Una aplicación ‖ ‖ ∶ M → ℝU
T tal que A ∈ M → ‖A‖ ≥ 0
(transforma elementos de M en números reales no negativos)
es una norma matricial en M si se verifican simultáneamente las tres propiedades
siguientes:

(N M 1) ‖ A ‖ = 0 ⇔ A = O donde O = ON t N

(N M 2) ‖ Y A ‖ = | Y | ‖ A ‖ ∀ Y ∈ ℝ y A ∈ M
llamada propiedad de homogeneidad.

(N M 3) ‖ A + B ‖ ≤ ‖ A ‖ + ‖ B ‖ ∀ A ∈ M y B ∈ M
denominada desigualdad triangular.

Página 6 de 20
Ejercicio
Demuestre las cuatro propiedades siguientes para una norma matricial en M

‖ −A ‖ = ‖ A ‖ ∀ A ∈ M
‖A−B ‖≤‖A‖+‖B‖ ∀ A ∈ M y B ∈ M
‖A−B ‖≥‖A‖−‖B‖ ∀ A ∈ M y B ∈ M
‖A−B ‖≥|‖A‖−‖B‖| ∀ A ∈ M y B∈ M

Una norma matricial ‖ ‖ en M induce naturalmente una distancia o métrica d en


M x M: d(A , B) = ‖ A − B ‖.

En particular, la distancia d de A a O = ON t N es d(A , O) = ‖ A ‖

Probablemente le resulte conocida la norma matricial euclídea en M:

N N

‖ A ‖w = +ab b rOs L ∀ A∈M


OcK scK

Si I indica la matriz identidad en M, entonces ‖ I ‖w = +√i

Luego, ‖ I ‖w > 1 para i = 2, 3, …

Posiblemente le resulte familiar la distancia euclídea en M x M:


dw (A , B) = ‖ A − B ‖w

La norma matricial euclídea también satisface la propiedad

(N M 4) ‖ A B ‖E ≤ ‖ A ‖E ‖ B ‖E ∀ A ∈ M ] B ∈ M

La norma matricial euclídea (como la distancia euclídea) es poco utilizada en


MÉTODOS NUMÉRICOS por ser complicada de calcular y también por razones de
compatibilidad que luego trataremos.

Teorema 1
N

‖ A ‖K = max 〈 by rOs y , z = 1 ,2 ,…,i 〉 ∀ A ∈ M


OcK
es una norma matricial en M: norma matricial del máximo de sumas por columnas.

Se debería demostrar, pero no lo haremos, que la aplicación ‖ ‖K


verifica las propiedades (N M 1) , (N M 2) y (N M 3))

Siendo I la matriz identidad en M, resulta ‖ I ‖K = 1


Además, dK (A , B) = ‖ A − B ‖K

Se puede probar que la norma matricial ‖ ‖K también satisface


(N M 4) ‖ A B ‖K ≤ ‖ A ‖K ‖ B ‖K ∀ A ∈ M ] B ∈ M
Página 7 de 20
Teorema 2
N

‖ A ‖f = max 〈 by rOs y , h = 1 ,2 ,…,i 〉 ∀ A ∈ M


scK
es una norma matricial en M: norma matricial del máximo de sumas por filas.

Se debería demostrar, pero no lo haremos, que la aplicación ‖ ‖f


verifica las propiedades (N M 1) , (N M 2) y (N M 3))

Siendo I la matriz identidad en M, resulta ‖ I ‖f = 1


Además, df (A , B) = ‖ A − B ‖f

Se puede probar que la norma matricial ‖ ‖f también satisface


(N M 4) ‖ A B ‖f ≤ ‖ A ‖f ‖ B ‖f ∀ A ∈ M ] B ∈ M

Ejemplo (n = 2)
Veamos tamaños de matrices y distancias entre ellas según distintas normas
matriciales, para los datos

5 −2| 6 −2
A={ B={ |
−3 1 −9 4

‖ A ‖w = √39 ≅ 6.245 ‖ A ‖K = 8 ‖ A ‖f = 7
‖ B ‖w = √137 ≅ 11.705 ‖ B ‖K = 15 ‖ B ‖f = 13

−1 0
A−B={ |
6 −3

dw (A , B) = √46 ≅ 6.782 dK (A , B) = 7 d f (A , B ) = 9

Es muy probable que le haya resultado menos laborioso calcular tamaños con las
normas matriciales ‖ ‖K y ‖ ‖f que con la norma matricial euclidea ‖ ‖w

3- Compatibilidad entre Normas de Vectores Reales n x 1


y Normas de Matrices
Matrices Reales n x n

En algunos casos, pero no siempre, se verifica una propiedad fundamental entre


cierta norma vectorial en V y cierta norma matricial en M:

(C de C) ‖ A -̅ ‖ ≤ ‖ A ‖ ‖ -̅ ‖ ∀ -̅ ∈ V y A ∈ M

denominada condición de compatibilidad entre ambas normas.

En la desigualdad (C de C) es de destacar que en el primer miembro aparece


norma vectorial, mientras que en el segundo miembro figura producto de norma
matricial (primer factor) por norma vectorial (segundo factor).

Página 8 de 20
En estos casos se dice que la norma matricial en M está subordinada a la norma
vectorial en V

Se puede demostrar que no hay compatibilidad entre la norma vectorial euclídea y


la norma matricial euclídea. Es por ello que la norma matricial euclídea no será de
nuestro interés.

En cambio, sí se puede probar que existe compatibilidad entre norma vectorial de


la suma y norma matricial del máximo de sumas por columnas y entre norma
vectorial del máximo y norma matricial del máximo de sumas por filas.

En otras palabras, valen:

(C de C) ‖ A -̅ ‖K ≤ ‖ A ‖K ‖ -̅ ‖K ∀ -̅ ∈ V y A ∈ M

(C de C) ‖ A -̅ ‖f ≤ ‖ A ‖f ‖ -̅ ‖f ∀ -̅ ∈ V y A ∈ M

Para análisis futuros, será fundamental contar con la (C de C).

Resumiendo, valen los dos siguientes resultados:

Teorema 1

‖ ‖K es norma matricial en M
(satisface (N M 1) , (N M 2) y (N M 3))

y también verifica las dos propiedades que siguen

(N M 4) ‖ A B ‖K ≤ ‖ A ‖K ‖ B ‖K ∀ A ∈ M y B ∈ M
(C de C) ‖ A -̅ ‖K ≤ ‖ A ‖K ‖ -̅ ‖K ∀ -̅ ∈ V y A ∈ M

Teorema 2

‖ ‖f es norma matricial en M
(satisface (N M 1) , (N M 2) y (N M 3))

y también verifica las dos propiedades que siguen

(N M 4) ‖ A B ‖f ≤ ‖ A ‖f ‖ B ‖f ∀ A ∈ M y B ∈ M
(C de C) ‖ A -̅ ‖f ≤ ‖ A ‖f ‖ -̅ ‖f ∀ -̅ ∈ V y A ∈ M

Nota:
Una norma matricial en M subordinada a la norma vectorial euclídea en V, es la
norma vinculada al radio espectral.

Página 9 de 20
4- Radio Espectral

Sea A = (rOs )N t N , en M y sean λ1 , λ2 , … , λn , sus n autovalores (valores


propios), reales o complejos y simples o múltiples.

Definimos radio espectral de A por:

~(A) = max 〈 | λO | , h = 1 ,2 ,…,i 〉

Ejemplo (n = 3)

5 7 9
A = •1 −3 4 € tiene 3 autovalores, cuyos valores aproximados son:
2 0 −6

λK ≅ 7.41476 λL ≅ − 5.70738 + 0.25192 i λ• ≅ − 5.70738 − 0.25192 i

Puesto que | λK | ≅ 7.41476 | λL | ≅ 5.71294 | λ• | ≅ 5.71294

resulta ~(A) = 7.41476

Teorema 1

‖ A ‖L = +d~(A‚ A) es una norma matricial en M


(satisface (N M 1) , (N M 2) y (N M 3))

y también verifica las dos propiedades que siguen

(N M 4) ‖ A B ‖L ≤ ‖ A ‖L ‖ B ‖L ∀ A ∈ M y B ∈ M
(C de C) ‖ A -̅ ‖L ≤ ‖ A ‖L ‖ -̅ ‖L ∀ -̅ ∈ V y A ∈ M

Corolario
Si A ∈ M y además A es simétrica ( A = AT ),
entonces ‖ A ‖L = ~(A)

Teorema 2

Para cada norma matricial en M subordinada a una norma vectorial en V es

~(A) ≤ ‖ A ‖ ∀ A∈M

Demostración
Sea Y un autovalor cualquiera de A y -̅ (-̅ ≠ 01) un autovector de A asociado
con Y. Luego: A-̅ = Y-̅

Entonces | Y | ‖ -V ‖ = ‖ Y -̅ ‖ = ‖ A -̅ ‖ ≤ ‖ A ‖ ‖ -̅ ‖
Como ‖ -̅ ‖ > 0 (-̅ ≠ 01) sigue que | Y | ≤ ‖ A ‖
Finalmente ~(A) ≤ ‖ A ‖

Página 10 de 20
5- Errores y Errores Normados en Sistemas Lineales n x n

Hipótesis: A = (rOs )N t N en M, regular (no singular), y 01 = (0K , 0L , …. , 0N )T en V.

Consideremos el Sistema Lineal n x n: A -̅ = 01 bajo forma matricial, siendo el


vector incógnita -̅ = (-K , -L , …. , -N )T en V

A es matriz de coeficientes y 01 es vector independiente.

Equivalentemente:

rKK rKL … rKN -K 0K


rLK rLL … rLN -L 0
u… … … … v u…v = u Lv

rNK rNL … rNN -N 0N

Listado por ecuaciones:

rKK -K + rKL -L + ⋯ + rKN -N = 0K


rLK -K + rLL -L + ⋯ + rLN -N = 0L
……… ……… ……… …
rNK -K + rNL -L + ⋯ + rNN -N = 0N

Por hipótesis, el Sistema Lineal siempre tiene solución única.


Sea -̅ = (-K , -L , …. , -N )T el vector solución única en V

Para resolverlo con n = 1000 mediante el método directo de Eliminación


Gaussiana (sustitución hacia atrás o hacia adelante) debemos realizar un total de
668 165 500 operaciones elementales.

Para resolverlo con n = 1000 mediante Eliminación Gaussiana con pivoteo parcial
escalado debemos realizar un total de 668 665 999 operaciones elementales y un
total de 1 498 500 comparaciones.

Teóricamente: -̅ = A„K 01

Prácticamente: ya tiene conocimientos en el tema para no apelar a tal fórmula


teórica. Repase el proceso de cálculo de A„K . Y como si fuera poco, debería realizar
luego el producto A„K 01

Recuerde que cuando 01 = 01 la única solución del sistema es el vector solución


trivial -̅ = 01 (hipótesis de regularidad de A).

Suponga que, por ejemplo, utilizó el popular método de eliminación de GAUSS


para determinar el vector solución -̅ .

En general será -̅ ∗ la solución aproximada e interesará compararla con la solución


exacta -̅ desconocida.

Página 11 de 20
Entonces surge de modo natural el vector error en la aproximación ‡̅ = -̅ − -̅ ∗

Su longitud puede medirse mediante alguna norma vectorial en V:

‖ ‡̅ ‖ = ‖ -̅ − -̅ ∗ ‖

Lo que nos interesará es estimar (acotar) la magnitud del error. Es decir, estimar el
error normado.
normado En general, buscando una cota superior adecuada. Lo ideal sería
conseguir la menor de todas las cotas superiores.

Por ejemplo, cuando se indica una tolerancia prefijada: tol = 10- 7 y sucede que

‖ ‡̅ ‖ = ‖ -̅ − -̅ ∗ ‖ ≤ 10„ˆ = tol

entonces la aproximación -̅ ∗ es satisfactoria.

Siendo A -̅ − 01 = 01, pero A -̅ ∗ − 01 ≠ 01 ,

Lo que es importante lograr es que A -̅ ∗ − 01 ≅ 01 con lo que la solución


aproximada -̅ ∗ podrá resultar satisfactoria en cierta medida.

El vector ‰̅ = A -̅ ∗ − 01 en V se denomina vector error residual.

Su longitud puede medirse mediante alguna norma vectorial en V:

‖ ‰̅ ‖ = Š A -̅ ∗ − 01 Š

El problema que puede existir es que el producto A -̅ ∗ contribuya a propagar


errores por redondeos.

De todos modos:

‖ ‰̅ ‖ = Š A -̅ ∗ − 01 Š ≤ ‖ A -̅ ∗ ‖ + Š 01 Š ≤ ‖ A ‖‖ -̅ ∗ ‖ + Š 01 Š

representa una cota superior de la norma del error residual.

Observe que estamos usando alguna norma matricial en M compatible con alguna
norma vectorial en V.

Por ejemplo, si tol = 10- 8 indica una tolerancia prefijada y si ocurre que:

‖ ‰̅ ‖ = Š A -̅ ∗ − 01 Š ≤ ‖ A ‖‖ -̅ ∗ ‖ + Š 01 Š ≤ 10„‹ = tol

¿podemos decir que la aproximación -̅ ∗ es aceptable?.

El caso detallado al final del presente parágrafo muestra que una magnitud
residual pequeña no garantiza proximidad entre aproximación -̅ ∗ y solución
exacta -̅ .

Página 12 de 20
Considerando el error normado ‖ ‡̅ ‖ = ‖ -̅ − -̅ ∗ ‖

alguien podría sugerir la estimación siguiente:

‖ ‡̅ ‖ = ‖ -̅ − -̅ ∗ ‖ = Š A„K 01 − -̅ ∗ Š ≤ Š A„K 01 Š + ‖ -̅ ∗ ‖ ≤ ‖ A„K ‖Š 01 Š + ‖ -̅ ∗ ‖

representa una cota superior del error normado y otra vez necesitamos normas
compatibles.

¿Por qué no aplicaríamos generalmente esta receta?

También tenemos otras vinculaciones entre ‡̅ y ‰̅ :

A ‡̅ = A (-̅ − -̅ ∗ ) = A -̅ − A -̅ ∗ = 01 − A -̅ ∗ = ‰̅

Resumiendo:
‡̅ = A„K ‰̅ y ‰̅ = A ‡̅

Ejemplo

El sistema lineal 2 x 2

1.000000 2.000000 -K 3.000000


A -̅ = Ž • Ž- • = Ž • = 01
1.000001 2.000000 L 3.000001
1.000000
tiene solución única exacta -̅ = Ž •
1.000000
3.000000
Si bien -̅ ∗ = Ž • es una aproximación muy deficiente a -̅
0.000000

notar que: -̅ ∗ satisface exactamente la primera ecuación y aproximadamente


la segunda ecuación de dicho sistema,

‖ ‰̅ ‖f = Š A -̅ ∗ − 01 Š = 0.000002 es pequeña pero


f

‖ ‡̅ ‖f = ‖ -̅ − -̅ ∗ ‖f = 2.000000 es relativamente grande

Esto nos indica que ‖ ‰̅ ‖ puede ser pequeña sin serlo ‖ ‡̅ ‖

En otras palabras, ‖ ‰̅ ‖ pequeña no garantiza -̅ ∗ cercano a -̅

Cuando los coeficientes de A- 1 son todos de magnitud bastante mayor que uno y
cuando ‖ ‰̅ ‖ es pequeña, puede suceder que ‖ ‡̅ ‖ no sea pequeña (recordar que
‡̅ = A„K ‰̅ ).

Lo anterior está relacionado con matrices mal condicionadas, tema que trataremos
próximamente.

Página 13 de 20
6- Análisis de errores. Número de Condición

Partimos del Sistema Lineal n x n: A -̅ = 01 con A regular, y sea -̅ su solución


única. Observar que: -̅ ≠ 01 equivale a 01 ≠ 01

CASO 1
Supongamos que al cargar los datos en el ordenador introducimos 01 ≠ 01 con
errores (como ser, por redondeos) pero A exacta (sin errores).

Entonces ingresamos 01 + ∆0 1111 en lugar de 01


11
∆011 ≠ 01 es la perturbación en 01 y esto produce una perturbación ∆-
1111 ≠ 01 en -̅

1111 ) = 01 + ∆0
El Sistema Lineal Perturbado n x n queda ahora: A (-̅ + ∆- 1111

1111 = 01 + ∆0
Luego, A -̅ + A ∆- 1111 y como A -̅ = 01 , resulta A ∆- 1111
1111 = ∆0

1111 entonces ‖ ∆-
1111 = A„K ∆0
Por tanto ∆- 1111 Š ≤ ‖ A„K ‖Š ∆0
1111 ‖ = Š A„K ∆0 1111 Š

Resumiendo
1111 Š cota superior para el error normado inducido en -̅
1111 ‖ ≤ ‖ A„K ‖Š ∆0
‖ ∆-

Por otra parte: de 01 = A -̅ sigue Š 01 Š = ‖ A -̅ ‖ ≤ ‖ A ‖‖ -̅ ‖

Luego, Š 01 Š ‖ ∆- 1111 Š ≤ ‖ A ‖‖ -̅ ‖ ‖ A„K ‖Š ∆0


1111 ‖ ≤ Š 01 Š ‖ A„K ‖Š ∆0 1111 Š

Dividiendo ambos extremos de las desigualdades por Š 01 Š ‖ -̅ ‖ > 0

1111 ‖
‖ ∆- 1111 Š
Š ∆0
≤ ‖ A ‖ ‖ A„K ‖
‖ -̅ ‖ Š 01 Š

cota superior para el error normado relativo generado en -̅ .

1111 ‖
‖ ∆‘
En esta caso representa el error normado relativo en 01.
‖ ‘1 ‖

Definimos como Número de Condición de A al número real positivo


NdeC(A) = ‖ A ‖ ‖ A„K ‖ que depende de la norma matricial elegida en M.

NdeC(A) ≥ 1 para cualquier norma matricial en M compatible con una norma


vectorial en V. En efecto:
1 = ‖ I ‖ = ‖ A A„K ‖ ≤ ‖ A ‖ ‖ A„K ‖ = NdeC(A)

Finalmente:
1111 ‖
‖ ∆- 1111 Š
Š ∆0
≤ NdeC(A)
‖ -̅ ‖ Š 01 Š

es una cota superior para el error normado relativo inducido en -̅

Página 14 de 20
Cuando NdeC(A) es algo mayor que 1 pero no muy grande y
1111 ‖
‖ ∆‘
es bastante pequeño entonces su producto será pequeño.
‖ ‘1 ‖
1111 ‖
‖ ∆t
Por lo tanto tiene una cota superior pequeña
‖ t̅ ‖

Pero cuando NdeC(A) es grande o muy grande y


1111 ‖
‖ ∆‘
es bastante pequeño, su producto puede ser grande.
‖ ‘1 ‖

Si NdeC(A) es grande o muy grande se dice que A está mal condicionada.


condicionada

Cuando A está mal condicionada y el tamaño de A no es enorme, se puede


suavizar su mal condicionamiento pagando un costo importante: aumentando
cantidad de dígitos precisos. Por consiguiente, aumentando tiempo de cálculo y
necesitando mayor disponibilidad en memoria.

Operando con d dígitos de precisión , o errores por redondeos del orden de 10- d,
y con NdeC(A) del orden de 10p (d , p : naturales):

la solución aproximada tendrá d - p dígitos precisos; es decir con errores de


redondeos del orden de 10-(d - p) .

Otra medida para conocer el condicionamiento de A es a través del Indice de


Condición de A:
|det(A)|
IdeC(A) = >0
Šf1̅ Š Šf2̅ Š … Šfn̅ Š

donde Šf1̅ Š Šf̅2 Š … Šf̅n Š indican las normas vectoriales de los n vectores filas de A

El IdeC(A) depende de la norma vectorial seleccionada en V.

Cuando IdeC(A) es pequeño (cercano a 0) decimos que A está mal condicionada.


condicionada

Lamentablemente, tanto IdeC como NdeC no son fáciles de calcular; para


NdeC(A) debemos conseguir A- 1 y para IdeC(A) tenemos que obtener det (A).

En realidad, para determinar la cantidad de dígitos precisos en la solución, no es


necesario conocer en forma exacta el valor de NdeC(A) sino su orden de
magnitud. Por suerte, existen métodos para determinar dicho orden, pero que no
serán tratados en el presente texto.

CASO 2
Supongamos que al cargar los datos en la computadora introducimos A con
errores (como ser, por redondeos) pero 01 ≠ 01 exacto (sin errores).

Página 15 de 20
Entonces ingresamos A + ∆A en lugar de A ( ∆A matriz no nula perturbación en
1111 ≠ 01 en -̅ .
A ) y esto produce una perturbación ∆-

1111 ) = 01
El Sistema Lineal Perturbado n x n queda ahora (A + ∆A) (-̅ + ∆-

El problema que puede aparecer es que A + ∆A no sea regular.

Una condición suficiente para que A + ∆A sea regular es que se verifique la


desigualdad: ‖ A„K ‖ ‖ ∆A ‖ < 1

Con tal hipótesis adicional se puede demostrar (no es fácil) que:

1111 ‖
‖ ∆- NdeC(A) ‖ ∆A ‖

‖ -̅ ‖ ‖ ∆A ‖ ‖ A ‖
1 − NdeC(A) ‖ ‖
A

es una cota superior para el error normado relativo heredado por -̅

‖ ∆“ ‖
En esta caso representa el error normado relativo en A.
‖A‖

CASO GENERAL
Si al introducir los datos en la computadora ingresamos A y 01 ≠ 01 con errores es
posible probar que:
1111 ‖
‖ ∆- NdeC(A) 1111 Š ‖ ∆A ‖
Š ∆0
≤ ” + •
‖ -̅ ‖ ‖ ∆A ‖ Š 01 Š ‖A‖
1 − NdeC(A) ‖ ‖
A

es una cota superior para el error normado relativo inducido por -̅ .

7- Ejemplos de Matrices Mal Condicionadas

MATRICES DE HILBERT

Constituyen una familia típica de matrices mal condicionadas. A medida que


aumentan de tamaño crece fuertemente su número de condición NdeC y decrece
fuertemente su índice de condición IdeC.

En Métodos Numéricos suelen aparecer muchas matrices que tienden a


comportarse como las Matrices de HILBERT respecto a su mal condicionamiento.
Las primeras tres Matrices de HILBERT son:
1 1/2 1/3 1/4
1 1/2 1/3
1 1/2 1/2 1/3 1/4 1/5
– ˜ , •1/2 1/3 1/4€ , u v
1/2 1/3 1/3 1/4 1/5 1/6
1/3 1/4 1/5
1/4 1/5 1/6 1/7

Página 16 de 20
La Matriz de HILBERT de orden n x n se define por

1
HN = (ℎOs )N t N = š › para i = 1 ,2 , . . . , n y j = 1 ,2 , . . . , n
i + j − 1 NtN

Se puede demostrar que Hn es regular (n = 2 ,3 ,...).


Luego: det(Hn) = 0 para n = 2 ,3,....
Particularmente: det(Hn) > 0 para n = 2 ,3,...

Los valores aproximados de los determinantes de las diez primeras Matrices de


HILBERT son:
n det(Hn)
2 0.0833
3 0.0005
4 1.6534 * 10- 7
5 3.7493 * 10- 12
6 5.3673 * 10- 18
7 4.8358 * 10- 25
8 2.7371 * 10- 33
9 9.7202 * 10- 43
10 2.1642 * 10- 53
11 3.0191 * 10- 65

La tabla induce a pensar que a medida que n aumenta, det(Hn) tiende


fuertemente a 0 por valores positivos.

lim det(Hn) = 0U
N→f

Los valores aproximados de los NdeC de las diez primeras Matrices de HILBERT
son:
n NdeC(Hn)
2 27
3 748
4 28375
5 943656
6 2.9 * 107
7 9.9 * 108
8 3.4 * 1010
9 1.1 * 1012
10 3.5 * 1013
11 1.2 * 1015

La tabla sugiere que:


lim NdeC(Hn) = +∞
N→f

Las Matrices de HILBERT son prototipos de mal condicionamiento, que empeora


mientras n crece.

Página 17 de 20
El Sistema Lineal H7 -̅ = 01 , donde

01 = •7 ,
K ˆ•TŸ T
, , , , , ¢ ,
KžˆŸ žˆK •KKŸ LL žŸ K¡T‹K
L‹T KL¡T ‹žT ¡Ÿ•T žž ¡TT¡T

tiene solución única y exacta -̅ = (1 ,2 ,3 ,4 ,5 ,6 ,7)T.

El NdeC(H7) es del orden de 109, por lo que H7 está afectada de mal


condicionamiento. Veamos el significado del mal condicionamiento de H7.

Si optamos por trabajar con 16 dígitos de precisión, ingresaremos H7* en lugar de


H7 y 01 ∗ en lugar de 01.

Resuelva aproximadamente el Sistema Lineal Perturbado H7* -̅ ∗ = 01∗ mediante


Eliminación Gaussiana. Podemos anticipar que la solución aproximada -̅ ∗ tendrá
16 - 9 = 7 dígitos precisos.

Compruebe que:

‖ ‰̅ ‖f = Š H7* -̅ ∗ − 01 ∗ Š < 8.9 ∗ 10„K¡


f

‖ ‡̅ ‖f = ‖ -̅ − -̅ ∗ ‖f < 4.2 ∗ 10„‹

Recuerde que el mal condicionamiento puede estar presente en pequeñas


dimensiones. Un Sistema Lineal 2 x 2 formado por las ecuaciones de dos rectas ni
paralelas ni coincidentes tiene solución única: las coordenadas del único punto de
intersección de ambas rectas. Cuando ambas rectas están casi coincidiendo, puede
que la computadora se encuentre calculando frente a un zona borrosa y no distinga
claramente las coordenadas de ese punto sino las de algún representante
"próximo" a tal punto.

EJEMPLO ADICIONAL

1 p
Sea A(p) = – ˜ (p parámetro real)
p 1

Es det(A(p)) = 1 - p2 y A(p) regular ⇔ p ≠ ± 1.

(1 + | p |)L
NdeC(A(p)) =
|1- pL |

con la norma matricial del máximo de sumas por filas.

lim NdeC(A(p)) = +∞
¦→UK

lim NdeC(A(p)) = 1
¦→Uf

Página 18 de 20
Gráfica de NdeC(A(p)):

1+p
Sea 01(p) = – ˜
1−p

El Sistema Lineal A(p) -̅ = 01(p)

1
tiene solución única -̅ = Ž • ∀ p ≠ ±1
1

Experimente numéricamente su resolución para


p = 1 + 10- 16 , 1 + 10- 32 y 1 + 10- 64
(valores de p próximos a 1 por derecha).

Tenga en cuenta que det(A(1 + 10- 16)) ≌ - 2 * 10- 16


det(A(1 + 10- 32)) ≌ - 2 * 10- 32
det(A(1 + 10- 64)) ≌ - 2 * 10- 64

Observe que NdeC(A(1 + 10- 16)) ≌ 2 * 1016


NdeC(A(1 + 10- 32)) ≌ 2 * 1032
NdeC(A(1 + 10- 64)) ≌ 2 * 1064

7- Notas sobre Factorizaciones de Matrices Cuadradas

Sea A en M, A regular, y además supongamos que admite alguna descomposición


de tipo A = L U, con L en M matriz triangular inferior y U en M matriz
triangular superior. En tal caso, L y U también son regulares.

Los valores de det(L) y det(U) son los respectivos productos de sus elementos
diagonales principales. Por lo tanto, todos los elementos de las diagonales
principales de L y U son diferentes de cero.

10 −14 2 0 5 −7•
Una muestra: A=Ž • =Ž •Ž = LU
5 −19 1 −3 0 4

En algunas situaciones tal factorización es única y en otras no.

Página 19 de 20
La hipótesis de la regularidad de A no alcanza para garantizar la posibilidad de la
descomposición. Existen matrices singulares con factorización L U, pero en tal
caso L y/o U son singulares.

28 21 7 0 4 3
Una muestra: A=Ž • =Ž •Ž •=LU
8 6 2 0 0 5

33 39 3 0 11 13
Otra muestra: A=Ž • =Ž •Ž •=LU
44 52 4 5 0 0

Cuando los n elementos de la diagonal principal de L se eligen iguales a uno, la


descomposición se dice de DOOLITTLE
DOOLITTLE.
TTLE

3 4 1 0 3 4
Un ejemplo: A=Ž • =Ž •Ž •= LU
−15 −18 −5 1 0 2

Si los n elementos de la diagonal principal de U se adoptan iguales a uno, la


factorización se denomina de CROUT.
CROUT

5 10• 5 0• Ž1 2
Un ejemplo: A=Ž =Ž •=LU
2 10 2 6 0 1

Recordemos que cuando resolvemos directamente A -̅ = 01 con eliminación


gaussiana efectuamos un total de:

2 n• 3 nL 7n
+ −
3 2 6

operaciones elementales. Es decir O(n3)

Teniendo disponible la factorización A = L U, la cantidad total de operaciones


elementales se reduce drásticamente de O(n3) a O(n2).

Pero para lograr, de ser posible, la descomposición A = L U hay que realizar un


total de:
2 n• nL n
− −
3 2 6

operaciones elementales. El costo computacional es elevado.

Resumiendo: para resolver un único sistema lineal normal A -̅ = 01 (con A


regular) lo mejor hasta ahora es la eliminación gaussiana con sustitución hacia
atrás (eventualmente con pivoteo parcial).

Entonces, sólo es deseable contar con una factorización A = L U (A regular)


cuando tenemos que resolver una familia de sistemas lineales con misma matriz de
coeficientes y diversos términos independientes:

A -̅ O = 01O para i = 1 ,2 , . . . , N (N > 1)

Página 20 de 20

También podría gustarte