Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Descomposicio QR (Mancilla) PDF
Descomposicio QR (Mancilla) PDF
En lo que sigue veremos que toda matriz A Knm (K = R o C) con rango(A) = m, es decir,
cuyas columnas forman un conjunto linealmente independiente, se puede factorizar como pro-
ducto de dos matrices, una de ellas de nm tal que sus columnas forman un conjunto ortonormal
y otra de m m que es triangular superior y con numeros positivos en la diagonal (y por tanto
inversible). Tal factorizacion, que se denomina descomposicion QR de A, es utilizada por var-
ios algoritmos numericos para la resolucion de ecuaciones lineales y para el calculo de autovalores.
Demostracion. Como el punto 2. es consecuencia directa del punto 1. por lo que ya hemos
visto sobre matrices de proyeccion, solo el primero.
Sean u1 , u2 , . . . , um las columnas de Q. Como
H H
u1 u1 uH uH
u1 1 u2 1 um
uH uH u1 uH u2 uH
2 um
2 2 2
QH Q = . [u1 u2 um ] = . ,
. . .. .. ..
. . . . .
uH
m uH H
m u1 um u2
H
um um
y por lo tanto uH H
i uj es el elemento del producto Q Q ubicado en la posicion ij, tenemos que
H H 0 si i 6= j
Q Q = I ui uj = {u1 , u2 , . . . , um } es un conjunto ortonormal.
1 si i = j
Entonces, claramente, {u1 , u2 , . . . , um } es una b.o.n. de col(Q). Si probamos que col(Q) = col(A)
tendremos probado el punto 1.
Para ello usaremos el siguiente resultado: si A, B y C son matrices tales que A = BC
entonces col(A) col(B).
La demostracion de este resultado es la siguiente: si y col(A) entonces existe x tal que
y = Ax = BCx. Llamando z = Cx, tenemos que y = Bz, con lo cual y col(B). Por lo tanto
cada elemento de col(A) es a su vez elemento de col(B), con lo cual col(A) col(B).
Luego, dado que A = QR, tenemos que col(A) col(Q). Como R es inversible por la
definicion de descomposicion QR, tenemos que Q = AR1 , con lo cual col(Q) col(A). Por lo
tanto
col(A) col(Q) y col(Q) col(A) = col(A) = col(Q).
1
En lo que sigue veremos que toda matriz A de rango completo admite una descomposicion
QR.
u1 = v1
u2 = v2 12 u1
u3 = v3 13 u1 23 u2
.. .. .. uH
i vj
. . . con ij = 1 i < j.
kui k2
uj = vj 1j u1 2j u2 (j1) j uj1
.. .. ..
. . .
um = vm 1m u1 2m u2 (m1) m um1
v1 = u1
v2 = 12 u1 + u2
v3 = 13 u1 + 23 u2 + u3
.. .. ..
. . . .
vj = 1j u1 + 2j u2 + + (j1) j uj1 + uj
.. .. ..
. . .
vm = 1m u1 + 2m u2 + + (m1) m um1 + um
2
y modificamos R0 de modo tal que su producto con Q siga dando A, para ello multiplicamos cada
fila de R0 por el numero por el cual dividimos la correspondiente columna de Q0 obteniendo:
ku1 k 12 ku1 k 13 ku1 k 1m ku1 k
0
ku2 k 23 ku2 k 2m ku2 k
R=
0 0 ku3 k 3m ku3 k
. (1)
.. .. .. .. ..
. . . . .
0 0 0 kum k
De acuerdo con la demostracion del teorema anterior, para hallar tal descomposicion deberamos
aplicar el precedimiento de G-S a las columnas de A y con los vectores obtenidos, previa nor-
malizacion, construir la matriz Q. La matriz R podra obtenerse directamente mediante (1),
uH
i vj
calculando los ij mediante la formula ij = kui k2
. Sin embargo ello no es necesario, pues, una
vez obtenida Q, como A = QR y QH Q = I, tenemos que QH A = QH (QR) = (QH Q)R = R.
Procedemos entonces a aplicar G-S a las columnas de A: llamando vi a la columna i de A
tenemos que
1
u1 = v1 = 1 .
0
1
H 1 1
u1 v2 1 21
u2 = v2 u1 = 0
1 = 2
ku1 k2 2
1 0 1
1 2
0 1
uH
1 v3 uH
2 v3 1 1 21 32
u3 = v3 u1 u2 = 1
1 2 = 3 .
ku1 k2 ku2 k2 2 3 2
1 0 1 3
Normalizando los ui obtenidos formamos Q:
2 6
2 6
33
2
Q= 66 3
2 3
6 3
0 3 3
y calculamos R mediante
2 2
2 2 2
R = QH A = 0 6 6
.
2 6
2 3
0 0 3
3
empleando una computadora digital para hacer los calculos, no se emplea el procedimiento de
Gram-Schmidt para calcular Q debido a que los errores de redondeo pueden ser muy grandes.
La descomposicion se hace empleando otros metodos que involucran la utilizacion de las deno-
minadas matrices de Householder (hay una introduccion en wikipedia).
Varios programas que efectuan calculos con matrices, como Matlab, Mathematica, Maple,
Scilab (de uso libre, se baja de la red en la direccion http://www.scilab.org/) contienen instruc-
ciones que calculan la descomposicion QR de una matriz.
AH Ax = AH b RH QH QRx = RH QH b RH Rx = RH QH b Rx = QH b,
la ultima equivalencia debido a que RH es inversible por serlo R. Luego, las soluciones por
cuadrados mnimos de la ecuacion Ax = b se pueden obtener resolviendo la ecuacion
Rx = QH b,
lo cual tiene dos ventajas, una es que R es triangular y la otra es que, en general, el error que
se comete al resolver de esta manera mediante una computadora digital es menor que el que se
comete empleando la ecuacion normal AH Ax = AH b.