Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Descomposición en Valores Singulares (Mancilla) PDF
Descomposición en Valores Singulares (Mancilla) PDF
1. Valores Singulares
Tanto los valores singulares como la descomposición en valores singulares de una matriz son
conceptos de gran utilidad en las aplicaciones del álgebra lineal a diversos problemas prácticos
y teóricos.
A continuación definiremos el concepto de valor singular de una matriz.
Dada una matriz A ∈ Rm×n , la matriz AT A es simética, pues (AT A)T = AT (AT )T = AT A,
y semidefinida positiva, ya que
Luego r
p p
σ1 = λ1 = máx xT (AT A)x = máx kAxk2 = máx kAxk,
kxk=1 kxk=1 kxk=1
1
que acotan superior e inferiormente la magnitud de Ax en función de la magnitud de x.
En efecto, si x = 0 las desigualdades son obviamente ciertas. Si x 6= 0 tenemos que v = x/kxk
es unitario y por lo tanto σn ≤ kAvk ≤ σ1 . Pero kAvk = kAxk/kxk, con lo cual
kAxk
σn ≤ ≤ σ1 =⇒ σn kxk ≤ kAxk ≤ σ1 kxk.
kxk
El siguiente resultado será clave para la construcción de la descomposición en valores sin-
gulares de una matriz. Recordemos que toda matriz simétrica n × n con coeficientes reales es
diagonalizable ortogonalmente, o, lo que es equivalente, existe una b.o.n. de Rn compuesta por
autovectores de ella.
λ1 ≥ λ2 ≥ · · · ≥ λr > λr+1 = · · · = λn = 0,
2. { Av Avr
σ1 , . . . , σr } es b.o.n. de col(A);
1
probar que éste genera el espacio columna de A. Para ello alcanza con ver que
2
Ejemplo 1 Consideremos la matriz
· ¸
4 11 14
A= .
8 7 −2
Como
80 100 40
AT A = 100 170 140 ,
40 140 200
y sus autovalores son λ1 = 360, λ2 = 90 y λ3 = 0, tenemos que los v.s. de A son
√ √ √ √
σ1 = 360 = 6 10, σ2 = 90 = 3 10 σ3 = 0.
Notamos que el rango de A es 2 y que hay exactamente 2 v.s. no nulos como informa el Teorema
1.
Busquemos ahora una b.o.n. de R3 compuesta por autovectores de AT A. Como
1 −2 2
Sλ1 = gen 2 , Sλ2 = gen −1 y Sλ3 = gen −2 ,
2 2 1
B = {v1 , v2 , v3 }, con
1 −2 2
1 1 1
v1 = 2 , v2 = −1 y v3 = −2 ,
3 3 3
2 2 1
es una de tales bases.
Calculemos Avi para i = 1, 2, 3,
· ¸ · ¸ · ¸
18 3 0
Av1 = , Av2 = y Av3 = .
6 −9 0
Notamos que Avi ⊥ Avj si i 6= j y que kAvi k = σi para i = 1, 2, 3.
En particular {v3 } es b.o.n. de Nul(A) y { Av 1 Av2
σ1 , σ2 } es b.o.n. de col(A), que en este caso
coincide con R2 .
3
Notar que si A = U Σ V T es una DVS de A, con Σ como en la Definición 2, y vi y ui son las
i-ésimas columnas de V y U respectivamente, entonces es fácil ver que A puede ser escrita en la
forma
A = σ1 u1 v1T + σ2 u2 v2T + · · · + σr ur vrT ,
donde cada una de las matrices ui viT es de rango 1.
Definición 3 Si A = U Σ V T es una DVS de A, a los vectores que aparecen como columnas de
la matriz V se los denomina vectores singulares derechos de A mientras que a los que aparecen
como columnas de U se los denomina vectores singulares izquierdos de A.
El siguiente teorema nos dice que toda matriz admite una DVS.
Teorema 2 Sea A ∈ Rm×n . Entonces existe un descomposición en valores singulares de A.
Demostración. Sean λ1 , . . . , λn los autovalores de AT A. Supongamos que están ordenados en
forma decreciente y que exactamente r de ellos son no nulos (r podrı́a ser n). Sea {v1 , v2 , . . . , vn }
una b.o.n. de Rn tal que AT Avi = λi vi para todo i = 1, . . . , n.
Definimos V = [v1 v2 · · · vn ], que es ortogonal, y
σ1 0 · · · 0
· ¸ 0 σ2 · · · 0 p
D 0r×(n−r)
Σ= con D = . . . . donde σi = λi .
0(m−r)×r 0(m−r)×(n−r) .. .. . . ..
0 0 · · · σr
4
Observación 1 La demostración del Teorema 2 nos da un método para construir una DVS de
una matriz A. Método que podemos resumir de la siguiente manera.
Sea A ∈ Rm×n .
B = {v1 , v2 , v3 } con
1 −2 2
1 1 1
v1 = 2 , v2 = −1 y v3 = −2 ,
3 3 3
2 2 1
5
Notamos que en la construcción de la DVS de A que hicimos en la demostración del Teorema 2,
los elementos no nulos que aparecen en la diagonal principal de Σ son los v.s. no nulos de A y
que las columnas de V , es decir, los vectores singulares derechos que utilizamos, son autovectores
de AT A. El siguiente resultado dice que lo anterior siempre ocurre, independientemente de la
forma en que la DVS haya sido obtenida.
Entonces
AT A = (U Σ V T )T (U Σ V T ) = V (ΣT Σ)V T .
Pero ΣT Σ es la matriz n × n
σ12 0 ··· 0 0 ··· 0
0 σ22 ··· 0 0 ··· 0
.. .. .. .. .. . . ..
. . . . . . .
ΣT Σ =
0 0 ··· σr2 0 ··· 0 .
0 0 ··· 0 0 ··· 0
.. .. .. .. .. . . ..
. . . . . . .
0 0 ··· 0 0 ··· 0
6
Proposición 2 Sea A = U Σ V T una DVS de A ∈ Rm×n . Entonces
AT = V ΣT U T
De la Proposición 2 y del Teorema 3 deducimos que los vectores singulares izquierdos de una
matriz A son a la vez vectores singulares derechos de AT y por lo tanto autovectores de AAT .
Como los v.s. no nulos de A y de AT coinciden, calculamos los v.s. de AT , que son los autovalores
de AAT . Como · ¸
T 9 −9
AA = ,
−9 9
√ √
sus autovalores son λ1 = 18 y λ2 = 0. Luego σ1 = 18 = 3 2 es el único v.s. no nulo tanto de
AT como de A. En particular, los restantes v.s. de A son σ2 = σ3 = 0.
Para hallar una DVS de A, lo que hacemos primero es hallar una DVS de AT . Calculando
obtenemos la siguiente
n b.o.n de R2 compuesta o por autovectores de AAT (ordenados según el
orden de los v.s.) [ √12 − √12 ]T , [ √12 √12 ]T . Designemos por u1 y u2 a los vectores de esa base.
Ambos son vectores singulares derechos de AT (u1 corresponde a σ1 y u2 a σ2 = 0) y por lo
tanto vectores singulares izquierdos de A.
Para obtener los vectores singulares izquierdos de AT que nos permitan luego construir una
DVS de AT , teniendo en cuenta que hay un solo valor singular no nulo, definimos
1
AT u1 1
v1 = = −2 .
σ1 3
2
Para hallar los restantes vectores singulares izquierdos de AT debemos encontrar v2 , v3 tales
que {v1 , v2 , v3 } sea b.o.n. de R3 . Pero como v2 y v3 son a su vez vectores singulares derechos de
A y corresponden a valores singulares nulos de A, necesariamente Av2 = 0 y Av3 = 0. Luego
bastará con que hallemos una b.o.n. de Nul(A). Una posible b.o.n. es {v2 , v3 } con
0 4
1 1
v2 = √ 1 y v3 = √ 1 .
2 1 3 2 −1
Note que {v1 , v2 , v3 } es b.o.n. de R3 . (Otra forma de computar v2 , v3 consiste en elegir v2∗ y v3∗
tales que {v1 , v2∗ , v3∗ } sea l.i. y ortonormalizar el conjunto mediante Gram-Schmidt.)
7
Entonces
AT = V Σ∗ U T
con V = [v1 v2 v3 ], U = [u1 u2 ] y √
2 3 0
Σ∗ = 0 0 ,
0 0
es DVS de AT y, por lo tanto, A = U Σ V T con Σ = Σ∗ T es DVS de A.
Como ejercicio, se propone al lector que calcule una DVS de A en forma directa.
Ejemplo 4 Dada
√ √1 √1
1 1 0 2 √ 0 0 2
0 2
A = 1 −1 0 0
18 0 0 1 0 ,
1 √1
0 0 1 0 0 0 − √2 0 2
hallar los valores singulares de A, bases de sus cuatro subespacios fundamentales y calcular sus
matrices de proyección.
La descomposición que tenemos de A es “casi” una DVS, salvo por el hecho de que la matriz
U ∗ que aparece a la izquierda, si bien tiene columnas mutuamente ortogonales, éstas no son de
8
norma 1. Procedemos entonces a normalizar las columnas de U ∗ dividiendo cada una de ellas
por su norma. Para que el producto siga siendo A, es necesario multiplicar la fila i de la matriz
central, por el número por el cual dividimos la columna i de U ∗ . Queda entonces la factorización
1 √1
√ √1 0 2 0 0 0 √12
2 2 2
A = √12 − √12 0 0 6 0 0 1 0 .
0 0 1 0 0 0 − √12 0 √12
Esta factorización no es aún una DVS, porque los elementos de la diagonal de la matriz
central no están ordenados de mayor a menor. Para ello lo que hacemos es permutar las dos
primeras columnas de la matriz de la izquierda y las dos primeras filas de la matriz de la derecha.
Entonces obtenemos
√1 √1 0 6 0 0 0 1 0
2 2
1 1
A = − √12 √12 0 0 2 0 √2 0 √2 ,
0 0 1 0 0 0 − √12 0 √12
1
2 0 − 21
PNul(A) = I − Pfil(A) = 0 0 0 ,
1 1
−2 0 2
0 £ ¤ 0 0 0
PNul(AT ) = 0 0 0 1 = 0 0 0 ,
1 0 0 1
1 0 0
Pcol(A) = I − PNul(AT ) = 0 1 0 .
0 0 0
9
4. DVS reducida
Veremos ahora cómo a partir de una DVS, A = U ΣV T , podemos obtener una descomposición
de A que emplea matrices de tamaño “reducido”. Empleando la notación de la sección anterior,
escribimos U = [Ur Um−r ] y V = [Vr Vn−r ], donde r es el rango de A.
Entonces
· ¸· ¸
D 0r×(n−r) VrT
A = U Σ V T = [Ur Um−r ] T = Ur DVrT .
0(m−r)×r 0(m−r)×(n−r) Vn−r
1. Existe una única solución x∗ por c.m. de la ecuación Ax = b que pertenece a fil(A).
10
Demostración. Primero probamos que existe una solución por c.m. que pertenece a fil(A). Sea
x̂p una solución por c.m. de la ecuación Ax = b. Sea x∗ = Pfil(A) x̂p . Veamos que x∗ también es
solución por c.m. de la ecuación. Como fil(A) = Nul(A)⊥ ,
x̂p = Pfil(A) x̂p + PNul(A) x̂p = x∗ + PNul(A) x̂p .
Luego, dado que x̂p una solución por c.m. de la ecuación Ax = b,
Pcol(A) b = Ax̂p = A(x∗ + PNul(A) x̂p ) = Ax∗ ,
y por lo tanto x∗ es solución por c.m. de la ecuación Ax = b y pertenece a fil(A).
Ahora veamos que x∗ es la única solución por c.m. que pertenece a fil(A). Supongamos
que x0 es una solución por c.m. que pertenece a fil(A). Entonces Ax∗ = Ax0 = Pcol(A) b. Luego
x∗ − x0 ∈ Nul(A). Como x∗ − x0 ∈ fil(A) y fil(A) = Nul(A)⊥ , resulta x∗ − x0 = 0, y, por lo tanto,
x∗ = x0 .
Hasta aquı́ hemos probado el punto 1. de la proposición. Ahora probamos que x∗ es la única
solución por c.m. de norma mı́nima de la ecuación Ax = b.
Primero vemos que x∗ es solución por c.m. de norma mı́nima. Sea x̃ una solución por c.m.
de la ecuación. Entonces x̃ − x∗ ∈ Nul(A). Luego
kx̃k2 = kx∗ + (x̃ − x∗ )k2 = kx∗ k2 + kx̃ − x∗ k2
pues fil(A) = Nul(A)⊥ . Entonces kx̃k2 ≥ kx∗ k2 y x∗ es de norma mı́nima.
Finalizamos la demostración viendo que x∗ es la única solución de norma mı́nima. Supon-
gamos que y también es solución de norma mı́nima. Entonces necesariamente kyk = kx∗ k. Por
otro lado, dado que y − x∗ ∈ Nul(A) y que x∗ ∈ fil(A),
kyk2 = kx∗ + (y − x∗ )k2 = kx∗ k2 + ky − x∗ k2 .
Entonces, necesariamente ky − x∗ k = 0, y, por lo tanto, y = x∗ .
De acuerdo con la Proposición 3, para hallar la solución por c.m. de norma mı́nima, debemos
buscar entre las soluciones por c.m. de la ecuación la solución x∗ que pertenece a fil(A). Para
hallar tal solución podemos proceder como sigue.
Supongamos que A = Ur D VrT es una DVS reducida de A. Entonces, por lo expuesto en la
Sección 3, Ur UrT = Pcol(A) , UrT Ur = I, las columnas de Vr son b.o.n. de fil(A) y D es inversible.
Luego, como x∗ pertenece a fil(A), existe α ∈ Rr tal que x∗ = Vr α. Como además x∗ es
solución por c.m. de Ax = b entonces
Pcol(A) b = Ax∗ = AVr α.
Luego, usando que Ur UrT = Pcol(A) , VrT Vr = I y A = Ur D VrT , tenemos que
Ur UrT b = Ur D VrT Vr α = Ur Dα.
Multiplicando por izquierda por Ur y usando que UrT Ur = I, obtenemos
Dα = UrT b =⇒ α = D−1 UrT b,
y, por lo tanto,
x∗ = Vr α = Vr D−1 UrT b.
Notemos que hemos probado que la solución por c.m. de norma mı́nima de la ecuación Ax = b
se obtiene multiplicando b por la matriz Vr D−1 UrT .
11
Definición 5 Sea A = Ur D VrT es una DVS reducida de A. La matriz A+ = Vr D−1 UrT es la
matriz seudoinversa de Moore-Penrose de A.
Notamos que del hecho que para todo b ∈ Rn , x∗ = A+ b es la única solución por c.m. de longitud
mı́nima de la ecuación Ax = b, se deduce que A+ no depende de la DVS reducida empleada
para calcularla. En efecto, si A = Ur0 DVr0 T es otra DVS reducida de A, tenemos la igualdad
T
(Vr D−1 UrT )b = x∗ = (Vr0 D−1 Ur0 )b ∀b ∈ Rn .
Notemos que el rango de A es 1, y por lo tanto A carece de inversa. Vamos a buscar entonces
una DVS reducida de A.
12
Como · ¸
T 40 80
A A= ,
80 160
√ √
sus autovalores son λ1 = 200 y λ2 = 0. Luego, A tiene un único v.s. no nulo, σ1 = 200 = 10 2.
Para construir una DVS reducida debemos hallar un vector singular derecho v1 de A asociado
a σ1 , o, lo que es lo mismo, un autovector unitario de AT A asociado a λ1 , por ejemplo, v1 =
√1 [1 2]T . Ahora, a partir de v1 definimos el vector singular izquierdo
5
· ¸
Av1 1 1
u1 = = √ .
σ1 10 3
Entonces " # · ¸
√1 √ 1 2
A= 10 [10 2] √ √
√3 5 5
10
es una DVS reducida de A y
" #· ¸· ¸ · ¸
√1 1 1 3 1 1 3
+ 5
A = √ √ √ = .
√2 10 2 10 10 100 2 6
5
13
Pn 2
Como yi = wi /σi para i = 1, . . . , r y i=1 yi = 1, finalmente llegamos a la siguiente
conclusión:
1. Si r = n
w12 w2
z ∈ T (S n−1 ) ⇐⇒ 2 + · · · + 2n = 1 ∧ wn+1 = wn+2 = · · · = wm = 0.
σ1 σn
Con lo cual T (S n−1 ) resulta ser un elipsoide n-dimensional (Si n = 1 es un par de puntos
y cuando n = 2 es una elipse) contenido en el subespacio generado por {u1 , . . . , un }, que
es col(A), y tiene por ejes a las rectas generadas por los vectores u1 , u2 , . . . , un .
2. Si r < n,
r
w12 wr2 X 2
+ · · · + = yi ≤ 1,
σ12 σr2
i=1
y, por lo tanto,
w12 wr2
z ∈ T (S n−1 ) ⇐⇒ + · · · + ≤1 ∧ wr+1 = wr+2 = · · · = wm = 0.
σ12 σr2
2. Si rango(A) = 1, σ1 > 0, σ2 = 0 y
½ ¾
w2 © ª
T (S 1 ) = z ∈ R2 : z = w1 u1 + w2 u2 , 21 ≤ 1, w2 = 0 = z ∈ R2 : z = tu1 , −σ1 ≤ t ≤ σ1 ,
σ1
3. Si rango(A) = 2, σ1 ≥ σ2 > 0, y
½ ¾
w2 w2
T (S 1 ) = z ∈ R2 : z = w1 u1 + w2 u2 , 21 + 22 = 1 ,
σ1 σ2
resulta una elipse con centro en el origen, eje mayor de longitud 2σ1 contenido en la recta
generada por u1 y eje menor de longitud 2σ2 contenido en la recta u2 (Figura 1).
14
1.5 T(S1) x
2
1
σ u
2 2
0.5
x1
−0.5
−1
σ1 u1
−1.5
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
3. Si rango(A) = 2, σ1 ≥ σ2 > 0, σ3 = 0 y
½ ¾
2 3 w12 w22
T (S ) = z ∈ R : z = w1 u1 + w2 u2 + w3 u3 , 2 + 2 ≤ 1; w3 = 0 ,
σ1 σ2
resulta un elipsoide centrado en el origen, con ejes de longitudes 2σ1 , 2σ2 y 2σ3 contenidos
en la rectas generadas por u1 , u2 y u3 , respectivamente (Figura 3.).
15
col(A)
4
σ1 u1
T(S2) u3
0
σ2 u2
−2
−4
5
4
0 2
0
−2
−5 −4
σ u
T(S2) 2 2
σ3u3 σ1u1
16