Está en la página 1de 14

Identificación de SIStemas

Descomposición en Valores Singulares


(SVD: Singular Value Decomposition)

ISIS J. C. Gómez & G. Bartolini 1


La SVD y sus Aplicaciones
La Descomposición en Valores Singulares (o SVD por sus siglas
en inglés) de una matriz es la descomposición en tres factores. Dos
de ellos son matrices ortogonales, lo cual le confiere un interés
especial. La razón es que las transformaciones ortogonales
preservan normas y ángulos; en particular, preservan las longitudes
de los vectores de error que son inevitables en los cálculos
numéricos.
Este método de factorización tiene interés teórico y práctico a la
vez. Entre sus muchas aplicaciones está la estimación más fiable
del rango de una matriz en forma numérica.
Los Métodos de Subespacio están basados en la SVD y tienen
diferentes aplicaciones tales como identificación de sistemas,
identificación ciega, recepción de señales de radar, etc.
ISIS J. C. Gómez & G. Bartolini 2
Matrices Ortogonales
Una matriz A ∈ R n× n es ortogonal si y solo si
AT ⋅ A = I es decir AT = A −1

En forma equivalente, si la matriz A = [a1 an ]∈ R n× n es


ortogonal sus columnas forman un conjunto ortonormal de
vectores; es decir, cumplen con
⎧1 si i = j
ai ⋅ a j = δ i j = ⎨
T
i, j = 1,…, n
⎩0 si i ≠ j

Análogamente, las filas de A también son ortonormales.

ISIS J. C. Gómez & G. Bartolini 3


Descomposición en Valores Singulares (SVD)
Sea una matriz A ∈ R m×n , puede descomponerse o escribirse como

A = U⋅Σ⋅V T

denominada Descomposición en Valores Singulares de A, donde


U = [u1 u2 … um ] ∈ R m× m
V = [ v1 v2 … vn ] ∈ R n× n

son matrices ortogonales y Σ ∈ R m×n es una matriz diagonal tal


que

ISIS J. C. Gómez & G. Bartolini 4


⎡σ 1 ⎤
⎢ σ2 ∅ ⎥
⎢ ⎥
Σ=⎢ ∅ ⎥ para m > n
⎢ σ ⎥p

⎢− − − − −⎥
⎣ ∅ ⎦
⎡σ 1 |

⎢ σ2 ∅ | ⎥
Σ=⎢ | ∅⎥ para m < n
⎢ ∅ | ⎥
⎣ σp | ⎦
ISIS J. C. Gómez & G. Bartolini 5
donde p = min(m, n) y σ1 ≥ σ 2 ≥ … ≥ σ p ≥ 0 son los valores
singulares de A.

Las columnas de la matriz U (u1 , u2 ,…, um ) son los vectores


singulares izquierdos de A.
Las columnas de la matriz V (v1 , v 2 , … , v n ) son los vectores
singulares derechos de A.

ISIS J. C. Gómez & G. Bartolini 6


En muchos casos basta con hacer una SVD de tamaño reducido (o
“economy size” SVD o también “thin” SVD), que para una matriz
A ∈ R m×n resulta

⎡ ⎤
Σ *

A = [ U1 U 2 ]m× m ⋅ ⎢ ⎥ [ ]
⋅ VT n× n
para m > n
⎢⎣ ∅ ⎥⎦ m× n

= U1 ⋅ Σ* ⋅ V T

⎤ ⎡ V1
T

[
A = [ U]m× m ⋅ Σ* ∅] ⋅ ⎢ ⎥
m× n
para m < n
⎢⎣V ⎥⎦
T
2
n× n
T
= U⋅Σ ⋅V*
1

ISIS J. C. Gómez & G. Bartolini 7


T
donde las matrices U 1 y V1 ∈ R m×n , U ∈ R m× m , V T ∈ R n×n y
σ1
⎡ ⎤
⎢ σ2 ∅ ⎥
Σ* =⎢ ⎥ con p = min(m, n)
⎢ ∅ ⎥
⎣ σp ⎦

Cuando la matriz A es tal que m >> n (o m << n ), la matriz U (o


VT) resultante puede ser bastante grande y la mayoría de sus
columnas (o filas) estarán multiplicadas por filas (o columnas) de
ceros en la matriz Σ. En este caso, la SVD de tamaño reducido
ahorra tiempo de ejecución y espacio en memoria, ya que
produce matrices Σ* y U1 (o V1T) de menores dimensiones.
ISIS J. C. Gómez & G. Bartolini 8
Propiedades de la SVD
1) Dadas la matriz Amxn y su SVD, sus valores singulares ( σ i ) y sus
vectores singulares izquierdos y derechos ( ui y vi ) cumplen con
A ⋅ vi = σ i ⋅ ui
i = 1,…, min(m, n)
A ⋅ ui = σ i ⋅ vi
T

2) Si la matriz Amxn tiene rango r, con r ≤ p = min(m, n) entonces


• A tiene r valores singulares no nulos
σ 1 ≥ σ 2 ≥ … ≥ σ r > σ r +1 = … = σ p = 0
• el espacio nulo de A está dado por
null(A) = span{vr +1 , vr +2 ,…, vn }
ISIS J. C. Gómez & G. Bartolini 9
• el espacio de columnas de A es
ran(A) = span{u1 , u2 ,…, ur }
• y la SVD de A puede expresarse como
r
A = ∑ σ i ⋅ ui ⋅ vi
T

i =1

3) Definición de la Norma-2 de una matriz, inducida por la norma-


2 (Euclídea) de vectores:
Δ ⎛ Ax 2 ⎞ x ∈ Rn , x ≠ 0
A 2 = sup⎜ ⎟
x ⎜ x ⎟ A ∈ R m× n
⎝ 2 ⎠

Aplicada a la SVD de A:
A 2 = σ1 (máximo valor singular)

ISIS J. C. Gómez & G. Bartolini 10


Definición de la Norma de Frobenius de una matriz:
Δ m n
AF= ∑∑ i j
a 2

i =1 j =1
A ∈ R m× n

Aplicada a la SVD de A:
= σ 12 + σ 22 + … + σ p2 con p = min(m, n)
2
A F

Mínimo valor singular:


⎛ Ax 2 ⎞ x ∈ Rn , x ≠ 0
min⎜ ⎟ =σp
x ⎜ x ⎟ p = min(m, n)
⎝ 2 ⎠

ISIS J. C. Gómez & G. Bartolini 11


4) Definición del Número de Condición de una matriz:
Δ
K ( A) = A p ⋅ A −1 A ∈ R n× n
p

Si consideramos la norma-2 resulta


⎯→ A −1 = V ⋅ Σ −1 ⋅ UT
A = U ⋅ Σ ⋅ VT ⎯
1
A 2 = σ1 A −1
=
2 σn
luego
σ1
K ( A) =
σn
Si el valor de K(A) es muy grande la matriz A está “muy próxima”
a ser singular.
ISIS J. C. Gómez & G. Bartolini 12
5) Sea la matriz A ∈ R m× n con rango r, queremos hallar una matriz
B ∈ R m× n con rango k < r tal que la distancia en norma-2 A − B 2
sea mínima.
Puede probarse que si
r
A = ∑ σ i ⋅ ui ⋅ vi
T

i =1

es la SVD de A, entonces
k
B = ∑ σ i ⋅ ui ⋅ vi
T

i =1

Además el error que se comete en la aproximación es mínimo y


vale
A − B 2 = σ k +1

ISIS J. C. Gómez & G. Bartolini 13


Referencias:
[1] G. Nakos y D. Joyner. Álgebra Lineal con Aplicaciones. Thomson, 1999.
[2] G.H. Golub y C.F. Van Loan. Matrix Computations, 3ra ed. Johns
Hopkins, 1996.
[3] Using MATLAB v6. The MathWorks.

ISIS J. C. Gómez & G. Bartolini 14

También podría gustarte