Está en la página 1de 15

2.

4 ECUACIONES DE EIGENVALORES
(2.4_AL_T_062, Revisión: 15-10-06)

Consideremos la multiplicación de una matriz por un vector, i.e.:

⎛ y ⎞ ⎛ 2 1 ⎞ ⎛ x1 ⎞
y = Ax ; en 2D esto es ⎜ 1 ⎟ = ⎜ ⎟⎜ ⎟
⎝ y2 ⎠ ⎝ 1 2 ⎠ ⎝ x2 ⎠

A transforma x→y , esto es, un punto en 2D a otro punto en 2D ( equivalentemente,


podemos verlo como un mapeo de R2 en R2).

x A y

⎛1 ⎞ ⎛ 2⎞
Ejemplo 1. Si x = ⎜ ⎟ , y = ⎜ ⎟
⎝0⎠ ⎝1 ⎠

A
(2,1)

(1,0)

Si en vez de puntos consideramos radio-vectores podemos representar la transformación


como:

De acuerdo a las operaciones básicas entre vectores, podemos ver que el vector x gira y se
alarga: el giro está dado por tan-1(½), mientras que la magnitud es ahora y = 3 x .
Podemos decir entonces que una matriz de nxn toma un radio-vector en Rn y lo transforma
en otro vector de Rn que está girado y alargado.

Consideremos ahora el caso:

101
⎛ 1⎞ ⎛ 3⎞
x = ⎜ ⎟ → y = Ax = ⎜ ⎟
⎝ 1⎠ ⎝ 3⎠

Nótese que el vector no gira, sólo se hace 3 veces más largo. El problema de eigenvalores
y eigenvectores (valores propios y vectores propios) consiste en encontrar los vectores que
no giran bajo una transformación (i.e., multiplicación por una matriz). El eigenvalor nos da
el cambio de longitud (nótese que si el eigenvalor es negativo se puede pensar en un giro de
π radianes o en una inversión).

∴ y = Ax = λ x, x ≠ 0 (0 → 0 , pues A0 = 0)

Buscamos entonces x tal que Ax = λ x = λ Ix , o equivalentemente: ( A − λ I ) x = 0 (*)

( A − λI ) existe ⇒ x = ( A − λ I ) 0 = 0 , i.e.,
−1 −1
Para resolver esto, notamos que si
( A − λI )
−1
obtenemos la solución trivial al problema. Por lo tanto, para que no exista
⇒ A − λI = 0 .

⎛2 1⎞ 2−λ 1
Ejemplo 2. A=⎜ ⎟, A − λ1 = =0
⎝1 2⎠ 1 2−λ

Del determinante obtenemos el polinomio característico:

(2 − λ ) − 1 = 4 − 4λ + λ 2 − 1 = λ 2 − 4λ + 3 = ( λ − 3)( λ − 1) = 0
2

⇒ λ = 3,1 son los eigenvalores (o valores propios).

Para encontrar el eigenvector asociado a λ utilizamos (*)

⎛2−3 1 ⎞ ⎛ x1 ⎞ ⎛ 0 ⎞ ⎛ −1 1 ⎞ ⎛ x1 ⎞ ⎛ 0 ⎞
Para λ = 3 : ⎜ ⎟ ⎜ ⎟=⎜ ⎟⇒⎜ ⎟⎜ ⎟ = ⎜ ⎟
⎝ 1 2 − 3 ⎠ ⎝ x2 ⎠ ⎝ 0 ⎠ ⎝ 1 −1⎠ ⎝ x2 ⎠ ⎝ 0 ⎠

⎛α ⎞
⇒ x1 = x2 ⇒ x = ⎜ ⎟ , i.e., cualquier escalar α satisface esta condición.
⎝α ⎠
Es conveniente construir eigenvectores cuya longitud sea 1, i.e., normalizar los
eigenvectores:

⎛ 1 ⎞
1 ⎜ 2 ⎟⎟
x = α 2 + α 2 = 2α = 1 ⇒ α = , ∴ para λ = 3, e1 = ⎜
2 ⎜ 1 ⎟
⎜ ⎟
⎝ 2⎠

102
⎛ 2 − 1 1 ⎞ ⎛ x1 ⎞ ⎛1 1⎞ ⎛ x1 ⎞ ⎛ 0 ⎞
Similarmente, para λ = 1: ⎜ ⎟⎜ ⎟ = ⎜ ⎟ ⎜ ⎟ = ⎜ ⎟ ⇒ x1 = − x2
⎝ 1 2 − 1⎠ ⎝ x2 ⎠ ⎝1 1⎠ ⎝ x2 ⎠ ⎝ 0 ⎠

⎛ −1 ⎞ ⎛ 1 ⎞
⎜ 2 ⎟⎟ ⎜ 2 ⎟⎟
eigenvector e 2 = ⎜ (Nótese que ⎜ también es eigenvector)
⎜ 1 ⎟ ⎜ −1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 2⎠ ⎝ 2⎠

Con los eigenvectores normalizados podemos construir la matriz modal si los acomodamos
por columnas, esto es:

⎛ 1 −1 ⎞
⎜ 2 2 ⎟⎟ ⎛ 3 0⎞
Q=⎜ ⇔ Λ=⎜ ⎟
⎜ 1 1 ⎟ ⎝0 1⎠
⎜ ⎟
⎝ 2 2⎠

Eigenvector Eigenvector
para λ = 3 para λ = 1

Gráficamente podemos representar esto como:

⎛ 2 1⎞
A=⎜ ⎟
⎝ 1 2⎠

no gira y se hace 3 veces más largo

vectores en esta línea no girarán y mantienen


su longitud

2.4.1 TEOREMAS SOBRE OPERADORES AUTOADJUNTOS.

I Si un operador L es auto-adjunto, entonces:


a) los eigenvalores λi son reales
b) los eigenvectores ei correspondientes a distintos eigenvalores son ortogonales.

Demostración.
Consideremos un par de eigenvalores λ j y sus correspondientes eigenvectores ej . De
acuerdo al problema general de eigenvalores Le j = λ j e j ; utilizando el producto interno
podemos establecer que:

103
( e , Le ) = ( e , λ e ) = λ ( e , e )
j j j j j j j j

( Le , e ) = ( λ e , e ) = λ ( e , e )
j j j j j j j j

Dado que L es auto-adjunto, podemos tomar la diferencia entre ambos productos internos
para establecer que:

( Le , e ) = ( e , L e ) = ( e , L e ) ⇒ 0 = ( λ
j j j
*
j j j j )
− λ j (ej , ej )

Puesto que e j ≠ 0, (e , e ) ≠ 0
j j ⇒ λ j = λ j , y los eigenvalores son reales.

Consideremos ahora el producto interno (e , e )


i j , y eigenvalores λi , λ j , (λ
i ≠ λj ) ,
Lei = λi ei .

( Le , e ) = ( λ e , e ) = λ ( e , e )
i j i i j i i j

( e , Le ) = ( e , λ e ) = λ ( e , e ) = λ ( e , e ) (eigenvalores reales)
i j i j j j i j j i j

Utilizando el carácter auto-adjunto del operador:

( Le , e ) − ( e , Le ) = 0 ⇒ 0 = ( λ − λ )( e , e )
i j i j i j i j

Si λi ≠ λ j ⇒ (e , e ) = 0
i j ∴ ei es ortogonal a ej .

II Para cualquier operador L auto-adjunto en un espacio con dimensiones finitas, se


pueden encontrar k eigenvectores ortogonales para un eigenvalor con multiplicidad
k.

∴ No importa si los eigenvalores son distintos o no, de cualquier manera los eigenvectores
son ortogonales.

III Los eigenvectores de cualquier operador auto-adjunto L en un espacio con


dimensiones finitas forman base.

∴ Construir eigenvectores ⇔ construir una base para el espacio con dimensiones finitas.

Nota: Un caso particular importante es el sistema de Sturm-Liouville en el espacio de


funciones ( dim = ∞ ) .

104
2.4.2 MÁS EJEMPLOS Y DEFINICIONES.

Ejemplo 3. Se puede demostrar mediante el problema general de eigenvalores que si:

⎛a b⎞
A=⎜ ⎟ , → λ1,2 = a ± b
⎝b a⎠

⎛ 2 0 0⎞
Ejemplo 4. Consideremos ahora Ax = λ x , con A = ⎜⎜ 0 1 1 ⎟⎟
⎜0 1 1⎟
⎝ ⎠

Nótese que A está separada por bloques; para este tipo de matrices podemos reconocer la
forma de los eigenvectores y eigenvalores. En particular, en este caso podemos esperar que
uno de los eigenvectores sea λ=2. Los bloques pueden visualizarse de la siguiente manera:

⎛2 0 0⎞ ⎛1 ⎞
⎜ ⎟ ⎜ ⎟.
A= ⎜ 0 1 1 ⎟ , λ1=2 , con eigenvector asociado ⎜ 0⎟
⎜ ⎟ ⎜ 0⎟
⎜0 1 1⎟ ⎝ ⎠
⎝ ⎠

Para verificar esto podemos utilizar la metodología usual:

2−λ 0 0
Ecuación característica: A − λ I = 0 = 0 1− λ 1
0 1 1− λ

( )
⇒ ( 2 − λ ) (1 − λ ) − 1 = ( 2 − λ ) ( λ 2 − 2λ ) = −λ ( 2 − λ ) = 0
2 2

λ1 = 0, λ2 = 2, λ3 = 2 ← valores repetidos.

Eigenvectores:

Para λ1=0:
⎛2−0 0 0 ⎞ ⎛ x1 ⎞ ⎛ 0 ⎞
2x = 0 → x1 = 0
( A − λ1I ) x = 0 → ⎜ 0 1 − 0 1 ⎟⎟ ⎜⎜ x2 ⎟⎟ = ⎜⎜ 0 ⎟⎟ → 1

⎜ 0 x2 + x3 = 0 → x3 = − x2
⎝ 1 1 − 0 ⎟⎠ ⎜⎝ x3 ⎟⎠ ⎜⎝ 0 ⎟⎠

105
⎛ ⎞
⎜0 ⎟
⎛0 ⎞ ⎛0 ⎞ ⎜ ⎟
⎜ ⎟ x 1 ⎜ ⎟ ⎜ 1 ⎟
x = ⎜ α ⎟ , e1 = = α =
⎜ −α ⎟ x.x 2α ⎜⎜ ⎟⎟ ⎜⎜ 2 ⎟⎟
⎝ ⎠ ⎝ −α ⎠
⎜ −1 ⎟
⎜ ⎟
⎝ 2⎠

⎛2−2 0 0 ⎞ ⎛ x1 ⎞ ⎛ 0 ⎞ ⎛β ⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
Para λ = 2 : ⎜ 0 1− 2 1 ⎟ ⎜ x2 ⎟ = ⎜ 0 ⎟ → − x2 + x3 = 0, x2 = x3 → x = ⎜ γ ⎟
⎜ 1 1 − 2 ⎠⎟ ⎝⎜ x3 ⎠⎟ ⎝⎜ 0 ⎠⎟ ⎜γ ⎟
⎝ 0 ⎝ ⎠

Nótese que se pueden encontrar 2 eigenvectores ortogonales y además ambos son


ortogonales a e1 . Podemos tomar:

⎛ ⎞
⎜0 ⎟
⎛1 ⎞ ⎜ ⎟
⎜ ⎟ ⎜ 1 ⎟
e2 = ⎜ 0 ⎟ , e3 = ⎜
⎜0⎟ ⎜ 2 ⎟⎟
⎝ ⎠
⎜ 1 ⎟
⎜ ⎟
⎝ 2⎠

⎛ ⎞ ⎛ ⎞
⎜0 ⎟ ⎜0 ⎟
⎛ 2 0 0⎞ ⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ 1 ⎟ ⎜ −1 ⎟
Por lo tanto, para A = ⎜ 0 1 1 ⎟ tenemos λ1 = 0, e1 = ⎜ , o bien ⎜ 2 ⎟;
⎜0 1 1⎟ ⎜ 2 ⎟⎟ ⎜ ⎟
⎝ ⎠
⎜ −1 ⎟ ⎜ 1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 2⎠ ⎝ 2⎠

⎛ ⎞
⎜0 ⎟
⎛1 ⎞ ⎜ ⎟
⎜ ⎟ , y finalmente ⎜ 1 ⎟
λ2 = 2, e 2 = ⎜ 0 ⎟ λ3 = 2, e3 = ⎜ ⎟.
⎜0⎟ ⎜ 2 ⎟
⎝ ⎠
⎜ 1 ⎟
⎜ ⎟
⎝ 2⎠
En este ejemplo puede verse la utilidad de reconocer o agrupar bloques dentro de una
matriz para obtener los eigenvalores. El bloque de un solo elemento da automáticamente el
eigenvalor (en este caso 2) y en este caso en particular, es fácil reconocer la forma que debe
tener el eigenvector asociado. El bloque de 2x2 es una matriz simétrica, y de acuerdo al
ejemplo3, los eigenvalores son 0 y 2.

106
Los eigenvalores de un matriz nos dan información sobre el determinante. En particular, en
el ejemplo 4 encontramos que λ1 = 0 . Esto implica que A-1 no existe dado
que A = λ1λ2 λ3 = 0 . Para matrices de 3x3, la ecuación característica puede escribirse
como:

λ 3 − I1λ 2 + I 2 λ − I 3 = 0 ,

en donde I1 , I 2 , I 3 son los invariantes de la matriz, dados por:

I1 ≡ tr ( A ) ( traza = a11 + a22 + a33 )


( )
1 a a12 a11 a13 a22 a23
I2 ≡ ( trA ) − trA 2 = 11 + +
2

2 a21 a22 a31 a33 a32 a33


a11 a12 a13
I 3 ≡ A = a21 a22 a23
a31 a32 a33
Si I3=0 se puede ver que λ 3 − I1λ 2 + I 2λ = λ ( λ 2 − I1λ + I 2 ) = 0 , lo que implica que uno de
los eigenvalores es cero.

Definiciones para operadores matriciales.


De acuerdo al problema de Eigenvalores Ax = λ x , donde A es el operador matricial, se
establece que una matriz es:

• positivamente definida si xT .Ax > 0 ∀x ≠ 0


• positivamente definida si λi > 0 i = 1, 2,...
• positivamente semi-definida si xT .Ax ≥ 0 ∀x ≠ 0
• positivamente semi-difinida si λi ≥ 0
• negativamente definida si xT Ax < 0 ∀x ≠ 0
• negativamente definida si λi < 0 i = 1, 2, ..
• negativamente semi-definida si xT Ax ≤ 0 ∀x ≠ 0
• negativamente semi-definida si λi ≤ 0 i = 1, 2,...

En el ejemplo anterior 4, A es positivamente semi-definida.

⎛ 1 1⎞
Ejemplo 5. Del ejemplo anterior podemos ver que para A = ⎜ ⎟ obtenemos:
⎝ 1 1⎠

107
⎛ 1 ⎞ ⎛ 1 ⎞
⎜ 2 ⎟ ⎜ 2 ⎟⎟
λ1 = 0, e1 = ⎜ ⎟ λ2 = 2, e2 = ⎜
⎜ 1 ⎟ ⎜ 1 ⎟
⎜− ⎟ ⎜ ⎟
⎝ 2⎠ ⎝ 2⎠

Con este resultado y agrupando por bloques podemos obtener también:

⎛1 0 1⎞ ⎛∆ ∆⎞
⎜ ⎟ ⎜ ⎟
A = ⎜ 0 2 0 ⎟ ⇒ tenemos 2 bloques ⎜ ⎟
⎜1 0 1⎟ ⎜∆ ∆ ⎟⎠
⎝ ⎠ ⎝

bloque 1x1 ⇒ ( 2 ) , λ = 2, e = (1)


⎛ 1 ⎞ ⎛ 1 ⎞
⎛ 1 1⎞ ⎜ 2 ⎟⎟ ⎜⎜ 2 ⎟⎟
bloque 2 x 2 → ⎜ ⎟ ⇒ λ = 0, 2 e = ⎜ ,
⎝ 1 1⎠ ⎜ −1 ⎟ ⎜ 1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 2⎠ ⎝ 2⎠

Los eigenvectores son entonces:

⎛ 1 ⎞ ⎛ 1 ⎞
⎜ 2⎟ ⎛0⎞ ⎜ 2⎟
⎜ ⎟ ⎜ ⎟
λ = 0, e1 = ⎜ 0 ⎟ ; λ = 2, e2 = ⎜⎜ 1 ⎟⎟ ; λ = 2, e3 = ⎜ 0 ⎟
⎜ −1 ⎟ ⎜0⎟ ⎜ 1 ⎟
⎜⎜ ⎟⎟ ⎝ ⎠ ⎜⎜ ⎟⎟
⎝ 2⎠ ⎝ 2⎠

⎛1 1 0 0⎞
⎜ ⎟
1 1 0 0⎟
Similarmente, si A = ⎜ obtenemos:
⎜0 0 1 1⎟
⎜⎜ ⎟
⎝0 0 1 1 ⎟⎠

⎛ 1 ⎞ ⎛ 0 ⎞ ⎛ 1 ⎞ ⎛ 0 ⎞
⎜ 2 ⎟ ⎜ ⎟ ⎜ 2⎟ ⎜ ⎟
⎜ ⎟ ⎜ 0 ⎟ ⎜ ⎟ ⎜ 0 ⎟
⎜ 1 ⎟ ⎜ 1 ⎟ ⎜ 1 ⎟ ⎜ 1 ⎟
λ1 = 0, e1 = ⎜ − ⎟ ; λ2 = 0, e 2 = ⎜ ⎟ ; λ3 = 2, e3 = ⎜ ⎟ ; λ4 = 2, e 4 = ⎜ ⎟
2 2
⎜ ⎟ ⎜ 2 ⎟ ⎜ ⎟ ⎜ 2⎟
⎜ 0 ⎟ ⎜ 1 ⎟ ⎜ 0 ⎟ ⎜ 1 ⎟
⎜ 0 ⎟ ⎜− ⎟ ⎜ 0 ⎟ ⎜ ⎟
⎝ ⎠ ⎝ 2⎠ ⎝ ⎠ ⎝ 2⎠

Los bloques pueden también encontrarse intercalados; por ejemplo, si:

108
⎛1 0 1 0⎞
⎜ ⎟
0 1 0 1⎟ ⎛ 1 1⎞
A=⎜ , tenemos 2 bloques intercalados de ⎜ ⎟.
⎜1 0 1 0⎟ ⎝ 1 1⎠
⎜⎜ ⎟
⎝0 1 0 1 ⎟⎠

2.4.3 DIAGONALIZACIÓN DE UNA MATRIZ, POTENCIAS, INVERSAS,


EXPONENCIALES, ETC.
T
Considerando operadores matriciales auto-adjuntos, i.e.: A* = A , el problema de
eigenvalores tiene la forma:

Ae = λe ⇒ λ1 , λ2 .., λn con eigenvectores e1 ,e2 , ...en


De acuerdo a los teoremas vistos anteriormente, los λ´s son reales y los eigenvectores son
ortogonales, o inclusive, pueden hacerse ortonormales, i.e.:

ei ⊥ e j , ei = 1 ⇒ ( e ,e ) = δ
i j ij

Además, los eigenvectores {e1 ,e 2 , ...,e n } forman base para Rn. Analicemos ahora la matriz
modal y la matriz diagonal de eigenvalores asociada, ambas definidas por:

⎛ λ1 0 " 0⎞
⎜ ⎟
0 λ2 " 0⎟
Q ≡ ( ( e1 ) ( e2 ) " ( en ) ) ⇔ Λ≡⎜
⎜# # % # ⎟
⎜⎜ ⎟
⎝0 0 " λn ⎟⎠

Se puede ver que la matriz modal es una matriz ortogonal, i.e., Q−1 = QT pues:

⎛ eo1 ⎞ ⎛ e1 ⋅ e1 e1 ⋅ e 2 " e1 ⋅ en ⎞ ⎛ 1 0 " 0⎞


⎜ ⎟ ⎜ ⎟
⎜ eo2 ⎟ e ⋅e e ⋅e " e 2 ⋅ e n ⎟ ⎜⎜ 0 1 " 0⎟

Q Q = ⎜ ⎟ ( ( e1 )( e2 ) ... ( en ) ) = ⎜ 2 1 2 2
T
=
⎜# ⎟ ⎜ # # % # ⎟ ⎜# # % #⎟
⎜ ⎟ ⎜ ⎟
⎜⎜ eo ⎟⎟ ⎜
⎝ e n ⋅ e1 e n ⋅ e 2 " en ⋅ en ⎠⎟ ⎝⎜ 0 0 " 1 ⎠⎟
⎝ n ⎠

Algunas propiedades útiles de una matriz ortogonal:

El determinante es ±1 → QT Q = I, QT Q = Q = 1, Q = ±1 .
2
(1)
(2) No cambia la longitud de vectores. Supongamos que

y = Qx, y = (y , y) =
T
xT QT Qx = xT x = x

109
Con esto vemos entonces que la matriz modal Q sólo gira vectores.

La matriz modal se puede utilizar para escribir en forma canónica la matriz A.


Consideremos el caso general:
 
⎛ e1 ⎞ ⎛ e1 ⎞
⎜ ⎟ ⎜ ⎟
QT AQ = ⎜# ⎟ ( A ) ( ( e1 ) ... ( en ) ) = ⎜# ⎟ ( ( Ae1 ) ... ( Aen ) )
⎜o⎟ ⎜o⎟
⎝ en ⎠ ⎝ en ⎠

⎛ e1 ⎞ ⎛ λ1 0 0 ⎞
⎜ ⎟ ⎜ ⎟
= ⎜# ⎟ ( ( λ1e1 ) ... ( λne n ) ) = ⎜ 0 λ2 0 ⎟ ≡ Λ
⎜o⎟ ⎜0 % λ ⎟
⎝ en ⎠ ⎝ n⎠

Pre-multiplicando por Q obtenemos:

Q QT AQ = QΛ
AQ = QΛ

Post-multiplicando por QT:

AQQT = QΛQT ⇒ A = QΛQT , y también: QT AQ = Λ

Expresar la matriz A en términos del producto de la matriz modal, la matriz diagonal de


eigenvalores y la matriz modal transpuesta es útil para realizar varias operaciones
matriciales de interés. Observemos que:

Ae = λe, A 2e = A( Ae) = λ Ae = λ 2e

⎛ 0⎞ ⎛0⎞
⎜ ⎟ ⎜ ⎟
⎜ 0⎟ ⎜0⎟
En general: A e = λ e . Nótese también que Aek = ( QΛQ ) ek = QΛ ⎜ 1 ⎟ = Q ⎜ λk ⎟ = λk ek
n n T

⎜ ⎟ ⎜ ⎟
⎜#⎟ ⎜ # ⎟
⎜ 0⎟ ⎜0⎟
⎝ ⎠ ⎝ ⎠

Si expresamos la matriz en términos de la matriz modal y la matriz diagonal de


eigenvalores:

A = QΛQT , → A 2 = (QΛQT )(QΛQT ) = QΛ 2QT


#
A = QΛ mQT
m

110
⎛ λ1m 0 " ⎞ 0
⎜ ⎟
0 λ m
" 0
Donde: Λ = ⎜
m 2 ⎟
⎜ 0 0 % ⎟ 0
⎜⎜ ⎟
⎝ 0 0 " λnm ⎟⎠

Algunos casos particulares interesantes:


⎛ 1 0 " 0 ⎞
⎜ λ1 ⎟
⎜ 1 ⎟
A −1 = ( QΛQT ) = ( QT ) Λ −1Q −1 = QΛ −1QT ,
−1 −1 −1
Λ =⎜
⎜ 0
λ2 " 0 ⎟

⎜ # # % # ⎟
⎜ 1 ⎟⎟
⎜ 0 0 "
⎝ λn ⎠
⎛ λ1 0 " 0 ⎞
⎜ ⎟
1 1 1
⎜ 0 λ2 " 0 ⎟
Si: A 2 ≡ QΛ 2 QT con Λ 2 ≡ ⎜ ⎟
⎜ # # % # ⎟
⎜ 0 0 " λn ⎟⎠

2
1 1 1
⎛ 1⎞ 1
Nótese que A ⋅ A = QΛ Q QΛ Q = Q ⎜ Λ 2 ⎟ QT = QΛQT = A
2 2 2 T 2 T

⎝ ⎠
En general, esta descomposición de la matriz A permite realizar cualquier operación
matricial manipulando únicamente la matriz diagonal de eigenvalores. Supongamos, por
ejemplo, que queremos evaluar 2 A 2 − 3A . Utilizando la descomposición se obtiene:

⎛ 2λ12 − 3λ1 " 0 ⎞


⎜ ⎟ T
2 A − 3A = 2QΛ Q − 3QΛQ = Q(2 Λ − 3Λ )Q = Q ⎜
2 2 T T 2 T
# % # ⎟Q
⎜ 0 " 2λn − 3λn ⎟⎠
2

De igual forma, podemos evaluar la matriz exponencial:

A2
e A
≡I+A+ + ...
2!

Utilizando la descomposición matricial:

Λ2 T ⎛ Λ2 ⎞
e A
= QIQT + QΛQT + Q Q +" = Q ⎜ I + Λ + + ... ⎟ QT
2 ⎝ 2 ⎠

111
⎛ eλ1 0 " 0 ⎞
⎜ λ2 ⎟
" 0 ⎟
≡⎜
0 e
⇒ e A = Q e Λ QT , e Λ
⎜ # # % 0 ⎟
⎜⎜ ⎟
⎝ 0 0 " eλn ⎟⎠

2.4.4 APLICACIONES.

⎛2 1⎞
a) Consideremos Ax = c, A=⎜ ⎟ . Para resolver este problema podemos:
⎝1 2⎠
1) Despejar x = A−1c (i.e., utilizar álgebra matricial).

2) Utilizar una “eigen-expansión”. Sabemos que Ae = λ e , y por la forma de la


matriz obtenemos:

⎛ 1 ⎞ ⎛ 1 ⎞
⎜− 2 ⎟ ⎜ 2⎟
λ1 = 1, e1 = ⎜ ⎟, λ2 = 3, e 2 = ⎜ ⎟
⎜ 1 ⎟ ⎜ 1 ⎟
⎜+ ⎟ ⎜ ⎟
⎝ 2⎠ ⎝ 2⎠
Nótese que la matriz es auto-adjunta y, por lo tanto, los eigenvectores son base ortonormal
(ON) para el espacio vectorial. Esto implica que podemos expresar cualquier otro vector
como una combinación lineal de ellos. Consideremos, por ejemplo:

c = ( c, e1 ) e1 + ( c, e 2 ) e 2 , x = α e1 + β e2

Si encontramos los coeficientes α y β del vector x podremos encontrar la solución del


problema. Expresando todo en términos de los eigenvectores obtenemos:

Ax = A (α e1 + β e 2 ) = α Ae1 + β Ae 2 = αλ1e1 + βλ2e 2

∴α =
( c, e1 ) β = ( c, e2 )
λ1 λ2
⎛ 1⎞ 1 1 2
Supongamos que c = ⎜ ⎟ , ⇒ ( c, e1 ) = 0, ( c, e2 ) = + = = 2
⎝ 1⎠ 2 2 2
⎛ 1 ⎞ ⎛1⎞
2 2⎜ 2 ⎟⎟ ⎜ 3 ⎟
Por lo tanto: α = 0, β = ⇒ x= ⎜ =⎜ ⎟
3 3 ⎜ 1 ⎟ ⎜1⎟
⎜ ⎟ ⎜ ⎟
⎝ 2 ⎠ ⎝3⎠

b) Consideremos el caso Ax = Λx + c , donde Λ es un escalar dado.

112
Podemos hacer de nuevo una eigen-expansión:

c = ∑ ( c, e k ) e k , x = ∑ α k e k , Ax = A ( ∑ α k e k ) = ∑ α k Ae k = ∑ α k λk e k

El sistema es entonces:

∑ α k λk e k − Λ ∑ α k e k − ∑ ( c, ek ) e k = 0
∑ ⎡⎣α k ( λk − Λ ) − ( c, e k ) ⎤⎦ e k = 0, con e1 , e 2 ,..., e n LI
⎡⎣α1 ( λ − Λ ) − ( c, e1 ) ⎤⎦ e1 + ⎡⎣α 2 ( λ2 − Λ ) − ( c, e 2 ) ⎤⎦ e 2 + ... + [ ] e n = 0

Puesto que los vectores base son LI, cada uno de los coeficientes tiene que ser cero. Si
Λ ≠ λk , k = 1, 2, ... , entonces:

αk =
( c, ek ) , x = ∑ α k ek
λk − Λ
Si Λ = λ j , [ ] e1 + ... + ⎡⎣α j ( λ1 − Λ ) − ( c, e j )⎤⎦ e j + ... + [ ] en = 0, ( c, e j ) e j = 0
En este caso, si ( c, e j ) ≠ 0 el sistema no tiene solución; si ( c, e j ) = 0 , se puede añadir a la
solución para cualquier valor de ℘, i.e.:

⇒x=∑
n
( c, ek ) e +℘e j
k =1 λk − Λ k

k≠ j

c) Consideremos un sistema masa-resorte en serie como se muestra en la figura. El


objetivo de estos problemas es generalmente encontrar los desplazamientos de las
masas. Nótese que el resorte que une a las dos masas (m) dará como resultado un
acoplamiento entre los dos desplazamientos x1 y x2, i.e., el modelo matemático de
este sistema será un sistema de ecuaciones acopladas.

k k k
m m

x1 x2

El comportamiento del sistema está descrito por:

mx1 = − kx1 − k ( x1 − x2 )
mx2 = − kx2 − k ( x2 − x1 )

113
Consideremos el caso k = m = 1 ; las ecuaciones son ahora:

x1 + 2 x1 − x2 = 0

x¨2 + 2 x2 − x1 = 0


Podemos expresar esto en forma matricial:

⎛ x1 ⎞ ⎛ 
x1 ⎞ ⎛ 2 −1⎞
 x = ⎜ ⎟ , con A = ⎜
x + Ax = 0, x = ⎜ ⎟ ,  ⎟
⎝ x2 ⎠ ⎝ x2 ⎠ ⎝ −1 2 ⎠

Nótese que el operador A es auto-adjunto y los eigenvalores y eigenvectores son:

⎛ 1 ⎞ ⎛ 1 ⎞
⎜ 2 ⎟⎟ ⎜ 2 ⎟
λ1 = 1, e1 = ⎜ , λ2 = 3, e1 = ⎜ ⎟
⎜ 1 ⎟ ⎜ 1 ⎟
⎜ ⎟ ⎜− ⎟
⎝ 2⎠ ⎝ 2⎠

Utilicemos la matriz modal para realizar un cambio de coordenadas. Consideremos


específicamente el cambio:

⎛ 1 1 ⎞
⎜ 2 2 ⎟⎟
x = Qx´, Q = ⎜
⎜ 1 1 ⎟
⎜ − ⎟
⎝ 2 2⎠

x = Qx
 ´ ⇒ Qx
´+ AQx´= 0

Pre-multiplicando por la matriz modal transpuesta: QT Qx ´+QT AQx´= 0 , pero


QT Q = I, QT AQ = Λ . El sistema se reduce entonces a 
x´+ Λx´= 0 . Esto puede
expresarse equivalentemente como:

x1´ + x1´ = 0, 
 x2´ + 3 x2´ = 0

Las soluciones son, respectivamente:

x1′ = A1 sen ( t + φ1 ) , x2′ = A2 sen ( 3 t + φ2 )


Regresando a las coordenadas originales obtenemos:

114
⎛ 1 1 ⎞
⎛ x1 ⎞ ⎜
⎜ 2 2 ⎟⎟ ⎛⎜ A1 sen ( t + φ1 ) ⎞

= Qx =
⎜ ⎟
( )
´
⎝ 2⎠
x ⎜ 1 1 ⎟ ⎜ A2 sen 3 t + φ2 ⎟
⎜ − ⎟⎝ ⎠
⎝ 2 2⎠

⎛ x1 ⎞ ⎛ sen ( t + φ1 ) ⎞ (
⎛ sen 3 t + φ2) ⎞
⎜ ⎟ = c1 ⎜⎜ ⎟⎟ + c2 ⎜⎜ ⎟
⎝ 2⎠
x ⎝ sen ( ) ⎠ ⎜ − sen 3 t + φ2
t + φ
⎝ ( ) ⎟⎟

El uso de la matriz modal desacopla el sistema de ecuaciones y la solución queda expresada


en términos de una combinación lineal de los modos normales, o equivalentemente, en
términos de las frecuencias naturales de oscilación del sistema.

115

También podría gustarte