Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Vectores y
Valores propios
Docente: Bachiller:
1
DEFINICIÓN DE VECTOR Y VALOR PROPIO
Los vectores nos permiten representar cantidades físicas que no solo están equipadas
con intensidad, sino también con dirección como fuerza, velocidad o desplazamiento. Esta
característica de dirección distingue los tamaños de los vectores de los escalares.
-VALOR PROPIO
Los vectores propios son vectores multiplicados por un valor propio en las
transformaciones lineales de una matriz. Los autovalores son constantes que multiplican
los autovectores en las transformaciones lineales de una matriz.
2. POLINOMIO CARACTERÍSTICO
De ahí que los polinomios característicos sean medulares para la obtención de los
valores, subespacios y vectores propios de una aplicación lineal. También con ellos se
verifica la existencia de dichos valores lineales y de la diagonalizabilidad de la matriz.
2
Ejemplo de Polinomio característico 2x2
𝟏 −𝟒
( )
𝟒 −𝟕
𝟏 −𝟒 𝟏 𝟎 𝟏 −⋋ −𝟒
( ) −⋋ ( )=( )
𝟒 −𝟕 𝟎 𝟏 𝟒 −𝟕 −⋋
𝟏 −⋋ −𝟒
= 𝒅𝒆𝒕 ( ) =⋋𝟐 + 𝟔 ⋋ +𝟗
𝟒 −𝟕 −⋋
𝟏 −𝟒
( ) =⋋𝟐 + 𝟔 ⋋ +𝟗
𝟒 −𝟕
A medida que la Tierra rota, los vectores en el eje de rotación permanecen invariantes.
Si se considera la transformación lineal que sufre la Tierra tras una hora de rotación, una
flecha que partiera del centro de la Tierra al polo Sur geográfico sería un vector propio de
esta transformación, pero una flecha que partiera del centro a un punto del ecuador no
sería un vector propio. Dado que la flecha que apunta al polo no cambia de longitud por la
rotación, su valor propio es 1.
Otro ejemplo sería una lámina de metal que se expandiera uniformemente a partir de
un punto de tal manera que las distancias desde cualquier punto al punto fijo se
duplicasen. Esta expansión es una transformación con valor propio 2. Cada vector desde el
punto fijo a cualquier otro es un vector propio, y el espacio propio es el conjunto de todos
esos vectores.
Ejemplo
Considérese la matriz
𝟎 𝟏 −𝟏
𝑨=[ 𝟏 𝟏 𝟎]
−𝟏 𝟎 𝟏
que representa un operador lineal R³ → R³. Si se desea computar todos los valores
propios de A, se podría empezar determinando el polinomio característico:
3
−𝒙 𝟏 −𝟏
𝒑(𝒙) = 𝐝𝐞𝐭(𝑨 − 𝒙𝑰) = 𝒅𝒆𝒕 | 𝟏 𝟏−𝒙 𝟎 |
−𝟏 𝟎 𝟏−𝒙
= −𝒙𝟑 + 𝟐𝒙𝟐 + 𝒙 − 𝟐
Y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1 y -1. El
teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface su propio
polinomio característico. Es decir
(𝑨 − 𝟐𝑰)(𝑨 − 𝑰)(𝑨 + 𝑰) = 𝟎
Efectivamente, para el caso del valor propio 2, se puede comprobar que
−𝟏 𝟏 −𝟏 𝟏 𝟏 −𝟏 𝟏 𝟏 −𝟏
(𝑨 − 𝟏)(𝑨 + 𝟏) = [ 𝟏 𝟎 𝟎 ][ 𝟏 𝟐 𝟎 ][ 𝟏 𝟏 −𝟏]
−𝟏 𝟎 𝟎 −𝟏 𝟎 𝟐 −𝟏 −𝟏 𝟏
𝟏 𝟐 𝟏
𝑨 = [ 𝟏 ] = [ 𝟐 ] = 𝟐[ 𝟏 ]
−𝟏 −𝟐 −𝟏
4. DIAGONALIZACION
𝟏 𝟐
𝑨=( )
𝟑 𝟐
𝟏 𝟐 𝟏 −⋋ 𝟐
𝑨=( ) → 𝒑(⋋) = 𝒅𝒆𝒕(𝑨 −⋋ 𝑰𝒏 ) = | |
𝟑 𝟐 𝟑 𝟐 −⋋
= (𝟏 −⋋)(𝟐 −⋋) − 𝟔 =⋋𝟐 − 𝟑 ⋋ −𝟒
Se aplica el teorema de Cayley-Hamilton:
4
𝒑(𝑨) = 𝟎 ⇒ 𝑨𝟐 − 𝟑𝑨 − 𝟒𝑰𝟐 = 𝟎 ⇒ 𝑨𝟐 = 𝟑𝑨 + 𝟒𝑰𝟐
Por ejemplo, vamos a calcular 𝐴2 para ver si se cumple:
𝟏 𝟐 𝟐 𝟏 𝟐 𝟏 𝟎 𝟕 𝟔 𝟕 𝟔
( ) = 𝟑( ) + 𝟒( )⇒( )=( )
𝟑 𝟐 𝟑 𝟐 𝟎 𝟏 𝟗 𝟏𝟎 𝟗 𝟏𝟎
Y veamos que es diagonalizable:
𝟏 𝟐
𝒗𝟏 = [ ],𝒗𝟐 = [ ]
−𝟏 𝟑
Uno podría verificar fácilmente esto mediante:
𝑨𝒗𝒌 =⋋𝒌 𝒗𝒌
𝟑 −𝟐
𝟏 𝟐
𝑷=( ) 𝒄𝒐𝒏𝒊𝒏𝒗𝒆𝒓𝒔𝒂𝑷𝟏 (𝟓 𝟓)
−𝟏 𝟑 𝟏 𝟏
𝟓 𝟓
Hallemos ahora la matriz diagonal, usando esta matriz P como sigue:
𝑨 = 𝑷𝑫𝑷−𝟏 𝑨𝑷 = 𝑫
Realizamos el cálculo introduciendo los datos:
𝟑 −𝟐 −𝟑 𝟐
𝑫 = (𝟓 𝟓 ) ( 𝟏 𝟐) ( 𝟏 𝟐) = ( 𝟓 𝟓) ( 𝟏 𝟐) = (−𝟏 𝟎
)
𝟏 𝟏 𝟑 𝟐 −𝟏 𝟑 𝟒 𝟒 −𝟏 𝟑 𝟎 𝟒
𝟓 𝟓 𝟓 𝟓
5
Luego resulta que existen matrices P y D tales que
MATRIZ SIMETRICA
Una matriz es simétrica si es una matriz cuadrada que tiene la propiedad de ser igual a
su transpuesta. Una matriz de elementos nxm:
Ejemplo para n = 3:
−𝟖 −𝟏 𝟑
[−𝟏 𝟕 𝟒]
𝟑 𝟒 𝟗
A es también la matriz traspuesta de sí misma: 𝐴𝑡 = 𝐴. Esta última igualdad es una
definición alternativa de matriz simétrica. Las matrices simétricas son un caso particular
de las matrices hermíticas.
Propiedades
1. La suma de dos matrices simétricas es una matriz simétrica.
2. El producto de dos matrices simétricas no siempre es simétrico.
3. Si A es una matriz simétrica pxp y B es una matriz pxq, entonces BTAB es simétrica.
Uno de los teoremas básicos que concierne este tipo de matrices es el teorema
espectral de dimensión finita, que dice que toda matriz simétrica cuyos elementos sean
reales es diagonalizable. En particular, es diagonalizable mediante una matriz ortogonal.
6
MATRIZ ORTOGONAL
Una matriz ortogonal es una matriz cuadrada con números reales que multiplicada por
su traspuesta (o transpuesta) es igual a la matriz Identidad. Es decir, se cumple la siguiente
condición:
𝑨. 𝑨𝒕 = 𝑨𝒕 . 𝑨 = 𝑰
Donde 𝐴es una matriz ortogonal y 𝐴𝑡 representa su matriz traspuesta.
Para que esta condición se cumpla, las columnas y las filas de una matriz ortogonal
deben ser vectores unitarios ortogonales, o dicho de otra forma, tienen que formar una
base ortonormal. Por eso mismo algunos matemáticos también las denominan matrices
ortonormales.
𝟎. 𝟖 𝟎. 𝟔 𝟎
𝑨 = −𝟎. 𝟔 𝟎. 𝟖 𝟎
𝟎 𝟎 𝟏
Se puede demostrar que es ortogonal multiplicando la matriz A por su traspuesta:
𝟎. 𝟖 𝟎. 𝟔 𝟎 𝟎. 𝟖 −𝟎. 𝟔 𝟎 𝟏 𝟎 𝟎
𝒕
𝑨. 𝑨 = (−𝟎. 𝟔 𝟎. 𝟖 𝟎) (𝟎. 𝟔 𝟎. 𝟖 𝟎) (𝟎 𝟏 𝟎)
𝟎 𝟎 𝟏 𝟎 𝟎 𝟏 𝟎 𝟎 𝟏
Como la solución es la matriz Unidad, se demuestra que A es una matriz ortogonal.
𝟎 𝟏
𝑨=( )
−𝟏 𝟎
Se puede comprobar que es ortogonal calculando el producto por su traspuesta:
𝟎 𝟏 𝟎 −𝟏 𝟏 𝟎
𝑨. 𝑨𝒕 = ( ).( )=( )
−𝟏 𝟎 𝟏 𝟎 𝟎 𝟏
Como el resultado da la matriz Idéntica, se verifica que A es una matriz ortogonal.
7
6.TRANSFORMACIONES LINEALES
𝒙 𝒙 + 𝟑𝒚
𝑻 [𝒚] = [ ]
𝒙 + 𝟐𝒚
es lineal.
𝒙𝟏 𝒙𝟐 𝒙 +𝒙
𝑻(𝒖 + 𝒗) = 𝑻 ([𝒚 ] + [𝒚 ]) = 𝑻 [𝒚𝟏 +𝒚𝟐 ]
𝟏 𝟐 𝟏 𝟐
(𝒙 𝒙𝟐 )+𝟑(𝒚𝟏 +𝒚𝟐 )
= [(𝒙 𝟏+ ]
𝟏 +𝒙𝟐 )+𝟐(𝒚𝟏 +𝒚𝟐 )
𝒙𝟏 + 𝟑𝒚𝟏 𝒙𝟐 + 𝟑𝒚𝟐
= [ ]+[ ]
𝒙𝟏 + 𝟐𝒚𝟏 𝒙𝟐 + 𝟐𝒚𝟐
𝒙 𝒙𝟐
= 𝑻 [ 𝟏 ] + 𝑻 [𝒚 ] = 𝑻(𝒖) + 𝑻(𝒗)
𝒚𝟏 𝟐
= 𝒄𝑻(𝒖)
8
𝑻(𝒖 + 𝒗) = 𝑻(𝒖) + 𝑻(𝒗)
T es lineal.
Una transformación lineal preserva combinaciones lineales.
= 𝑻[𝒖] + 𝑻[𝒗]
Por otro lado, para todo escalar c,
= 𝒄. 𝑻[𝒖]