Está en la página 1de 9

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA DEFENSA

UNIVERSIDAD NACIONAL EXPERIMENTAL DE LA FUERZA ARMADA

ASIGNATURA: ALGEBRA LINEAL

CARRERA: INGENIERÍA CIVIL

SEGUNDO SEMESTRE; SECCIÓN: 2S-1350-D1

Vectores y
Valores propios

Docente: Bachiller:

 Ramón Cañizales Yoelis Gutierrez C.I:30.088.592

Puerto Ordáz; noviembre 2020

1
 DEFINICIÓN DE VECTOR Y VALOR PROPIO

Un vector es un segmento de línea recta, con sentido, es decir, orientado dentro de un


plano euclidiano bidimensional o tridimensional. O lo que es lo mismo: un vector es un
elemento en un espacio vectorial.

Los vectores nos permiten representar cantidades físicas que no solo están equipadas
con intensidad, sino también con dirección como fuerza, velocidad o desplazamiento. Esta
característica de dirección distingue los tamaños de los vectores de los escalares.

Además, un vector se puede representar en un plano cartesiano mediante un conjunto de


coordenadas (x, y), o en un plano tridimensional (x, y, z). Los vectores generalmente se
representan mediante una flecha dibujada sobre el símbolo utilizado.

-VALOR PROPIO

Los vectores propios son vectores multiplicados por un valor propio en las
transformaciones lineales de una matriz. Los autovalores son constantes que multiplican
los autovectores en las transformaciones lineales de una matriz.

En otras palabras, los vectores propios traducen la información de la matriz original en


la multiplicación de valores y una constante. Los autovalores son aquellas constantes que
multiplican los autovectores y participan en la transformación lineal de la matriz original.

2. POLINOMIO CARACTERÍSTICO

El polinomio característico es un instrumento para determinar los valores propios de


una transformación lineal.

Dícese del polinomio de grado N resultante de la ecuación |A-xIN| donde A es la matriz


cuadrada asociada a la aplicación lineal T del mismo orden.

Las raíces reales de dicho polinomio mismo serán valores propios de T.

De ahí que los polinomios característicos sean medulares para la obtención de los
valores, subespacios y vectores propios de una aplicación lineal. También con ellos se
verifica la existencia de dichos valores lineales y de la diagonalizabilidad de la matriz.

2
 Ejemplo de Polinomio característico 2x2

𝟏 −𝟒
( )
𝟒 −𝟕

𝟏 −𝟒 𝟏 𝟎 𝟏 −⋋ −𝟒
( ) −⋋ ( )=( )
𝟒 −𝟕 𝟎 𝟏 𝟒 −𝟕 −⋋
𝟏 −⋋ −𝟒
= 𝒅𝒆𝒕 ( ) =⋋𝟐 + 𝟔 ⋋ +𝟗
𝟒 −𝟕 −⋋

𝟏 −𝟒
( ) =⋋𝟐 + 𝟔 ⋋ +𝟗
𝟒 −𝟕

3. CÁLCULO DEL VECTOR PROPIO CORRESPONDIENTE A UN VALOR PROPIO.

A medida que la Tierra rota, los vectores en el eje de rotación permanecen invariantes.
Si se considera la transformación lineal que sufre la Tierra tras una hora de rotación, una
flecha que partiera del centro de la Tierra al polo Sur geográfico sería un vector propio de
esta transformación, pero una flecha que partiera del centro a un punto del ecuador no
sería un vector propio. Dado que la flecha que apunta al polo no cambia de longitud por la
rotación, su valor propio es 1.

Otro ejemplo sería una lámina de metal que se expandiera uniformemente a partir de
un punto de tal manera que las distancias desde cualquier punto al punto fijo se
duplicasen. Esta expansión es una transformación con valor propio 2. Cada vector desde el
punto fijo a cualquier otro es un vector propio, y el espacio propio es el conjunto de todos
esos vectores.

Ejemplo

Considérese la matriz

𝟎 𝟏 −𝟏
𝑨=[ 𝟏 𝟏 𝟎]
−𝟏 𝟎 𝟏
que representa un operador lineal R³ → R³. Si se desea computar todos los valores
propios de A, se podría empezar determinando el polinomio característico:

3
−𝒙 𝟏 −𝟏
𝒑(𝒙) = 𝐝𝐞𝐭⁡(𝑨 − 𝒙𝑰) = 𝒅𝒆𝒕 | 𝟏 𝟏−𝒙 𝟎 |
−𝟏 𝟎 𝟏−𝒙
= −𝒙𝟑 + 𝟐𝒙𝟐 + 𝒙 − 𝟐
Y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1 y -1. El
teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface su propio
polinomio característico. Es decir

(𝑨 − 𝟐𝑰)(𝑨 − 𝑰)(𝑨 + 𝑰) = 𝟎
Efectivamente, para el caso del valor propio 2, se puede comprobar que

−𝟏 𝟏 −𝟏 𝟏 𝟏 −𝟏 𝟏 𝟏 −𝟏
(𝑨 − 𝟏)(𝑨 + 𝟏) = [ 𝟏 𝟎 𝟎 ][ 𝟏 𝟐 𝟎 ][ 𝟏 𝟏 −𝟏]
−𝟏 𝟎 𝟎 −𝟏 𝟎 𝟐 −𝟏 −𝟏 𝟏

de donde (1, 1, -1) es un vector propio asociado a 2.

𝟏 𝟐 𝟏
𝑨 = [ 𝟏 ] = [ 𝟐 ] = 𝟐[ 𝟏 ]
−𝟏 −𝟐 −𝟏

4. DIAGONALIZACION

Una matriz es diagonalizable si es cuadrada y la multiplicidad (la frecuencia con la que


aparece el autovalor en el polinomio característico, si es posible factorizarlo como
producto de binomios lineales) de los autovalores es igual a la dimensión del autovalor
que definen. "Diagonalizar una matriz" equivale a encontrar sus vectores y valores
propios. Tomemos la matriz:

𝟏 𝟐
𝑨=( )
𝟑 𝟐
𝟏 𝟐 𝟏 −⋋ 𝟐
𝑨=( ) → 𝒑(⋋) = 𝒅𝒆𝒕(𝑨 −⋋ 𝑰𝒏 ) = | |
𝟑 𝟐 𝟑 𝟐 −⋋
= (𝟏 −⋋)(𝟐 −⋋) − 𝟔 =⋋𝟐 − 𝟑 ⋋ −𝟒
Se aplica el teorema de Cayley-Hamilton:

4
𝒑(𝑨) = 𝟎 ⇒ 𝑨𝟐 − 𝟑𝑨 − 𝟒𝑰𝟐 = 𝟎 ⇒ 𝑨𝟐 = 𝟑𝑨 + 𝟒𝑰𝟐
Por ejemplo, vamos a calcular 𝐴2 para ver si se cumple:

𝟏 𝟐 𝟐 𝟏 𝟐 𝟏 𝟎 𝟕 𝟔 𝟕 𝟔
( ) = 𝟑( ) + 𝟒( )⇒( )=( )
𝟑 𝟐 𝟑 𝟐 𝟎 𝟏 𝟗 𝟏𝟎 𝟗 𝟏𝟎
Y veamos que es diagonalizable:

 Esta matriz tiene los valores propios:⋋𝟏 = −𝟏,⁡⁡⁡⁡⁡ ⋋𝟐 = 𝟒

⋋𝟐 − 𝟑 ⋋ −𝟒 = (⋋ +𝟏)(⋋ −𝟒) = 𝟎 ⇒⋋𝟏 = −𝟏⋀ ⋋𝟐 = 𝟒


 Así A es una matriz 2 por 2 con 2 valores propios diferentes, entonces se dice que
es diagonizable. Si queremos diagonalizar A necesitamos calcular los
correspondientes vectores propios. Ellos son:

𝟏 𝟐
 𝒗𝟏 = [ ],⁡⁡⁡⁡⁡𝒗𝟐 = [ ]
−𝟏 𝟑
Uno podría verificar fácilmente esto mediante:

𝑨𝒗𝒌 =⋋𝒌 𝒗𝒌

(𝑨 −⋋𝟏 𝑰𝟐 )𝑽𝟏 = 𝟎⋀(𝑨 −⋋𝟐 𝑰𝟐 )𝑽𝟐 = 𝟎


 Ahora, P es la matriz invertible con los vectores propios de A como columnas:

𝟑 −𝟐
𝟏 𝟐
𝑷=( ) ⁡𝒄𝒐𝒏⁡𝒊𝒏𝒗𝒆𝒓𝒔𝒂⁡𝑷𝟏 (𝟓 𝟓)
−𝟏 𝟑 𝟏 𝟏
𝟓 𝟓
 Hallemos ahora la matriz diagonal, usando esta matriz P como sigue:

𝑨 = 𝑷𝑫𝑷−𝟏 𝑨𝑷 = 𝑫
 Realizamos el cálculo introduciendo los datos:

𝟑 −𝟐 −𝟑 𝟐
𝑫 = (𝟓 𝟓 ) ( 𝟏 𝟐) ( 𝟏 𝟐) = ( 𝟓 𝟓) ( 𝟏 𝟐) = (−𝟏 𝟎
)
𝟏 𝟏 𝟑 𝟐 −𝟏 𝟑 𝟒 𝟒 −𝟏 𝟑 𝟎 𝟒
𝟓 𝟓 𝟓 𝟓

5
 Luego resulta que existen matrices P y D tales que

𝑨 = 𝑷𝑫𝑷−𝟏 los requisitos pedidos al principio, y por tanto la matriz A es diagonizable.

5. MATRICES SIMÉTRICAS Y ORTOGONALES

MATRIZ SIMETRICA

Una matriz es simétrica si es una matriz cuadrada que tiene la propiedad de ser igual a
su transpuesta. Una matriz de elementos nxm:

𝒂𝟏𝟏 𝒂𝟏𝟐 𝒂𝟏𝟑 … 𝒂𝟏𝒎


𝒂𝟐𝟏 𝒂𝟐𝟐 𝒂𝟐𝟑 … 𝒂𝟐𝒎
𝑨 = 𝒂𝟑𝟏 𝒂𝟑𝟐 𝒂𝟑𝟑 … 𝒂𝟑𝒎
⋮ ⋮ ⋮ ⋱ ⋮
[𝒂𝒏𝟏 𝒂𝒏𝟐 𝒂𝒏𝟑 … 𝒂𝒏𝒎 ]
Es simétrica, si es una matriz cuadrada (𝑚 = 𝑛)⁡𝑦⁡𝑎𝑖𝑗⁡ = 𝑎𝑗𝑖 ⁡ para todo i, j con i, j
=1,2,3,4,….n. Nótese que la simetría es respecto a la diagonal principal.

Ejemplo para n = 3:

−𝟖 −𝟏 𝟑
[−𝟏 𝟕 𝟒]
𝟑 𝟒 𝟗
A es también la matriz traspuesta de sí misma: 𝐴𝑡 = 𝐴. Esta última igualdad es una
definición alternativa de matriz simétrica. Las matrices simétricas son un caso particular
de las matrices hermíticas.

 Propiedades
1. La suma de dos matrices simétricas es una matriz simétrica.
2. El producto de dos matrices simétricas no siempre es simétrico.
3. Si A es una matriz simétrica pxp y B es una matriz pxq, entonces BTAB es simétrica.

Uno de los teoremas básicos que concierne este tipo de matrices es el teorema
espectral de dimensión finita, que dice que toda matriz simétrica cuyos elementos sean
reales es diagonalizable. En particular, es diagonalizable mediante una matriz ortogonal.

6
MATRIZ ORTOGONAL

Una matriz ortogonal es una matriz cuadrada con números reales que multiplicada por
su traspuesta (o transpuesta) es igual a la matriz Identidad. Es decir, se cumple la siguiente
condición:

𝑨. 𝑨𝒕 = 𝑨𝒕 . 𝑨 = 𝑰
Donde 𝐴⁡es una matriz ortogonal y 𝐴𝑡 representa su matriz traspuesta.

Para que esta condición se cumpla, las columnas y las filas de una matriz ortogonal
deben ser vectores unitarios ortogonales, o dicho de otra forma, tienen que formar una
base ortonormal. Por eso mismo algunos matemáticos también las denominan matrices
ortonormales.

 Ejemplo de una Matriz ortogonal 3x3

𝟎. 𝟖 𝟎. 𝟔 𝟎
𝑨 = −𝟎. 𝟔 𝟎. 𝟖 𝟎
𝟎 𝟎 𝟏
Se puede demostrar que es ortogonal multiplicando la matriz A por su traspuesta:

𝟎. 𝟖 𝟎. 𝟔 𝟎 𝟎. 𝟖 −𝟎. 𝟔 𝟎 𝟏 𝟎 𝟎
𝒕
𝑨. 𝑨 = (−𝟎. 𝟔 𝟎. 𝟖 𝟎) (𝟎. 𝟔 𝟎. 𝟖 𝟎) (𝟎 𝟏 𝟎)
𝟎 𝟎 𝟏 𝟎 𝟎 𝟏 𝟎 𝟎 𝟏
Como la solución es la matriz Unidad, se demuestra que A es una matriz ortogonal.

 Ejemplo de una Matriz ortogonal 2x2

𝟎 𝟏
𝑨=( )
−𝟏 𝟎
Se puede comprobar que es ortogonal calculando el producto por su traspuesta:

𝟎 𝟏 𝟎 −𝟏 𝟏 𝟎
𝑨. 𝑨𝒕 = ( ).( )=( )
−𝟏 𝟎 𝟏 𝟎 𝟎 𝟏
Como el resultado da la matriz Idéntica, se verifica que A es una matriz ortogonal.

7
6.TRANSFORMACIONES LINEALES

Las transformaciones lineales son funciones y tratan con k-espacios vectoriales


compatibles con la estructura (es decir, es decir, con el funcionamiento y la acción) de
estos espacios.

 Ejemplo de transformación Lineal

Demuestre que la transformación T : R2 →R2 definida por

𝒙 𝒙 + 𝟑𝒚
𝑻⁡⁡⁡⁡ [𝒚] = [ ]
𝒙 + 𝟐𝒚
es lineal.

𝒙𝟏 𝒙𝟐 𝒙 +𝒙
𝑻(𝒖 + 𝒗) = 𝑻 ([𝒚 ] + [𝒚 ]) = 𝑻 [𝒚𝟏 +𝒚𝟐 ]
𝟏 𝟐 𝟏 𝟐

(𝒙 𝒙𝟐 )+𝟑(𝒚𝟏 +𝒚𝟐 )
= [(𝒙 𝟏+ ]
𝟏 +𝒙𝟐 )+𝟐(𝒚𝟏 +𝒚𝟐 )

𝒙𝟏 + 𝟑𝒚𝟏 𝒙𝟐 + 𝟑𝒚𝟐
⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡= [ ]+[ ]
𝒙𝟏 + 𝟐𝒚𝟏 𝒙𝟐 + 𝟐𝒚𝟐
𝒙 𝒙𝟐
⁡⁡⁡= 𝑻 [ 𝟏 ] + 𝑻 [𝒚 ] = 𝑻(𝒖) + 𝑻(𝒗)
𝒚𝟏 𝟐

Por otro lado, para todo escalar c


𝒄𝒙𝟏
𝑻(𝒄𝒖) = 𝑻 [ ]
𝒄𝒚𝟏
𝒄𝒙𝟏 + 𝟑𝒄𝒚𝟏
⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡= [ ]
𝒄𝒙𝟏 + 𝟐𝒄𝒚𝟏
𝒙 + 𝟑𝒚𝟏
⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡= 𝒄 [ 𝟏 ]
𝒙𝟏 + 𝟐𝒚𝟏
𝒙𝟏
⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡= 𝒄𝑻 [𝒚 ]
𝟏

⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡= 𝒄𝑻(𝒖)

Como se cumplen las dos condiciones:

8
𝑻(𝒖 + 𝒗) ⁡⁡⁡⁡⁡ = ⁡⁡⁡⁡⁡𝑻(𝒖) + 𝑻(𝒗)

⁡⁡⁡⁡⁡⁡⁡𝑻(𝒄𝒖) ⁡⁡⁡⁡ = ⁡⁡⁡⁡⁡𝒄𝑻(𝒖)

T es lineal.
Una transformación lineal preserva combinaciones lineales.

 Ejemplo de transformación Lineal


Demuestre que la transformación T : R 3→R 2 es lineal:

𝑻[(𝒙, 𝒚, 𝒛)′] = (𝒙 + 𝒛, 𝒚 − 𝒛)′

𝑻[𝒖 + 𝒗] = 𝑻[(𝒙𝟏 + 𝒙𝟐, 𝒚𝟏 + 𝒚𝟐 , 𝒛𝟏 + 𝒛𝟐 )′]

⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡= ((𝒙𝟏 + 𝒙𝟐 ) + (𝒛𝟏 + 𝒛𝟐 ), (𝒚𝟏 + 𝒚𝟐 ) − (𝒛𝟏 + 𝒛𝟐 ))′

⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡= (𝒙𝟏 + 𝒛𝟏 , 𝒚𝟏 − 𝒛𝟏 )' + (𝒙𝟐 + 𝒛𝟐 , 𝒚𝟐 − 𝒛𝟐 )

= 𝑻[𝒖] + 𝑻[𝒗]
Por otro lado, para todo escalar c,

𝑻[𝒄. 𝒖] = ⁡⁡⁡𝑻[𝒄𝒙𝟏 , 𝒄𝒚𝟏 , 𝒄𝒛𝟏 ] = (𝒄𝒙𝟏 + 𝒄𝒛𝟏 , 𝒄𝒚𝟏 − 𝒄𝒛𝟏 )′

⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡= 𝒄. (𝒙𝟏 + 𝒛𝟏 , 𝒚𝟏− 𝒛𝟏 )' = 𝒄. 𝑻⁡[(𝒙𝟏, 𝒚𝟏 , 𝒛𝟏 )]

= 𝒄⁡. 𝑻⁡[𝒖]

También podría gustarte