Documentos de Académico
Documentos de Profesional
Documentos de Cultura
En varios hilos de los foros están apareciendo preguntas relativas a cómo obtener los
subespacios invariantes de una aplicación lineal, en especial los planos invariantes de
una aplicación lineal de R⁴. Bien, voy a intentar explicar en este post cuál es la lógica
con un análisis cuidadoso (ya que queréis ser matemáticos debéis entender las cosas y
no solo conocer la receta de cómo hacerlo). Cualquier cosa me la preguntáis.
Voy a asumir que estamos en R, en C la cosa es más sencilla por ser algebraicamente
cerrado. En otros cuerpos no algebraicamente cerrados pues será análogo a lo que
pasa con R.
Recordad que todo esto es para una aplicación lineal A, para aplicaciones afines es un
poco distinto. Pero hay que entender perfectamente lo que pasa con las aplicaciones
lineales antes de pasar a las afines. Por tanto cuando hablo de subespacios invariantes
me refiero a subespacios vectoriales del espacio vectorial Rn.
Después están las rectas invariantes (dim=1). Esto corresponde al subespacio generado
por los autovectores. Aunque parece sencillo prestad atención pues quizá diga algo
que no sabéis. Primero observemos el polinomio característico de A, p(A). Este
polinomio tiene n raíces complejas (por ser C algebraicamente cerrado), contadas las
raíces con multiplicidad. Puede que algunas de estas raíces no sean reales, pero si no
son reales tienen que venir en pares conjugados pues al final tiene que salir un
polinomio con coeficientes reales. Por tanto las raíces reales de p(A) contadas con su
multiplicidad puede ser menor que n. Cada raíz real va a dar necesariamente un al
menos un autovector (o mejor dicho una dirección de autovectores). Pero las raíces
complejas dan autovectores con coeficientes en Cn donde no todos los coeficientes
están en R, por tanto no son autovectores de Rn, diremos que estos autovalores no
tienen autovectores y por tanto no dan rectas invariantes.
OK, nos quedamos con los autovectores correspondientes a autovalores reales, pero
¿cuántas direcciones de autovectores distintas hay? Aquí las cosas se ponen más
interesantes. Supongamos que tenemos una base en la que la matriz A tiene la forma
canónica de Jordán.
y que la base en la que está expresada A es la canónica {e0, e1, e2} por
simplificar notación. Pues bien, e0, e1 y e2 son direcciones de autovectores,
pero ¡no son las únicas! cualquier combinación de e0 y e1 también es un
autovector y dará una recta invariante ¿Hay más? NO, por ejemplo e1+e2 se
transforma por A en e1+2e2 que tiene otra dirección.
1 0 0 0
1 1 0 0
0 0 2 0
0 0 1 2
1 0 0 0
1 1 0 0
0 0 1 0
0 0 1 1
Para los hiperplanos invariantes (dim=n-1) sencillamente hay que buscar los
autovectores (a1, ... , an) por la izquierda (o los autovectores de la traspuesta) y cada
uno de ellos da un hiperplano invariante con ecuación a1·x1+...+an·xn=0. Podemos
aplicar toda la discusión anterior para encontrar los autovectores de AT.
Subespacios invariantes de dim 2
Ahora llegamos a la parte interesante de verdad. Vamos a tener que analizar cierta
casuística. Para subespacios invariantes de dim=3 o más (que no son hiperplanos) la
casuística aumenta sustancialmente, pero el análisis de este apartado nos debería dar
las pistas para poder hacerlo si de verdad nos interesa.
(b) la aplicación es diagonalizable y por tanto hay dos autovalores (pueden ser iguales)
con sus respectivos autovectores (o dirección de autovectores).
Con esto en mente ahora podemos enumerar todos los subespacios invariantes de dim 2:
1 0 0 0
1 1 0 0
0 0 1 0
0 0 0
2
Pero ¿podría haber más autovectores v=a·e1+b·e2 tales que existe w que
verifica que v=(A-a·Id)w? o dicho de otra forma ¿existe w∈ (A-Id)-1(a·e1 +b·e2 )?
en realidad A-Id es singular así que tomemos esta última expresión más bien
como la inversa de una aplicación y no la inversa de una matriz. En fácil
comprobar que solo existe w cuando b=0 por tanto la respuesta es NO. En el
caso del ejemplo, sencillamente hay que hacer el producto matricial
0 0 0 0 0
1 0 0 0
· · ·
3 ·
0 0 0 0 0
0 0 0
3
3
Uno podría preguntarse ¿por qué se busca w tal que v=(A-a·Id)w donde a es
autovalor de u? En el caso del ejemplo, ¿porqué no se contempla la posibilidad
de buscar w tal que A·w=c·w+v donde c≠1, es decir (A-c·Id)·w=v con c≠1?. En
este caso, <v, w> es un plano invariante pues
A·v=v∈ <v, w> y A·w=c·w+v∈ <v, w> , ¿no? En este caso lo que ocurre es que el
plano <v,w> es efectivamente invariante pero hay un autovector con autovalor
c≠1 y por tanto estamos en el caso anterior. Concretamente w+v/(c-1) es
autovector:
A·(w+v/(c-1)) = A(w)+A·v/(c-1)= c·w+v+v/(c-1)=c·w+v·c/(c-1)=c·(w+v/(c-1)).