Está en la página 1de 4

OBTENCIÓN DE SUBESPACIOS INVARIANTES

En varios hilos de los foros están apareciendo preguntas relativas a cómo obtener los
subespacios invariantes de una aplicación lineal, en especial los planos invariantes de
una aplicación lineal de R⁴. Bien, voy a intentar explicar en este post cuál es la lógica
con un análisis cuidadoso (ya que queréis ser matemáticos debéis entender las cosas y
no solo conocer la receta de cómo hacerlo). Cualquier cosa me la preguntáis.

Voy a asumir que estamos en R, en C la cosa es más sencilla por ser algebraicamente
cerrado. En otros cuerpos no algebraicamente cerrados pues será análogo a lo que
pasa con R.

Recordad que todo esto es para una aplicación lineal A, para aplicaciones afines es un
poco distinto. Pero hay que entender perfectamente lo que pasa con las aplicaciones
lineales antes de pasar a las afines. Por tanto cuando hablo de subespacios invariantes
me refiero a subespacios vectoriales del espacio vectorial Rn.

Subespacios invariantes de dim 0, dim 1, dim n-1, dim n.


Estos son los sencillos. Hay dos subespacios triviales, el origen (dim=0) y el total (dim=
n).

Después están las rectas invariantes (dim=1). Esto corresponde al subespacio generado
por los autovectores. Aunque parece sencillo prestad atención pues quizá diga algo
que no sabéis. Primero observemos el polinomio característico de A, p(A). Este
polinomio tiene n raíces complejas (por ser C algebraicamente cerrado), contadas las
raíces con multiplicidad. Puede que algunas de estas raíces no sean reales, pero si no
son reales tienen que venir en pares conjugados pues al final tiene que salir un
polinomio con coeficientes reales. Por tanto las raíces reales de p(A) contadas con su
multiplicidad puede ser menor que n. Cada raíz real va a dar necesariamente un al
menos un autovector (o mejor dicho una dirección de autovectores). Pero las raíces
complejas dan autovectores con coeficientes en Cn donde no todos los coeficientes
están en R, por tanto no son autovectores de Rn, diremos que estos autovalores no
tienen autovectores y por tanto no dan rectas invariantes.

OK, nos quedamos con los autovectores correspondientes a autovalores reales, pero
¿cuántas direcciones de autovectores distintas hay? Aquí las cosas se ponen más
interesantes. Supongamos que tenemos una base en la que la matriz A tiene la forma
canónica de Jordán.

• Ahora supongamos que la aplicación lineal es diagonalizable (en R) y por tanto


la matriz es diagonal. Supongamos que algunas de las entradas de la diagonal
se repiten, por ejemplo
1 0 0
0 1 0 
0 0 2

y que la base en la que está expresada A es la canónica {e0, e1, e2} por
simplificar notación. Pues bien, e0, e1 y e2 son direcciones de autovectores,
pero ¡no son las únicas! cualquier combinación de e0 y e1 también es un
autovector y dará una recta invariante ¿Hay más? NO, por ejemplo e1+e2 se
transforma por A en e1+2e2 que tiene otra dirección.

• Ahora supongamos que A no es diagonal, pero cada autovalor distinto tiene


una única caja de Jordán. Por ejemplo

1 0 0 0
1 1 0 0
 
0 0 2 0
0 0 1 2

En este caso, e1 y e3 son autovectores y generan dos rectas invariantes <e1> y


<e3> y ¡no hay más! En este caso las combinaciones de a·e0 + b·e1 no son
autovectores para a≠0 y b≠0. Este punto es muy importante y hay que tenerlo
claro!!

• Finalmente supongamos que A no es diagonal y que algún autovalor tiene más


de una caja de Jordan. Por ejemplo

1 0 0 0
1 1 0 0
 
0 0 1 0
0 0 1 1

En este caso, e1 y e3 también son autovectores y generan dos rectas invariantes


<e1> y <e3> y ¡pero hay más! Cualquier combinación lineal de e1 y e3 genera

invariantes: <a·e1+b·e3> para a y b ∈ R. Ahora hay que convencerse de que no


otro vector y por tanto otra recta invariante, por tanto hay un haz de rectas

hay más, un poco de reflexión debería convencernos de que así es.

Y ya está, esos son todos los casos.

Para los hiperplanos invariantes (dim=n-1) sencillamente hay que buscar los
autovectores (a1, ... , an) por la izquierda (o los autovectores de la traspuesta) y cada
uno de ellos da un hiperplano invariante con ecuación a1·x1+...+an·xn=0. Podemos
aplicar toda la discusión anterior para encontrar los autovectores de AT.
Subespacios invariantes de dim 2
Ahora llegamos a la parte interesante de verdad. Vamos a tener que analizar cierta
casuística. Para subespacios invariantes de dim=3 o más (que no son hiperplanos) la
casuística aumenta sustancialmente, pero el análisis de este apartado nos debería dar
las pistas para poder hacerlo si de verdad nos interesa.

Si una aplicación lineal deja invariante un plano de dimensión 2, entonces la


restricción a ese plano es en si mismo una aplicación lineal en R2. Los autovalores de
esta restricción podemos dividirlo en tres grupos que corresponden a lo que hemos
visto en el apartado anterior:

(a) hay dos autovalores complejos conjugados.

(b) la aplicación es diagonalizable y por tanto hay dos autovalores (pueden ser iguales)
con sus respectivos autovectores (o dirección de autovectores).

(c) la aplicación no es diagonalizable y como estamos en un espacio de dim 2 la única


posibilidad es que haya una única caja de Jordan de 2x2 correspondiente a un
autovalor (real).

Con esto en mente ahora podemos enumerar todos los subespacios invariantes de dim 2:

• Cada pareja de autovalores complejos conjugados define un subespacio


invariante de dim=2, la aplicación lineal actúa en ese subespacio rotando y
expandiendo o contrayendo el subespacio (eso depende del módulo y el
argumento de los números complejos).
• Cada pareja de autovectores con distinta dirección define un subespacio
invariante. Aquí hay que tener en cuenta lo dicho en (3.) del apartado anterior.
Cada caja de Jordan nos da una única dirección de autovectores, digamos que
son los autovectores iniciales, pero si hay varias cajas de Jordan de un mismo
autovalor entonces cualquier combinación lineal de estos autovectores iniciales
también es un autovector.
Si tenemos

1 0 0 0
1 1 0 0
 
0 0 1 0
0 0 0
2

, entonces e1 y e2 son autovectores iniciales del autovalor 1, y e3 autovector del


autovalor -2. En este caso tenemos todo un haz de autovectores a·e1+b·e2 (o
direcciones distintas de autovectores) más el autovector e3. Por tanto, como
subespacios invariantes de dim=2 que tengan dos autovectores tendremos: (a)
todo el haz <a·e1+b·e2, e3> y (b) <e1, e2>.

• Dado un autovector “v” con autovalor “a” correspondiente a una caja de


Jordan de tamaño 2 o más, y un vector “w” que está por encima de v en su
cadena de Jordan (es decir, v=(A-a·Id)w ), entonces <w,v> es un subespacio
invariante de dim=2. En la matriz del punto anterior, este caso correspondería a
<e0,e1>. El vector e1 es el autovector y (A-Id)e0=e1. Pero no hemos acabado aún,
< e0+λ·e1+μ·e2 , e1 > para cualquier λ, μ reales son también planos invariantes.
Es decir, hemos sumado a e0 cualquier autovector con autovalor 1: λ·e1+μ·e2. Y
claro, esto es así porque los autovectores del autovalor 1 pertenecen al núcleo
de (A-Id), es decir

(A-Id)(e0+ λ ·e1+ μ ·e2)= (A-Id)(e0)+(A-Id)( λ ·e1+ μ ·e2)=(A-Id)(e0)+0=e1

Pero ¿podría haber más autovectores v=a·e1+b·e2 tales que existe w que
verifica que v=(A-a·Id)w? o dicho de otra forma ¿existe w∈ (A-Id)-1(a·e1 +b·e2 )?
en realidad A-Id es singular así que tomemos esta última expresión más bien
como la inversa de una aplicación y no la inversa de una matriz. En fácil
comprobar que solo existe w cuando b=0 por tanto la respuesta es NO. En el
caso del ejemplo, sencillamente hay que hacer el producto matricial

0 0 0 0  0
1 0 0 0  

  ·     ·         · 
3 · 
0 0 0 0  0
0 0 0
3 
3

Es decir, que ya hemos encontrado todos los subespacios invariantes de este


tipo con dim=2. Este ejemplo es el mismo que aparece en el libro en la página
175-177, es decir la solución al ejercicio 7.4 del libro, por el que habéis
preguntado.

Uno podría preguntarse ¿por qué se busca w tal que v=(A-a·Id)w donde a es
autovalor de u? En el caso del ejemplo, ¿porqué no se contempla la posibilidad
de buscar w tal que A·w=c·w+v donde c≠1, es decir (A-c·Id)·w=v con c≠1?. En
este caso, <v, w> es un plano invariante pues
A·v=v∈ <v, w> y A·w=c·w+v∈ <v, w> , ¿no? En este caso lo que ocurre es que el
plano <v,w> es efectivamente invariante pero hay un autovector con autovalor
c≠1 y por tanto estamos en el caso anterior. Concretamente w+v/(c-1) es
autovector:
A·(w+v/(c-1)) = A(w)+A·v/(c-1)= c·w+v+v/(c-1)=c·w+v·c/(c-1)=c·(w+v/(c-1)).

También podría gustarte