Está en la página 1de 309

ÁLGEBRA LINEAL

Volumen 2
Capı́tulos III & IV

José F. Fernando
J. Manuel Gamboa
Jesús M. Ruiz

Universidad Complutense de Madrid

g = f − λ IdE , N = k ker(g k )
S
 
Nk+1 Nk ,→ Nk Nk−1 : [u] 7→ [g(u)]
BJ = { . . . , uk` , g(uk` ), . . . , g ν−k (uk` ), . . . } ⊂ N
.. .. ..
 
 . . . 
··· λ 0 0 ···
Mf |N (BJ ) = 
··· 1
 λ

0 ···

= J(λ)
··· 0 1 λ ···
.. .. ..
. . .
Prefacio

Este libro es el segundo volumen del curso de Álgebra Lineal cuyo primer
volumen dedicamos a los conceptos fundamentales. En éste desarrollamos los
primeros resultados importantes que resuelven mediante invariantes problemas
básicos de clasificación. El volumen consta de los dos capı́tulos siguientes:

Capı́tulo III. Clasificación de endomorfismos.

Capı́tulo IV. Formas bilineales y formas cuadráticas.

En el capı́tulo III se resuelve el problema más importante, por su dificul-


tad y por su utilidad: el de clasificación de endomorfismos, o si se quiere, el
de clasificación de matrices por semejanza, mediante formas de Jordan. El
capı́tulo IV está dedicado a las formas bilineales, y los problemas de clasifi-
cación correspondientes son: (i) el de formas bilineales simétricas (o formas
cuadráticas, o matrices simétricas por congruencia), y (ii) el de formas bi-
lineales antisimétricas (o matrices antisimétricas por congruencia). Un caso
particular de las primeras lo constituyen los productos escalares, que condu-
cen a la noción de norma y espacio real euclı́deo, y a nuevos problemas de
clasificación: (i) de endomorfismos ortogonales, que es una forma especial de
semejanza de matrices, y (ii) de endomorfismos autoadjuntos, en el que se mez-
clan semejanza y congruencia de matrices. Finalmente, dedicamos una lección
a las formas sesquilineales y a los espacios hermı́ticos complejos.
Este volumen tiene la misma estructura y organización que el anterior:
5 secciones por capı́tulo, 15 problemas al final de cada sección (algunos más

difı́ciles señalados con un ), 50 cuestiones al final de cada capı́tulo, y todas las
soluciones en un apéndice. Ası́mismo hay una breve bibliografı́a, una tabla de
sı́mbolos, y un ı́ndice terminológico. Sin embargo, aunque no por su estructura,
debemos distinguir este volumen del anterior por su dificultad y por los posibles
modos de utilización en la impartición de cada curso particular. Ası́ como el
V
VI Prefacio

primer volumen pretende ser un libro de texto susceptible de ser seguido con
casi entera fidelidad, este segundo debe ser empleado con otro discernimiento.
En su totalidad es un curso avanzado sobre los problemas de clasificación antes
enumerados, que hemos intentado presentar y resolver de modo elemental, pero
completo. Por ello, en un curso básico sugerimos utilizar sólo: del capı́tulo
III, las lecciones 11, 12 y 13, y la 14 sin la demostración del teorema de
descomposición, y del capı́tulo IV, la lección 16, la 17 sin la clasificación de
formas antisimétricas, la 18, y la 19 sólo en dimensión ≤ 3. Insistiremos en
esto en el resumen de cada uno de los dos capı́tulos.
Finalmente, queremos expresar nuestro agradecimiento a Concepción Fuer-
tes, Celia Martı́nez, y José F. Ruiz, compañeros y amigos, por su disponibilidad
para coincidir y discrepar con nuestras ideas sobre esta materia. Este curso de
Álgebra Lineal es mejor gracias a ellos.

Jose F. Fernando, J. Manuel Gamboa, Jesús M. Ruiz


Pozuelo, Madrid, Majadahonda
12 de abril, 2011
Contenido

Capı́tulo III. Clasificación de endomorfismos 1


11. Subespacios invariantes y autovalores . . . . . . . . . . . . . . . . . . . 2
12. Clasificación de endomorfismos . . . . . . . . . . . . . . . . . . . . . . . 14
13. Subespacios invariantes asociados a un autovalor . . . . . . . . . . . . . 32
14. Teorema de descomposición: caso complejo . . . . . . . . . . . . . . . . 45
15. Teorema de descomposición: caso real . . . . . . . . . . . . . . . . . . . 63
Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
Apéndice: Solucionario del capı́tulo III
Soluciones §11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Soluciones §12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
Soluciones §13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Soluciones §14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Soluciones §15 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Soluciones de las cuestiones . . . . . . . . . . . . . . . . . . . . . . . . 150

Capı́tulo IV. Formas bilineales y formas cuadráticas 151


16. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
17. Clasificación de formas bilineales . . . . . . . . . . . . . . . . . . . . . . 167
18. Espacios vectoriales euclı́deos . . . . . . . . . . . . . . . . . . . . . . . . 182
19. Endomorfismos de espacios vectoriales euclı́deos . . . . . . . . . . . . . 195
20. Formas sesquilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
Apéndice: Solucionario del capı́tulo IV
Soluciones §16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
Soluciones §17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238

VII
VIII Contenido

Soluciones §18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252


Soluciones §19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
Soluciones §20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
Soluciones de las cuestiones . . . . . . . . . . . . . . . . . . . . . . . . 287

Lecturas ulteriores 289

Sı́mbolos 293

Índice 297
CAPÍTULO III

Clasificación de endomorfismos

Resumen. Este capı́tulo tercero está dedicado a un problema fundamental: la clasi-


ficación de endomorfismos, es decir, de las aplicaciones lineales de un espacio vectorial
de tipo finito en sı́ mismo. Con ello se empieza a hacer geometrı́a (vectorial) pues se
toca ya de manera no trivial la comprensión cualitativa de los objetos que se estu-
dian. Aunque el contenido es de sobra conocido, y pocas originalidades caben a la
hora de presentarlo, hemos querido adoptar un punto de vista algo infrecuente, que
intentamos explicar a continuación.
En la lección 11 se introducen los subespacios invariantes. Son especialmente im-
portantes las rectas invariantes, pues están ligadas a los autovalores, que son las raı́ces
del polinomio caracterı́stico. La lección siguiente, la 12, presenta de manera discursiva
el problema de clasificación de endomorfismos, y el papel que el espacio dual juega
en la cuestión. En la lección 13 y central de este capı́tulo se describen los subespacios
invariantes asociados a un autovalor dado. En la lección 14 completamos la discusión
del caso complejo con el denominado teorema de descomposición, y en la 15 la del
caso real, por complexificación. Ambas lecciones concluyen con la demostración de un
bello resultado: la dualidad formal a la que están sujetos los subespacios invariantes.
Nuestro objetivo real es facilitar un entendimiento fino y un manejo fluido de los
endomorfismos en dimensiones bajas, digamos hasta dimensión cuatro incluida. Un
enfoque drástico para conseguir esto serı́a enseñar la clasificación de endomorfismos
hasta esa dimensión sin presentar la teoria de subespacios invariantes en general. Pero
aún con esta idea, nos ha sido imposible renunciar a una presentación completa, si
bien adaptable a un curso de nivel básico. Ası́ que para compaginar las dos querencias,
proponemos el siguiente manual de uso reducido: las lecciones 11 y 12 debieran seguirse
fielmente; la 13 casi, con tal vez alguna ligereza circunstancial; la 14 puede limitarse a
enunciar el teorema que le da nombre, y algunas consecuencias bien seleccionadas, sin
desarrollar la demostración ni los instrumentos en que se basa; la 15 puede eludirse
casi en su totalidad, recurriendo al último epı́grafe de la lección previa. Pensamos
que aún con estas simplificaciones, se puede entender muy bien cómo los subespacios
invariantes explican el comportamiento de un endomorfismo.

1
2 III. Clasificación de endomorfismos

11. Subespacios invariantes y autovalores


Sea E un espacio vectorial. Una aplicación lineal f : E → E se denomina
endomorfismo de E. Nuestro objetivo es analizar con detalle los endomorfismos
de un espacio E de tipo finito. Aunque se podrı́a trabajar sobre otros cuerpos
K, los resultados relevantes requieren limitarse a los casos K = R o C. El
concepto capital del estudio de endomorfismos es el siguiente:

Definición 11.1 Sea f : E → E un endomorfismo. Un subespacio invariante


de f es un subespacio vectorial W ⊂ E tal que f (W ) ⊂ W , o equivalentemente,
W ⊂ f −1 (W ).

La cuestión aparente es, claro, identificar los subespacios invariantes de


f . Sin embargo, tal vez más que el listado explı́cito de todos ellos, interesa
saber cuál es la configuración de incidencias de esos subespacios: cuántos hay
de cada dimensión, cómo se intersecan, cuáles están contenidos en cuáles...
Como iremos viendo, determinar esa configuración de incidencias es una la-
bor esforzada, pero muy bien pagada: a la postre explica completamente el
comportamiento del endomorfismo en cuestión.
Empezamos la tarea buscando los subespacios invariantes de la menor di-
mensión:
(11.2) Rectas invariantes y autovalores. Sea f : E → E un endomor-
fismo.
(1) Una recta L = L[u] ⊂ E, generada por un vector u 6= 0, es invariante
por f si y sólo si L[u] ⊃ f (L[u]) = L[f (u)], lo que equivale a que f (u) sea
proporcional a u, esto es, a que exista un escalar λ tal que

f (u) = λu.

Ası́ pues la búsqueda de rectas invariantes es la búsqueda de pares u, λ que


cumplen la igualdad anterior. Esto conduce a las siguientes definiciones:
(i) Un autovalor (o valor propio) de f es un escalar λ ∈ K tal que
f (u) = λu para algún vector no nulo u ∈ E \ {0}.
(ii) Un autovector (o vector propio) de f es un vector no nulo u ∈ E \{0}
tal que f (u) = λu para algún λ ∈ K.
Entonces se dice que u y λ están asociados.
11. Subespacios invariantes y autovalores 3

(2) Si u es un autovector de f , el autovalor asociado está completamente


determinado, pues sólo un λ puede cumplir f (u) = λu. Sin embargo, λ no
determina u unı́vocamente. En efecto, la igualdad anterior f (u) = λu puede
escribirse (f − λ IdE )(u) = 0, y denotando W (λ) = ker(f − λ IdE ) podemos
decir:
El escalar λ es un autovalor de f si y sólo si el subespacio W (λ) no es tri-
vial, y los autovectores asociados a λ son los vectores no nulos de ese subespa-
cio. La dimensión del subespacio W (λ) se denomina multiplicidad geometrica
de λ, y se denota mg (λ) ≥ 1.
De esta manera, todas las rectas contenidas en W (λ) son rectas invariantes,
y W (λ) es un subespacio invariante de f . La restricción f |W (λ) es la homotecia
de razón λ en el subespacio W (λ).
(3) Ası́ pues, las rectas invariantes de f se asocian a los autovalores. Las
correspondientes a un autovalor dado forman un subespacio invariante, y a
distintos autovalores corresponden rectas invariantes distintas. Esto resulta de
que varios autovectores asociados a autovalores distintos son independientes.
Para probar este hecho, supongamos f (uj ) = λj uj con diferentes λj . Para
un autovector, sólo estamos diciendo que todo autovector es no nulo. Por
inducción, supongamos cierta la afirmación para s − 1 autovectores y veamos
que también lo es para s. Consideremos una combinación lineal nula

α1 u1 + · · · + αs us = 0

y veamos que es trivial. Aplicando f obtenemos

0 = α1 f (u1 ) + · · · + αs f (us ) = α1 λ1 u1 + · · · + αs λs us .

Multiplicando la igualdad primera por λ1 y restándosela a la segunda, queda:

α2 (λ2 − λ1 )u2 + · · · + αs (λs − λ1 )us = 0.

Por hipótesis de inducción, los vectores u2 , . . . , us son independientes, luego los


coeficientes de la última combinación lineal son todos nulos: αj (λj − λ1 ) = 0.
Como los autovalores son distintos, resulta αj = 0 para j > 1, y la combinación
lineal de partida se reduce a α1 u1 = 0 y como u1 6= 0, α1 = 0. Hemos
terminado.
(4) Lo anterior implica que si λ1 , . . . , λr son los autovalores de un endomor-
fismo f la suma W (λ1 ) + · · · + W (λr ) de sus subespacios propios es directa. En
4 III. Clasificación de endomorfismos

efecto, basta probar que W (λ1 )∩ rj=2 W (λj ) = {0} y suponemos lo contrario,
P
es decir, que existe un vector no nulo v1 ∈ W (λ1 ) que se escribe como suma
v1 = v2 +· · ·+vr , donde cada vj ∈ W (λj ). Entonces (−1)v1 +v2 +· · ·+vr = 0 es
una combinación lineal nula pero no trivial, y esto contradice la independencia
de los vectores v1 , . . . , vr que acabamos de probar.
(5) Como complemento a lo anterior, conviene señalar que si u, v son
autovectores asociados a autovalores diferentes, ninguna combinación lineal
w = αu + βv con coeficientes no nulos es autovector. En efecto, supongamos
f (u) = λu, f (v) = µv y f (w) = ρw. Entonces
(
f (αu + βv) = αf (u) + βf (v) = αλu + βµv,
f (w) =
ρ(αu + βv) = ραu + ρβv,

y como por (3) u y v son independientes,

αλ = ρα, βµ = ρβ.

Pero ni α ni β son nulos, luego λ = ρ = µ, contra la hipótesis. 


Nuestro siguiente objetivo es calcular mediante ecuaciones los autovalores
de un endomorfismo dado f cuando E es de tipo finito. Para ello denotamos
Mf = Mf (B) la matriz Mf (B, B) de f respecto de una base B de E. Obsérvese
que si B0 es otra base de E, entonces

Mf (B) = C(B0 , B)Mf (B0 )C(B, B0 ) = C(B0 , B)Mf (B0 )C(B0 , B)−1

(11.3) Matrices semejantes. A la vista de la relación anterior entre dos


matrices de un mismo endomorfismo respecto de bases distintas, se define la
relación de semejanza de matrices cuadradas: M y M 0 son semejantes si existe
una matriz regular C tal que M = CM 0 C −1 .
Evidentemente, esto es otra vez el mismo asunto: M será la matriz de un
endomorfismo f respecto de una base dada, y las matrices M 0 semejantes a
M son las matrices de f respecto de las demás bases. De manera simplista
(pero fiel) podemos entender todo lo que vamos a hacer a partir de ahora
como la búsqueda de la matriz M 0 más sencilla posible. Y será con esa M 0
más sencilla como entenderemos mejor las propiedades de f que no dependen
de coordenadas, por ejemplo la configuración de sus subespacios invariantes.
Pero también podemos entender la semejanza de una segunda manera.
Sean f y f 0 dos endomorfismos con matrices M y M 0 (respecto de las bases
11. Subespacios invariantes y autovalores 5

que sea). Si M y M 0 son semejantes, entonces M es la matriz de f 0 respecto


de otra cierta base. En otras palabras, f y f 0 tienen las mismas ecuaciones
y t = M xt , aunque, claro, en coordenadas x respecto de bases diferentes. Co-
mo las propiedades independientes de coordenadas de ambos endomorfismos
se determinan mediante esas ecuaciones comunes, serán las mismas para am-
bos. Diremos que f y f 0 son equivalentes. Se observa que dos endomorfismos
equivalentes tienen la misma configuración de subespacios invariantes.
Además desde el punto de vista computacional son las matrices las que
intervienen, y la semejanza es entonces ventajosa. Una muestra es el cálculo
de potencias: si M = CM 0 C −1 , tenemos
M k = (CM 0 C −1 ) · · · (CM 0 C −1 ) =
= CM 0 (C −1 C) · · · (C −1 C)M 0 C −1 = CM 0 · · · M 0 C −1 = CM 0 k C −1 .
Usando esta fórmula, se pueden calcular primero las potencias de M 0 y deducir
después las de M , especialmente cuando, como veremos, se puede encontrar
M 0 verdaderamente sencilla.
Las potencias de una matriz cuadrada aparecen de modo natural al utilizar
polinomios y más generalmente series (como por ejemplo la exponencial) en
el estudio de problemas muy diversos. Aquı́ mismo usaremos polinomios de
manera crucial en la lección 14 para completar nuestro estudio de los endo-
morfismos complejos, pero podemos citar también el estudio de: (i) sucesiones
recurrentes, (ii) sistemas dinámicos discretos y procesos de Markov, (iii) sis-
temas dinámicos continuos y ecuaciones diferenciales lineales. 
(11.4) Cálculo de autovalores. Sean E de tipo finito, n = dim(E), un
endomorfismo f de E, y M = Mf (B) su matriz respecto de una base dada
B; denotamos x las coordenadas correspondientes. Resulta de III.11.2(3), vol.
2, p. 3, que f no puede tener más de n autovalores distintos. Veamos cómo
calcularlos.
(1) Dados un vector u y un escalar λ, la condición f (u) = λu se expresa
M xt = λxt , o en forma de sistema homogéneo:

(∗) (M − λI)xt = 0.

Como queremos que u no sea nulo, sus coordenadas x no lo serán, es decir,


el sistema homogéneo (∗) tendrá solución no trivial. Como bien sabemos, esto
ocurre si y sólo si el determinante del sistema es nulo, lo que denotamos

P (λ) = det(M − λI) = 0.


6 III. Clasificación de endomorfismos

En suma, λ ∈ K es autovalor si y sólo P (λ) = 0, y en ese caso, los autovectores


asociados a λ se obtienen resolviendo el sistema homogéneo (∗) anterior.
Si el polinomio (T − λ)m divide a P (T ) pero (T − λ)m+1 no divide a P (T )
se dice que m es la multiplicidad de λ como raı́z de P . La multiplicidad del
autovalor λ como raı́z del polinomio caracterı́stico de denomina multiplicidad
algebraica de λ, y se denota ma (λ).
(2) Los autovalores son los mismos independientemente de qué coordenadas
usemos para obtener la ecuación P (λ) = 0, pero es que de hecho, la propia
ecuación es independiente de las coordenadas. En efecto, si M 0 = Mf (B0 ) es
la matriz respecto de otra base, y C = C(B, B0 ) la matriz de cambio, tenemos
M 0 = CM C −1 , y de este modo:

det(M 0 − λI) = det(CM C −1 − λI) = det(CM C −1 − λCIC −1 )


= det C(M − λI)C −1 = det(C) det(M − λI) det(C −1 )


= det(M − λI) det(C) det(C −1 ) = det(M − λI).

(3) Para obtener esta ecuación P (λ) = 0 pensemos en λ como una in-
determinada T , y analicemos cómo calculamos P (T ) a partir de la matriz
M = (aij ):
 
a11 − T a12 a13 ··· a1n
 a21
 a22 − T a23 ··· a2n  
 a31 a32 a33 − T · · · a3n 
P (T ) = det .
 
.. .. .. ..

 . . . . 

 an1 an2 an3 · · · ann − T 

Lo podemos hacer por la regla de Laplace por la primera fila, y luego los
adjuntos que aparecen también por sus primeras filas, y ası́ sucesivamente. Al
final obtenemos una suma de productos, cada uno de los cuales tiene un factor
y uno sólo de cada fila y cada columna, con el signo que la regla de Laplace va
dictando en el proceso. De estos productos, el que primero identificamos es:

+(a11 − T ) · · · (ann − T ) = (−1)n T n + (−1)n−1 (a11 + · · · + ann )T n−1 + · · · ,

donde los puntos del final indican términos de menor grado en T ; y su signo es
positivo, pues se obtiene al tomar sucesivamente el adjunto del primer elemento
de la fila que toque. Cualquiera de los otros productos siempre tendrá un factor
11. Subespacios invariantes y autovalores 7

aij con i 6= j, lo que excluye los demás coeficientes de la fila i-ésima y de la


columna j-ésima. Por tanto el producto en cuestión no contiene ni el factor
(aii − T ) ni el factor (ajj − T ), de modo que al efectuarlo todos los términos
tendrán grado ≤ n − 2 en T . Todo esto muestra que P (T ) es un polinomio
de grado n, cuyos términos de grado > n − 2 son los que hemos escrito más
arriba.
P Por otra parte, su término independiente es P (0) = det(M ). La suma
a
i ii es la traza tr(M ) de la matriz M , y concluimos que
P (T ) = (−1)n T n + (−1)n−1 tr(M )T n−1 + · · · + det(M ).
Este es el polinomio caracterı́stico de M , pero por el apartado (2) sus coe-
ficientes sólo dependen de f , y por eso se llama polinomio caracterı́stico de
f . De este modo, los autovalores de f son las raı́ces λ ∈ K de su polinomio
caracterı́stico P (T ), que a veces escribiremos Pf (T ). Como el grado de P (T )
es n, confirmamos que no hay más de n autovalores.
En particular, la traza y el determinante de la matriz M = Mf (B) sólo
dependen de f , o dicho con otras palabras, dos matrices semejantes tienen
la misma traza y el mismo determinante. Ası́ los escalares tr(f ) = tr(M ) y
det(f ) = det(M ) se denominan traza y determinante de f .
(4) Para cada autovalor λ de f se cumple la desigualdad mg (λ) ≤ ma (f ).
En efecto, denotemos m = mg (λ) y sea {w1 , . . . , wm } una base del subespacio
propio W (λ). Si {v1 , . . . , vr } es base de un suplemento V de W (λ), podemos
calcular el polinomio caracterı́stico de f a partir de la matriz de f respecto de
la base B = {w1 , . . . , wm , v1 , . . . , vr } es decir,
 
λ − T m)
.. ∗
Pf (T ) = det 
 .  = (λ − T )m Q(T ),
 λ−T 
0 ∗
por lo que ma (λ) ≥ m = mg (λ). 

(11.5) Endomorfismos diagonalizables. Los autovectores ayudan a sim-


plificar la expresión matricial de un endomorfismo f : E → E. Por ejemplo,
una base de E está formada por autovectores de f si y sólo si la matriz de f
respecto de ella es diagonal. Cuando tal base existe se dice que el endomorfismo
es diagonalizable. Es reseñable el siguiente resultado.

Teorema 11.6 Sean λ1 , . . . , λr los autovalores del endomorfismo


Pr f del espa-
cio n-dimensional E. Entonces, f es diagonalizable si y sólo si i=1 ma (λi ) =
n y mg (λi ) = ma (λi ) para i = 1, . . . , r.
8 III. Clasificación de endomorfismos

Demostración. Si f es diagonalizable, entonces existe una base B de E tal que


MB (f ) es diagonal. Agrupando los vectores correspondientes a cada autovalor,
concluimos que E = W (λ1 ) ⊕ · · · ⊕ W (λr ). Como cada mg (λi ) ≤ ma (λi ),
r
X r
X
n= mg (λi ) ≤ ma (λi ) ≤ n,
i=1 i=1
P`
y esto equivale a i=1 ma (λi ) = n y mg (λi ) = ma (λi ) para 1 ≤ i ≤ r.
Reciprocamente, las hipótesis implican que E = W (λ1 )⊕· · ·⊕W (λr ), pues
dim(W (λ1 ) ⊕ · · · ⊕ W (λr )) = dim(W (λ1 )) + · · · + dim(W (λr )) = n = dim(E).
Ası́, si Bi es una base arbitraria de W (λi ) entonces B = ri=1 Bi es base de E
S
y la matriz Mf (B) de f respecto de B es diagonal. 
Del Teorema anterior se desprende que si el polinomio caracterı́stico de f
factoriza en producto de n = dim(E) factores lineales distintos λi − T con
1 ≤ i ≤ n, entonces f es diagonalizable.
Otros endomorfismos diagonalizables son las homotecias, cuya matriz res-
pecto de cualquier base es diagonal. 

Ejemplos 11.7 (1) Vamos a probar que el endomorfismo f de K3 dado por


f (x, y, z) = (3x + y − z, 3x + 5y − 3z, 5x + 5y − 3z)
es diagonalizable, encontrando una base de autovectores. Su matriz respecto
de la base estándar E de K3 es
 
3 1 −1
M =  3 5 −3 
5 5 −3
y su polinomio caracterı́stico
 
3−T 1 −1
P (T ) = det(M − T I) = det  3 5−T −3  = (1 − T )(2 − T )2 ,
5 5 −3 − T
Ası́ que buscamos los autovectores asociados a λ = 1 y λ = 2. Para λ = 1 hay
que resolver el sistema
    
2 1 −1 x 0 
 3 4 −3   y  =  0  2x + y = z,
3x + 4y = 3z.
5 5 −4 z 0
11. Subespacios invariantes y autovalores 9

Sus soluciones son (x, y, z) = ρ(1, 3, 5), es decir, W (λ) = L[u] con u = (1, 3, 5).
Para λ = 2 hay que resolver
    
1 1 −1 x 0
 3 3 −3   y  =  0  x + y = z,
5 5 −5 z 0
es decir, W (λ) = L[v, w], con v = (1, 0, 1), w = (0, 1, 1). Resulta que B =
{u, v, w} es una base de autovectores, y f es diagonalizable. Comprobamos que
las multiplicidades algebraica y geométrica de ambos autovalores coinciden:
valen 1 para λ = 1, y valen 2 para λ = 2.
La matriz de f respecto de la base B es
 
1 0 0
J= 0  2 0
0 0 2
y se cumple M = CJC −1 para la matriz de cambio de base C = M (B, E); se
tiene:    
1 1 0 −1 −1 1
C=3 0 1, C −1 =  2 1 −1  .
5 1 1 3 4 −3
Utilicemos esto para calcular las potencias de M . Según III.11.3, vol. 2, p. 4:
   
1 1 0 1 0 0 −1 −1 1
M k = CJ k C −1 =  3 0 1   0 2k 0   2 1 −1  ,
5 1 1 0 0 2k 3 4 −3
y operando se obtiene:
2·2k − 1 2k − 1 −2k + 1
 

M k =  3·2k − 3 4·2k − 3 −3·2k + 3  = (2k − 1)M − (2k − 2)I.


5·2k − 5 5·2k − 5 −4·2k + 5
A modo de prueba, comparemos determinantes. Como ya calculamos su poli-
nomio caracterı́stico, sabemos que det(M ) = 4, luego det(M k ) = 4k . El lector
encontrará interesante asegurarse por sı́ mismo de que el determinante de la
matriz M k que hemos obtenido es efectivamente ese.
(2) Consideremos ahora el endomorfismo de K3 cuya matriz respecto de la
base estándar es  
0 −1 1
M =  0 1 0 .
−1 −1 2
10 III. Clasificación de endomorfismos

El polinomio caracterı́stico es P (T ) = det(M − T I) = (1 − T )3 , y el único


autovalor es λ = 1. Los autovectores asociados se obtienen resolviendo
    
−1 −1 1 x 0
 0 0 0  y  = 0 −x − y + z = 0 ,
−1 −1 1 z 0

luego constituyen un plano. Por ello, K3 no tiene ninguna base formada por
autovectores, y f no es diagonalizable. Por supuesto, las multiplicidades alge-
braica y geométrica del autovalor λ = 1 son distintas: 3 y 2 respectivamente. Si
quisieramos calcular las potencias de M , no sabrı́amos cómo imitar el método
del ejemplo anterior. Debemos avanzar más en el análisis de los endomorfismos
para remediar esta ignorancia.
(3) Veamos ahora un caso intermedio entre los dos anteriores: el endomor-
fismo de K3 cuya matriz respecto de la base estándar es
 
1 −1 3
M =  0 3 1 .
0 −1 1

Su polinomio caracterı́stico es P (T ) = (1 − T )(2 − T )2 , y sus autovalores


λ = 1, 2. Los autovectores asociados a λ = 1 se obtienen resolviendo
    
0 −1 3 x 0 
 0 2 1  y  = 0 y = 3z,
y = 0,
0 −1 0 z 0

y son (x, y, z) = ρ(1, 0, 0), es decir, W (λ) = L[u] con u = (1, 0, 0). Para λ = 2
hay que resolver
    
−1 −1 3 x 0 
 0 1 1  y  = 0 x + y = 3z,
y = −z,
0 −1 −1 z 0
P
con lo que W (λ) = L[v], donde v = (4, −1, 1). Resulta que λ W (λ) = L[u, v]
tiene dimensión 2, luego no contiene ninguna base de K3 . Como en el ejem-
plo anterior, vemos que K3 no tiene ninguna base formada por autovectores,
ası́ que f no es diagonalizable. Nótese que las multiplicidades algebraica y
geométrica de λ = 1 coinciden (ambas son 1), pero no las de λ = 2 (que son 2
y 1). Tampoco aquı́ se ve de qué manera simplificar el cálculo de las potencias
de M . 
11. Subespacios invariantes y autovalores 11

Ejemplo 11.8 Consideremos la proyección p y la simetrı́a s asociadas a una


descomposición en suma directa E = V ⊕ W , con dim(V ) = d, dim(W ) = e:

p : E → E : v + w 7→ v, s : E → E : v + w 7→ v − w.

Se tiene p|V = s|V = IdV y p|W ≡ 0, s|W = − IdW . Si unimos una base de V
y otra de W para formar una de E, las matrices de estos endomorfismos son
diagonales:    
Id 0 Id 0
Mp = y Ms = .
0 0 0 −Ie
Además, obtenemos sus polinomios caracterı́sticos, que son respectivamente

(1 − T )d (−T )e y (1 − T )d (−1 − T )e . 

Observación y Ejemplo 11.9 Veamos a continuación que el cuerpo K in-


fluye por primera vez de manera significativa en el cálculo de subespacios
invariantes. En efecto, qué raı́ces tenga en K el polinomio caracterı́stico P (T ),
siquiera que las tenga, depende de qué cuerpo sea K. El Teorema fundamental
del álgebra nos dice que todo polinomio (no constante) de C[T ] tiene algu-
na raı́z compleja, de modo que todo endomorfismo de un espacio vectorial
complejo tiene alguna recta invariante. Sin embargo, puesto que en R[T ] hay
polinomios sin raı́ces reales, habrá endomorfismos de espacios vectoriales reales
que no tengan ninguna recta invariante.
Por ejemplo, consideremos

f : K2 → K2 : (x, y) 7→ (y, −x).


 
0 1
Respecto de la base estándar, la matriz de f es M = , y su polinomio
−1 0
caracterı́stico es P (T ) = T 2 + 1. Por tanto, si K = R, f no tiene autovalores,
luego no tiene rectas√invariantes. Sin embargo, si K = C, f tiene dos autova-
lores distintos λ = ± −1, luego ciertamente hay rectas invariantes. Podemos
obtenerlas todas buscando los autovectores asociados a cada autovalor λ. Para
ello hay que resolver el sistema
  (
x −λx + y = 0,
(M − λI) =0
y −x − λy = 0.

Como λ2 = −1, la primera ecuación se obtiene multiplicando la segunda por


λ, de manera que el sistema se reduce a y = λx. Se ve que hay muchos
12 III. Clasificación de endomorfismos

(infinitos) autovectores asociados a λ, pero todos generan la misma recta, que


es la definida por la ecuación anterior. Por tanto, para cada autovalor hay
exactamente una recta invariante, y obtenemos las dos siguientes:
√ √
L1 : −1x + y = 0, L2 : − −1x + y = 0.

Como estas ecuaciones no son proporcionales, las rectas son distintas.


Veremos más adelante (III.15.7(3), vol. 2, p. 73) que ésta es la situación
siempre que el polinomio caracterı́stico de un endomorfismo real tiene una raı́z
compleja no real: el endomorfismo tiene un plano invariante que no contiene
rectas invariantes. Aunque en ese caso tal raı́z compleja no es propiamente
un autovalor, abusaremos de la terminologı́a denominándola autovalor ima-
ginario del endomorfismo. Recordemos aquı́ que se denominan imaginarios a
los números complejos que no son
√ reales, para distinguirlos de los imaginarios
puros, que son los de la forma ρ −1, donde ρ ∈ R es un número real no nulo.

Ejercicios y problemas propuestos


Número 1. ¿Existe algún endomorfismo de K4 tal que los subespacios
 
x − y + z + t = 0, x−y = 0,
W1 : y W2 :
x −z = 0, x − z = 0,

sean los espacios de autovectores asociados a dos autovalores?


Número 2. ¿Existe alguna matriz regular cuyo polinomio caracterı́stico sea −T 7 +T 4 −T ?
Número 3. Sea f un endomorfismo de un espacio de tipo finito E. Demostrar:
(1) f es un isomorfismo si y sólo si 0 no es autovalor de f .
(2) λ es autovalor de f si y sólo si −λ lo es de −f .
(3) Si λ es autovalor de f , entonces λ2 lo es de f 2 .
(4) Si λ2 es autovalor de f 2 , entonces bien λ, bien −λ, lo es de f .
(5) Si f 2 = f , entonces f no posee autovalores distintos de 0 y 1.
Número 4. Para cada escalar a ∈ K se considera el endomorfismo de K3 dado por

f (x, y, z) = (3x + az, ax + ay + az, 2z).

Estudiar para qué escalares a el endomorfismo es diagonalizable.


Número 5. Demuéstrese que si todos los vectores de un espacio vectorial son autovectores
de un endomorfismo f , entonces éste es una homotecia.
11. Subespacios invariantes y autovalores 13

Número 6. Consideremos los subespacios W y L de K4 cuyas ecuaciones implı́citas res-


pecto de la base estándar E son

W : x = t, y = z y L : y = z = t.

¿Existen endomorfismos f de K4 cuyo núcleo sea W y cuya imagen sea L? ¿Existe alguno
diagonalizable?
Número 7. ¿Es diagonalizable un endomorfismo de K2 de traza 5 y determinante 4?
Número 8. Sea f : C2 → C2 un endomorfismo no diagonalizable cuya traza vale 2.
Calcular su determinante.
Número 9. Sea f : E → E un endomorfismo, tal que f 2 = f ◦ f es diagonalizable. ¿Lo es
necesariamente f ?
Número 10. Para cada terna de números complejos (a, b, c) se considera el endomorfismo
fa,b,c de C3 cuya matriz respecto de la base estándar es
0 1
a+b a−b+c a−c
@a − b − c a a + b + cA .
a+c a+b−c a−b

(1) Calcular el polinomio caracterı́stico de fa,b,c mediante la base B de C3 formada por


los vectores (1, 1, 1), (0, 1, 0) y (0, 0, 1).
(2) Encontrar valores de a, b, c para los que fa,b,c no sea diagonalizable.
k
(3) Calcular la traza de fa,0,a para cada a ∈ C y cada entero k ≥ 1.
Número 11. Sean a, b dos números complejos. Consideramos el endomorfismo f de C3
cuya matriz respecto de la base estándar es
0 1
a −1 −1
M = @ 1 0 −1 A .
0 b 0

¿Para qué valores de a y b el núcleo de f tiene dimensión 1 y f no es diagonalizable?

Número 12. Se tienen dos sucesiones de números reales (xn )n e (yn )n tales que

x1 = 1, y1 = −1; xn+1 = 6xn − yn , yn+1 = 3xn + 2yn .


1
Calcular (3xn+1 + yn+1 ).


2

Número 13. Calcular el término general de la sucesión xn que cumple x1 = 1, x2 = −2 y


xn = −xn−1 + 2xn−2 .


Número 14. Sean f y g dos endomorfismos de un espacio vectorial de tipo finito E.
Demostrar que los endomorfismos f ◦ g y g ◦ f tienen el mismo polinomio caracterı́stico.

 Número 15. Demostrar que una matriz cuadrada de traza nula es un conmutador, es
decir, se puede escribir en la forma AB − BA para ciertas matrices cuadradas A y B.
14 III. Clasificación de endomorfismos

12. Clasificación de endomorfismos


En esta sección ilustramos qué significa clasificar endomorfismos. Pues-
to que hemos llamado equivalentes a dos endomorfismos cuando tienen unas
ecuaciones comunes, para clasificar endomorfismos habrá que saber buscar
ecuaciones sencillas. No nos entretendremos en un planteamiento formal del
problema; en vez de eso explicaremos qué tipo de análisis es el adecuado para
obtener esas ecuaciones y distinguir unos endomorfismos de otros según su
comportamiento geométrico. Por supuesto, la lı́nea conductora de ese análisis
es la búsqueda de subespacios invariantes.
Empezando por la dimensión más baja, veamos cómo utilizar las rectas
invariantes para describir todos los endomorfismos del plano.
(12.1) Endomorfismos de un plano vectorial. Sea E un espacio vec-
torial de tipo finito y dimensión 2, es decir, un plano vectorial. Queremos
describir todos los endomorfismos f de E utilizando rectas invariantes. En
realidad utilizaremos los autovalores, esto es, las raı́ces del polinomio carac-
terı́stico P (T ) ∈ K[T ].
(1) Busquemos expresiones matriciales simples. Como P (T ) tiene grado 2,
tiene a lo más dos raı́ces.
Caso 1o . Si P (T ) tiene dos raı́ces distintas λ, µ ∈ K, elegimos dos autovec-
tores u, v asociados:
f (u) = λu, f (v) = µv.
Los vectores u, v son independientes (λ 6= µ, III.11.2(3), vol. 2, p. 3), luego son
una base de E, y la matriz de f es
 
λ 0
.
0 µ

Caso 2o . Si P (T ) tiene una raı́z doble λ ∈ K, elegimos w ∈ E con f (w) =


λw, y v ∈ E cualquiera que no dependa de w. Entonces {v, w} es una base de
E y f (v) = αv + βw. Distinguimos dos subcasos:
(i) Si β = 0, entonces α es un autovalor, luego debe ser igual a λ, y la
matriz de f respecto de la base {v, w} es
 
λ 0
.
0 λ
12. Clasificación de endomorfismos 15

(ii) Si β 6= 0, ponemos u = β1 v, de modo que {u, w} es también una base,


y nos queda

f (u) = f β1 v = β1 f (v) = β1 (αv + βw) = αβ v + w = αu + w.




 
α 0
Por tanto, la matriz de f respecto de la base {u, w} es . Usando esta
1 λ
matriz resulta P (T ) = (α − T )(λ − T ), y por haber un único autovalor, α = λ.
Ası́ la matriz anterior es  
λ 0
.
1 λ
Caso 3o . Si K = C, no hay más que decir, pero si K = R, queda el caso en
que P (T ) no tenga raı́ces reales. Entonces, P (T ) tendrá dos raı́ces conjugadas:
√ √
λ = α − −1β, λ̄ = α + −1β, con α, β ∈ R y β > 0.

Sea M una matriz de f en coordenadas digamos (x1 , x2 ), y consideremos el


sistema    
x 0
(M − λI) 1 = .
x2 0
Si λ fuera real, ası́ encontrarı́amos autovectores reales, de modo que podemos
decir que estamos buscando autovectores imaginarios. Como 0 = P (λ) =
det(M − λI), habrá alguna solución no trivial x = (x1 , x2 ) donde
( √
x1 = a1 + −1b1 , a1 ,b1 ∈ R,

x2 = a2 + −1b2 , a2 ,b2 ∈ R,

que abreviamos matricialmente xt = at + −1bt . Tenemos:
( √ √
M xt = M (at + −1bt ) = M at + −1M bt ,
√ √ √
λxt = (α − −1β)(at + −1bt ) = (αat + βbt ) + −1(−βat + αbt ),

y como M xt = λxt , igualando partes reales e imaginarias resulta


(
M at = αat + βbt ,
M bt = −βat + αbt .

Sean ahora u y v los vectores de E de coordenadas a = (a1 , a2 ) y b = (b1 , b2 )


respectivamente, de modo que las igualdades anteriores significan que
(
f (u) = αu + βv,
f (v) = −βu + αv.
16 III. Clasificación de endomorfismos


Como la solución x = a + −1b no es trivial, uno de los vectores u, v es no
nulo, y de hecho son una base. Por ejemplo, si u 6= 0 y v = θu con θ ∈ R, la
primera de las ecuaciones anteriores darı́a f (u) = αu + βθu = (α + βθ)u, y
α + βθ ∈ R serı́a un autovalor real de f , lo que no es posible. En suma, {u, v}
es una base de E, y la matriz de f respecto de ella es:
 
α −β
.
β α
(2) De este modo hemos clasificado todos los endomorfismos de E, según
los cuatro tipos de matrices obtenidos, que preferimos enumerar ası́:
       
λ 0 λ 0 λ 0 α −β
, , , y si K = R, , β > 0.
0 λ 0 µ 1 λ β α
Además, podemos distinguir los tipos por sus rectas invariantes: en el primero
todas los son, en el segundo hay dos distintas, en el tercero hay una única, y
en el caso real adicional, no hay ninguna.
En efecto, estas distinciones no dependen de las coordenadas x = (x1 , x2 )
que usemos, luego podemos comprobarlas con las mismas matrices anteriores.
Lo más fácil es buscar todos los autovectores correspondientes a cada autova-
lor, cuando los hay. Para el primer tipo, M − λI ≡ 0, y todas las rectas son
invariantes. Para el segundo tipo, (M − λI)xt = 0 (resp. (M − µI)xt = 0) da el
sistema (µ − λ)x2 = 0 (resp. (λ − µ)x1 = 0), luego los autovectores asociados
a este autovalor generan la recta invariante x2 = 0 (resp x1 = 0), de modo que
hay dos rectas invariantes distintas. Para el tercer tipo, (M − λI)xt = 0 da
x1 = 0, que es la única recta invariante. Para el cuarto tipo no hay autovalores
reales, luego no hay rectas invariantes.
El lector puede aplicar esto al endomorfismo de III.11.9, vol. 2, p. 11.
(3) Disponer de la clasificación anterior tiene muchas utilidades. Por ejem-
plo, si un endomorfismo de un plano tiene tres rectas invariantes, entonces
las tiene todas, y se trata de una homotecia. También ayuda a estudiar endo-
morfismos en dimensiones superiores, pues describe el comportamiento de la
restricción de esos endomorfismos a sus planos invariantes. Tendremos ocasión
de verlo más adelante. 
Con la discusión en el plano hemos ilustrado lo que se debe hacer para
clasificar endomorfismos. Por supuesto, hemos podido completar la tarea por
tratarse de la dimensión más baja; en dimensiones superiores, no basta calcular
rectas invariantes.
12. Clasificación de endomorfismos 17

Observaciones 12.2 Sea f : E → E un endomorfismo.


(1) La colección de todos los subespacios invariantes de f es estable para
intersecciones y sumas.
En efecto, basta señalar que:

f (W1 ∩ W2 ) ⊂ f (W1 ) ∩ f (W2 ) y f (W1 + W2 ) = f (W1 ) + f (W2 ).

(2) Cada subespacio invariante W de f determina de modo natural los dos


endomorfismos siguientes:
(
la restricción a W : f |W : W → W : u 7→ f (u), y
el cociente módulo W : [f ]W : E/W → E/W : [u] 7→ [f (u)].

(están bien definidos por la invarianza precisamente). Es inmediato que los


subespacios invariantes de f contenidos en W son los subespacios invariantes
de la restricción, y los que contienen a W se corresponden con los del cociente.
Esto último significa que los subespacios invariantes de [f ]W son precisamente
los cocientes V /W de los subespacios invariantes V de f que contienen a W .
(3) Dado un subespacio invariante W de f , hay que conocer la relación
entre los polinomios caracterı́sticos de f y f |W , que involucra el de [f ]W . Es
claro que autovectores y autovalores de f |W son también autovectores y auto-
valores de f , pero se puede precisar más. En efecto, el polinomio caracterı́stico
de la restricción f |W divide al de f , y el cociente es el polinomio caracterı́stico
de [f ]W :
Pf = P[f ]W Pf |W .
Para probarlo calculamos las matrices de los tres endomorfismos involucrados
respecto de bases adecuadas. Empezamos con una B0 = {u1 , . . . , ud } de W
que prolongamos a una base B = {u1 , . . . , ud , v1 , . . . , vr } de E, de manera que
B00 = {[v1 ], . . . , [vr ]} es una base del cociente E/W . Afirmamos que la matriz
M de f respecto de B tiene la forma:
 0 
M ∗
M= ,
0 M 00

donde M 0 es la matriz de la restricción f |W respecto de B0 y M 00 es la matriz


de [f ]W respecto de B00 . De esto se sigue la factorización anterior de Pf , ası́ que
probemos nuestra afirmación para terminar:
18 III. Clasificación de endomorfismos

(i) Las primeras columnas de M vienen de las expresiones f (uk ) = i m0ik ui ,


P
en las que no aparecen los vj porque W = L[u1 , . . . , ud ] es invariante.
Por esto hay una caja de ceros y M 0 es la matriz de f |W respecto de B0 .

(ii) P
Las siguientes P columnas de M se obtienen de las expresiones f (vk ) =
00 00
Pi mik ui + j mjk vj , cuyos segundos sumatorios definen M . Como
i mik ui ∈ P
W , su clase en el cociente es nula, y por tanto se tiene
[f ]W ([vj ]) = j m00jk [vj ], y M 00 es la matriz de [f ]W respecto de B00 . 

Ejemplo 12.3 Consideremos el endomorfismo de K5 cuya matriz respecto de


la base estándar E = {e1 , e2 , e3 , e4 , e5 } es
 
0 1 0 1 0
 0 0 0 0 0
 
M =  −1 1 0 2 0 .

 1 3 0 0 0
−1 0 1 2 −1

Se comprueba inmediatamente que u = (1, 0, 3, −1, 1) y v = (0, 0, 0, 0, 1) son


autovectores: f (u) = −u, f (v) = −v, de modo que el plano W = L[u, v]
es invariante. Según acabamos de decir, los subespacios invariantes F de f
que contienen a W se corresponden con los subespacios invariantes F/W del
endomorfismo cociente ϕ = [f ]W . Usemos esto para calcular los subespacios
invariantes F de dimensión 3 que contienen al plano W . Como dim(F/W ) =
dim(F ) − dim(W ) = 3 − 2 = 1, debemos buscar las rectas invariantes de ϕ.
Procedemos como sigue:
(1) En primer lugar, tomamos una base BE de E = K5 /W . Basta ele-
gir un suplementario vectorial de W = L[u, v], por ejemplo, el generado por
e1 , e2 , e3 , y tomar BE = {[e1 ], [e2 ], [e3 ]}; denotaremos εj = [ej ], y χ = (χj ) las
coordenadas respecto de BE .
(2) A continuación, calculamos la matriz Mϕ de ϕ : E → E respecto de
BE :


ϕ(ε1 ) = [f (e1 )] = [(0, 0,−1, 1,−1)] = [e1 +2e3 −u] = [e1 ]+2[e3 ]−[u] = ε1 +2ε3 ,

ϕ(ε2 ) = [f (e2 )] = [(1, 0, 1, 3, 0)] = [4e1 +10e3 −3u+3v] = 4[e1 ]+10[e3 ]


 = 4ε1 +10ε3 ,

ϕ(ε3 ) = [f (e3 )] = [(0, 0, 0, 0, 1)] = [v] = 0,

12. Clasificación de endomorfismos 19

 
1 4 0
con lo que Mϕ = 0 0 0 .
2 10 0
(3) Para encontrar las rectas invariantes F/W de ϕ, calculamos los auto-
valores de ϕ. El polinomio caracterı́stico de ϕ es det(Mϕ − T I) = T 2 (1 − T ),
luego los autovalores son λ = 0, 1. Ası́:
(i) Para λ = 0, el sistema (M − λI)χt = 0 tiene las soluciones χ =
ρ(0, 0, 1), y obtenemos la recta invariante F/W ⊂ E generada por ε3 = [e3 ].
Resulta que F = W + L[e3 ].
(ii) Para λ = 1, resolviendo (M − λI)χt = 0 sale χ = ρ(1, 0, 2), luego
F/W ⊂ E es la recta generada por ε1 + 2ε3 = [e1 + 2e3 ]. En consecuencia,
F = W + L[e1 + 2e3 ]. 

Para el análisis general de los subespacios invariantes el espacio dual juega


un papel esencial, especialmente para calcular hiperplanos invariantes.
(12.4) Subespacios invariantes y dualidad. Sea, como es habitual en
este capı́tulo, f : E → E un endomorfismo de un espacio vectorial de tipo
finito. Consideramos aquı́ el endomorfismo dual

f ∗ : E ∗ → E ∗ : h 7→ h ◦ f.

Vamos a utilizar f ∗ para describir los subespacios invariantes de f . Recordamos


en este momento que la definición de invarianza, f (W ) ⊂ W , es equivalente a
la condición W ⊂ f −1 (W ), a veces más conveniente en los cálculos.
(1) Empezamos por calcular f −1 (W ). Para ello expresamos W ⊂ E como
intersección de hiperplanos W = H1 ∩ · · · ∩ Hr , II.8.8, p. 179, de modo que

f −1 (W ) = f −1 (H1 ) ∩ · · · ∩ f −1 (Hr ).

Para obtener ecuaciones de las imágenes inversas f −1 (Hi ) elegimos una ecua-
ción h = hi ∈ E ∗ de H = Hi , esto es, Hi = ker(hi ), y resulta:
u ∈ f −1 (H) si y sólo si f (u) ∈ H,
si y sólo si 0 = h(f (u)) = (h ◦ f )(u) = f ∗ (h)(u),
luego f ∗ (h) = 0 es una ecuación de f −1 (H) (si f ∗ (h) ≡ 0 simplemente ocurre
que f −1 (H) = E).
(2) Según lo anterior, W es invariante si y sólo si W ⊂ f −1 (W ), si y sólo
si todas las imágenes inversas f −1 (Hi ) contienen W = H1 ∩ · · · ∩ Hr , es decir,
20 III. Clasificación de endomorfismos

todas las ecuaciones f ∗ (hi ) = 0 dependen de las ecuaciones h1 = 0, . . . , hr = 0.


Esto se escribe en el dual ası́:

f ∗ (h1 ), . . . , f ∗ (hr ) ∈ L[h1 , . . . , hr ].

(3) Recordemos ahora que W ∨ = L[h1 , . . . , hr ], II.10.3, p. 212, y calculemos


la imagen directa

f ∗ (W ∨ ) = f ∗ (L[h1 , . . . , hr ]) = L[f ∗ (h1 ), . . . , f ∗ (hr )].

Vemos que W ∨ es un subespacio invariante de f ∗ si y sólo si

L[f ∗ (h1 ), . . . , f ∗ (hr )] = f ∗ (W ∨ ) ⊂ W ∨ = L[h1 , . . . , hr ].

Ésta es la misma condición que en (2), y concluimos que W es un subespacio


invariante de f si y sólo si W ∨ lo es de f ∗ .
(4) En particular, un hiperplano H : h = 0 es invariante de f si y sólo si
H ∨ = L[h] es una recta invariante de f ∗ , si y sólo si h es un autovector de f ∗ .
Esto nos da un método para calcular todos los hiperplanos invariantes de f ,
pero nos dice también algo muy interesante desde el punto de vista conceptual.
En efecto, sea M la matriz de f respecto de una base cualquiera de E.
Entonces M t es la de f ∗ respecto de la base dual, II.10.5, p. 214, y por tanto
ambas matrices tienen el mismo polinomio caracterı́stico:

Pf (T ) = det(M − T I) = det(M − T I)t = det(M t − T I) = Pf ∗ (T ),

luego los mismos autovalores λ. Ası́, para buscar autovectores de f y f ∗ resol-


vemos respectivamente los sistemas homogéneos
(
(M − λI)xt = 0 y
(M t − λI)ct = 0 (o lo que es igual, c(M − λI) = 0);

estos sistemas son diferentes, por supuesto, pero tienen el mismo rango, pues
sus matrices son traspuestas una de otra. De este modo, la dimensión del
subespacio de autovectores es la misma en los dos casos. En consecuencia, cada
recta invariante de f se corresponde con una de f ∗ , que por lo que acabamos
de decir, se corresponde con un hiperplano invariante de f .
Esto establece una correspondencia biyectiva entre rectas invariantes e hi-
perplanos invariantes de f . Esta dualidad se puede utilizar para el recuento de
12. Clasificación de endomorfismos 21

hiperplanos invariantes, sin calcularlos explı́citamente. Un hecho fundamen-


tal de la dualidad, y el colofón final de nuestro estudio de los endomorfismos
será extender esa propiedad a los subespacios invariantes de todas las dimen-
siones. 
Lo anterior completa la discusión de invariantes en dimensión 3, pues en
esa dimensión sólo hay rectas y planos (=hiperplanos) invariantes. Veamos
algunos ejemplos.

Ejemplos 12.5 Sea f un endomorfismo de un espacio vectorial E de dimen-


sión 3.
(1) Supongamos que el endomorfismo tiene exactamente tres rectas inva-
riantes distintas: L[u], L[v] y L[w]. Entonces los vectores u, v, w forman una
base de E.
En efecto, si fuera w ∈ W = L[u, v], el plano W serı́a invariante y con-
tendrı́a tres rectas invariantes distintas. Por la clasificación de invariantes para
un plano vectorial (III.12.1(2), vol. 2, p. 16), f tendrı́a infinitas rectas invarian-
tes contenidas en W , imposible.
Por tanto, los tres planos L[v, w], L[u, w] y L[u, v] son distintos, e invarian-
tes (por ser suma de rectas invariantes). Como por la dualidad f sólo puede
tener tres planos invariantes, ya los tenemos todos.
En fin, por ser u, v, w autovectores, la matriz de f respecto de la base
{u, v, w} es diagonal:  
α 0 0
 0 β 0 ,
0 0 γ
donde α, β, γ son todos distintos: si por ejemplo, α = β, entonces f indu-
cirı́a en el plano invariante L[u, v] una homotecia, y tendrı́a demasiadas rectas
invariantes. El polinomio caracterı́stico es P (T ) = (α − T )(β − T )(γ − T ).
(2) Supongamos ahora que las rectas invariantes de f son: (i) una recta
invariante L, y (ii) un plano W de rectas invariantes (como en el ejemplo
III.11.7, vol. 2, p. 8), que no contiene a L. En estas condiciones, W es un plano
invariante, y también lo es cualquiera H que contenga a L (pues estará gene-
rado por las rectas invariantes L y H ∩ W ); la dualidad nos dice que no hay
más.
Elegimos ahora: (i) un generador u de L, que será un autovector, esto es
22 III. Clasificación de endomorfismos

f (u) = αu, y (ii) una base cualquiera {v, w} de W . Por la clasificación de


endomorfismos del plano, f debe ser una homotecia en W , de razón digamos
β, luego f (v) = βv y f (w) = βw. Por tanto la matriz de f respecto de la base
{u, v, w} es  
α 0 0
0 β 0 ,
0 0 β
con dos autovalores distintos, pues si α = β, f serı́a una homotecia y tendrı́a
demasiadas rectas invariantes. El polinomio caracterı́stico es

P (T ) = (α − T )(β − T )2 .

(3) En los casos anteriores las raı́ces del polinomio caracterı́stico P (T )


de f estaban todas en K. Supongamos ahora que E es un espacio real, esto
es, K
√ = R, y que P (T ) tiene una raı́z real λ y dos imaginarias conjugadas
α ∓ −1β, β > 0. Resulta que f tiene al menos una recta invariante (generada
por un autovector asociado a λ), y por la dualidad, f tiene también un plano
invariante W = L[v, w] ⊂ E. Afirmamos que W no contiene autovectores.
En efecto, si los contuviera, podrı́amos suponer que uno de ellos es w, de
manera que f (w) = λw, y como f (v) ∈ W , existen b, c ∈ R con f (v) = bv +cw.
Ahora sea u ∈ E un tercer vector que completa una base {u, v, w} de E.
Respecto de ella la matriz de f será
 
a 0 0
b0 b 0  ,
c0 c λ

con todos los escalares en R. Pero entonces el polinomio caracterı́stico serı́a


P (T ) = (a − T )(b − T )(λ − T ) y tendrı́a demasiadas raı́ces reales.
Por tanto, en el plano invariante W no hay autovectores, luego por la
clasificación de endomorfismos del plano real, se puede elegir la base {v, w} de
W respecto de la cual la matriz de f |W sea del tipo cuarto de III.12.1(2), vol.
2, p. 16. Añadiendo a esa base de W un autovector u, que no estará en W por
lo que acabamos de ver, obtenemos una base {u, v, w} de E respecto la cual
la matriz de f es  
λ 0 0
M =  0 α −β  con β > 0.
0 β α
12. Clasificación de endomorfismos 23

Calculando con esta matriz resulta P (T ) = (λ−T ) β 2 +(α−T )2 √



, y concluimos
que las raı́ces complejas conjugadas de P (T ) son en efecto α ∓ −1β.
En cuanto a subespacios invariantes, f tiene únicamente una recta y un
plano. En efecto, ya sabemos que L = L[u] es invariante. Si hubiera otra recta
invariante L0 = L[u0 ], entonces V = L[u, u0 ] serı́a un plano invariante, y V ∩ W
una recta invariante. Pero entonces W contendrı́a autovectores, lo que sabemos
no pasa. En cuanto a los planos invariantes, la dualidad nos dice que sólo hay
uno, que será, claro, W .
También podemos usar la matriz M para buscar rectas y planos invariantes
y confirmar el recuento anterior. Hagámoslo para rectas, a ver qué papel juegan
las raı́ces complejas conjugadas. Denotamos (x, y, z) las coordenadas respecto
de la base {u, v, w} y calculamos:
    
x 0 0 0 x (
(α − λ)y − βz = 0,
(M − λI) y  = 0 α − λ −β  y 
z 0 β α−λ z βy + (α − λ)z = 0.

Pero el determinante del último par de ecuaciones es (α − λ)2 + β 2 > 0, pues


β 6= 0. Por ello, la solución es y = z = 0, ecuaciones que describen la única
recta invariante L[u].
Este es el tipo especial de endomorfismo real que no tiene lugar para espa-
cios complejos. De hecho, si K = C el polinomio caracterı́stico tiene tres raı́ces
distintas y estarı́amos en el caso (1) anterior. 

Y podrı́amos intentar seguir este análisis para clasificar los endomorfismos


de un espacio vectorial de dimensión tres. Pero entrarı́amos ya en materia que
se aborda mejor en general, y que desarrollaremos en las lecciones siguientes.
Cuando la dimensión es mayor que 3, hay que buscar subespacios inva-
riantes de otras dimensiones que rectas e hiperplanos. Veamos a continuación
algunos ejemplos de cómo usar lo que ya sabemos para hacer eso.

Ejemplo 12.6 Estudiemos el endomorfismo f de K4 cuya matriz respecto de


la base estándar es  
−1 2 0 0
 0 1 0 0
M =  0 1 −1 0  .

0 −2 3 2
24 III. Clasificación de endomorfismos

El polinomio caracterı́stico es P (T ) = (1 − T )(2 − T )(−1 − T )2 , de modo que


los autovalores son λ = 1, 2, −1. Denotamos x = (x1 , x2 , x3 , x4 ) ∈ K4 .
(1) Las rectas invariantes se obtienen a partir de las soluciones de los
sistemas (M − λI)xt = 0, que resumimos a continuación:
(i) Para λ = 1, resulta x = ρ(2, 2, 1, 1), luego hay una sola recta inva-
riante, generada por el vector u = (2, 2, 1, 1).
(ii) Para λ = 2, resulta x = ρ(0, 0, 0, 1), y obtenemos la recta invariante
generada por v = (0, 0, 0, 1).
(iii) Para λ = −1, resulta x2 = x3 + x4 = 0, y esas ecuaciones definen un
plano de autovectores, luego un plano todas cuyas rectas son invariantes. Los
autovectores de ese plano se denotarán w, w0 , . . .
(2) Los hiperplanos invariantes H : c1 x1 + c2 x2 + c3 x3 + c4 x4 = 0 se pueden
calcular como hemos explicado en III.12.4(4), vol. 2, p. 20: los coeficientes c =
(c1 , c2 , c3 , c4 ) cumplen c(M − λI) = 0, con λ = 1, 2, −1. Pero aquı́ vamos a
utilizar la dualidad entre rectas e hiperplanos invariantes para evitar cálculos.
Mediante los autovectores u, v, w enumerados en (1) generamos los siguientes
tipos de hiperplanos invariantes

L[v, w, w0 ], L[u, w, w0 ], L[u, v, w].

(i) Los del primer tipo son todos el mismo hiperplano H, generado por
v y el plano de autovectores x2 = x3 + x4 = 0. Por tanto, una ecuación h de
H será una combinación lineal

h(x) = αx2 + β(x3 + x4 ) = 0, α 6= 0 o β 6= 0.

Para que v ∈ H, sus coordenadas (0, 0, 0, 1) deben cumplir esa ecuación, luego
0 = h(0, 0, 0, 1) = β, con lo que h(x) = αx2 , y H es el hiperplano x2 = 0.
(ii) Los hiperplanos del segundo tipo tienen ecuaciones de la forma

h(x) = αx2 + β(x3 + x4 ) = 0, α 6= 0 o β 6= 0,

que ahora debe cumplir el vector u = (2, 2, 1, 1). Por tanto, 0 = h(2, 2, 1, 1) =
2α + 2β, o sea, β = −α y h(x) = α(x2 − x3 − x4 ). Obtenemos de nuevo sólo
un hiperplano: H 0 : x2 − x3 − x4 = 0.
(iii) Los hiperplanos del tercer tipo L[u, v, w], son los hiperplanos que
contienen al plano L[u, v]. En efecto, si H 00 ⊃ L[u, v], como H 00 debe cortar al
12. Clasificación de endomorfismos 25

plano de autovectores x2 = x3 + x4 = 0, con un vector w de esa intersección


obtenemos una base {u, v, w} de H 00 . El plano L[u, v] es x1 −2x3 = x2 −2x3 = 0,
luego las ecuaciones de estos hiperplanos invariantes son
H 00 : h(x) = α(x1 − 2x3 ) + β(x2 − 2x3 ) = 0.
Y ya no debemos buscar más, pues todos estos hiperplanos se corresponden
bien por dualidad con los autovectores de (1).
(3) Encontremos ahora los planos invariantes de f mediante argumentos de
tipo geométrico. En primer lugar, cada par de rectas invariantes, o si se quiere,
autovectores, generan un plano invariante. Esto da infinitos planos invariantes,
pero de los siguientes cuatro tipos:
L[u, v], L[u, w], L[v, w], L[w, w0 ].
Como éstos son ya unos cuantos, veamos si puede haber más planos invarian-
tes. Sea W un plano invariante de f . Observamos que al intersecar W con
cada hiperplano invariante de f que no contenga a W , obtenemos una recta
invariante. Consideramos las intersecciones siguientes:
(∗) W ∩{x2 = 0}, W ∩{x2 −x3 −x4 = 0}, W ∩{x1 −2x3 = 0}, W ∩{x2 −2x3 = 0},
y pretendemos que tiene que haber dos rectas distintas entre ellas. Esto se
deduce de una observación de comprobación inmediata: la intersección de los
cuatro hiperplanos se reduce al vector nulo (0, 0, 0, 0). Dicho esto, si alguna
o algunas de las intersecciones de (∗) son W , y las demás una misma recta
L ⊂ W , entonces los cuatro hiperplanos contendrı́an esa recta L, imposible.
Por tanto, hay efectivamente al menos dos rectas distintas como decı́amos, que
generarán W .
En conclusión, no hay más planos invariantes que los generados por pares
de rectas invariantes. 

En el ejemplo anterior sólo hemos necesitado calcular mediante ecuaciones


los autovectores para obtener todos los subespacios invariantes. Esto no es
siempre ası́:

Ejemplo 12.7 Sea ahora f el endomorfismo de K4 dado por


    
y1 −1 2 −1 0 x1
y2   0 2 0 0  x2 
 =
y3   0 1 2 0  x3  .
 

y4 0 −1 1 −1 x4
26 III. Clasificación de endomorfismos

El polinomio caracterı́stico es P (T ) = (−1 − T )2 (2 − T )2 , y los autovalores son


λ = 2, −1. Pasamos a calcular subespacios invariantes.
(1) Rectas invariantes o autovectores x = (x1 , x2 , x3 , x4 ). Se plantean los
sistemas (M − λI)xt = 0 y:
(i) Para λ = 2 es x = ρ(1, 0, −3, −1), es decir la recta L[u], u =
(1, 0, −3, −1).
(ii) Para λ = −1 resulta x2 = x3 = 0, esto es, un plano de autovectores.
(2) Hiperplanos invariantes. Los autovectores que hemos encontrado ge-
neran el hiperplano invariante x2 = 0, pero por dualidad debe haber otros,
que buscaremos según se explicó en III.12.4(4), vol. 2, p. 20. Allı́ se vió que
el hiperplano H : c1 x1 + c2 x2 + c3 x3 + c4 x4 = 0 es invariante si y sólo si los
coeficientes c = (c1 , c2 , c3 , c4 ) cumplen c(M − λI) = 0, para los autovalores λ.
Es decir, los mismos sistemas que para el cálculo de rectas invariantes, sólo
que ahora las incógnitas son una fila. Entonces:
(i) Para λ = 2, resulta el sistema 2c1 + c3 − c4 = −c1 + c4 = c4 = 0,
luego c1 = c3 = c4 = 0 y tenemos el hiperplano invariante x2 = 0, que es el
hiperplano invariante que ya conocemos.
(ii) Para λ = −1, tenemos 2c1 + 3c2 + c3 − c4 = −c1 + 3c3 + c4 = 0.
Resolviendo queda c1 = 9α + 3β, c2 = −7α − β, c3 = 3α, c4 = 3β, de manera
que obtenemos los hiperplanos invariantes:

H : (9α + 3β)x1 + (−7α − β)x2 + 3αx3 + 3βx4 = 0.

Reescribimos esto ası́:

H : α(9x1 − 7x2 + 3x3 ) + β(3x1 − x2 + 3x4 ) = 0,

y deducimos que se trata de los hiperplanos que contienen al plano (invariante)


(
9x1 − 7x2 + 3x3 = 0,
W :
3x1 − x2 + 3x4 = 0.

(3) Para encontrar los planos invariantes de f empezamos por enumerar


los evidentes: los planos generados por autovectores, y el plano W de (2)(ii),
contenido en todos los hiperplanos invariantes. Señalemos además que este
último plano W no está generado por autovectores, pues su intersección con
el plano de autovectores x2 = x3 = 0 se reduce a {0}. Estudiemos si éstos son
todos los planos invariantes.
12. Clasificación de endomorfismos 27

Primeramente, observamos que ningún plano invariante contiene todos los


autovectores de f (hay demasiados), luego siempre se le puede añadir uno
para generar un hiperplano invariante. Es decir, cada plano invariante de f
está contenido en algún hiperplano invariante. Dicho esto:
(i) El hiperplano invariante x2 = 0 contiene todos los autovectores de f ,
de modo que la restricción de f a este hiperplano es del tipo III.12.5(2), vol.
2, p. 21, y en consecuencia todos sus planos invariantes están generados por
autovectores.
(ii) Un hiperplano invariante

H : α(9x1 − 7x2 + 3x3 ) + β(3x1 − x2 + 3x4 ) = 0

sólo contiene dos autovectores: u = (1, 0, −3, −1) y w = (−β, 0, 0, 3α + β) (que


se obtiene resolviendo x2 = x3 = α(9x1 − 7x2 + 3x3 ) + β(3x1 − x2 + 3x4 ) = 0).
Por dualidad, H contiene exactamente dos planos invariantes, que reconocemos
entre los hallazgos anteriores: son L[u, w] y el plano
(
9x1 − 7x2 + 3x3 = 0,
W :
3x1 − x2 + 3x4 = 0.

Queda probado que no hay más planos invariantes que los que decı́amos. 

El siguiente ejemplo apura un poco más lo que somos capaces de calcular


mediante ecuaciones:

Ejemplo 12.8 Analicemos aquı́ un tercer endomorfismo f de K4 con matriz


(respecto de la base estándar):
 
4 2 1 1
−2 0 −1 −1 
M = −2 −2 2 0  .

0 0 8 2

El polinomio caracterı́stico es P (T ) = (2 − T )4 , con el único autovalor λ = 2.


(1) El sistema para obtener rectas invariantes, generadas por autovectores
x = (x1 , x2 , x3 , x4 ) es (M − λI)xt = 0, que da

2x1 + 2x2 + x3 + x4 = −2x1 − 2x2 = 8x3 = 0,


28 III. Clasificación de endomorfismos

y obtenemos la recta invariante generada por el autovector u = (1, −1, 0, 0).


(2) Para obtener hiperplanos invariantes H : c1 x1 + c2 x2 + c3 x3 + c4 x4 = 0
el sistema es c(M − λI) = 0, luego
2c1 − 2c2 − 2c3 = c1 − c2 + 8c4 = c1 − c2 = 0,
que da el hiperplano invariante H : x1 + x2 = 0.
(3) No tenemos suficientes rectas ni hiperplanos invariantes para generar
planos invariantes, pero advertimos que los hay. En efecto, como el autovec-
tor u está en el hiperplano invariante H, este hiperplano debe por dualidad
contener un plano invariante. Lo que hacemos para buscarlo es considerar
el endomorfismo restricción f |H : H → H. Para operar nos quedamos con
(x2 , x3 , x4 ) como coordenadas en H, y las ecuaciones de f |H se obtienen ha-
ciendo x1 = −x2 en las de f :


 (y1 = 4x1 + 2x2 + x3 + x4 = −2x2 + x3 + x4 = −y2 ),
y2 = −2x1 − x3 − x4 = 2x2 − x3 − x4 ,

y = −2x1 − 2x2 + 2x3 = 2x3 ,
 3


y4 = 8x3 + 2x4 = 8x3 + 2x4 .
(La primera igualdad sólo la escribimos para ver cómo refleja que H es inva-
riante.) La matriz de f |H en estas coordenadas (x2 , x3 , x4 ) es
 
2 −1 −1
MH =  0 2 0  ,
0 8 2
y su único autovalor es λ = 2 por supuesto. Los planos invariantes de f |H
están definidos por las ecuaciones c2 x2 + c3 x3 + c4 x4 = 0 cuyos coeficientes
cumplen (c2 , c3 , c4 )(MH − λI) = 0. Esto da el sistema −c2 + 8c4 = −c2 = 0,
es decir, c2 = c4 = 0, y obtenemos el plano invariante W ⊂ H definido en H
por x3 = 0. Para tener unas ecuaciones de W en K4 basta añadir la ecuación
x1 + x2 = 0 de H, y resulta:
W : x1 + x2 = x3 = 0.
(4) En este punto ya no vemos más posibles planos invariantes, ası́ que con-
fiamos en que no haya más, y lo discutimos mediante argumentos geométricos.
Supongamos que W 0 es otro plano invariante. Entonces W 0 no puede estar con-
tenido en H, y W 0 ∩ H será una recta invariante, esto es, será L[u], que es la
única que tiene f . Pero entonces W ∩ W 0 = L[u] y W 0 + W es un hiperplano:
dim(W 0 + W ) = dim(W 0 ) + dim(W ) − dim(W ∩ W 0 ) = 2 + 2 − 1 = 3.
12. Clasificación de endomorfismos 29

De este modo, W 0 +W es un hiperplano invariante distinto de H, contradicción,


y queda probado que no hay más plano invariante que W . 

Observaciones 12.9 Conviene decir que el cálculo repetido de hiperplanos


invariantes proporciona un algoritmo completo de búsqueda de subespacios
invariantes en el caso K = C, porque todo subespacio invariante de un endo-
morfismo complejo está contenido en otro subespacio invariante de dimensión
una unidad mayor.
Para probarlo, supongamos que W es un subespacio invariante de un en-
domorfismo complejo f : E → E, con d = dim(W ) < dim(E). Entonces
consideramos el endomorfismo f¯ = [f ]W : E/W → E/W : [u] 7→ [f (u)]. Co-
mo todo endomorfismo complejo tiene algún autovector, lo tiene f¯, es decir,
existe u ∈ E tal que [u] 6= 0 y f¯([u]) = λ[u]. Esto significa que u ∈
/ W , y que
f (u) − λu ∈ W . Por lo primero, W 0 = W + L[u] contiene a W y tiene dimen-
sión d + 1, y por lo segundo, f (u) ∈ W 0 , de modo que W 0 es un subespacio
invariante de f .
También en el caso real se puede aprovechar este algoritmo, como se hizo
en el ejemplo III.12.1(1), vol. 2, p. 14, caso 3o . En la lección 15 se explicará la
razón de esto con cuidado. 

Podemos resumir cómo buscar subespacios invariantes ası́: (i) se calculan


las rectas y los hiperplanos invariantes, tal vez ayudándose de la dualidad,
(ii) se generan otros subespacios invariantes mediante sumas e intersecciones,
y si la dualidad sugiere que hay más, se calculan hiperplanos invariantes de
subespacios invariantes, (iii) se intenta razonar geométricamente que ya se
han encontrado todos. Y aunque tal vez los métodos geométricos sean menos
aburridos que los algebraicos, vemos que los dos son necesarios. Pero para
combinarlos con fundamento hace falta comprender cualitativamente la es-
tructura general de invariantes de un endomorfismo. Intentaremos alcanzar
tal comprensión en las siguientes lecciones.

Ejercicios y problemas propuestos


Número 1. Calcular los subespacios invariantes del endomorfismo f de K3 dado por

f (x, y, z) = (−2x − 5z, x − y, x + 2z).


30 III. Clasificación de endomorfismos

Número 2. Sea f el endomorfismo de C4 cuya matriz respecto de la base estándar es


0 1
1 1 −2 0
B 0 3 −3 0 C
M =B@ 2 −1 −1 0 A .
C

2 1 −3 0

Encontrar bases de todos los planos invariantes respecto de f contenidos en ker(f 2 ).


Número 3. Calcular los subespacios invariantes del endomorfismo f de K3 dado por

f (x, y, z) = (−4x − 6y, 3x + 5y, 3x + 6y + 5z).

Número 4. Sean f un endomorfismo diagonalizable de un espacio vectorial de dimensión


finita E, y W un subespacio de E invariante por f . Demostrar que la restricción h = f |W
de f a W es un endomorfismo diagonalizable de W .
Número 5. Sean f y g dos endomorfismos diagonalizables de un espacio vectorial de tipo
finito E, que conmutan, esto es, f ◦ g = g ◦ f . Demostrar que existe una base de E respecto
de la que las matrices de f y g son ambas diagonales.
Número 6. Sea f el endomorfismo de C4 cuya matriz respecto de la base estándar es
0 1
−12 0 −6 4
B−15 15 18 −2 C
M =B C.
@ 0 3 −3 4 A
3 −6 −6 2

(1) Comprobar que el hiperplano H : x1 − 2x2 − 2x3 = 0 es invariante y que 18 es un


autovalor de f .
(2) Obtener bases y ecuaciones implı́citas respecto de la base estándar de todos los planos
invariantes de f contenidos en H.
(3) ¿Es diagonalizable la restricción f |H ? ¿Es f diagonalizable?
Número 7. Sea f : K4 → K4 el endomorfismo

f (x) = (2x1 , −x1 − x2 + 2x4 , 2x1 − x2 − x3 , −3x1 + 2x4 ).

Mostrar que los hiperplanos x1 = 0 y x1 − 3x2 + 2x4 = 0 son invariantes, y obtener todos
los planos invariantes de f que contienen.
Número 8. Se considera el endomorfismo de K4 dado por

f (x) = (x1 + x2 , 2x2 + x3 , 2x3 + x4 , x4 ).

(1) Calcular sus rectas y sus hiperplanos invariantes.


(2) Calcular los planos invariantes contenidos en los hiperplanos invariantes de f .
(3) Demostrar que no hay más subespacios invariantes que los encontrados antes.
Número 9. Demostrar que un endomorfismo de un espacio vectorial complejo de tipo
finito E tiene subespacios invariantes de todas las dimensiones. (Razonar por inducción
12. Clasificación de endomorfismos 31

sobre dim(E): (i) mediante cociente módulo una recta invariante, y (ii) por restricción a un
hiperplano invariante.)


Número 10. Calcular las rectas invariantes del endomorfismo f de K3 dado por

f (x, y, z) = (x, x + y, y + 2z),

y mostrar que existe una base respecto de la cual las ecuaciones de f son

f (x0 , y 0 , z 0 ) = (x0 , x0 + y 0 , 2z 0 ).

Encontrar después una tal base.


Número 11. Sea f un endomorfismo de C3 que tiene exactamente una recta y un plano
invariantes. Demostrar que la recta está contenida en el plano, y que respecto de una base
adecuada la matriz del endomorfismo es
0 1
λ 0 0
@1 λ 0A .
0 1 λ


Número 12. Sea W un subespacio invariante de un endomorfismo f : E → E y f |W :
W → W y de [f ]W : E/W → E/W los dos endomorfismos asociados (III.12.2(2), vol. 2, p.
17).
(1) Probar que si W está contenido en otro subespacio invariante W 0 de f de dimensión
una unidad mayor, entonces W 0 = W ⊕ L[u], donde [u] ∈ E/W es un autovector de [f ]W .
(2) Sean B una base de f , M la matriz de f respecto de B y Axt = 0 unas ecuaciones
implı́citas de W . Demostrar que los vectores u ∈ E tales que W ⊕ L[u] es un subespacio
invariante se obtienen resolviendo los sistemas

A(M − λI)xt = 0

para todas las raı́ces λ del polinomio caracterı́stico de [f ]W .


Número 13. Calcular todos los autovectores del endomorfismo f : K4 → K4 definido por

f (x) = (2x1 − x3 , −2x1 + 4x2 + 2x3 , 4x3 + x4 , 4x4 ),

y obtener todos los planos invariantes de f en los que están contenidos.


Número 14. Encontrar todos los subespacios invariantes del endomorfismo de K4 definido
por
f (x) = (x1 , 2x2 , 3x3 , 4x4 ).


Número 15. Encontrar un endomorfismo f de R4 sin rectas invariantes, y con el plano
siguiente invariante:
W : x1 + x2 = x3 + x4 = 0.
¿Se puede encontrar f sin más planos invariantes?
32 III. Clasificación de endomorfismos

13. Subespacios invariantes asociados a un


autovalor
Empezamos aquı́ la búsqueda sistemática de subespacios invariantes. Como
es habitual, sea f : E → E un endomorfismo de un espacio vectorial E de tipo
finito, n = dim(E). Consideramos un autovalor λ de f , fijado para toda la
lección. Ya hemos identificado el subespacio invariante W (λ) = ker(f − λ IdE )
formado por todos los autovectores asociados a λ. Ahora queremos explorar
otros menos visibles, utilizando las potencias sucesivas de la aplicación lineal
g = f − λ IdE .
(13.1) Subespacios invariantes asociados a un autovalor. Extende-
mos la definición de W (λ) utilizando las potencias
k)
(f − λ IdE )k = (f − λ IdE ) ◦ · · · ◦ (f − λ IdE ),

para definir
Nk = Nk (λ) = ker(f − λ IdE )k .

(1) Los Nk son subespacios invariantes de f .


Esto se debe a que f conmuta con todas las potencias (f − λ IdE )k . Para
k = 1 es evidente:

(f − λ IdE ) ◦ f = f ◦ f − λ IdE ◦f = f ◦ f − λf ◦ IdE = f ◦ (f − λ IdE ),

y para k ≥ 2 se escribe
k)
(f − λ IdE )k ◦ f = (f − λ IdE ) ◦ · · · ◦ (f − λ IdE ) ◦ f,

y se aplica repetidamente el caso k = 1 hasta colocar f al otro extremo de


la composición. Como decı́amos, de esto se deduce f (Nk ) ⊂ Nk : si u ∈ Nk se
cumple (f − λ IdE )k (u) = 0 y tenemos

(f − λ IdE )k (f (u)) = (f − λ IdE )k ◦ f (u) = f ◦ (f − λ IdE )k (u) = f (0) = 0.

(2) Este juego de construcción con las potencias (f − λ IdE )k da inmedia-


tamente otras relaciones. En primer lugar, abreviemos g = f − λ IdE , de modo
que Nk = ker(g k ). Como g k+1 (u) = g g k (u) , se deduce:


Nk = ker(g k ) ⊂ ker(g k+1 ) = Nk+1 ,


13. Subespacios invariantes asociados a un autovalor 33

es decir, los Nk forman una cadena de subespacios invariantes

{0} = N0 ( N1 ⊂ · · · ⊂ Nk−1 ⊂ Nk ⊂ Nk+1 ⊂ · · · .

Por tanto, la sucesión de sus dimensiones dk = dim(Nk ) es monótona acotada

0 = d0 < d1 ≤ · · · ≤ dk−1 ≤ dk ≤ dk+1 ≤ · · · ≤ n = dim(E),

y por ello debe ser estacionaria: existe ν ≥ 1 tal que

0 < d1 ≤ · · · ≤ dk−1 ≤ dk ≤ dk+1 ≤ · · · ≤ dν−1 < dν = dν+1 = · · · .

En consecuencia

{0} ⊂ N1 ⊂ · · · ⊂ Nk−1 ⊂ Nk ⊂ Nk+1 ⊂ · · · ⊂ Nν−1 ( Nν = · · · ,

y denotaremos N = N (λ) el subespacio invariante maximal Nν de esta cadena.


(3) Otra relación fácil (de hecho vale como definición por inducción de los
Nk ) es ésta:
g −1 (Nk ) = Nk+1 ,
donde como antes g = f − λ IdE . En efecto, u ∈ g −1 (Nk ), es decir, g(u) ∈ Nk ,
si y sólo si 0 = g k (g(u)) = g k+1 (u), si y sólo si u ∈ Nk+1 . Deducimos el hecho
fundamental siguiente: la aplicación lineal
 
[g]k : Nk+1 Nk → Nk Nk−1 : [u] 7→ [g(u)],

está bien definida y es inyectiva.


Por ello la sucesión de codimensiones

rk = dk+1 − dk = dim(Nk+1 ) − dim(Nk ) = dim(Nk+1 /Nk )

es monótona decreciente:

d1 = r0 ≥ r1 ≥ · · · ≥ rk−1 ≥ rk ≥ rk+1 ≥ · · · ≥ rν−1 > rν = 0 ,

luego Nν es el primer subespacio de la cadena Nk que coincide con el que le


sigue. Ası́, la sucesión de dimensiones (dk ) es estrictamente creciente hasta su
estacionamiento: si k < ν, entonces dk+1 − dk = rk > 0, luego dk < dk+1 .
(4) En fin, por lo que sabemos de bases de un espacio cociente y suple-
mentarios del subespacio correspondiente, de la inyectividad de la aplicación
34 III. Clasificación de endomorfismos

lineal [g]k se deduce que: si u1 , . . . , up son una base de un suplementario de


Nk en Nk+1 , existen v1 , . . . , vq ∈ Nk de modo que g(u1 ), . . . , g(up ), v1 , . . . , vq
son una base de un suplementario de Nk−1 en Nk .
En efecto, la hipótesis sobre los uj significa que sus clases [uj ] mód Nk
son una base del cociente. Como la aplicación lineal [g]k es inyectiva, con-
serva la independencia, luego las clases [g(uj )] mód Nk−1 son independientes.
Por tanto, podemos añadirles otras [vi ] hasta obtener una base del cociente
módulo Nk−1 , por lo que los vectores g(uj ), vi son independientes y generan
un suplementario de Nk−1 en Nk . 
En lo que queda de esta lección nos concentramos en el endomorfismo
inducido en un subespacio invariante maximal. Además de la terminologı́a
y la nomenclatura de III.13.1, vol. 2, p. 32, denotamos fλ : N (λ) → N (λ)
la restricción de f al subespacio invariante maximal N = N (λ) asociado a λ.
Recordemos en especial que mediante g = f −λ IdE los subespacios invariantes
asociados a λ se escriben Nk = ker(g k ).
(13.2) Bases de Jordan. Buscamos una base del subespacio invariante
maximal N , que denominaremos base de Jordan, respecto de la cual la matriz
de fλ sea especialmente sencilla, o sea, muy parecida a la matriz diagonal de
la homotecia de razón λ. En la construcción de esa base serán esenciales las
propiedades de la cadena de subespacios invariantes asociada a λ:
{0} = N0 ( N1 ( · · · ( Nν = N.
Para contar vectores habrá que utilizar las dimensiones de esos subespacios:
0 = d0 < d1 < · · · < dk = dim(Nk ) < · · · < dν−1 < dν = dim(Nν ) · · · ,
y las codimensiones de cada uno en el siguiente:
d1 = r0 ≥ r1 ≥ · · · ≥ rk = dim(Nk+1 ) − dim(Nk ) ≥ · · · ≥ rν−1 > rν = 0.
(1) Procedemos en pasos sucesivos:
Paso 1o : Elegimos una base
u11 , . . . , u1s1 ,
de un suplementario de Nν−1 en Nν . El número s1 es la codimensión rν−1 .
Paso 2o : Por III.13.1(4), vol. 2, p. 33, encontramos vectores u21 , . . . , u2s2 ∈
Nν−1 de manera que
g(u11 ), . . . , g(u1s1 ); u21 , . . . , u2s2 ,
13. Subespacios invariantes asociados a un autovalor 35

sean una base de un suplementario de Nν−2 en Nν−1 . Ası́, s1 + s2 = rν−2 .


Paso 3o : De nuevo, III.13.1(4), proporciona u31 , . . . , u3s3 ∈ Nν−2 tales que
g 2 (u11 ), . . . , g 2 (u1s1 ); g(u21 ), . . . , g(u2s2 ); u31 , . . . , u3s3 ,
son una base de un suplementario de Nν−3 en Nν−2 . Ahora, s1 +s2 +s3 = rν−3 .
Y ası́ sucesivamente vamos descendiendo en la cadena de los Nk . En el
paso penúltimo obtenemos
g ν−2 (u11 ), . . . , g ν−2 (u1s1 ); . . . ; g(uν−2 1 ), . . . , g(uν−2 sν−2 ); uν−1 1 , . . . , uν−1 sν−1 ,
que son una base de un suplementario de N1 en N2 . Se tiene s1 +· · ·+sν−1 = r1 .
Y en el último paso encontramos una base de N1 = W (λ)
g ν−1 (u11 ), . . . , g ν−1 (u1s1 ); . . . ; g(uν−1 1 ), . . . , g(uν−1 sν−1 ); uν 1 , . . . , uν sν ,
con s1 + · · · + sν = r0 = d1 = dim(W (λ)).
Para tener una mejor idea de conjunto, disponemos todos estos vectores
en una tabla triangular, cuyas ν filas corresponden a los pasos que acabamos
de describir:
u11 . . . u1s1
g(u11 ) . . . g(u1s1 ) u21 ... u2s2
.. .. .. ..
. . . .
g ν−1 (u11 ) . . . g ν−1 (u1s1 ) g ν−2 (u21 ) . . . g ν−2 (u2s2 ) ... uν 1 . . . uν sν
Diremos que ésta es la tabla de Jordan de λ. Puede ocurrir que algunas colum-
nas no aparezcan, por supuesto; en caso extremo sólo tendremos la columna
primera de la izquierda.
(2) Una vez terminada, repasemos la construcción anterior empezando por
la última fila de la tabla que la resume. Esa última fila es una base de N1 ; la
penúltima, de un suplemento de N1 en N2 ; la antepenúltima, de un suplemento
de N2 en N3 ,... Y ası́ hasta la primera, que es una base de un suplemento de
Nν−1 en Nν . Por tanto todos esos vectores forman una base de Nν . Pero no
es exactamente la que nos interesa, sino que la reordenamos enumerando sus
vectores por columnas en lugar de por filas. Esa es la base de Jordan buscada,
que denotamos BJ . La razón de esta ordenación es que en cada columna un
vector es imagen por g del que le precede, lo que simplifica los cálculos de
manera radical. Con precisión, una columna tı́pica es
w1 , w2 = g(w1 ), w3 = g(w2 ), . . . , wk = g(wk−1 ), con wk ∈ N1 .
36 III. Clasificación de endomorfismos

En consecuencia, como f = λ IdE +g, tenemos


(
f (w` ) = λw` + g(w` ) = λw` + w`+1 para 1 ≤ ` < k,
f (wk ) = λwk + g(wk ) = λwk pues wk ∈ N1 = ker(g).

De este modo, los vectores w` de la columna en cuestión son una base de un


subespacio invariante W de dimensión k, respecto de la cual la matriz de fλ |W
es:  
λ 0 0 ··· 0 0
1 λ 0 ··· 0 0
 
0 1 λ ··· 0 0
Jk (λ) =  . . . . .. ..  .
 
. .
. . . . . . . .
 
0 0 0 ··· λ 0
0 0 0 ··· 1 λ
Esta matriz cuadrada de orden k se llama caja de Jordan de orden k, y como
habı́amos prometido, se parece verdaderamente mucho a una matriz diagonal.
L
(3) Para terminar, observamos que Nν = W , siendo los W los subespa-
cios invariantes generados por las columnas de la tabla de (1) según se acaba
explicar. En consecuencia, la matriz de la restricción fλ = f |Nν (λ) respecto
de la base BJ es una matriz J(λ) diagonal por cajas de Jordan de órdenes
decrecientes. Esta matriz se denomina forma de Jordan de fλ .
(4) Podemos decir con exactitud cuántas cajas hay de cada orden en J(λ),
examinando con atención la tabla del apartado (1):
Paso 1o : Las primeras s1 columnas dan lugar a cajas de Jordan de orden
ν. Sabemos que s1 = rν−1 .
Paso 2o : Las siguientes s2 columnas dan cajas de orden ν − 1. Como s1 +
s2 = rν−2 , es s2 = rν−2 − rν−1 .
Paso 3o : Después hay s3 cajas de orden ν − 2, con s1 + s2 + s3 = rν−3 ,
ası́ que
s3 = rν−3 − (rν−2 − rν−1 ) − rν−1 = rν−3 − rν−2 .

Y ası́ hasta las últimas sν = r0 − r1 columnas, que dan cajas de orden 1.


Nótese que el número total de cajas es la dimensión de N1 .
Más que las fórmulas explı́citas, lo importante es darse cuenta de que J(λ)
sólo depende de la sucesión de dimensiones. Por otra parte, es obvio que estos
13. Subespacios invariantes asociados a un autovalor 37

cálculos son reversibles, de manera que conocida la estructura de la matriz


J(λ) podemos calcular las codimensiones rk , y por ello las dimensiones dk . 

Ejemplo 13.3 Analicemos el endomorfismo derivada para polinomios de gra-


do ≤ n en una variable t:

f : E = Kn [t] → E : P (t) 7→ P 0 (t), dim(E) = n + 1.

Como f (tk ) = ktk−1 , es sencillo calcular la matriz de f respecto de la base


habitual {1, t, . . . , tn }, y el polinomio caracterı́stico resulta (−T )n+1 . Por tanto
λ = 0 es el único autovalor de f . Por otra parte, la derivada disminuye el grado
en una unidad, luego n + 1 derivaciones anulan cualquier polinomio de grado
≤ n. En otras palabras, f n+1 = 0, luego el subespacio maximal invariante es
ker(f − λ IdE )n+1 = E. Pero como f n (tn ) = n! 6= 0, resulta

(f − λ IdE )n = f n 6= 0, luego ker(f − λ IdE )n ( E,

con lo que la sucesión de subespacios invariantes se estabiliza en el paso n + 1.


Como tenemos que llegar a dimensión n + 1 precisamente, todas las codi-
mensiones deben ser 1 y la tabla de Jordan de f tiene una sola columna. En
consecuencia, f tiene una única caja de Jordan Jn+1 (0).
Además, obtenemos una base de Jordan. Como hemos visto, tn no está en
el penúltimo eslabón de invariantes, luego una tal base está formada por las
imágenes

(f − λ IdE )k (tn ) = f k (tn ) = n(n − 1) · · · (n − k + 1)tn−k (0 ≤ k ≤ n).

Es interesante ver cómo se ha modificado la base estándar para obtener ésta.




(13.4) Subespacios invariantes. Volviendo a nuestra preocupación prin-


cipal, observamos que el análisis de la sucesión de subespacios invariantes Nk
asociados al autovalor λ nos describe todos los subespacios invariantes W de
f contenidos en el subespacio invariante maximal N (λ) = Nν , que incluyen,
claro, los Nk .
En efecto, supongamos que W es invariante, y consideremos las restriccio-
nes f 0 = f |W y g 0 = f 0 − λ IdW = (f − λ IdE )|W = g|W . Evidentemente, los
subespacios
Nk0 = ker(f 0 − λ IdW )k = Nk (λ) ∩ W
38 III. Clasificación de endomorfismos

constituyen la cadena de subespacios invariantes del autovalor λ para el en-


domorfismo f 0 . De este modo, podemos encontrar una base de Jordan para el
subespacio invariante maximal
N 0 (λ) = Nν0 0 = Nν 0 (λ) ∩ W, para cierto ν 0 ≤ ν.
En consecuencia, W estará generado por los vectores de una tabla de Jordan
(de dimensiones menores a la de N (λ) por supuesto):
u11 . . . u1s01
0 0
g (u11 ) . . . g (u1s01 ) u21 ... u2s02
.. .. .. ..
. . . .
ν 0−1 ν 0−1 ν 0−2 ν 0−2
g0 (u11 ) . . . g 0 (u1s01 ) g 0 (u21 ) . . . g 0 (u2s02 ) ... uν 0 1 . . . uν 0 s0ν

Todas las posibles tablas de este tipo, y por tanto todos los posibles subespacios
invariantes W ⊂ N (λ) se obtienen eligiendo: (i) un ı́ndice ν 0 ≤ ν, y (ii) los
vectores uk` de la fila k-ésima para que esa fila sea una colección de vectores
independientes dentro de un suplementario de Nk−1 en Nk .
Por ejemplo, supongamos que la forma de Jordan de f |N (λ) tiene una única
caja de Jordan:  
λ 0 0 ··· 0 0
 1 λ 0 ··· 0 0 
 
 0 1 λ ··· 0 0 
J(λ) =  . . . . .
 
 .. .. .. . . ... ... 

 
 0 0 0 ··· λ 0 
0 0 0 ··· 1 λ
Esto significa que la tabla de Jordan sólo tiene una columna, luego elegido
ν 0 ≤ ν, ya está todo: sea el que sea u ∈ Nν 0 \ Nν 0 −1 , cada g k (u) (0 ≤ k < ν 0 )
genera un suplementario de Nν 0 −k−1 en Nν 0 −k , de modo que
0
W = L[u, g(u), . . . , g ν −1 (u)] = Nν 0 .
En otras palabras, en este caso los únicos subespacios invariantes contenidos
en N (λ) son los Nk . Esto ocurre en el ejemplo anterior III.13.3, vol. 2, p. 37.


Observación 13.5 Cuando P (T ) = (λ − T )n , lo que hemos explicado en esta


lección basta para analizar completamente el endomorfismo f dado, pues en
ese caso
ker(f − λ IdE )n = E, Nν (λ) = E, fλ = f,
13. Subespacios invariantes asociados a un autovalor 39

y BJ es una base de E.
En efecto, probemos por inducción sobre n que (f − λ IdE )n = 0. El caso
n = 1 no requiere explicación, ası́ que suponemos n > 1. El polinomio carac-
terı́stico de g = f − λ IdE es (−T )n , con el único autovalor 0. Consideramos
un hiperplano invariante H de g, una base BH de H, y un vector u ∈ E \ H.
Entonces B = BH ∪ {u} es una base de E y
 
Mg|H (BH ) ∗
Mg (B) = .
0 α

Deducimos (−T )n = Pg (T ) = Pg|H (T )(α − T ), de modo que:

(i) Pg|H (T ) = (−T )n−1 y por inducción (g|H )n−1 = 0. Se deduce que g n se
anula idénticamente en H.
(ii) α = 0, y por tanto g(u) ∈ H. Como (g|H )n−1 = 0, se sigue 0 =
g n−1 (g(u)) = g n (u).

De (i) y (ii) resulta lo que queremos. 


Lo anterior es un caso particular sencillo del denominado Teorema de
Cayley-Hamilton, que se demostrará más adelante. Pero digamos también que
comprobarlo es inmediato en todos los ejemplos.

Ejemplo 13.6 Consideremos el endomorfismo f de K3 cuya matriz respecto


de la base estándar E es  
0 −1 1
M = 4 4 1 .
0 0 2
(1) El polinomio caracterı́stico de f es
 
−T −1 1
P (T ) = det  4 4 − T 1  = (2 − T )(T 2 − 4T + 4) = (2 − T )3 .
0 0 2−T
Hay sólo un autovalor: λ = 2, y denotamos N1 ⊂ N2 ⊂ N3 ⊂ · · · la cadena
correspondiente de subespacios invariantes. Calculando un poco:

dim(N1 ) = 3 − rg(M − 2I) = 1,

dim(N2 ) = 3 − rg(M − 2I)2 = 2,

dim(N3 ) = 3 − rg(M − 2I)3 = 3,

40 III. Clasificación de endomorfismos

por lo que en N3 = K3 se estabiliza la cadena, y d0 = 0 < d1 = 1 < d2 =


2 < d3 = 3. Acabamos de comprobar III.13.5, vol. 2, p. 38, pero si en lugar de
comprobarlo lo suponemos, podemos evitar parte de los cálculos anteriores.
Sabido que d1 = 1, parece haber dos posibles sucesiones de dimensiones di :

d0 = 0 < d1 = 1 < d2 = 2 < d3 = 3 y d0 = 0 < d1 = 1 < d2 = 3.

Pero la sucesión de codimensiones ri = di+1 − di debe ser decreciente, y en


particular d1 ≥ d2 − d1 , lo que excluye la segunda posibilidad.
Deducimos que hay una sola caja de Jordan, de tamaño 3 por haber tres
eslabones distintos en la cadena, y la matriz de Jordan de f es
 
2 0 0
J = 1 2 0  .
0 1 2

(2) Si queremos exhibir explı́citamente una base de Jordan BJ necesitamos


/ N2 = ker(f − 2I)2 , de modo que BJ = {u, g(u), g 2 (u)}. Pero la
un vector u ∈
matriz de (f − 2I)2 es
 2  
−2 −1 1 0 0 −3
(M − 2I)2 =  4 2 1  =  0 0 6  ,
0 0 0 0 0 0

de modo que vale por ejemplo el vector u = (0, 0, 1) Sus imágenes sucesivas
por g = f − 2I y g 2 = (f − 2I)2 son

g(u) = (1, 1, 0) y g 2 (u) = (−3, 6, 0).

En resumen, BJ = {(0, 0, 1), (1, 1, 0), (−3, 6, 0)}. El lector comprobará que la
matriz de cambio de base es
   
0 1 −3 0 0 9
C = C(BJ , E) =  0 1 6  , que C −1 = 19  6 3 0  ,
1 0 0 −1 1 0

y que se cumple la igualdad M = CJC −1 .


(2) Calculemos ahora las potencias M k directamente, sin recurrir a la
fórmula M k = CJ k C −1 . Para ello escribimos

M = A + B, con A = 2I, B = M − 2I.


13. Subespacios invariantes asociados a un autovalor 41

Como A es múltiplo de la identidad, A y B conmutan, luego por la fórmula


de Newton:
k  
X k
M k = (A + B)k = Ak−` B ` .
`
`=0

Pero sabemos que B3 = 0 (pues N3 = K3 ), luego sólo quedan los tres primeros
sumandos:

M k = Ak +kAk−1 B + 21 k(k − 1)Ak−2 B 2 = 2k I +k2k−1 B + 21 k(k − 1)2k−2 B 2 .

En consecuencia
(1 − k)2k −k2k−1 k(7 − 3k)2k−3
 

M k =  k2k+1 (1 + k)2k k(3k − 1)2k−2  .


0 0 2k

Hemos hecho los cálculos sin recurrir a la forma de Jordan J. Pero esto ha sido
posible porque al haber un único autovalor, hay dos matrices A y B adecuadas
que conmutan. Veremos más adelante que en general hay que utilizar la fórmula
de Newton para calcular las potencias de la forma de Jordan, y deducir después
las de M .

Ejemplo 13.7 Estudiemos ahora el endomorfismo f de C3 cuya matriz res-


pecto de la base estándar E es
 
1 0 1
M = 0 1 0 .
0 0 1

(1) Su polinomio caracterı́stico es


 
1−T 0 1
P (T ) = det  0 1−T 0  = (1 − T )3 ,
0 0 1−T

luego sólo tiene el autovalor λ = 1, y :

dim(N1 ) = 3 − rg(M − I) = 2.

Como ya hemos advertido en III.13.5, vol. 2, p. 38, en esta situación dim(N2 ) =


3, cosa que se comprueba inmediatamente. Por esto, la cadena de subespacios
42 III. Clasificación de endomorfismos

invariantes tiene dos eslabones distintos N1 ⊂ N2 = C3 . Como la última


codimensión es 1, tendremos una sola caja de Jordan de orden 2, luego ne-
cesariamente habrá que añadirle una más de orden 1, y resulta la forma de
Jordan de f :  
1 0 0
J = 1 1 0  .
0 0 1
(2) Elegimos u = (0, 0, 1) ∈/ N1 , de modo que g(0, 0, 1) = (1, 0, 0) ∈ N1 .
Como también (0, 1, 0) ∈ N1 , resulta que BJ = {(0, 0, 1), (1, 0, 0), (0, 1, 0)} es
una base de Jordan, respecto de la cual la matriz de f es J (y obsérvese cómo
deben ordenarse los vectores). Se tiene M = CJC −1 con
   
0 1 0 0 0 1
C = M (BJ , E) =  0 0 1  , C −1 =  1 0 0  .
1 0 0 0 1 0

(3) Para calcular M k escribimos: M = A + B con A = I, B = M − I.


Como ahora B 2 = 0:
 
k   1 0 k
k k
X k k−` `
M = (I + B) = A B = I + kB = 0 1
 0.
`
`=0 0 0 1


Observaciones y Ejemplos 13.8 Recordemos ahora los ejemplos III.11.7,


vol. 2, p. 8. En el primero de ellos pudimos calcular, mediante un cambio de
base, las potencias M k de la matriz porque el endomorfismo era diagonalizable.
En los otros dos, no, por no darse la misma circunstancia. Sin embargo, el
segundo se puede tratar como los dos anteriores de esta lección (III.13.6, vol. 2,
p. 39; III.13.7, vol. 2, p. 41), puesto que, como en éstos, el subespacio invariante
maximal del único autovalor presente es todo el espacio. En cuanto al tercer
ejemplo III.11.7(3), vol. 2, p. 10, no se puede hacer lo mismo, pues hay más de
un autovalor. Analicémoslo más detenidamente. El endomorfismo en cuestión
f : K3 → K3 tenı́a matriz
 
1 −1 3
M =0 3 1
0 −1 1
13. Subespacios invariantes asociados a un autovalor 43

(respecto de la base estándar E), polinomio caracterı́stico P (T ) = (1 − T )(2 −


T )2 , y autovalores λ = 1, 2. Calculando las cadenas de subespacios invariantes
para cada autovalor resulta:
(
λ = 1 : {0} ⊂ W (λ) = N (λ) : y = z = 0,
λ = 2 : {0} ⊂ W (λ) : −x − y + 3z = y + z = 0 ⊂ N (λ) : x − 3y − 7z = 0 .

Ası́ que {(1, 0, 0)} y {(3, 1, 0), (−4, 1, −1)} son bases de Jordan de esos dos
subespacios invariantes maximales, y juntas son una base BJ de todo el es-
pacio. Denotamos C = C(BJ , E) y J = Mf (BJ ), de modo que M = CJC −1 .
Entonces M k = CJ k C −1 y fijamos nuestra atención en las potencias J k . Te-
nemos
     
1 1 0 0 0 0 0
J = 2  =  0 2 0  +  0 0 0  = A + B,
1 2 0 0 2 0 1 0

donde hemos separado la parte diagonal A de J. Las dos matrices A y B


conmutan, y B 2 = 0, de modo que utilizando la fórmula del binomio de Newton
J k = (A + B)k = Ak + kAk−1 B, y M k = C(Ak + kAk−1 B)C −1 . No hacemos
los cálculos, pero ya vemos que son accesibles.
Los ejemplos desarrollados sugieren una estrategia simple para calcular
las potencias de una matriz: descomponerla en suma de dos matrices que
conmuten entre sı́, una diagonal y otra con alguna potencia nula, y utilizar la
fórmula del binomio de Newton. A veces se puede hacer esto directamente con
la matriz de partida (I.3.13, vol. 1, p. 412; III.13.6, vol. 2, p. 39; III.13.7, vol.
2, p. 41), a veces hay que hacer un cambio de base (III.11.7, vol. 2, p. 8). El
ejemplo III.11.7(1) ilustra por qué. En efecto, si intentamos utilizar la matriz
B = M − A, los cálculos son desalentadores: (i) esta B no conmuta con A, de
modo que la fórmula de Newton no vale, y (ii) ninguna potencia de B es nula.


Volviendo al estudio de endomorfismos, ya adivinamos qué conviene: tratar


separadamente cada autovalor según su cadena de subespacios invariantes, y
después reunir la información de todos. Pero hay que saber si esto funciona
siempre bien: a ello nos dedicaremos en la lección siguiente.
44 III. Clasificación de endomorfismos

Ejercicios y problemas propuestos


Número 1. Demostrar que cualquier matriz cuadrada real de orden 2 cuyo determinante
es negativo, es semejante en M2 (R) a una matriz diagonal.
Número 2. Hallar la forma de Jordan de un endomorfismo f de C2n cuyo núcleo coincide
con su imagen.
„ «15
2 −1
Número 3. Calcular .
1 0

Número 4. Sea f el endomorfismo de K3 de ecuaciones


f (x, y, z) = (3x − y + z, x + y + z, 2z).
Mostrar que tiene un único autovalor, que su subespacio invariante maximal es todo K3 , y
calcular su forma de Jordan.
Número 5. Se considera el endomorfismo f de K3 , distinto de IdE , dado por
f (x, y, z) = (x + ay + bz, y + cz, z).
Estudiar los subespacios invariantes asociados al único autovalor de f , y la forma de Jordan
correspondiente, según los valores de los parámetros a, b, c.
Número 6. Sea f : E → E un endomorfismo nilpotente, es decir, tal que f k = 0 para
algún entero k ≥ 1. Demostrar que el único autovalor de f es λ = 0, y su subespacio maximal
invariante es todo el espacio: N (λ) = E. Deducir que la traza de un endomorfismo nilpotente
(y de todas sus potencias) es nula.
Número 7. Sean a, b números reales con a < b, y sea f el endomorfismo de C3 cuya matriz
respecto de la base estándar es
0 1
a 0 b−1
A = @ 1 b −1 A .
0 1 −1

(1) Calcular a y b sabiendo que ker(f ) = im(f 2 ).


(2) Calcular la forma de Jordan de f .

Número 8. Sean E un espacio vectorial de tipo finito y dimensión 3, y f : E → E un


endomorfismo cuya imagen coincide con el núcleo de f 2 . Demostrar que f es nilpotente, y
que dim(ker(f )) = 1. Usar esto para obtener la forma de Jordan de f .

 Número 9. ¿Existe algún endomorfismo f de C2n tal que ker(f n ) = im(f n−1 )?
Número 10. Sean E el espacio vectorial de los polinomios de grado ≤ d con coeficientes
complejos, y f el endomorfismo de E definido por la substitución: F (T ) 7→ F (T + 1). De-
mostrar que el único autovalor de f es λ = 1, que su subespacio invariante maximal es todo
E, y calcular la forma de Jordan de f .
Número 11. De un endomorfismo f de E = K8 se sabe que el rango de f − 2 IdE es ≥ 6,
el de (f − 2 IdE )4 es 1, y el de (f − 2 IdE )5 es 0. Demostrar que λ = 2 es el único autovalor
de f y que su espacio invariante maximal es todo E, y calcular la forma de Jordan de f .
14. Teorema de descomposición: caso complejo 45

Número 12. Un endomorfismo f de E = K3 que no es diagonalizable cumple (f −


λ IdE )2 = 0 para cierto λ ∈ K. Demostrar que λ es el único autovalor de f y calcular
su forma de Jordan.
Número 13. Sea E un espacio vectorial de tipo finito y f : E → E un endomorfismo tal
que im(f ) = ker(f 2 ).
(1) Probar que f es nilpotente, y calcular el menor exponente k tal que f k = 0.
/ ker(f 2 ), entonces los tres vectores {u, f (u), f 2 (u)}
(2) Demostrar que si un vector u ∈
son linealmente independientes.
(3) ¿Se da necesariamente la igualdad im(f 2 ) = ker(f )?
(4) ¿Puede ser 5 la dimensión de E?
(5) Calcular la forma de Jordan de f si la dimensión de E es 6.


Número 14. Sean E un espacio vectorial de tipo finito, y f un endomorfismo nilpotente de
E. Demostrar que si otro endomorfismo g de E conmuta con f , entonces det(f + g) = det(g).


Número 15. Sea g un endomorfismo de C3
0
cuya forma de Jordan es
1
λ 0 0
J =@1 λ 0A
0 1 λ
para cierto número complejo λ. Calcular la forma de Jordan del endomorfismo
f : L(C3 , C3 ) → L(C3 , C3 ) : h 7→ g ◦ h.

14. Teorema de descomposición: caso


complejo
Como ya hemos explicado, el cuerpo K es relevante en el estudio de en-
domorfismos. En esta lección 14 suponemos siempre que K es el cuerpo C de
los números complejos. Esto es crucial, porque sobre C todos los polinomios
factorizan linealmente: si P (T ) ∈ C[T ] es un polinomio no constante en la
indeterminada T , existen números complejos λ1 , . . . , λr distintos dos a dos, y
un coeficiente no nulo c ∈ C tales que
P (T ) = c(T − λ1 )m1 · · · (T − λr )mr .
Cada λi es una raı́z de P (T ), y el exponente mi es su multiplicidad; los λi son
todas las raı́ces distintas de P (T ).
Necesitaremos también una propiedad general de los polinomios sobre cual-
quier cuerpo, que en el caso de los números complejos se puede obtener de un
46 III. Clasificación de endomorfismos

modo muy elemental, aprovechando que todo polinomio no constante tiene


alguna raı́z compleja:

Proposición 14.1 Sean P1 (T ), . . . , Ps (T ) polinomios en una indeterminada


T con coeficientes complejos, que no tienen ninguna raı́z común. Entonces
existen otros polinomios A1 (T ), . . . , As (T ) tales que

A1 (T )P1 (T ) + · · · + As (T )Ps (T ) = 1.

Demostración. Consideremos todos los polinomios no nulos

P (T ) = A1 (T )P1 (T ) + · · · + As (T )Ps (T )

obtenidos haciendo variar los Ai (T ) ∈ C[T ]. Alguno de esos P (T ) no nulos


tendrá grado mı́nimo d, y pretendemos que ese grado d es 0.
En efecto, si d ≥ 1 dividimos cada uno de los polinomios iniciales Pi (T )
entre P (T ), para obtener

Pi (T ) = Qi (T )P (T ) + Ri (T ),

donde grado(Ri (T )) < d o Ri (T ) = 0. Pero despejando

Ri (T ) = Pi (T ) − Qi (T )P (T )

= Pi (T ) − Qi (T ) A1 (T )P1 (T ) + · · · + As (T )Ps (T )
= −Qi (T )A1 (T )P1 (T )− · · · +(1− Qi (T )Ai (T ))Pi (T )
− · · · − Qi (T )As (T )Ps (T ),

luego Ri (T ) es un polinomio del mismo tipo que P (T ). Por tanto, al ser el


grado de P (T ) mı́nimo, no puede ser grado(Ri (T )) < d, y necesariamente
Ri (T ) = 0. Ası́:
Pi (T ) = Qi (T )P (T ), 1 ≤ i ≤ s.
En esta situación, sea λ ∈ C una raı́z de P (T ), que existe pues grado(P (T )) =
d ≥ 1. Se deduce:
Pi (λ) = Qi (λ)P (λ) = 0, 1 ≤ i ≤ s,
y λ es una raı́z común de los Pi (T ). Contradicción.
Por tanto, P (T ) tiene grado 0, es decir es una constante no nula : P (T ) =
c 6= 0, y terminamos escribiendo:

1 = 1c P (T ) = 1c A1 (T )P1 (T ) + · · · + 1c As (T )Ps (T ). 
14. Teorema de descomposición: caso complejo 47

Después de este preámbulo, volvamos a nuestro tema principal. Sea E un


espacio vectorial complejo de tipo finito, n = dim(E), y sea f : E → E
un endomorfismo. Denotamos λ1 , . . . , λr los autovalores de f , a los que están
asociados subespacios invariantes maximales N (λ1 ), . . . , N (λr ). Sabemos ya
cómo encontrar la forma de Jordan de cada restricción fλi = f |N (λi ) , y lo que
queremos aquı́ es combinar esas formas parciales. En el caso complejo se tiene
el siguiente teorema, que demostraremos en esta lección:

Teorema 14.2 (Teorema de descomposición) Con las notaciones preceden-


tes:
E = N (λ1 ) ⊕ · · · ⊕ N (λr ).

Y esto es todo lo que hace falta. En efecto, para cada autovalor λi elegimos
una base Bi de N (λi ) respecto de la cual la matriz J(λi ) de f |N (λi ) consiste
en cajas
S de Jordan de órdenes decrecientes. Por el teorema de descomposición,
B = i Bi es una base de E, y respecto de ella la matriz de f es
 
J(λ1 )
J = .. .
.
J(λr )

Esta matriz se denomina forma de Jordan de f .

Observaciones 14.3 Para clasificar endomorfismos de un espacio complejo


de dimensión n basta pues enumerar las posibles formas de Jordan n × n. Algo
de esto habı́amos hecho sin decirlo.
(1) Las matrices que aparecieron al clasificar endomorfismos de un plano
en III.12.1, vol. 2, p. 14, (exceptuada la matriz especı́fica del caso real) son
todas las posibles formas de Jordan 2 × 2, y confirmamos que la clasificación
era completa.
(2) En dimensión 3, las posibles formas de Jordan son
      
λ 0 0 λ 0 0 λ 0 0 λ 0 0 λ 0 0 λ 0 0
 0 µ 0,  0 λ 0 ,  1 λ 0 ,  0 λ 0 ,  1 λ 0 ,  1 λ 0 
0 0 ρ 0 0 µ 0 0 µ 0 0 λ 0 0 λ 0 1 λ

(letras distintas representan autovalores distintos). El cálculo de invariantes


se completa fácilmente resolviendo los sistemas correspondientes a cada una
de las matrices anteriores. El resultado es:
48 III. Clasificación de endomorfismos

(i) El tipo primero tiene tres rectas invariantes.


(ii) El tipo segundo tiene un plano de rectas invariantes y otra recta inva-
riante adicional.
(iii) El tipo tercero tiene dos rectas invariantes.
(iv) El tipo cuarto tiene invariantes todas las rectas del espacio.
(v) El tipo quinto tiene un plano de rectas invariantes.
(vi) El tipo sexto tiene una única recta invariante.
Vemos que las matrices se distinguen todas por sus rectas invariantes, y se
completa lo visto en III.12.5, vol. 2, p. 21. 

(14.4) Subespacios invariantes. No olvidemos que una de las motivacio-


nes de todo nuestro estudio es comprender qué subespacios invariantes tiene un
endomorfismo. Ya hemos ilustrado las dificultades que esa tarea tiene (III.12.6,
vol. 2, p. 23; III.12.7, vol. 2, p. 25; III.12.8, vol. 2, p. 27), y advertido que era
preciso comprender mejor la estructura de los endomorfismos. Pues bien, aho-
ra que algo más comprendemos, podemos decir esto: un subespacio invariante
W de un endomorfismo complejo f : E → E es suma directa de subespacios
invariantes contenidos en los N (λi ) del teorema de descomposición.
En efecto, vamos a aplicar el teorema de descomposición a f 0 = f |W .
En primer lugar, los autovalores de f 0 serán algunos de los de f , digamos
λi1 , . . . , λis . Denotamos N 0 (λi` ) el subespacio invariante maximal de f 0 aso-
ciado a λi` , y el teorema de descomposición dice que
W = N 0 (λi1 ) ⊕ · · · ⊕ N 0 (λis ).
Ahora tenemos las cadenas de subespacios invariantes asociados a λ = λi`
(
en E: Nk = ker(f − λ IdE )k ,
en W : Nk0 = ker(f 0 − λ IdW )k = Nk ∩ W,

pues (f 0 − λ IdW )k = (f − λ IdE )k |W . Por tanto N 0 (λi` ) = Nk` ∩ W para cierto


k` . Esto muestra que N 0 (λi` ) es un subespacio invariante de Nk` ⊂ N (λi` ).
Esta consecuencia del teorema de descomposición facilita enormemente la
búsqueda de subespacios invariantes. 
(14.5) Canonicidad. Aunque parezca simplificar demasiado, de toda la
larga construcción que conduce a la forma de Jordan de un endomorfismo f ,
14. Teorema de descomposición: caso complejo 49

lo esencial es que f tiene, respecto de una base adecuada, una expresión ma-
tricial formada por cajas de Jordan, y que la estructura de cajas para cada
autovalor λ está encriptada en la sucesión de dimensiones de los subespacios
invariantes asociados a λ. Por otra parte, esas dimensiones se calculan direc-
tamente utilizando la matriz M de f respecto de cualquier base. En resumen,
los números
dk (λ) = dim(Nk (λ)) = dim ker(f − λ IdE )k = n − rg (M − λI)k ,
 

dictan la forma de Jordan de f sin necesidad de exhibir explı́citamente ninguna


base.
Esto puede aprovecharse de forma drástica como explicamos a continua-
ción. La forma de Jordan es una matriz J con los autovalores λi en la diagonal
y a lo sumo algunos 1s inmediatamente debajo de ella. ¿Cómo decidir dónde?
Pues a veces lo más fácil es enumerar todas las posibles J y elegir la única
para la que las dimensiones dk (λi ) cuadren. Que deben cuadrar, pues como
J = CM C −1 , donde C es la matriz de cambio de base, resulta:
k
(J − λI)k = (CM C −1 − λI)k = (CM C −1 − λCIC −1 )k = C(M − λI)C −1
= C(M − λI)C −1 C(M − λI)C −1 · · · C(M − λI)C −1
= C(M − λI)(M − λI) · · · (M − λI)C −1 = C(M − λI)k C −1 ,
y por ser C una matriz regular, rg(J − λI)k = rg(M − λI)k .
En realidad, acabamos de probar que la forma de Jordan es independiente
de la construcción, o, aún más, de la base respecto de la que se obtenga. Por
eso se suele llamar forma canónica de Jordan.
Esto se puede también entender como que dos formas de Jordan distintas
no pueden corresponder a un mismo endomorfismo (salvo reordenación de los
autovalores). En otras palabras, las formas de Jordan resuelven completamente
el problema de clasificación por semejanza de matrices complejas: cada clase
de semejanza está representada por una, y una sola, matriz de Jordan. 
Pasemos ya a la demostración del teorema de descomposición. Debemos
introducir previamente un formalismo que combina endomorfismos y polino-
mios, algo a lo que antes ya hemos apelado ocultamente.
(14.6) Polinomios anuladores de un endomorfismo. Sea f : E → E
un endomorfismo. Denotamos como es habitual
k)
f 0 = IdE , y fk = f ◦ · · · ◦ f para k ≥ 1.
50 III. Clasificación de endomorfismos

Pp k
(1) Sea P (T ) = k=0 ak T ∈ C[T ] un polinomio no nulo. Entonces
p
X
P (f ) = ak f k
k=0

es un endomorfismo de E bien definido. Esta substitución T = f se adecúa al


producto de polinomios: si Q(T ) ∈ C[T ] es otro polinomio, se cumple

(P Q)(f ) = P (f ) ◦ Q(f ),

y en particular, P (f ) ◦ Q(f ) = Q(f ) ◦ P (f ). La demostración se reduce a la


igualdad evidente f k ◦ f ` = f k+` , después de hacer cuidadosamente todas las
operaciones.
(2) La substitución T = f se alı́a bien con los autovalores: si f (u) = λu,
entonces P (f )(u) = P (λ)u.
En efecto, basta ver que f k (u) = λk u. Para k = 0 es trivial, y para k = 1
es la hipótesis. Para k = 2

f 2 (u) = f (f (u)) = f (λu) = λf (u) = λ(λu) = λ2 u.

Ya se ve que repitiendo el cálculo sale lo que se quiere para cualquier k.


(3) Si al hacer la substitución T = f obtenemos el endomorfismo nulo
P (f ) = 0, diremos que P (T ) ∈ K[T ] es un polinomio anulador de f .
Siempre hay un polinomio anulador. En efecto, el espacio L(E, E) tiene
dimensión finita, luego para p suficientemente grande, los endomorfismos

IdE , f, f 2 , . . . , f p ,

no pueden ser independientes, luego existen escalares ak no todos nulos, tales


que
a0 IdE +a1 f + a2 f 2 + · · · + ap f p = 0.
Ası́ P (T ) = k ak T k es un polinomio anulador.
P

(4) Los autovalores de f son raı́ces de cualquier polinomio anulador P (T ).


En efecto, si f (u) = λu con u 6= 0, entonces por (2)

0 = P (f )(u) = P (λ)u,

y como u 6= 0, es P (λ) = 0.
14. Teorema de descomposición: caso complejo 51

Pero lo importante es que además, siempre podemos encontrar un polino-


mio anulador que no tenga otras raı́ces. En efecto, sea P (T ) un polinomio anu-
lador y µ una raı́z suya que no es autovalor de f . Entonces P (T ) = (T −µ)Q(T ),
y para u ∈ E se tiene:

0 = P (f )(u) = (f − µ IdE ) ◦ Q(f )(u) = f Q(f )(u) − µQ(f )(u),

luego f (v) = µv con v = Q(f )(u). Como µ no es autovalor, el vector v =


Q(f )(u) debe ser nulo. Por tanto, Q(T ) es también un polinomio anulador. De
esta manera, podemos eliminar todas las raı́ces que no son autovalores. 
Después de esta preparación, podemos probar ya el teorema de descompo-
sición:
Demostración de III.14.2, vol. 2, p. 47. Recordemos que los subespacios inva-
riantes asociados al autovalor λi son

Nk (λi ) = ker(f − λi IdE )k ,

que a partir de cierta potencia νi son todos iguales al subespacio invarian-


te maximal N (λi ). Empezamos considerando un polinomio anulador mónico
cuyas raı́ces sean los autovalores de f , y lo factorizamos linealmente:
Y
P (T ) = (T − λ1 )m1 · · · (T − λr )mr = (T − λi )mi .
i

Veamos primero que


X
Nmj (λj ) ∩ Nmi (λi ) = {0}.
i6=j

Para ello consideramos los polinomios


Y Y
Pj (T ) = (T − λj )mj y Qj (T ) = Pi (T ) = (T − λi )mi ,
i6=j i6=j

que no tienen raı́ces comunes. Por III.14.1, vol. 2, p. 46,

A(T )Pj (T ) + B(T )Qj (T ) = 1

para ciertos polinomios A(T ), B(T ), y sustituyendo T = f ,

A(f ) ◦ Pj (f ) + B(f ) ◦ Qj (f ) = IdE .


52 III. Clasificación de endomorfismos

Por tanto, para cada u ∈ E resulta

A(f )(Pj (f )(u)) + B(f )(Qj (f )(u)) = u.

Demostremos ya que la intersección anterior


P P Si u ∈ Nmj (λj ), entonces
es nula.
Pj (f )(u) = 0. Por otra parte, si u = i6=j ui ∈ i6=j Nmi (λi ), se tiene
 X XY
Qj (f )(u) = Qj (f ) Σ ui = Qj (f )(ui ) = Pi (f )(ui ) = 0.
i6=j
i6=j i6=j i6=j

En consecuencia, si u está en la intersección que nos interesa,

u = A(f )(Pj (f )(u)) + B(f )(Qj (f )(u)) = A(f )(0) + B(f )(0) = 0.

Esto es lo que querı́amos.


Ahora probaremos que

E = Nm1 (λ1 ) + · · · + Nmr (λr ).

De nuevo usaremos III.14.1, ahora con los polinomios Q1 (T ), . . . , Qr (T ). Ten-


dremos
A1 (T )Q1 (T ) + · · · + Ar (T )Qr (T ) = 1,
y substituyendo T = f ,

A1 (f ) ◦ Q1 (f ) + · · · + Ar (f ) ◦ Qr (f ) = IdE .

Aplicando estos homomorfismos a un vector u ∈ E arbitrario deducimos:

u = u1 + · · · + ur , ui = Ai (f ) ◦ Qi (f )(u).

Hace falta que

ui ∈ Nmi (λi ) = ker(f − λi IdE )mi = ker(Pi (f )),

pero

Pi (f )(ui ) = Pi (f ) ◦ Ai (f ) ◦ Qi (f )(u)
= Ai (f ) ◦ (Qi Pi )(f )(u) = Ai (f ) ◦ P (f )(u) = Ai (f )(0) = 0.

En conclusión, tenemos la descomposición en suma directa

(∗) E = Nm1 (λ1 ) ⊕ · · · ⊕ Nmr (λr ),


14. Teorema de descomposición: caso complejo 53

y casi hemos terminado.


En efecto, es claro que si ki ≥ mi también el polinomio
Y
Q(T ) = (T − λi )ki
i

es un polinomio anulador, luego también

(∗∗) E = Nk1 (λ1 ) ⊕ · · · ⊕ Nkr (λr ).

Como (∗) y (∗∗) son dos sumas directas, y cada sumando de la primera
está contenido en el correspondiente de la segunda, tiene que ser

Nmi (λi ) = Nki (λi ).

En otras palabras la sucesión de espacios invariantes de λi se estabiliza al


menos a partir de Nmi (λi ), ası́ que éste es el subespacio invariante maximal
N (λi ). Esto completa la demostración del teorema de descomposición. 

Observaciones 14.7 (1) La descomposición que acabamos de obtener es

E = ker(f − λ1 IdE )ν1 ⊕ · · · ⊕ ker(f − λr IdE )νr ,

donde νi es el primer exponente para el que se obtiene el subespacio máximal


invariante de λi . Por las propiedades de la substitución T = f , el lector debe
ver claro que el polinomio
Y
Pmin (T ) = (T − λi )νi
i

es un polinomio anulador. Además, en las últimas lı́neas de la demostración


anterior hemos visto que νi ≤ mi , para cualquier otro polinomio anulador
P (T ) = i (T − λi )mi . Por tanto, los polinomios anuladores de f son los
Q
múltiplos de Pmin (T ), y por eso se dice que Pmin (T ) es el polinomio mı́nimo
de f .
Obsérvese que se cumple la igualdad νi = 1, es decir W (λi ) = N (λi ), si y
sólo si la caja de Jordan J(λi ) es diagonal. En consecuencia, f es diagonalizable
si y sólo si su polinomio mı́nimo no tiene raı́ces múltiples.
(2) Utilizando la forma de Jordan J de f , calculamos el polinomio carac-
terı́stico de f :
P (T ) = det(J − T In ) = det(J(λ1 ) − T Ie1 ) · · · det(J(λr ) − T Ier )
= (λ1 − T )e1 · · · (λr − T )er ,
54 III. Clasificación de endomorfismos

de modo que la dimensión ei = e(λi ) del subespacio invariante maximal de


λi es la multiplicidad de λi como raı́z del polinomio caracterı́stico. Obsérvese
que dim(W (λi )) ≤ dim(N (λi )) = ei , es decir: la multiplicidad geométrica
de λi nunca excede a la algebraica, cosa que antes habı́amos explicado más
directamente en III.11.4, p. 5.
(3) Por último, no menos importante es la siguiente observación. Como
hasta alcanzar el subespacio invariante maximal, cuya dimensión es ei , todos
los contenidos de la cadena de subespacios asociados a λi son estrictos, resulta
que el número νi de subespacios no nulos de la cadena acota la dimensión
ei del maximal: νi ≤ ei . Por tanto, el polinomio caracterı́stico es múltiplo
del mı́nimo, y en consecuencia es un polinomio anulador de f . Este es el
denominado Teorema de Cayley-Hamilton. 

Ejemplo 14.8 Volvamos al endomorfismo f de III.12.6, vol. 2, p. 23.


(1) Calculemos qué forma de Jordan tiene f . Los autovalores son 1, 2 de
multiplicidad 1, y −1 de multiplicidad 2. Por tanto sólo hay dos posibles
matrices de Jordan:
   
1 0 0 0 1 0 0 0
0 2 0 0
 y J0 = 0 2 0 0 .
 
J =  0 0 −1 0   0 0 −1 0 
0 0 0 −1 0 0 1 −1

Pero en III.12.6, vol. 2, p. 23, calculamos todas las rectas invariantes de f , y


habı́a un plano de ellas: un plano en el que f inducı́a una homotecia de razón
−1. Esta afirmación no depende de coordenadas, luego debe reconocerse en
las cajas de Jordan del autovalor −1. Pero en J 0 no se reconoce, pues la caja
de −1 sólo tiene una recta invariante (recuérdese la clasificación III.12.1, vol.
2, p. 14, de endomorfismos del plano). Por tanto, la matriz de Jordan de f es
J.
(2) Veamos ahora cómo podemos enumerar sin olvidos todos los subespa-
cios invariantes de f , aprovechando la observación de III.14.4, vol. 2, p. 48. Las
rectas y los hiperplanos ya los calculamos en III.12.6, y vimos allı́ que lo difi-
cultoso era enumerar todos los planos invariantes. Pero por el teorema de des-
composición, sabemos que un plano invariante es suma directa de subespacios
invariantes contenidos en los N (λ). Con las notaciones de III.12.6, esos N (λ)
son: las rectas N (1) = L[u] y N (2) = L[v], y el plano N (−1) : x2 = x3 +x4 = 0.
14. Teorema de descomposición: caso complejo 55

Ası́ pues los planos invariantes son:

N (−1); L[u, v]; L[u, w], L[v, w], w ∈ N (−1).

Vemos que hay infinitos, pero esencialmente de cuatro tipos. 

Ejemplo 14.9 Vamos a calcular la forma de Jordan de un endomorfismo f :


E → E cuyos autovalores son λ = 1, 2 y 6, y de cuyos subespacios invariantes
tenemos la siguiente información

λ = 1 : dim(N1 ) = 3, dim(N2 ) = 4 < dim(N3 ) = dim(N4 ),


λ = 2 : dim(N1 ) = dim(N2 ) = 3,
λ = 6 : dim(N1 ) = 2, dim(N2 ) = dim(N3 ) = 4.

De los datos se desprende que los subespacios invariantes maximales de los


autovalores son respectivamente, el tercero, el primero y el segundo. Además,
como las sucesiones de codimensiones son decrecientes, para λ = 1 obtenemos

1 = dim(N2 ) − dim(N1 ) ≥ dim(N3 ) − dim(N2 ) > 0,

luego dim(N3 ) = 1 + dim(N2 ) = 5. Ası́, tenemos las dimensiones de todos los


subespacios invariantes maximales, y la dimensión del espacio E es su suma

dim(E) = 5 + 3 + 4 = 12.

Con esto tenemos todos los datos para construir la forma de Jordan de f .
(1) Cajas de Jordan para el autovalor λ = 1. La tabla de Jordan en este
caso es
u11
g(u11 )
g 2 (u11 ) u31 u32
De este modo, hay una caja de Jordan de orden 3, y dos de orden 1, lo que da
la matriz de Jordan  
1 0 0 0 0
1 1 0 0 0
 
J(1) = 0 1 1 0 0 .

0 0 0 1 0
0 0 0 0 1
56 III. Clasificación de endomorfismos

(2) Para λ = 2, el subespacio máximal coincide con el de autovectores


asociados a λ, luego la matriz será la de una homotecia, de dimensión 3:
 
2 0 0
J(2) =  0 2 0  .
0 0 2
(3) Para λ = 6 la tabla de Jordan es
u11 u12
g(u11 ) g(u12 )
con lo que debe haber dos cajas de Jordan de orden 2:
 
6 0 0 0
1 6 0 0
J(6) = 
0 0 6 0 .

0 0 1 6
Finalmente, la forma de Jordan de f es
 
J(1)
J=  J(2) .
J(6) 

Ejemplo 14.10 Sean E un espacio vectorial y f : E → E un endomorfismo


cuya matriz respecto de cierta base B = {v1 , v2 , v3 } es
 
10 4 13
M = 5 3 7 .
−9 −4 −12
(1) Vamos a calcular su forma de Jordan J y hallar una base de Jordan
BJ . En primer lugar calculamos su polinomio caracterı́stico
 
10 − T 4 13
P (T ) = det  5 3−T 7  = (1 − T )2 (−1 − T ),
−9 −4 −12 − T
por lo que λ = −1 y λ = 1 son los autovalores de f . Con esas multiplicidades
la forma de Jordan tiene que ser una de las siguientes:
   
1 1
J =1 1  o J0 =  1 ,
−1 −1
14. Teorema de descomposición: caso complejo 57

y es fácil distinguirlas, pues rg(J − I) = 2 y rg(J 0 − I) = 1. Como


 
9 4 13
rg(M − I) = rg  5 2 7  = 2,
−9 −4 −13
concluimos que la forma de Jordan de f es J.
(2) La matriz J obtenida nos dice que una base de Jordan tendrá el aspecto
BJ = {u, v = (f − IdE )(u), w}, donde:
(i) Los dos primeros vectores proporcionan la caja de Jordan del auto-
valor λ = 1, con u ∈ ker(f − IdE )2 \ ker(f − IdE ), y
(ii) El tercer vector es un autovector asociado al autovalor λ = −1, es
decir w ∈ ker(f + IdE ).
Para calcular explı́citamente los tres vectores, denotamos por (x, y, z) las
coordenadas respecto de la base inicial B. Para el autovalor λ = 1 tenemos las
ecuaciones siguientes:
    
9 4 13 x 0 (
 M − λI x + z = 0,
:  5 2 7  y  = 0


 −9 −4 −13 z 0 y + z = 0,

    
−16 −8 −24 x 0




(M − λI)2 :  −8 −4 −12  y  = 0 2x + y + 3z = 0,
16 8 24 z 0
y el lector comprobará que las coordenadas (0, 3, −1) cumplen la última ecua-
ción pero no el primer sistema, de manera que valen como coordenadas de u.
Entonces las coordenadas de v = (f − λ IdE )(u) son
    
9 4 13 0 −1
 5 2 7   3  = −1  .
−9 −4 −13 −1 1
Para λ = −1 es
    
11 4 13 x 0 (
x + z = 0,
M − λI :  5 4 7  y  = 0
−9 −4 −11 z 0 2y + z = 0,

y las coordenadas (2, 1, −2) cumplen este sistema, ası́ que podemos tomarlas
como coordenadas de w.
58 III. Clasificación de endomorfismos

(3) Calculemos ahora las potencias M k de la matriz M de la forma explica-


da en III.13.8, vol. 2, p. 42. Ya tenemos la forma de Jordan J del endomorfismo,
y sabemos que M = CJC −1 , donde
 
0 −1 2
C = M (BJ , B) =  3 −1 1  .
−1 1 −2

Como hemos dicho varias veces, M k = CJ k C −1 , luego lo que tenemos que


calcular es J k . Como otras veces, escribimos
   
1 0
J = A + B, con A =  1 , B = 1 0 .
−1 0

Las matrices A y B conmutan, y la fórmula de Newton dice:


k  
k
X k
k
J = (A + B) = Ak−` B ` .
`
`=0

Pero B 2 = 0, luego sólo quedan los dos primeros sumandos:


(
k k k k−1 I + kB si k es par,
J = (A + B) = A + kA B =
A + kB si k es impar,

esto es, según la paridad de k,


   
1 1
k
J = k 1
  o k 1 .
1 −1

Por último, con un poco de cuidado se obtiene


   
k+1 0 k k+9 4 k+12
M k = CJ k C −1 =  k 1 k  o  k+4 3 k+6  ,
−k 0 −k+1 −k−8 −4 −k−11

según sea k par o impar. Miremos los determinantes. Sabemos que det(M ) =
−1, luego det(M k ) = 1 o −1 según sea k par o impar, y un sencillo (pero
recomendable) cálculo confirma estos valores en las dos últimas matrices. 
14. Teorema de descomposición: caso complejo 59

A continuación generalizamos la dualidad entre rectas e hiperplanos inva-


riantes:
(14.11) Dualidad formal de subespacios invariantes. Consideremos
como siempre un endomorfismo complejo f : E → E, y sea f ∗ : E ∗ → E ∗ su
endomorfismo dual. Fijadas una base B de E y su dual B∗ de E ∗ , las matrices
de f y f ∗ son transpuestas, digamos M y M t . Ya vimos que debido a esto f y
f ∗ tienen los mismos autovalores, y dedujimos una correspondencia biyectiva
entre las rectas invariantes y los hiperplanos invariantes de f (III.12.4(4), vol.
2, p. 20). Esto se extiende ahora a todos los subespacios invariantes de f .
(1) Comparemos la cadenas de subespacios invariantes Nk ⊂ E y Nk∗ ⊂ E ∗
asociadas a un autovalor λ:
(
Nk = ker(f −λ IdE )k se obtiene resolviendo el sistema (M − λI)k xt = 0,
Nk∗ = ker(f ∗ −λ IdE ∗ )k se obtiene resolviendo el sistema (M t − λI)k ct = 0.

Como las matrices (M − λI)k y (M t − λI)k son transpuestas una de la otra,


resulta que dim(Nk ) = dim(Nk∗ ), y por tanto las sucesiones de dimensiones de
las dos cadenas son idénticas. Esto significa que las formas de Jordan de f y de
f ∗ coinciden, luego las configuraciones de subespacios invariantes de f y de f ∗
son idénticas. Esto es, hay una biyección entre invariantes de f e invariantes
de f ∗ que conserva contenidos, dimensiones y operaciones con subespacios.
(2) Por III.12.4, vol. 2, p. 193, la dualidad canónica W 7→ W ∨ induce una
biyección entre los subespacios invariantes de f y los de f ∗ . Por otra par-
te, acabamos de describir una segunda correspondencia biyectiva W ∨ 7→ W 0
entre los subespacios invariantes de f ∗ y los de f . Esto proporciona una bi-
yección W 7→ W 0 entre subespacios invariantes de f , que se comporta como la
dualidad canónica (invierte contenidos, cambia dimensiones por dimensiones
suplementarias, etc.). No hace falta describir esta biyección con exactitud para
entender su significado, que resumimos diciendo que hay una dualidad formal
entre subespacios invariantes. 

En esta lección hemos considerado sólo el caso complejo, pero podemos


utilizar lo que hemos aprendido para el estudio del caso real:
(14.12) Formas de Jordan complejas y endomorfismos reales. Con-
sideremos dos endomorfismos reales con matrices M y M 0 (respecto de ciertas
bases). Queremos saber si los dos endomorfismos son equivalentes, esto es, si
las matrices M y M 0 son semejantes como matrices reales. Esto significa que
exista una matriz invertible C con coeficientes reales tal que M 0 = CM C −1 .
60 III. Clasificación de endomorfismos

(1) El lema crucial es que dos matrices reales M y M 0 que son semejantes
como matrices complejas, lo son también como matrices reales.
La demostración no es muy difı́cil. Supongamos que existe una matriz
regular compleja C tal que M = CM 0 C −1 , esto es M C = CM 0 . Escribimos

C = A + −1B,

donde A y B tienen coeficientes reales, y resulta


√ √ √ √
M (A+ −1B) = (A+ −1B)M 0 M A+ −1M B = AM 0 + −1BM 0
(
M A = AM 0
0
M A+αM B = AM 0 +αBM 0
M B = BM
M (A+αB) = (A+αB)M 0

para cualquier escalar α ∈ R. Lo único que queda es elegir α ∈ R para que


det(A+αB) 6= 0, pues entonces A+αB será un matriz regular con coeficientes
reales, podremos escribir

M = (A + αB)M 0 (A + αB)−1 ,

y las matrices M y M 0 serán semejantes como matrices reales. Ahora bien,


el determinante det(A + αB) es un polinomio en α (por lo mismo que es √ un
polinomio el polinomio caracterı́stico), y no es idénticamente nulo, pues −1
no es raı́z: √
det(A + −1B) = det(C) 6= 0.
En fin, un polinomio no nulo tiene una cantidad finita de raı́ces, luego seguro
que hay números reales que no lo son, y uno cualquiera de ellos es el α que
buscamos.
(2) Ahora volvemos con los endomorfismos reales f, f 0 , con matrices M, M 0 ,
y obtenemos sus formas de Jordan complejas según lo visto en esta lección.
Esas formas coinciden si y sólo si M y M 0 son semejantes como matrices com-
plejas. Pero por el lema de (1), esto ocurre si y sólo si M y M 0 son semejantes
como matrices reales. Por este método, podemos decidir si los endomorfismos
reales son equivalentes. 
Ası́ pues, las formas de Jordan complejas clasifican los endomorfismos
reales. Algo más hay que señalar. Supongamos que un endomorfismo real f
tiene una matriz M cuya forma de Jordan compleja J sólo tiene coeficientes
14. Teorema de descomposición: caso complejo 61

reales: esa forma de Jordan define entonces un endomorfismo real equivalen-


te a f , y podemos denominarla forma de Jordan real. Esta circunstancia se
da cuando el polinomio caracterı́stico de un endomorfismo real tiene todas
sus raı́ces reales, pero esto excluye todos los demás casos. Para remediar es-
ta exclusión y definir formas de Jordan reales para cualquier endomorfismo
real debemos analizar más profundamente la relación entre los casos real y
complejo. A eso dedicamos la siguiente y última lección de este capı́tulo.

Ejercicios y problemas propuestos


Número 1. Sea f : E → E un endomorfismo cuyo polinomio caracterı́stico es P (T ) =
(λ − T )n . Calcular, para cada entero m ≥ 1 la traza de f m en función, únicamente, de n, λ
y m.
Número 2. De una matriz cuadrada M ∈ Mn (C) se sabe que tiene tres autovalores
distintos, λ = 1, 2 y 3, y de las cadenas de subespacios invariantes asociados a ellos que:
(i) λ = 1 tiene uno sólo, de dimensión 2, (ii) λ = 2 tiene dos, de dimensiones 2 y 4, y (iii)
λ = 3 tiene ası́mismo dos, de dimensiones 1 y 2. Calcular el orden de M , sus polinomios
caracterı́stico y mı́nimo y su forma de Jordan.
Número 3. Calcular la traza de la inversa de una matriz M cuyo polinomio caracterı́stico
es
P (T ) = (2 − T )5 (4 + T )4 ,
sabiendo que el rango de (M + 4I) es 8, el de (M − 2I) es 7 y el de (M − 2I)2 vale 5, donde
I denota la matriz identidad del mismo orden que M .

 Número 4.
es
Sea f el endomorfismo de E = C3 cuya matriz respecto de la base estándar
0 1
1 −1 0
M = @ 0 1 1A.
−1 1 0
Sea F = C3 [T ] el espacio vectorial de los polinomios de grado ≤ 3, y consideremos las
aplicaciones lineales
ϕ : F → L(E, E) : P 7→ P (f ) y ϕ∗ : L(E, E)∗ → F ∗ : γ 7→ γ ◦ ϕ.

(1) Hallar bases del núcleo y la imagen de ϕ.


(2) Describir el núcleo y la imagen de ϕ∗ en función de los de ϕ mediante la dualidad
canónica.
(3) Calcular las dimensiones de todos esos núcleos e imágenes.
Número 5. ¿Qué condiciones deben cumplir los números complejos a, b y c para que las
dos matrices 0 1 0 1
1 a ab 1 0 0
@ 0 1 a2 b A y @ 0 1 0 A
0 a(1 + b) 1 0 c 1
62 III. Clasificación de endomorfismos

sean semejantes?
Número 6. Sea E un espacio vectorial complejo de dimensión 3. Utilizar la clasificación
de endomorfismos para demostrar que dos endomorfismos complejos de E cuyos polinomios
mı́nimos coinciden tienen la misma forma de Jordan. ¿Es cierto el resultado en dimensión 4?

Número 7. (1) Consideremos el


8
sistema de ecuaciones

> c1 x12
> + ··· + cr xr = 0,
< c1 x1
> + ··· + cr x2r = 0,
.. .. ..
>
>
> . . .
c1 xr1 ··· cr xrr
:
+ + = 0,

en las incógnitas xj con coeficientes cj enteros positivos. Demostrar que en C este sistema
sólo tiene la solución trivial.
(2) Demostrar que un endomorfismo complejo f : E → E es nilpotente si y sólo si su
polinomio caracterı́stico es (−1)n T n , si y sólo si todas las trazas tr(f k ), k ≥ 1, son nulas.
Número 8. (1) Un endomorfismo se llama idempotente si f k = f para algún entero k ≥ 2.
Demostrar que todo endomorfismo complejo idempotente es diagonalizable, y obtener todas
sus posibles formas de Jordan.
(2) Un endomorfismo complejo f : E → E es una raı́z k-ésima de la identidad cuando
f k = IdE . Probar que un tal f es diagonalizable y obtener sus posibles formas de Jordan.

 Número 9. Demostrar que toda matriz compleja cuadrada con determinante no nulo
tiene raı́z cuadrada (Albert).
Número 10. Demostrar que todo endomorfismo de un espacio vectorial complejo de tipo
finito es suma de uno diagonalizable y otro nilpotente (Gelfand).
Número 11. Clasificar por sus formas de Jordan los endomorfismos de C6 que cumplen:
(i) Su polinomio caracterı́stico es P (T ) = T 2 (T − 1)4 .
(ii) El subespacio de autovectores asociados a λ = 0 es una recta.
(iii) El subespacio de autovectores asociados a λ = 1 es un plano.
Número 12. Calcular las formas de Jordan de dos endomorfismos f y g de C4 que satis-
facen las siguientes condiciones:
(i) f |W = g|W , y f (W ) = W , para W : x + y − z − t = x + z + t = 0.
(ii) tr(f ) = 2, tr(g) = 4 y det(g) = 1.
(iii) f ◦ g = g ◦ f .
(iv) f no es diagonalizable.
(v) f (u) = v, f (v) = u, para u = (1, 1, 0, 0) y v = (0, 1, 1, 0).
Número 13. Sea f un endomorfismo de E = C7 de rango 5 cuyo polinomio caracterı́stico
es (−T )3 (1 − T )4 . Se sabe que el rango de (f − IdE )2 es 4. Calcular la matriz de Jordan de
15. Teorema de descomposición: caso real 63

f , su polinomio mı́nimo, y el rango de la aplicación lineal

ϕ : C7 [T ] → L(E, E) : P 7→ P (f ).

Número 14. Demostrar que toda matriz compleja es semejante a su transpuesta. Deducir
lo mismo para matrices reales.


Número 15. Sea f un endomorfismo de un espacio vectorial complejo E de tipo finito,
y f ∗ el correspondiente endomorfismo de su dual E ∗ . Mostrar que ambos tienen la misma
forma de Jordan, en particular los mismos autovalores λ, y que los subespacios invariantes
maximales N (λ) y N ∗ (λ) de uno y otro están relacionados mediante la dualidad canónica
como sigue: \
N ∗ (λ) = N (µ)∨ .
µ6=λ

15. Teorema de descomposición: caso real


En esta lección obtendremos la versión real del teorema de descomposición
III.14.2, vol. 2, p. 47. Como hemos dicho ya de varias maneras, la dificultad
radica en que sobre el cuerpo K = R la factorización de polinomios puede
no ser lineal. Ocurre√que un polinomio P (T ) ∈ R[T ] puede tener una raı́z
imaginaria µ = α − −1β con β > 0, y entonces el factor √ lineal T − µ no
está en R[T ]. Pero observamos que el conjugado µ = α + −1β es también
raı́z de P (T ): P (µ) = P (µ) = 0, y al factorizar P (T ) en C[T ] encontramos el
polinomio cuadrático

Q(T ) = (T − µ)(T − µ) = (T − α)2 + β 2 ∈ R[T ].

Se deduce que las raı́ces complejas aparecen por pares conjugados, de igual
multiplicidad (pues al ir factorizando los Q(T ) las raı́ces imaginarias que van
quedando deben seguir apareciendo conjugadas). De este modo, en R[T ] el
polinomio P (T ) factoriza ası́:
Y Y q
P (T ) = (T − λi )pi (T − αj )2 + βj2 j , λi , αj , βj ∈ R.
i j

Pues bien, para establecer una versión real del teorema de descomposición, y
obtener formas de Jordan reales, necesitamos hacer para espacios vectoriales
reales argumentos del tipo anterior: partes real e imaginaria, conjugación... Es-
to requiere un formalismo sencillo, pero algo tedioso de describir. Sin embargo,
una vez establecido permite aplicar eficazmente el caso complejo al real. De
hecho, casi más que los resultados finales que obtengamos, interesa aprender
64 III. Clasificación de endomorfismos

que el caso real es en realidad un aspecto parcial del caso complejo, y aprender
a utilizar esto con aprovechamiento. Pongámomos ya con ello.
(15.1) Complexificación de un espacio √ vectorial real. Sea E un es-
pacio vectorial real. Imitando que C = R + −1R, definimos
√ √
e = E + −1E = {w = u + −1v : u, v ∈ E},
E
√ √ √
donde cada expresión u+ −1v es puramente formal, y u+ √−1v = u0 + −1v 0
si y sólo si u = u0 y v = v 0 (ası́ que podrı́amos definir u + −1v como el par
(u, v)). Se opera según las reglas que vamos a dar a continuación.
(1) En el conjunto Ee la suma de dos vectores es
√ √ √
w1 + w2 = (u1 + −1v1 ) + (u2 + −1v2 ) = (u1 + u2 ) + −1(v1 + v2 ),

y el producto por un escalar z = x + −1y ∈ C es:
√ √ √
zw = (x + −1y)(u + −1v) = (xu − yv) + −1(yu + xv).
√ √
(simplemente, se opera teniendo en cuenta que −1 −1 = −1). Es una com-
probación rutinaria que Ee con estas operaciones es un espacio vectorial com-
plejo, que denominamos complexificación de E. Cuando convenga distinguir
entre E y E e utilizaremos los calificativos real y complejo.

Dado w = u + −1v ∈ E, e decimos que u y v son respectivamente la parte
real y la parte imaginaria de w.
(2) También definimos la conjugación, que es la biyección
√ √
σ:E e→E e : w = u + −1v 7→ u − −1v.

Nótese que σ es su propia inversa: σ ◦ σ = IdEe . Además, sirve para obtener la


parte real y la imaginaria de un vector w ∈ E:e

u = 21 (w + σ(w)), v = − 12 −1(w − σ(w)).
(3) La conjugación no es lineal desde el punto de vista complejo, pero
conserva las sumas, y es compatible con la conjugación de números complejos:
σ(zw) = zσ(w), z ∈ C, w ∈ E
e

(la comprobación es inmediata). De este modo σ transforma combinaciones


lineales en combinaciones lineales (con coeficientes conjugados), y esto es su-
ficiente para que conserve la dependencia lineal y transforme subespacios vec-
toriales complejos en subespacios vectoriales complejos. También tiene la pro-
piedad importante de que conserva la independencia lineal. En efecto, sean
15. Teorema de descomposición: caso real 65

wj ∈ E
Pvectores independientes, y consideremos una combinación lineal com-
e
pleja j zj σ(wj ) = 0. Entonces:
X  X X
0=σ zj σ(wj ) = z j σ 2 (wj ) = z j wj ,
j j j

y puesto que los wj son independientes, los coeficientes z j son nulos, pero
entonces también son nulos los zj .
(4) El espacio real E es un subconjunto de E,e exactamente el mayor sub-
conjunto donde la conjugación es la identidad: w ∈ E si y sólo si σ(w) = w.
Por otra parte, podemos relacionar la dependencia lineal en E con la depen-
dencia lineal en E: e si uj ∈ E son linealmente independientes en E, entonces
lo son en E.e

P Para verlo, supongamos dados escalares zj = xj + −1yj ∈ C tales que
j zj uj = 0. Operando según las definiciones resulta, con las notaciones ha-
bituales:
X X √ X √ X
0= zj uj = (xj + −1yj )uj = xj uj + −1 yj uj ,
j j j j
P P
luego 0 = j xj uj = j yj uj . Éstas son combinaciones lineales en E, donde
los uj son independientes, de modo que todos los coeficientes xj , yj son nulos.
En conclusión, son nulos todos los zj .
(5) Para hablar de dependencia lineal, se debe distinguir muy bien si se
trata de E o de E. e En el primer caso sólo se usan coeficientes reales, y en
el segundo se usan coeficientes complejos; utilizaremos la notación habitual
L[ . . . ] para la generación de subespacios reales de E,√y L[
e . . . ] para la genera-
ción de subespacios complejos de E. como E = E + −1E, podemos escribir
e e
Ee = L[E].
e 
(15.2) Complexificación de bases y coordenadas. Sea E un espacio
vectorial real y E
e su complexificación.

(1) Acabamos de ver que E e = L[E],


e luego si E es de tipo finito, también lo
es E. Esto, junto con la conservación de la independencia al pasar de E a E,
e e
implica que si B es una base del espacio vectorial E, entonces también lo es de
e y como tal la denotamos B.
E, e Se sigue que E tiene la misma dimensión que
E.
e Pero nótese que estas dos dimensiones se refieren a espacios sobre cuerpos
diferentes; para evitar confusiones las denotaremos dimR (E) y dimC (E). e

(2) Fijemos en E una base B = {u1 , . . . , un }, que como base de E


e se denota

B. Sea w = u + −1v ∈ E, y sean z ∈ C y x, y ∈ R las coordenadas de w
e e n n
66 III. Clasificación de endomorfismos

respecto de B
e y de u, v respecto de B. Tenemos:
( P
w = j zj uj ,
√ P √ P P √
w = u + −1v = j xj uj + −1 j yj uj = j (xj + −1yj )uj .

Deducimos que las coordenadas de w son zj = xj + −1yj . En particular, w ∈
E si y sólo si v = 0, esto es, si y sólo si todas las partes imaginarias yj son nulas.
Es decir, los vectores de E son aquéllos cuyas coordenadas son todas reales.
Esto se corresponde con la idea intuitiva de que Cn es la complexificación
natural de Rn via partes reales.

√ en coordenadas respecto de B la conjugación σ : E → E.


(3) Calculemos e e e
Dado w = u + −1v ∈ E es:
e
√ X √ X X √
σ(w) = u − −1v = xj uj − −1 yj uj = (xj − −1yj )uj ,
j j j

luego las coordenadas de σ(w) son z j = xj − −1yj . Por ello escribimos
σ : z 7→ z utilizando la conjugación habitual. 

Observaciones 15.3√ Es importante insistir en el aspecto formal de la defini-


e como E + −1E. Por ejemplo, supongamos que consideramos E =
ción de E √
e = C + −1C,
C, que es un espacio vectorial real de dimensión 2. Entonces E
y en este espacio vectorial complejo tenemos vectores como
√ √ √ √
w = u + −1v = (1 + −1) + −1(3 − −1).

La tentación irresistible es quitar paréntesis y operar ası́:


√ √ √ √ √
w0 = 1 + −1 + −1 3 − −1 −1 = 2 + −1 4.

Pero eso no se puede hacer. Interpretando u+ −1v como el par (u, v), tenemos
√ √
w = (1 + −1, 3 − −1), w0 = (2, 4),

que son pares distintos. El error es hacer operaciones con números complejos
y vectores de E: al decir que E = C es un espacio vectorial real estamos
excluyendo esas operaciones.

(15.4) Subespacios vectoriales. Sea E un espacio vectorial real y E


e su
complexificación.
15. Teorema de descomposición: caso real 67

(1) Si √V ⊂ E es un subespacio vectorial, tenemos su complexificación


Ve = V + −1V ⊂ E, e y Ve = L[V
e ] es el menor subespacio vectorial de E e que
contiene a V . Obviamente, E ∩ Ve = V . Por supuesto, si V es de tipo finito
dimR (V ) = dimC (Ve ).
(2) No todos los subespacios complejos de Ee son complexificación de subes-
pacios vectoriales reales, y esto se distingue por conjugación. En efecto, un
subespacio vectorial complejo Γ de E e es una complexificación cuando es in-
variante por conjugación, es decir, cuando σ(Γ ) = Γ .
En efecto,
√ supongamos que se cumple esa invarianza. Entonces para cada
w = u + −1v ∈ Γ tenemos

u = 21 (w + σ(w)) ∈ Γ, v = − 12 −1(w − σ(w)) ∈ Γ.
Deducimos que Γ está generado por V = E ∩Γ , que es un subespacio√vectorial
real de E, y por tanto Γ = Ve . Recı́procamente, si Γ = Ve = V + −1V , se
tiene √
σ(Γ ) = V − −1V = Γ.
Si Γ no es invariante por conjugación, se considera la suma Γ + σ(Γ ),
que sı́ lo es. De este modo los subespacios vectoriales complejos de E
e son
complexificados, o van por pares de subespacios conjugados Γ, σ(Γ ).
(3) Fijemos en E una base B = {u1 , . . . , un }, que también lo es de E e y
como tal denotamos B n
e (III.15.2, vol. 2, p. 65). Sean x = (x1 , . . . , xn ) ∈ R las
coordenadas respecto de B y z = (z1 , . . . , zn ) ∈ Cn las coordenadas respecto
de B.
e Si M xt = 0 son unas ecuaciones del subespacio real V ⊂ E, entonces
M z t = 0 son unas ecuaciones de Ve .
En efecto, las ecuaciones M z t = 0 definen un subespacio complejo de E e
que contiene a V . Para concluir que es su complexificación basta observar
que la codimensión compleja de aquél es la codimensión real de éste, a saber,
rg(M ).
(4) Fijemos como en el apartado anterior una base B
e de E,
e respecto de
n t
la cual las coordenadas se denotan z ∈ C . Sean M z = 0 unas ecuaciones
en esas coordenadas de un subespacio vectorial complejo Γ ⊂ E.e Entonces
conjugando todos los coeficientes de M obtenemos unas ecuaciones M z t = 0
del subespacio conjugado σ(Γ ).
Para ver esto, nótese que w ∈ σ(Γ ) si y sólo si σ(w) ∈ Γ . Ahora recordemos
III.15.2(3), vol. 2, p. 66: si z son las coordenadas de w respecto de B,e entonces
68 III. Clasificación de endomorfismos

z son las de σ(w). En conclusión, w ∈ σ(Γ ) si y sólo si z cumple las ecuaciones


dadas de Γ : M z t = 0, o equivalentemente, si y sólo si M z t = 0. 

Lo mismo que los espacios, también podemos complexificar las aplicaciones:


(15.5) Complexificación de aplicaciones lineales. Sea f : E → F una
aplicación lineal de espacios vectoriales reales.
(1) Existe una única aplicación lineal de espacios vectoriales complejos
e → Fe que induce en E ⊂ E
fe : E e la propia f . Esta aplicación está definida por
√ √
e → Fe : w = u + −1v 7→ fe(w) = f (u) + −1f (v).
fe : E

En efecto, la unicidad es consecuencia de que E genera E.


e Explı́citamente,
si f existe, puesto que debe conservar las combinaciones lineales complejas, se
e
tiene: √ √
fe(w) = fe(u + −1v) = fe(u) + −1fe(v),
y puesto que fe|E = f , se sigue la fórmula deseada. Probada la √unicidad, la
existencia consiste en comprobar que definiendo fe(w) = f (u) + −1f (v) se
conservan las combinaciones lineales complejas, lo que es rutinario.
Se comprueba inmediatamente que σ ◦ fe = fe ◦ σ.
(2) Con
√ las notaciones de (1), calculemos el núcleo de f . Como 0 = f (w) =
e e
f (u) + −1f (v) si y sólo si f (u) = f (v) = 0, deducimos

ker(fe) = ker(f ) + ^).
−1 ker(f ) = ker(f

(3) Todavı́a con las notaciones de (1), sea V ⊂ E un subespacio vectorial


real. Entonces:

fe(Ve ) = fe(L[V
e ]) = L[ e (V )] = f]
e fe(V )] = L[f (V ).

(4) En fin, sea Mf la matriz de f respecto de unas bases dadas de E y F .


Entonces esas bases son también bases de Ee y Fe, y la matriz de fe respecto de
ellas es evidentemente Mf . Esto es: Mfe = Mf , eligiendo en cada espacio y su
complexificación la misma base. 
El formalismo anterior es casi innecesario para el modelo estándar: la com-
plexificación de Rn es simplemente Cn (via partes reales, según indicamos en
III.15.2(2), vol. 2, p. 65), y una aplicación lineal f : Rn → Rm define otra
fe : Cn → Cm sin más que permitir a las variables tomar valores complejos.
15. Teorema de descomposición: caso real 69

Y con esto bastarı́a, pues todo espacio real de tipo finito E es isomorfo a un
modelo estándar. Pero hemos preferido no hacer esto, porque: (i) el concepto
de complexificación no depende de bases, y es importante transmitirlo ası́, y
(ii) pasar al modelo estándar hace más difı́cil entender geométricamente qué se
hace en E.
Estamos ya en condiciones de estudiar desde un punto de vista complejo
los endomorfismos de espacios vectoriales reales.
Sea f : E → E un endomorfismo de un espacio vectorial real de tipo finito
e → E.
cuya dimensión denotamos n, y consideremos su complexificación fe : E e
Eligiendo una base B de E, y utilizándola también como base de E, e f y fe
tienen como hemos visto la misma matriz M . Por tanto tienen también el
mismo polinomio caracterı́stico:

P (T ) = det(M − T I) ∈ R[T ].

La diferencia está en cómo factoriza este polinomio en C[T ] y en R[T ]:


( q
P (T ) = (−1)n i (T − λi )pi j (T − µj )(T − µj ) j en C[T ], y
Q Q
q
P (T ) = (−1)n i (T − λi )pi j (T − αj )2 + βj2 j
Q Q
en R[T ],

donde λi ∈ R, µj = αj + −1βj , αj , βj ∈ R, βj > 0. Diremos que µj , µj
son autovalores imaginarios conjugados de f (terminologı́a ya anunciada en
III.11.9, vol. 2, p. 12).
Asociada a la primera factorización tenemos la descomposición de III.14.2,
vol. 2, p. 47: M M  
E
e= Ne (λi ) ⊕ Γ (µj ) ⊕ Γ (µj ) .
i j

Utilizamos N e (resp. Γ ) para indicar los subespacios invariantes de fe asocia-


dos a autovalores reales (resp. imaginarios). Para obtener una descomposición
comparable de E debemos examinar las construcciones de los subespacios in-
variantes maximales de cada autovalor. Vamos a proceder como en III.15.4(2),
vol. 2, p. 67, para separar esos subespacios invariantes en dos clases: los que
son complexificaciones, y los que no lo son, que aparecen en pares conjuga-
dos. Este reparto reproduce de modo natural la distribución de las raı́ces del
polinomio caracterı́stico.
(15.6) Los autovalores reales. Fijemos un autovalor λ = λi . Como es
real, tenemos dos sucesiones de subespacios invariantes, según trabajemos en
70 III. Clasificación de endomorfismos

E o en E.
e Las denotamos:
(
E : {0} ⊂ N1 ⊂ · · · ⊂ Nk = ker(f − λ IdE )k ⊂ · · · ,
Ee : {0} ⊂ N ek = ker(fe − λ Id e )k ⊂ · · · .
e1 ⊂ · · · ⊂ N
E

Por III.15.5(2), vol. 2, p. 68, por ser λ real, tenemos

ker(fe − λ IdEe )k = ker(f


f − λ IdE )k ,

luego la cadena de Ee se obtiene complexificando la de E (lo que justifica la


notación). En consecuencia,

dimC (N
ek ) = dimR (Nk ).

Esto significa que las cadenas se estabilizan a la vez, y las sucesiones de di-
mensiones de las dos son iguales. En fin, una base de Jordan de N (λ) para f
es también una base de Jordan de N e (λ) para fe, de modo que f y fe tienen
exactamente las mismas cajas de Jordan para el autovalor λ. 
(15.7) Los autovalores√ imaginarios. Consideremos un autovalor imagi-
nario µ = µj , µ = α − −1β con β > 0.
(1) Las cadenas de subespacios invariantes de fe para µ y µ son cadenas de
subespacios complejos, y las denotaremos
(
{0} ⊂ Γ1 (µ) ⊂ · · · ⊂ Γk (µ) = ker(fe − µ IdEe )k ⊂ · · · ,
{0} ⊂ Γ1 (µ) ⊂ · · · ⊂ Γk (µ) = ker(fe − µ IdEe )k ⊂ · · · .

En primer lugar, observamos que en esta situación la conjugación se comporta


bien: (
σ ◦ (fe − µ IdEe )k = (fe − µ IdEe )k ◦ σ,
σ ◦ (fe − µ IdEe )k = (fe − µ IdEe )k ◦ σ.
Por supuesto, es suficiente comprobar la primera igualdad. Para k = 1 se hacen
las cuentas explı́citamente, y como E genera E e basta hacerlas para vectores
u ∈ E:

σ ◦ (fe − µ IdEe )(u) = σ(fe(u) − µu) = σ(f (u) − µu)


= f (u) − µu = (fe − µ Id e )(u) = (fe − µ Id e ) ◦ σ(u).
E E

En general se aplica el caso k = 1 para desplazar σ de un extremo de la fórmula


al otro.
15. Teorema de descomposición: caso real 71

Esta compatibilidad de la conjugación significa en particular que



k
σ(Γk (µ)) ⊂ Γk (µ) : si (f − µ IdEe ) (w) = 0, entonces
 e
(fe − µ IdEe )k (σ(w)) = σ(fe − µ IdEe )k (w) = σ(0) = 0,

σ(Γk (µ)) ⊂ Γk (µ) : análogamente.

Aplicando σ al segundo contenido resulta el opuesto del primero, luego

σ(Γk (µ)) = Γk (µ),

y σ transforma la cadena de µ en la cadena de µ. Además la compatibilidad


para k = 1 proporciona un diagrama conmutativo

fe−µ IdEe fe−µ IdEe


··· / Γk+1 (µ) / Γk (µ) / Γk−1 (µ) / ···

σ σ σ
 fe−µ IdEe  fe−µ IdEe 
··· / Γk+1 (µ) / Γk (µ) / Γk−1 (µ) / ···

que sirve para comparar las tablas de Jordan de µ y µ, para concluir que una
se obtiene de la otra por conjugación.
Todo esto significa que las disposiciones de unos y ceros en las cajas de
Jordan de µ y las de µ son exactamente las mismas, y que si {w1 , . . . , wq } es
una base de Jordan del subespacio invariante maximal Γ (µ) de µ, entonces
{σ(w1 ), . . . , σ(wq )} es una de Γ (µ).
(2) Ahora interpretaremos los subespacios invariantes de µ y µ en E. Es-
cribimos
√ √
w` = u` + −1v` ∈ Γ (µ), σ(w` ) = u` − −1v` ∈ Γ (µ),

y afirmamos que los vectores u` , v` ∈ E generan el subespacio complejo Γ (µ)⊕


Γ (µ).
En efecto, es
(
u` = 12 (w` + σ(w` )) ∈ Γ (µ) + σ(Γ (µ)) = Γ (µ) + Γ (µ),

v` = − 21 −1(w` − σ(w` )) ∈ Γ (µ) + σ(Γ (µ)) = Γ (µ) + Γ (µ),

de modo que los u` , v` están en la suma de los dos subespacios invariantes


maximales. Pero entonces generan esa suma, pues ciertamente generan todos
los w` y los σ(w` ).
72 III. Clasificación de endomorfismos

Probada la afirmación, se deduce que esa suma directa es la complexifi-


cación del espacio vectorial real Q(α, β) ⊂ E generado por los uj , vj en E.
Ası́:

dimR (Q(α, β)) = dimC (Γ (µ) ⊕ Γ (µ)) = 2q (µ = α− −1 β),

y como tenemos exactamente 2q generadores, son una base; la ordenamos ası́

{u1 , v1 , . . . , uq , vq }.

Además, Q(α, β) es un subespacio invariante de f , pues su complexificación


Γ (µ) ⊕ Γ (µ) lo es de fe.
(3) En fin, BJ = {u1 , v1 , . . . , uq , vq } es la denominada base de Jordan de
Q(α, β). Vamos a calcular la matriz de f respecto de esta base BJ . Como los
w` son una base de Jordan de fe para µ, tenemos
(
fe(w` ) = µw` + w`+1 si w` no es autovector,
fe(w` ) = µw` si w` es autovector.

En el primer caso:
√ √ √
µw` + w`+1 = (α − −1β)(u` + −1v` ) + (u`+1 + −1v`+1 )

= (αu` + βv` + u`+1 ) + −1(−βu` + αv` + v`+1 ),

luego como fe(w` ) = f (u` ) + −1f (v` ), resulta
(
f (u` ) = αu` + βv` + u`+1 ,
f (v` ) = −βu` + αv` + v`+1 .

En el segundo caso el cálculo es similar pero más corto, y da


(
f (u` ) = αu` + βv` ,
f (v` ) = −βu` + αv` .

A la vista de esto, cuando en la matriz de Jordan de fe tenemos una submatriz


 
µ 0
(ε = 0, 1),
ε µ
15. Teorema de descomposición: caso real 73

en la de f encontramos  
α −β 0 0
 β α 0 0
 ε 0 α −β  .
 

0 ε β α
Se observa que se duplica el orden de las cajas, pero eso corresponde a que
en fe las cajas de µ se repiten para µ. Obsérvese que los dos últimos vectores
uq , vq de BJ generan el plano invariante W = L[uq , vq ] de f , que no contiene
rectas invariantes; por tanto, un plano de este tipo aparece siempre para cada
par de autovalores imaginarios conjugados.
Esto describe completamente la matriz de la restricción fα,β = f |Q(α,β)
respecto de la base BJ ; esa matriz se denota J(α, β) y se llama forma de
Jordan de fα,β . 
De esta manera, hemos añadido a los subespacios invariantes N (λi ) aso-
ciados a los autovalores reales otros Q(αj , βj ) asociados a los autovalores ima-
ginarios. También hemos encontrado las formas de Jordan de las restricciones
de f a esos nuevos subespacios invariantes. Por tanto, lo único que falta es
establecer el teorema de descomposición siguiente:

Proposición 15.8 Con las notaciones anteriores, se cumple:


M M
E= N (λi ) ⊕ Q(αj , βj ).
i j

Esta descomposición proporciona la denominada forma de Jordan real de


f , a partir de la forma de Jordan de fe (que se llama forma de Jordan compleja
de f ):
 
..  
 . ..
.
 J(λi )

 J(λi )
  
 ..  
JC = 
 . 
J =
 . . .

R .
J(µj )
 
J(αj , βj )
   

 J(µj ) 


..

.. .
.

De nuevo, conviene extraer lo esencial de toda la maraña de construcciones. Y


es esto: un endomorfismo real tiene una forma de Jordan real JR , unı́vocamente
determinada por su forma de Jordan compleja JC . Se obtiene ası́:
74 III. Clasificación de endomorfismos

(i) En los lugares de la diagonal de JC 


que ocupe
 un autovalor imaginario
√ α −β
µ = α − −1β, β > 0, se coloca una caja .
β α
(ii) Si debajo de 
uno de
 esos µ de la diagonal de JC aparece un 1, se coloca
1 0
una caja identidad .
0 1
Como esto duplica el tamaño de la matriz, para compensar se suprimen
las cajas de la matriz que involucran el conjugado µ.
Esto se puede entender geométricamente pensando que un número com-
plejo ζ define por multiplicación un endomorfismo real R2 ≡ C → C : z 7→ ζz.
Desde el punto de vista complejo ζ es un escalar, pero desde el punto de vista
real es ese endomorfismo. Si se calcula la matriz de este último caso para ζ = µ
obtenemos la caja de (i), y cuando se calcula para ζ = 1, obtenemos la caja
identidad de (ii).
Esta variación del caso complejo, que, insistimos una vez más, se correspon-
de con la existencia de autovalores imaginarios conjugados, ya la describimos
en dimensión 2 en III.12.1(1), vol. 2, p. 14. De hecho, el argumento utilizado
allı́ es el que hemos generalizado en III.15.7(3), vol. 2, p. 72, para obtener las
cajas de J(α, β). También vemos que la única matriz que hay que añadir a las
de III.14.3, vol. 2, p. 47, para completar la clasificación real de endomorfismos
en dimensión 3 es la del ejemplo III.12.5(2), vol. 2, p. 21.

Observaciones 15.9 (1) Como en el caso complejo, un endomorfismo real f


tiene polinomios anuladores. Desde luego, el caracterı́stico P (T ) lo es, pues
es anulador de fe, y a fortiori de f : éste es el teorema de Cayley-Hamilton
real. Pero además, el polinomio mı́nimo de fe tiene coeficientes reales, pues
el análisis cuidadoso por conjugación de III.15.7(1), vol. 2, p. 70, muestra que
cada factor µj − T aparece en él las mismas veces que su conjugado µj − T .
Por tanto el producto de todos esos factores es una potencia del polinomio
cuadrático βj2 + (αj − T )2 , que tiene coeficientes reales.
(2) La canonicidad del caso complejo se cumple también en el real, puesto
que la forma de Jordan real permite recuperar la compleja del modo evidente.
Por tanto, las formas de Jordan reales resuelven el problema de clasificacación
por semejanza de matrices reales.

Ejemplo 15.10 Vamos a calcular la forma de Jordan real del endomorfismo


f : R2 → R2 : (x1 , x2 ) 7→ (3x1 − 5x2 , 5x1 − 3x2 ).
15. Teorema de descomposición: caso real 75

Su polinomio caracterı́stico es
√ √
 
3 − T −5
P (T ) = det = T 2 + 16 = (−4 −1 − T )(4 −1 − T ).
5 −3 − T

Por ello las formas de Jordan compleja y real son


 √   
−4 −1 √0 0 −4
JC = y JR = .
0 4 −1 4 0

Ası́, hay un solo subespacio invariante Q(α, β) = Q(0, 4) = R√ 2 . Calculemos una

base de Jordan. Nos fijamos en el autovalor imaginario −4 −1, y buscamos


un autovector w = (z1 , z2 ) ∈ C2 a él asociado: será
√ √
(3z1 − 5z2 , 5z1 − 3z2 ) = −4 −1(z1 , z2 ) (3 + 4 −1)z1 = 5z2 ,

luego podemos tomar


√ √ √
w = (5, 3 + 4 −1) = (5, 3) + −1(0, 4) = u + −1v.

De este modo la base de Jordan es {u, v} y el lector comprobará inmediata-


mente que la matriz respecto de ella es la JR de más arriba. 

(15.11) Subespacios invariantes. Para analizar los subespacios invarian-


tes de un endomorfismo real, hay que observar que W ⊂√ E es un subespacio
invariante de f si y sólo si su complexificación W = W + −1W es un subes-
f
pacio invariante de fe.

En efecto, supongamos f (W ) ⊂ W . Si w ∈ W f , entonces w = u+ −1v con

u, v ∈ W , luego fe(w) = f (u) + −1f (v) ∈ W f) ⊂ W
f . Recı́procamente, si fe(W f
yu∈W =W f ∩ E, entonces f (u) = fe(u) ∈ W f ∩ E = W.

Pero fe puede tener subespacios invariantes Γ que no son complexificaciones


(por ejemplo, los correspondientes a autovalores imaginarios). Una vez más,
estos subespacios aparecen por pares, ya que σ(Γ ) es también invariante:

fe(σ(Γ )) = σ(fe(Γ )) ⊂ σ(Γ ) (por III.15.5(1), vol. 2, p. 68).

En suma, los subespacios invariantes de f se obtienen intersecando con


E los de fe. De esto y III.14.4, vol. 2, p. 48, deducimos que todo subespacio
invariante de f es suma directa de subespacios invariantes de los N (λi ) y
Q(αj , βj ) del teorema de descomposición. 
76 III. Clasificación de endomorfismos

Ejemplo 15.12 Volvamos a nuestro viejo ejemplo III.12.6, vol. 2, p. 23. Se


trataba de un endomorfismo de K4 cuyos invariantes calculamos completa-
mente. Denotamos f el endomorfismo para K = R, y su complexificación fe es
el endomorfismo correspondiente a K = C. Se puede comprobar que uno de
los planos invariantes de fe es el plano complejo
( √ √
2z1 − (1 + −1)z2 − 2(1 − −1)z3 = 0,
Γ :
−z2 + z3 + z4 = 0.

Las soluciones reales de esas ecuaciones se obtienen separando partes reales e


imaginarias, y queda:
 
 2x1 − x2 − 2x3 = 0,
  x1 − x2 = 0,

4
Γ ∩ R : −x2 + 2x3 = 0, x2 − 2x3 = 0,
 
−x2 + x3 + x4 = 0, x3 − x4 = 0,
 

sistema que define una recta invariante real L (generada por (2, 2, 1, 1)), y no
un plano. Ahora bien, sabemos que el subespacio complejo conjugado σ(Γ )
también es invariante, y tiene por ecuaciones (véase III.15.4(4), vol. 2, p. 67)
( √ √
2z1 − (1 − −1)z2 − 2(1 + −1)z3 = 0,
σ(Γ ) :
−z2 + z3 + z4 = 0.

El lector comprobará que

σ(Γ ) ∩ R4 = Γ ∩ R4 = L.

Por supuesto, la recta invariante L anterior se describe más adecuadamente


como L = L e ∩ R4 , siendo Le la complexificación de L, complexificación que es
una recta invariante de fe.
Por otra parte, consideremos el subespacio invariante Γ +σ(Γ ). Este subes-
pacio es invariante por
 conjugación, luego es la complexificación de su parte
real H = Γ + σ(Γ ) ∩ R4 ; esta parte real es el hiperplano invariante real
−x2 + x3 + x4 = 0. 

Pasemos por fin a la prueba del teorema de descomposición real.


Demostración de III.15.8, vol. 2, p. 73. Sabemos que se tiene
M M  
Ee= Ne (λi ) ⊕ Γ (µj ) ⊕ Γ (µj ) .
i j
15. Teorema de descomposición: caso real 77

Como N (λi ) ⊂ N
e (λi ) y Q(αj , βj ) ⊂ Γ (µj ) ⊕ Γ (µj ), la suma real
X X
V = N (λi ) + Q(αj , βj )
i j

es directa como la compleja. Entonces, contando dimensiones:


X X
dimR (V ) = dimR (N (λi )) + dimR (Q(αj , βj ))
i j
X X
= dimC (Ne (λi )) + dimC (Γ (µi ) ⊕ Γ (µi ))
i j

= dimC (E)
e = dimR (E).

En suma, V = E y hemos acabado. 


Terminamos el análisis de los endomorfismos reales, como el de los com-
plejos:
(15.13) Dualidad formal de los subespacios invariantes. Hay una
dualidad formal de los subespacios invariantes de un endomorfismo real f :
E → E. La demostración utiliza, igual que en el caso complejo, el endomor-
fismo dual f ∗ . Elegimos bases duales de E y E ∗ , de modo que las matrices de
f y f ∗ son transpuestas, digamos M y M t . Éstas son también las matrices de
las complexificaciones de los dos endomorfismos, luego como en III.14.11, vol.
2, p. 59, por tener matrices traspuestas, las dos complexificaciones tienen la
misma forma de Jordan. Pero la forma de Jordan compleja determina unı́vo-
camente la real, y concluimos que f y f ∗ tienen la misma forma de Jordan
real. A partir de aquı́ se sigue como en el caso complejo III.14.11. 

Ejercicios y problemas propuestos


Número 1. Calcular la forma de Jordan real de un endomorfismo f de R6 cuyo polinomio
mı́nimo es Pmı́n (T ) = (1 + T 2 )2 .
Número 2. Sea f : R4 → R4 el endomorfismo dado por
f (x) = (x2 − x3 + x4 , 2x2 , 2x1 + x3 − x4 , −2x1 + 2x2 − x3 + 3x4 ).
Comprobar que su polinomio caracterı́stico es P (T ) = (2 − T )2 (1 − T )2 + 1 y calcular
` ´

primero la forma de Jordan y luego una base de Jordan de f .


Número 3. Sea f : C2 → C2 el endomorfismo complejo de ecuaciones
f (z1 , z2 ) = (iz1 , z1 + iz2 )

(con i = −1). Identificamos C ≡ R4 tomando partes reales e imaginarias:
2

(z1 , z2 ) = (x1 + iy1 , x2 + iy2 ) ≡ (x1 , y1 , x2 , y2 ),


78 III. Clasificación de endomorfismos

de modo que f : R4 → R4 es un endomorfismo real. Calcular la forma de Jordan y una base


de Jordan de f como tal endomorfismo real.
Número 4. Sea f : E → E un endomorfismo real diagonalizable.
(1) Demostrar que si f es idempotente (f k = f con k ≥ 2), entonces es o bien una
proyección, o bien una simetrı́a, o bien una composición de ambas.
(2) Demostrar que si f es una raı́z de la unidad (f k = IdE con k ≥ 1), entonces es una
simetrı́a.
Número 5. Construir un endomorfismo idempotente de R2 que no sea diagonalizable.
Número 6. Mostrar que si el cuadrado de un endomorfismo f de R3 es una homotecia,
entonces es una homotecia de razón positiva, y deducir que f es diagonalizable. ¿Es f una
homotecia?¿Ocurre lo mismo en R4 ?


Número 7. Mostrar que un endomorfismo de un espacio vectorial real de dimensión n
tiene subespacios invariantes: (i) de todas las dimensiones pares ≤ n, y (ii) de todas las
dimensiones ≤ n si y sólo si tiene algún autovalor real.
Número 8. Calcular los subespacios invariantes del endomorfismo f de R4 de ecuaciones
f (x) = (x2 , −x1 , 2x4 , −2x3 ).

Número 9. Mostrar que el endomorfismo f de R4 de ecuaciones


f (x) = (x2 , −x1 , x4 , −x3 )
tiene infinitos planos invariantes, pero no tiene ni rectas ni hiperplanos invariantes.


Número 10. Comprobar que el endomorfismo f de R4 de ecuaciones
f (x) = (x2 , −x1 , x1 + x4 , x2 − x3 )
tiene un sólo subespacio invariante: el plano x1 = x2 = 0.
Número 11. Sea f : R4 → R4 un endomorfismo sin rectas invariantes. ¿Cuáles son las
posibles formas de Jordan de f ? ¿Qué subespacios invariantes puede tener f ?


Número 12. Probar que un endomorfismo de R4 que tiene un número finito de planos
invariantes no tiene nunca más de seis. ¿Puede tener cinco?
Número 13. Mostrar que un endomorfismo f : E → E (real o complejo) tiene un único
subespacio invariante maximal W tal que el endomorfismo restricción f |W es isomorfismo.
Número 14. Emplear el teorema de descomposición para demostrar lo que ya se propuso
en el problema 4 de III.12, vol. 2, p. 30: Si un endomorfismo (real o complejo) es diagonali-
zable, lo es la restricción a cualquier subespacio invariante. ¿Cómo se formula este resultado
en términos de subespacios invariantes?


Número 15. Para cada matriz A ∈ Mm×n (C) se llama conjugada de A a la matriz Ā
cuyos coeficientes son los conjugados āij de los coeficientes aij de A . Denotaremos A∗ a la
matriz traspuesta de Ā.
(1) Mostrar que si ξ = (ξ1 , . . . , ξn ) ∈ Cn cumple ξξ ∗ = 0, entonces ξ es el vector nulo.
Cuestiones 79

(2) Comprobar las identidades A∗∗ = A y (AB)∗ = B ∗ A∗ .


(3) Sea A ∈ Mn (C) que cumple AA∗ = A∗ A. Denotemos f y g a los endomorfismos de
C cuyas matrices respecto de la base estándar son A y A∗ , respectivamente. Demostrar que
n

los núcleos de f y g coinciden.


(4) Con las notaciones del apartado anterior, probar que el endomorfismo f es diagona-
lizable.

Cuestiones sobre clasificación de endomorfismos

Decidir cuáles de las siguientes afirmaciones son verdaderas y cuáles son falsas.

Número 1. Un endomorfismo diagonalizable tiene infinitas rectas invariantes.


Número 2. Todo endomorfismo de un espacio vectorial complejo (no trivial, de
tipo finito) tiene algún autovector.
Número 3. Si un endomorfismo de un espacio vectorial real no tiene autovalores
(reales), entonces no tiene subespacios invariantes distintos del nulo y el total.
Número 4. Toda matriz es semejante a su traspuesta.
Número 5. Todo endomorfismo de R7 tiene infinitos autovectores.
Número 6. Dos vectores propios cualesquiera de un endomorfismo son linealmente
independientes.
Número 7. Todo endomorfismo de un espacio vectorial complejo de tipo finito con
dimensión ≥ 2 tiene algún subespacio invariante distinto del nulo y del total.
Número 8. Si el polinomio mı́nimo de una matriz es T 3 , entonces la matriz es
diagonalizable.
Número 9. Dos endomorfismos de Rn que tienen el mismo polinomio mı́nimo tie-
nen, respecto de bases adecuadas, las mismas ecuaciones.
Número 10. Si el polinomio mı́nimo de un endomorfismo coincide con el carac-
terı́stico, entonces el endomorfismo es diagonalizable.
Número 11. Si un endomorfismo de Kn tiene dos autovalores distintos, entonces
hay un subespacio invariante de codimensión 2.
Número 12. Si un endomorfismo de C4 tiene un plano invariante y ninguno más,
entonces tiene un único autovalor.
Número 13. Existen endomorfismos de R4 con exactamente 4 rectas invariantes.
80 III. Clasificación de endomorfismos

Número 14. Si el núcleo de un endomorfismo real no nulo f es un hiperplano,


entonces f no es nilpotente.
Número 15. Si la imagen de un endomorfismo f es un hiperplano, entonces f no
es nilpotente.
Número 16. Todo polinomio es el polinomio mı́nimo de un endomorfismo.
Número 17. Todo endomorfismo de R71 tiene infinitas rectas invariantes.
Número 18. Si dos endomorfismos de R4 carecen de autovalores reales, y tienen
los mismos complejos, entonces tienen la misma forma de Jordan real.
Número 19. Hay endomorfismos del plano real sin rectas invariantes.
Número 20. Si un endomorfismo f de un espacio vectorial E es diagonalizable,
entonces E = ker(f ) ⊕ im(f ).
Número 21. Si el único autovalor complejo de un endomorfismo es λ = 0, entonces
alguna potencia del endomorfismo es nula.
Número 22. Si dos autovectores de un endomorfismo son independientes, entonces
están asociados a autovalores distintos.
Número 23. Dos endomorfismos de C3 con los mismos planos invariantes y los
mismos autovalores tienen la misma forma de Jordan.
Número 24. Un endomorfismo de un espacio vectorial real puede no tener hiper-
planos invariantes.
Número 25. Los autovalores de un endomorfismo son raı́ces de su polinomio ca-
racterı́stico.
Número 26. Sea f un endomorfismo de R3 tal que f 3 = f 2 6= 0. Entonces f tiene
infinitas rectas invariantes.
Número 27. Dos matrices 2 × 2 con la misma traza y el mismo determinante son
semejantes.
Número 28. Dos endomorfismos de R3 con las mismas rectas invariantes y los
mismos autovalores tienen la misma forma de Jordan real.
Número 29. Dos matrices semejantes tiene la misma traza y el mismo determi-
nante.
Número 30. Si A y M son matrices cuadradas cuyos cuadrados son semejantes,
también A y M son semejantes.
Número 31. Si un endomorfismo de Rn tiene menos de n rectas invariantes, en-
tonces no es diagonalizable.
Cuestiones 81

Número 32. Si −λ 6= 0 es un autovalor de un endomorfismo f , entonces λ2 es un


autovalor de f 2 .
Número 33. Dos endomorfismos con los mismos autovalores, el mismo núcleo y la
misma imagen, tiene matrices semejantes.
Número 34. Si el polinomio mı́nimo de un endomorfismo f de un espacio vectorial
E es T 2 , entonces su rango es ≤ 21 dim(E).
Número 35. Si u y v son dos autovectores de un endomorfismo f , entonces u − v
es también un autovector.
Número 36. Un endomorfismo de Cn cuyo polinomio mı́nimo tiene todas las raı́ces
de multiplicidad 1 es diagonalizable.
Número 37. Un endomorfismo de un espacio vectorial real tiene el mismo polino-
mio mı́nimo que su complexificación.
Número 38. No todo polinomio puede ser el polinomio caracterı́stico de un endo-
morfismo diagonalizable de un espacio vectorial real.
Número 39. Si un endomorfismo f : E → E es diagonalizable, también lo es
f ∗ : E∗ → E∗.
Número 40. Si el polinomio caracterı́stico de un endomorfismo complejo tiene una
sola raı́z compleja, entonces es diagonalizable.
Número 41. Si un endomorfismo f : E → E tiene una cantidad finita de planos
invariantes, entonces el endomorfismo f ∗ : E ∗ → E ∗ tiene también una cantidad finita
de planos invariantes.
Número 42. Si 0 no es autovalor de la composición de dos endomorfismos de R1957 ,
entonces los dos son isomorfismos.
Número 43. Sea f un endomorfismo de C5 tal que ker(f ) ∩ im(f ) = {0}. Entonces
f es diagonalizable.
Número 44. Si un endomorfismo de C4 tiene tres autovalores distintos e infinitas
rectas invariantes, entonces es diagonalizable.
Número 45. Si dos endomorfismos tienen exactamente los mismos polinomios anu-
ladores, entonces tienen el mismo polinomio caracterı́stico.
Número 46. Si un endomorfismo de R4 tiene infinitos planos invariantes, entonces
tiene alguna recta invariante.
Número 47. Un endomorfismo de C3 puede tener una cantidad finita de rectas
invariantes e infinitos planos invariantes.
Número 48. Toda recta invariante de un endomorfismo de C4 está contenida en
un hiperplano invariante.
82 III. Clasificación de endomorfismos

Número 49. Toda recta invariante de un endomorfismo de R3 es intersección de


dos planos invariantes.
Número 50. Dos matrices reales que tienen la misma forma de Jordan real pueden
tener distinta forma de Jordan compleja.

Apéndice: Solucionario del capı́tulo III

Soluciones §11
Número 1. ¿Existe algún endomorfismo de K4 tal que los subespacios
 
x − y + z + t = 0, x−y = 0,
W1 : y W2 :
x −z = 0, x − z = 0,
sean los espacios de autovectores asociados a dos autovalores?
Solución. Los subespacios de autovectores asociados a autovalores distintos sólo
comparten el vector nulo. Sin embargo,
W1 ∩ W2 : {x = y = z = −t},
luego w = (1, 1, 1, −1) ∈ W1 ∩ W2 . No existe por tanto un endomorfismo del que W1
y W2 sean subespacios de autovectores. 

Número 2. ¿Existe alguna matriz regular cuyo polinomio caracterı́stico sea −T 7 +


T4 − T?
Solución. Si una matriz tiene P (T ) = −T 7 + T 4 − T por polinomio caracterı́stico,
su determinante es nulo, ya que es el término independiente de P (T ), luego la matriz
no es regular. 

Número 3. Sea f un endomorfismo de un espacio de tipo finito E. Demostrar:


(1) f es un isomorfismo si y sólo si 0 no es autovalor de f .
(2) λ es autovalor de f si y sólo si −λ lo es de −f .
(3) Si λ es autovalor de f , entonces λ2 lo es de f 2 .
(4) Si λ2 es autovalor de f 2 , entonces bien λ, bien −λ, lo es de f .
(5) Si f 2 = f , entonces f no posee autovalores distintos de 0 y 1.
Solución. Denotamos n = dim(E) y M la matriz de f respecto de una base fijada.
(1) f es isomorfismo si y sólo si det(M ) 6= 0, y puesto que ese determinante es el
Apéndice: Soluciones §11 83

término independiente de Pf , eso es equivalente a que Pf (0) 6= 0, es decir, a que 0 no


sea un autovalor de f .
(2) El polinomio caracterı́stico de −f es

P−f (T ) = det(−M − T In ) = (−1)n det(M + T In ) = (−1)n Pf (−T );

en consecuencia, −λ es autovalor de −f si y sólo si

0 = P−f (−λ) = (−1)n Pf (λ),

es decir, si y sólo si λ es autovalor de f .


(3) El polinomio caracterı́stico Pf 2 de f 2 cumple

Pf 2 (T 2 ) = det(M 2 − T 2 In ) = det(M − T In ) det(M + T In ) = Pf (T )Pf (−T ).

Por tanto, si λ es autovalor de f ,

Pf 2 (λ2 ) = Pf (λ)Pf (−λ) = 0,

y λ2 es autovalor de f 2 .
(4) Revirtiendo el apartado anterior, si λ2 es autovalor de f 2 , entonces

0 = Pf 2 (λ2 ) = Pf (λ)Pf (−λ),

luego, bien λ es autovalor de f , bien lo es −λ.


(5) Sea λ un autovalor de f : f (u) = λu con u 6= 0. Resulta

λu = f (u) = f 2 (u) = f (f (u)) = f (λu) = λf (u) = λ2 u,

y como u no es nulo, λ2 = λ, o sea, λ = 0 o λ = 1. 

Número 4. Para cada escalar a ∈ K se considera el endomorfismo de K3 dado por

f (x, y, z) = (3x + az, ax + ay + az, 2z).

Estudiar para qué escalares a el endomorfismo es diagonalizable.


Solución. El polinomio caracterı́stico de f es

P (T ) = (3 − T )(2 − T )(a − T ),

luego si a 6= 2, 3, f es diagonalizable. Sin embargo, tanto si a = 2 como si a = 3


el endomorfismo no es diagonalizable pues la multiplicidad algebraica del autovalor
a es 2 mientras que su multiplicidad geométrica, esto es, la dimensión del núcleo de
f − a IdK3 , es 1. 
84 III. Clasificación de endomorfismos

Número 5. Demuéstrese que si todos los vectores de un espacio vectorial son au-
tovectores de un endomorfismo f , entonces éste es una homotecia.
Solución. Podemos suponer que f : E → E no es el endomorfismo nulo, que es
la homotecia de razón 0. Para cada vector no nulo u ∈ E existe, por hipótesis, un
escalar λu tal que f (u) = λu u, y se trata de probar que λu = λv para cualquier par
de vectores no nulos u, v ∈ E; en tal caso f es la homotecia de razón ese valor común.
Si u, v son dependientes existe un escalar a tal que v = au, luego

λv v = f (v) = f (au) = af (u) = aλu u = λu (au) = λu v,

y por tanto λv = λu . Supongamos ahora que los vectores u, v son independientes. En


tal caso consideramos su suma w = u + v, que cumple

λw u + λw v = λw (u + v) = λw w = f (w) = f (u + v) = f (u) + f (v) = λu u + λv v,

es decir,
0 = (λw − λu )u + (λw − λv )v,
y por ser u, v independientes deducimos que λu = λw = λv , y en particular λu = λv ,
como pretendı́amos probar. 

Número 6. Consideremos los subespacios W y L de K4 cuyas ecuaciones implı́citas


respecto de la base estándar E son

W : x = t, y = z y L : y = z = t.

¿Existen endomorfismos f de K4 cuyo núcleo sea W y cuya imagen sea L? ¿Existe


alguno diagonalizable?
Solución. Como dim(W ) = 2, hay bases B = {w1 , w2 , u1 , u2 } de K4 cuyos dos
primeros vectores generan W . Por otra parte, dim(L) = 2, luego L está generado por
dos vectores v1 , v2 . Ası́, si definimos f mediante

f (w1 ) = f (w2 ) = 0, f (u1 ) = v1 , f (u2 ) = v2 ,

se cumple lo requerido.
Sin embargo, f nunca será diagonalizable. En efecto, si lo fuese, su imagen tendrı́a
por base el resultado de unir bases de los subespacios de autovectores asociados a los
autovalores no nulos, luego {0} = ker(f ) ∩ im(f ) = W ∩ L. Sin embargo

(1, 1, 1, 1) ∈ W ∩ L. 

Número 7. ¿Es diagonalizable un endomorfismo de K2 de traza 5 y determinante


4?
Apéndice: Soluciones §11 85

Solución. Denotamos f dicho endomorfismo, cuyo polinomio caracterı́stico es

P (T ) = T 2 − tr(f )T + det(f ) = T 2 − 5T + 4 = (T − 1)(T − 4).

Como P factoriza en K[T ] en producto de factores lineales de multiplicidad 1, f es


diagonalizable. 

Número 8. Sea f : C2 → C2 un endomorfismo no diagonalizable cuya traza vale


2. Calcular su determinante.
Solución. El polinomio caracterı́stico de f es

P (T ) = T 2 − tr(f )T + det(f ) = T 2 − 2T + det(f ),

y ha de tener una raı́z doble α ya que f no es diagonalizable. Por tanto 2 = α + α y


det(f ) = α · α = 1. 

Número 9. Sea f : E → E un endomorfismo, tal que f 2 = f ◦ f es diagonalizable.


¿Lo es necesariamente f ?
Solución. Puede suceder que f 2 sea diagonalizable sin que f lo sea. Por ejemplo,
considérese el endomorfismo

f : K2 → K2 : (x, y) 7→ (0, x).

El cuadrado f 2 es nulo, luego diagonalizable. Sin embargo, f no lo es. En efecto, la


matriz de f respecto de la base estándar de K2 es
 
0 0
1 0

y el polinomio caracterı́stico de f es T 2 , del que 0 es raı́z doble. Si f fuera diagonali-


zable, el núcleo de f , que es el subespacio de autovectores asociados a este autovalor
0, tendrı́a dimensión 2, pero dim(ker(f )) = 1. 

Número 10. Para cada tres números complejos a, b, c se considera el endomorfismo


fa,b,c de C3 cuya matriz respecto de la base estándar es
 
a+b a−b+c a−c
a − b − c a a + b + c .
a+c a+b−c a−b

(1) Calcular el polinomio caracterı́stico de fa,b,c mediante la base B de C3 formada


por los vectores (1, 1, 1), (0, 1, 0) y (0, 0, 1).
(2) Encontrar valores de a, b, c para los que fa,b,c no sea diagonalizable.
86 III. Clasificación de endomorfismos

k
(3) Calcular la traza de fa,0,a para cada a ∈ C y cada entero k ≥ 1.
Solución. (1) Denotamos u1 = (1, 1, 1), de modo que B = {u1 , e2 , e3 }. Por cálculo
directo obtenemos:

fa,b,c (1, 1, 1) = (3a, 3a, 3a) = 3au1 ,

fa,b,c (0, 1, 0) = (a − b + c, a, a + b − c) = (a − b + c)u1 + (b − c)e2 + 2(b − c)e3 ,

fa,b,c (0, 0, 1) = (a − c, a + b + c, a − b) = (a − c)u1 + (b + 2c)e2 + (c − b)e3 .

Por tanto, la matriz de fa,b,c respecto de B es


 
3a a − b + c a − c
 0 b−c b + 2c .
0 2(b − c) c − b

Ahora empleamos esta matriz para calcular el polinomio caracterı́stico de fa,b,c :

Pa,b,c (T ) = (3a − T ) T 2 − 3(b2 − c2 ) .




(2) Si elegimos a = 0 y b = c 6= 0, entonces P0,b,b (T ) = −T 3 , por lo que 0 es raı́z


triple de P0,b,b , mientras que la dimensión del núcleo de f0,b,b es
 
0 0 −b
dim(ker(f0,b,b )) = 3 − rg 0 0 3b  = 2 < 3.
0 0 0

En consecuencia, con esta elección el endomorfismo no es diagonalizable.


(3) Denotamos por abreviar f = fa,0,a y
 
3a 2a 0
M = Mf (B) =  0 −a 2a .
0 −2a a

Si a = 0, esta matriz es nula, y también sus potencias y sus trazas. Supondremos pues
a 6= 0. Entonces,
√ del polinomio caracterı́stico P (T ) = (3a − T )(T 2 + 3a2 )
las raı́ces √

son 3a, 3ai y − 3ai (i = −1). Como las tres son distintas, f es diagonalizable, y
respecto de cierta base las matrices de f y f n son respectivamente:
   n n 
3a √ 0 0 3 a √0 n 0
 0 3ai √0   0 ( 3ai)
y √0 n ,

0 0 − 3ai 0 0 (− 3ai)

y ası́ (
√ √ 3n an si n es impar,
tr(f n ) = 3n an +( 3ai)n +(− 3ai)n =
(3n + 2 · (−3)n/2 )an si n es par. 
Apéndice: Soluciones §11 87

Número 11. Sean a, b dos números complejos. Consideramos el endomorfismo f


de C3 cuya matriz respecto de la base estándar es
 
a −1 −1
M =  1 0 −1  .
0 b 0

¿Para qué valores de a y b el núcleo de f tiene dimensión 1 y f no es diagonalizable?


Solución. La dimensión de ker(f ) es 3 − rg(M ), y este rango es al menos 2 para
cualquier elección de a, b, pues las dos primeras filas de M son independientes. Por
tanto, la condición dim(ker(f )) = 1 equivale a que 0 = det(M ) = b(a − 1), o sea, bien
b = 0, bien a = 1.
Si b = 0, el polinomio caracterı́stico de f es

P (T ) = −T (T 2 − aT + 1).

Este polinomio debe tener alguna raı́z múltiple para que f no sea diagonalizable.
Como 0 no es raı́z del factor T 2 − aT + 1, es este factor el que tendrá una raı́z doble α;
necesariamente α = ±1 (el producto de las raı́ces es 1), y a = ±2. Ahora bien, la no
diagonalizabilidad equivale a que la dimensión del subespacio W (α) = ker(f − α IdC3 )
sea 1, esto es, rg(M − αI3 ) = 2, lo que se comprueba inmediatamente.
Si a = 1, el polinomio caracterı́stico de f es P (T ) = −T (T 2 − T + 1 + b), que debe
tener alguna raı́z múltiple α. Por tanto, bien 0 es raı́z del segundo factor T 2 −T +1+b,
bien ese segundo factor tiene una raı́z doble. Ası́, hay dos posibilidades:
(i) α = 0, y b = −1. Entonces f no es diagonalizable, pues la multiplicidad
geométrica del autovalor doble 0 es dim(W (α)) = 3 − rg(M ) = 1 < 2.
(ii) α = 21 , 1 + b = 12 · 21 , y b = − 34 . De nuevo resulta que f no es diagonalizable,
al ser
dim(W (α)) = 3 − rg(M − 12 I3 ) = 1 < 2.

En conclusión, los pares (a, b) buscados son (2, 0), (−2, 0), (1, −1) y (1, −3/4).


Número 12. Se tienen dos sucesiones de números reales (xn )n e (yn )n tales que

x1 = 1, y1 = −1; xn+1 = 6xn − yn , yn+1 = 3xn + 2yn .


1
Calcular 2 (3xn+1 + yn+1 ).
Solución. Denotamos
 
6 −1
M= y un = (xn , yn ) ∈ R2 para cada n.
3 2
88 III. Clasificación de endomorfismos

Si ponemos u1 = (1, −1), el enunciado dice que

utn+1 = M utn = M M utn−1 = · · · = M · · · M ut1 = M n ut1 .

Ası́, lo que tenemos que calcular es la potencia M n , y para ello utilizaremos el en-
domorfismo f de R2 cuya matriz respecto de la base estándar E es M . Su polinomio
caracterı́stico es
 
6 − T −1
P (T ) = det = (6 − T )(2 − T ) + 3 = T 2 − 8T + 15 = (T − 3)(T − 5),
3 2−T

cuyas raı́ces son simples, ası́ que f es diagonalizable. Un autovector v = (x, y) asociado
al autovalor 3 se obtiene resolviendo
    
3 −1 x 0
= ,
3 −1 y 0

por ejemplo v = (1, 3). Análogamente se ve que w = (1, 1) es un autovector asociado


al autovalor 5.
Ası́, B = {v, w} es una base de R2 , respecto de la cual la matriz de f es diagonal:
 
3 0
D = Mf (B) = .
0 5

Sabemos que M = CDC −1 , y de hecho, M n = CDn C −1 , donde


 
1 1
C = C(B, E) = .
3 1

En consecuencia,
utn+1 = M n ut1 = (CDn C −1 )ut1 ,
y multiplicando estas matrices obtenemos las coordenadas (xn+1 , yn+1 ) de un+1 :

xn+1 = 2 · 5n − 3n e yn+1 = 2 · 5n − 3n+1 .

Finalmente, 21 (3xn+1 + yn+1 ) = 4 · 5n − 3n+1 . 

Número 13. Calcular el término general de la sucesión xn que cumple x1 = 1,


x2 = −2 y xn = −xn−1 + 2xn−2 .
Solución. El razonamiento es parecido al del ejercicio anterior, empleando el siguiente
truco sencillo. Definimos nuevas sucesiones yn = xn−1 , zn = xn−2 , que cumplen
(
yn+1 = xn = −xn−1 + 2xn−2 = −yn + 2zn ,
zn+1 = xn−1 = yn .
Apéndice: Soluciones §11 89

Por supuesto, nuestro objetivo es calcular xn = yn+1. Para ello denotamos


 
−1 2
M=
1 0

y para cada n ≥ 3 sea un = (yn , zn ). Se tiene

utn+1 = M utn = M M utn−1 = · · · = M n−2 ut3 , u3 = (y3 , z3 ) = (x2 , x1 ) = (−2, 1),

y se trata de calcular M n−2 . Sea f el endomorfismo de R2 cuya matriz respecto de la


base estándar es M . El polinomio caracterı́stico de f es
 
−1 − T 2
P (T ) = det = T (1 + T ) − 2 = T 2 + T − 2 = (T + 2)(T − 1),
1 −T

y sus raı́ces son simples, luego f es diagonalizable. Obtenemos los autovectores v =


(x, y) asociados al autovalor −2 resolviendo
    
1 2 x 0
= ,
1 2 y 0

ası́ que por ejemplo v = (2, −1). De manera similar, w = (1, 1) es un autovector
asociado al autovalor 1, y B = {v, w} es una base de R2 respecto de la cual la matriz
de f es  
−2 0
D = Mf (B) = .
0 1
La matriz de cambio de base es
 
2 1
C = C(B, E) = ,
−1 1

y M n−2 = CDn−2 C −1 . En fin, operando queda

(−2)n−1
   
yn+1
= utn+1 = M n−2 ut3 = CDn−2 C −1 ut3 = ,
zn+1 (−2)n−2

y xn = yn+1 = (−2)n−1 . 

Número 14. Sean f y g dos endomorfismos de un espacio vectorial de tipo finito E.


Demostrar que los endomorfismos f ◦g y g◦f tienen el mismo polinomio caracterı́stico.
Solución. Sean n = dim(E), r = dim(im(f )) y B1 = {f (u1 ), . . . , f (ur )} una base de
im(f ), que prolongamos hasta una base B = {f (u1 ), . . . , f (ur ), vr+1 , . . . , vn } de E.
Como dim(ker(f )) = n − r, tomamos una base cualquiera B2 = {ur+1 , . . . , un } del
núcleo de f , y afirmamos que

B0 = {u1 , . . . , ur , ur+1 , . . . , un }
90 III. Clasificación de endomorfismos

es una base de E. Basta comprobar que son n vectores independientes. Si λ1 u1 + · · · +


λn un = 0, hacemos actuar f sobre ambos miembros y resulta

λ1 f (u1 ) + · · · + λr f (ur ) = 0,

luego λ1 = · · · = λr = 0, ya que los vectores de B1 son independientes. Pero entonces

λr+1 ur+1 + · · · + λn un = 0,

de donde λr+1 = · · · = λn = 0, por ser independientes los vectores de B2 .


Denotemos A = (aij ) = Mg (B, B0 ) y observemos que
 
Ir 0
Mf (B0 , B) = .
0 0

Multiplicando resulta

Mg◦f (B0 ) = Mg (B, B0 )Mf (B0 , B) = B 0 ,



 
C
Mf ◦g (B) = Mf (B , B)Mg (B, B ) =
0 0
,
0

donde B (resp. C) está formada por las primeras r columnas (resp. filas) de A. Por
ello si R es la submatriz cuadrada de orden r de A obtenida de sus primeras r filas y
columnas, resulta como se querı́a:

Pg◦f (T ) = det(Mg◦f (B0 ) − T In )


= (−T )n−r det(R − T Ir ) = det(Mf ◦g (B) − T In ) = Pf ◦g (T ). 

Número 15. Demostrar que una matriz cuadrada de traza nula es un conmutador,
es decir, se puede escribir en la forma AB − BA para ciertas matrices cuadradas A
y B.
Solución. Procederemos por inducción sobre el tamaño de la matriz, y para ello
usaremos la siguiente observación.

(∗) Si ampliamos un conmutador Y mediante una fila a y una columna b según la


forma  
0 a
Y =
b
b Y
obtenemos un nuevo conmutador.

En efecto, si Y es un conmutador con coeficientes en K = R o C, podemos escribir


Y = AB − BA. Como K es un cuerpo infinito existe λ ∈ K que no es autovalor de A.
Esto significa que la matriz C = A − λIn es invertible y

CB − BC = (A − λIn )B − B(A − λIn ) = AB − λB − BA + λB = Y.


Apéndice: Soluciones §12 91

Es inmediato comprobar que las matrices


0 −aC −1
   
0 0
M= y N=
0 C C −1 b B

cumplen la igualdad M N − N M = Yb .
Una vez probado (∗) veamos, por inducción sobre su orden n, que toda matriz X
de traza nula es un conmutador. Para n = 1 el resultado es trivial. Sea pues X una
matriz de orden n > 1 con traza nula. Si X = 0, el resultado es de nuevo trivial, ası́ que
supondremos lo contrario. El endomorfismo f de Kn cuya matriz respecto de la base
estándar es X no es una homotecia: una homotecia de traza nula es idénticamente
nula. Afirmamos que existe algún vector u tal que u y f (u) son independientes. En
efecto, si no existiera, todos los vectores de Kn serı́an autovectores, y por el ejercicio
número 5 de III.11, vol. 2, p. 12, el autovalor deberı́a ser el mismo para todos, es decir,
f deberı́a ser una homotecia. Ası́ pues, existe el u que decimos, y por prolongación
obtenemos una base de E del tipo {u, f (u), . . . }. Es claro que respecto de esta base
la matriz de f tiene la forma Yb de (∗), y
0 = tr(X) = tr(f ) = tr(Yb ) = tr(Y ).
Por hipótesis de inducción, Y es un conmutador, y por (∗), lo es Yb :
Yb = M N − N M.
Pero X = C Yb C −1 con C = C(B, E), y deducimos
X = C Yb C −1 = C(M N − N M )C −1 = (CM C −1 )(CN C −1 ) − (CN C −1 )(CM C −1 ),
luego X es un conmutador. 

Soluciones §12
Número 1. Calcular los subespacios invariantes del endomorfismo f de K3 dado
por
f (x, y, z) = (−2x − 5z, x − y, x + 2z).

Solución. El polinomio caracterı́stico de f es P (T ) = −(1+T )(1+T 2 ), luego f tiene


tres autovalores distintos si K = C y sólo uno si K = R. Estudiamos separadamente
los dos casos. Se utiliza siempre la base estándar E = {e1 , e2 , e3 } de K3 .
(1) Caso complejo. El endomorfismo
√ f posee tres rectas invariantes, una por cada
autovalor λ = −1, ±i (i = −1). Las matrices M − λI de f − λ IdK3 son
     
−1 0 −5 −2 − i 0 −5 −2 + i 0 −5
 1 0 0 ,  1 −1 − i 0 ,  1 −1 + i 0 .
1 0 3 1 0 2−i 1 0 2+i
92 III. Clasificación de endomorfismos

Resolviendo los sistemas homogéneos por filas definidos por esas matrices obtene-
mos los autovectores asociados a cada autovalor, que generan las rectas invariantes.
Resultan las tres rectas siguientes:

L[(0, 1, 0)]
 para λ = −1,
L[(3 + i, 2 − i, −1 − i)] para λ = i,

L[(3 − i, 2 + i, −1 + i)] para λ = −i.

Como era de esperar las dos últimas rectas, asociadas a autovalores conjugados, están
generadas por vectores conjugados.
El cálculo de los planos invariantes es, en dimensión 3 como estamos, el de los
hiperplanos invariantes, y se hace utilizando el endomorfismo f ∗ , o más explı́cita-
mente, la matriz traspuesta M t . Los autovalores de esta matriz son los mismos λ de
M , y sabemos que un plano H : ax + by + cz = 0 es invariante, asociado a λ, si y
sólo si (a, b, c) es solución del sistema homogéneo por filas definido por M t − λI, o
equivalentemente, el definido por columnas por M − λI:

(a, b, c)(M − λI) = 0.

Obtenemos:

(i) Para λ = −1, las ecuaciones a − (b + c) = 5a − 3c = 0, y por tanto el plano


3x − 2y + 5z = 0.
(ii) Para λ = i, las ecuaciones b = 5a − (2 − i)c = 0, y el plano (2 − i)x + 5z = 0.
(iii) Para λ = −i, las ecuaciones b = 5a−(2+i)c = 0, y ası́ el plano (2+i)x+5z = 0.

De nuevo observamos que para autovalores conjugados se obtienen ecuaciones


conjugadas.
En resumen, en el caso complejo hay tres rectas invariantes y tres planos inva-
riantes.
(2) Caso real. En realidad, valen aquellos cálculos anteriores que sólo involucran
números reales. Por tanto, hay única recta invariante real: L[(0, 1, 0)] y un único plano
invariante: 3x − 2y + 5z = 0, que corresponden al único autovalor real. Este plano
puede describirse por otro procedimiento. Según calculamos en (1), los autovectores
asociados a los autovalores ±i son respectivamente u = (3 + i, 2 − i, −1 − i) y su
conjugado u = (3 − i, 2 + i, −1 + i), y generan un plano invariante de C3 . Su ecuación
es  
x 3+i 3−i
0 = dety 2 − i 2 + i .
z −1 − i −1 + i
Apéndice: Soluciones §12 93

Calculamos este determinante haciendo operaciones con las columnas tercera y se-
gunda:
   
x 6 3−i x 3 3−i
0 = det y 4 2 + i  = 2 det y 2 2 + i
z −2 −1 + i z −1 −1 + i
   
x 3 −i x 3 −1
= 2 det y 2 i  = 2i det y 2 1  = 2i(3x − 2y + 5z).
z −1 i z −1 1

¡Y simplificando 2i obtenemos el plano de antes! Esta magia se explica en la última


lección de este fascı́culo. 

Número 2. Sea f el endomorfismo de C4 cuya matriz respecto de la base estándar


es  
1 1 −2 0
0 3 −3 0 
M =  2 −1
.
−1 0 
2 1 −3 0
Encontrar bases de todos los planos invariantes respecto de f contenidos en ker(f 2 ).
Solución. Comenzamos calculando H = ker(f ). Sin más que elevar M al cuadrado
se obtiene la matriz de f 2 :
 
−3 6 −3 0
 −6 12 −6 0 
M2 = 
 0 0 0 0,

−4 8 −4 0

luego una ecuación implı́cita de H es x1 − 2x2 + x3 = 0. Después de esto, despejamos


la primera coordenada x1 = 2x2 − x3 y nos quedamos en H con las otras tres x0 =
(x2 , x3 , x4 ), de modo que las ecuaciones de f |H son:


 y1 = x1 + x2 − 2x3 = (2x2 − x3 ) + x2 − 2x3 = 3x2 − 3x3 ,
y2 = 3x2 − 3x3 = 3x2 − 3x3 = 3x2 − 3x3 ,


 y3 = 2x 1 − x 2 − x 3 = 2(2x 2 − x 3 ) − x2 − x3 = 3x2 − 3x3 ,
y4 = 2x1 + x2 − 3x3 = 2(2x2 − x3 ) + x2 − 3x3 = 5x2 − 5x3 .

Comprobamos ası́ que H es invariante, pues y1 − 2y2 + y3 = 0. Vemos también que


las ecuaciones y la matriz de f |H en las coordenadas x0 son:
  
 y2 = 3x2 − 3x3 , 3 −3 0
y3 = 3x2 − 3x3 , M 0 = 3 −3 0 .
y4 = 5x2 − 5x3 , 5 −5 0

94 III. Clasificación de endomorfismos

El polinomio caracterı́stico de esta matriz M 0 es −T 3 , luego 0 es el único autovalor,


con lo que un plano W ⊂ H de ecuación c2 x2 + c3 x3 + c4 x4 = 0 es invariante respecto
de f |H si y sólo si (c2 , c3 , c4 )M 0 = (0, 0, 0), si y sólo si 3c2 + 3c3 + 5c4 = 0. Las
soluciones no triviales de esta última ecuación son

c2 = 5a, c3 = 5b, c4 = −3a − 3b, con (a, b) 6= (0, 0),

y de esta manera tenemos todos los planos invariantes W ⊂ H:


n x − 2x + x = 0,
1 2 3
(∗) W : con (a, b) 6= (0, 0).
5ax2 + 5bx2 − 3(a + b)x4 = 0,

Como nos piden una base de cada uno de ellos, habrı́a que resolver estas ecuaciones,
según los valores de los parámetros a, b.
El problema estarı́a terminado ası́, pero de una manera poco esclarecedora de la
situación geométrica en la que nos encontramos. Por ello preferimos razonar como
sigue. Reescribimos las ecuaciones (∗) como sigue:
n x − 2x + x = 0,
1 2 3
W : con (a, b) 6= (0, 0).
a(5x2 − 3x4 ) + b(5x3 − 3x4 ) = 0,

Vemos que la segunda ecuación es exactamente una cuyas soluciones contienen las del
sistema 5x2 − 3x4 = 5x3 − 3x4 = 0. Este sistema de dos ecuaciones independientes
define en H la recta 
 x1 − 2x2 + x3 = 0,
L: 5x2 − 3x4 = 0,
5x3 − 3x4 = 0,

luego los planos buscados son exactamente los planos W ⊂ H que contienen L. Por
tanto, una base de cada uno se puede generar con un generador u de L y con un vector
w ∈ H \ L; es decir, {u, w} será una base de W . Ahora bien, habrá muchos vectores w
que con u generen el mismo plano W , de modo que hay que ser un poco más selectivos.
Para ello fijamos un plano cualquiera V ⊂ H que no contenga a L. Como V y W son
hiperplanos de H, necesariamente V ∩W 6= {0} y podemos tomar w ∈ V . Por ejemplo,
sea V : x2 = 0 y explı́citemos las cosas. Resolviendo el sistema que define L obtenemos
u = (3, 3, 3, 5), y para obtener w resolvemos el sistema x1 − 2x2 + x3 = x2 = 0 que
define V , lo que da w = (λ, 0, −λ, µ), con λ 6= 0 o µ 6= 0. En consecuencia:

W = L[(3, 3, 3, 5), (λ, 0, −λ, µ)].

Se debe reparar en el hecho de que las ecuaciones (∗) de W han servido exclusivamente
para determinar la recta L; cuando se desarrolle completamente la teorı́a de invarian-
tes y la clasificación de endomorfismos en los capı́tulos siguientes, se comprenderá me-
jor hasta qué punto a veces se pueden evitar cálculos explı́citos con razonamiemtos
geométricos.
Apéndice: Soluciones §12 95

Sugerimos al lector que: (i) resuelva las ecuaciones (∗) para obtener bases de los
hiperplanos invariantes, y las compare con las bases obtenidas aquı́, (ii) utilice estas
últimas para escribir unas ecuaciones paramétricas de los planos invariantes, y después
otras implı́citas, y las compare con las anteriores (∗).
A continuación, proponemos otra solución alternativa, más directa, pero que re-
quiere bastante acierto para las diversas elecciones que intervienen. Recomenzamos
casi desde el principio, una vez obtenida la ecuación x1 − 2x2 + x3 = 0 de H. Esta
ecuación proporciona la siguiente base de H:

BH = {v1 = (1, 0, −1, 0), v2 = (1, 1, 1, 0), v3 = (0, 0, 0, 1)}.

Como f (v1 ) = (3, 3, 3, 5) = 3v2 + 5v3 , y f (v2 ) = f (v3 ) = 0, la matriz de f |H respecto


de BH es  
0 0 0
A = 3 0 0.
5 0 0
En particular, 0 es el único autovalor de f |H . Por ello, denotando z = (z1 , z2 , z3 ) las
coordenadas respecto de BH , un plano W ⊂ H de ecuación a1 z1 + a2 z2 + a3 z3 = 0 es
invariante respecto de f si y sólo si (a1 , a2 , a3 )A = (0, 0, 0). Esto da 3a2 + 5a3 = 0, o
bien a1 = µ, a2 = 5λ, a3 = −3λ, con lo que

W : µz1 + 5λz2 − 3λz3 = 0 (λ 6= 0 o µ 6= 0).

Este plano está generado por los vectores


n u = (0, 3, 5) = 3v + 5v = 3(1, 1, 1, 0) + 5(0, 0, 0, 1) = (3, 3, 3, 5) y
2 3
w = (3λ, 0, µ) = 3λv1 + µv3 = 3λ(1, 0, −1, 0) + µ(0, 0, 0, 1) = (3λ, 0, −3λ, µ)

(obsérvese cómo empezamos con coordenadas z en H y terminamos con coordenadas


estándar x en C4 ). En suma

W = L[(3, 3, 3, 5), (3λ, 0, −3λ, µ)],

que son los mismos planos que antes, por supuesto.


Observemos para terminar que en este otro proceso, no hemos buscado ni ob-
tenido las ecuaciones en C4 de los planos invariantes pedidos, y que la recta L del
argumento anterior la descubrimos al final, por contener todos los planos W el vector
u que la genera: L = L[u] es invariante por ser intersección de dos planos invariantes
cualesquiera, por ejemplo para (µ, λ) = (0, 1) y (1, 0). 

Número 3. Calcular los subespacios invariantes del endomorfismo f de K3 dado


por
f (x, y, z) = (−4x − 6y, 3x + 5y, 3x + 6y + 5z).
96 III. Clasificación de endomorfismos

Solución. Comenzamos calculando el polinomio caracterı́stico de f , que es


 
−4 − T −6 0
P (T ) = det(M − T I) = det 3 5! − T 0  = (5 − T )(2 − T )(1 + T ).
3 6 5−T

Como f tiene tres autovalores distintos tiene tres rectas invariantes, que son sus
subespacios de autovectores, y por dualidad tiene exactamente tres planos invariantes.
Las primeras son las soluciones de los siguientes tres sistemas de ecuaciones:
!
x
L1 : (M − 5I) y = 0 x=y=0 L1 = L[(0, 0, 1)],
z
!
x
L2 : (M − 2I) y = 0 x+y =y+z =0 L2 = L[(1, −1, 1)],
z
!
x
L3 : (M + I) y = 0 x + 2y = z = 0 L3 = L[(2, −1, 0)].
z

En cuanto a los planos invariantes, construimos los siguientes tres:

H1 = L1 ⊕L2 : x + y = 0, H2 = L1 ⊕L3 : x + 2y = 0, H3 = L2 ⊕L3 : x + 2y + z = 0.

Como a priori sabı́amos que hay exactamente tres, han de ser éstos. 

Número 4. Sean f un endomorfismo diagonalizable de un espacio vectorial de di-


mensión finita E, y W un subespacio de E invariante por f . Demostrar que la res-
tricción h = f |W de f a W es un endomorfismo diagonalizable de W .
Solución. Sean λ1 , . . . , λr los distintos autovalores de f . Por ser f diagonalizable,
E = E1 ⊕ · · · ⊕ Er , donde cada Ej es el subespacio de autovectores de f asociados
al autovalor λj . Denotamos Wj = W ∩ Ej , que es el subespacio de autovectores de
h asociados al autovalor λj (abusando de la notación, puede ocurrir que esa inter-
sección sea trivial, o sea, que λj no sea autovalor de h). Todo consiste en probar la
igualdad W = W1 ⊕ · · · ⊕ Wr , pues en tal caso W será suma directa de subespacios
de autovectores de h, lo que implica la diagonalizabilidad de este endomorfismo.
Como cada Wj ⊂ W , el contenido W1 ⊕ · · · ⊕ Wr ⊂ W es obvio. Para el opuesto,
sea w ∈ W . Como W ⊂ E = E1 ⊕ · · · ⊕ Er , será w = u1 + · · · + ur ∈ W , con
uj ∈ Ej , y bastará ver que cada uj está en W . En efecto, entonces cada uj estará en
W ∩ Ej = Wj , y w = u1 + · · · + ur ∈ W1 ⊕ · · · ⊕ Wr . Explicado esto, probaremos por
inducción sobre k ≥ 1 lo siguiente:
(∗) Si v1 + · · · + vk ∈ W con vj ∈ Ej , entonces v1 , . . . , vk ∈ W .
Para k = 1 es trivial, ası́ que supongámoslo para 1 ≤ k < r. Si v = v1 + · · · + vk+1 ∈
Apéndice: Soluciones §12 97

W , entonces f (v), λk+1 v ∈ W , y también λk+1 v − f (v) ∈ W . Por tanto:

λk+1 v − f (v) = (λk+1 v1 + · · · + λk+1 vk+1 ) − (λ1 v1 + · · · + λk+1 vk+1 )


= (λk+1 − λ1 )v1 + · · · + (λk+1 − λk )vk ∈ W.

Por hipótesis de inducción, cada uno de los sumandos del último miembro está en
W , y como los autovalores son distintos, deducimos v1 , . . . , vk ∈ W . En fin, vk+1 =
v − (v1 + · · · + vk ) ∈ W. 

Número 5. Sean f y g dos endomorfismos diagonalizables de un espacio vectorial


de tipo finito E, que conmutan, esto es, f ◦ g = g ◦ f . Demostrar que existe una base
de E respecto de la que las matrices de f y g son diagonales.
Solución. Comprobemos que g(Ej ) ⊂ Ej para cada subespacio de autovectores Ej
de f . En efecto, si Ej es el subespacio de autovectores asociados al autovalor λj , para
cada u ∈ Ej se tiene

f (g(u)) = g(f (u)) = g(λj u) = λj g(u),

por lo que g(u) ∈ Ej . Como g es diagonalizable se deduce del ejercicio precedente


que también lo es la restricción g|Ej a cada subespacio Ej de f . Por tanto, existe una
base Bj de Ej formada por autovectores de g que, por supuesto, S lo son también de f .
n
Como E = E1 ⊕ · · · ⊕ Ek , por ser f diagonalizable, la unión B = j=1 Bj es una base
de E cuyos miembros son autovectores tanto de f como de g, por lo que las matrices
de f y de g respecto de la base B son ambas diagonales. 

Número 6. Sea f el endomorfismo de C4 cuya matriz respecto de la base estándar


es  
−12 0 −6 4
−15 15 18 −2 
M =  0 3 −3 4  .

3 −6 −6 2
(1) Comprobar que el hiperplano H : x1 − 2x2 − 2x3 = 0 es invariante y que 18
es un autovalor de f .
(2) Obtener bases y ecuaciones implı́citas respecto de la base estándar de todos
los planos invariantes de f contenidos en H.
(3) ¿Es diagonalizable la restricción f |H ? ¿Es f diagonalizable?
Solución. (1) Este primer apartado es una mera comprobación: la igualdad

(1, −2, −2, 0)M = 18(1, −2, −2, 0)

pone de manifiesto, simultáneamente, que el hiperplano H es invariante y que 18 es


un autovalor del endomorfismo f ∗ de (C4 )∗ , luego de f .
98 III. Clasificación de endomorfismos

(2) Consideramos en H las coordenadas x0 = (x2 , x3 , x4 ), pues se puede despejar


x1 = 2x2 + 2x3 en la ecuación de H. En esas coordenadas x0 las ecuaciones de f |H
son:

 y2 = −15(2x2 + 2x3 ) + 15x2 + 18x3 − 2x4 = −15x2 − 12x3 − 2x4 ,
y3 = = 3x2 − 3x3 + 4x4 ,
y4 = 3(2x2 + 2x3 ) − 6x2 − 6x3 + 2x4 = 2x4 .

Por tanto, la matriz de f |H en estas coordenadas y su polinomio caracterı́stico son


 
−15 −12 −2
M 0 =  3 −3 4  , Pf |H (T ) = (2−T )((−15−T )(−3−T )+36) = (2−T )(−9−T )2 .
0 0 2

En consecuencia, los planos invariantes W ⊂ H están definidos por las ecuaciones


c2 x2 + c3 x3 + c4 x4 = 0 cuyos coeficientes son soluciones de los sistemas

(c2 , c3 , c4 )(M 0 − λI) = (0, 0, 0) con λ = 2, −9.

Para λ = 2 el sistema es c2 = c3 = 0, lo que nos proporciona la ecuación x4 = 0,


y el plano invariante correspondiente es W1 : x1 − 2x2 − 2x3 = x4 = 0, pues hay
que añadir la ecuación de H para tener ecuaciones en C4 . Una base de este plano es
{(2, 1, 0, 0), (2, 0, 1, 0)}.
Para λ = −9 el sistema es −2c2 +c3 = −2c2 +4c3 +11c4 = 0, lo que da la ecuación
11x2 + 22x3 − 6x4 = 0, y el plano invariante correspondiente es W2 : x1 − 2x2 − 2x3 =
11x2 + 22x3 − 6x4 = 0. Una base de este plano es {(2, 2, −1, 0), (12, 6, 0, 11)}.
(3) Sabemos que los autovalores de f |H son 2 y −9, el último doble. Por tanto,
si f |H fuera diagonalizable, deberı́a tener un plano de autovectores asociados a −9.
Pero entonces, f |H tendrı́a infinitas rectas invariantes, y por dualidad infinitos planos
invariantes, lo que no ocurre según acabamos de ver.
En cuanto a f , podemos apelar al ejercicio número 4 de esta lección III.12, p. 30,
para concluir que tampoco es diagonalizable, o bien razonar directamente. Sabemos
que f tiene los autovalores λ = 18, 2, −9, el último al menos doble (por ser doble
de f |H ), luego si fuera diagionalizable, tendrı́a al menos un plano de autovectores
asociados a λ = −9, de modo que la matriz M + 9I tendrı́a rango como mucho 2, y
sin embargo, su rango es 3 (compruébese). 

Número 7. Sea f : K4 → K4 el endomorfismo

f (x) = (2x1 , −x1 − x2 + 2x4 , 2x1 − x2 − x3 , −3x1 + 2x4 ).

Mostrar que los hiperplanos x1 = 0 y x1 − 3x2 + 2x4 = 0 son invariantes, y obtener


todos los planos invariantes de f que contienen.
Apéndice: Soluciones §12 99

Solución. En todo caso tendremos que calcular las restricciones de f a los hiperplanos
en cuestión, ası́ que empezamos por eso. Las ecuaciones de f son
 0

 x1 = 2x1 ,
 x0 = −x − x + 2x ,

1 2 4
x0 = f (x) : 2
0


 x 3 = 2x 1 − x2 − x 3 ,
 0
x4 = −3x1 + 2x4 .

(1) El endomorfismo f |H1 , H1 : x1 = 0. Haciendo x1 = 0, las ecuaciones anteriores


se convierten en  0
 x1 = 0,

 x0 = −x + 2x ,

2 4
x0 = f (x) : 2
 x03 = −x2 − x3 ,


 0
x4 = 2x4 .
Vemos pues que si x ∈ H1 , entonces también x0 = f (x) ∈ H1 , luego H1 es in-
variante. Además, olvidando la primera coordenada obtenemos unas ecuaciones de
f |H1 : H1 → H1 en las otras coordenadas (x2 , x3 , x4 ). En estas coordenadas la matriz
del endomorfismo restricción es
 
−1 0 2
M1 = −1 −1 0
0 0 2

y su polinomio caracterı́stico es P1 (T ) = (2 − T )(−1 − T )2 , con autovalores λ =


−1, 2. Un plano W contenido en H1 tendrá una ecuación c2 x2 + c3 x3 + c4 x4 = 0 en
las coordenadas que hemos elegido en H1 . Los coeficientes (c2 , c3 , c4 ) se encuentran
resolviendo los sistemas (c2 , c3 , c4 )(M1 − λI3 ) = 0:
(i) Para λ = −1, c3 = 2c2 + 3c4 = 0, que dan el plano 3x2 − 2x4 = 0. Si
queremos unas ecuaciones de W en K4 , basta que añadamos la ecuación de H1 , para
obtener dos ecuaciones x1 = 3x2 − 2x4 = 0, que describen el plano invariante en K4 .
(ii) Para λ = 2 obtenemos c2 = c3 = 0, y el plano x4 = 0. En K4 es x1 =
x4 = 0.
(2) El endomorfismo f |H2 , H2 : x1 − 3x2 + 2x4 = 0. Se procede como en el
caso anterior, aunque los cálculos son menos simples. Para hacerlos despejamos una
coordenada en función de las otras en la ecuación de H2 , por ejemplo x1 = 3x2 − 2x4 ,
y utilizamos en el hiperplano las tres últimas coordenadas. Las ecuaciones de f se
convierten en:
 0
 x1 = 2(3x2 − 2x4 ) = 6x2 − 4x4 ,

 x0 = −(3x − 2x ) − x + 2x = −4x + 4x ,

2 2 4 2 4 2 4
 x03 = 2(3x2 − 2x4 ) − x2 − x3 = 5x2 − x3 − 4x4 ,


 0
x4 = −3(3x2 − 2x4 ) + 2x4 = −9x2 + 8x4 .
100 III. Clasificación de endomorfismos

Ahora resulta que las coordenadas (x01 , x02 , x03 , x04 ) cumplen x01 − 3x02 + 2x04 = 0 (com-
pruébese), y esto significa que x0 = f (x) está en H2 ; por tanto H2 es invariante. Las
ecuaciones del endomorfismo restricción en las coordenadas (x2 , x3 , x4 ) son

0
 x2 = −4x2 + 4x4 ,

x03 = 5x2 − x3 − 4x4 ,
 0

x4 = −9x2 + 8x4 ,

y la matriz es  
−4 0 4
M2 =  5 −1 −4.
−9 0 8
El polinomio caracterı́stico es P2 (T ) = (−1 − T )(2 − T )2 , con autovalores λ = −1, 2.
Como antes, resolviendo los sistemas (c2 , c3 , c4 )(M2 − λI3 ) = 0 obtenemos los planos
invariantes c2 x2 + c3 x3 + c4 x4 = 0 contenidos en H2 :
(i) Para λ = −1 obtenemos c2 + c3 = 8c2 + 9c4 = 0, y resulta el plano de
ecuación 9x2 − 9x3 − 8x4 = 0. En coordenadas de K4 es el plano x1 − 3x2 + 2x4 =
9x2 − 9x3 − 8x4 = 0.
(ii) Para λ = 2, c3 = 2c2 + 3c4 = 0, que dan el plano 3x2 − 2x4 = 0. En K4
es x1 − 3x2 + 2x4 = 3x2 − 2x4 = 0.
De este modo hemos encontrado los planos invariantes pedidos. Para terminar, ya
sabı́amos de antemano que H1 ∩ H2 es invariante, y como tal ha aparecido en efecto:
en (1)(i) y en (2)(ii). 

Número 8. Se considera el endomorfismo de K4 dado por

f (x) = (x1 + x2 , 2x2 + x3 , 2x3 + x4 , x4 ).

(1) Calcular sus rectas y sus hiperplanos invariantes.


(2) Calcular los planos invariantes contenidos en los hiperplanos invariantes de f .
(3) Demostrar que no hay más subespacios invariantes que los encontrados antes.
Solución. (1) La matriz M , el polinomio caracterı́stico P (T ), y los autovalores λ de
f son  
1 1 0 0
0 2 1 0 2 2
M = 0 0 2 1 , P (T ) = (1 − T ) (2 − T ) , λ = 1, 2.

0 0 0 1
Apéndice: Soluciones §12 101

Los subespacios de autovectores son


  
0 1 0 0 x1
0 1 1 0x2 
0 0 1 1x3  = 0
W (1) :    x2 = x3 = x4 = 0,
0 0 0 0 x4
  
−1 1 0 0 x1
 0 0 1 0 x2 
 0 0 0 1 x3  = 0
W (2) :    x1 − x2 = x3 = x4 = 0.
0 0 0 −1 x4
Ambos subespacios son rectas, y son las dos únicas rectas invariantes de f .
Para calcular los hiperplanos invariantes H : c1 x1 + c2 x2 + c3 x3 + c4 x4 = 0
resolvemos los sistemas c(M − λI) = 0, para λ = 1, 2:
 
0 1 0 0
0 1 1 0
0 0 1 1 = 0
(c1 , c2 , c3 , c4 )  c1 = c2 = c3 = 0 H : x4 = 0.
0 0 0 0
 
−1 1 0 0
 0 0 1 0
 0 0 0 1 = 0
(c1 , c2 , c3 , c4 )  c1 = c2 = c3 − c4 = 0 H : x3 + x4 = 0.
0 0 0 −1
En suma, hay dos rectas invariantes y dos hiperplanos invariantes.
(2) Los hiperplanos que nos proponen son los dos invariantes encontrados en (1).
Por tanto, debemos estudiar las restricciones de f a esos hiperplanos.
(i) En x4 = 0 tomamos coordenadas (x1 , x2 , x3 ), y las ecuaciones de f |H se
obtienen haciendo x4 = 0 en las de f , con lo que tenemos además la matriz y los
autovalores de f |H :

0
 x1 = x1 + x2 ,
 
 1 1 0
x02 = 2x2 + x3 , 0 2 1 , λ = 1, 2.
 0 0 0 2

x3 = 2x3 ,
Los planos invariantes c1 x1 + c2 x2 + c3 x3 = 0 contenidos en x4 = 0 se obtienen del
modo habitual:
 
0 1 0
(c1 , c2 , c3 )0 1 1 = 0 c1 + c2 = c2 + c3 = 0 x1 − x2 + x3 = 0,
0 0 1
 
−1 1 0
(c1 , c2 , c3 ) 0 0 1 = 0 c1 = c2 = 0 x3 = 0.
0 0 0
102 III. Clasificación de endomorfismos

Luego hay que añadir la ecuación del hiperplano invariante en el que estamos, y
resultan dos planos invariantes:

x4 = x1 − x2 + x3 = 0 , x4 = x3 = 0.

(ii) En x3 + x4 = 0 tomamos de nuevo coordenadas (x1 , x2 , x3 ), pero ahora hay


que hacer x4 = −x3 . Resulta:

0
 x1 = x1 + x2 ,
 
 1 1 0
x02 = 2x2 + x3 , 0 2 1 , λ = 1, 2.
 0 0 0 1

x3 = x3 ,

Para obtener los planos invariantes c1 x1 + c2 x2 + c3 x3 = 0 contenidos en x3 + x4 = 0


resolvemos:
 
0 1 0
(c1 , c2 , c3 )0 1 1 = 0 c1 = c2 = 0 x3 = 0,
0 0 0
 
−1 1 0
(c1 , c2 , c3 ) 0 0 1  = 0 c1 = c2 − c3 = 0 x2 + x3 = 0.
0 0 −1

Finalmente añadimos la ecuación del hiperplano invariante que estamos considerando,


y tenemos los dos planos invariantes siguientes:

x3 + x4 = x3 = 0 , x3 + x4 = x2 + x3 = 0.

En total, tenemos tres planos invariantes distintos, pues x4 = x3 = 0 de (i) y


x3 + x4 = x3 = 0 de (ii) son el mismo, a saber, la intersección de los dos hiperplanos
invariantes de f .
(3) Basta probar que todo plano invariante está contenido en algún hiperplano
invariante. Supongamos que uno W no lo está. Si hay algún autovector u de f fuera
de W , entonces W ⊕ L[u] es un hiperplano invariante que contiene a W , contra la
suposición. Por tanto, W debe contener a las dos rectas invariantes, que generan el
plano x3 = x4 = 0. En consecuencia W es ese plano, intersección de los dos hiper-
planos invariantes, y contenido en ellos. Contradicción. En suma, no hay más planos
invariantes que los tres de (2). 

Número 9. Demostrar que un endomorfismo de un espacio vectorial complejo de


tipo finito E tiene subespacios invariantes de todas las dimensiones. (Razonar por
inducción sobre dim(E): (i) mediante cociente módulo una recta invariante, y (ii) por
restricción a un hiperplano invariante.)
Apéndice: Soluciones §12 103

Solución. Sea n = dim(E). Para n = 1 el resultado es trivial, ası́ que suponemos


n > 1 y probado el resultado para espacios de dimensión n − 1, y lo deducimos para
E por los dos procedimientos que indica el enunciado.
(i) En virtud del Teorema Fundamental del Álgebra el polinomio caracterı́stico
de f posee algún autovalor complejo, y elegimos un autovector no nulo u asociado.
La recta L = L[u] es invariante por f , luego está bien definido el endomorfismo

g = [f ]L : F = E/L → E/L : [v] 7→ [f (v)].

Como dim(F ) = n − 1, por inducción, g tiene un subespacio invariante Vk ⊂ F de


cada dimensión k ≤ n−1. Pero entonces Vk = Wk /L, donde Wk ⊂ E es un subespacio
invariante de f de dimensión

dim(Wk ) = dim(Vk ) + dim(L) = k + 1.

(ii) Como en (i), sabemos que existe un autovalor complejo, y por tanto existe un
hiperplano invariante H. Por inducción, la restricción f |H de f a H tiene subespacios
invariantes de cualquier dimensión k ≤ n − 1, que por supuesto son también subespa-
cios invariantes de f . 

Número 10. Calcular las rectas invariantes del endomorfismo f de K3 dado por

f (x, y, z) = (x, x + y, y + 2z),

y mostrar que existe una base respecto de la cual las ecuaciones de f son

f (x0 , y 0 , z 0 ) = (x0 , x0 + y 0 , 2z 0 ).

Encontrar después una tal base.


Solución. La matriz de f respecto de la base estándar es
 
1 0 0
M = 1 1 0 ,
0 1 2

de modo que el polinomio caracterı́stico de f es P (T ) = (1 − T )2 (2 − T ), y sus auto-


valores son λ = 1, 2. Resolviendo el sistema definido por la matriz M − λI obtenemos
los autovectores asociados a
  
0 0 0 x
λ = 1 :  1 0 0 y  = 0 W (1) : x = y + z = 0,
0 1 1 z
  
−1 0 0 x
λ = 2 :  1 −1 0 y  = 0 W (2) : x = y = 0.
0 1 0 z
104 III. Clasificación de endomorfismos

Por tanto, hay sólo dos rectas invariantes: L1 = W (1) y L2 = W (2).


Ahora, por dualidad, f tiene dos planos invariantes. Uno es el que generan las
dos rectas invariantes, esto es, H1 : x = 0. El otro, que denotamos H, corta a H1 en
una recta invariante, bien L1 , bien L2 . Si es L1 , entonces f |H es un endomorfismo de
un plano vectorial con una única recta invariante, luego con un único autovalor, que
debe ser 1 (pues L1 ⊂ H), y respecto de una base adecuada {u, v} de H su matriz es
 
1 0
.
1 1

Entonces B0 = {u, v, (0, 0, 1)} es una base de K3 respecto de la cual la matriz de f es


 
1 0 0
1 1 0,
0 0 2

y obtenemos las ecuaciones f (x0 , y 0 , z 0 ) = (x0 , x0 + y 0 , 2z 0 ) pretendidas.


¿Y si H1 ∩ H = L2 ? Entonces, razonando de manera análoga, obtendrı́amos una
base respecto de la cual la matriz de f serı́a
 
2 0 0
1 2 0,
0 0 1

con polinomio caracterı́stico (2 − T )2 (1 − T ), que no es el de f . Ası́, no puede ser


H1 ∩ H = L2 .
Calculemos explı́citamente la base B0 . Claramente, v es un autovector asociado a
λ = 1, luego v ∈ L1 , esto es, v = a(0, 1, −1). En cuanto a u = (x, y, z), debe cumplirse
f (u) = u + v, esto es:

 x = x,
 (
x = a,
x + y = y + a,
 y + z = −a.
y + 2z = z − a,

Por ejemplo, tomamos a = 1, u = (1, −1, 0), y B0 = {(1, −1, 0), (0, 1, −1), (0, 0, 1)}.


Número 11. Sea f un endomorfismo de C3 que tiene exactamente una recta y un


plano invariantes. Demostrar que la recta está contenida en el plano, y respecto de
una base adecuada la matriz del endomorfismo es
 
λ 0 0
1 λ 0 .
0 1 λ
Apéndice: Soluciones §12 105

Solución. En primer lugar, nótese que f tiene un único autovalor, pues tiene una
única recta invariante. Si la recta invariante L no estuviera contenida en el plano
invariante H, entonces obtendrı́amos por restricción a H un endomorfismo de un
plano complejo sin rectas invariantes, lo que es imposible. Visto ası́ que L ⊂ H,
sabemos que hay una base {v, w} de H respecto de la cual la matriz de f |H es del
tipo  
λ 0
.
1 λ
Ahora completamos hasta una base B = {u, v, w} de C3 , y escribimos f (u) = αu +
βv + γw. De hecho α = λ pues el polinomio caracterı́stico de la matriz de f respecto
de la base B es (α − T )(λ − T )2 , y ha de tener una única raı́z. La matriz de f respecto
de esta base es  
λ 0 0
M = β λ 0 
γ 1 λ
y debemos modificar B hasta lograr que la matriz de f tenga el aspecto del enunciado.
En realidad basta cambiar u por otro vector u0 tal que f (u0 ) = λu0 + v. Usamos
coordenadas u0 = (x, y, z) respecto de B, y se debe cumplir

λx = λx,
(
x = β1 ,

βx + λy = λy + 1,
 y = −γβ ,
γx + y + λz = λz,

y hemos concluido. Esto, claro, si β 6= 0. Pero supongamos lo contrario, es decir,


 
λ 0 0
M = 0 λ 0 .
γ 1 λ
Entonces calculamos W (λ), de nuevo usando coordenadas (x, y, z) respecto de B:
 
x
W (λ) : (M − λI)y  = 0 γx + y = 0,
z
y obtenemos un plano de rectas invariantes, demasiadas. Esto concluye la discusión.


Número 12. Sea W un subespacio invariante de un endomorfismo f : E → E


y f |W : W → W y de [f ]W : E/W → E/W los dos endomorfismos asociados
(III.12.2(2), vol. 2, p. 17).
(1) Probar que si W está contenido en otro subespacio invariante W 0 de f de
dimensión una unidad mayor, entonces W 0 = W ⊕ L[u], donde [u] ∈ E/W es un
autovector de [f ]W .
106 III. Clasificación de endomorfismos

(2) Sean B una base de f , M la matriz de f respecto de B y Axt = 0 unas


ecuaciones implı́citas de W . Demostrar que los vectores u ∈ E tales que W ⊕ L[u] es
un subespacio invariante se obtienen resolviendo los sistemas

A(M − λI)xt = 0

para todas las raı́ces λ del polinomio caracterı́stico de [f ]W .


Solución. (1) Tenemos dim(W 0 /W ) = dim(W 0 ) − dim(W ) = 1, ası́ que podemos
elegir un vector u ∈ W 0 cuya clase [u] genere W 0 /W . En particular, u 6∈ W , luego
W 0 = W ⊕ L[u]. Pero ξ = [u] es autovector de [f ]W : W 0 /W es una recta invariante
de [f ]W , luego cualquier vector suyo no nulo es autovector.
(2) Sea u ∈ E tal que W ⊕ L[u] es subespacio invariante. Como en (1), dedu-
cimos que [f ]W ([u]) = λ[u], siendo λ un autovalor de [f ]W , esto es, una raı́z de su
polinomio caracterı́stico. Por otra parte, la invarianza de W ⊕ L[u] equivale a que
(f − λ IdE )(u) ∈ W para cierto escalar λ, que será un autovalor de [f ]W . Y las
igualdades [f ]W ([u]) = λ[u] y (f − λ IdE )(u) ∈ W son equivalentes. Según todo es-
to, utilizando las coordenadas x = (x1 , . . . , xn ) de u respecto de B, la invarianza de
W ⊕ L[u] equivale a la condición A(M − λI)xt = 0 del enunciado. 

Número 13. Calcular todos los autovectores del endomorfismo f : K4 → K4 defi-


nido por
f (x) = (2x1 − x3 , −2x1 + 4x2 + 2x3 , 4x3 + x4 , 4x4 ),
y obtener todos los planos invariantes de f en los que están contenidos.
Solución. La matriz de f (respecto de la base estándar) es
 
2 0 −1 0
−2 4 2 0
M =  0
,
0 4 1
0 0 0 4

el polinomio caracterı́stico de f es P (T ) = det(M − T I) = (2 − T )(4 − T )3 , y los


autovalores son λ = 2, 4.
(1) El subespacio invariante W = W (λ) asociado al autovalor λ = 4 se obtiene
resolviendo (M − λI)xt = 0:
  
−2 0 −1 0 x1
−2 0 2 0  x2 
   = 0 x1 = x3 = x4 = 0.
 0 0 0 1  x3 
0 0 0 0 x4

Estas ecuaciones muestran que W es una recta. Los planos invariantes que contienen
a W se pueden calcular según el problema anterior: W ⊕ L[u] es invariante si las
Apéndice: Soluciones §12 107

coordenadas x de u cumplen ciertos sistemas A(M − µI)xt = 0. En estos sistemas, A


es la matriz de unas ecuaciones homogéneas de W , luego podemos tomar A = M −λI.
En cuanto a µ es una raı́z del cociente de los polinomios caracterı́sticos de f y de f |W .
El primero lo conocemos, y el segundo es λ − T , pues W = W (λ) es la recta invariante
asociada al autovalor λ. Por tanto, en este caso λ = 4, el cociente es (2 − T )(4 − T )2 ,
y µ = 4, 2.
(i) Si µ = 4 = λ, tenemos que resolver (M −4I)2 xt = 0. Calculando el cuadrado
de esa matriz:
  
4 0 2 −1 x1
 4 0 2 2  x2 
 0 0 0 0  x3  = 0
   4x1 + 2x3 − x4 = 4x1 + 2x3 + 2x4 = 0.
0 0 0 0 x4

Ahora bien, estas dos ecuaciones definen un plano W 0 que contiene a la recta W =
W (4) (compruébese, pero piénsese también por qué no hace falta comprobarlo). Ası́,
W 0 = W ⊕ L[u] para cualquier u ∈ W 0 \ W . Por tanto, este plano W 0 es el único plano
invariante que obtenemos para este µ.
(ii) Si µ = 2, tenemos que resolver (M − 4I)(M − 2I)xt = 0:
  
0 0 0 −1 x1
0 0 6 2  x2 
   = 0 x3 = x4 = 0.
0 0 0 2  x3 
0 0 0 0 x4
Como antes, obtenemos un único plano invariante: x3 = x4 = 0.
(2) Para λ = 2 se opera análogamente. El subespacio W = W (λ) tiene ecuaciones
  
0 0 −1 0 x1
−2 2 2 0  x2 
 0 0 2 1  x3  = 0
   −x1 + x2 = x3 = x4 = 0,
0 0 0 2 x4

y es también una recta. Veamos qué sistemas A(M − µI)xt = 0 tenemos en este caso.
La matriz A es M − 2I. En cuanto a µ, ahora el polinomio caracterı́stico de f |W es
2 − T , y el cociente del que µ es raı́z es (4 − T )3 , luego sólo tenemos el valor µ = 4.
Ası́, el sistema que nos interesa es (M − 2I)(M − 4I)xt = 0:
  
0 0 0 −1 x1
 0 0 6 2  x2 
 0 0 0 2  x3  = 0 x3 = x4 = 0.
  

0 0 0 0 x4

¡Es el mismo plano invariante que en (1)(ii)! (Como no podı́a ser menos, pues las
matrices (M − 2I) y (M − 4I) conmutan.)
108 III. Clasificación de endomorfismos

Esto completa la búsqueda. Sin embargo, veamos qué pasa si operamos con µ = 2.
Entonces el sistema (M − 2I)2 xt = 0 es
  
0 0 −2 −1 x1
−4 4 10 2  x2 
 0 0 4 4  x3  = 0
   −x1 + x2 = x3 = x4 = 0,
0 0 0 4 x4
y estas ecuaciones definen de nuevo la recta W , luego no encontramos ninguna infor-
mación adicional.
Las matrices M − λI y sus productos han aparecido aquı́ de una manera algo
inesperada. En las lecciones siguientes se estudian de modo sistemático, para explicar
el porqué de esa aparición. 

Número 14. Encontrar todos los subespacios invariantes del endomorfismo de K4


definido por
f (x) = (x1 , 2x2 , 3x3 , 4x4 ).

Solución. Los cuatro vectores e1 , e2 , e3 , e4 de la base estándar son autovectores,


asociados respectivamente a λ = 1, 2, 3, 4. Por tanto las cuatro rectas Li = L[ei ]
(1 ≤ i ≤ 4) son las únicas rectas invariantes. Deducimos por dualidad que f tiene
exactamente cuatro hiperplanos invariantes, que son los hiperplanos coordenados H :
xi = 0 (1 ≤ i ≤ 4). Queda determinar los planos invariantes.
Sea W un plano invariante. El polinomio caracterı́stico de f |W es un divisor de
grado dos del polinomio caracterı́stico de f , que es P (T ) = (1−T )(2−T )(3−T )(4−T )
luego tiene necesariamente dos raı́ces distintas, y f |W tiene dos autovectores indepen-
dientes. Esto significa que W está generado por dos autovectores de f . Existen por
tanto seis planos invariantes que son exactamente los generados por pares de vectores
de la base estándar: Wij = L[ei , ej ]. 

Número 15. Encontrar un endomorfismo f de R4 sin rectas invariantes, y con el


plano siguiente invariante:
W : x1 + x2 = x3 + x4 = 0.
¿Se puede encontrar f sin más planos invariantes?
Solución. Para facilitar los cálculos, elegimos una base {v1 , v2 , v3 , v4 } en cuyas coor-
denadas y = (y1 , y2 , y3 , y4 ) el plano invariante W tenga por ecuaciones y1 = y2 = 0
(al final desharemos el cambio). Las raı́ces del polinomio caracterı́stico de f no han de
ser reales, pues f carece de rectas invariantes. Ya vimos que en el caso bidimensional
esto lo cumple el endomorfismo de matriz
 
0 −1
.
1 0
Apéndice: Soluciones §12 109

Si colocamos dos cajas como ésta obtenemos la matriz


 
0 −1 0 0
1 0 0 0
 
 0 0 0 −1 
0 0 1 0
y el endomorfismo que define deja invariante el plano W : y1 = y2 = 0, ¡pero también
el plano y3 = y4 = 0!
Para encontrar un endomorfismo f cuyo único plano invariante sea y1 = y2 = 0
modificamos la matriz anterior ası́:
 
0 −1 0 0
1 0 0 0
M = 
1 0 0 −1 
0 1 1 0
(imitando por cajas la forma de la matriz 2 × 2 que clasifica un endomorfismo del
plano con una única recta invariante). Esta matriz define f mediante las ecuaciones
f (y) = M y t . El polinomio caracterı́stico de f es P (T ) = (T 2 + 1)2 , que carece de
raı́ces reales, luego f no tiene rectas ni hiperplanos invariantes. Comprobemos que W
es el único plano invariante de f .
Claramente el plano W : y1 = y2 = 0 es invariante por f . Sea W 0 otro plano
invariante distinto. Como f no tiene rectas invariantes en W 0 , la matriz de f |W 0
respecto de una base adecuada {u1 , u2 } es
 
α −β
, con β > 0.
β α
De nuevo por no tener f rectas invariantes, necesariamente W 0 ∩ W = {0}, luego
R4 = W 0 ⊕ W . En esta situación, {u1 , u2 , v3 , v4 } es una base de R4 respecto de la cual
la matriz de f es  
α −β 0 0
β α 0 0
 0 0 0 −1 .
 

0 0 1 0
Calculando el polinomio caracterı́stico de f mediante esta matriz resulta
P (T ) = (α − T )2 + β 2 (T 2 + 1),


y debe coincidir con P (T ) = (T 2 + 1)2 , luego necesariamente α = 0, β = 1. Esto


significa que respecto de bases diferentes, f tiene las dos matrices siguientes:
   
0 −1 0 0 0 −1 0 0
1 0 0 0 1 0 0 0 
M =   y N =  ,
1 0 0 −1  0 0 0 −1 
0 1 1 0 0 0 1 0
110 III. Clasificación de endomorfismos

luego estas dos matrices son semejantes. Esta semejanza como matrices reales implica
la semejanza como matrices complejas. El interés de esto es que podemos conside-
rarlas matrices respecto de bases diferentes√de un mismo endomorfismo fe de C4 . Ese
endomorfismo tendrá dos autovalores i = −1 y su conjugado −i. Resolviendo los
sistemas complejos
(M ± iI)z t = 0 y (N ± iI)z t = 0
se obtienen los autovectores de f en coordenadas respecto de una y otra base respec-
tivamente. Pero:
(
(M − iI)z t = 0 z1 = z2 = z3 − iz4 = 0, una recta en C4 ,
t
(M + iI)z = 0 z1 = z2 = z3 + iz4 = 0, una recta en C4 ,
(
(N − iI)z t = 0 iz1 + z2 = iz3 + z4 = 0, un plano en C4 ,
t
(N + iI)z = 0 −iz1 + z2 = −iz3 + z4 = 0, un plano en C4 .

Ası́, M nos dice que fe tiene dos rectas de autovectores, y N que tiene dos planos de
autovectores. Contradictorio. Por tanto no pueden existir planos invariantes distintos
de W : y1 = y2 = 0.
De esta manera hemos encontrado el endomorfismo f de ecuaciones
 0
 y1 = −y2 ,

 y0 = y ,

1
y 0 = f (y) : 2
 y30 = y1 − y4 ,


 0
y4 = y2 + y3 ,

Para terminar, basta deshacer el cambio. Ahora bien, hay muchos cambios posibles,
pues hay muchas posibles elecciones de y3 , y4 . Por ejemplo podemos tomar:
 0
x1 = y10 − y30 ,


 y1 = x1 + x2 , 


y = x + x ,  x0 = y 0 ,

2 3 4
x 7→ y : x0 7→ y 0 : 2
0
3
0 0
2 − y4 ,
 y3 = x2 ,
 
 x 3 = y
 
 0
y4 = x4 , x4 = y40 ,

y haciendo todas las sustituciones pertinentes queda


 0

 x1 = −x1 − x2 − x3 ,
 x0 = x + x − x ,

1 2 4
x0 = f (x) : 2
0


 x 3 = x 1 − x 3 − x 4,
 0
x4 = x2 + x3 + x4 .

Apéndice: Soluciones §13 111

Soluciones §13
Número 1. Demostrar que cualquier matriz cuadrada real de orden 2 cuyo deter-
minante es negativo, es semejante en M2 (R) a una matriz diagonal.
Solución. Sea A ∈ M2 (R) una matriz con determinante negativo. Como la matriz
es de orden dos, su polinomio caracterı́stico tiene grado dos, con término indepen-
diente el determinante de la matriz. Por tanto, ese determinante es el producto de
las dos raı́ces (quizás complejas conjugadas) del polinomio caracterı́stico. Ahora bien,
ese producto sólo puede ser negativo si las dos raı́ces son reales y distintas. Ası́, A es
diagonalizable, esto es, semejante en M2 (R) a una matriz diagonal. 

Número 2. Hallar la forma de Jordan de un endomorfismo f de C2n cuyo núcleo


coincide con su imagen.
Solución. Comprobemos en primer lugar que ker(f 2 ) = C2n . En efecto, f (u) perte-
nece a im(f ) = ker(f ) para cada vector u ∈ C2n , por lo que 0 = f (f (u)) = f 2 (u).
Además,

2n = dim(C2n ) = dim(ker(f )) + dim(im(f )) = 2 dim(ker(f )),

ası́ que dim(ker(f )) = n. Por tanto, al calcular la cadena de subespacios invariantes


del autovalor λ = 0 resulta ν = 2 y rν−1 = dim(ker(f 2 )) − dim(ker(f )) = n. Resulta
que la forma de Jordan J de f consta de n cajas de Jordan de tamaño 2 en la diagonal:

0 0 0 0 ··· 0 0
 
1 0 0 0 ··· 0 0
0 0 0 0 ··· 0 0
 
u11 u21 · · · un1 0 0 1 0 ··· 0 0
 
, J = .
g(u11 ) g(u21 ) · · · g(un1 )  .. .. .. .. .. .. .. 
. . . . . . .
 
0 0 0 0 ··· 0 0
0 0 0 0 ··· 1 0 

„ «15
2 −1
Número 3. Calcular .
1 0

Solución. Sea f el endomorfismo de C2 cuya matriz respecto de la base estándar es


 
2 −1
A= .
1 0

El polinomio caracterı́stico de f es

Pf (T ) = (2 − T )(−T ) + 1 = T 2 − 2T + 1 = (T − 1)2 ,
112 III. Clasificación de endomorfismos

luego 1 es su único autovalor. Además, la matriz M = A − I conmuta con I y cumple


 2  
2 1 −1 0 0
M = = .
1 −1 0 0

En consecuencia, M k es la matriz nula para cada entero k ≥ 2, y por tanto


15    
15 15
X 15 k 15−k 16 −15
A = (M + I) = M I = I + 15M = .
k 15 −14 
k=0

Número 4. Sea f el endomorfismo de K3 de ecuaciones

f (x, y, z) = (3x − y + z, x + y + z, 2z).

Mostrar que tiene un único autovalor, que su subespacio invariante maximal es todo
K3 , y calcular su forma de Jordan.
Solución. El polinomio caracterı́stico de f es
 
3 − T −1 1
P (T ) = det 1 1−T 1  = (2 − T )(T 2 − 4T + 4) = (2 − T )3 ,
0 0 2−T

luego efectivamente λ = 2 es el único autovalor de f . La matriz de g = f − λ IdK3


respecto de la base estándar es
 
1 −1 1
M =  1 −1 1 ,
0 0 0

que tiene rango 1, luego dim(ker(g)) = 2. Además se comprueba que M 2 = 0, con lo


que ker(g 2 ) = K3 es el subespacio invariante maximal. La sucesión de dimensiones de
los subespacios invariantes de f es 0 < 2 < 3, por lo que la tabla de Jordan es
u11
(por ejemplo, u11 = (1, 0, 0) ∈
/ ker(g)).
g(u11 ) u21

Como hay dos columnas, hay dos cajas de Jordan Jk (λ) (k = 2 y 1 son las alturas de
las columnas) y obtenemos la siguiente forma de Jordan:
 
2 0 0
J =  1 2 0 .
0 0 2 

Número 5. Se considera el endomorfismo f de E = K3 , distinto de IdE , dado por

f (x, y, z) = (x + ay + bz, y + cz, z).


Apéndice: Soluciones §13 113

Estudiar los subespacios invariantes asociados al único autovalor de f , y la forma de


Jordan correspondiente, según los valores de los parámetros a, b, c.
Solución. La matriz (respecto de la base estándar) de f , y su polinomio caracterı́sti-
co, y su único autovalor son:
 
1 a b
M = 0 1 c  , P (T ) = (1 − T )3 , λ = 1.
0 0 1

Las matrices de las sucesivas potencias f − λ IdE = g, g 2 , g 3 son


     
0 a b 0 0 ac 0 0 0
M − λI3 = 0 0 c , 0 0 0 , 0 0 0.
0 0 0 0 0 0 0 0 0

Ahora debemos distinguir casos:

ac 6= 0 ac = 0
rg(g k ) 2>1>0 1>0
dim(Nk ) 1 < 2 < 3 2<3

Vemos que el espacio invariante maximal es siempre todo el espacio. Si ac 6= 0, la


tabla y la forma de Jordan de f son:
 
u11 1 0 0
g(u11 ) y J =  1 1 0 ,
g 2 (u11 ) 0 1 1

y si ac = 0:  
1 0 0
u11
y J =  1 1 0 .
g(u11 ) u21
0 0 1 

Número 6. Sea f : E → E un endomorfismo nilpotente, es decir, tal que f k = 0


para algún entero k ≥ 1. Demostrar que el único autovalor de f es λ = 0, y su
subespacio maximal invariante es todo el espacio: N (λ) = E. Deducir que la traza de
un endomorfismo nilpotente (y de todas sus potencias) es nula.
Solución. Sea λ un autovalor de f . Existe un vector no nulo u ∈ E tal que f (u) = λu.
De aquı́ se deduce

0 = f k (u) = f k−1 (f (u)) = f k−1 (λu) = λf k−1 (u) = · · · = λk−1 f (u) = λk u.

Como u = 6 0, obtenemos λ = 0. Por supuesto, el subespacio maximal invariante


asociado al autovalor λ es ker(f k ) = E.
114 III. Clasificación de endomorfismos

Esto significa que la diagonal de la forma de Jordan de f está formada por ceros,
luego su traza es nula. Para las potencias es lo mismo, pues una potencia de un en-
domorfismo nilpotente es nilpotente a su vez. 

Número 7. Sean a, b números reales con a < b, y sea f el endomorfismo de C3


cuya matriz respecto de la base estándar es
 
a 0 b−1
A =  1 b −1  .
0 1 −1

(1) Calcular a y b sabiendo que ker(f ) = im(f 2 ).


(2) Calcular la forma de Jordan de f .

Solución. (1) De la igualdad ker(f ) = im(f 2 ) se desprende que f 3 = 0. En efecto,


f 2 (u) pertenece a im(f 2 ) = ker(f ) para cada vector u ∈ C3 , por lo que f 3 (u) =
f (f 2 (u)) = 0. Por tanto, f es nilpotente y por el ejercicio anterior, su traza es nula y
su único autovalor es el λ = 0. Como el determinante también es nulo, tenemos

0 = tr(f ) = a + b − 1,
0 = det(f ) = (a − 1)(b − 1).

Si a = 1, entonces b = 0 < a, luego debe ser b = 1 y a = 0.


(2) Las dos primeras columnas de la matriz
 
0 0 0
A =  1 1 −1 
0 1 −1

son vectores independientes, luego dim(im(f )) = rg(f ) = 2, ası́ que dim(ker(f )) = 1.


Por tanto el primer subespacio invariante N1 de la cadena asociada al único autovalor
λ = 0 es una recta, luego las codimensiones siguientes deben ser 1, hasta llegar a
dimensión 3, pues Nν = C3 ya que f 3 ≡ 0. Por tanto, dim(N2 ) = 2 y dim(N3 ) = 3,
luego la forma de Jordan de f es
 
0 0 0
Jf =  1 0 0  .
0 1 0 

Número 8. Sean E un espacio vectorial de tipo finito y dimensión 3, y f : E → E


un endomorfismo cuya imagen coincide con el núcleo de f 2 . Demostrar que f es
nilpotente, y que dim(ker(f )) = 1. Usar esto para obtener la forma de Jordan de f .
Apéndice: Soluciones §13 115

Solución. Para cada u ∈ E se tiene f (u) ∈ im(f ) = ker(f 2 ), luego f 3 (u) =


f 2 (f (u)) = 0, de modo que f es nilpotente. En particular, f no es inyectivo, y
dim(ker(f )) ≥ 1. Pero
dim(ker(f )) = 3 − dim(im(f )) = 3 − dim(ker(f 2 )) ≤ 3 − dim(ker(f )),
luego 2 dim(ker(f )) ≤ 3, y por tanto dim(ker(f )) = 1. Por el problema número 6 de
esta lección III.12, vol. 2, p. 44, λ = 0 es el único autovalor de f , y como f tiene rango
2, su forma de Jordan es  
0 0 0
J = 1 0 0
0 1 0
(pues si hubiera menos unos, el rango no serı́a 2). 

Número 9. ¿Existe algún endomorfismo f de C2n tal que ker(f n ) = im(f n−1 )?
Solución. Supongamos que existe tal endomorfismo, que serı́a nilpotente, ya que
f 2n−1 = f n ◦ f n−1 = 0. Por ello, 0 serı́a su único autovalor con subespacio invariante
maximal ker(f ν ) = C2n para cierto ν ≤ 2n − 1. A partir de ahora debemos hacer
diversas estimaciones de dimensiones. Por un lado, por la fórmula de la dimensión,

2n = dim(ker(f n−1 )) + dim(im(f n−1 ))


≤ dim(ker(f n )) + dim(im(f n−1 )) = 2 dim(im(f n−1 )),
por lo que dim(im(f n−1 )) ≥ n, luego dim(ker(f n−1 )) ≤ n. Ası́
dim(ker(f n−1 )) ≤ n < 2n = dim(ker(f ν )),
y n − 1 < ν. Con esto, la cadena de subespacios invariantes es del tipo siguiente
{0} ( ker(f ) ( . . . ( ker(f n−1 ) ( . . . ( ker(f ν ) = C2n .
En particular esto implica que dim(ker(f n−1 )) ≥ n − 1. Hay dos casos:
(i) dim(ker(f n−1 )) = n − 1. Entonces en la cadena de núcleos las dimensiones
aumentan de uno en uno, y ν = 2n. Contradicción, pues f 2n−1 ≡ 0.
(ii) dim(ker(f n−1 )) = n. En este caso deberı́a ser dim(ker(f )) = 2, y las siguien-
tes dimensiones aumentar de unidad en unidad (pues las codimensiones no aumentan).
Por tanto dim(ker(f k )) = k +1 para 1 ≤ k ≤ ν, y en particular ν = 2n−1. Deducimos
también una contradicción:
(
dim(im(f n−1 )) = 2n − dim(ker(f n−1 )) = 2n − n = n,
dim(im(f n−1 )) = dim(ker(f n )) = n + 1.

Ası́ pues no existe tal endomorfismo f . 


116 III. Clasificación de endomorfismos

Número 10. Sean E el espacio vectorial de los polinomios de grado ≤ d con coe-
ficientes complejos, y f el endomorfismo de E definido por la substitución: F (T ) 7→
F (T +1). Demostrar que el único autovalor de f es λ = 1, que su subespacio invariante
maximal es todo E, y calcular la forma de Jordan de f .
Solución. Consideremos la base estándar de E, formada por los monomios de grados
crecientes 1, T, . . . , T d . Tenemos:
k  
k
X
k k k−i
f (T ) = (T + 1) = T ,
i=0
i

luego la matriz de f respecto de esa base estándar es


 
1 1 1 1 1 ...
0 1 2 3 4 ... 
 
0 0 1 3 6 ... 
M = 0 0
.
 0 1 4 ... 

0 0 0. 0. 1. ...
.. ..

. . .. .. ..

Ya vemos que λ = 1 es el único autovalor, y las matrices de las potencias sucesivas


f − λ IdE = g, g 2 , g 3 . . . son
     
0 1 1 1 1 ... 0 0 2 6 14 ... 0 0 0 6 36 ...
 0 0 2 3 4 . . .   0 0 0 6 24 ... 0 0 0 0 24 ...
     
 0 0 0 3 6 . . .   0 0 0 0 12 ... 0 0 0 0 0 ...
0 0 0 0 4 ... , 0 0 0 0 0 ,
     ,...
   ...
0
 0 0 0 0 ...
0 0 0 0 0 ... 0 0 0 0 0 ... 0 0. 0. 0. 0. ...
.. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . .
(matrices de orden (d + 1) × (d + 1)). Es claro que los rangos de estas matrices son
d > d − 1 > d − 2 > · · · , luego la cadena de dimensiones de los núcleos de g, g 2 , g 3 , . . .
es 1 < 2 < 3 < · · · , y el subespacio invariante maximal es Nd+1 (λ) = E. También
se puede razonar observando que g transforma en cero las constantes, y disminuye
exactamente en una unidad el grado de los polinomios no constantes (mı́rese atenta-
mente la matriz de g), luego g d 6≡ 0 y g d+1 ≡ 0, lo que obliga a que Nd+1 = E y a
la misma sucesión de dimensiones. Como todas las codimensiones son 1, la tabla de
Jordan tiene una sola columna y la matriz de Jordan de f es Jd+1 (1). 

Número 11. De un endomorfismo f de E = K8 se sabe que el rango de f − 2 IdE


es ≥ 6, el de (f − 2 IdE )4 es 1, y el de (f − 2 IdE )5 es 0. Demostrar que λ = 2 es
el único autovalor de f y que su espacio invariante maximal es todo E, y calcular la
forma de Jordan de f .
Solución. En primer lugar, λ = 2 es un autovalor. En efecto, si no, g = f −2 IdE serı́a
un isomorfismo, y también lo serı́a cualquier potencia suya g k , que tendrı́a rango 8, lo
Apéndice: Soluciones §13 117

que no es el caso para g 4 . Ası́, λ = 2 es un autovalor, y tiene su cadena de subespacios


invariantes Nk = ker(g k ). Pero

dim(N5 ) = dim(ker(g 5 )) = dim(E) − rg(g 5 ) = 8 − 0 = 8,

luego el subespacio invariante maximal es N5 = K8 . De aquı́ resulta que λ = 2 es el


único autovalor. En efecto, si f (u) = µu con u 6= 0, entonces

g(u) = (f − λ IdE )(u) = f (u) − λu = µu − λu = (µ − λ)u,

de manera que

0 = g 5 (u) = g 4 ((µ − λ)u) = (µ − λ)g 4 (u) = · · · = (µ − λ)5 u,

y por tanto µ = λ. Dicho esto, la cadena de subespacios invariantes es

{0} ( N1 ( N2 ( N3 ( N4 ( N5 = K8 ,
n dim(N ) = dim(ker(g)) = dim(E) − rg(g) ≤ 8 − 6 = 2,
1
donde
dim(N4 ) = dim(ker(g 4 )) = dim(E) − rg(g 4 ) = 8 − 1 = 7.
Ahora bien, la cadena dimensiones no puede empezar en 1, pues entonces todas
las codimensiones serı́an 1, y en tres eslabones no alcanzarı́amos dimensión 7. Ası́,
dim(N1 ) = 2. Si fuera dim(N2 ) = 3, entonces las codimensiones siguientes serı́an to-
das 1, y en dos eslabones no alcanzarı́amos dimensión 7. Razonando de esta manera,
se ve que la única posibilidad de alcanzar dimensión 7 y no excederla en N4 es que
la sucesión de dimensiones sea 2 < 4 < 6 < 7 < 8. Por tanto la tabla de Jordan tiene
dos columnas y la forma de Jordan dos cajas:

u11
g(u11 )  
J5 (2) 0
g 2 (u11 ) u21 y J= .
0 J3 (2)
g 3 (u11 ) g(u21 )
g 4 (u11 ) g 2 (u21 ) 

Número 12. Un endomorfismo f de E = K3 que no es diagonalizable cumple


(f − λ IdE )2 = 0 para cierto λ ∈ K. Demostrar que λ es el único autovalor de f y
calcular su forma de Jordan.
Solución. Que λ es un autovalor con subespacio invariante maximal todo E, y que
no hay otros autovalores, se prueba como en el ejercicio anterior. Ası́, tenemos la
cadena de subespacios invariantes asociados

{0} ⊂ ker(g) ⊂ ker(g 2 ) = E, g = f − λ IdE ,

y los dos contenidos son estrictos: el primero por ser λ autovalor, y el segundo pues
si no lo fuera f serı́a diagonalizable. En fin, para calcular la forma de Jordan de f ,
necesitamos la dimensión de ker(g). En principio puede ser 1 o 2, pero en el primer
caso la sucesión de codimensiones de los subespacios invariantes serı́a 1 < 2, y no
118 III. Clasificación de endomorfismos

puede ser creciente. Por tanto, la dimensión buscada es 2, y la tabla y la matriz de


Jordan son  
λ 0 0
u11
y J =  1 λ 0 .
g(u11 ) u21
0 0 λ 

Número 13. Sea E un espacio vectorial de tipo finito y f : E → E un endomor-


fismo tal que im(f ) = ker(f 2 ).
(1) Probar que f es nilpotente, y calcular el menor exponente k tal que f k = 0.
(2) Demostrar que si un vector u no está en ker(f 2 ), entonces los tres vectores
u, f (u) y f 2 (u) son linealmente independientes.
(3) ¿Se da necesariamente la igualdad im(f 2 ) = ker(f )?
(4) ¿Puede ser 5 la dimensión de E?
(5) Calcular la forma de Jordan de f si la dimensión de E es 6.
Solución. (1) Para cada u ∈ E se tiene f (u) ∈ im(f ) = ker(f 2 ), luego f 3 (u) =
f 2 (f (u)) = 0, lo que prueba que f es nilpotente. Afirmamos que el menor exponente
buscado es 3. En efecto, si fuera f 2 = 0, entonces im(f ) = ker(f 2 ) = E, con lo que f
serı́a suprayectiva, luego un isomorfismo, que nunca es nilpotente.
(2) Sean a, b, c escalares tales que au + bf (u) + cf 2 (u) = 0. Aplicando f 2 a ambos
miembros resulta que

0 = f 2 (0) = af 2 (u) + bf 3 (u) + cf 4 (u) = af 2 (u),

luego como f 2 (u) 6= 0, debe ser a = 0 y 0 = bf (u) + cf 2 (u). Repitiendo la maniobra,


ahora con f :
0 = f (0) = bf 2 (u) + cf 3 (u) = bf 2 (u),
o sea, b = 0 y 0 = cf 2 (u), con lo que también c = 0.
(3) Ya hemos visto que 0 = f 3 = f ◦ f 2 , luego im(f 2 ) ⊂ ker(f ), ası́ que para
probar que ambos subespacios son el mismo basta demostrar que sus dimensiones
coinciden. Y en efecto:

dim(im(f 2 )) = dim(E) − dim(ker(f 2 )) = dim(E) − dim(im(f )) = dim(ker(f )).

(4) Como 3 es el menor exponente k tal que f k = 0, tenemos la cadena de


subespacios invariantes

{0} ( ker(f ) ( ker(f 2 ) ( ker(f 3 ) = E.

Supongamos dim(E) = 5. Si dim(ker(f )) = 1, entonces las dimensiones de la cadena


deben crecer de unidad en unidad, y dim E = dim(ker(f 3 )) = 3 < 5. Por tanto,
Apéndice: Soluciones §13 119

dim(ker(f )) ≥ 2, luego

dim(ker(f 2 )) = dim(im(f )) = 5 − dim(ker(f )) ≤ 3,

ası́ que, necesariamente, dim(ker(f )) = 2, dim(ker(f 2 )) = 3 y de nuevo las dimensiones


deben crecer de unidad en unidad, lo que implica dim(E) = dim(ker(f 3 )) = 4 6= 5.
Ası́, la dimensión de E no puede ser 5.
(5) Ya hemos visto en el apartado anterior cómo de dim(ker(f )) = 1 se deduce
que dim(E) = 3, y no es el caso. Por otra parte, si dim(ker(f )) ≥ 3, entonces

dim(ker(f 2 )) = dim(im(f )) = 6 − dim(ker(f )) ≤ 3,

luego dim(ker(f )) = 3 = dim(ker(f 2 )). Esto es imposible, pues la cadena de subes-


pacios invariantes no se estabiliza hasta el eslabón tercero. En suma, debemos tener
dim(ker(f )) = 2, y entonces

dim(ker(f 2 )) = dim(im(f )) = 6 − dim(ker(f )) = 4.

En conclusión, la sucesión de dimensiones es 2 < 4 < 6, y la tabla de Jordan tiene


dos columnas con tres vectores cada una:
u11 u12
g(u11 ) g(u12 )
g 2 (u11 ) g 2 (u12 )

lo que da dos cajas en la forma de Jordan de f :


 
0 0 0 0 0 0
1 0 0 0 0 0 
 
0 1 0 0 0 0 
J =
0 0 0 0
.
 0 0 

0 0 0 1 0 0  
0 0 0 0 1 0
Número 14. Sean E un espacio vectorial de tipo finito, y f un endomorfismo
nilpotente de E. Demostrar que si otro endomorfismo g de E conmuta con f , entonces
det(f + g) = det(g).
Solución. Consideramos varios casos.
(1) Caso particular en que g = IdE . Por ser f nilpotente tiene una forma de
Jordan J = (aij ) con aij = 0 si i ≤ j. Si esa es la matriz de f respecto de cierta base
B = {u1 , . . . , un }, entonces la matriz J + In de f + IdE respecto de B tiene unos en la
diagonal principal y ceros por encima. Ası́ su determinante se calcula inmediatamente

det(f + g) = det(f + IdE ) = det(J + In ) = 1 = det(IdE ) = det(g).


120 III. Clasificación de endomorfismos

(2) Caso en que g es isomorfismo. Como g conmuta con f , el isomorfismo inverso


g −1 de g también lo hace:
g −1 ◦ f = g −1 ◦ (f ◦ g) ◦ g −1 = g −1 ◦ (g ◦ f ) ◦ g −1 = f ◦ g −1 .
Esto implica que h = f ◦ g −1 es nilpotente: hn = f n ◦ (g −1 )n = 0. En virtud del
cálculo efectuado en el caso anterior, det(h + IdE ) = 1. Ası́,

det(f + g) = det (h + IdE ) ◦ g = det(h + IdE ) det(g) = det(g).

(3) Caso en que det(g) = 0. Debemos probar que también det(f + g) = 0. Se tiene
f p ≡ 0 para cierto entero p ≥ 1. Como f y g conmutan podemos aplicar la fórmula
de Newton:
p   p  
p
X p p−k k
X p p−k
(f + g) = f ◦g = f ◦ gk ,
k k
k=0 k=1
donde en el último sumatorio hemos suprimido el primer sumando f p ≡ 0. De este
modo podemos sacar factor común g:
p  
X p p−k
(f + g)p = h ◦ g, h = f ◦ g k−1 .
k
k=1


En consecuencia: (det(f + g))p = det (f + g)p = det(h ◦ g) = det(h) det(g) = 0,
y esto implica que det(f + g) = 0. 

Número 15. Sea g un endomorfismo de C3 cuya forma de Jordan es


 
λ 0 0
J = 1 λ 0
0 1 λ
para cierto número complejo λ. Calcular la forma de Jordan del endomorfismo
f : L(C3 , C3 ) → L(C3 , C3 ) : h 7→ g ◦ h.

Solución. Sea B = {v1 , v2 , v3 } una base de C3 tal que la matriz de g respecto de B


es J. Esto significa que
g(v1 ) = λv1 + v2 , g(v2 ) = λv2 + v3 , g(v3 ) = λv3 .
Si convenimos en denotar v4 al vector nulo podemos reescribir lo anterior como g(vi ) =
λvi + vi+1 , para 1 ≤ i ≤ 3. Construimos a continuación una base de L(C3 , C3 )
adaptada a la base B. Para cada par de ı́ndices i, j, con 1 ≤ i, j ≤ 3, definimos el
endomorfismo hij ∈ L(C3 , C3 ) mediante

vi si k = j,
hij (vk ) = (1 ≤ k ≤ 3),
0 si k 6= j,
Apéndice: Soluciones §13 121

y decimos que B0 = {hij : 1 ≤ i, j ≤ 3} es una base de L(C3 , C3 ). En efecto,


como tiene 9 = dim(L(C3 , C3 )) elementos,
P es suficiente probar que son linealmente
independientes. Supongamos que i,j λij hij = 0. Al actuar ambos miembros sobre
un vk cualquiera de B obtenemos
X  X X
0= λij hij (vk ) = λij hij (vk ) = λik vi ,
i,j i,j i

y por ser B base, se deduce que cada λik = 0, lo que prueba la independencia.
Vamos a calcular la matriz de f respecto de esta base B0 , es decir, expresaremos
cada f (hij ) = g ◦ hij en términos de la base B0 . Para ello continuamos con la idea de
evaluar en los vk :

g(vi ) = λvi + vi+1 si k = j,
(g ◦ hij )(vk ) =
g(0) = 0 si k 6= j.

A la vista de este resultado, consideramos los endomorfismos λhij + hi+1j , donde


convenimos que cada h4j es nulo. Tenemos

λvi + vi+1 si k = j,
(λhij + hi+1j )(vk ) =
0 si k 6= j,

y por tanto f (hij ) = λhij + hi+1j para 1 ≤ i, j ≤ 3. Ordenamos la base B0 del modo
siguiente:
B0 = {h11 , h21 , h31 , h12 , h22 , h32 , h13 , h23 , h33 }
porque la fórmula que acabamos de obtener se escribe, caso a caso, ası́:

f (h11 ) = λh11 + h21 , f (h21 ) = λh21 + h31 , f (h31 ) = λh31 ,


f (h12 ) = λh12 + h22 , f (h22 ) = λh22 + h32 , f (h32 ) = λh32 ,
f (h13 ) = λh13 + h23 , f (h23 ) = λh23 + h33 , f (h33 ) = λh33 .

Por tanto, la matriz de f respecto de la base B0 es


 
λ 0 0 0 0 0 0 0 0
1 λ 0 0 0 0 0 0 0
 
0 1 λ 0 0 0 0 0 0
   
0 0 0 λ 0 0 0 0 0 J 0 0
0
 
0 0 0 1 λ 0 0 0 0
Mf (B ) =  = 0 J 0 ,

0 0 0 0 1 λ 0 0 0 0 0 J
 
0 0 0 0 0 0 λ 0 0
 
0 0 0 0 0 0 1 λ 0
0 0 0 0 0 0 0 1 λ

que es una matriz de Jordan, por lo que es la forma de Jordan de f . 


122 III. Clasificación de endomorfismos

Soluciones §14
Número 1. Sea f : E → E un endomorfismo cuyo polinomio caracterı́stico es
P (T ) = (λ − T )n . Calcular, para cada entero m ≥ 1 la traza de f m en función,
únicamente, de n, λ y m.
Solución. Por el teorema de Cayley-Hamilton, 0 = P (f ) = (−1)n (f − λIn )n , luego
el endomorfismo g = f − λ IdE es nilpotente. Al despejar, f = g + λ IdE , y podemos
aplicar la fórmula de Newton,
m   m  
m m
X m k m−k
X m
f = (g + λ IdE ) = g ◦ (λ IdE ) = λm−k g k .
k k
k=0 k=0

Salvo la matriz identidad, cuya traza es n, todas las potencias de g tienen traza nula
(problema número 6 de la lección anterior, vol. 2, p. 44), luego concluimos:
m   m  
m
X m m−k k
 X m
tr(f ) = tr λ g = λm−k tr(g k ) = nλm .
k k 
k=0 k=0

Número 2. De una matriz cuadrada M ∈ Mn (C) se sabe que tiene tres autovalores
distintos, λ = 1, 2 y 3, y de las cadenas de subespacios invariantes asociados a ellos
que: (i) λ = 1 tiene uno sólo, de dimensión 2, (ii) λ = 2 tiene dos, de dimensiones 2
y 4, y (iii) λ = 3 tiene ası́mismo dos, de dimensiones 1 y 2. Calcular el orden de M ,
sus polinomios caracterı́stico y mı́nimo y su forma de Jordan.
Solución. Suponemos que M es la matriz de un endomorfismo de Cn respecto de la
base estándar. Entonces la información que tenemos es:

N1 (1) = N (1), d1 = 2,
N1 (2) ( N2 (2) = N (2), d1 = 2 < d2 = 4,
N1 (3) ( N2 (3) = N (3), d1 = 1 < d2 = 2,

y no hay más autovalores. Por tanto, ν = 1, 2, 2 y m = 2, 4, 2, de manera que los


polinomios mı́nimo y caracterı́stico son respectivamente

Pmin (T ) = (1 − T )(2 − T )2 (3 − T )2 , P (T ) = (1 − T )2 (2 − T )4 (3 − T )2 .

Por otra parte, Cn = N (1) ⊕ N (2) ⊕ N (3), luego n = 2 + 4 + 2, y el orden de M es


8. La formas de Jordan J(λ) de las restricciones de f a cada subespacio invariante
maximal son
 
  2 0 0 0  
1 0 1 2 0 0 3 0
J(1) = , J(2) =   y J(3) = ,
0 1 0 0 2 0 1 3
0 0 1 2
Apéndice: Soluciones §14 123

y la forma de Jordan de M es la matriz


 
1 0 0 0 0 0 0 0
0 1 0 0 0 0 0 0
 
0 0 2 0 0 0 0 0
 
0 0 1 2 0 0 0 0
J =
0 0 0
.
 0 2 0 0 0
0 0 0 0 1 2 0 0
 
0 0 0 0 0 0 3 0
0 0 0 0 0 0 1 3 

Número 3. Calcular la traza de la inversa de una matriz M cuyo polinomio carac-


terı́stico es
5 4
P (T ) = (2 − T ) (4 + T ) ,
2
sabiendo que el rango de (M + 4I) es 8, el de (M − 2I) es 7 y el de (M − 2I) vale
5, donde I denota la matriz identidad del mismo orden que M .
Solución. La matriz M es invertible, pues det(M ) = P (0) = 213 6= 0. Además su
orden, que coincide con el grado de su polinomio caracterı́stico, es 9.
Sea J la forma de Jordan de M , esto es, la forma de Jordan del endomorfismo f de
C9 cuya matriz respecto de la base estándar es M . La matriz J es semejante a la matriz
M , esto es, M = CJC −1 para cierta matriz regular C, luego M −1 = CJ −1 C −1 , con
lo que J −1 es semejante a M −1 . Por tanto, tr(M −1 ) = tr(J −1 ), y para calcular esta
última traza, determinaremos J.
Consideremos primero el autovalor λ = −4. Su multiplicidad da la dimensión de
su subespacio invariante maximal: dim(Nν (−4)) = 4, pero además tenemos:

dim(N1 (−4)) = 9 − rg(M + 4I9 ) = 9 − 8 = 1,

luego las dimensiones de los subespacios invariantes deben aumentar de unidad en


unidad: 1 < 2 < 3 < 4. Por tanto este autovalor contribuye con una única caja de
Jordan, de orden 4.
En cuanto al otro autovalor λ = 2, es dim(Nν (2)) = 5, y

dim(N1 (2)) = 9−rg(M −2I) = 9−7 = 2, dim(N2 (2)) = 9−rg(M −2I)2 = 9−5 = 4,

luego Nν (2) = N3 (2), y las dimensiones de los subespacios invariantes son 2 < 4 < 5.
En consecuencia este autovalor contribuye con dos cajas de Jordan, una de orden 3 y
otra de orden 2.
124 III. Clasificación de endomorfismos

Concluimos que la forma de Jordan es


 
−4 0 0 0
 1 −4 0 0 
 
 0 1 −4 0 
 
 0 0 1 −4 
 
J =  2 0 0 .


 1 2 0 


 0 1 2 

 2 0 
1 2

Ahora, del cálculo de la matriz adjunta de J retenemos sólo la diagonal:


1 1
−4 det(J), .4). ., −4 det(J), 12 det(J), .5). ., 12 det(J),

y la diagonal de J −1 es esa misma dividida por det(J). En suma:

tr(M −1 ) = tr(J −1 ) = ( −4
1
+ ··· + 1
−4 ) + ( 12 + · · · + 12 ) = 3
2 . 

Número 4. Sea f el endomorfismo de E = C3 cuya matriz respecto de la base


estándar es  
1 −1 0
M = 0 1 1.
−1 1 0
Sea F = C3 [T ] el espacio vectorial de los polinomios de grado ≤ 3, y consideremos
las aplicaciones lineales

ϕ : F → L(E, E) : P 7→ P (f ) y ϕ∗ : L(E, E)∗ → F ∗ : γ 7→ γ ◦ ϕ.

(1) Hallar bases del núcleo y la imagen de ϕ.


(2) Describir el núcleo y la imagen de ϕ∗ en función de los de ϕ mediante la
dualidad canónica.
(3) Calcular las dimensiones de todos esos núcleos e imágenes.
Solución. (1) Como 1, T, T 2 , T 3 generan F , sus imágenes IdE , f, f 2 , f 3 generan
im(ϕ). Ahora bien el polinomio caracterı́stico de f es
 
1 − T −1 0
Pf (T ) = det 0 1 − T 1  = (1 − T )(T 2 − T − 1) + 1 = 2T 2 − T 3 ,
−1 1 −T

y por el teorema de Cayley-Hamilton, 0 = Pf (f ) = 2f 2 − f 3 , o sea, f 3 = 2f 2 , ası́ que


IdE , f, f 2 ya generan im(ϕ). Afirmamos que son linealmente independientes, y por
tanto forman una base.
Apéndice: Soluciones §14 125

En efecto, si existiera una combinación no trivial a0 IdE +a1 f + a2 f 2 = 0, el


polinomio no nulo P (T ) = a0 + a1 T + a2 T 2 serı́a un anulador de f . Por tanto, tendrı́a
por raı́ces todos los autovalores de f , luego P (T ) = a(2T − T 2 ) con a 6= 0. Pero
entonces 2f − f 2 = 0, y se comprueba inmediatamente que no es ası́.
Por otra parte, en el proceso anterior hemos obtenido la igualdad f 3 = 2f 2 , esto
es, hemos obtenido un polinomio no nulo Q(T ) = T 3 − 2T 2 del núcleo ker(ϕ). Como
dim(ker(ϕ)) = dim(F ) − dim(im(ϕ)) = 4 − 3 = 1,
resulta que Q(T ) genera, y es una base, de ker(ϕ).
(2) Una forma lineal γ : L(E, E) → C está en ker(ϕ∗ ) si y sólo si γ ◦ ϕ = 0, si y
sólo si γ|im(ϕ) ≡ 0, si y sólo si γ ∈ im(ϕ)∨ . Por tanto:
ker(ϕ∗ ) = im(ϕ)∨ .
Por otra parte, una forma lineal h : F → C está en im(ϕ∗ ) si y sólo si existe una
forma lineal γ : L(E, E) → C tal que h = γ ◦ ϕ. Ya sabemos que este problema de
factorización tiene solución si y sólo si h se anula idénticamente en el núcleo de ϕ, es
decir, si y sólo si h|ker(ϕ) ≡ 0, es decir, si y sólo si h ∈ ker(ϕ)∨ . En suma:
im(ϕ∗ ) = ker(ϕ)∨ .

(3) Por el primer apartado ya tenemos dim(ker(ϕ)) = 1 y dim(im(ϕ)) = 3. Ahora,


del segundo deducimos:
(
dim(ker(ϕ∗ )) = dim im(ϕ)∨ = codimL(E,E) (im(ϕ)) = 9 − 3 = 6,


dim(im(ϕ∗ )) = dim ker(ϕ)∨ = codimF (ker(ϕ)) = 4 − 1 = 3.




Por supuesto comprobamos que


dim(ker(ϕ∗ )) + dim(im(ϕ∗ )) = 6 + 3 = 9 = dim(L(E, E)). 

Número 5. ¿Qué condiciones deben cumplir los números complejos a, b y c para


que las matrices    
1 a ab 1 0 0
0 1 a2 b  y  0 1 0 
0 a(1 + b) 1 0 c 1
sean semejantes?
Solución. Debe ocurrir que la matriz A de la izquierda tenga la misma forma de
Jordan que la matriz B de la derecha. El caso trivial en que esa forma de Jordan sea
la indentidad se da para a = c = 0. Por tanto suponemos a, c 6= 0. Pero si c 6= 0 se
tiene rg(B − I) = 1 y (B − I)2 = 0, de modo que la forma de Jordan de B es
 
1 0 0
J =  1 1 0 .
0 0 1
126 III. Clasificación de endomorfismos

Dicho esto, empezamos por observar que si las matrices son semejantes, sus determi-
nantes deben ser iguales: 1 − a3 b(1 + b) = 1 y por tanto ab(1 + b) = 0. Como a 6= 0,
es bien b = −1, bien b = 0. En el primer caso,
 
1 a −a
A =  0 1 −a2 ,
0 0 1

y al iniciar los cálculos para obtener los subespacios invariantes, resulta


 
0 a −a
rg(A − I) = rg 0 0 −a2  = 2 6= rg(J − I).
0 0 0
 
Por tanto, ha de ser b = 0, y 1 a 0
A =  0 1 0 .
0 a 1
El único autovalor es 1, y rg(A − I) = 1, (A − I)2 = 0, por lo que J es la forma de
Jordan de A.
En conclusión, aparte del caso trivial a = c = 0, las matrices son semejantes
cuando a, c 6= 0, b = 0. 

Número 6. Sea E un espacio vectorial complejo de dimensión 3. Utilizar la cla-


sificación de endomorfismos para demostrar que dos endomorfismos complejos de E
cuyos polinomios mı́nimos coinciden tienen la misma forma de Jordan. ¿Es cierto el
resultado en dimensión 4?
Solución. Se trata de probar que a partir del polinomio mı́nimo de un endomorfismo
f de E se calcula su forma de Jordan. O dicho de otro modo, se trata de enumerar
todas las posibles formas de Jordan J, calcular sus polinomios mı́nimos Pmin (T ), y
ver que las distinguen. Se tiene lo siguiente (letras griegas distintas denotan números
distintos):
 
α 0 0
J =  0 β 0  , Pmin (T ) = (α − T )(β − T )(γ − T ) ,
0 0 γ
 
α 0 0
J =  0 α 0  , Pmin (T ) = (α − T )(γ − T ) ,
0 0 γ
 
α 0 0
J =  1 α 0  , Pmin (T ) = (α − T )2 (γ − T ) ,
0 0 γ
Apéndice: Soluciones §14 127

 
α 0 0
J = 0 α 0  , Pmin (T ) = (α − T ) ,
0 0 α
 
α 0 0
J = 1 α 0  , Pmin (T ) = (α − T )2 ,
0 0 α
 
α 0 0
J = 1 α 0  , Pmin (T ) = (α − T )3 .
0 1 α

Recordemos que para confeccionar esta lista sirven las tablas de Jordan de cada
autovalor. Por ejemplo, la tabla de Jordan de α en la tercera J de la lista tiene una
sola columna de altura 2, luego la multiplicidad de α en el polinomio mı́nimo es 2.
En dimensión 4 las cosas cambian. Basta elegir las formas de Jordan
   
0 0 0 0 0 0 0 0
1 0 0 0 1 0 0 0
 0 0 0 0  y  0 0 0 0 ,
   

0 0 0 0 0 0 1 0

que son distintas pero tienen el mismo polinomio mı́nimo Pmı́n (T ) = T 2 . Obsérvese
además que estas dos formas de Jordan distintas incluso tienen el mismo polinomio
caracterı́stico P (T ) = T 4 . 

Número 7. (1) Consideremos el sistema de ecuaciones



 c1 x 1 + ··· + cr xr = 0,
 c1 x21 cr x2r

+ ··· + = 0,

.. .. ..


 . . .
c1 xr1 + ··· + cr xrr = 0,

en las incógnitas xj con coeficientes cj enteros positivos. Demostrar que en C este


sistema sólo tiene la solución trivial.
(2) Demostrar que un endomorfismo complejo f : E → E es nilpotente si y sólo
si su polinomio caracterı́stico es (−1)n T n , si y sólo si todas las trazas tr(f k ), k ≥ 1,
son nulas.
Solución. (1) Denotamos yj = cj xj y reescribimos el sistema anterior como
  y   0 
1 1 ··· 1 1
 y2   0 
 x1 x2 ··· xr    

  =  .
· · ·  ...   ... 

 ··· ··· ···
xr−1
1 xr−1
2 · · · xr−1
r yr 0
128 III. Clasificación de endomorfismos

El determinante de la matriz de coeficientes es de Vandermonde, que es no nulo si


xi 6= xj para i 6= j. Por tanto en ese caso la única solución es y1 = · · · = yr = 0. Como
cada cj 6= 0, deducimos que x1 = · · · = xr = 0. Vamos a demostrar, por inducción
sobre r, que siempre es ésta la única solución. Para r = 1 nada hay que probar, ya
que c1 6= 0. Supongamos demostrado el resultado para sistemas de esta naturaleza
con menos de r ecuaciones. Ya hemos visto que si xi 6= xj para i 6= j, entonces el
sistema sólo admite la solución trivial. Por otro lado, si xi = xj para ciertos ı́ndices
i 6= j, podemos suponer xr−1 = xr y denotando cr−1 + cr = ar−1 > 0 reescribimos el
sistema original, cuya última ecuación suprimimos, como

 c1 x1 + · · · + cr−2 xr−2 + ar−1 xr−1 = 0,
 c1 x21 + · · · + cr−2 x2r−2 + ar−1 x2r−1 = 0,


.. .. .. ..


 . . . .
c1 xr−1 + · · · + cr−2 xr−1 r−1
r−2 + ar−1 xr−1 = 0.

1

Al aplicar la hipótesis de inducción deducimos x1 = · · · = xr−1 = 0, lo que unido a la


igualdad xr−1 = xr concluye el argumento.
(2) Demostraremos primero que f es nilpotente si y sólo si su polinomio carac-
terı́stico es P (T ) = (−1)n T n .
En efecto, si f es nilpotente sabemos por el ejercicio número 6 de la lección III.13,
vol. 2, p. 44, que λ = 0 es su único autovalor, luego es la única raı́z en C del polinomio
caracterı́stico P (T ). Como éste es un polinomio de grado n cuyo coeficiente director
es (−1)n se deduce que P (T ) = (−1)n T n . El recı́proco es consecuencia inmediata del
Teorema de Cayley-Hamilton, ya que 0 = P (f ) = (−1)n f n implica f n = 0.
Aunque lo sabemos desde el ejercicio que acabamos de citar, probemos ahora por
otro procedimiento que si f es nilpotente, entonces tr(f k ) = 0 para cada exponente
k ≥ 1.
Consideramos el polinomio caracterı́stico de f :

P (T ) = (−1)n (T n − tr(f )T n−1 + · · · + (−1)n det(f )).

Como acabamos de probar, si f es nilpotente entonces P (T ) = (−1)n T n , luego el


coeficiente de T n−1 en este polinomio es nulo, esto es, tr(f ) = 0. Además, por ser f
nilpotente también lo son sus potencias f k , por lo que también tr(f k ) = 0.
Para terminar, veamos que si tr(f k ) = 0 para cada k ≥ 1, entonces P (T ) =
(−1)n T n , es decir, λ = 0 es el único autovalor de f .
Consideramos la forma de Jordan J de f y denotamos x1 , . . . , xn los elementos de
su diagonal, que son los autovalores de f . Se observa que los elementos de la diagonal
de J k son xk1 , . . . , xkn , luego la nulidad de las trazas de las n primeras potencias de f
Apéndice: Soluciones §14 129

significa que 
 x1 + ··· + xn = 0,
 x21 + x2n

+ ··· = 0,

.. .. ..


 . . .
 n
x1 + ··· + xnn = 0,
y hemos visto en el primer apartado que esto implica x1 = · · · = xn = 0. En conse-
cuencia λ = 0 es el único autovalor de f , por lo que su polinomio caracterı́stico es
P (T ) = (−1)n T n , como se querı́a. 

Número 8. (1) Un endomorfismo se llama idempotente si f k = f para algún entero


k ≥ 2. Demostrar que todo endomorfismo complejo idempotente es diagonalizable, y
obtener todas sus posibles formas de Jordan.
(2) Un endomorfismo complejo f : E → E es una raı́z k-ésima de la identidad
cuando f k = IdE . Probar que un tal f es diagonalizable y obtener sus posibles formas
de Jordan.
Solución. (1) Si f k = f , el polinomio Q(T ) = T k − T es un polinomio anulador de
f , luego múltiplo de su polinomio mı́nimo Pmı́n (T ). Las raı́ces de Q son simples (0
y las raı́ces (k − 1)-ésimas de la unidad), luego también son simples las de Pmı́n (T ),
y por tanto f es diagonalizable. Pero además las raı́ces del polinomio mı́nimo de f ,
que son los autovalores de f , están entre las raı́ces de Q. En consecuencia, la forma
de Jordan de f es diagonal y su diagonal consiste en ceros y raı́ces de la unidad. Por
otra parte, una tal forma de Jordan es idempotente.
(2) Si f k = IdE , f es un isomorfismo, luego sus autovalores son no nulos. Por otra
parte, f es idempotente (f k+1 = f ), y por el apartado anterior diagonalizable. Las
formas de Jordan las conocemos por lo mismo, excluyendo aquı́ las que tienen algún
cero en la diagonal. 

Número 9. Demostrar que toda matriz compleja cuadrada con determinante no


nulo tiene raı́z cuadrada (Albert).
Solución. Sea M una matriz cuadrada de orden n con coeficientes complejos y
determinante no nulo, y sea J su forma de Jordan. Tenemos M = C −1 JC para cierta
matriz regular C, y si encontramos una matriz A tal que A2 = J tendremos resuelto
el problema por el artificio habitual:
(C −1 AC)2 = (C −1 AC)(C −1 AC) = C −1 A2 C = C −1 JC = M.
Por otra parte, J es una matriz diagonal por cajas de Jordan
..
 
.
J = Jk (λ)  , λ 6= 0 (pues det(J) = det(M ) 6= 0),
 
..
.
130 III. Clasificación de endomorfismos

y si encontramos matrices Ak (λ) tales que Ak (λ)2 = Jk (λ), entonces


2
.. .. ..
    
. . .
Ak (λ) = Ak (λ)2 = Jk (λ)  = J.
     

.. .. ..
. . .

Ası́ pues, basta encontrar una raı́z cuadrada de una matriz del tipo M = Jk (λ) con
λ 6= 0.
Para ello escribimos M = λI + N , donde N es nilpotente: N n = 0. Buscamos A
tal que M = A2 planteando la ecuación

λI + N = (z0 I + z1 N + · · · + zn−1 N n−1 )2 , zi ∈ C.

Desarrollando el cuadrado, obtenemos:

λI + N = z02 I + 2z0 z1 N + (z12 + 2z0 z2 )N 2 + · · · ,

y esta suma es finita, pues todas las potencias N n , N n+1 , . . . son nulas. Ası́ lo natural
es buscar los zi tales que

λ = z02 , 1 = 2z0 z1 , 0 = z12 + 2z0 z2 = · · · .

Para empezar tomamos como z0 una de las raı́ces cuadradas de λ, de modo que z0 6= 0.
Por tanto podemos resolver
1 z12
z1 = , z2 = − ,...
2z0 2z0
En general, si ya tenemos z0 , z1 , . . . , zk , el coeficiente de N k+1 en el desarrollo del
cuadrado es
0 = z0 zk+1 + z1 zk + · · · + zk z1 + zk+1 z0 ,
igualdad que permite despejar zk+1 en función de z0 , z1 , . . . , zk , ya que z0 6= 0.


Número 10. Demostrar que todo endomorfismo de un espacio vectorial complejo


de tipo finito es suma de uno diagonalizable y otro nilpotente (Gelfand).
Solución. Sea f un endomorfismo del espacio vectorial complejo de tipo finito E. La
forma de Jordan J de f se puede escribir J = D + N , siendo D la diagonal de J y N
una matriz de ceros salvo tal vez algunos 1’s inmediatamente debajo de su diagonal.
Por tanto, N es una matriz nilpotente. Ahora bien, J es la matriz de f respecto de
cierta base BJ de E, y D, N son las matrices respecto de esa base BJ de sendos
endomorfismos g, h de E, diagonalizable el primero y nilpotente el segundo. Como
J = D + N , se tiene f = g + h.. 
Apéndice: Soluciones §14 131

Número 11. Clasificar por sus formas de Jordan los endomorfismos de C6 que
cumplen:
(i) Su polinomio caracterı́stico es P (T ) = T 2 (T − 1)4 .
(ii) El subespacio de autovectores asociados a λ = 0 es una recta.
(iii) El subespacio de autovectores asociados a λ = 1 es un plano.
Solución. Sea f un endomorfismo de C6 que satisface las condiciones del enunciado.
Sus autovalores son λ = 0 y 1. Estudiemos cada uno.
Autovalor λ = 0. La multiplicidad de este autovalor en el polinomio caracterı́stico es
2, luego esa es la dimensión de su subespacio invariante maximal N . Como por (ii) es
dim(N1 ) = 1, la cadena de subespacios invariantes tiene exactamente dos eslabones,
de dimensiones 1 y 2, lo que proporciona una caja de Jordan del tipo
 
0 0
J= .
1 0

Autovalor λ = 1. La multiplicidad es 4, luego 4 es la dimensión del subespacio inva-


riante maximal respectivo N . Como (iii) dice que dim(N1 ) = 2 tenemos dos posibles
cadenas de subespacios invariantes de este autovalor:

{0} ( N1 ⊂ N2 = N con dimensiones 0 < 2 < 4 , o
{0} ( N1 ⊂ N2 ( N3 = N con dimensiones 0 < 2 < 3 < 4.

Ası́ pues existen dos posibilidades para este autovalor:


   
1 0 0 0 1 0 0 0
0
1 1 0 0 00
1 1 0 0
J = 0 0 1 0 o J =0 1 1
  .
0
0 0 1 1 0 0 0 1

„ « „ «
J 0 J 0
En suma, las posibles formas de Jordan de f son o . 
0 J0 0 J 00

Número 12. Calcular las formas de Jordan de dos endomorfismos f y g de C4 que


satisfacen las siguientes condiciones:
(i) f |W = g|W , y f (W ) = W , para W : x1 + x2 − x3 − x4 = x1 + x3 + x4 = 0.
(ii) tr(f ) = 2, tr(g) = 4 y det(g) = 1.
(iii) f ◦ g = g ◦ f .
(iv) f no es diagonalizable.
(v) f (1, 1, 0, 0) = (0, 1, 1, 0), f (0, 1, 1, 0) = (1, 1, 0, 0).
132 III. Clasificación de endomorfismos

Solución. Empezamos estudiando f . Además del plano invariante W , también es


invariante el plano V = L[(1, 1, 0, 0), (0, 1, 1, 0)], pues f intercambia esos dos vectores,
que son independientes; por esto, la matriz de f |V respecto de la base que forman es
 
0 1
.
1 0

El polinomio caracterı́stico de esta matriz es T 2 − 1, luego tiene dos autovalores


distintos ±1 y es diagonalizable. Esto es, existe una base {v1 , v2 } de V respecto de la
cual la matriz de f |V es  
1 0
D= .
0 −1
El lector comprobará ahora que W ∩ V = {0}, de modo que añadiendo a v1 , v2 una
base w1 , w2 de W obtenemos una base B = {w1 , w2 , v1 , v2 } de C4 . Como f (W ) = W ,
la matriz de f respecto de esa base será diagonal por cajas:
 
A 0
.
0 D

En consecuencia 2 = tr(f ) = tr(A) + tr(D) = tr(A) + 0, y por tanto tr(A) = 2.


Además, por no ser f diagonalizable, y ser D diagonal, A no es diagonalizable. Esto
significa que su polinomio caracterı́stico

P (T ) = T 2 − tr(A)T + det(A) = T 2 − 2T + det(A)

tiene una raı́z doble λ. Por tanto, λ = 1 (las raı́ces suman 2), y puesto que A no es
diagonalizable, tiene que ser semejante a la matriz de Jordan
 
1 0
.
1 1

En suma, después de cambiar los vectores w1 , w2 por otros adecuados (que seguimos
denominando igual), la matriz de f resulta ser
 
1 0 0 0
1 1 0 0
Mf (B) =  0 0 1 0 ,

0 0 0 −1

que es la forma de Jordan de f . Para uso posterior, destacamos que la última base B
determina bien los autovectores de f :

autovectores asociados a 1: N1 (1) = L[w2 , v1 ],
(∗)
autovectores asociados a −1: N1 (−1) = L[v2 ].
Apéndice: Soluciones §14 133

Consideremos ya g. Primero calculamos la matriz de g respecto de la última base


B. Como f |W = g|W se tiene g(w1 ) = w1 +w2 y g(w2 ) = w2 . Además, por la condición
(iii) del enunciado,
f (g(v1 )) = g(f (v1 )) = g(v1 ),
luego g(v1 ) es un autovector de f asociado al autovalor 1. Por (∗), tal autovector
será una combinación lineal del tipo g(v1 ) = aw2 + bv1 . Análogamente,

f (g(v2 )) = g(f (v2 )) = g(−v2 ) = −g(v2 ),

y g(v2 ) es un autovector de f asociado a −1: g(v2 ) = cv2 (por (∗) de nuevo). Con
estos datos, la matriz de g respecto de B es
 
1 0 0 0
1 1 a 0
Mg (B) = 
0 0
,
b 0
0 0 0 c

y su traza y su determinante son 2 + b + c y bc respectivamente. Por los datos de


(ii), resulta b + c = 2, bc = 1, es decir, b = c = 1. En suma, la matriz de g es
 
1 0 0 0
1 1 a 0
M = Mg (B) =  0 0 1 0,

0 0 0 1

y podemos calcular con ella explı́citamente. El único autovalor es 1 e, independiente-


mente del valor de a, rg(M − I) = 1, rg(M − I)2 = 0. Esto significa que la forma de
Jordan de g es  
1 0 0 0
1 1 0 0
 0 0 1 0 .
 

0 0 0 1 

Número 13. Sea f un endomorfismo de E = C7 de rango 5 cuyo polinomio carac-


terı́stico es (−T )3 (1 − T )4 . Se sabe que el rango de (f − IdE )2 es 4. Calcular la matriz
de Jordan de f , su polinomio mı́nimo, y el rango de la aplicación lineal

ϕ : C7 [T ] → L(E, E) : P 7→ P (f ).

Solución. Como P (T ) = (−T )3 (1 − T )4 es el polinomio caracterı́stico de f su forma


134 III. Clasificación de endomorfismos

de Jordan tiene el siguiente aspecto:


 
0 0 0
∗ 0 0 
 
0 ∗ 0 
 
J =  1 0 0 0,

 ∗ 1 0 0
 0 ∗ 1 0
0 0 ∗ 1

donde los ∗’s son 1 o 0. Para determinarlas, usamos las condiciones de rango del
enunciado. En primer lugar, puesto que el rango de f es 5, la caja 3 × 3 tiene que
tener exactamente un 1. En segundo lugar, analizamos cuándo (J − I)2 tiene rango
4. Operamos por cajas. Para la de orden 3, que ya hemos determinado, tenemos
 2  
−1 0 0 1 0 0
 1 −1 0  = −2 1 0 ,
0 0 −1 0 0 1

y esto contribuye al rango de (J − I)2 con 3. Por tanto, la caja de orden 4 debe
contribuir con 1, y como
 2  
0 0 0 0 0 0 0 0
a 0 0 0 =  0 0 0 0
 

0 b 0 0  ab 0 0 0 
0 0 c 0 0 cb 0 0

vemos que debe haber dos unos consecutivos bajo la diagonal de esa caja, pero no
tres. En suma, la forma de Jordan de f es
 
0 0 0
1 0 0 
 
0 0 0 
 
J =  1 0 0 0.

 1 1 0 0
 0 1 1 0
0 0 0 1

Como la multiplicidad de un autovalor en el polinomio mı́nimo de f es el orden de la


mayor caja de Jordan del autovalor, resulta Pmı́n (T ) = T 2 (T − 1)3 .
Por último, para calcular el rango de ϕ basta calcular la dimensión de su núcleo,
que está formado por los polinomios Q(T ) de C7 [T ] que son múltiplos del polinomio
mı́nimo Pmı́n (T ) de f . En consecuencia,

Q(T ) = (a + bT + cT 2 )Pmı́n (T ) = aPmı́n (T ) + bT Pmı́n (T ) + cT 2 Pmı́n (T ).


Apéndice: Soluciones §14 135

con a, b, c ∈ C. Esto pone de manifiesto que los tres polinomios


Pmı́n (T ), T Pmı́n (T ), T 2 Pmı́n (T )
generan el núcleo de ϕ. Pero además son independientes por tener grados distintos,
luego ese núcleo tiene dimensión 3. Concluimos que
rg(ϕ) = dim(C [T ]) − dim(ker(ϕ)) = 8 − 3 = 5. 
7

Número 14. Demostrar que toda matriz compleja es semejante a su transpuesta.


Deducir lo mismo para matrices reales.
Solución. La segunda parte es consecuencia inmediata de la primera, pues la forma
de Jordan compleja de una matriz de Mn (R) determina la clase de semejanza real de
ésta. Ası́, nos concentramos en el caso complejo.
Sea A ∈ Mn (C). Su traspuesta At tiene el mismo polinomio caracterı́stico de A:
PAt (T ) = det(At − T In ) = det(A − T In )t = det(A − T In ) = PA (T ).
En particular ambas matrices tienen los mismos autovalores λ = λ1 , . . . , λr . Todo se
reduce ahora a comprobar que las dimensiones de los subespacios invariantes Nkt (λ)
y Nk (λ) de At y A coinciden para cada k. Ahora bien, estas dimensiones son
n−rg (At −λIn )k = n−rg ((A−λIn )t )k = n−rg ((A−λIn )k )t = n−rg (A−λIn )k .
   

Hemos concluido. 

Número 15. Sea f un endomorfismo de un espacio vectorial complejo E de tipo


finito, y f ∗ el correspondiente endomorfismo de su dual E ∗ . Mostrar que ambos tienen
la misma forma de Jordan, en particular los mismos autovalores λ, y que los subespa-
cios invariantes maximales N (λ) y N ∗ (λ) de uno y otro están relacionados mediante
la dualidad canónica como sigue:
\
N ∗ (λ) = N (µ)∨ .
µ6=λ

Solución. Sabemos que dada una base B de E, la dual B∗ tiene la virtud de que
Mf ∗ (B∗ ) = Mf (B)t . Por tanto, según hemos visto en el ejercicio anterior, las dos
matrices son semejantes, luego tienen la misma forma de Jordan. En particular el
mismo polinomio caracterı́stico y los mismos autovalores. Fijemos uno de ellos λ para
calcular y comparar N (λ) y N ∗ (λ). Para ello podemos elegir la base B que más
convenga, y elegimos una de Jordan, de manera que se tenga
 
J(λ)
 .. 
Mf (B) = 
 .  , µ 6= λ.

 J(µ) 
..
.
136 III. Clasificación de endomorfismos

Denotamos x = (x1 , . . . , xn ) las coordenadas respecto de B, y entonces tenemos la


descomposición en subespacios invariantes maximales de f :

M N (λ) : xd+1 = · · · = xn = 0,
E = N (λ) ⊕ W , W = N (µ) , con
W : x1 = · · · = xd = 0.
µ6=λ

Como hemos dicho antes Mf ∗ (B∗ ) = Mf (B)t , y podemos calcular la descomposición


M
E ∗ = N ∗ (λ) ⊕ W ∗ , W ∗ = N ∗ (µ),
µ6=λ

en coordenadas c = (c1 , . . . , cn ) respecto de B , y tenemos


 ∗
N (λ) : cd+1 = · · · = cn = 0,
W ∗ : c1 = · · · = cd = 0.
Ahora recordamos que las coordenadas c de una forma h : E → C son los coeficientes
de su ecuación h(x) = c1 x1 + · · · + cn xn . Por tanto, h ∈ N ∗ (λ) si y sólo si su ecuación
es del tipo h(x) = c1 x1 + · · · + cd xd , es decir, si y sólo si h ∈ L[x1 , . . . , xd ]. Vemos
ası́ que N ∗ (λ) = L[x1 , . . . , xd ]. Pero la dualidad canónica dice que
M ∨ \
L[x1 , . . . , xd ] = ({x1 = · · · = xd = 0})∨ = W ∨ = N (µ) = N (µ)∨ ,
µ6=λ µ6=λ

que es la expresión buscada. 

Soluciones §15
Número 1. Calcular la forma de Jordan real de un endomorfismo f de R6 cuyo
polinomio mı́nimo es Pmı́n (T ) = (1 + T 2 )2 .
Solución. Vamos a calcular en primer lugar la forma de Jordan de la complexificación
fe : C6 → C6 de f . Sus autovalores son las raı́ces del polinomio Pmı́n (T ), esto es, λ = i
y λ = −i. Como el polinomio caracterı́stico P (T ) de fe es el de f , tiene coeficientes
reales, grado 6 y sus únicas raı́ces i y −i tienen la misma multiplicidad. Se deduce
que
P (T ) = (−i − T )3 (i − T )3 = (1 + T 2 )3 .
Por tanto, el subespacio invariante maximal de λ = i tiene dimensión 3, y la caja de
Jordan mayor tiene orden 2 (multiplicidad de λ en Pmı́n (T )), con lo que λ contribuye
a la forma de Jordan de fe con la matriz
 
i 0 0
1 i 0 .
0 0 i
Apéndice: Soluciones §15 137

Por lo mismo, (o simplemente porque las estructuras de las cajas de Jordan de auto-
valores conjugados son iguales), el autovalor λ = −i proporciona
 
−i 0 0
 1 −i 0 .
0 0 −i

En consecuencia, la forma de Jordan de fe es la matriz


 
i 0 0 0 0 0
1 i 0 0 0 0 
 
0 0 i 0 0 0 
0 0 0 −i 0 0  .
Je =  
 
0 0 0 1 −i 0 
0 0 0 0 0 −i

Ahora, se deduce directamente de III.15.8, vol. 2, p. 73, que la forma de Jordan real
de f es  
0 −1 0 0 0 0
1 0 0 0 0 0
 
1 0 0 −1 0 0
J = .
0 1 1 0 0 0

0 0 0 0 0 −1
0 0 0 0 1 0 

Número 2. Sea f : R4 → R4 el endomorfismo dado por

f (x) = (x2 − x3 + x4 , 2x2 , 2x1 + x3 − x4 , −2x1 + 2x2 − x3 + 3x4 ).



Comprobar que su polinomio caracterı́stico es P (T ) = (2−T )2 (1−T )2 +1 y calcular
primero la forma de Jordan y luego una base de Jordan de f .
Solución. La comprobación pedida es rutinaria, y se deja al lector. Calculemos
√ la
forma de Jordan. Los autovalores son λ = 2, µ = α − iβ = 1 − i, µ = 1 + i, (i = −1),
y las descomposiciones correspondientes son

C4 = N
e (λ) ⊕ Γ (µ) ⊕ Γ (µ), R4 = N (λ) ⊕ Q(α, β).

Como el autovalor real es doble, 2 es la dimensión de N (λ), y se sigue que 2 es también


la dimensión de Q(α, β). Por tanto la forma de Jordan de f es
 
2 0 0 0
∗ 2 0 0
J =  0 0 1 −1 ,
 con ∗ = 0 o 1.
0 0 1 1
138 III. Clasificación de endomorfismos

Para determinar ∗ calculamos el rango de f − 2 IdR4 . En la forma de Jordan vemos


que ese rango es 2 si ∗ = 0 y es 3 si ∗ = 1; por otra parte haciendo el cálculo con la
matriz M de f (respecto de la base estándar), resulta
 
−2 1 −1 1
 0 0 0 0
rg(M − 2I4 ) = rg
 2 0 −1 1  = 3.

−2 2 −1 1

Por tanto, ∗ = 1. Pasemos ahora a buscar una base de Jordan.


Para el autovalor real λ = 2, la cadena de subespacios invariantes es

{0} ( ker(f − λ IdC4 ) = N1 (λ) ( ker (f − λ IdC4 )2 = N2 (λ) = N (λ),




de dimensiones 0 < 1 < 2. Por tanto debemos tomar un vector u1 ∈ N2 (λ) \ N1 (λ), y
entonces u2 = (f − λ IdC4 )(u1 ). Ası́ pues las coordenadas x de u1 deben cumplir

(M − λI4 )2 xt = 0, (M − λI4 )xt 6= 0,

esto es,
     
0 0 2 0 x1 −2 1 −1 1 x1
 0 0 0 0  x2   0 0 0 0 x2 
 2 0 −1 −1 x3  6= 0.
   = 0,   
−4 0 0 2 x3 
0 0 2 0 x4 −2 2 −1 1 x4

Se puede tomar u1 = (0, 1, 0, 0), u2 = (1, 0, 0, 2).


Para el autovalor complejo µ = 1 − i hay que buscar un autovector complejo
w ∈ Γ (µ) = ker(f −µ IdC4 ). Para ello hay que resolver el sistema lineal con coeficientes
complejos (M − µI4 )z t = 0, que es
  
−1 + i 1 −1 1 z1
 0 1 + i 0 0 z2 
   = 0.
 2 0 i −1 z3 
−2 2 −1 2 + i z4

Una solución es: w = (1, 0, i, 1) = (1, 0, 0, 1) + i(0, 0, 1, 0),


y denotamos: u3 = (1, 0, 0, 1), u4 = (0, 0, 1, 0).
En fin, la base de Jordan buscada es BJ = {u1 , u2 , u3 , u4 }, y es un ejercicio salu-
dable comprobar que efectivamente la matriz de f respecto de BJ es J. 

Número 3. Sea f : C2 → C2 el endomorfismo complejo de ecuaciones

f (z1 , z2 ) = (iz1 , z1 + iz2 )


Apéndice: Soluciones §15 139


(con i = −1). Identificamos C2 ≡ R4 tomando partes reales e imaginarias:
(z1 , z2 ) = (x1 + iy1 , x2 + iy2 ) ≡ (x1 , y1 , x2 , y2 ),
de modo que f : R4 → R4 es un endomorfismo real. Calcular la forma de Jordan de
f y de su complexificación.
Solución. Empezamos por determinar la matriz de f : R4 → R4 respecto de la base
estándar E = {e1 , e2 , e3 , e4 }:

f (x1 , y1 , x2 , y2 ) ≡ f (z1 , z2 ) = i(x1 + iy1 ), (x1 + iy1 ) + i(x2 + iy2 )

= − y1 + ix1 , (x1 − y2 ) + i(y1 + x2 ) ≡ (−y1 , x1 , x1 − y2 , y1 + x2 ),
con lo que la matriz de f respecto de E es  
0 −1 0 0
1 0 0 0
 ,
1 0 0 −1 
0 1 1 0

que ya es la forma de Jordan de f . La de la complexificación fe : C4 → C4 es por tanto


 
i 0 0 0
1 i 0 0
 0 0 −i 0 .
 

0 0 1 −i 

Número 4. Sea f : E → E un endomorfismo real diagonalizable.


(1) Demostrar que si f es idempotente (f k = f con k ≥ 2), entonces es una
proyección, o bien una simetrı́a, o bien una composición de ambas.
(2) Demostrar que si f es una raı́z de la unidad (f k = IdE con k ≥ 1), entonces
es una simetrı́a.
e→E
Solución. (1) La complexificación fe : E e satisface la igualdad fek = fe, y ya vimos
en la solución del problema número 8 de la lección anterior III.14, vol. 2, p. 129, que
los autovalores de un tal endomorfismo complejo son 0 y/o raı́ces de la unidad. Pero si
f es diagonalizable, todos sus autovalores son reales, ası́ que son ±1, 0. Distinguimos
varios casos:
(i) Los autovalores no incluyen 0. Entonces la matriz de f respecto de una base
adecuada es diagonal, con ±1’s en la diagonal, y por tanto f 2 = IdE . Esto implica
que f es una simetrı́a (II.9.14(3), vol. 1, p. 198).
(ii) Uno de los autovalores es 0, con multiplicidad r. Entonces la matriz M de
f respecto de una base adecuada es diagonal, con r ceros seguidos de ±1’s. Denotamos
     0 
0 0 0 0 I 0
M= , P = , S= ,
0 J 0 I 0 J
140 III. Clasificación de endomorfismos

donde J consiste en los ±1’s de M , e I, I 0 son matrices identidad de orden apropiado.


Por el apartado anterior, S es la matriz de una simetrı́a s : E → E (o la identidad si
J no tiene −1’s), y claramente P es la matriz de una proyección p : E → E. Como
por construcción M = P S, resulta una composición del tipo requerido: f = p ◦ s.
(2) Si f k = IdE , f es isomorfismo, y no tiene 0 por autovalor. Pero f es también
idempotente (f k+1 = f ), luego por el caso (i) del apartado anterior, f es una simetrı́a.


Número 5. Construir un endomorfismo idempotente de R2 que no sea diagonali-


zable.
Solución. Un endomorfismo no diagonalizable de R2 es
 
cos θ − sen θ
J= , 0 < θ < π.
sen θ cos θ

Queremos que J k = J para algún k. Como


 
cos(kθ) − sen(kθ)
Jk = ,
sen(kθ) cos(kθ)

necesitamos que kθ = θ + 2π. Tomamos, por ejemplo, k = 4 y θ = 32 π. 

Número 6. Mostrar que si el cuadrado de un endomorfismo f de R3 es una homo-


tecia, entonces es una homotecia de razón positiva, y deducir que f es diagonalizable.
¿Es f una homotecia?¿Ocurre lo mismo en R4 ?
Solución. Sea f : R3 → R3 un endomorfismo cuyo cuadrado es la homotecia de
razón ρ 6= 0. Entonces f 2 = ρ IdR3 , ası́ que

ρ3 = det(ρ IdR3 ) = det(f 2 ) = det(f )2 ,



luego ρ > 0. Sea r = ρ ∈ R. Como f 2 = ρ IdR3 , un polinomio anulador de f es

T 2 − ρ = T 2 − r2 = (T − r)(T + r),

cuyas raı́ces son simples. Por tanto también son simples las raı́ces del polinomio mı́ni-
mo de f , por lo que f es diagonalizable. Las posibles formas de Jordan de f son:
       
r 0 0 r 0 0 r 0 0 −r 0 0
0 r 0, 0 r 0 , 0 −r 0 ,  0 −r 0 ,
0 0 r 0 0 −r 0 0 −r 0 0 −r

y sólo la primera y la cuarta corresponden a una homotecia. Por tanto, f no es


necesariamente una homotecia.
Apéndice: Soluciones §15 141

En cuanto a R4 , consideremos el endomorfismo

f : R4 → R4 : x 7→ (x2 , −x1 , x4 , −x3 ).

No es diagonalizable, ya que su polinomio caracterı́stico es (T 2 + 1)2 , que no tiene


raı́ces reales. Sin embargo f 2 = − IdR4 es la homotecia de razón −1. 

Número 7. Mostrar que un endomorfismo de un espacio vectorial real de dimensión


n tiene subespacios invariantes: (i) de todas las dimensiones pares ≤ n, y (ii) de todas
las dimensiones ≤ n si y sólo si tiene algún autovalor real.
Solución. Sea f un endomorfismo de un espacio vectorial real E de dimensión n.
Elegimos una base de Jordan BJ respecto de la cual la matriz de f es su forma
canónica de Jordan, y observamos que en cualquier caso es
 
∗ ··· ∗ 0 0
 .. .. .. .. 
 . . . . 
 ∗ · · · ∗ 0 0 ,
 
 
 ∗ ··· ∗ a b 
∗ ··· ∗ c d

lo que muestra que los dos últimos vectores un−1 , un de BJ generan un plano invarian-
te W . Ahora, por ser W invariante, podemos considerar el endomorfismo inducido por
f en E/W , y por el mismo argumento este endomorfismo tiene un plano invariante
W 0 /W . Esto significa que W 0 es un subespacio invariante de f de dimensión

dim(W 0 ) = dim(W 0 /W ) + dim(W ) = 2 + 2 = 4.

Repitiendo con E/W 0 obtendremos un subespacio invariante W 00 de dimensión 6, y


ası́ sucesivamente se obtienen todas las dimensiones pares. Queda probado (i).
En cuanto a (ii), obsérvese que f tiene rectas invariantes si y sólo si tiene auto-
valores reales, de modo que (ii) se reduce a probar que si hay una recta invariante L,
entonces hay subespacios invariantes de todas las dimensiones impares. Pero dada L,
consideramos el endomorfismo inducido en E/L, y tendremos subespacios invariantes
W/L de todas las dimensiones pares. Esto significa que tenemos subespacios inva-
riantes W de f de todas las dimensiones impares: dim(W ) = dim(W/L) + dim(L) =
dim(W/L) + 1. 

Número 8. Calcular los subespacios invariantes del endomorfismo f de R4 de ecua-


ciones
f (x) = (x2 , −x1 , 2x4 , −2x3 ).

Solución. Como el polinomio caracterı́stico de f es (T 2 + 1)(T 2 + 4), que carece de


raı́ces reales, f no tiene ni rectas ni hiperplanos invariantes. Para buscar los planos
142 III. Clasificación de endomorfismos

invariantes recurrimos a la complexificación fe : √C4 → C4 . Esta complexificación


tiene cuatro autovalores simples: i, −i, 2i, −2i (i = −1), y se tiene la descomposición
C4 = N (i) ⊕ N (−i) ⊕ N (2i) ⊕ N (−2i), cuyos sumandos son las rectas invariantes de
cada autovalor. Por cálculo directo obtenemos:

N (i) = L[(1, i, 0, 0)], N (−i) = L[(1,−i, 0, 0)],
N (2i) = L[(0, 0, 1, i)], N (−2i) = L[(0, 0, 1,−i)].

Una de las consecuencias del teorema de descomposición es que los planos invariantes
de fe son suma directa de pares de esas rectas invariantes, luego tenemos los planos
de C4 siguientes:


 N (i) + N (−i) = L[(1, i, 0, 0), (1, −i, 0, 0)] : z3 = z4 = 0,
N (i) + N (2i) = L[(1, i, 0, 0), (0, 0, 1, i)] : iz1 − z2 = iz3 − z4 = 0,




N (i) + N (−2i) = L[(1, i, 0, 0), (0, 0, 1, −i)] : iz1 − z2 = iz3 + z4 = 0,


 N (−i) + N (2i) = L[(1, −i, 0, 0), (0, 0, 1, i)] : iz1 + z2 = iz3 − z4 = 0,
N (−i) + N (−2i) = L[(1, −i, 0, 0), (0, 0, 1, −i)] : iz1 + z2 = iz3 + z4 = 0,




N (2i) + N (−2i) = L[(0, 0, 1, i), (0, 0, 1, −i)] : z1 = z2 = 0.

Al intersecar estos planos de C4 con R4 (es decir, al buscar las soluciones reales de
las ecuaciones correspondientes), obtenemos {0} excepto para el primero y el último,
que son
W : x3 = x4 = 0, W 0 : x1 = x2 = 0.
Estos son pues los dos únicos planos invariantes que tiene f . 

Número 9. Mostrar que el endomorfismo f de R4 de ecuaciones

f (x) = (x2 , −x1 , x4 , −x3 )

tiene infinitos planos invariantes, pero no tiene ni rectas ni hiperplanos invariantes.


Solución. Este endomorfismo no tiene autovectores, pues su polinomio caracterı́stico
es (T 2 + 1)2 , que carece de raı́ces reales; por tanto, f no tiene rectas invariantes ni
hiperplanos invariantes. Sin embargo, para cada λ ∈ R el plano de ecuaciones

x1 = λx3 ,
Wλ :
x2 = λx4 ,

es invariante, ya que para cada x3 , x4 ∈ R se tiene

f (λx3 , λx4 , x3 , x4 ) = (λx4 , −λx3 , x4 , −x3 ) ∈ Wλ . 

Número 10. Comprobar que el endomorfismo f de R4 de ecuaciones

f (x) = (x2 , −x1 , x1 + x4 , x2 − x3 )


Apéndice: Soluciones §15 143

tiene un sólo subespacio invariante: el plano x1 = x2 = 0.


Solución. La comprobación de que el plano del enunciado es invariante es inmedia-
ta. Por otro lado f carece de rectas e hiperplanos invariantes ya que su polinomio
caracterı́stico es (T 2 + 1)2 . Sea W un plano invariante. Entonces
f 2 (W ) = f (f (W )) = f (W ) = W,
y W es un plano invariante de f 2 . Denotamos M y N las matrices de f y f 2 (respecto
de la base estándar), de modo que
 2  
0 1 0 0 −1 0 0 0
−1 0 0 0   0 −1 0 0 
N = M2 =   1 0 0 1  =  0 2 −1 0 ,
  

0 1 −1 0 −2 0 0 −1
luego el polinomio caracterı́stico de f 2 es (−1−T )4 , y hay un único autovalor λ = −1,
con multiplicidad 4. Calculemos sus autovectores:
  
0 0 0 0 x1 
t
 0 0 0 0   x2  x1 = 0,
0 = (N − λI)x =   
 0 2 0 0   x3  x2 = 0.
−2 0 0 0 x4

Ası́ que una posibilidad es que W sea este plano de autovectores de f 2 . Éste es el
plano del enunciado, luego éste debe ser el único plano invariante de f .
Supongamos, por reducción al absurdo, que W no contiene a todos los autovec-
tores de f 2 . Entonces existe uno u ∈/ W , y H = W + L[u] es un hiperplano invariante
c1 x1 + c2 x2 + c3 x3 + c4 x4 = 0 de f 2 . Esto significa que
 
0 0 0 0 
 0 0 0 0 c3 = 0,
0 = c(N − λI) = (c1 , c2 , c3 , c4 )
 0 2 0 0

c4 = 0.
−2 0 0 0
Luego la ecuación de H es c1 x1 + c2 x2 = 0 (no ambos coeficientes nulos). Ahora
bien, como W ⊂ H tenemos W = f (W ) ⊂ f (H), y como f no tiene hiperplanos
invariantes H 6= f (H), con lo que necesariamente W = H ∩ f (H). Pero es fácil
calcular una ecuación de f (H), digamos d1 x1 + d2 x2 + d3 x3 + d4 x4 = 0:
 
0 1 0 0 
−1 0 0 0   d1 = −c2 ,
d = cM = (c1 , c2 , 0, 0)
 1 0 0 1
 d 2 = c1 ,
d3 = d4 = 0.

0 1 −1 0
Ası́ obtenemos las siguientes ecuaciones de W :

c1 x1 + c2 x2 = 0,
−c2 x1 + c1 x2 = 0.
144 III. Clasificación de endomorfismos

Pero el determinante de este sistema es c21 +c22 6= 0, luego es equivalente a x1 = x2 = 0.


Esto es una contradicción.
Sugerimos al lector que resuelva el problema de la siguiente otra manera, más
predecible: buscando todos los planos invariantes de la complexificación fe : C4 → C4 ,
e intersecándolos con R4 . 

Número 11. Sea f : R4 → R4 un endomorfismo sin rectas invariantes. ¿Cuáles son


las posibles formas de Jordan de f ? ¿Qué subespacios invariantes puede tener f ?
Solución. Puesto que f no posee rectas invariantes tampoco admite hiperplanos
invariantes, y su polinomio caracterı́stico P (T ) ∈ R[T ] no tiene raı́ces reales. Por ello
f factoriza en C[T ] de una de las dos maneras siguientes:
P (T ) = (T − λ)(T − µ)(T − λ)(T − µ) ; P (T ) = (T − λ)2 (T − λ)2 .
(1) Caso de cuatro raı́ces distintas. Escribimos
√ √
λ = α − −1β y µ = γ − −1δ
con α, β, γ, δ ∈ R, β, δ > 0. La forma de Jordan compleja es diagonal, y la real es
 
α −β 0 0
β α 0 0
JR =  .
 0 0 γ −δ 
0 0 δ γ

Ası́, con las notaciones de esta lección, R4 se descompone como suma directa
R4 = Q(α, β) ⊕ Q(γ, δ),
donde Q(α, β) y Q(γ, δ) son dos planos invariantes. Pero el teorema de descomposi-
ción nos dice además que cualquier otro plano invariante deberı́a ser suma de rectas
invariantes de esos dos planos, y como tales rectas invariantes no existen, no hay más
planos invariantes.
(2) Caso de raı́ces múltiples. En este caso hay dos posibilidades.
(i) La complexificación es diagonalizable. Entonces las formas de Jordan com-
pleja y real son respectivamente
   
λ 0 0 0 α −β 0 0
 0 λ 0 0
 y JR =  β α 0 0

JC =  .
 0 0 λ 0  0 0 α −β 
0 0 0 λ 0 0 β α

Los teoremas de descomposición dan


C4 = N (λ) ⊕ N (λ) y R4 = Q(α, β).
Apéndice: Soluciones §15 145

La descomposición real es trivial, ası́ que razonaremos con la compleja para buscar
planos invariantes complejos. Los primeros son los sumandos N (λ) y N (λ), pero al
intersecarlos con R4 obtenemos {0}, pues en otro caso f tendrı́a autovectores. Los
demás planos invariantes de fe son del tipo LC [w, w0 ] siendo w y w0 autovectores
asociados respectivamente a λ y λ. Veamos cuándo es LC [w, w0 ] ∩ R4 un plano.
Si existen vectores u, v ∈ R4 de modo que LC [w, w0 ] ∩ R4 = LR [u, v], entonces
LC [w, w0 ] = LC [u, v] (pues ambos son el complexificado de LR [u, v]). Por tanto:

w = (a + ib)u + (c + id)v = (au + cv) + i(bu + dv),

y ası́
w = (au + cv) − i(bu + dv) ∈ LC [u, v] = LC [w, w0 ].
En consecuencia LC [w, w0 ] = LC [w, w] = LC [u0 , v 0 ], siendo u0 y v 0 las partes real e
imaginaria de w. Reemplazando u, v por u0 , v 0 , podemos simplemente suponer w =
u + iv. Esto muestra que todos los planos invariantes de f se obtienen a partir de
un autovector w = u + iv asociado a λ. Para terminar, afirmamos que dos de tales
vectores definen dos planos invariantes reales distintos si y sólo si son independientes.
En efecto, si los planos reales coinciden, coinciden también sus complexificaciones
LC [w1 , w1 ] y LC [w2 , w2 ]. Se deduce:

LC [w1 , w1 ] = LC [w1 , w2 , w1 ] = LC [w1 , w2 ] ⊕ LC [w1 ],

donde la suma es directa por ser w1 , w2 autovectores de λ y w1 autovector de λ. Ası́,


dimC LC [w1 , w2 ] = 1, y los dos vectores w1 y w2 son proporcionales.
Con todo esto hemos probado que f tiene infinitos planos invariantes. Para des-
cribir con más precisión cuántos son esos infinitos, se puede argumentar ası́: hay un
plano por cada recta L[w] del plano complejo N (λ), y cada recta depende de dos
parámetros complejos, o sea, de cuatro parámetros reales, no todos nulos. Nótese que
en la forma de Jordan JR se ven dos planos invariantes, uno por cada caja de la
diagonal, pero hay muchos más.
(ii) La complexificación no es diagonalizable. Las formas de Jordan son
   
λ 0 0 0 α −β 0 0
1 λ 0 0 β α 0 0
JC =   y JR =  .
0 0 λ 0 1 0 α −β 
0 0 1 λ 0 1 β α

Como antes, razonaremos con la descomposición compleja C4 = N (λ) ⊕ N (λ). Los


planos invariantes complejos N (λ) y N (λ), se pierden al intersecarlos con R4 , ası́ que
debemos elegir una recta invariante de N (λ) y otra de N (λ). Pero en este caso (ii),
sólo hay una de cada, que son conjugadas, esto es, obtenemos un único plano complejo
invariante adicional LC [w, w], siendo w = u + iv un autovector de λ. Obtenemos pues
146 III. Clasificación de endomorfismos

un único plano invariante real LR [u, v]. Éste se ve bien en la matriz de Jordan JR :
corresponde a la segunda caja de la diagonal. 

Número 12. Probar que un endomorfismo de R4 que tiene un número finito de


planos invariantes no tiene nunca más de seis. ¿Puede tener cinco?
Solución. Para resolver este problema hay que utilizar las posibles descomposiciones
de R4 en subespacios asociados a sus autovalores. A continuación lo haremos para
comcluir que para un endomorfismo f de R4 se pueden presentar los siguientes casos:

Autovalores Planos invariantes


Cuatro complejos 2
Dos complejos 1 o infinitos
Dos complejos y dos reales 2
Dos complejos y uno real 2
Cuatro reales 6
Tres reales 4 o infinitos
Dos reales, ambos dobles 3 o infinitos
Dos reales, uno triple 2 o infinitos
Uno real 1 o infinitos

En particular vemos que nunca hay exactamente cinco planos invariantes.


Pasemos a discutir la tabla. De hecho, las dos primeras filas se han probado en el
problema anterior. Veamos la tercera fila. Corresponde a una descomposición

R4 = N (λ) ⊕ N (µ) ⊕ Q(α, β).

Como sabemos, un subespacio invariante es suma directa de subespacios invariantes


de los sumandos de esa descomposición. Como nos interesan los planos invariantes,
bien están contenidos en un sumando, bien son sumas de dos rectas invariantes. En
este caso los dos primeros sumandos son las únicas rectas invariantes, luego sólo hay
dos planos invariantes: N (λ) ⊕ N (µ) y Q(α, β).
Si f tiene dos autovalores complejos y uno real, la descomposición es

R4 = N (λ) ⊕ Q(α, β).

Como antes, un plano invariante diferente del segundo sumando no lo puede cortar,
pues ese sumando no contiene rectas invariantes, luego tal plano invariante coincide
con el primer sumando. Ası́ tenemos los dos planos N (λ) y Q(α, β).
Si f tiene cuatro autovalores reales, tiene cuatro rectas invariantes N (λi ), y

R4 = N (λ1 ) ⊕ N (λ2 ) ⊕ N (λ3 ) ⊕ N (λ4 ).


Apéndice: Soluciones §15 147

Vemos que un plano invariante es suma directa de dos rectas invariantes, y en conse-
cuencia hay seis posibilidades N (λi ) ⊕ N (λj ).
Si f tiene tres autovalores reales, tenemos tres sumandos

R4 = N (λ) ⊕ N (µ) ⊕ N (η),

de dimensiones 1, 1, 2. Entonces en el plano N (η) puede haber 1 o infinitas rectas


invariantes (calcúlese con la forma de Jordan de f |N (η) ). Si hay infinitas, generan
con N (λ) infinitos planos invariantes. Si N (η) sólo contiene una recta invariante L,
obtenemos cuatro planos invariantes de f : N (λ) ⊕ N (µ), N (λ) ⊕ L, N (µ) ⊕ L y N (η).
El caso siguiente es
R4 = N (λ) ⊕ N (µ),
ambos sumandos de dimensión 2, luego ambos planos invariantes. Además tendremos
todos los generados por pares de rectas invariantes L y L0 una de cada sumando.
Si en uno de ellos hay infinitas, entonces hay infinitos planos invariantes. La otra
posibilidad es que cada uno contenga una única recta invariante, luego esto da un
único plano invariante adicional, y en total tenemos los tres planos invariantes N (λ),
N (µ) y L ⊕ L0 .
Supongamos ahora que f tiene dos autovalores reales, uno triple. Entonces

R4 = N (λ) ⊕ N (µ),

el primer sumando de dimensión 3 y el segundo de dimensión 1. En primer lugar


contamos los planos invariantes W ⊂ N (λ). Pero el recuento de planos invariantes
en N (λ) es por dualidad el mismo que el de rectas, luego contendrá 1, digamos W ,
o infinitos (como en un caso anterior, puede calcularse con la forma de Jordan de
f |N (λ) ). En el primer caso sólo contiene una recta invariante L, que con el sumando
N (µ) genera otro plano invariante. Y no hay más que estos dos: W y L ⊕ N (µ).
En fin, si hay un autovalor real cuádruple, o hay un solo plano invariante o hay
infinitos. En efecto, la forma de Jordan será de una de las dos siguientes:
   
λ λ
 ∗ λ   1 λ 
 ,  .
 ∗ λ   1 λ 
0 λ 1 λ

Las cajas están marcadas para destacar un hiperplano invariante H. En el primer caso
H contiene infinitos planos invariantes por contener infinitas rectas invariantes. En el
segundo caso, H es el único hiperplano invariante (rg(f − λ IdR4 ) = 3), y contiene a
la única recta invariante L de f . Además, H contiene un único plano invariante W .
Éste W es el único plano invariante. Si W 0 fuera otro, W 0 ∩H = L y W 0 +W serı́a un
hiperplano invariante 6= H. Imposible. 
148 III. Clasificación de endomorfismos

Número 13. Mostrar que un endomorfismo f : E → E (real o complejo) tiene un


único subespacio invariante maximal W tal que el endomorfismo restricción f |W es
isomorfismo.
Solución. Si f es isomorfismo W = E. Suponemos pues que f no es isomorfismo y
denotamos N = ker(f k ) al subespacio invariante maximal asociado al autovalor 0. Sea
W la suma de los subespacios invariantes maximales asociados a los autovalores no
nulos. Por el Teorema de descomposición (real o complejo) E = N ⊕W , y la restricción
f |W : W → W es isomorfismo, pues ker(f ) ⊂ ker(f k ) = N y N ∩ W = {0}.
Sea ahora V un subespacio invariante de f : el teorema de descomposición nos
dice que V = (ker(f k ) ∩ V ) ⊕ (W ∩ V ). Si ocurre que f |V : V → V es isomorfismo,
también es isomorfismo f k |V = (f |V )k : V → V , luego {0} = ker(f k ) ∩ V = N ∩ V ,
y concluimos V = W ∩ V ⊂ W . 

Número 14. Emplear el Teorema de descomposición para demostrar lo que ya se


propuso en el problema número 4 de la lección III.12, vol. 2, p. 30: Si un endomor-
fismo (real o complejo) es diagonalizable, lo es la restricción a cualquier subespacio
invariante. ¿Cómo se formula este resultado en términos de subespacios invariantes?
Solución. La prueba es la misma si K = R o C, una vez que se dispone del teorema
de descomposición en ambos casos. Si un endomorfismo f es diagonalizable, se tiene
una descomposición
E = N (λ1 ) ⊕ · · · ⊕ N (λr ),
donde los λi ∈ K son los autovalores. Que f sea diagonalizable significa que induce
una homotecia en cada uno de los sumandos anteriores, luego todas las rectas de cada
sumando N (λi ) son invariantes, o si se quiere, todos los vectores de cada N (λi ) son
autovectores. Sea ahora W ⊂ E un subespacio invariante. Entonces

W = W1 ⊕ · · · ⊕ W r , Wi ⊂ N (λi ) invariante.

Por lo dicho previamente, cada restricción f |Wi es una homotecia, luego diagonaliza-
ble, y se sigue inmediatamente que f |W es diagonalizable.
Una reformulación del tipo demandado podrı́a ser: un endomorfismo es diago-
nalizable si y sólo si todos sus subespacios invariantes están generados por rectas
invariantes. 

Número 15. Para cada matriz A ∈ Mm×n (C) se llama conjugada de A a la matriz
Ā cuyos coeficientes son los conjugados āij de los coeficientes aij de A . Denotaremos
A∗ a la matriz traspuesta de Ā.
(1) Mostrar que si ξ = (ξ1 , . . . , ξn ) ∈ Cn cumple ξξ ∗ = 0, entonces ξ es el vector
nulo.
(2) Comprobar las identidades A∗∗ = A y (AB)∗ = B ∗ A∗ .
Apéndice: Soluciones §15 149

(3) Sea A ∈ Mn (C) que cumple AA∗ = A∗ A. Denotemos f y g a los endomorfis-


mos de Cn cuyas matrices respecto de la base estándar son A y A∗ , respectivamente.
Demostrar que los núcleos de f y g coinciden.
(4) Con las notaciones del apartado anterior, probar que el endomorfismo f es
diagonalizable.
Solución. (1) En efecto, si 0 = ξξ ∗ = i ξi ξ¯i = i |ξi |2 , como cada sumando es ≥ 0,
P P
todos deben ser nulos: |ξi | = 0. Ası́ todos los ξi son nulos, o lo que es igual, ξ = 0.
(2) Es evidente que las operaciones trasponer y conjugar conmutan, esto es, para
t
cada matriz A se tiene A∗ = A = At . En particular,
∗ t
A∗∗ = At = At = (At )t = A.
También es inmediata la comprobación de la otra igualdad:
t t t t
(AB)∗ = AB = A B = B A = B ∗ A∗ .
(3) Puesto que A∗∗ = A, basta comprobar que ker(f ) ⊂ ker(g). Sea pues z ∈
ker(f ), o sea Az t = 0. Hemos de probar que ξ = g(z) = 0, y en virtud del apartado
(1) es suficiente demostrar que ξξ ∗ = 0. Ahora bien,
(
ξ = z(A∗ )t = zA,
ξ t = A∗ z t
ξ ∗ = A∗ z t = A∗ z ∗ ,

luego: ξξ ∗ = (zA)(A∗ z ∗ ) = zAA∗ z ∗ = zA∗ Az ∗ = zAt Az t = zAt 0 = 0.


(4) Para ver que f es diagonalizable, hay que ver que para todo autovalor λ ∈ C,
los núcleos de los endomorfismos f − λ IdCn y (f − λ IdCn )2 coinciden, esto es, que
si M 2 z t = 0, entonces M z t = 0. Para ello comprobamos primero que la matriz
M = A − λI conmuta con M ∗ . En efecto,
M M ∗ − M ∗ M = (A − λI)(A − λI)t − (A − λI)t (A − λI)
= (A − λI)(A∗ − λI) − (A∗ − λI)(A − λI)
= (AA∗ − λA − λA∗ + |λ|2 I) − (A∗ A − λA∗ − λA + |λ|2 I)
= AA∗ − A∗ A = 0.
Por tanto, se puede aplicar a la matriz M lo visto en el apartado anterior para la
matriz A, a saber, que las condiciones M ξ t = 0 y M ∗ ξ t = 0 son equivalentes.
Probemos ya que M z t = 0 cuando M 2 z t = 0. Si 0 = M 2 z t = M (M z t ), por lo
que acabamos de señalar con ξ t = M z t , resulta M ∗ (M z t ) = 0, y se deduce:
ξξ ∗ = (zM t )M z t = zM ∗ M z t = 0.
Por el primer apartado, 0 = ξ = M z t , como querı́amos. 
150 III. Clasificación de endomorfismos

Soluciones de las cuestiones


Clave: V = verdadero, F = falso

1F, 2V, 3F, 4V, 5V, 6F, 7V, 8F, 9F, 10F,
11V, 12V, 13V, 14F, 15F, 16V, 17F, 18F, 19V, 20V,
21V, 22F, 23F, 24V, 25V, 26F, 27F, 28F, 29V, 30F,
31V, 32V, 33F, 34V, 35F, 36V, 37V, 38V, 39V, 40F,
41V, 42V, 43F, 44V, 45F, 46V, 47F, 48V, 49F, 50F.
CAPÍTULO IV

Formas bilineales y formas


cuadráticas

Resumen. El objetivo de este cuarto y último capı́tulo es presentar y desarrollar los


conceptos de forma cuadrática y de producto escalar. La lección 16 está dedicada a
introducir el de forma bilineal, y con él los de formas polares, rango y degeneración.
También, las nociones de forma bilineal simétrica y forma bilineal antisimétrica, y al
fin forma cuadrática. Por supuesto, esto tiene su representación mediante ecuaciones,
lo que conduce a la relación de congruencia de matrices. En la lección 17 se plantea el
problema de clasificación correspondiente y se estudia su solución, que varı́a según se
consideren números complejos o números reales; aquı́ aparece la signatura. Algunas
formas cuadráticas reales, las definidas positivas, constituyen un instrumento de me-
dida. Los espacios vectoriales dotados de tal forma de medir se denominan euclı́deos,
a los que está dedicada la lección 18. En estos espacios se tiene el concepto de ortogo-
nalidad, y se explican el Teorema de Pitágoras, la desigualdad de Cauchy-Schwarz y el
método de Gram-Schmidt. La lección 19 está dedicada a dos tipos de endomorfismos
especı́ficos de los espacios vectoriales euclı́deos: los ortogonales y los autoadjuntos. Se
prueba en ella un resultado importantı́simo: el teorema espectral. La naturaleza de la
última lección, la 20, es algo diferente. Para medir en los espacios complejos se em-
plean las formas hermı́ticas, un tipo particular de forma sesquilineal. Esto nos lleva
a rehacer para éste tipo nuevo de formas lo ya visto para las bilineales y comprobar
que, con las adaptaciones naturales pero imprescindibles, todo marcha sin sorpresas.
Como en el capı́tulo anterior, proponemos para un curso básico una lectura limi-
tada de estas cinco lecciones. Por una parte, se puede prescindir de la lección 20 y
última, y por otra dedicar la 19 sólo a los casos de dimensión baja (≤ 3). Y aún se
puede simplificar más, abordando en la lección 17 solamente la clasificación de formas
bilineales simétricas.

151
152 IV. Formas bilineales y formas cuadráticas

16. Formas bilineales


Sea E un espacio vectorial de tipo finito sobre un cuerpo K. Como es
habitual, K = R o C.

Definiciones 16.1 Una forma bilineal de E es una aplicación

ϕ : E × E → K : (u, v) 7→ ϕ(u, v)

que es lineal separadamente en cada variable:

(i) en la primera: ϕ(λ1 u1 + λ2 u2 , v) = λ1 ϕ(u1 , v) + λ2 ϕ(u2 , v) para cuales-


quiera λ1 , λ2 ∈ K, u1 , u2 , v ∈ E.

(ii) en la segunda: ϕ(u, µ1 v1 + µ2 v2 ) = µ1 ϕ(u, v1 ) + µ2 ϕ(u, v2 ) para cuales-


quiera µ1 , µ2 ∈ K, v1 , v2 , u ∈ E.

Las dos condiciones de la definición se pueden reunir en la siguiente, sólo


aparentemente más general:
p
X q
X  X
ϕ λi ui , µj vj = λi µj ϕ(ui , vj ),
i=1 j=1 i,j

para λi , µj ∈ K, ui , vj ∈ E (como se deduce aplicando sucesivamente (i) y (ii)).


Las linealidades parciales de la definición garantizan que

ϕ(0, v) = ϕ(u, 0) = 0 y ϕ(−u, v) = ϕ(u, −v) = −ϕ(u, v),

para cualesquiera u, v ∈ E.

Ejemplos 16.2 (1) La aplicación


n
X
ϕ(x, y) = xi yi = xy t , x, y ∈ Kn ,
i=1

es una forma bilineal de E = Kn .


(2) Más generalmente, sea A ∈ Mn (K) una matriz cuadrada. Entonces la
aplicación
ϕ(x, y) = xAy t , x, y ∈ Kn ,
16. Formas bilineales 153

es una forma bilineal de Kn . El ejemplo anterior corresponde al caso en que A


es la matriz identidad.
Obsérvese que ϕ(ei , ej ) = ei Aetj = aij . En particular, ϕ es identicamente
nula si y sólo si A = 0.
(3) Sea A una matriz cuadrada de orden n ≥ 2, y denotemos A(x, y) la
matriz obtenida sustituyendo las filas i y j-ésimas (i < j) por los dos vectores
x, y ∈ Kn . Entonces la aplicación

ϕ : Kn × Kn → K : (x, y) 7→ det A(x, y) ,




es una forma bilineal.


Consideremos el subespacio vectorial V ⊂ Kn generado por las filas de
A que no se sustituyen. Es claro que si dim(V ) < n − 2 las filas de la matriz
A(x, y) no son independientes, con lo que det A(x, y) = 0, y la forma bilineal
es idénticamente nula.
(4) Sean f, g : E → K dos formas lineales no nulas. Entonces la aplicación

ϕ(u, v) = f (u) · g(v) (producto en K),

es una forma bilineal de E, y no es nula. En efecto, como f y g no lo son,


existen vectores u ∈ E \ ker(f ), v ∈ E \ ker(g), y ϕ(u, v) 6= 0.
(5) Sea E el espacio de los polinomios de R[T ] de grado ≤ d, y sean a < b
dos números reales. Dados dos polinomios α(T ), β(T ) ∈ E, definimos
Z b
ϕ(α(T ), β(T )) = α(t)β(t)dt.
a

Por las propiedades de la integral, esto define una forma bilineal de E. Y no


es nula: Z b
ϕ(1, 1) = dt = b − a 6= 0.
a
Sugerimos al lector que busque un polinomio β(T ) tal que ϕ(1, β(T )) = 0.

(16.3) Espacios de aplicaciones bilineales. El conjunto de todas las


aplicaciones bilineales de un espacio vectorial E se denota B(E). Es un espacio
vectorial a su vez, con la suma y el producto por escalares definidos por:

(ϕ + ψ)(u, v) = ϕ(u, v) + ψ(u, v), (λϕ)(u, v) = λ(ϕ(u, v)).


154 IV. Formas bilineales y formas cuadráticas

En realidad, esta es la estructura obligada cuando se tienen aplicaciones con


valores en el cuerpo K. 
A continuación reformulamos el concepto de forma bilineal de un modo
algo crı́ptico, pero relevante.
(16.4) Formas polares y rango. Sea ϕ : E × E → K una forma bilineal.
(1) Primero introducimos las denominadas aplicaciones parciales; fijado v ∈ E,

ϕ( · , v) : E → K : u 7→ ϕ(u, v), v ∈ E.

La condición (ii) de IV.16.1, vol. 2, p. 152, significa que todas las aplicaciones
parciales ϕ( · , v) son formas lineales. Por tanto, tenemos bien definida una
aplicación
ϕ1 : E → L(E, K) = E ∗ : v 7→ ϕ( · , v).
Ya advierte el lector que la condición (i) de IV.16.1, significa que esta aplicación
ϕ1 es lineal, y que ası́ hemos definido una biyección

B(E) → L(E, E ∗ ) : ϕ 7→ ϕ1 , donde ϕ1 (v) = ϕ( · , v).

Es rutinario verificar que esta biyección entre espacios vectoriales es de hecho


un isomorfismo, y hemos encontrado ası́ una presentación de carácter estric-
tamente lineal de las formas bilineales.
(2) Por supuesto, esto se puede hacer en el otro orden de las variables:

B(E) → L(E, E ∗ ) : ϕ 7→ ϕ2 , donde ϕ2 (u) = ϕ(u, · ) y ϕ(u, · )(v) = ϕ(u, v),

y también es un isomorfismo. En particular, obtenemos la dimensión del es-


pacio de las formas bilineales:

dim B(E) = dim L(E, E ∗ ) = dim(E) dim(E ∗ ) = dim(E)2 .


 

(3) Dada una forma bilineal ϕ, decimos que ϕ1 y ϕ2 son las (formas) polares de
ϕ. Estas dos polares pueden ser diferentes, pero siempre se cumple la siguiente
igualdad de rangos:
rg(ϕ1 ) = rg(ϕ2 ).
En efecto, denotemos n = dim(E), r = rg(ϕ1 ) y s = rg(ϕ2 ). Entonces
r es la dimensión de la imagen im(ϕ1 ) ⊂ E ∗ , y podemos elegir una base
h1 = ϕ( · , v1 ), . . . , hr = ϕ( · , vr ) de esa imagen. En particular, el subespacio

V = ker(h1 ) ∩ · · · ∩ ker(hr ) ⊂ E
16. Formas bilineales 155

tiene codimensión r, luego dimensión n − r. Por otra parte, afirmamos que


V contiene al núcleo ker(ϕ2 ). En efecto, si u está en ese núcleo, resulta que
0 = ϕ2 (u) = ϕ(u, · ) ∈ E ∗ , esto es, 0 = ϕ(u, v) para todo v ∈ E. Por esto, para
cada vi resulta hi (u) = ϕ(u, vi ) = 0, o sea, u ∈ ker(hi ). Ası́:

n − s = n − rg(ϕ2 ) = dim(ker(ϕ2 )) ≤ dim(V ) = n − r,

con lo que s ≥ r. Cambiando los papeles de ϕ1 y ϕ2 resulta la otra desigualdad.


(4) El rango anterior, independiente del orden en que se consideren las
variables, se denomina rango de la forma bilineal ϕ, y se denota rg(ϕ). Siempre
es ≤ dim(E ∗ ), y la igualdad se da exactamente cuando las polares ϕ1 y ϕ2 son
suprayectivas. Como dim(E ∗ ) = dim(E), esto equivale a que las polares sean
isomorfismos, y a que sean inyectivas. 
Despues de introducir el rango, podemos definir:

Definiciones 16.5 Una forma bilineal ϕ sobre E se llama no degenerada


cuando tiene rango máximo: rg(ϕ) = dim(E), y degenerada en otro caso.

Según acabamos de explicar, ϕ es no degenerada cuando una de las formas


polares de ϕ es inyectiva (y entonces también lo es la otra). Explı́citamente,

ϕ1 es inyectiva si y sólo si para cada v ∈ E no nulo existe algún u ∈ E tal


que ϕ(u, v) 6= 0,

ϕ2 es inyectiva si y sólo si para cada u ∈ E no nulo existe algún v ∈ E tal


que ϕ(u, v) 6= 0.

Ejemplos 16.6 (1) Calculemos las formas polares de ϕ(x, y) = xAy t (ejemplo
IV.16.2(2), vol. 2, p. 152), que es una forma bilineal en Kn . Primero calculamos
la matriz de
ϕ1 : Kn → Kn∗ : y 7→ ϕ( · , y)
respecto de las bases estándar E = {ei } y su dual E∗ . La columna j-ésima de esa
matriz consiste en las coordenadas respecto E∗ de ϕ( · , ej ), y esas coordenadas
son
ϕ(·, ej )(ei ) = ϕ(ei , ej ) = ei Aetj = aij .
Por tanto, la matriz es (aij ) = A, y en consecuencia rg(ϕ1 ) = rg(A).
156 IV. Formas bilineales y formas cuadráticas

Para ϕ2 : x 7→ ϕ(x, · ) la matriz es algo diferente. Su columna j-ésima esta


formada por las coordenadas de ϕ(ej , · ) respecto de E∗ , que son

ϕ(ej , ·)(ei ) = ϕ(ej , ei ) = ej Aeti = aji ,

y resulta que la matriz es At . Ası́, rg(ϕ2 ) = rg(At ).


De hecho, este cálculo redemuestra la igualdad de rangos de IV.16.4(4),
vol. 2, p. 155. También vemos que ϕ es no degenerada si y sólo si det(A) 6= 0
(por ejemplo si A es la matriz identidad).
(2) Vamos a calcular el rango de la forma bilineal del ejemplo IV.16.2(3),
vol. 2, p. 153:
ϕ(x, y) = det A(x, y) , x, y ∈ Kn ,


donde la matriz A(x, y) se obtiene sustituyendo las filas i y j-ésimas (i < j)


de A por x e y. Ya sabemos que para que ϕ no sea nula debemos suponer que
las filas de A que no se sustituyen sean independientes, y generen por ello un
subespacio vectorial V ⊂ Kn de dimensión n − 2. Esto supuesto, calculemos
el núcleo de la forma polar

ϕ1 : Kn → Kn∗ : y 7→ det(A( · , y)).

Para que y esté en ese núcleo, el determinante de la matriz A(x, y) debe ser
nulo para cualquier fila x. Por el teorema de prolongación de la base, esto
ocurre exactamente cuando la fila y depende de las que no se sustituyen, es
decir, cuando y ∈ V . Por tanto, V es el núcleo de ϕ1 , que por tanto tiene
dimensión n − 2. Concluimos que la forma polar, y por tanto ϕ, tiene rango 2.
Por tanto, ϕ es degenerada excepto si n = 2, en cuyo caso
 
x1 x2
A(x, y) = y ϕ(x, y) = x1 y2 − x2 y1 .
y1 y2

(3) Consideremos la forma bilineal del ejemplo IV.16.2(4), vol. 2, p. 153:

ϕ(u, v) = f (u) · g(v) (f, g ∈ E ∗ \ {0}).

Las polares asociadas son ϕ1 (v) = g(v) · f y ϕ2 (u) = f (u) · g. Como f 6= 0,


vemos que ϕ1 (v) = 0 si y sólo si g(v) = 0, de modo que el núcleo de ϕ1
coincide con el de g; como g 6= 0, el núcleo de g es un hiperplano, luego
dim(ker(ϕ1 )) = n − 1 y ϕ1 tiene rango 1. Análogamente se ve que también
16. Formas bilineales 157

rg(ϕ2 ) = 1, como debe ser. Ası́ pues, el rango de ϕ es 1. Es pues degenerada


(salvo para n = 1).
(4) Por último, tenemos la forma bilineal
Z b
ϕ(α(T ), β(T )) = α(t)β(t)dt
a

definida en el espacio de los polinomios con coeficientes reales de grado ≤ d


(ejemplo IV.16.2(5), vol. 2, p. 153). Vamos a ver que ϕ no es degenerada. Según
hemos aprendido, para cada α(T ) no nulo hay que encontrar un β(T ) tal que
ϕ(α(T ), β(T )) 6= 0. Pero tomando β(T ) = α(T ) 6= 0 resulta
Z b
ϕ(α(T ), β(T )) = α(t)2 dt,
a

y esta integral no puede ser nula, pues el integrando es estrictamente positivo


excepto tal vez en una colección finita de valores de la variable t.

De todas las formas bilineales, aquı́ interesan las de dos tipos especiales:

Definición 16.7 Una forma bilineal ϕ de E se llama


(1) simétrica cuando ϕ(u, v) = ϕ(v, u) para cualesquiera u, v ∈ E.

(2) antisimétrica cuando ϕ(u, v) = −ϕ(v, u) para cualesquiera u, v ∈ E.

Nos damos cuenta de que una forma bilineal es simétrica si sus dos for-
mas polares son iguales, y antisimétrica si son opuestas. Las formas bilineales
simétricas constituyen un subespacio vectorial de B(E) que denotamos S(E)
y las antisimétricas otro que denotamos A(E). Estos subespacios cumplen que

B(E) = S(E) ⊕ A(E).

Esto es esencialmente el ejemplo II.8.11, p. 182. Dada una forma bilineal cual-
quiera ϕ, podemos escribir ϕ = ϕs + ϕa , con

ϕs (u, v) = 12 ϕ(u, v) + ϕ(v, u) , ϕa (u, v) = 21 ϕ(u, v) − ϕ(v, u) ,


 

y se comprueba mecánicamente que ϕs es simétrica y ϕa es antisimétrica. Por


otra parte, si una forma bilineal es simétrica y antisimétrica, tenemos

ϕ(u, v) = ϕ(v, u) = −ϕ(u, v),


158 IV. Formas bilineales y formas cuadráticas

luego ϕ(u, v) = 0 para cualesquiera u, v ∈ E. Hemos visto ası́ que ϕ es suma,


de modo único, de una parte simétrica ϕs y una parte antisimétrica ϕa . 
A continuación introducimos el concepto importante de isotropı́a:

Definición 16.8 Sea ϕ una forma bilineal. Decimos que un vector no nulo
u ∈ E es isótropo (respecto de ϕ) cuando ϕ(u, u) = 0, y anisótropo en otro
caso.

Si ϕ es degenerada, tiene algún vector isótropo. En efecto, si ϕ es degene-


rada, existe algún u ∈ E no nulo tal que ϕ(u, v) = 0 para todo v ∈ E, y en
particular para v = u tenemos ϕ(u, u) = 0.
Si ϕ es antisimétrica, todo vector u ∈ E es isótropo: ϕ(u, u) = −ϕ(u, u),
luego ϕ(u, u) = 0. En consecuencia, los vectores isótropos de una forma bilineal
y los de su parte simétrica son los mismos.
Toda forma no antisimétrica tiene vectores anisótropos. Para buscarlos se
utiliza la igualdad
ϕ(u + v, u + v) = ϕ(u, u) + ϕ(u, v) + ϕ(v, u) + ϕ(v, v).
Si ϕ no es antisimétrica, existen u, v tales que ϕ(u, v) 6= −ϕ(v, u), y mirando
la igualdad anterior vemos que uno de los tres vectores u, v o u + v debe ser
anisótropo.
También observamos que

Ejemplos 16.9 Revisemos los ejemplos IV.16.2, vol. 2, p. 152.


(1) La forma bilineal ϕ(x, y) = xAy t es simétrica (resp. antisimétrica) si y
sólo si lo es la matriz A.
En efecto, observamos que xAy t = (xAy t )t = yAt xt , luego
(∗) si A = At , entonces ϕ(x, y) = ϕ(y, x) y ϕ es simétrica
(∗∗) si A = −At , entonces ϕ(x, y) = −ϕ(y, x) y ϕ es antisimétrica.
Recı́procamente, si la forma bilineal es simétrica se tiene
aij = ϕ(ei , ej ) = ϕ(ej , ei ) = aji , luego A = At ;
si es antisimétrica:
aij = ϕ(ei , ej ) = −ϕ(ej , ei ) = −aji , luego A = −At .
16. Formas bilineales 159

En general, una matriz A arbitraria se escribe como suma de una matriz


simétrica y una antisimétrica:
A = As + Aa , As = 12 (A + At ), Aa = 21 (A − At ),
y a esta escritura corresponde la de formas bilineales
ϕ = ϕs + ϕa , ϕs (x, y) = xAs y t , ϕa (x, y) = xAa y t .

(2) La forma bilineal definida mediante



ϕ(x, y) = det A(x, y)
es antisimétrica, por las propiedades de los determinantes respecto del inter-
cambio de filas. En particular, todos los vectores son isótropos.
(3) Otra de las formas bilineales anteriormente considerada es
ϕ(u, v) = f (u) · g(v) (f, g ∈ E ∗ \ {0}).
Esta forma bilineal nunca es antisimétrica, y es simétrica exactamente cuando
f y g son proporcionales.
Para verlo, suponemos f (u)g(v) = ±f (v)g(u) para cualesquiera u, v ∈ E.
Como f 6= 0, elegimos v = v0 tal que f (v0 ) 6= 0, y resulta g(u) = ± fg(v 0)
(v0 ) f (u).
Ası́ pues, f y g son proporcionales, digamos g = αf , y
ϕ(u, v) = f (u)g(v) = f (u)(αf (v)) = (αf (u))f (v) = g(u)f (v) = ϕ(v, u).
Por tanto, ϕ es simétrica sea quién sea α, y nunca es antisimétrica.
Es fácil obtener los vectores isótropos de ϕ: 0 = ϕ(u) = f (u)g(u) si y
sólo si u está en el núcleo de f o en el de g, que son dos hiperplanos. Ası́ el
conjunto de los vectores isótropos es la unión de dos hiperplanos, y no es un
subespacio vectorial, salvo que f y g tengan el mismo núcleo (y por tanto sean
proporcionales).
(4) La forma bilineal de la integral:
Z b
ϕ(α(T ), β(T )) = α(t)β(t)dt
a
es simétrica, pues el producto del integrando conmuta. Esta forma bilineal no
tiene vectores isótropos, pues como ya hemos visto
Z b
ϕ(α(T ), α(T )) = α(t)2 dt > 0
a
para cualquier polinomio no nulo α(T ). 
160 IV. Formas bilineales y formas cuadráticas

Veremos más adelante cómo los vectores isótropos juegan un papel impor-
tante en la clasificación de las formas bilineales.
La última noción de esta lección es crucial:

Definición 16.10 Sea ϕ una forma bilineal de E. Se llama forma cuadrática


asociada a ϕ la aplicación
q : E → K : u 7→ ϕ(u, u).

La forma bilineal codifica más información que la forma cuadrática asocia-


da. Por ejemplo, si ϕ es antisimétrica, entonces q ≡ 0, lo que no determina ϕ:
sólo dice que en efecto ϕ es antisimétrica. Sin embargo, si ϕ es simétrica, pode-
mos recuperarla a partir de q, pues en ese caso podemos calcular ϕ(u+v, u+v)
como ya hemos hecho antes para obtener
ϕ(u, v) = 21 ϕ(u + v, u + v) − ϕ(u, u) − ϕ(v, v) = 12 q(u + v) − q(u) − q(v) .
 

Si descomponemos en sus partes simétrica y antisimétrica una forma bilineal


arbitraria ϕ = ϕs + ϕa , es
q(u) = ϕ(u, u) = ϕs (u, u) + ϕa (u, u) = ϕs (u, u) + 0 = ϕs (u, u).
Por tanto, a partir de q recuperamos la parte simétrica de ϕ, y nada más, pues
ya vemos que dos formas bilineales tienen la misma forma cuadrática asocia-
da si y sólo si tienen la misma parte simétrica. Ası́, toda forma cuadrática
está asociada a una única forma bilineal simétrica, y la determina completa-
mente.
Una vez presentadas las nociones relevantes, terminamos la lección intro-
duciendo las ecuaciones mediante las que se manipulan.
(16.11) Ecuaciones y matriz de una forma bilineal. Fijemos una
base B = {u1 , . . . , un } de E y sea ϕ : E × E → K una forma bilineal. Dados
dos vectores u, v ∈ E denotamos por x = (x1 , . . . , xn ) e y = (y1 , . . . , yn ) las
coordenadas de u y v respecto de B.
(1) Existe una única matriz M tal que para cualesquiera u, v ∈ E se tiene:
(∗) ϕ(u, v) = xM y t .

La unicidad se deduce de que los coeficientes de M deben ser:


ϕ(ui , uj ) = ei M etj = mij .
16. Formas bilineales 161

Por otra parte, la expresión (∗) se obtiene fácilmente por cálculo directo:
X X  X
ϕ(u, v) = ϕ xi ui , yj uj = xi yj ϕ(ui , uj ) = xM y t ,
i j i,j

donde M = (ϕ(ui , uj ))ij . 


La matriz M recibe el nombre de matriz de ϕ respecto de la base B, y
se denota Mϕ (B). La igualdad (∗) se llama ecuación de ϕ respecto de la base
dada; normalmente se escribe ϕ(x, y) = xM y t . La forma cuadrática q asociada
a ϕ tiene la expresión:
X
q(u) = xM xt = mij xi xj ,
i,j

que es un polinomio de segundo grado en las coordenadas xj , que denotamos


q(x). Ya sabemos que q no determina en general a ϕ, lo que se confirma
escribiendo explı́citamente:

X qii = mii ,
q(x) = qij xi xj , donde
qij = mij + mji para i < j.
i≤j

Vemos que los qij no determinan los mij excepto si mij = mji , es decir,
excepto si ϕ es simétrica. Reencontramos pues el hecho de que si bien ϕ no
está determinada por q, sı́ lo está su parte simétrica ϕs .
Las soluciones de la ecuación q(x) = 0 son (las coordenadas de) los vectores
isótropos. Por tanto: (i) si K = C (y n > 1) siempre hay vectores isótropos,
(ii) si K = R puede que no.
(2) Veamos cómo varı́a la matriz de ϕ cuando varı́an las bases empleadas
para su cálculo. Sea B0 otra base de E, y consideremos la matriz de cambio
C = C(B0 , B). Entonces xt = Cx0 t , y t = Cy 0 t , y resulta:
t t
ϕ(u, v) = xM y t = (x0 C t )M (Cy 0 ) = x0 (C t M C)y 0 .

Por la unicidad, M 0 = C t M C es la matriz de ϕ respecto de B0 .


A la vista de esto, se define la relación de congruencia entre matrices
cuadradas: M y M 0 son congruentes si existe una matriz regular C tal que
M 0 = C t M C. Ya se ve el paralelismo de esta noción con la de semejanza de
matrices, pero debe tenerse buen cuidado de no confundirlas.
En particular, nótese que la relación de semejanza conserva los determi-
nantes, y la de congruencia no necesariamente. En efecto, todo lo que podemos
162 IV. Formas bilineales y formas cuadráticas

decir es que

det(M 0 ) = det(C t M C) = det(C t ) det(M ) det(C) = det(C)2 det(M ).

Si K = C esto sólo dice que uno es nulo si y sólo si lo es el otro (pero ya sabemos
que M y M 0 tienen el mismo rango); si K = R, la congruencia proporciona
más información, pues los dos determinantes tienen el mismo signo.
(3) Como complemento, dejamos al lector la tarea de deducir las siguientes
expresiones de M = Mϕ (B) utilizando las polares:

Mϕ1 (B, B∗ ) = M, Mϕ2 (B, B∗ ) = M t .

De esto se deduce:

rg(ϕ1 ) = rg(M ) = rg(M t ) = rg(ϕ2 ),

demostración alternativa de IV.16.4(3), vol. 2, p. 154, que dice además que el


rango de ϕ es el de su matriz.
(4) Finalmente, la aplicación

B(E) → Mn (K) : ϕ 7→ Mϕ (B)

es una biyección entre formas bilineales y matrices. Ya hemos visto cómo, fijada
una base, se asocia una única matriz a una forma bilineal, y recı́procamente,
cada matriz define una única forma bilineal (mediante la ecuación (∗)).
Esta biyección es de hecho un isomorfismo del espacio B(E) sobre el de
las matrices cuadradas de orden n, que respeta la descomposición en partes
simétricas y antisimétricas para formas bilineales y para matrices (la compro-
bación es rutinaria). Confirmamos ası́ que

dim B(E) = dim Mn (K) = n2 ,


 

y obtenemos las dimensiones del subespacio de las formas bilineales simétricas


y del de las formas bilineales antisimétricas:

dim S(E) = 21 n(n + 1), dim A(E) = 12 n(n − 1).


 

Podemos resumir todo esto diciendo que el ejemplo IV.16.2(2), vol. 2, p.


152, es universal, y la discusión IV.16.9(1), vol. 2, p. 158, también. 
16. Formas bilineales 163

Ejemplo 16.12 Veamos en un ejemplo sencillo cómo una forma cuadrática


puede estar asociada a diversas formas bilineales. Consideramos en E = K4
(base estándar):
X
q(x) = 2x1 x2 + 4x1 x3 − 2x1 x4 + 6x2 x3 − x23 + 2x3 x4 + 2x24 = qij xi xj .
i≤j

Para buscar matrices M = (mij ) tales que q(x) = xM xt tenemos las fórmulas
de IV.16.11(1), vol. 2, p. 160,

qii = mii ,
qij = mij + mji para i < j.

En palabras, los coeficientes de la diagonal son los coeficientes de los cuadrados


de las variables, y los restantes son los coeficientes de los dobles productos,
pero repartidos por encima y por debajo de la diagonal, a partes iguales si M
ha de ser simétrica. Por eso la única matriz simétrica posible en este caso es
 
0 1 2 −1
 1 0 3 0
M = ,
 2 3 −1 1 
−1 0 1 2

mientras que no simétricas tenemos unas cuantas:


     
0 0 0 0 0 −1 1 −1 0 1 2 −1
 2 0 0 0  3 0 3 0  1 0 4 0
M = ,
 3 3 −1 1  ,  2
   , . . .
 4 6 −1 0 2 −1 2 
−2 0 2 2 −1 0 1 2 −1 0 0 2

Estas matrices corresponden a la única forma bilineal simétrica ϕs a la que q


está asociada, y las muchas ϕ no simétricas a las que también lo está. 

Ejemplos 16.13 Una vez más consideramos los ejemplos IV.16.2, vol. 2, p.
152.
(1) La matriz de la forma bilineal ϕ(x, y) = xAy t respecto de la base
estándar de Kn es por supuesto A.
(2) La matriz de ϕ(u, v) = f (u)g(v), f, g ∈ E ∗ \ {0}, respecto de una base
B = {ui } de E es

Mϕ (B) = (ϕ(ui , uj )) = (f (ui )g(uj )) = Mf (B, E)t Mg (B, E)


164 IV. Formas bilineales y formas cuadráticas

(donde E = {1} es la base estándar de K); nótese que el último producto es


una columna por una fila, para obtener una matriz cuadrada. En particular
(omitiendo las bases para simplificar la notación):
rg(Mϕ ) ≤ mı́n{rg(Mf ), rg(Mg )} = mı́n{rg(f ), rg(g)} = 1,
pues f, g : E → K. Compárese con IV.16.9(3), vol. 2, p. 159.
(3) Más tedioso es calcular la matriz M = (mij ) de la forma bilineal
ϕ(x, y) = det A(x, y) , x, y ∈ Kn ,


obtenida viendo como variables las filas k- y `-ésima, k < `, de una matriz
dada A = (aij ) de orden n: hay que calcular todos los determinantes

mij = ϕ(ei , ej ) = det A(ei , ej ) .
Pero sugerimos al lector que lo haga para n = 2, y para n = 3 con, por ejemplo,
k = 1, ` = 2. Debe obtener lo siguiente:
 
  0 a33 −a32
0 1
n = 2 : Mϕ (E) = ; n = 3 : Mϕ (E) = −a33 0 a31 .
−1 0 a −a 0 32 31

En ambos casos el rango es 2, salvo si todos los a3j son nulos (como habı́amos
demostrado en IV.16.6(2), vol. 2, p. 156). Se observa que las matrices Mϕ (E)
son antisimétricas, lo que se corresponde con las propiedades de los determi-
nantes.
(4) También podemos calcular la matriz de
Z b
ϕ(α(T ), β(T )) = α(t)β(t)dt.
a

La base estándar del espacio de polinomios de grado ≤ d es T k , 0 ≤ k ≤ d.


Por tanto la matriz M = (mij ) de ϕ respecto de esa base será
Z b b
mij = ti+j dt = i+j+1
1
ti+j+1 = i+j+1
1
(bi+j+1 − ai+j+1 ) , 0 ≤ i, j ≤ d.

a a

Es una matriz cuadrada simétrica de orden d + 1 con el aspecto siguiente:


1 2
− a2 ) 1 3
− a3 ) · · ·
 
b−a 2 (b 3 (b
 
 1 (b2 − a2 ) 1 3
− a3 ) 1 4
− a4 ) · · · 
2 3 (b 4 (b
.


 1 (b3 − a3 ) 1 4
(b − a4
) 1 5
(b − a5
) · · · 
3 4 5
.. .. ..

..
. . . .
16. Formas bilineales 165

Sabemos que ϕ es no degenerada (IV.16.6(4)), luego det(M ) 6= 0, lo que por


cálculo directo serı́a bastante costoso comprobar.

Ejercicios y problemas propuestos


Número 1. Estudiar cuáles de las siguientes aplicaciones son formas bilineales de Rn :

(1) F ((x1 , . . . , xn ), (y1 , . . . , yn )) = x1 |y1 | + · · · + xn |yn |.


(2) F ((x1 , . . . , xn ), (y1 , . . . , yn )) = |x1 y1 + · · · + xn yn |.
p
(3) F ((x1 , . . . , xn ), (y1 , . . . , yn )) = x21 y12 + · · · + x2n yn2 .
(4) F ((x1 , . . . , xn ), (y1 , . . . , yn )) = x1 y1 + · · · + xk yk , para cada k = 1, . . . , n.

De cada una que lo sea, obtener su matriz respecto de la base estándar.


Número 2. Encontrar todas las formas bilineales de K3 que tienen rango uno y de las que
los vectores (1, 1, 0), (1, 0, 1), (0, 1, 1) y (1, 1, 1) son isótropos. ¿Hay alguna simétrica no nula?
Número 3. ¿Es una forma bilineal la aplicación

ϕ : Mn (K) × Mn (K) → K : (A, B) 7→ tr(A) tr(B)?

Número 4. Sea B = {e1 , e2 , e3 } una base de un espacio vectorial E y sea ϕ la forma


bilineal sobre E definida por ϕ(u, v) = x1 y1 − x1 y2 + 3x2 y2 , donde

u = x1 e1 + x2 e2 + x3 e3 y v = y1 e1 + y2 e2 + y3 e3 .

Hallar la matriz de ϕ respecto de la base B0 = {e01 , e02 , e03 }, donde e01 = e1 + e2 + e3 , e02 = −e2
y e03 = e1 − e3 . Calcular también ϕ(u, v) para u = 2e01 + e03 y v = −e02 + 2e03 .
Número 5. De una forma bilineal ϕ del espacio E de los polinomios reales de grado ≤ 1
se sabe que es simétrica y que ϕ(X + 1, X + 1) = 8, ϕ(X + 2, X + 2) = 11 y ϕ(X, X) = 3.
Calcular su matriz respecto de la base estándar E = {1, X} de E.
Número 6. Sea ϕ : R2 × R2 → R la forma bilineal dada por

ϕ((x1 , x2 ), (y1 , y2 )) = 2x1 y1 − 4x1 y2 + 5x2 y1 + λx2 y2 .

Determinar λ para que ϕ sea degenerada. Para este valor de λ describir los núcleos de las
formas polares.


Número 7. Sean E un espacio vectorial de tipo finito sobre el cuerpo K y q : E → K
una aplicación tal que: (i) q(−u) = q(u) para cada u ∈ E, y (ii) la fórmula ϕ(u, v) =
q(u + v) − q(u) − q(v) define una forma bilineal de E. Demostrar las siguientes igualdades:

(1) q(u + v + w) = q(u + v) + q(u + w) + q(v + w) − q(u) − q(v) − q(w) para u, v, w ∈ E.


(2) q(2u) = 4q(u) para u ∈ E.
166 IV. Formas bilineales y formas cuadráticas

Deducir que q es una forma cuadrática.


Número 8. Consideremos en K3 los vectores
u1 = (1, −2, 3), u2 = (−2, −1, 1) y u3 = (8, −1, 3),
y sea q una forma cuadrática de K3 que cumple
q(u1 ) = −39, q(u2 ) = −7, q(u3 ) = 9.
Calcular la matriz, respecto de la base B = {u1 , u2 }, de la restricción de q al subespacio
H = L[u1 , u2 ].
Número 9. Sea ϕ una forma bilineal de un espacio vectorial de tipo finito E. Demostrar
que si ϕ(u, v) = 0 implica ϕ(v, u) = 0 para cualesquiera dos vectores u, v ∈ E, entonces ϕ es
simétrica o antisimétrica.
Número 10. Obtener, para n = 2, 3, bases de` los espacios de formas bilineales antisimétri-
cas A(Kn ), utilizando las del tipo ϕ(x, y) = det A(x, y) (IV.16.2(3), vol. 2, p. 153). ¿Qué se
´

puede hacer para n > 3?


Número 11. Sean n > 1 un entero, y E = Mn (K) el espacio vectorial formado por las
matrices cuadradas de orden n con coeficientes en K. Comprobar que
ϕ : E × E → K : (A, B) 7→ tr(At B)
es una forma bilineal simétrica de E y calcular su rango. Describir explı́citamente la forma
cuadrática asociada. ¿Qué vectores isótropos tiene?

 Número 12. Redefinir la forma bilineal del ejercicio anterior como


ψ : E × E → K : (A, B) 7→ tr(AB),
y resolver de nuevo el problema.
Número 13. Sea B una base de un espacio vectorial de tipo finito E sobre el cuerpo
K, y denotemos x = (x1 , . . . , xn ) las coordenadas respecto de B. Un polinomio q(x) ∈
K[x1 , . . . , xn ] se denomina homogéneo de grado 2 si para cada λ ∈ K se cumple
q(λx1 , . . . , λxn ) = λ2 q(x1 , . . . , xn ).
Mostrar que los polinomios homogéneos de grado 2 (incluyendo el polinomio nulo) forman
un espacio vectorial isomorfo al de las formas bilineales simétricas de E.

 Número 14.
complejos.
Sean q y q 0 dos polinomios homogéneos de grado 2 no nulos con coeficientes

(1) Mostrar que después de un cambio lineal de coordenadas se puede escribir


(
q(x) = x21 + b(x2 , . . . , xn ),
q 0(x) = λx21 + a0 (x2 , . . . , xn )x1 + b0 (x2 , . . . , xn ),

donde b y b0 son polinomios homogéneos de grado 2, a0 es una forma lineal y λ ∈ C.


(2) Deducir que si las ecuaciones q(x) = 0 y q 0 (x) = 0 tienen las mismas soluciones
entonces λ 6= 0 y los polinomios de grado dos en x1 obtenidos al evaluar arbitrariamente
x2 , . . . , xn tienen las mismas raı́ces complejas, con lo que q 0 (x) = λq(x).
17. Clasificación de formas bilineales 167

Utilizar esto para probar que si dos formas bilineales simétricas complejas tienen los mismos
vectores isótropos, entonces son proporcionales. ¿Es cierto lo mismo en el caso real?
Número 15. Sea q(x) el polinomio homogéneo de grado 2 que define una forma bilineal
ϕ (en ciertas coordenadas) de un espacio vectorial E. Demostrar que si todos los vectores
de un hiperplano son isótropos, entonces q(x) es producto de dos formas lineales, y concluir
que ϕ está determinada, salvo producto por escalares, por sus vectores isótropos. ¿Cuáles
son estos?

17. Clasificación de formas bilineales


No entraremos en una presentación formalista de la clasificación de formas
bilineales. Preferimos entender la clasificación como la búsqueda de unas ecua-
ciones lo más sencillas posible, que permitan entender bien el comportamiento
cualitativo de las formas bilineales, y decidir si dos dadas lo tienen análogo.
Ası́, diremos que dos formas bilineales son equivalentes cuando respecto de
bases adecuadas tienen las mismas ecuaciones. También podemos entender es-
ta clasificación como la clasificación de matrices por congruencia. Este punto
de vista concuerda con el que adoptamos en el capı́tulo III para clasificar en-
domorfismos, o sea, matrices por semejanza. Por otra parte, sólo trataremos
formas bilineales simétricas y formas bilineales antisimétricas.
El concepto básico que usaremos para abordar la clasificación es éste:

Definición 17.1 Sea ϕ : E × E → K una forma bilineal simétrica o anti-


simétrica, de un espacio vectorial de tipo finito E sobre el cuerpo K.

(1) Dos vectores u, v ∈ E se denominan conjugados cuando ϕ(u, v) = 0.


(2) El conjugado de un subespacio vectorial V ⊂ E, es el conjunto V 0 ⊂ E
formado por los vectores de E conjugados de todos los de V .

Como se ve esta definición es ambigua sobre el orden de las variables, pues


puede significar
(
0 {u ∈ E : ϕ(u, v) = 0 para todo v ∈ V } o
V =
{u ∈ E : ϕ(v, u) = 0 para todo v ∈ V }.
Pero por la hipótesis sobre ϕ es
ϕ( · , v) = ±ϕ(v, · ),
168 IV. Formas bilineales y formas cuadráticas

de modo que efectivamente podemos despreocupamos del orden de las varia-


bles.

Observaciones 17.2 (1) Para calcular el conjugado V 0 de V se puede usar


cualquier sistema de generadores. Si V = L[v1 , . . . , vr ], entonces V 0 tiene por
ecuaciones
ϕ( · , v1 ) = · · · = ϕ( · , vr ) = 0.
En efecto, es claro que esas ecuaciones se anulan sobre 0
P V . Recı́procamente,
si u ∈ E cumple esas ecuaciones, para cualquier v = i λi vi ∈ V tenemos
X  X X
ϕ(u, v) = ϕ u, λi vi = λi ϕ(u, vi ) = λi · 0 = 0.
i i i

(2) Según lo anterior, la codimensión de V 0 es ≤ r. Pero siempre podemos


suponer r = dim(V ), de modo que codim(V 0 ) ≤ dim(V ). En general no se
puede decir más, pero si ϕ es no degenerada se cumple la igualdad.
En efecto, en ese caso las formas ϕ( · , vi ) son independientes (por serlo los
vi ), luego las ecuaciones anteriores de V 0 forman un sistema de rango r, de
modo que r es la codimensión de V 0 .
(3) Consideremos el caso particular en que V es una recta L[v]. Entonces
V 0 está definido por la ecuación ϕ( · , v) = 0 y hay varias posibilidades:
(a) Si esa ecuación es trivial (puede ocurrir si ϕ es degenerada), entonces
V 0 = E.
(b) Si esa ecuación no es trivial, entonces V 0 es efectivamente un hiper-
plano, pero aún hay dos posibles situaciones: (i) que v sea isótropo, en cuyo
caso v ∈ V 0 y V ⊂ V 0 , (ii) que v no sea isótropo, de modo que v ∈ / V 0 y por
ello E = V ⊕ V 0 .
(4) La conjugación cumple las siguientes propiedades:
(i) Si V ⊃ W , entonces V 0 ⊂ W 0 .
(ii) (V + W )0 = V 0 ∩ W 0 .
(iii) (V ∩ W )0 ⊃ V 0 + W 0 .
(iv) V 00 ⊃ V .
Y si ϕ es no degenerada, los dos últimos contenidos son igualdades (como
el lector comprobará fácilmente contando dimensiones). Entre estas propieda-
des encontramos las de la dualidad canónica (II.10.3, vol. 1, p. 212); esto es
ası́ porque
V 0 = ϕ−1 ∨
1 (V ).
17. Clasificación de formas bilineales 169

Por ello decimos que cada forma ϕ proporciona una realización explı́cita de la
dualidad canónica. No nos detenemos casi en este interesante aspecto, porque
corresponde más bien al ámbito de la Geometrı́a Proyectiva. 

La búsqueda de subespacios conjugados es el método más directo para


clasificar formas bilineales (simétricas o antisimétricas). En efecto, si descom-
ponemos el espacio como suma E = V ⊕ V 0 de un subespacio y su conjugado,
podemos considerar independientemente las restricciones ϕ|V ×V y ϕ|V 0 ×V 0 ,
y dadas bases BV y BV 0 de V y V 0 respectivamente, obtenemos una base
B = BV ∪ BV 0 de E respecto de la cual la matriz de ϕ tiene el siguiente
aspecto:  
M 0
Mϕ (B) = ,
0 M0
donde M es la matriz de ϕ|V ×V respecto de BV y M 0 es la de ϕ|V 0 ×V 0 respecto
de BV 0 . Veremos en seguida la gran utilidad de esta sencilla observación.
Empezamos por un primer resultado para formas bilineales simétricas, o
equivalentemente para formas cuadráticas:
(17.3) Diagonalización de formas bilineales simétricas. Considere-
mos una forma bilineal simétrica ϕ : E ×E → K de un espacio E de dimensión
n, y denotemos r = rg(ϕ); sea q la forma cuadrática asociada a ϕ.
(1) Si q no es nula, entonces hay algún vector anisótropo, y ya sabemos
cómo encontrarlo: si ϕ(u, v) 6= 0, entonces uno de los tres vectores u, v, u + v
es anisótropo. Elegimos pues u1 ∈ E tal que ϕ(u1 , u1 ) = a1 6= 0. Entonces el
conjugado de la recta L = L[u1 ] es el hiperplano H : ϕ(u1 , · ) = 0, y E = L⊕H.
Si tomamos una base de E del tipo B = {u1 , v, . . . } donde {v, . . . } es una base
de H, tenemos
a1 0 ··· 0
 
 0 ∗ ··· ∗
Mϕ (B) = 
 ... .. .. , q(x) = a1 y12 + q 0 (y2 , . . . , yn ),
. . 
0 ∗ ··· ∗

donde y = (y1 , . . . , yn ) son las coordenadas de x ∈ E respecto de B. Para


obtener la base más adecuada {v, . . . } de H restringimos ϕ a H × H y empe-
zamos de nuevo. Al final, obtendremos una base respecto de la cual la matriz
M de la forma bilineal ϕ será diagonal, y la ecuación de la forma cuadrática
asociada q será
q(x) = yM y t = a1 y12 + · · · + ar yr2 .
170 IV. Formas bilineales y formas cuadráticas

Diremos que la base obtenida diagonaliza ϕ (o q).


(2) La diagonalización anterior puede hacerse por el método de Gauss-
Jordan, es decir, podemos diagonalizar por congruencia una matriz M de ϕ
mediante operaciones elementales por filas y columnas. Para ello recordemos
que:
(i) Si M 0 se obtiene mediante una operación elemental por columnas (resp.
por filas) en la matriz M = AB, se puede hacer primero esa misma operación
en la matriz B (resp. A) y luego multiplicar por A (resp. B) (I.3.7, vol. 1, p.
36).
(ii) Si J se obtiene mediante una operación elemental por columnas en la
matriz identidad I, entonces J t se obtiene mediante la misma operación por
filas en I (demostración de I.4.14, vol. 1, p. 55).
En consecuencia, si en M hacemos una operación por columnas y luego la
misma por filas, obtenemos la matriz M 0 = J t M J, que es congruente con M .
Por tanto, haremos operaciones elementales por columnas y filas hasta obtener
una matriz diagonal M 0 , que será congruente con la de partida. Es más, si
guardamos memoria de las operaciones por columnas realizadas, aplicándolas
a la matriz identidad obtendremos una matriz regular C tal que M 0 = C t M C.
(3) Más algebraicamente, la diagonalización sirve para representar formas
cuadráticas mediante sumas y diferencias de cuadrados de formas lineales.
En efecto, si denotamos yi = hi (x) las ecuaciones del cambio de coordena-
das, después de diagonalizar tenemos
q(x) = a1 y12 + · · · + ar yr2 = a1 h1 (x)2 + · · · + ar hr (x)2 ,
donde las yi = hi (x) son formas lineales. Pero q(x) es un polinomio de grado
2, y se pueden encontrar tales formas hi (x) muy inocentemente, completando
cuadrados:
q(x) = ax21 + x1 h(x0 ) + q1 (x0 ) = a x1 + 1 0 2
2a h(x )) − 1 0 2
4a h(x ) + q1 (x0 )
= ay12 + q 0 (x0 ), y1 = x1 + 1
2a h(x
0
), 0
x = (x2 , . . . , xn ).
Esto indica cómo proceder si algún x2i (i = 1 aquı́) aparece en q(x). Si no,
aparecerá en un producto xi xj , después de hacer xj = xi + yj . 

Ejemplo 17.4 Aplicamos lo anterior a la forma cuadrática de K4 de IV.16.12,


vol. 2, p. 163:
q(x) = 2x1 x2 + 4x1 x3 − 2x1 x4 + 6x2 x3 − x23 + 2x3 x4 + 2x24 .
17. Clasificación de formas bilineales 171

Según lo visto en aquel ejemplo, q está asociada a la forma bilineal simétrica:


 
0 1 2 −1
 1 0 3 0
ϕ(x, y) = xM xt , M = .
 2 3 −1 1 
−1 0 1 2

En lo que sigue cambiaremos sucesivamente de coordenadas, pero las denota-


remos todas x.
(1) Empezaremos buscando una base que diagonalice, es decir, cuatro vec-
tores ui cada uno conjugado con los anteriores, y mientras podamos, anisótro-
pos. Mirando la matriz vemos que e1 y e2 son isótropos, pero no ası́ u1 = e3 ,
pues q(e3 ) = −1. Elegido este primer vector, buscamos u2 = x ∈ K4 conjugado
con él:

0 = ϕ(u1 , x) = (0, 0, 1, 0)M xt = (2, 3, −1, 1)xt = 2x1 + 3x2 − x3 + x4 .

Podemos tomar una solución cualquiera u2 , y si u2 es anisótropo es una buena


elección. Pero la manera sistemática de proceder es la siguiente: se resuelve
para tener unas ecuaciones paramétricas de L[u1 ]0

x1 = α, x2 = β, x3 = γ, x4 = −2α − 3β + γ,

que proporcionan la base {(1, 0, 0, −2), (0, 1, 0, −3), (0, 0, 1, 1)} del hiperplano
definido por la ecuación resuelta. El vector anisótropo buscado es alguno de
esos tres o una suma de dos (comentario tras IV.16.8, vol. 2, p. 158). En nuestro
caso u2 = (1, 0, 0, −2) es anisótropo:

q(u2 ) = (1, 0, 0, −2)M (1, 0, 0, −2)t = (2, 1, 0, −5)(1, 0, 0, −2)t = 12.

Ahora buscamos u3 conjugado de u1 y u2 :


(
0 = u1 M xt = (0, 0, 1, 0)M xt = 2x1 + 3x2 − x3 + x4 ,
0 = u2 M xt = (1, 0, 0, −2)M xt = 2x1 + x2 − 5x4 .

Para buscar u3 resolvemos este sistema. Por hacerlo algo diferente, podemos
sustituir en la segunda ecuación las ecuaciones paramétricas antes obtenidas
de la primera:

0 = 2α + β − 5(−2α − 3β + γ) = 12α + 16β − 5γ,


172 IV. Formas bilineales y formas cuadráticas

y dos soluciones independientes corresponden a (α, β, γ) = (5, 0, 12) y (0, 5, 16),


es decir x = (5, 0, 12, 2) y (0, 5, 16, 1). Ahora u3 es uno de esos vectores o su
suma. Nosotros elegimos u3 = (5, 0, 12, 2):
q(u3 ) = (5, 0, 12, 2)M (5, 0, 12, 2)t = (22, 41, 0, 11)(5, 0, 12, 2)t = 132.
En fin, el último vector u4 debe ser conjugado de los tres anteriores:

t t
0 = u1 M x = (0, 0, 1, 0)M x = 2x1 + 3x2 − x3 + x4 ,

0 = u2 M xt = (1, 0, 0, −2)M xt = 2x1 + x2 − 5x4 ,

0 = u3 M xt = (5, 0, 12, 2)M xt = 22x1 + 41x2 + 11x4 .

Este sistema define una recta generada por u4 = (18, −11, 8, 5), y
q(u4 ) = u4 M ut4 = −462.
En resumen, la forma cuadrática diagonal que resulta es
q(x) = −x21 + 12x22 + 132x23 − 462x24 .
(2) Procedamos ahora mediante operaciones elementales por filas y colum-
nas. Vamos haciendo operaciones alternativamente por columnas y por filas:
0 1 0 1 0 1
0 1 2 −1 2 1 0 −1 −1 3 2 1
B 1 0 3 0C B 3 0 1 0C B 3 0 1 0C
M= B
@ 2
C
3 −1 1 A
B
@−1 3 2 1A
C B
@ 2
C
1 0 −1 A
−1 0 1 2 1 0 −1 2 1 0 −1 2
0 1 0 1 0 1
−1 0 2 1 −1 0 2 1 −1 0 0 1
B 3 9 1 0C B 0 9 7 3C B 0 9 7 3C
B C B C B C
@ 2 7 0 −1 A @ 2 7 0 −1 A @ 2 7 4 −1 A
1 3 −1 2 1 3 −1 2 1 3 1 2
0 1 0 1 0 1
−1 0 0 1 −1 0 0 0 −1 0 0 0
B 0 9 7 3C B 0 9 7 3C B 0 9 7 3C
B
@ 0
C B C B C ···
7 4 1A @ 0 7 4 1A @ 0 7 4 1A
1 3 1 2 1 3 1 3 0 3 1 3

Hasta aquı́ ya hemos diagonalizado la primera fila y la primera columna. Deja-


mos al lector el entretenimiento de describir las operaciones realizadas, ası́ co-
mo hacer las que proceda a continuación para obtener una matriz diagonal
toda ella. Nosotros hemos proseguido hasta obtener
 
−1 0 0 0
 0 9 0 0 
 , q(x) = −x21 + 9x22 − 13x23 + 455x24 .
 0 0 −13 0 
0 0 0 455
17. Clasificación de formas bilineales 173

Por supuesto, pueden muy bien obtenerse diagonales diferentes según las ope-
raciones que se elijan.
Asimismo, confiamos en que el lector descubra por sı́ mismo que muchas
de las operaciones de filas pueden evitarse, haciendo primero las de columnas,
y teniendo en cuenta que después de hacer la correspondiente por filas debe
obtenerse una matriz simétrica.
(3) Por último, usemos el artificio de completar cuadrados. El primer cua-
drado que aparece es el de x3 , ası́ que escribimos:

q(x) = − x23 − 2x3 (2x1 + 3x2 + x4 ) + 2x1 x2 − 2x1 x4 + 2x24



2
= − x3 − (2x1 + 3x2 + x4 ) +(2x1 + 3x2 + x4 )2 +2x1 x2 − 2x1 x4 + 2x24
= −y32 + q 0 (x0 ), x0 = (x1 , x2 , x4 ),
n y = x − (2x + 3x + x ),
3 3 1 2 4
donde
q 0 (x0 ) = 4x21 + 14x1 x2 + 2x1 x4 + 9x22 + 6x2 x4 + 3x24 .
Proseguimos con q 0 :

q 0 (x0 ) = 4 x21 + 41 x1 (14x2 + 2x4 ) + 9x22 + 6x2 x4 + 3x24



2
= 4 x1 + 41 (7x2 + x4 ) − 41 (7x2 + x4 )2 +9x22 + 6x2 x4 + 3x24
= 4y12 + q 00 (x00 ), x00 = (x2 , x4 ),
n y = x + 1 (7x + x ),
1 1 4 2 4
donde
q 00 (x00 ) = − 13 2 5
4 x2 + 2 x2 x4 +
11 2
4 x4 .
Y para q 00 :

q 00 (x00 ) = − 13 2
4 (x2 −
10
13 x2 x4 ) + 11 2
4 x4 = − 13
4 (x2 −
5
13 x4 )
2 + 42 2
13 x4
= − 13 2
4 y2 +
42 2
13 x4 ,

5
con y2 = x2 − 13 x4 .
Finalmente, tomando y4 = x4 resulta

q(x) = −y32 + q 0 (x0 ) = −y32 + 4y12 + q 00 (x00 ) = −y32 + 4y12 − 13 2


4 y2 + 42 2
13 y4 ,

y volviendo a utilizar las variables xi queda:

q(x) = 4x21 − 13 2
4 x2 − x23 + 42 2
13 x4 ,

que es la forma diagonal buscada. 


174 IV. Formas bilineales y formas cuadráticas

La diagonalización es una simplificación importante de la matriz de una


forma bilineal simétrica, pero no la clasifica completamente: ciertas matrices
diagonales son congruentes y ciertas otras no. Para dilucidar esto distinguimos
de qué cuerpo K se trata.
Sea ϕ una forma bilineal simétrica de rango r, y sea B = {u1 , . . . , un } una
base que diagonaliza ϕ. En coordenadas x = (x1 , . . . , xn ) respecto de B la
forma cuadrática asociada a ϕ se escribe
q(x) = a1 x21 + · · · + ar x2r , a1 , . . . , ar ∈ K no nulos.

(17.5) Clasificación de formas bilineales simétricas complejas. Su-


pongamos K = C. Puesto que en C siempre existe la raı́z cuadrada, reempla-
zamos en la base B los ui , 1 ≤ i ≤ r, por
u0i = √1 ui .
ai

De este modo,
 2
ϕ(u0i , u0i ) = ϕ( √1ai ui , √1ai ui ) = √1
ai ϕ(ui , ui ) = 1
ai ai = 1,

y la matriz de ϕ respecto de la nueva base es diagonal también, pero además


su diagonal tiene sólo unos y ceros. El número de unos está determinado por
el rango, que por tanto clasifica la forma bilineal. La forma cuadrática en
coordenadas respecto de esta base tiene por ecuación una suma de cuadrados:
q(x) = y12 + · · · + yr2 .
Concluimos que el rango r clasifica sobre C.
(17.6) Clasificación de formas bilineales simétricas reales. Ahora
K = R. Como en R sólo podemos extraer la raı́z cuadrada de números po-
sitivos, hacemos lo siguiente. Después de encontrar la matriz diagonal D,
reordenamos la base para tener en su diagonal, digamos, s términos positi-
vos seguidos de r − s negativos (y el resto ceros). Ahora reemplazamos los ui ,
1 ≤ i ≤ r, por ( 1
√ ui para ai > 0,
0 ai
ui = 1
√ u para ai < 0,
−a i i

y con esta variante resulta que ϕ(u0i , u0i ) = +1 si ai > 0, ϕ(u0i , u0i ) = −1 si
ai < 0. De este modo obtenemos una diagonal formada por +1’s y −1’s, y la
forma cuadrática se expresa:
q(x) = y12 + · · · + ys2 − ys+1
2
− · · · − yr2
17. Clasificación de formas bilineales 175

(reordenando la base para que primero estén los coeficientes positivos y con
un pequeño abuso de notación si s = 0). Para terminar este caso real debemos
mostrar que s es independiente de la base B que diagonaliza.
Para ello obsérvese que la forma cuadrática q es
(
> 0 en E> (B) : ys+1 = · · · = yn = 0, si y 6= 0, y
≤ 0 en E≤ (B) : y1 = · · · = ys = 0.

Supongamos que tenemos otra base B0 respecto de la cual la matriz D0 de ϕ


es diagonal con s0 coeficientes positivos seguidos de r − s0 negativos, y defi-
namos análogamente E> (B0 ) y E≤ (B0 ). Como q > 0 y q ≤ 0 son condiciones
complementarias, debe ser E> (B) ∩ E≤ (B0 ) = {0}, luego

n ≥ dim E> (B) + dim E≤ (B0 ) = s + (n − s0 ),


 

de modo que s0 ≥ s. Por lo mismo, E> (B0 ) ∩ E≤ (B) = {0}, y se deduce la otra
desigualdad s ≥ s0 . 
Acabamos de demostrar la denominada ley de inercia de Sylvester. El ente-
ro s se llama signatura de ϕ, y concluimos que el rango y la signatura clasifican
sobre R.

Observaciones 17.7 (1) Si E> es cualquier subespacio de E en el que ϕ es


> 0, podemos utilizarlo en el argumento anterior para concluir que dim(E> ) +
n − s ≤ n, luego dim(E> ) ≤ s. Por ejemplo, si hay algún vector con q(u) > 0,
necesariamente s ≥ 1. Utilizando −ϕ, se puede estimar de igual manera el
número de −1’s.
Esto es útil a veces para calcular signaturas sin esfuerzo. Por ejemplo si la
matriz de una forma bilineal es
 
2 1 3
1 0 4 ,
3 4 −8

se tiene r = 2, s ≥ 1 (ϕ(e1 , e1 ) = 2 > 0), y r − s ≥ 1 (ϕ(e3 , e3 ) = −8 < 0). En


suma, la signatura es 1.
(2) Es claro que si dos matrices simétricas reales son congruentes como ta-
les, entonces lo son también como matrices simétricas complejas. Sin embargo
el recı́proco no es cierto: el rango clasifica las complejas pero no las reales.
176 IV. Formas bilineales y formas cuadráticas

Ejemplos 17.8 (1) En el ejemplo IV.17.4, vol. 2, p. 170, diagonalizamos la


forma cuadrática
q(x) = 2x1 x2 + 4x1 x3 − 2x1 x4 + 6x2 x3 − x23 + 2x3 x4 + 2x24 .
de tres maneras distintas, para obtener tres resultados distintos:

2 2 2
 q(x) = −x1 + 12x2 + 132x3 − 462x4 ,

q(x) = −x21 + 9x22 − 13x23 + 455x24 ,

q(x) = 4x21 − 13 2 2 42 2
4 x2 − x3 + 13 x4 .

Estas tres formas cuadráticas son equivalentes, por supuesto, pero


sobre C son equivalentes a x21 + x22 + x23 + x24 (rango 4),
sobre R son equivalentes a x21 + x22 − x23 − x24 (rango 4 y signatura 2).
(2) Consideremos una vez más la forma bilineal ϕ(u, v) = f (u)g(v), donde
f, g ∈ E ∗ \ {0}, que tiene rango 1. Sabemos que es simétrica si y sólo si
f = αg, y en ese caso podemos diagonalizar: tomamos u1 ∈ E con f (u1 ) = 1,
y añadimos una base u2 , . . . , un de ker(f ), para obtener la expresión
q(x) = αx21 .
Esto da x21 sobre C, y ±x21 sobre R según α sea positivo o negativo.
Veamos qué hacer en el caso no simétrico. Si ϕ no es simétrica, entonces
los dos hiperplanos ker(f ) y ker(g) son distintos, luego su intersección V tiene
codimensión 2, y elegimos una base suya {u3 , . . . , un }. Por otra parte tomamos
u1 ∈ ker(g) \ ker(f ) y u2 ∈ ker(f ) \ ker(g) tales que f (u1 ) = 1, g(u2 ) = 1.
Entonces {u1 , . . . , un } es una base de E y ϕ(ui , uj ) = 0, excepto ϕ(u1 , u2 ) = 1.
Por tanto obtenemos las ecuaciones
ϕ(x, y) = x1 y2 , q(x) = x1 x2 .
1
Obsérvese que la forma bilineal φ(x, y) = 2 (x1 y2 + x2 y1 ) es la única forma
bilineal simétrica a la que está asociada q.
(3) Clasifiquemos la forma bilineal simétrica
Z b
ϕ(α(T ), β(T )) = α(t)β(t)dt,
a
α(T ), β(T ) ∈ R[T ] de grado ≤ d. Sabemos que tiene rango d + 1, y que
q(α(T )) > 0 para todo α(T ) 6= 0. Esto significa que la signatura es también
d + 1, y respecto de una base adecuada será:
q(x) = x20 + · · · + x2d . 
17. Clasificación de formas bilineales 177

Analizamos ahora las formas bilineales antisimétricas. La clasificación es


en cierto modo más sencilla que la de las simétricas.
(17.9) Formas bilineales antisimétricas. Sea ϕ : E × E → K una forma
bilineal antisimétrica; denotamos n = dim(E), r = rg(ϕ). Si n = 1, la forma
es nula, pues todos los vectores son isótropos. Suponemos pues n ≥ 2 y ϕ 6= 0,
de modo que podemos elegir dos vectores u, v tales que ϕ(u, v) 6= 0 (basta
buscar en cualquier matriz de ϕ un coeficiente ϕ(ui , uj ) 6= 0). Esto tiene las
siguientes consecuencias:
(1) Los dos vectores son independientes, con lo que generan un plano V =
L[u, v].
En efecto, si v = λu, entonces ϕ(u, v) = ϕ(u, λu) = λϕ(u, u) = 0.
(2) Las dos formas lineales ϕ(u, · ) y ϕ(v, · ) son independientes, con lo que
el conjugado V 0 : ϕ(u, · ) = ϕ(v, · ) = 0 tiene codimensión 2. En efecto, basta
observar que ambas definen hiperplanos diferentes: u ∈ ker ϕ(u, ·) \ ker ϕ(v, ·).
(3) Se cumple E = V ⊕ V 0 .
En efecto, como las dimensiones de V y V 0 son 2 y n − 2, basta ver que
V ∩ V 0 = {0}. Pero si λu + µv ∈ V 0 , entonces
(
0 = ϕ(u, λu + µv) = λϕ(u, u) + µϕ(u, v) = λ · 0 + µϕ(u, v) = µϕ(u, v),
0 = ϕ(v, λu + µv) = λϕ(v, u) + µϕ(v, v) = λϕ(v, u) + µ · 0 = λϕ(v, u),

y como ϕ(u, v) 6= 0, concluimos de la primera igualdad que µ = 0 y de la


segunda que λ = 0. 
De estas observaciones deducimos que la matriz de ϕ respecto de una base
B = {u, v, w, . . . } donde {w, . . . } sea una base de V 0 , es
   
0 ϕ(u, v) 0 ··· 0 0 −ϕ(v, u) 0 ··· 0
ϕ(v, u)
 0 0 ··· 0 
ϕ(v, u)
 0 0 ··· 0 
 0
 . 0 ∗ ··· ∗  =  0 0 ∗ ··· ∗  .
 .. .. .. ..   .
 .. .. .. .. 
. . .  . . . 
0 0 ∗ ··· ∗ 0 0 ∗ ··· ∗

1
Ahora bien, reemplazando u por u1 = ϕ(v,u) u, resulta:
(
1 1

ϕ(u1 , v) = ϕ ϕ(v,u) u, v = ϕ(v,u) ϕ(u, v) = −1,
1 1

ϕ(v, u1 ) = ϕ v, ϕ(v,u) u = ϕ(v,u) ϕ(v, u) = +1,
178 IV. Formas bilineales y formas cuadráticas

y la matriz respecto de la nueva base B1 = {u1 , v, w, . . . } es


 
0 −1 0 ··· 0

 1 0 0 ··· 0 

 0 0 ∗ ··· ∗ .
 .. .. .. .. 
 . . . . 
0 0 ∗ ··· ∗

Ahora consideramos la restricción de ϕ a V 0 , y repetimos el proceso. Se


termina cuando se obtiene una base de E, o cuando una restricción de ϕ es
idénticamente nula, en cuyo caso cualquier base del subespacio que se tenga
en ese momento completa la base de E. El resultado es que obtenemos una
base respecto de la cual la matriz de ϕ es del tipo:
0 −1
 
1 0 . 
 .. 
0 −1
 
.
 
1 0

 
0.
 
..
 
0

En coordenadas respecto de esta última base, tenemos:


p
X
ϕ(x, y) = (−x2i−1 y2i + x2i y2i−1 ), 2p = rg(ϕ).
i=1

De esto deducimos algunas consecuencias significativas:


(a) El rango de una forma bilineal antisimétrica es siempre par.
(b) Una forma bilineal antisimétrica en un espacio de dimensión impar es
siempre degenerada.
(c) El rango clasifica las formas bilineales antisimétricas. 

Ejemplos 17.10 (1) Entre los ejemplos de IV.16.2, vol. 2, p. 152, está la forma
bilineal antisimétrica

ϕ(x, y) = det A(x, y) , x, y ∈ Kn , n ≥ 2,




definida considerando variables en una matriz A cuadrada de orden n, dos de


sus filas. Ya sabemos que para que ϕ 6= 0 las demás filas deben ser indepen-
dientes; las denotaremos w3 , . . . , wn (si n = 2 no hay ninguna otra fila que
17. Clasificación de formas bilineales 179

considerar). Entonces elegimos otros dos vectores u, v ∈ Kn que formen con


los anteriores una base. Será a = ϕ(v, u) 6= 0, y si tomamos u1 = a1 u, la matriz
respecto de la base {u1 , v, w3 , . . . , wn } es
 
0 −1
1 0 
 0. .
 .. 
0

En efecto, det A(wi , y) = 0 para todo y ∈ Kn pues en ese determinante la




fila wi se repite.
Ésta es una ilustración del procedimiento general, con V = L[u, v] y V 0 =
L[w3 , . . . , wn ]. En este caso el proceso acaba con el primer paso.
(2) Sea ϕ la forma bilineal antisimétrica de K5 definida por
 
0 1 −1 2 0
−1 0 0 −3 1 
ϕ(x, y) = xM y t ,
 
 1 0 0 −1 1
M = .

−2 3 1 0 2 
0 −1 −1 −2 0

Busquemos una base respecto de la cual la matriz de ϕ sea del tipo descrito
en IV.17.9, vol. 2, p. 177. Empezamos por un par de vectores u, v tales que
ϕ(u, v) 6= 0. En este caso, vemos en la matriz que podemos tomar u = e1 , v =
e2 . Como ϕ(v, u) = −1, es u1 = −u = −e1 . Ası́ V = L[u1 , v] y su conjugado
es
(
0 0 = ϕ(u1 , x) = (−1, 0, 0, 0, 0)M xt = −x2 + x3 − 2x4 = 0,
V :
0 = ϕ(v, x) = (0, 1, 0, 0, 0)M xt = −x1 − 3x4 + x5 = 0.

Resolviendo este sistema de dos ecuaciones obtenemos una base de V 0 :

w1 = (0, 1, 1, 0, 0), w2 = (−3, −2, 0, 1, 0), w3 = (1, 0, 0, 0, 1).

Para seguir el proceso, buscamos dos vectores u0 , v 0 ∈ V 0 tales que ϕ(u0 , v 0 ) 6= 0.


Salvo que ϕ sea idénticamente nula en V 0 , podemos encontrarlos entre los wi .
Por ejemplo,

ϕ(w1 , w2 ) = (0, 1, 1, 0, 0)M (−3, −2, 0, 1, 0)t = −4,


180 IV. Formas bilineales y formas cuadráticas

y valen u0 = w1 , v 0 = w2 ; luego tomaremos u01 = 41 u0 . Ahora buscamos el


conjugado V 00 de L[u01 , v 0 ] en V 0 , esto es



 0 = ϕ(u1 , x) = −x2 + x3 − 2x4 = 0,

0 = ϕ(v, x) = −x − 3x + x = 0,
1 4 5
V 00 : 0


 0 = ϕ(u1 , x) = −4x4 + 2x5 = 0,
0 = ϕ(v 0 , x) = 4x = 0.

3

Las dos primeras ecuaciones dicen que x está en V 0 , las otras dos que está en
el conjugado de L[u01 , v 0 ]. Esas cuatro ecuaciones definen una recta generada
por cualquier solución no nula, por ejemplo w = (−1, −2, 0, 1, 2). Ası́ tenemos
la base buscada: B = {u, v, u0 , v 0 , w}, respecto de la cual la matriz de ϕ es
0 −1
 
1 0 
0 −1 .
 

 1 0 
0
Resultado que de antemano podı́amos pronosticar, pues rg(M ) = 4.

Ejercicios y problemas propuestos


Número 1. Dada la matriz 0 1
1 0 1
M =@0 2 2 A,
1 2 3
hallar una matriz regular C ∈ M3 (K) tal que C t M C sea una matriz diagonal.
Número 2. ¿Son congruentes como matrices reales las matrices
„ « „ «
1 0 1 0
A= y M= ?
0 1 0 −1
¿Lo son como matrices complejas?
Número 3. Sean E un espacio vectorial y ϕ : E × E → K una forma bilineal simétrica.
(1) Los vectores de E conjugados de todos los vectores del espacio constituyen un subes-
pacio vectorial denominado radical de ϕ, que se denota rad(ϕ). Demostrar que ϕ es dege-
nerada si y sólo si su radical es no nulo.
(2) Supongamos que dim E = 3 y que la matriz de ϕ respecto de una base B =
{u1 , u2 , u3 } de E es 0 1
1 −1 0
A = @−1 2 1 A .
0 1 1
17. Clasificación de formas bilineales 181

Consideramos los subespacios V1 = L[u1 + u2 ], V2 = L[u3 ], V = L[u1 + u2 , u3 ]. Encon-


trar bases de rad(ϕ) y de los subespacios conjugados V10 , V20 , V 0 . ¿Se cumple alguna de las
igualdades V100 = V1 , V200 = V2 , V 00 = V ?
Número 4. Sean A ∈ M4 (K) la matriz cuyo coeficiente de la fila i y la columna j es i − j
y M la matriz antisimétrica de orden 4 cuyo coeficiente de la fila i y la columna j, con i < j,
es i + j. Decidir si estas dos matrices son congruentes, y clasificarlas luego.
Número 5. Clasificar según los valores de t ∈ K la siguiente forma cuadrática de K3 :

qt (x, y, z) = x2 + 2txy + 2xz + y 2 + 2yz + tz 2 .

Número 6. Sea q : R4 → R la forma cuadrática

q(x) = −3x21 + 2x1 x2 − 2x1 x3 + 3x22 + 2x2 x3 + 4x2 x4 + 2x24 .

Clasificarla y determinar el subespacio vectorial que generan las soluciones de la ecuación


q(x) = 0.
Número 7. Clasificar la forma cuadrática de R4

(3α − 1)x21 + 4αx1 x4 − x22 + 4αx2 x3 + (3α − 1)x23 − x24 = 0

atendiendo a los valores del parámetro α ∈ R.


Número 8. Estudiar para qué valores del número real a, el polinomio

q(x, y, z) = 8x2 − 6xy + y 2 − 2xz + az 2

es diferencia de dos cuadrados de formas lineales. Para tales valores de a encontrar formas
lineales `1 y `2 tales que q(x, y, z) = `1 (x, y, z)`2 (x, y, z).
Número 9. Demostrar con todo detalle las afirmaciones de IV.17.2(4), vol. 2, p. 168, e
ilustrar con ejemplos el diferente comportamiento al respecto de las formas degeneradas y
las no degeneradas.
Número 10. Sean ϕ : E × E → K una forma bilineal simétrica no degenerada y V un
subespacio de E que no contiene vectores isótropos. Utilizar el conjugado de V para construir
una simetrı́a f de base V tal que

ϕ(f (u), f (v)) = ϕ(u, v).


Número 11. Demostrar que la signatura de una forma bilineal simétrica de un espacio
vectorial real es:
(1) La máxima dimensión de un subespacio sobre el que la forma cuadrática asociada es
> 0 (salvo por q(0) = 0).
(2) La mı́nima codimensión de un subespacio sobre el que la forma cuadrática asociada
es ≤ 0.


Número 12. Sea ϕ una forma cuadrática real de rango r y signatura s de un espacio
vectorial real E de tipo finito. Probar que máx{r − s, s} es la dimensión máxima de un
182 IV. Formas bilineales y formas cuadráticas

subespacio vectorial de E que no contiene vectores isótropos y que máx{r − s, s} es la


codimensión mı́nima de uno que consiste exclusivamente de ellos.
Número 13. Sean ϕ una forma bilineal simétrica de un espacio vectorial real de dimensión
≥ 2, y q la forma cuadrática asociada. Probar que si ϕ cambia de signo en E, entonces q
tiene vectores isótropos, (i) sin diagonalizar, y (ii) haciéndolo. ¿Qué se puede decir del rango
y la signatura en ese caso?


Número 14. Comparar el rango y la signatura de dos formas bilineales simétricas reales
que tienen los mismos vectores isótropos.


Número 15. Sean A y B dos matrices cuadradas regulares del mismo orden con coefi-
cientes complejos, no necesariamente simétricas. Demostrar que A y B son congruentes si y
sólo si los productos At A−1 y B t B −1 son semejantes.

18. Espacios vectoriales euclı́deos


En todo lo que sigue, E es un espacio vectorial real (K = R) de tipo finito,
digamos dim(E) = n. La clasificación de formas cuadráticas reales (IV.17.6,
vol. 2, p. 174) permite introducir condiciones de signo, y da lugar a la termi-
nologı́a siguiente.

Definición 18.1 Sean ϕ una forma bilineal simétrica de E y q la forma


cuadrática asociada. Decimos que ϕ (o que q) es semidefinida positiva (resp.
negativa) cuando q ≥ 0 (resp. q ≤ 0) en E, y decimos que ϕ es definida positiva
(resp. negativa) cuando q > 0 (resp. q < 0) en E \ {0}.

Estas condiciones se expresan muy fácilmente mediante el rango r ≤ n y


la signatura s ≤ r (en coordenadas adecuadas).
Semidefinida positiva, q ≥ 0: q(x) = x21 + · · · + x2r (s = r),
Semidefinida negativa, q ≤ 0: q(x) = −x21 − · · · − x2r (s = 0),
Definida positiva, q > 0: q(x) = x21 + · · · + x2n (s = r = n),
Definida negativa, q < 0: q(x) = −x21 − · · · − x2n (s = 0, r = n).

Definición 18.2 Un producto escalar en E es una forma bilineal simétrica ϕ


definida positiva. Se suele denotar
ϕ : E × E → R : (u, v) 7→ hu, vi.
La norma asociada a ϕ es la aplicación:
p
k · k : E → R : u 7→ kuk = hu, ui.
18. Espacios vectoriales euclı́deos 183

Un espacio vectorial euclı́deo es un espacio vectorial real de tipo finito E


equipado con un producto escalar.

La norma debe entenderse como una vara de medir longitudes de vectores. El


modelo estándar de espacio vectorial euclı́deo es Rn equipado con
qP el producto
Pn n 2
escalar hx, yi = i=1 xi yi . La norma correspondiente es kxk = i=1 xi .

Observaciones y Ejemplos 18.3 (1) El determinante de la matriz de un


producto escalar es positivo.
En efecto, dos matrices congruentes reales tienen determinantes del mismo
signo, y la matriz M de un producto escalar es congruente a la identidad.
Debe advertirse inmediatamente que el recı́proco no es válido: q(x1 , x2 ) =
−x21 − x22 es definida negativa y el determinante en este caso es +1.
(2) La observación anterior puede refinarse. Si M es la matriz de un pro-
ducto escalar, es positivo cualquier menor correspondiente a una submatriz
simétrica respecto de la diagonal, pues es el determinante de la matriz de la
forma restringida a cierto subespacio. 

En la lı́nea de los comentarios anteriores, se pueden caracterizar los pro-


ductos escalares mediante los menores principales de su matriz M , que son los
determinantes Sk de las submatrices cuadradas Mk de órdenes k = 1, . . . , n,
definidas por 1 ≤ i, j ≤ k. Con esta terminologı́a, se tiene el denominado
criterio de Sylvester:

Proposición 18.4 Sea ϕ una forma bilineal simétrica, y M su matriz respecto


de cierta base. Si todos los menores principales Sk de M son positivos, ϕ es
un producto escalar.

Demostración. Supongamos que M es la matriz de ϕ respecto de la base


B = {u1 , . . . , un }; denotamos Ek = L[u1 , . . . , uk ]. Vamos a ir reemplazando
los uk por otros vectores vk tales que Ek = L[v1 , . . . , vk ] y ϕ(vk , vk ) > 0, hasta
obtener una base {vi } que diagonalice ϕ. Esto probará el criterio.
Empezamos ese reemplazamiento para k = 1 tomando v1 = u1 puesto que
ϕ(u1 , u1 ) = m11 > 0. Llegados al paso k ≥ 1, ϕ es definida positiva en Ek ,
luego no tiene vectores isótropos. Por ello, existe vk+1 ∈ Ek+1 \ Ek conjugado
184 IV. Formas bilineales y formas cuadráticas

de u1 , . . . , uk . Calculemos ahora las matrices de la restricción de ϕ a Ek+1


respecto de: (i) la base {u1 , . . . , uk+1 } y (ii) la base {u1 , . . . , uk , vk+1 }. La
primera matriz es Mk+1 , y la segunda
 
Mk 0
,
0 ϕ(vk+1 , vk+1 )

Los determinantes de estas dos matrices son Sk+1 y ϕ(vk+1 , vk+1 )Sk , y deben
tener el mismo signo. Por hipótesis Sk y Sk+1 son positivos, luego efectivamente
ϕ(vk+1 , vk+1 ) > 0. Por construcción, los vi forman una base que diagonaliza
la forma bilineal. 

Observaciones y Ejemplos 18.5 (1) El criterio de Sylvester en dimensión


2 dice simplemente que una matriz
 
a b
M= tal que a > 0, ac − b2 > 0
b c

define una forma cuadrática q(x1 , x2 ) definida positiva.


La comprobación directa es interesante en este caso especial. Debe ser
q(x1 , x2 ) = ax21 + 2bx1 x2 + cx22 > 0 excepto para x1 = x2 = 0. Pero q(x1 , 0) =
ax21 > 0 si x1 6= 0, luego suponemos x2 6= 0 para poder escribir

p(t) = 1
x22
q(x1 , x2 ) = at2 + 2bt + c, con t = x1 /x2 ∈ R.

El discriminante de esta ecuación de segundo grado es b2 − ac < 0, luego


p(t) carece de soluciones reales. Por tanto, el signo de p(t) es el mismo pa-
ra cualquier t, y como a > 0, seguro que es positivo para t suficientemente
grande. 
(2) La forma bilineal simétrica
Z b
ϕ(α(T ), β(T )) = α(t)β(t)dt,
a

α(T ), β(T ) ∈ R[T ] de grado ≤ d, es un producto escalar, pues sabemos que


la forma cuadrática asociada es definida positiva (IV.17.8(3), vol. 2, p. 176); le
corresponde la norma s
Z b
kα(T )k = α(t)2 dt.
a
18. Espacios vectoriales euclı́deos 185

Para grado d = 1, la matriz de ϕ respecto de la base estándar {1, T } es


1 2 2
!
b−a 2 (b − a )
M= 1 2 2 ) 1 (b3 − a3 )
.
2 (b − a 3
1
El primer coeficiente es b − a > 0, y det(M ) = 12 (b − a)4 > 0. 

A partir de ahora, suponemos que E es un espacio vectorial euclı́deo, esto


es, hemos fijado un producto escalar ϕ = h· , ·i, y la forma cuadrática q y la
norma k · k correspondientes. Denotamos n = dim(E).
(18.6) Ortogonalidad. Para productos escalares la conjugación se deno-
mina ortogonalidad: dos vectores u, v son ortogonales cuando hu, vi = 0 y se
escribe u ⊥ v. El conjugado de un subespacio V ⊂ E se denomina ortogonal,
y se denota V ⊥ . La ortogonalidad asegura la independencia lineal.
(1) Si los vectores no nulos u1 , . . . , ud son ortogonales (dos a dos), enton-
ces son linealmente independientes. Por ejemplo, n vectores ortogonales de E
forman una base.
En efecto, si λ1 u1 + · · · + λd ud = 0, resulta:
DX E X
0= λi ui , uk = λi hui , uk i = λk huk , uk i,
i i

y como huk , uk i =
6 0 concluimos λk = 0. Por tanto, los ui son independientes.
(2) Para cada subespacio vectorial V ⊂ E se cumple
E = V ⊕ V ⊥.
En efecto, si v1 , . . . , vd , forman una base de V , entonces unas ecuaciones
independientes de V ⊥ son hv1 , ·i = · · · = hvd , ·i = 0, pues por ser h·, ·i no
degenerada, la forma polar es inyectiva. Por tanto, dim(V ⊥ ) = n − d, y la
descomposición en suma directa anterior se sigue si V ∩ V ⊥ = {0}. Pero esto
ocurre por no haber vectores isótropos.
(3) Por lo anterior, dim(V ⊥⊥ ) = n − dim(V ⊥ ) = n − (n − d) = d, y como
obviamente V ⊂ V ⊥⊥ , resulta que V = V ⊥⊥ .
(4) Ası́ vemos que el producto escalar asocia de modo unı́voco un suple-
mentario vectorial W = V ⊥ a cada subespacio V , y por tanto, una proyección
p : E = V ⊕ W → E : u = v + w 7→ v, que denominaremos proyección ortogo-
nal sobre V . La simetrı́a asociada u = v + w 7→ v − w se denomina ortogonal
respecto de V . 
186 IV. Formas bilineales y formas cuadráticas

A continuación, revisemos lo que sabemos del proceso de clasificación del


producto escalar h·, ·i = ϕ como forma bilineal simétrica.
(18.7) Bases ortogonales y bases ortonormales. (1) Por definición de
producto escalar, la signatura de ϕ es máxima, s = n = dim(E), y existen
bases B = {ui } respecto de las cuales la matriz de ϕ es diagonal, y con todos
los coeficientes de la diagonal positivos. Habida cuenta de cómo está definida
esa matriz, 
0 si i 6= j,
hui , uj i =
ai > 0 si i = j
(y la segunda condición es superflua, pues la forma cuadrática es definida posi-
tiva). Por tanto, los ui son mutuamente ortogonales. Tales bases se denominan
ortogonales.
(2) Pero sabemos que de hecho hay bases B = {ui } respecto de las cuales
la matriz de la forma bilineal es la identidad: Mϕ (B) = I. En otras palabras,
en coordenadas respecto de B el producto escalar se calcula como el estándar:
hx, yi = x1 y1 + · · · + xn yn . En particular,

0 si i 6= j,
hui , uj i = δij =
1 si i = j.
La segunda condición no p
es aquı́ superflua, pues dice que los vectores de la
base tienen norma kui k = hui , ui i = 1, es decir, son unitarios. Estas bases de
denominan ortonormales. Para hacer unitario un vector no nulo basta dividirlo
por su norma:
s s
u rD u u E hu, ui kuk2
= , = = =1


kuk kuk kuk kuk 2 kuk2
(que es como se obtiene una base ortonormal a partir de una ortogonal).
P
Observamos que las coordenadas de un vector u = i xi ui respecto de una
base ortonormal se expresan muy bien con el producto escalar:
P P P
hu, uj i = h i xi ui , uj i = i xi hui , uj i = i xi δij = xj .
(3) Dada una base ortonormal B, otra base B0 es también ortonormal si y
sólo si la matriz de cambio de base C = C(B0 , B) cumple que C t C = I (pues
por cambio de base I = Mϕ (B0 ) = C t Mϕ (B)C = C t IC = C t C).
Una matriz (regular) C tal que C t C = I, esto es, cuya inversa es su trans-
puesta, se denomina ortogonal. El determinante de tal matriz es ±1:
1 = det(I) = det(C t C) = det(C t ) det(C) = det(C)2 . 
18. Espacios vectoriales euclı́deos 187

Las bases ortonormales convierten la ortogonalidad en un problema que


entendemos muy bien: plantear y resolver sistemas de ecuaciones lineales.
(18.8) Bases ortonormales y ortogonalidad. Sea B una base ortonor-
mal de E, y consideremos coordenadas respecto de B. Recordemos que en
estas coordenadas el producto escalar se calcula como el estándar.
(1) Sea V ⊂ E un subespacio vectorial, descrito por unas ecuaciones
implı́citas Axt = 0, siendo A = (aij ) una matriz de orden m × n. Los vec-
tores v de V son aquéllos cuyas coordenadas x = (x1 , . . . , xn ) son solución del
sistema 
a x + · · · + a1n xn = 0,
 11 1


(∗) .. .. ..
 . . .

am1 x1 + · · · + amn xn = 0.

Si consideramos el vectores ui ∈ E cuyas coordenadas respecto de B forman


la fila (ai1 , . . . , ain ) de A, la ecuación i-ésima anterior se escribe hui , vi = 0, lo
que significa ui ⊥ v. En otras palabras:

V = L[u1 , . . . , um ]⊥ , y por ello V ⊥ = L[u1 , . . . , um ].

(2) Lo anterior dice también cómo calcular el complemento ortogonal de


un subespacio dado por unos generadores. Si W = L[u1 , . . . , um ], entonces (∗)
son unas ecuaciones implı́citas de W ⊥ .
(3) Analicemos el caso en que V es un hiperplano H. Entonces basta
una ecuación c1 x1 + · · · + cn xn = 0 para definir H, y su ortogonal es la recta
generada por el vector ϑ ∈ E de coordenadas (c1 , . . . , cn ), esto es, H ⊥ = L[ϑ].
También podemos tener una base de H, esto es H = L[u1 , . . . , un−1 ], y para
buscar ϑ hay que resolver el sistema (∗) correspondiente. Para ello se calcula
el determinante siguiente mediante la regla de Laplace por la primera fila:
 
x1 ··· xn
n
 a11 ··· a1n  X
det = xj ϑj = hv, ϑi,
 
.. ..
 . . 
i=1
an−1 1 ··· an−1 n

donde v es el vector cuya coordenada j-esima es xj , y ϑ es el vector cuya coor-


denada j-ésima ϑj es el adjunto con signo de xj en la matriz A. El vector ϑ no es
nulo, pues la matriz A tiene rango n−1 (los ui son independientes), luego tiene
algún menor ϑj no nulo. (Y recı́procamente, si se hace la construcción sin ser
188 IV. Formas bilineales y formas cuadráticas

los ui independientes, resulta ϑ = 0.) Por otra parte, u ∈ H = L[u1 , . . . , un−1 ]


si y sólo si el determinante es nulo, si y sólo si hu, ϑi = 0, esto es, u ⊥ ϑ. La
conclusión es que H ⊥ = L[ϑ].
(4) Aún más en particular, consideremos un plano H en un espacio euclı́deo
de dimensión 3. Acabamos de ver un procedimiento para calcular un vector
ϑ ortogonal a H a partir de dos vectores no nulos independientes u1 , u2 ∈ H:
debe reconocerse en él el denominado producto vectorial ϑ = u1 × u2 de los
dos vectores dados.
Este producto vectorial depende de la base ortonormal implicada. Por
ejemplo, usando la base estándar E = {e1 , e2 , e3 } obtenemos e1 × e2 = e3 ,
pero usando la base B = {e2 , e1 , e3 } resulta e1 × e2 = −e3 . Por supuesto,
ambos productos vectoriales son proporcionales, pues generan la recta L[e3 ]
ortogonal al plano L[e1 , e2 ]. 
Una vez visto el significado de las bases ortonormales, y aunque sabemos
que existen y ya tenemos un método para obtenerlas (diagonalizando la forma
bilineal simétrica que es todo producto escalar), es conveniente describir otro
alternativo, que al lector le deberá recordar la demostración del criterio de
Sylvester IV.18.4, vol. 2, p. 183:
(18.9) Método de Gram-Schmidt. Para producir una base ortonormal
B0 = {vi } a partir de una base cualquiera B = {ui } se procede según sigue.
(1) Como u1 puede no ser unitario, se toma v1 = u1 /ku1 k.
(2) Se busca w2 = λv1 + u2 (que ası́ será no nulo) ortogonal a v1 :

0 = hw2 , v1 i = hλv1 + u2 , v1 i = λhv1 , v1 i + hu2 , v1 i = λ + hu2 , v1 i,

luego λ = −hu2 , v1 i, y tomamos v2 = w2 /kw2 k.


(3) Se busca w3 = λv1 + µv2 + u3 (no nulo) ortogonal a v1 y a v2 :



 0 = hw3 , v1 i = hλv1 + µv2 + u3 , v1 i

 = λhv1 , v1 i + µhv2 , v1 i + hu3 , v1 i = λ + hu3 , v1 i,


 0 = hw3 , v2 i = hλv1 + µv2 + u3 , v2 i

 = λhv1 , v2 i + µhv2 , v2 i + hu3 , v2 i = µ + hu3 , v2 i,

luego λ = −hu3 , v1 i, µ = −hu3 , v2 i, y tomamos v3 = w3 /kw3 k.


Ya se ve que en general, es wk+1 = ki=1 λi k+1 vi +uk+1 , con cada coeficiente
P
λi k+1 = −huk+1 , vi i obtenido de la ortogonalidad de wk+1 y vi . Después se toma
18. Espacios vectoriales euclı́deos 189

vk+1 = wk+1 /kwk+1 k. Este procedimiento produce una base ortonormal, con
la condición adicional de que:

L[u1 , . . . , uk ] = L[v1 , . . . , vk ] para k = 1, . . . , n.

En efecto, la construcción garantiza el contenido del subespacio de la de-


recha en el de la izquierda, pero como los vi son ortogonales y no nulos,

dim(L[v1 , . . . , vk ]) = k = dim(L[u1 , . . . , uk ]),

y ese contenido debe ser una igualdad. 


Un poco de reflexión nos convence de que, como era de esperar, si la base
inicial es ortonormal, este procedimiento no la cambia. Más generalmente, si
los primeros r vectores ya son ortogonales, el proceso simplemente los hace
unitarios dividiéndolos por su norma. En particular, esto proporciona inme-
diatamente un teorema de prolongación ortogonal de la base.

Ejemplos 18.10 (1) En Rn con el producto escalar usual, consideramos la


base

B = {ui } = {(1, 0, . . . , 0), ..., (1, . . . , 1, 0, . . . , 0), . . . , (1, . . . , 1)},

y veamos qué base ortonormal {vi } obtendrı́amos por Gram-Schmidt. Obser-


vamos que
L[u1 , . . . , uk ] = L[e1 , . . . , ek ] para 1 ≤ k ≤ n
(basta escribir la matriz de coordenadas de los ui para darse cuenta). De
hecho, u1 = e1 , luego v1 = e1 . Por inducción, supongamos vi = ei para i ≤ k.
Observamos que
k
X
−ei + uk+1 = ek+1 ∈ L[e1 , . . . , ek ]⊥ ,
i=1

luego wk+1 = ek+1 y vk+1 = ek+1 . Es decir, la base ortonormal que proporciona
el método de Gram-Schmidt es la base estándar.
(2) Consideremos ahora el producto escalar
Z b
ϕ(α(T ), β(T )) = α(t)β(t)dt,
a
190 IV. Formas bilineales y formas cuadráticas

(de polinomios de R[T ] de grado ≤ d), y utilicemos el método de Gram-


Schmidt, en el caso a = 0 < 1 = b para aligerar los cálculos. Partimos de la
base estándar E = {ek = T k : 0 ≤ k ≤ d}, y en primer lugar tenemos
Z 1
2
ke0 k = h1, 1i = dt = 1, luego v0 = e0 = 1.
0

R 1 A continuación, consideramos w1 = −he1 , v0 iv0 + e1 . Como he1 , v0 i =


1
0 tdt = 2 , resulta w 1 = − 21 + T . Ahora calculamos la norma:
Z 1
2
kw1 k = (− 12 + t)2 dt = 12
1 1
, luego kw1 k = 2√ 3
,
0
√ √
y concluimos: v1 = w1 /kw1 k = − 3 + 2 3T. El siguiente cálculo es

w2 = −he2 , v0 iv0 − he2 , v1 iv1 + e2 = − 31 v0 − 63 v1 + e2
√ √ √
= − 13 − 63 (− 3 + 2 3T ) + T 2 = 61 − T + T 2 .

Ası́: Z 1
2
kw2 k = ( 16 − T + T 2 )2 dt = 1
180 , luego kw2 k = 1

6 5
,
0
√ √ √
y v2 = w2 /kw2 k = 5 − 6 5T + 6 5T 2 . Y ya no seguimos haciendo cálculos.
Este ejemplo muestra cómo una base que consideramos estándar puede
distar mucho de ser ortonormal. 

El producto escalar sirve para formular algunos resultados célebres:


(18.11) Propiedades notables. Las tres fundamentales son:
(1) kuk = 0 si y sólo si u = 0.
(2) kλuk = |λ|kuk para λ ∈ R.
(3) ku + vk ≤ kuk + kvk.
La primera propiedad deriva automáticamente de ser el producto escalar
una forma bilineal definida positiva, y la segunda es inmediata:
p p p
kλuk = hλu, λui = λ2 hu, ui = |λ| hu, ui = |λ|kuk.

Pero la tercera, denominada desigualdad triangular, contiene mucha informa-


ción interesante. Para desgranarla, empezaremos por el bien conocido teorema
de Pitágoras:
18. Espacios vectoriales euclı́deos 191

(4) ku + vk2 = kuk2 + kvk2 si y sólo si u ⊥ v u+v


v
(pues ku + vk2 = kuk2 + 2hu, vi + kvk2 ). u

Visto esto, dados u y v arbitrarios, u 6= 0, busquemos λ 6= 0 tal que λu y


w = v − λu sean ortogonales:
0 = hλu, v − λui = λhu, vi − λ2 kuk2 , v
w
luego λ = hu, vi/kuk2 .
Pero el teorema de λu u
Pitágoras dice kvk = kλuk2 + kwk2 , y por
2

tanto,
kvk2 ≥ λ2 kuk2 = (hu, vi/kuk2 )2 kuk2 = hu, vi2 /kuk2 .
Es decir, obtenemos la desigualdad de Cauchy-Schwarz:
(5) |hu, vi| ≤ kukkvk.
(Nótese que la desigualdad es trivialmente cierta si u = 0). Obsérvese además
que la igualdad se da si y sólo si kwk = 0, esto es w = 0, o lo que es igual,
u = λv, es decir, u y v son proporcionales.
Ahora ya se sigue la desigualdad triangular:

ku + vk2 = hu + v, u + vi = hu, ui + 2hu, vi + hv, vi


≤ kuk2 + 2kukkvk + kvk2 = (kuk + kvk)2 . 
Si miramos la figura que nos ayudó a probar la desigualdad de Cauchy-
Schwarz, vemos un triángulo rectángulo; denotemos θ el ángulo que forman u
y v y supongamos θ ≤ 21 π (es decir λ ≥ 0). Por la trigonometrı́a elemental

kλuk λkuk hu, vi


cos θ = = = ,
kvk kvk kukkvk
y concluimos:
(6) hu, vi = kukkvk cos θ.
Esta fórmula nos dice cómo el producto escalar mide ángulos (lo mismo vale
para θ ≥ 12 π, pues entonces el coseno y λ son ≤ 0). Por ejemplo:
(i) Dada una recta L = L[u] y un subespacio V que no la contenga, se
considera la proyección ortogonal p sobre V , y medimos el ángulo que forman
el vector u y su proyección p(u). Por definición, este ángulo es el que forman
L y V.
192 IV. Formas bilineales y formas cuadráticas

(ii) Si H y H 0 son dos hiperplanos de E, sus complementos ortogonales


son dos rectas L[u] y L[u0 ], y medimos el ángulo que forman los vectores u y
u0 . Por definición, este ángulo es el que forman H y H 0 . 

Observaciones y Ejemplos 18.12 (1) Una forma equivalente y a menudo


útil de escribir la desigualdad triangular es: kuk − kvk ≤ ku − vk.
En efecto, por la simetrı́a podemos prescindir del valor absoluto, y entonces
basta observar que la desiguadad kuk − kvk ≤ ku − vk equivale a kuk ≤
ku − vk + kvk, y como u = (u − v) + v, ésa es una desigualdad triangular.
(2) Hay muchas propiedades elementales que se recuperan en este contexto
general. Por ejemplo, la ley del paralelogramo:
ku + vk2 + ku − vk2 = 2(kuk2 + kvk2 ).
Para obtenerla basta calcular explı́citamente el primer miembro, y cancelar
los productos +2hu, vi y −2hu, vi.
(3) Sea p : E → V la proyección ortogonal sobre un subespacio vectorial
V ⊂ E. Entonces v = p(u) ∈ V es el vector que minimiza la norma ku − vk
cuando v ∈ V . En efecto, para cualquier v 0 ∈ V , el vector v 0 − p(u) ∈ V es
ortogonal a u − p(u) ∈ V ⊥ , luego
ku − v 0 k2 = ku − p(u)k2 + kp(u) − v 0 k2 ≥ ku − p(u)k2 .
(4) Aplicando la desigualdad de Cauchy-Schwarz a los vectores u = (x, y, z)
y v = (y, z, x) de R3 obtenemos
xy + yz + xz ≤ x2 + y 2 + z 2 .
Tenemos una igualdad sólo cuando u y v son proporcionales, esto es, existe
λ ∈ R tal que 
2 3
x = λy = λ z = λ x,

y = λz = λ2 x = λ3 y,

z = λx = λ2 y = λ3 z.

Si alguna de las coordenadas es no nula, λ = 1, y concluimos que la igualdad


se da sólo si x = y = z.
(5) Ahora consideramos u = (x1 , . . . , xn ) y v = (1, . . . , 1) en el espacio
euclı́deo estándar. La desigualdad de Cauchy-Schwarz dice que
(x1 + · · · + xn )2 ≤ n(x21 + · · · + x2n ),
18. Espacios vectoriales euclı́deos 193

que muestra que la media aritmética n1 i xi es menor o igual que la me-


P
qP
dia cuadrática 2
i xi /n. Además vemos que ambas medias coinciden si y
sólo si la desigualdad de Cauchy-Schwarz es una igualdad, si y sólo si u es
proporcional a v, si y sólo si x1 = · · · = xn .
(6) Escribamos la desigualdad de Cauchy-Schwarz para el producto escalar
de polinomios definido por una integral:
s s
Z b Z b Z b
α(t)β(t)dt ≤ 2
α(t) dt β(t)2 dt,
a a a

que es una famosa desigualdad integral. 

Ejercicios y problemas propuestos


Número 1. Sea A ∈ Mn (R) una matriz de rango r.
(1) Demostrar que la matriz At A define una forma cuadrática semidefinida positiva de
rango r.
(2) Deducir que la matriz M = In + At A define un producto escalar.
(3) Aplicar (2) para mostrar que en el caso K = R el sistema del ejercicio 11 de la lección
I.3, vol. 1, p. 43, nunca es compatible indeterminado.
(4) Encontrar un ejemplo de que (3) no vale para K = C.
Número 2. Sea f = (f1 , . . . , f5 ) : Rn P
→ R5 una aplicación lineal suprayectiva. Se conside-
ra la forma bilineal simétrica ϕ(x, y) = i fi (x)fi (y). Calcular n sabiendo que la signatura
de ϕ coincide con la dimensión del núcleo de f .
Número 3. Sean A ∈ Mn (R) una matriz simétrica y b = (b1 , . . . , bn ) ∈ Rn . Demostrar
que el sistema de ecuaciones lineales Axt = bt tiene solución si y sólo si el vector b es ortogonal
a todos los vectores y ∈ Rn que son solución del sistema homogéneo Axt = 0.
Número 4. Demostrar el teorema del coseno: en un espacio euclı́deo E, para cualesquiera
u, v ∈ E se cumple
ku − vk2 = kuk2 + kvk2 − 2kukkvk cos(u, v).

Número 5. Consideramos en R4 el producto escalar estándar. Proyectar ortogonalmente


el vector (1, 1, 1, 1) sobre el subespacio V : x − y + z − 2t = y + z = 0, y sobre su complemento
ortogonal V ⊥ .
Número 6. Demostrar que el producto vectorial cumple la siguiente igualdad:

ku × vk2 = kuk2 kvk2 − hu, vi2 .


194 IV. Formas bilineales y formas cuadráticas

Deducir que el producto vectorial no depende de la base salvo producto por ±1, y que esta
ambigüedad se resuelve mediante la condición de signo

det{u × v, u, v} > 0.

Número 7. Demostrar la siguiente propiedad del producto vectorial:

u × (v × w) = hu, wiv − hu, viw.

¿Es este producto asociativo?


Número 8. Sean E un espacio vectorial euclı́deo de dimensión 3, L la recta generada por
un vector ϑ y W = L⊥ . Mostrar que para cada vector u ∈ E la descomposición ortogonal
u = v + w, v ∈ L, w ∈ W está dada por
1 1
v= kϑk2
hϑ, uiϑ, w= kϑk2
ϑ × (u × ϑ).

Número 9. Demostrar la identidad de Jacobi del producto vectorial:

u × (v × w) + w × (u × v) + v × (w × u) = 0.

 Número 10. Sean v1 , v2 , w1 , w2 ∈ R3 vectores no nulos tales que v1 × v2 6= 0.


(1) Demostrar que existen vectores u ∈ R3 tales que v1 × u = w1 si y sólo si hv1 , w1 i = 0.
En tal caso, ¿cuáles son todos esos vectores u?
n v ×u=w ,
1 1
(2) Estudiar cuándo el sistema tiene soluciones, y cuántas.
v 2 × u = w2 ,

 Número 11. Demostrar que el subconjunto X de R3 definido por las ecuaciones

3(x2 + y 2 + z 2 ) = 1, x2 y 2 + x2 z 2 + y 2 z 2 = xyz(x + y + z)3

es finito, y obtener la lista de sus elementos.

 Número 12. La Universidad organiza una fiesta, al comienzo del curso académico, a la
que están invitados todos los estudiantes del programa Erasmus. En ella, dos de un mismo
paı́s no se saludan, pues ya se conocen, mientras que dos de paı́ses distintos pueden saludarse
o no, pero en el primer caso una única vez. A la fiesta asisten, en total, m estudiantes de
n paı́ses diferentes. Demostrar que el número total de saludos no excede de 2n 1
m2 (n − 1).
¿Qué ha de suceder para que se alcance ese valor máximo?
Número 13. Sea Sn (R) el espacio vectorial formado por las matrices simétricas de orden
n > 1 con coeficientes reales, e I la matriz identidad de orden n.
(1) Comprobar que

h·, ·i : Sn (R) × Sn (R) → R : (A, B) 7→ tr(AB)

es una forma bilineal simétrica definida positiva.


(2) Mostrar que para cada matriz simétrica A ∈ Sn (R) es tr(A)2 ≤ n tr(A2 ), y que la
igualdad se da si y sólo si A = aI para cierto número real a.
19. Endomorfismos de espacios vectoriales euclı́deos 195

(3)] Calcular el rango y la signatura de la forma bilineal simétrica

ϕ : Sn (R) × Sn (R) → R : (A, B) 7→ tr(A) tr(B) − n tr(AB).

¿Para qué valores de n el rango de ϕ es 104?


Número 14. (1) Obtener una base ortonormal de R4 que contenga un número máximo
de vectores del hiperplano H cuya ecuación implı́cita respecto de la base estándar E4 =
{e1 , e2 , e3 , e4 } es x1 + x4 = x2 + x3 .
(2) Calcular el mı́nimo de las longitudes de las proyecciones ortogonales sobre H de los
vectores unitarios que forman ángulo de 60o con los vectores e1 y e2 , y los vectores para los
que se alcanza ese mı́nimo.


Número 15. Una norma en un espacio vectorial real E es una aplicación k · k : E → R
que cumple las tres propiedades (1), (2) y (3) de IV.18.11, vol. 2, p. 190. Demostrar que si
además cumple la ley del paralelogramo (IV.18.12(2), vol. 2, p. 192), entonces es la norma
asociada a un producto escalar de E.

19. Endomorfismos de espacios vectoriales


euclı́deos
Como en la lección anterior, sea E un espacio euclı́deo, es decir, un espa-
cio vectorial real de tipo finito equipado con un producto escalar ϕ = h·, ·i,
y su norma k · k. Vamos a estudiar los endomorfismos de E que tienen un
comportamiento especial respecto del producto escalar. En primer lugar:

Definición 19.1 Un endomorfismo ortogonal de E es un isomorfismo lineal


σ : E → E que conserva el producto escalar:

hσ(u), σ(v)i = hu, vi para cualesquiera u, v ∈ E.

Es claro que si se conserva el producto escalar, también se conserva la


norma (kσ(u)k = kuk) y la ortogonalidad (σ(u) ⊥ σ(v) si u ⊥ v).

Observaciones 19.2 (1) Una aplicación σ : E → E que conserva el producto


escalar es de hecho un isomorfismo lineal, luego un endomorfismo ortogonal.
En efecto, debemos ver primero la linealidad:

σ(λu) = λσ(u) y σ(u + v) = σ(u) + σ(v).


196 IV. Formas bilineales y formas cuadráticas

Pero
kσ(λu) − λσ(u)k2 = kσ(λu)k2 − 2hσ(λu), λσ(u)i + kλσ(u)k2
= kλuk2 − 2λhσ(λu), σ(u)i + λ2 kσ(u)k2
= λ2 kuk2 − 2λhλu, ui + λ2 kuk2 = 0,

de donde se sigue la primera igualdad. Para la segunda se comprueba análo-


gamente que
kσ(u + v) − σ(u) − σ(v)k2 = 0.

Queda ver que σ es biyectiva, lo que como E es de tipo finito se sigue de


que es inyectiva: si σ(u) = 0, es kuk = kσ(u)k = 0, luego u = 0.
(2) Por otra parte, un endomorfismo σ : E → E que conserva la norma es
ortogonal. En efecto, tenemos:
(
hu, vi = 12 ku + vk2 − kuk2 − kvk2 ,


hσ(u), σ(v)i = 12 kσ(u) + σ(v)k2 − kσ(u)k2 − kσ(v)k2 .




Como σ es lineal, σ(u)+σ(v) = σ(u+v), y ası́ la igualdad de los dos productos


escalares se sigue de la conservación de la norma.
En realidad, basta con que se conserve la norma cuando la norma es 1.
En efecto, en ese caso se conservan todas las normas: para u 6= 0 escribimos
u = λv, con λ = kuk > 0 y kvk = 1, y resulta

kσ(u)k = kσ(λv)k = kλσ(v)k = λkvk = λ = kuk.

(3) Para cualquier subespacio vectorial V ⊂ E se tiene σ(V )⊥ = σ(V ⊥ ).


En efecto, si dim(E) = n y puesto que σ es isomorfismo, ambos subespacios
tienen igual dimensión:

dim(σ(V )⊥ ) = n − dim(σ(V )) = n − dim(V ) = dim(V ⊥ ) = dim(σ(V ⊥ )),

luego es suficiente probar la inclusión σ(V ⊥ ) ⊂ σ(V )⊥ . Pero dados u ∈ V ⊥ y


v ∈ V resulta hσ(u), σ(v)i = hu, vi = 0.
(4) Hay que advertir finalmente, que conservar la ortogonalidad no basta
para ser ortogonal, aunque casi. En efecto, esa condición caracteriza los en-
domorfismos proporcionales a los ortogonales, que se denominan semejanzas
vectoriales.
19. Endomorfismos de espacios vectoriales euclı́deos 197

Para verlo, sea f un endomorfismo no nulo de E tal que u ⊥ v implica


f (u) ⊥ f (v). Entonces si u y v son dos vectores con norma 1, tenemos
hu + v, u − vi = kuk2 − kvk2 = 1 − 1 = 0,
y por hipótesis
0 = hf (u + v), f (u − v)i = hf (u) + f (v), f (u) − f (v)i = kf (u)k2 − kf (v)k2 .
Ası́, todos los vectores de norma 1 se transforman en vectores de la misma
norma, digamos α. Como f es no nulo, α 6= 0, y el endomorfismo σ = α1 f
conserva la norma de los vectores de norma 1, luego es ortogonal (por (2)). 

Ejemplos 19.3 (1) Las únicas homotecias λ IdE que son endomorfismos orto-
gonales son la identidad (λ = 1), y la simetrı́a central (λ = −1). En dimensión
1, éstos son los dos únicos endomorfismos ortogonales.
(2) Las simetrı́as ortogonales son, como era de esperar, endomorfismos
ortogonales. Sea σ : E → E una de ellas, respecto digamos un subespacio V .
Entonces si u = v + w, v ∈ V , w ∈ W = V ⊥ tenemos, por el teorema de
Pitágoras,
kuk2 = kv + wk2 = kvk2 + kwk2 ,
kσ(u)k2 = kv − wk2 = kvk2 + kwk2 .
Por tanto σ conserva la norma. 
En realidad, la simetrı́a central es la simetrı́a respecto del subespacio menor
posible V = {0}, y como un exceso, podemos considerar la identidad como
la simetrı́a respecto del subespacio mayor V = E. Cuando V es una recta,
denominamos a la simetrı́a axial, y a V eje de simetrı́a. Cuando V es un
hiperplano, denominamos a la simetrı́a especular.

Denotaremos O(E) el conjunto de todas los endomorfismos ortogonales


de E. Este subconjunto de L(E, E) no es un subespacio vectorial (piénsese
en las homotecias). Sin embargo, O(E) es un grupo para la composición de
aplicaciones: la composición de endomorfismos ortogonales es ortogonal, y el
isomorfismo inverso de uno ortogonal también lo es. Ése es el denominado gru-
po ortogonal (de E), y su estudio es un asunto básico de la geometrı́a. Aquı́ nos
conformaremos con entender la forma de Jordan de estos endomorfismos. Usa-
remos para ello coordenadas, y en un espacio euclı́deo lo adecuado es utilizar
coordenadas respecto de bases ortonormales. A este respecto se tiene:
198 IV. Formas bilineales y formas cuadráticas

Proposición 19.4 Sean σ : E → E un isomorfismo lineal, y B = {ui } una


base ortonormal de E. Entonces σ es ortogonal si y sólo si se cumple una de
las dos condiciones siguientes (y por tanto las dos):

(1) La base B0 = {σ(ui )} es una base ortonormal.

(2) La matriz M = Mσ (B) de σ respecto de B es una matriz ortogonal.

En particular, el determinante de σ es ±1.

Demostración. Como σ es isomorfismo, transforma efectivamente la base B


en una base B0 ; dados vectores u, v ∈ E, denotaremos x, y sus coordenadas
respecto de B. Por otra parte, como M es la matriz del endomorfismo σ
respecto B, las coordenadas de σ(u), σ(v) respecto de B son (las columnas)
M xt , M y t . De este modo, por ser la base B ortonormal

hσ(u), σ(v)i = xM t M y t , hu, vi = xy t .

Mirando esto, vemos inmediatamente que σ es ortogonal si y sólo si M t M = I,


esto es, si y sólo si M es ortogonal.
En fin, observamos que M es también la matriz de cambio de base C =
C(B0 , B), de modo que B0 es ortonormal si y sólo si C = M es ortogonal
(IV.18.7(3), vol. 2, p. 186).
En fin, el determinante de un endomorfismo no depende de la base elegida,
y ya sabemos que una matriz ortogonal tiene determinante ±1. 
El resultado precedente establece una biyección entre endomorfismos or-
togonales y matrices ortogonales de orden n = dim(E). La colección de esas
matrices se denota O(n), y es un subgrupo del grupo lineal GL(n), denomi-
nado grupo ortogonal. Dicho esto, la biyección anterior es un isomorfismo de
grupos O(E) → O(n) (que depende de la base ortonormal B elegida).
(19.5) Orientación. Una primera observación es que los endomorfismos
ortogonales se reparten entre los que tienen determinante positivo (= +1) y
los que lo tienen negativo (= −1). Esta primera distinción se explica mediante
la noción de orientación. Aquı́ nos limitaremos a unas explicaciones mı́nimas
al respecto.
(1) Se dice que dos bases B y B0 de un espacio vectorial real (ahora no
necesariamente euclı́deo) E determinan la misma orientación si la matriz de
19. Endomorfismos de espacios vectoriales euclı́deos 199

cambio de base tiene determinante positivo. Ésta es una relación de equiva-


lencia (por las propiedades del cambio de base), y sólo tiene dos clases. En un
espacio vectorial arbitrario no hay ninguna base especial en la que fijarse, y
las dos clases de equivalencia son igualmente significativas. Por tanto, hay que
elegir explı́citamente una base para distinguir una clase, y esto es orientar E.
Hecha esa elección las bases de la clase de la elegida se denominan positivas,
y las de la otra, negativas.
En el espacio ordinario Rn sı́ hay una elección natural: la base estándar E,
y diremos que esta base determina la orientación estándar. En dimensiones 1,
2 y 3 esta elección es bien conocida, y se resume en las figuras siguientes:

e3 R3
2
R R

e1 e2 e2
0 0

e1
0 e1

En otras palabras, la recta R se orienta en la dirección del eje positivo, el


plano R2 se orienta contra-reloj, y el espacio R3 por la regla del sacacorchos.
(2) Se dice que un isomorfismo f de un espacio vectorial real (de nuevo no
necesariamente euclı́deo) E conserva la orientación, o que es directo, si una
base dada B = {u1 , . . . , un } y su imagen B0 = {f (u1 ), . . . , f (un )} determinan
la misma orientación; en caso contrario decimos que f invierte la orientación.
Como la matriz Mf (B) de f respecto de B es también la matriz de cambio de
base C(B0 , B), resulta que f conserva la orientación cuando su determinante
es positivo, y la invierte en otro caso; a veces abreviadamente se dice que f es
positivo o negativo según lo sea su determinante.
De este modo, el grupo lineal GL(E) de los isomorfismos de E (II.9.14(4),
vol. 2, p. 199) se divide en dos subconjuntos: GL+ (E), formado por los isomor-
fismos positivos y GL− (E), formado por los negativos. Multiplicando deter-
minantes vemos que GL+ (E) es un subgrupo de GL(E), que contiene a otro
subgrupo: el formado por los isomorfismos con determinante exactamente +1.
Éste último es el denominado grupo lineal especial, que se denota SL(E). En
cuanto a GL− (E), la misma multiplicación de determinantes muestra que no es
200 IV. Formas bilineales y formas cuadráticas

subgrupo; pero a cambio tenemos que GL− (E) = f ◦ GL+ (E), para cualquier
isomorfismo f que invierta la orientación.
Sea n = dim(E). Mediante cualquier base B de E, se identifica GL(E) con
GL(n) (II.9.18(5), vol. 1, p. 203), de manera que un isomorfismo f es positivo
si y sólo si el determinante de su matriz Mf (B) = C(f (B), B) es positivo.
Ası́, GL+ (E) se corresponde con el grupo GL+ (n) de las matrices reales re-
gulares que tienen determinante positivo, GL− (E) con el conjunto (no grupo)
GL− (n) de las que lo tienen negativo. Además, el grupo lineal especial SL(E)
se corresponde con el conjunto de las matrices con determinante +1, que es el
grupo lineal especial de las matrices reales de orden n, denotado SL(n).
(3) A partir de aquı́, E es, de nuevo, un espacio vectorial euclideo, y O(E)
su grupo ortogonal. Como en el grupo lineal, en el ortogonal hay dos subcon-
juntos, O+ (E) y O− (E), el primero formado por los endomorfismos ortogonales
positivos y el segundo por los negativos. Pero aquı́ determinante positivo signi-
fica +1 y negativo −1, por lo que O+ (E), que por supuesto es un subgrupo de
O(E), se llama grupo ortogonal especial , y se denota SO(E). Y por supuesto,
O− (E) no es subgrupo; nótese que siempre hay endomorfismos ortogonales que
invierten la orientación: por ejemplo, las simetrı́as especulares.
(4) Cada base ortonormal B induce un isomorfismo O(E) → O(n) que
obviamente conserva el determinante, y transporta a matrices ortogonales lo
que acabamos de decir. Ası́ en el grupo ortogonal O(n) tenemos el subgrupo
especial SO(n) = O+ (n) de las matrices ortogonales de determinante +1, y el
subconjunto O− (n) de las matrices ortogonales de determinante −1. Además,
O− (n) = M · O+ (n) para cualquier matriz M ∈ O− (n). 
A continuación determinamos la forma de Jordan de un endomorfismo
ortogonal aprovechando el producto escalar de E.
(19.6) Clasificación de endomorfismos ortogonales. Sea σ : E → E
un endomorfismo ortogonal. Debemos estudiar sus subespacios invariantes, y
vamos a ver cómo el producto escalar facilita la tarea enormemente.
(1) Si W es un subespacio invariante de σ, entonces W ⊥ también lo es:
σ(W ⊥ ) = σ(W )⊥ = W ⊥ .
(2) Sea λ ∈ R un autovalor de σ, es decir, una raı́z real de su polinomio
caracterı́stico. Entonces λ = ±1, pues si σ(u) = λu, resulta kuk = kσ(u)k =
kλuk = |λ|kuk, y como se conserva la norma, |λ| = 1. En esta situación, obte-
19. Endomorfismos de espacios vectoriales euclı́deos 201

nemos una recta invariante L = L[u], y podemos tomar u unitario, dividiéndolo


por su norma si es necesario.

(3) Sea λ = α − −1β ∈ C, con β > 0, una raı́z compleja no real del
polinomio caracterı́stico de σ. Entonces |λ|2 = α2 + β 2 = 1, y existe un
plano invariante W sin rectas invariantes, con una base ortonormal u, v tal
que σ(u) = αu + βv, σ(v) = −βu + αv.
En efecto, ya sabemos que esto se cumple (III.11.9(3), vol. 2, p. 12), pero sin
la condición de ortonormalidad. Ahora bien, aún sin eso, vemos que σ|W es un
endomorfismo ortogonal del plano invariante W , y su determinante det(σ|W ) =
α2 + β 2 > 0 debe ser +1, con lo que |λ| = 1. Para asegurarse de que la base
puede elegirse ortonormal, tomamos cualquier base ortonormal {u, v} de W ,
y denotamos  
a c
M=
b d
la matriz de σ|W respecto de esa base. Esa matriz debe ser ortogonal, luego
 2
a + b2 = c2 + d2 = 1,
 2
a + b2 = c2 + d2 = 1,
  
a b a c
=I
c d b d ac + bd = 0, c = ρb, d = −ρa,
 2 2
   
a + b = 1, a −b a b
M= o .
c = ∓b, d = ±a, b a b −a

Pero la segunda matriz tiene determinante negativo,


√ luego la matriz M debe
ser la primera, cuyos autovalores son λ = a ∓ −1b. Si de esta manera es
b > 0, hemos terminado; en otro caso basta tomar la base {−u, v}. 

Después de los preparativos anteriores, obtenemos un teorema de descom-


posición para endomorfismos ortogonales. El resultado es que para tales endo-
morfismos existen bases ortonormales respecto de las cuales sus matrices son
diagonales por cajas de tres tipos: (i) una matriz identidad de cierto orden p,
(ii) la opuesta de una matriz identidad de un orden q posiblemente distinto de
p, y (iii) cajas de orden 2 que son las matrices de ciertos giros. Por supuesto,
no siempre hay cajas de todos los tipos.

Proposición 19.7 Sea σ : E → E un endomorfismo ortogonal. Existe una


base ortonormal de E, respecto de la cual la matriz de σ es diagonal por cajas
202 IV. Formas bilineales y formas cuadráticas

de la forma siguiente:
 
1 p)
 ... 
1
 
+−1
 
 
 
. .q)
 
 
 . 
−1
+. . .
 
 
 
 
 

 αi −βi 

 βi αi 
..
.

con αi2 + βi2 = 1, βi > 0.

Demostración. En realidad, casi lo hemos probado ya. Se procede construyendo


la base ortogonal B paso a paso, aplicando (2) o (3) de IV.19.6, vol. 2, p. 200,
según se pueda. Ası́ se obtiene una recta o un plano invariantes, denotémoslo
W , junto con una base ortonormal suya, lo que proporciona el primer o los
dos primeros vectores de B. Entonces por (1), F = W ⊥ es invariante también,
y σ induce un endomorfismo ortogonal en F , al que se le vuelve a aplicar (2)
o (3). Se acaba obteniendo la base requerida. 
El resultado anterior clasifica rápidamente los endomorfismos ortogonales
de un espacio de dimensión 2 o 3. Como siempre tenemos la identidad y la
simetrı́a central, damos éstas por contadas, y describimos las demás.
(19.8) Endomorfismos ortogonales del plano euclı́deo. Sean E un
espacio euclı́deo de dimensión 2, y σ un endomorfismo ortogonal de E (ni la
identidad ni la simetrı́a central). Respecto de una base ortonormal adecuada,
σ tendrá una de las siguientes matrices:
   
1 0 α −β
, (α2 + β 2 = 1, β > 0).
0 −1 β α

Antes de proseguir ya observamos que los dos tipos se distinguen porque el


primero invierte la orientación y el segundo la conserva.
(1) La primera matriz dice que el endomorfismo tiene dos rectas invariantes
ortogonales, en una induce la identidad, y en la otra la simetrı́a. Por tanto σ
es la simetrı́a axial y su eje es la recta de autovectores del autovalor 1.
19. Endomorfismos de espacios vectoriales euclı́deos 203

u
W (−1) = W (1)⊥

W (1)

σ(u)

(2) La segunda matriz muestra que no hay rectas invariantes, y el endo-


morfismo se denomina giro. Para explicar este nombre comprobemos explı́ci-
tamente que σ(u) se obtiene girando u un cierto ángulo θ, determinado por
las condiciones α = cos θ, β = sen θ, según ilustra la figura.
σ(u)

ρ ρ sen(a + θ)

ρ u
θ ρ sen a
a
ρ cos a
ρ cos(a + θ)

Las coordenadas de u respecto de la base ortonormal que se tenga serán


(x, y) = (ρ cos a, ρ sen a) con ρ = k(x, y)k > 0. Se tiene
      
ρ cos(a + θ) ρ cos a cos θ − ρ sen a sen θ cos θ − sen θ ρ cos a
= =
ρ sen(a + θ) ρ sen a cos θ + ρ cos a sen θ sen θ cos θ ρ sen a
lo que justifica que llamemos a σ giro. Nótese que 2 cos θ = tr(σ), lo que
permite calcular θ a partir de la matriz de σ respecto de cualquier base de E.
Conviene señalar aquı́ que por estar suponiendo β > 0, se excluye el giro
de ángulo π. Ahora bien, aún cuando ése es un giro legı́timo, se distingue de
los otros por tener rectas invariantes (de hecho todas). Por ello preferimos
considerar el giro de ángulo π como la simetrı́a central.

(19.9) Endomorfismos ortogonales del espacio euclı́deo. Sea E un


espacio euclı́deo de dimensión 3, y σ 6= ± Id un endomorfismo ortogonal. Res-
pecto de cierta base ortonormal, la matriz de σ será una de las siguientes:
       
1 0 0 1 0 0 1 0 0 −1 0 0
0 1 0 , 0 −1 0 , 0 α −β ,  0 α −β  (α2 +β 2 = 1, β > 0).
0 0 −1 0 0 −1 0 β α 0 β α
204 IV. Formas bilineales y formas cuadráticas

Observamos que dos tipos invierten la orientación, y dos la conservan. Ob-


servada esta primera distinción, caracterizamos cada tipo a continuación con
unas ilustraciones adecuadas y unos comentarios breves.

W (1)⊥ = W (−1) W (1)


v u
u σ(u)
w
W (1)
w v
−v

−v W (1)⊥ = W (−1)
σ(u)
Matriz (1) Matriz (2)

W (1) W (−1)

u w u w

σ(u)
v W (−1)⊥
θ
W (1)⊥
v σ(v)
θ −w
σ(v)

σ(u)
Matriz (3) Matriz (4)

(1) El primer endomorfismo es la identidad en un plano invariante, y la


simetrı́a central en la recta invariante ortogonal, por tanto, es una simetrı́a
especular, la simetrı́a ortogonal respecto del plano en cuestión (que es el plano
de autovectores del autovalor λ = 1). Este endomorfismo ortogonal invierte la
orientación. Es la figura (1).
(2) El segundo induce la identidad en una recta invariante y la simetrı́a
central en el plano invariante ortogonal, luego es la simetrı́a axial de eje la recta
de autovectores del autovalor λ = 1. En este caso la orientación se conserva.
Es la figura (2).
19. Endomorfismos de espacios vectoriales euclı́deos 205

(3) La tercera matriz corresponde a un endomorfismo que es la identidad


en su única recta invariante (correspondiente al autovalor 1), e induce un giro
en el plano invariante ortogonal (por la clasificación en dimensión 2), luego
lo que tenemos es una rotación axial con eje de rotación la recta invariante.
Se conserva la orientación. Es la figura (3). Como a2 + b2 = 1 y b > 0, existe
θ ∈ (0, π) tal que a = cos θ y b = sen θ. Este ángulo se llama ángulo de la
rotación σ y la igualdad 1 + 2 cos θ = tr(σ) permite calcular θ a partir de la
matriz de σ respecto de cualquier base de E.
(4) El endomorfismo cuarto (figura (4)), induce la simetrı́a central en su
única recta invariante y un giro en el plano ortogonal; invierte la orientación.
En este caso sólo podemos decir que es la composición de una rotación axial
con una simetrı́a especular, de modo que la dirección de la simetrı́a es el eje
de la rotación:
    
−1 0 0 −1 0 0 1 0 0
 0 α −β  =  0 1 0 0 α −β  .
0 β α 0 0 1 0 β α

De nuevo, la condición β > 0 excluye de las dos últimas discusiones el


ángulo π. Pero los endomorfismos ası́ olvidados ya han sido considerados antes:
una rotación de ángulo π es simplemente una simetrı́a axial, y una tal rotación
compuesta con la simetrı́a paralela al eje es la simetrı́a central. 
Analizados los endomorfismos ortogonales, dedicamos el resto de esta lec-
ción a otros endomorfismos especiales del espacio euclı́deo E, que resultarán
estrechamente vinculados a las formas bilineales simétricas:

Definición 19.10 Un endomorfismo f : E → E se denomina autoadjunto si


hf (u), vi = hu, f (v)i
para cualesquiera u, v ∈ E.

El resultado crucial es el denominado teorema espectral:

Proposición 19.11 Sea f : E → E un endomorfismo autoadjunto. Entonces


E tiene una base ortonormal formada por autovectores de f .

Demostración. Primero probaremos tres afirmaciones independientes.


(1) Todas las raı́ces del polinomio caracterı́stico de f son reales.
206 IV. Formas bilineales y formas cuadráticas

Por III.11.9(3), vol.√


2, p. 12, si el polinomio caracterı́stico de f tiene alguna
raı́z compleja λ = α + −1β, β 6= 0, entonces f tiene un plano invariante sin
rectas invariantes. En ese plano habrá una base {u, v} tal que
(  
f (u) = αu + βv, α −β
según corresponde a una caja ,
f (v) = −βu + αv, β α
(
hf (u), vi = hαu + βv, vi = αhu, vi + βhv, vi,
y deducimos
hu, f (v)i = hu, −βu + αvi = −βhu, ui + αhu, vi.
Como f es autoadjunto, restando las dos igualdades obtenemos

0 = β(hu, ui + hv, vi) = β(kuk2 + kvk2 ),

lo que es imposible pues β 6= 0, u 6= 0, v 6= 0.


(2) Para cada autovalor λ ∈ R de f la cadena de subespacios invariantes
Ni (λ) se estabiliza en el primer paso: N (λ) = W (λ).
En efecto, se deduce inmediatamente de serlo f que f − λ IdE es también
autoadjunto, luego

hu, (f − λ IdE )2 (u)i = h(f − λ IdE )(u), (f − λ IdE )(u)i = k(f − λ IdE )(u)k2 .

De aquı́ se sigue (2): si u ∈ N2 (λ), es (f − λ IdE )2 (u) = 0, y por lo que


acabamos de escribir, (f − λ IdE )(u) = 0, esto es, u ∈ N1 (λ).
(3) Si u, v ∈ E son autovectores correspondientes a autovalores distintos,
entonces u ⊥ v.
Supongamos f (u) = λu y f (v) = µv con λ 6= µ. Entonces
(
hf (u), vi = hλu, vi = λhu, vi,
hu, f (v)i = hu, µvi = µhu, vi.

Los primeros miembros son iguales, por ser f autoadjunto, luego son iguales
los segundos miembros. Como λ 6= µ, necesariamente hu, vi = 0.
Probados estos tres hechos, procedemos como sigue. En primer lugar, ele-
gimos en cada subespacio propio W (λ) una base ortonormal Bλ (pues siempre
existen talesL
bases). Ahora, por
S (1) y (2), el teorema de descomposición se
escribe E = λ W (λ), y B = λ Bλ es una base de E. Obviamente, todos los
vectores de B son unitarios, y los de cada Bλ mutuamente ortogonales. Pero
19. Endomorfismos de espacios vectoriales euclı́deos 207

por (3), también son ortogonales un vector de Bλ y otro de Bµ . No hay que


añadir más. 
Para aplicar el teorema espectral al estudio de las formas bilineales simétri-
cas hace falta observar lo siguiente:

Proposición 19.12 Sea B una base ortonormal de E. Un endomorfismo f


de E es autoadjunto si y sólo si su matriz respecto de B es simétrica.

Demostración. Denotamos x, y, x0 , y 0 las coordenadas respecto de B de los


vectores u, v, f (u), f (v), y denotamos M la matriz de f respecto de B. Como
B es ortonormal, la matriz del producto escalar respecto de ella es la identidad
I, y resulta: (
hf (u), vi = x0 Iy t = (xM t )Iy t = xM t y t ,
hu, f (v)i = xIy 0t = xI(M y t ) = xM y t .
Por tanto f es autoadjunto si y sólo si xM t y t = xM y t para cualesquiera
coordenadas x, y. Esto ocurre si y sólo si M = M t . 
Ahora podemos extraer dos consecuencias fundamentales sobre formas bi-
lineales simétricas, o si se quiere decir ası́, sobre matrices simétricas.

Proposición 19.13 Toda matriz simétrica M se puede diagonalizar simultá-


neamente por congruencia y semejanza, es decir, existe una matriz ortogonal
C tal que C −1 M C = C t M C es diagonal.

Demostración. Como M es simétrica, es la matriz respecto de la base orto-


normal estándar E, de un endomorfismo autoadjunto f : Rn → Rn del espacio
euclı́deo estándar. Por el teorema espectral, existe una base ortonormal B for-
mada por autovectores de f , luego la matriz M 0 de f respecto de B es diagonal.
En consecuencia, M 0 = C −1 M C, donde C = C(B, E). Pero esta matriz C de
cambio de bases ortonormales es ortogonal (IV.18.7, vol. 2, p. 186), esto es,
C −1 = C t . 

Ejemplos 19.14 (1) Apliquemos lo anterior a la matriz simétrica


 
1 0 1 0
 0 1 −2 0 
M =
 1 −2 5 0 ,

0 0 0 6
208 IV. Formas bilineales y formas cuadráticas

y encontremos una matriz ortogonal C tal que C t M C sea diagonal. Conside-


ramos que es la matriz de un endomorfismo f de R4 equipado con el producto
escalar estándar.
En primer lugar se calcula el polinomio caracterı́stico, y se obtiene P (T ) =
−T (1 − T )(6 − T )2 . Ahora calculamos los subespacios propios W (λ):

W (0) = L[(−1, 2, 1, 0)], W (1) = L[(2, 1, 0, 0)], W (6) = L[(1,−2, 5, 0), (0, 0, 0, 1)].

Para terminar necesitamos una base ortonormal de cada W (λ). En general,


en cada uno de ellos se utilizarı́a Gram-Schmidt, pero en este caso basta hacer
unitarios los vectores obtenidos, pues ya forman una base ortogonal:
√ √ √
k(−1, 2, 1, 0)k = 6, k(2, 1, 0, 0)k = 5, k(1,−2, 5, 0)k = 30, k(0, 0, 0, 1)k = 1,

con lo que los siguientes autovectores forman una base ortonormal:

√1 (−1, 2, 1, 0), √1 (2, 1, 0, 0), √1 (1, −2, 5, 0), (0, 0, 0, 1).


6 5 30

La matriz ortogonal C correspondiente es la que tiene por columnas las coorde-


nadas de estos cuatro vectores, y la matriz C t M C tiene por diagonal 0, 1, 6, 6.
(2) Además del procedimiento completo que acabamos de aplicar, cada
apartado de la Proposición IV.19.11, p. 205 tiene interés independiente. Por
ejemplo, P (T ) = −T 5 − 10T 4 − T 2 no puede ser polinomio caracterı́stico de
ninguna matriz real simétrica.
q
y = x3 + 10x2 + 1 qq
qqq q
qqq
qqqqqqqqqqqqqq qqqq
qqq qqqq qqq
qqqq qqq qqq
qqq qq qqqq
qqqqqqqqqqqqqqqqqq
qq
qqq qq
y=1
qqqe
q
qq

En efecto, supongamos que sı́ lo es. Entonces todas sus raı́ces serı́an reales,
y después de factorizar −T 2 , el polinomio T 3 + 10T 2 + 1 tendrı́a tres raı́ces
reales, evidentemente negativas. Pero la función y = x3 + 10x2 + 1 tiene dos
extremos locales, donde se anula su derivada y 0 = 3x2 + 20x, es decir, en
x = 0, − 20
3 . El primero es un mı́nimo local y = 1 > 0 y el segundo un máximo
local, luego la función tiene un único cero.
19. Endomorfismos de espacios vectoriales euclı́deos 209

(3) También la ortogonalidad es útil. Por ejemplo, ningún endomorfismo


de R3 con matriz simétrica (en coordenadas estándar) puede tener por subes-
pacios de autovectores la recta x + z = y = 0 y el plano x − 2y = 0: el vector
(1, 0, −1) de la primera no es ortogonal al vector (2, 1, 0) del segundo. 

Corolario 19.15 La signatura de una matriz simétrica es el número de sus


autovalores positivos (contados con multiplicidades).
En particular, dos matrices simétricas reales semejantes son congruentes.

Demostración. Por el resultado anterior, toda matriz simétrica M se puede


diagonalizar simultáneamente M 0 = C t M C = C −1 M C. Ası́, M y M 0 tienen
la misma signatura y el mismo polinomio caracterı́stico. Pero para una matriz
diagonal la afirmación del enunciado es inmediata. 
Una vez convertido el cálculo de la signatura en el recuento de raı́ces po-
sitivas del polinomio caracterı́stico, hay que recordar la Regla de Descartes
que nos permite calcular este número a partir de la colección de coeficientes
de dicho polinomio. Para enunciarla y demostrarla necesitamos introducir an-
tes nuevas notaciones. Dada una (n + 1)-upla a = (a0 , . . . , an ) de números
reales no nulos, definimos el número v(a) de variaciones de signo de a como
el cardinal del conjunto

{0 ≤ i ≤ n − 1 : ai ai+1 < 0}.

Si la (n + 1)-upla c = (c0 , . . . , cn ) contiene alguna coordenada nula se define


v(c) = v(a), donde a es la upla que resulta de eliminar los ceros en c y preservar
el orden de las restantes coodenadas. Ası́ por ejemplo,

v(1, 0, −1, 0, 0, 2, 0, 3) = v(1, −1, 2, 3) = 2.

Dado un polinomio no nulo

P (T ) = a0 T n + a1 T n−1 + · · · + an−1 T + an y a = (a0 , . . . , an )

denotamos v(P ) = v(a). El resultado anunciado es el siguiente.

Proposición 19.16 (Regla de Descartes) Sea P ∈ R[T ] tal que P (0) 6= 0


y que tiene tantas raı́ces reales, contadas con su multiplicidad, como su grado.
Entonces, el número n+ (P ) de raı́ces positivas de P , contadas con multiplici-
dad, coincide con v(P ).
210 IV. Formas bilineales y formas cuadráticas

Demostración. Es suficiente demostrar que n+ (P ) ≤ v(P ). En efecto, supon-


gamos esto probado. Entonces, el número n− (P ) de raı́ces negativas de P , que
son las raı́ces positivas del polinomio

Q(T ) = P (−T ) = (−1)n a0 T n + (−1)n−1 a1 T n−1 + · · · + (−1)an−1 T + an ,

contadas con multiplicidad, es menor o igual que v(Q) = v(b), donde

b = ((−1)n a0 , (−1)n−1 a1 , . . . , −an−1 , an ) = (b0 , . . . , bn ).

Nótese que bi = (−1)n−i ai , y por tanto bi bi+1 = (−1)2(n−i)−1 ai ai+1 = −ai ai+1 ,
luego una pareja de coeficientes consecutivos no nulos de a aportan una varia-
ción de signo si y sólo si no la aportan en b. Por tanto, v(P ) + v(Q) ≤ n.
En consecuencia, como suponemos ya probado que n+ (P ) ≤ v(P ), luego
n− (P ) ≤ v(Q), y por hipótesis n+ (P ) + n− (P ) = n, resulta

0 ≤ (v(P ) − n+ (P )) + (v(Q) − n− (P )) = (v(P ) + v(Q)) − (n+ (P ) + n− (P ))


= v(P ) + v(Q) − n ≤ 0,

y concluimos que n+ (P ) = v(P ) y n− (P ) = v(Q).


Se trata pues de probar la desigualdad n+ (P ) ≤ v(P ), y para ello la clave
es la siguiente observación.
(∗) Si u ∈ R es una raı́z positiva de P y denotamos F (T ) = P (T )/(T −u),
entonces v(F ) + 1 ≤ v(P ).
Supongamos esto ya probado y demostremos, por inducción sobre el grado
n del polinomio P , que n+ (P ) ≤ v(P ). Esto es obvio si P carece de raı́ces
positivas, en particular si n = 0. Si n ≥ 1 y P tiene una raı́z u > 0, por la
Regla de Ruffini existe un polinomio F ∈ R[T ] tal que P (T ) = (T − u)F (T ).
Como 0 6= P (0) = −uF (0) también F (0) es no nulo luego, por la hipótesis de
inducción, n+ (F ) ≤ v(F ). Ahora, se deduce de (∗) la desigualdad buscada:

n+ (P ) = 1 + n+ (F ) ≤ 1 + v(F ) ≤ v(P ).

Para terminar demostramos (∗).P Podemos suponer que P , y por tanto F , es


mónico, y escribimos F (T ) = nj=0 aj T n−j , donde a0 = 1, y por tanto,

n+1
X
P (T ) = (T − u)F (T ) = bj T n+1−j donde
j=0
19. Endomorfismos de espacios vectoriales euclı́deos 211

b0 = a0 = 1, bn+1 = −uan y bj+1 = aj+1 − uaj para 1 ≤ j ≤ n − 1.


Observamos que si 1 ≤ j ≤ n − 1 y aj aj+1 < 0 entonces, como u > 0,

bj+1 aj+1 = (aj+1 − uaj )aj+1 = a2j+1 − uaj aj+1 > 0,

esto es, los signos de bj+1 y aj+1 coinciden. Sea

S1 = {0 ≤ j ≤ n : aj < 0}.

Si S1 es vacı́o entonces v(F ) = 0, mientras que b0 bn+1 = −uan < 0, luego


v(P ) ≥ 1, y hemos concluido. Si S1 no es vacı́o, sea k = mı́n(S1 ). Entonces,
v(a0 , . . . , ak ) = 1 y, como ak−1 ak < 0, deducimos que bk < 0, mientras que
b0 = 1 > 0. En consecuencia, v(b0 , . . . , bk ) ≥ v(a0 , . . . , ak ). Consideremos
ahora el conjunto de ı́ndices

S2 = {k + 1 ≤ j ≤ n : aj > 0}.

Si S2 es vacı́o se tiene

v(a0 , . . . , an ) = v(a0 , . . . , ak ) = 1, mientras que bk bn+1 = −bk uan < 0,

y en consecuencia,

v(P ) = v(b0 , . . . , bn ) ≥ v(b0 , . . . , bk ) + 1


≥ v(a0 , . . . , ak ) + 1 = v(a0 , . . . , an ) + 1 = v(Q) + 1.

Si S2 no es vacı́o sea ` = mı́n(S2 ). Por un lado,

v(a0 , . . . , a` ) = v(a0 , . . . , ak ) + v(ak+1 , . . . , a` ) = 2,

mientras que, puesto que a`−1 a` < 0, el signo de b` coincide con el de a` > 0,
es decir, b` > 0. Esto implica, por ser bk < 0, que

v(b0 , . . . , b` ) = v(b0 , . . . , bk ) + v(bk+1 , . . . , b` ) ≥ 2 = v(a0 , . . . , a` ).

Se definen recurrentemente los conjuntos de ı́ndices S3 , . . . , Sm coleccionando


los ı́ndices j > ` tales que aj > 0,. . . , y ası́ sucesivamente. Necesariamente
algún Sm = ∅, y ya hemos visto cómo esto implica que v(P ) ≥ v(Q) + 1, lo
que concluye la demostración. 
212 IV. Formas bilineales y formas cuadráticas

Ejemplo 19.17 Usemos la regla de Descartes para calcular la signatura de


la forma cuadrática

q(x) = 2x1 x2 + 4x1 x3 − 2x1 x4 + 6x2 x3 − x23 + 2x3 x4 + 2x24

de IV.17.4, vol. 2, p. 170, y IV.17.8(1), vol. 2, p. 176. La matriz de q (respecto


de la base estándar) es  
0 1 2 −1
 1 0 3 0
M = .
 2 3 −1 1 
−1 0 1 2
que tiene por polinomio caracterı́stico

P (T ) = T 4 − T 3 − 18T 2 + 18T + 42.

Los signos de los coeficientes son (+, −, −, +, +), y contamos dos cambios de
signo, luego la signatura es 2 (como ya obtuvimos en el ejemplo IV.17.4, vol. 2,
p. 170). Ya se ve que esto depende sólo de calcular P (T ). Y a veces, ni siquiera,
pues la traza y el determinante pueden bastar. En este ejemplo tenemos:

P (T ) = T 4 − T 3 + aT 2 + bT + 42,

y la sucesión de signos (+, −, ?, ?, +). Esto ya garantiza dos cambios de signo, y


la única forma de que hubiera más es que fueran cuatro, pero la forma bilineal
no es definida positiva (ϕ(e3 , e3 ) = −1).

Ejercicios y problemas propuestos


Número 1. Se consideran las rectas de R3 de ecuaciones:

L1 : y = z = 0, L2 : x = 4y − 3z = 0, L3 : 3x + 5y = 3y + 4z = 0

y el plano W que contiene a L1 y L3 . Encontrar y clasificar todos los endomorfismos orto-


gonales del espacio euclı́deo estándar R3 que inducen la identidad en L2 y transforman L1
en L3 . Calcular para cada uno el ortogonal del transformado de W .
Número 2. Se considera en R3 (con el producto escalar estándar) el endomorfismo cuya
matriz respecto de la base estándar es
 √ √ 
2−2 2+2 1
4 − 4 2
 √ √ 
− 2+2 2−2
− 21 
 4 4 .

2
− 21 1
2 2
19. Endomorfismos de espacios vectoriales euclı́deos 213

Demostrar que es ortogonal y estudiar de qué tipo.


Número 3. En R3 con el producto escalar estándar, se pide:
(1) Obtener las ecuaciones de la simetrı́a ortogonal σ respecto del plano V : x+y −2z = 0.
(2) Clasificar el endomorfismo ortogonal τ de ecuaciones τ (x, y, z) = (z, x, y).
(3) Encontrar un plano W tal que la simetrı́a ortogonal σ 0 respecto de W cumpla τ =
0
σ ◦ σ.
Número 4. Sea B = {u1 , . . . , un } una base del espacio euclı́deo E. Demostrar que la ba-
se ortonormal B0 = {v1 , . . . , vn } producida por el método de Gram-Schmidt a partir de B
está caracterizada (entre las ortonormales) porque para cada k = 1, . . . , n, es L[u1 , . . . , uk ] =
L[v1 , . . . , vk ], y en ese espacio las bases {u1 , . . . , uk } y {v1 , . . . , vk } definen la misma orien-
tación.
Número 5. Obtener todos los endomorfismos ortogonales de R3 (con el producto escalar
estándar) que no son simetrı́as especulares, y transforman el plano V : x = 0 en el plano
W : y = 0, y recı́procamente. Clasificarlos.
Número 6. En un espacio euclı́deo E de dimensión 3 se consideran una recta L y el plano
ortogonal V = L⊥ . ¿Cómo se relacionan las simetrı́as ortogonales respecto de L y V ?
Número 7. Sea σ un endomorfismo de un espacio vectorial real euclı́deo E que cumple
hu + σ(u), u − σ(u)i = 0 para cada vector u ∈ E.
(1) Comprobar que σ es ortogonal.
(2) Suponemos ahora que existe un vector no nulo e ∈ E tal que σ(u) + u es proporcional
a e para cada u ∈ E. ¿Qué endomorfismo es σ?


Número 8. Sea f un endomorfismo de Rn cuya matriz respecto de la base estándar es
simétrica o antisimétrica. Demostrar que el ortogonal del núcleo de f es la imagen de f , y
deducir que cualquier potencia f k (k ≥ 2) tiene el mismo rango que f .
Número 9. (1) Determinar la matriz respecto de la base estándar de un endomorfismo
autoadjunto f de R3 tal que f (1, 0, 0) = (3, 2, 2), f (0, 1, 0) = (2, 2, 0) y tiene (2, −2, −1) por
autovector.
(2) Diagonalizar la forma cuadrática q de R3 cuya matriz respecto de la base estándar
es la matriz de f anteriormente determinada.
Número 10. Sea M una matriz simétrica real. ¿Cuándo son M y M k (k ≥ 2) congruentes?
Número 11. En lo que sigue, α es un número real en el intervalo [−1, 1]. Sea ϕα la forma
bilineal simétrica de R3 cuya matriz respecto de la base estándar es
0 1
−1 0 0
Aα = @ 0 1 1 + αA .
0 1+α 1

(1) Clasificar ϕα en función de α.


214 IV. Formas bilineales y formas cuadráticas

(2) Mostrar que si existe un isomorfismo f de R3 tal que la forma bilineal simétrica
ψα : R3 × R3 → R : (u, v) 7→ ϕα (f (u), f (v))
tiene rango 2, entonces el parámetro α es nulo.
(3) Encontrar una base ortonormal del espacio euclı́deo estándar R3 respecto de la cual
la matriz de ϕ0 (esto es, α = 0) sea diagonal.
(4) ¿Qué tipo de endomorfismo ortogonal de R3 transforma la base estándar en la base
ortonormal obtenida en el apartado anterior?
Número 12. Sean θ ∈ R y ϕθ la forma bilineal simétrica cuya matriz respecto de la base
estándar es 0 1
1 cos θ sen θ
Aθ = @ cos θ 1 0 A.
sen θ 0 1
Calcular el rango y la signatura de ϕθ y construir una base ortonormal de R3 respecto de la
cual la matriz de ϕθ sea diagonal.
Pn 2
Número 13. Consideramos números reales a1 , . . . , an tales que i=1 ai = 1. Sean I =
(δij ) la matriz identidad y A = (aij ) la matriz definida por aij = ai aj . Demostrar que la
matriz 2A − I es ortogonal. ¿Qué endomorfismo ortogonal de Rn define?
Número 14. Consideremos el espacio vectorial real E = Mn (R). Demostrar que la apli-
cación
h·, ·i : Mn (R) × Mn (R) → R : (A, B) 7→ tr(At B)
es un producto escalar en E, y estudiar para qué matrices M la aplicación: X 7→ M X es un
endomorfismo ortogonal de E.


Número 15. Utilizar la clasificación de endomorfismos ortogonales para clasificar por con-
gruencia las matrices reales ortogonales.

20. Formas sesquilineales


En los espacios vectoriales euclı́deos los productos escalares y las normas
están definidos mediante formas bilineales simétricas definidas positivas, lo
que carece de sentido en el caso complejo. Sin embargo, también en los espa-
cios vectoriales complejos son necesarias, y existen, las normas.
√ De hecho, ya
conocemos una: el módulo de un número complejo λ = α + −1β es
p
|λ| = α2 + β 2 .
Pero esta escritura utiliza el producto escalar estándar en el plano vectorial
real R2 ≡ C, y no es de naturaleza compleja. Para arreglar esto podemos
apelar a la conjugación de números complejos
√ √
λ = α + −1β 7→ λ = α − −1β,
20. Formas sesquilineales 215


y reescribir |λ| = λ · λ. A decir verdad esto resuelve bien el problema, pero
hace necesario rehacer toda la teorı́a desde la primera definición.
En toda la lección se utiliza repetidamente la conjugación de números com-
plejos. En realidad se utiliza también para matrices, entendiéndola del modo
más inmediato: la matriz conjugada M de una dada M se obtiene conjugando
todos sus coeficientes. Algunas propiedades inmediatas se utilizan sin mayor
explicación. Por ejemplo, si M es cuadrada, det(M ) = det(M ).
Sea E un espacio vectorial complejo (K = C) de tipo finito, dim(E) = n.
El nuevo punto de partida es:

Definiciones 20.1 Una forma sesquilineal de E es una aplicación

ϕ : E × E → C : (u, v) 7→ ϕ(u, v)

que es semilineal en la primera variable:

ϕ(λ1 u1 + λ2 u2 , v) = λ1 ϕ(u1 , v) + λ2 ϕ(u2 , v) (λ1 , λ2 ∈ C, u1 , u2 , v ∈ E),

y lineal en la segunda:

ϕ(u, µ1 v1 + µ2 v2 ) = µ1 ϕ(u, v1 ) + µ2 ϕ(u, v2 ) (µ1 , µ2 ∈ C, v1 , v2 , u ∈ E).

Semilinealidad y linealidad se expresan conjuntamente en la fórmula


p
X q
X  X
ϕ λi ui , µj vj = λi µj ϕ(ui , vj ),
i=1 j=1 i,j

para λi , µj ∈ C, ui , vj ∈ E. 
Las formas sesquilineales de E forman un espacio vectorial complejo.

A menudo se define forma sesquilineal imponiendo linealidad en la primera


variable y semilinealidad en la segunda. Nuestra elección tiene la virtud de
simplificar mucho la discusión, y antes que nosotros la han adoptado ya otros
autores.
A partir de aquı́ debemos ir revisando las lecciones anteriores, con modifi-
caciones casi siempre muy sencillas para que el desarrollo progrese. Lo haremos
sumariamente, deteniéndonos en los detalles que comporten una variación sig-
nificativa.
216 IV. Formas bilineales y formas cuadráticas

(20.2) Polares, rango y degeneración. Consideremos una forma sesqui-


lineal ϕ : E × E → C.
(1) Para cada v ∈ E la aplicación parcial ϕ( · , v) : E → C : u 7→ ϕ(u, v)
es semilineal, y la aplicación ϕ1 : v 7→ ϕ( · , v) no toma valores en L(E, C) =

E ∗ . En su lugar debemos considerar el espacio L(E, C) = E de las formas
semilineales en E (en el sentido mismo de IV.20.1, vol. 2, p. 215). Con este
cambio, tenemos la polar

ϕ1 : E → L(E, C) = E : v 7→ ϕ( · , v).

(2) Sin embargo, fijado u ∈ E, la aplicación ϕ(u, · ) : E → C : v 7→ ϕ(u, v) es


lineal, y tenemos la polar

ϕ2 : E → L(E, C) = E ∗ : u 7→ ϕ(u, · ).

(3) La deficiencia de linealidad (semilinealidad) de las construcciones an-


teriores se remedia equipando E con un producto por escalares diferente:

λ ? u = λu para λ ∈ C, u ∈ E;

el espacio vectorial resultante se denota E. Las notaciones son consistentes,


∗ ∗
pues su dual es L(E, C) = L(E, C) = E . De este modo ϕ1 : E → E y
ϕ2 : E → E ∗ son aplicaciones lineales, y de hecho isomorfismos. Resulta en
particular que el espacio de las formas sesquilineales de E tiene dimensión n2 .
(4) Las dos polares ϕ1 y ϕ2 tienen el mismo rango rg(ϕ1 ) = rg(ϕ2 ), que
es el rango rg(ϕ) de la forma sesquilineal. Como dim(E ∗ ) = dim(E), tenemos
rg(ϕ) ≤ dim(E). La igualdad se da cuando las polares ϕ1 y ϕ2 son suprayec-
tivas (equivalentemente, inyectivas o isomorfismos): se dice entonces que ϕ es
no degenerada; en otro caso se dice que ϕ es degenerada. 
Para formas sequilineales la permutación de variables presenta esta difi-
cultad: si (u, v) 7→ ϕ(u, v) es una forma sesquilineal, (u, v) 7→ ϕ(v, u) no lo
es, pues es lineal en la primera variable y semilineal en la segunda. En su lu-
gar debemos considerar ϕ∗ : (u, v) 7→ ϕ(v, u). Claramente ϕ∗∗ = ϕ. Ahora se
introducen las siguientes definiciones:

Definición 20.3 Una forma sesquilineal ϕ de E se llama

(1) hermı́tica cuando ϕ(u, v) = ϕ(v, u)(= ϕ∗ (u, v)) para cualesquiera vecto-
res u, v ∈ E.
20. Formas sesquilineales 217

(2) antihermı́tica cuando ϕ(u, v) = −ϕ(v, u)(= −ϕ∗ (u, v)) para cualesquiera
vectores u, v ∈ E.

√ ϕ(u, u) ∈ R;
Nótese que: (i) si ϕ es hermı́tica, ϕ(u, u) = ϕ(u, u), con lo que
(ii) si ϕ es antihermı́tica, ϕ(u, u) = −ϕ(u, u), luego ϕ(u, u) ∈ −1 R.
En consonancia con el caso bilineal, ocurre que toda forma sesquilineal ϕ
es suma (de una única manera) de una forma sesquilineal hermı́tica y de otra
antihermı́tica:
ϕ = 12 (ϕ + ϕ∗ ) + 21 (ϕ − ϕ∗ .


Pero en el caso complejo hay más, pues ϕ es hermı́tica si y sólo si −1ϕ es
antihermı́tica, y podemos escribir
(
√ φ1 = 21 (ϕ + ϕ∗ ),
ϕ = φ1 + −1φ2 ,
φ2 = 2√1−1 (ϕ − ϕ∗ ,


donde las dos formas φ1 , φ2 son hermı́ticas.


Sin embargo, lo anterior no es una descomposición del espacio de formas
sesquilineales en suma directa de subespacios, pues ni las formas hermı́ticas ni
las antihermı́ticas forman un subespacio: el producto por escalares complejos
no está bien definido para ninguna de ellas.
(20.4) Isotropı́a. Sea ϕ una forma sesquilineal (no nula). Un vector no
nulo u ∈ E es isótropo cuando ϕ(u, u) = 0, y anisótropo en otro caso.
Aquı́ procede observar que una forma sesquilineal (no nula) siempre tiene
vectores anisótropos. Para buscarlos se utiliza la igualdad

ϕ(u + v, u + v) = ϕ(u, u) + ϕ(u, v) + ϕ(v, u) + ϕ(v, v),

con dos vectores u, v tales que ϕ(u, v) + ϕ(v, u) 6= 0. Ésta es una estrategia
ganadora: si se tiene ϕ(u, v) 6= 0 y ϕ(u, v) + ϕ(v, u) = 0, entonces
√ √ √ √ √
ϕ(u, −1v) + ϕ( −1v, u) = −1ϕ(u, v) − −1ϕ(v, u) = 2 −1ϕ(u, v) 6= 0,

y se usa −1v en lugar de v. 
(20.5) Ecuaciones y matrices. Sean ϕ : E × E → C una forma ses-
quilineal, y B = {u1 , . . . , un } una base de E. Dados dos vectores u, v ∈ E
denotamos por x = (x1 , . . . , xn ) e y = (y1 , . . . , yn ) las coordenadas de u y v
respecto de B.
218 IV. Formas bilineales y formas cuadráticas

(1) Existe una única matriz M tal que para cualesquiera u, v ∈ E se tiene:
(∗) ϕ(u, v) = xM y t .
Los coeficientes de M son ϕ(ui , uj ) = ei M etj = mij . Ésta es la matriz de ϕ
respecto de la base B, y se denota Mϕ (B). La igualdad (∗) se llama ecuación
de ϕ respecto de la base dada; denotaremos ϕ(x, y) = xM y t . El rango de ϕ es
el rango de M . Las soluciones de la ecuación xM xt = 0 son (las coordenadas
respecto de B de) los vectores isótropos.
(2) Sea B0 otra base de E, y consideremos la matriz de cambio C =
C(B0 , B). Entonces la matriz de ϕ respecto de B0 es
t
M 0 = C ∗ M C, C∗ = C .
En el caso sesquilineal, esta relación entre M y M 0 sustituye a la congruencia,
propia del caso bilineal.
En particular, nótese que para los determinantes, tenemos
t
det(M 0 ) = det(C ∗ M C) = det(C ) det(M ) det(C)
= det(C t ) det(C) det(M ) = | det(C)|2 det(M ),
es decir, los dos determinantes son iguales salvo producto por un número real
positivo (atención: los determinantes son números complejos).
(3) En general, podemos definir para cualquier matriz A su conjugada
t
transpuesta A∗ = A , y se comprueba inmediatamente que (AB)∗ = B ∗ A∗ y
A∗∗ = A.
La conjugada traspuesta ya estaba oculta en la definición IV.20.3, vol. 2,
p. 216: si M es la matriz de una forma sesquilineal ϕ respecto de B, entonces
M ∗ es la de ϕ∗ .
(4) La aplicación : ϕ 7→ Mϕ (B) es una biyección entre formas sesquilinea-
les y matrices, y de hecho un isomorfismo de espacios vectoriales complejos.
Mediante esta biyección las formas sesquilineales hermı́ticas corresponden a
las matrices que coinciden con su conjugada transpuesta (M ∗ = M ), y las an-
tihermı́ticas a aquéllas cuya opuesta es su conjugada traspuesta (M ∗ = −M ).
Naturalmente, denominamos hermı́ticas a las matrices primeras, y antihermı́ti-
cas a las segundas. 
Ahora procede clasificar las formas sesquilineales, o más exactamente las
hermı́ticas y las antihermı́ticas.
20. Formas sesquilineales 219

(20.6) Clasificación de formas sesquilineales. Sea ϕ : E × E → C una


forma sesquilineal hermı́tica o antihermı́tica de rango r. Como es natural, (i)
dos vectores u, v ∈ E se denominan conjugados cuando ϕ(u, v) = 0, y (ii) el
conjugado de un subespacio vectorial V ⊂ E, es el subespacio V 0 ⊂ E formado
por los vectores de E conjugados de todos los de V . En estas definiciones el
orden de las variables no importa pues
ϕ(u, v) = ±ϕ(v, u),
y el primer miembro es nulo si y sólo si lo es el segundo.
La forma ϕ se clasifica descomponiendo el espacio como suma E = V ⊕ V 0
de un subespacio y su conjugado, a imitación del caso bilineal. De este modo
se prueba:
(1) Si ϕ es hermı́tica se elige un vector anisótropo u1 y se tiene E = L[u1 ]⊕
L[u1 ]0 . Después se sigue con L[u1 ]0 . Ası́ se obtiene una base B = {ui } respecto
de la cual la matriz M de ϕ es diagonal. Como ϕ es hermı́tica esa diagonal
esta formada por números reales: mii = ϕ(ui , ui ) ∈ R. Para simplificar más,
observamos que
ϕ(λui , λui ) = λλϕ(ui , ui ) = |λ|2 mii ,
luego podemos convertir mii en +1 o −1 según el signo que tenga. Al final,
obtenemos una matriz diagonal con s coeficientes +1, r − s coeficientes −1, y
n − r ceros. El entero s ≥ 0 no depende de la base, y se llama signatura de ϕ.
Como en el caso bilineal simétrico, ϕ queda clasificada ası́ por su rango y su
signatura.

(2) Si ϕ es antihermı́tica se procede igual, o mejor se√aplica (1) a −1ϕ,
que es hermı́tica. Al final se obtiene una diagonal con ± −1’s. 

La clasificación anterior da pie a usar condiciones de signo aún cuando el


cuerpo es el de los números complejos. En efecto, dada una forma sesquilineal
hermı́tica ϕ, en unas coordenadas adecuadas se tiene
ϕ(u, u) = x1 x1 + · · · + xs xs − xs+1 xs+1 − · · · − xr xr
= |x1 |2 + · · · + |xs |2 − |xs+1 |2 − · · · − |xr |2 ,
y podemos definir las condiciones ϕ(u, u) ≥ 0, ≤ 0, > 0, < 0. Explicitamos
sólo que ϕ se denomina definida positiva si tiene rango máximo e igual a su
signatura, esto es, si la ecuación anterior es
ϕ(u, u) = |x1 |2 + · · · + |xn |2 > 0 si u 6= 0.
220 IV. Formas bilineales y formas cuadráticas

Definición 20.7 Un producto hermı́tico en E es una forma sesquilineal hermı́-


tica ϕ definida positiva, y se denota

ϕ : E × E → C : (u, v) 7→ hu, vi.

La norma asociada a ϕ es la aplicación:


p
k · k : E → R : u 7→ kuk = hu, ui.

Un espacio vectorial hermı́tico es un espacio vectorial complejo de tipo finito


E equipado con un producto hermı́tico (y con la norma correspondiente).

El espacio vectorial Cn P se equipa salvo otra provisión con el producto


n n
pP
hermı́tico estándar: hx, yi = i=1 xi yi , cuya norma es: kxk = 2
i=1 |xi | .

Nótese que en un espacio hermı́tico no hay vectores isótropos.


(20.8) Ortogonalidad. Sea E un espacio vectorial hermı́tico.
(1) Dos vectores conjugados hu, vi = 0 se denominan ortogonales, y se
denota u ⊥ v. Vectores no nulos (mutuamente) ortogonales son independientes.
El conjugado de un subespacio V ⊂ E se llama ortogonal de V , y se denota
V ⊥ . Se tiene E = V ⊥ ⊕ V , y V = V ⊥⊥ .
(2) Por la misma definición de producto hermı́tico, existen bases B = {ui }
respecto de las cuales la matriz de ϕ es diagonal, y con todos los coeficientes de
la diagonal positivos; tales bases se denominan ortogonales. Un vector unitario
es un vector de norma 1, y todo vector se hace unitario dividiéndolo por su
norma. Ası́, haciendo unitario cada vector de una base ortogonal, se obtiene
otra base respecto de la cual la matriz de la forma bilineal es la identidad; una
base ası́ se denomina ortonormal. El método de Gram-Schmidt para obtener
bases ortonormales se aplica también en el caso hermı́tico.
(3) La matriz de cambio de base C = C(B0 , B) de dos bases ortonormales
B y B0 cumple que C ∗ C = I. Una matriz (regular) C tal que C ∗ C = I
se denomina unitaria. El determinante de una matriz unitaria es un número
complejo de módulo 1:
t
1 = det(I) = det(C ∗ C) = det(C ) det(C) = det(C) det(C) = | det(C)|2 . 

(20.9) Propiedades de la norma. Se cumplen las que justifican su nom-


bre:
20. Formas sesquilineales 221

(1) kuk = 0 si y sólo si u = 0.


(2) kλuk = |λ|kuk para λ ∈ C.
(3) ku + vk ≤ kuk + kvk.
La desigualdad triangular (3) se deduce de la desigualdad de Cauchy-
Schwarz:
|hu, vi| ≤ kukkvk,
cuya demostración incluimos pues en el caso hermı́tico no se puede adaptar la
dada anteriormente en el euclı́deo.
Podemos suponer que u, v no son nulos ni proporcionales, y dividiendo por
las normas, que kuk = kvk = 1. Ahora, para λ ∈ C, calculamos

0 < hλu − v, λu − vi = hλu, λui + hλu, −vi + h−v, λui + h−v, −vi
= λλhu, ui − λhu, vi − λhu, vi + hv, vi = λλ − λhu, vi − λhu, vi + 1.

Ahora hacemos λ = hu, vi, y resulta:

0 < −hu, vihu, vi + 1 = 1 − |hu, vi|2 ,

como se querı́a. Obsérvese que con la premisa de que u, v no son nulos ni


proporcionales obtenemos la desigualdad estricta. 
(20.10) Endomorfismos unitarios. Sea E un espacio hermı́tico.
(1) Un endomorfismo unitario de E es un isomorfismo lineal σ : E → E
que conserva el producto hermı́tico:

hσ(u), σ(v)i = hu, vi

para cualesquiera u, v ∈ E.
Los endomorfismos unitarios forman un grupo para la composición, de-
nominado grupo unitario (de E), y denotado U (E). Es un subconjunto de
L(E, E), pero no un subespacio. Las homotecias f = λ IdE que son endomor-
fismos unitarios son las de módulo |λ| = 1 (como se ve, hay más que en el caso
euclı́deo).
(2) Un endomorfismo es unitario si y sólo si transforma bases ortonormales
en bases ortonormales, lo que equivale a que su matriz M respecto de cualquier
base ortonormal sea unitaria: M ∗ M = I, y en particular su determinante
tendrá módulo 1. Los que tienen determinante exactamente igual a +1 forman
el denominado subgrupo especial unitario SU (E).
222 IV. Formas bilineales y formas cuadráticas

Ası́ tenemos una biyección entre endomorfismos unitarios y matrices uni-


tarias. La colección de esas matrices se denota U (n) (n = dim(E)), y es un
grupo con la multiplicación de matrices. Dicho esto, la biyección anterior es
un isomorfismo de grupos U (E) → U (n) (que depende de la base ortonor-
mal B elegida). Este isomorfismo conserva determinantes, luego transforma
SU (E) en el subgrupo especial SU (n) de las matrices unitarias de orden n y
determinante +1.
(3) Un endomorfismo unitario σ se diagonaliza mediante una base ortonor-
mal de E. Además los autovalores tienen todos módulo 1. 
(20.11) Endomorfismos autoadjuntos. Sea E un espacio vectorial her-
mı́tico. Un endomorfismo f : E → E se denomina autoadjunto cuando

hf (u), vi = hu, f (v)i

para cualesquiera u, v ∈ E.
(1) En este caso hermı́tico también se tiene un teorema espectral: para todo
endomorfismo autoadjunto f hay bases ortonormales formadas por autovecto-
res de f .
La demostración es la misma que en el caso euclı́deo. La única diferencia,
que es una simplificación, es cómo se ve que todos los autovalores λ de un
endomorfismo autoadjunto f son reales: si f (u) = λu, u 6= 0, entonces
(
hf (u), ui = hλu, ui = λhu, ui,
hu, f (u)i = hu, λui = λhu, ui,

y como f es autoadjunto y u 6= 0, se sigue λ = λ.


(2) Para reconocer un endomorfismo autoadjunto basta mirar su matriz M
respecto de una base ortonormal: debe ser hermı́tica, esto es M ∗ = M . Esto
permite reformular en forma matricial el teorema espectral anterior: para toda
matriz hermı́tica M existen matrices unitarias C tales que M 0 = C −1 M C es
diagonal.
En ese caso, C −1 = C ∗ , con lo que M y M 0 son, además de semejantes,
equivalentes como matrices de formas sesquilineales hermı́ticas. Nótese que
M 0 es hermı́tica y diagonal, luego es una matriz con coeficientes reales. Con-
cluimos, por tanto, que la signatura de M es el número de sus autovalores
positivos.
20. Formas sesquilineales 223

(3) Finalmente, lo anterior dice también que todas las raı́ces del polinomio
caracterı́stico de una matriz hermı́tica son reales, luego el polinomio mismo tie-
ne coeficientes reales, y se puede utilizar la regla de Descartes para determinar
cuántas raı́ces positivas tiene. 
Damos por terminada aquı́ esta revisión sumaria de las cuatro lecciones
anteriores. Insistimos en que los razonamientos omitidos imitan sin dificultad
los de esas cuatro lecciones, y a veces incluso se simplifican. También insistimos
en que el lector lo compruebe por sı́ mismo.

Ejercicios y problemas propuestos


Número 1. Demostrar las siguientes igualdades para una matriz A ∈ Mn (C):

det(A∗ ) = det(A), rg(A∗ ) = rg(A) = rg(A∗ A).

Número 2. Sea f un endomorfismo de Cn cuya matriz respecto de la base estándar es an-


tihermı́tica. Probar que Cn es suma directa ortogonal, para la estructura hermı́tica estándar,
del núcleo y la imagen de f .
Número 3. Probar con todos los detalles que los rangos de las dos polares de una forma
sesquilineal ϕ coinciden, y coinciden con el rango de una cualquiera de las matrices de ϕ.
Número 4. Probar que el determinante de una matriz hermı́tica es un número real.
¿Qué se puede decir del determinante de una matriz antihermı́tica?
Número 5. Demostrar que:
(1) La signatura de una forma sesquilineal hermı́tica no depende de la base que se elija
para diagonalizarla.
√ √
(2) El número de −1’s y el de − −1’s que aparecen en la diagonal de una forma
sesquilineal antihermı́tica no dependen de la base utilizada para clasificarla.
Número 6. Clasificar una forma sesquilineal antihermı́tica de C3 sabiendo que la ecuación
de vectores isótropos (en las coordenadas estándar) es
√ √
−1 x1 x1 − 2x1 x2 + 2x2 x1 − x2 x3 + x3 x2 + 2 −1 x3 x3 = 0.

¿Existe alguna forma sesquilineal hermı́tica con esos mismos vectores isótropos?
Número 7. Estudiar la validez del teorema de Pitágoras y la de la regla del paralelogramo
en un espacio hermı́tico.
Número 8. Demostrar que

|x1 + · · · + xn |2 ≤ n(|x1 |2 + · · · + |xn |2 ),

para cualesquiera números complejos xi ∈ C. ¿Cuándo se da la igualdad?


224 IV. Formas bilineales y formas cuadráticas

Número 9. Probar que un endomorfismo de un espacio hermı́tico que conserve la norma


es unitario.
Número 10. Dada la matriz hermı́tica 01 1
− 13 i
1
3 3 √
5 1
M =B
@∗ 6 6
iC
A (i = −1),
5
∗ ∗ 6

encontrar una matriz unitaria C tal que C −1 M C sea diagonal.


Número 11. Sea E un espacio vectorial complejo de tipo finito. Si se restringe el producto
por escalares de E a los números reales, se obtiene un espacio vectorial real subyacente ER ,
y cada endomorfismo f de E es también un endomorfismo fR de ER . Demostrar √ que si
B = {u1 , . . . , un } es una base de E, entonces BR = {u1 , iu1 , . . . , un , iun } (i = −1) es una
base de ER , y describir la matriz de fR respecto de BR en términos de la de f respecto de B.
Aplicar lo anterior a una base B de Jordan de f , para probar que los autovalores de fR
son los de f más todos sus conjugados. Deducir que det(fR ) = |det(f )|2 , y explicar ası́ la
afirmación de que todo isomorfismo complejo conserva la orientación.
Número 12. Sea E un espacio vectorial complejo de tipo finito, y ER el espacio vectorial
real subyacente. Sea ϕ una forma sesquilineal de E. Demostrar:
(1) La parte real ϕR = <ϕ de ϕ es una forma bilineal de ER , simétrica o antisimétrica
según ϕ sea hermı́tica o antihermı́tica.
(2) La forma bilineal ϕR es un producto escalar si ϕ es un producto hermı́tico. En ese
caso las normas asociadas a ambos productos coinciden, y la asignación f → fR define un
homomorfismo inyectivo de grupos U (E) → SO(ER ).
Número 13. Expresar matricialmente los resultados del problema anterior para obtener
un homomorfismo inyectivo U (n) → SO(2n). Mostrar que es un isomorfismo para n = 1,
pero no para n > 1.

 Número 14. Demostrar que toda matriz M = (mij ) de un producto hermı́tico se escribe
como producto M = C ∗ C mediante una matriz triangular
0c c12 c13 c14 . . .1
11
B 0 c22 c23 c24 . . .C
0 0 c33 c34 . . . C,
B C
C=B
B
@ 0 0 0 c44 . . .CA
.. .. .. ..
. . . .

con cada cii real positivo. Deducir que:


Q
(1) det(M ) ≤ j mjj (nótese que ambos miembros son números reales positivos).

(2) | det(A)|2 ≤ j (|a1j |2 + · · · + |anj |2 ) para toda matriz compleja A = (aij ) cuadrada
Q
de orden n.

 Número 15. Demostrar que una matriz A ∈ Mn (C) factoriza como producto A = QM
de una matriz hermı́tica M y una unitaria Q (descomposición polar de una matriz compleja).
¿Es única tal factorización?
Cuestiones 225

Cuestiones sobre formas bilineales y formas cuadráticas

Decidir cuáles de las siguientes afirmaciones son verdaderas y cuáles son falsas.

Número 1. Dos matrices simétricas reales de distinto rango no son congruentes.


Número 2. Todo endomorfismo ortogonal del plano euclı́deo tiene alguna recta
invariante.
Número 3. Una forma bilineal simétrica no nula no tiene vectores isótropos.
Número 4. Existen productos escalares en R3 respecto de los cuales la base están-
dar no es ortonormal.
Número 5. El polinomio caracterı́stico de una simetrı́a ortogonal de R3 respecto
de un plano es (1 − T 2 )(1 + T ).
Número 6. En R2001 toda forma bilineal antisimétrica es degenerada.
Número 7. El endomorfismo del plano euclı́deo que tranforma (1, 0) en (0, 1) y
viceversa es ortogonal y directo (esto es, positivo).
Número 8. Si una matriz simétrica real tiene traza nula, entonces no es congruente
a la matriz identidad.
Número 9. Todas las potencias de una matriz simétrica compleja son congruentes.
Número 10. Una forma bilineal no degenerada no tiene vectores isótropos.
Número 11. Ningún endomorfismo ortogonal de R2 tiene una única recta inva-
riante.
Número 12. Dos matrices simétricas reales semejantes son también congruentes.
Número 13. Una matriz antisimétrica y su traspuesta son siempre congruentes.
Número 14. Si T 4 (T 2 − 1) es el polinomio caracterı́stico de una matriz simétrica
real su rango es 2 y su signatura es 1.
Número 15. Existe un único producto escalar en Rn para el cual la base estándar
es ortonormal.
Número 16. Un endomorfismo ortogonal de R3 que invierte la orientación es ne-
cesariamente una simetrı́a.
Número 17. Toda forma bilineal es suma de una simétrica y otra antisimétrica.
Número 18. Existen sólo dos endomorfismos ortogonales del plano euclı́deo que
tranforma (1, 0) en (0, 1).
Número 19. Toda forma bilineal antisimétrica se puede diagonalizar.
226 IV. Formas bilineales y formas cuadráticas

Número 20. Si dos matrices simétricas reales no son congruentes tampoco lo son
sus cuadrados.
Número 21. Dos matrices simétricas complejas de igual rango son congruentes.
Número 22. Toda matriz simétrica es congruente a su cuadrado.
Número 23. Hay matrices ortogonales que no son diagonalizables por semejanza.
Número 24. Hay matrices diagonalizables por congruencia que no son simétricas.
Número 25. La composición de dos simetrı́as ortogonales respecto de dos planos
distintos de R3 es la simetrı́a axial respecto de la recta intersección de los dos planos.
Número 26. Una matriz real ortogonal distinta de la identidad tiene a −1 por
autovalor.
Número 27. En el espacio vectorial real E de los polinomios de grado ≤ 1, la
fórmula hF (T ), G(T )i = F (0)G(0) + F (1)G(1) define un producto escalar.
Número 28. Las formas sesquilineales hermı́ticas forman un espacio vectorial real,
las antihermı́ticas otro, y ambos son isomorfos como tales.
Número 29. Si dos matrices simétricas reales son congruentes, entonces son seme-
jantes.
Número 30. La aplicación inversa de una semejanza es otra semejanza.
Número 31. Toda matriz simétrica real es diagonalizable por semejanza.
Número 32. Todas las potencias impares de una matriz simétrica real son con-
gruentes.
Número 33. El producto vectorial de dos vectores de R3 es nulo sólo si los vectores
son independientes.
Número 34. Un endomorfismo ortogonal positivo de R3 con un único plano inva-
riante es necesariamente una rotación.
Número 35. Dos subespacios conjugados respecto de una forma bilineal simétrica
no degenerada son suplementarios el uno del otro.
Número 36. Un endomorfismo de un espacio vectorial euclı́deo es una semejanza
si y sólo si existe alguna base ortogonal que se transforma en una base ortogonal.
Número 37. Si una forma bilineal simétrica no degenerada de R2 no tiene vectores
isótropos, su determinante es negativo.
Número 38. Si un endomorfismo ortogonal (6= Id) de R3 tiene un plano invariante
en el que induce la identidad, entonces es una simetrı́a.
Número 39. Respecto de una forma sesquilineal antihermı́tica, todos los vectores
son isótropos.
Apéndice: Soluciones §16 227

Número 40. La composición de dos simetrı́as axiales del plano vectorial euclı́deo
nunca es otra simetrı́a axial.
Número 41. Dadas dos bases ortonormales de un espacio vectorial euclı́deo, existe
un único endomorfismo ortogonal que transforma una en otra.
Número√42. Hay matrices antisimétricas complejas de orden impar cuyo determi-
nante es −1.
Número 43. Si el inverso de una semejanza es un endomorfismo ortogonal, enton-
ces la propia semejanza es un endomorfismo ortogonal.
Número 44. Si un endomorfismo de un espacio vectorial euclı́deo transforma bases
ortogonales en bases ortogonales, entonces es una semejanza.
Número 45. Si dos matrices simétricas reales son semejantes como matrices com-
plejas, entonces son congruentes como matrices reales.
Número 46. Si dos matrices simétricas con coeficientes reales son congruentes co-
mo matrices complejas, entonces son semejantes como matrices reales.
Número 47. Como todas las matrices antisimétricas de orden impar, todas las
matrices antihermı́ticas de orden impar tienen determinante nulo.
Número 48. Toda matriz antihermı́tica es diagonalizable por semejanza.
Número 49. Existen endomorfismos ortogonales con polinomio mı́nimo (1 − T )3 .
Número 50. Existe un endomorfismo autoadjunto de R3 que tiene a (1, 0, 1) y
(1, 1, 1) por autovectores.

Apéndice: Solucionario del capı́tulo IV

Soluciones §16
Número 1. Estudiar cuáles de las siguientes aplicaciones son formas bilineales de
Rn :

(1) F ((x1 , . . . , xn ), (y1 , . . . , yn )) = x1 |y1 | + · · · + xn |yn |.


(2) F ((x1 , . . . , xn ), (y1 , . . . , yn )) = |x1 y1 + · · · + xn yn |.
p
(3) F ((x1 , . . . , xn ), (y1 , . . . , yn )) = x21 y12 + · · · + x2n yn2 .
(4) F ((x1 , . . . , xn ), (y1 , . . . , yn )) = x1 y1 + · · · + xk yk , para cada k = 1, . . . , n.

De cada una que lo sea, obtener su matriz respecto de la base estándar.


228 IV. Formas bilineales y formas cuadráticas

Solución. En cada uno de los casos (1), (2) y (3), con las notaciones evidentes,
se tiene F (x, −y) = F (x, y), en lugar de la igualdad F (x, −y) = −F (x, y) que se
cumplirı́a si F fuese bilineal, luego no lo son.
(4) Estos sı́ son ejemplos de aplicaciones bilineales, pues se escriben F (x, y) =
xAk y t , donde Ak es la matriz diagonal cuyos coeficientes aii valen 1 si i ≤ k y 0 si
i > k. 

Número 2. Encontrar todas las formas bilineales de K3 que tienen rango uno y
de las que los vectores (1, 1, 0), (1, 0, 1), (0, 1, 1) y (1, 1, 1) son isótropos. ¿Hay alguna
simétrica no nula?
Solución. Como sabemos, los vectores isótropos de una forma bilineal ϕ son los de
la forma bilineal simétrica asociada a ella, de manera que empezamos por buscar las
formas cuadráticas q que tienen esos vectores isótropos. Para simplificar los cálculos
usaremos coordenadas (x, y, z) respecto de la base B = {u = (1, 1, 0), v = (1, 0, 1), w =
(0, 1, 1)}. Como los tres vectores son isótropos, será:

q(x, y, z) = 2axy + 2bxz + 2cyz.

Pero tenemos un cuarto vector isótropo, cuyas coordenadas respecto de la base B son
( 21 , 12 , 12 ), luego:

0 = q 12 , 12 , 12 = 12 a + 12 b + 12 c

c = −a − b.

Por tanto, la matriz de q respecto de B es


 
0 a b
a 0 −a − b ,
b −a − b 0

y la de ϕ se obtiene sumando una matriz antisimétrica cualquiera:


 
0 a+α b+β
Mϕ (B) = a − α 0 −a − b + γ .
b − β −a − b − γ 0

En fin, nos piden que ϕ tenga rango 1, para lo cual debe ser 1 el rango de esta matriz.
Un análisis cuidadoso de los menores de orden 2 (que deben ser todos nulos), muestra
que hay sólo las tres siguientes posibilidades:
     
0 λ µ 0 λ 0 0 0 0
0 0 0  , 0 0 0 ,  0 0 0 ,
0 0 0 0 µ 0 λ µ 0

y sus traspuestas. Como se ve, ninguna es simétrica no nula. 


Apéndice: Soluciones §16 229

Número 3. ¿Es una forma bilineal la aplicación

ϕ : Mn (K) × Mn (K) → K : (A, B) 7→ tr(A) tr(B)?

Solución. Efectivamente, ϕ es una forma bilineal. Para comprobarlo, es suficiente,


por simetrı́a, fijar una matriz A ∈ Mn (K) y probar que la aplicación ϕ(A, ·) : B 7→
tr(A) tr(B) es una forma lineal. Ahora bien, si λ = tr(A) resulta que la aplicación

ϕ(A, ·) : B 7→ tr(A) tr(B) = λ tr(B)

es múltiplo de la forma traza, luego es una forma lineal.


Obsérvese que la aplicación Mn (K) → K : A 7→ tr(A) es lineal, luego ϕ es un caso
particular de IV.16.2, vol. 2, p. 153, lo que también prueba la bilinealidad. 

Número 4. Sea B = {e1 , e2 , e3 } una base de un espacio vectorial E y sea ϕ la


forma bilineal sobre E definida por ϕ(u, v) = x1 y1 − x1 y2 + 3x2 y2 , donde

u = x1 e1 + x2 e2 + x3 e3 y v = y1 e1 + y2 e2 + y3 e3 .

Hallar la matriz de ϕ respecto de la base B0 = {e01 , e02 , e03 }, donde e01 = e1 + e2 + e3 ,


e02 = −e2 y e03 = e1 − e3 . Calcular también ϕ(u, v) para u = 2e01 + e03 y v = −e02 + 2e03 .
Solución. Sabemos que la matriz buscada Mϕ (B0 ) se expresa como producto

Mϕ (B0 ) = C(B0 , B)t Mϕ (B)C(B0 , B),

donde C(B0 , B) es la matriz de cambio de base de B0 a B. Como


   
1 −1 0 1 0 1
Mϕ (B) = 0 3 0 y C(B0 , B) = 1 −1 0 ,
0 0 0 1 0 −1
sin más que multiplicar obtenemos
     
1 1 1 1 −1 0 1 0 1 3 −2 1
Mϕ (B0 ) = 0 −1 0 0 3 0 1 −1 0 = −3 3 0 .
1 0 −1 0 0 0 1 0 −1 0 1 1
Para la segunda parte empleamos la matriz que acabamos de calcular:
  
 3 −2 1 0
ϕ(u, v) = 2 0 1 −3 3 0 −1  = 9.
0 1 1 2 

Número 5. De una forma bilineal ϕ del espacio E de los polinomios reales de grado
≤ 1 se sabe que es simétrica y que ϕ(X + 1, X + 1) = 8, ϕ(X + 2, X + 2) = 11 y
ϕ(X, X) = 3. Calcular su matriz respecto de la base estándar E = {1, X} de E.
230 IV. Formas bilineales y formas cuadráticas

Solución. Puesto que ϕ es simétrica y conocemos ϕ(X, X), todo se reduce a calcular
los valores de ϕ(1, 1) y ϕ(1, X). De los datos del enunciado se desprende que

8 = ϕ(X + 1, X + 1) = ϕ(X, X) + 2ϕ(1, X) + ϕ(1, 1), y


11 = ϕ(X + 2, X + 2) = ϕ(X, X) + 4ϕ(1, X) + 4ϕ(1, 1).

Como ϕ(X, X) = 3 las igualdades anteriores se convierten en



2ϕ(1, X) + ϕ(1, 1) = 5,
ϕ(1, X) + ϕ(1, 1) = 2,
„ «
−1 3
y en consecuencia ϕ(1, 1) = −1 y ϕ(1, X) = 3. Finalmente, Mϕ (E) = .
3 3


Número 6. Sea ϕ : R2 × R2 → R la forma bilineal dada por

ϕ((x1 , x2 ), (y1 , y2 )) = 2x1 y1 − 4x1 y2 + 5x2 y1 + λx2 y2 .

Determinar λ para que ϕ sea degenerada. Para este valor de λ describir los núcleos
de las formas polares.
Solución. La matriz de ϕ respecto de la base estándar es
 
2 −4
A= ,
5 λ

cuyo determinante det(A) = 2(λ + 10) sólo se anula para λ = −10. Éste es, por tanto,
el único valor de λ para el que ϕ es degenerada.
El vector v = (y1 , y2 ) ∈ R2 pertenece al núcleo de la forma polar

ϕ1 : R2 → L(R2 , R) : v 7→ ϕ(·, v)

si y sólo si (x1 , x2 )A(y1 , y2 )t = 0 para todo (x1 , x2 ) ∈ R2 , o lo que es igual, A(y1 , y2 )t =


0. Por tanto, una ecuación de ker(ϕ1 ) es y1 − 2y2 = 0.
Por otro lado, el vector u = (x1 , x2 ) ∈ R2 pertenece al núcleo de la forma polar

ϕ2 : R2 → L(R2 , R) : u 7→ ϕ(u, ·)

si y sólo si (x1 , x2 )A(y1 , y2 )t = 0 para cada (y1 , y2 ) ∈ R2 , o lo que es igual, (x1 , x2 )A =


0. Ası́, una ecuación de ker(ϕ2 ) es 2x1 + 5x2 = 0. 

Número 7. Sean E un espacio vectorial de tipo finito sobre el cuerpo K y q :


E → K una aplicación tal que: (i) q(−u) = q(u) para cada u ∈ E, y (ii) la fórmula
ϕ(u, v) = q(u+v)−q(u)−q(v) define una forma bilineal de E. Demostrar las siguientes
igualdades:
Apéndice: Soluciones §16 231

(1) q(u+v +w) = q(u+v)+q(u+w)+q(v +w)−q(u)−q(v)−q(w) para u, v, w ∈ E.


(2) q(2u) = 4q(u) para u ∈ E.

Deducir que q es una forma cuadrática.


Solución. (1) Por la definición de ϕ se tiene

ϕ(u, v + w) = q(u + v + w) − q(u) − q(v + w).

Puesto que ϕ es bilineal, resulta

ϕ(u, v + w) = ϕ(u, v) + ϕ(u, w) = q(u + v) − q(u) − q(v) + q(u + w) − q(u) − q(w).

Igualando ambas expresiones,

q(u + v + w) − q(u) − q(v + w) = q(u + v) − q(u) − q(v) + q(u + w) − q(u) − q(w),

que, después de operar del modo obvio, nos proporciona la igualdad buscada.
(2) Observamos en primer lugar que q(0) = 0, ya que, al ser ϕ bilineal, ϕ(0, 0) = 0,
o sea, q(0 + 0) − q(0) − q(0) = 0, es decir, q(0) = 0.
Utilizando la igualdad del apartado anterior y la hipótesis q(−u) = q(u) se tiene

q(u) = q(u + u − u)
= q(u + u) + q(u + (−u)) + q(u + (−u)) − q(u) − q(u) − q(−u)
= q(2u) − 2q(u) − q(u),

y al pasar de miembro q(2u) = 4q(u).


(3) Resulta que q es 1/2 de la forma cuadrática qϕ : u 7→ ϕ(u, u) inducida por ϕ,
lo que garantiza que q es forma cuadrática. En efecto,

qϕ (u) = ϕ(u, u) = q(2u) − q(u) − q(u) = 2q(u).




Número 8. Consideremos en K3 los vectores

u1 = (1, −2, 3), u2 = (−2, −1, 1) y u3 = (8, −1, 3),

y sea q una forma cuadrática de K3 que cumple

q(u1 ) = −39, q(u2 ) = −7, q(u3 ) = 9.

Calcular la matriz, respecto de la base B = {u1 , u2 }, de la restricción de q al subes-


pacio H = L[u1 , u2 ].
232 IV. Formas bilineales y formas cuadráticas

Solución. Se trata de calcular la matriz respecto de B de la restricción a H × H de


la forma bilineal simétrica ϕ que induce q. Por supuesto
ϕ(u1 , u1 ) = q(u1 ) = −39 y ϕ(u2 , u2 ) = q(u2 ) = −7,
luego basta calcular ϕ(u1 , u2 ) = ϕ(u2 , u1 ). La clave es observar que u3 = 2u1 − 3u2 ,
y de esta manera,
9 = q(u3 ) = ϕ(u3 , u3 ) = ϕ(2u1 − 3u2 , 2u1 − 3u2 )
= 4ϕ(u1 , u1 ) − 12ϕ(u1 , u2 ) + 9ϕ(u2 , u2 ) = −156 − 12ϕ(u1 , u2 ) − 63
= −219 − 12ϕ(u1 , u2 ),
 
−39 −19
y por tanto ϕ(u1 , u2 ) = − 228 = −19. En suma, Mq|H (B) = . 
12 −19 −7

Número 9. Sea ϕ una forma bilineal de un espacio vectorial de tipo finito E.


Demostrar que si ϕ(u, v) = 0 implica ϕ(v, u) = 0 para cualesquiera dos vectores
u, v ∈ E, entonces ϕ es simétrica o antisimétrica.
Solución. Razonamos por inducción sobre la dimensión n de E. El caso n = 1
es trivial, ası́ que suponemos n > 1 y probado el resultado para formas bilineales
sobre espacios de dimensión menor que n. Suponemos que ϕ no es antisimétrica y
probaremos que es simétrica. Existe por tanto un vector anisótropo u ∈ E, esto es,
ϕ(u, u) 6= 0. En particular, el núcleo H de la forma lineal
ϕ(u, ·) : E → K : v 7→ ϕ(u, v)
no contiene a u, luego E = L[u] ⊕ H. Aplicando la hipótesis de inducción a la res-
tricción ϕ|H×H deducimos que ésta es simétrica o antisimétrica. En el primer caso
también ϕ es simétrica, y hemos acabado, porque 0 = ϕ(u, v) para cada v ∈ H, y esto
implica por hipótesis 0 = ϕ(v, u). Para terminar comprobemos que ϕ|H×H tiene que
ser simétrica.
En efecto, si no, existen dos vectores v, w ∈ H tales que ϕ(v, w) = −ϕ(w, v) no
es nulo. Consideramos entonces la expresión
ϕ(u − tv, u + w) = ϕ(u, u) − tϕ(v, w),
ϕ(u,u)
que se anula si elegimos t = ϕ(v,w) . Sin embargo,

ϕ(u + w, u − tv) = ϕ(u, u) − tϕ(w, v) = ϕ(u, u) + tϕ(v, w) = 2ϕ(u, u) 6= 0,


contra la hipótesis. 

Número 10. Obtener, para n = 2, 3, bases de los espacios deformas bilineales


antisimétricas A(Kn ), utilizando las del tipo ϕ(x, y) = det A(x, y) (IV.16.2(3), vol.
2, p. 153). ¿Qué se puede hacer para n > 3?
Apéndice: Soluciones §16 233

Solución. El espacio A(K2 ) tiene dimensión 1, como el de las matrices antisimétricas


de orden 2. La única forma bilineal del tipo requerido tiene por matriz respecto de la
base estándar
 
0 1
Mϕ (E) = , luego ϕ(x, y) = x1 y2 − x2 y1 ,
−1 0

y ya tenemos una base. Por su parte, A(K3 ) tiene dimensión 3, como el espacio de
las matrices antisimétricas de orden 3. Ya sabemos (IV.16.13(3), vol. 2, p. 164) que
tomando una matriz cualquiera A = (aij ) y eligiendo las filas primera y segunda para
colocar los vectores variables x e y se obtienen las siguientes matrices:
 
0 a33 −a32
Mϕ (E) = −a33 0 a31 .
a32 −a31 0
Haciendo 0 dos de estos coeficientes y 1 el restante obtenemos la siguiente base del
espacio de matrices antisimétricas de orden 3:
     
0 1 0 0 0 −1 0 0 0
−1 0 0 , 0 0 0  , 0 0 1.
0 0 0 1 0 0 0 −1 0

Por tanto, obtenemos la siguiente base {ϕ1 , ϕ2 , ϕ3 } del espacio de formas bilineales
antisimétricas A(K3 ):

ϕ1 (x, y) = x1 y2 − x2 y1 ; ϕ2 (x, y) = −x1 y3 + x3 y1 ; ϕ3 (x, y) = x2 y3 − x3 y2 .

Para n > 3 se hace lo mismo, aunque la formalización es más delicada. Reservamos las
dos primeras filas de la matriz A para x, y, y en las restantes colocamos “en su orden”
n − 2 vectores ek de la base estándar E. Esto se puede hacer de n−2 n
= n(n − 1)/2
n
maneras, y ésta es precisamente la dimensión de A(K ). Para escribir explicitamente
la base resultante denotamos Aij (x, y) (i < j) la matriz que corresponde a elegir los
vectores ek con k 6= i, j, y consideramos ϕij = det Aij (x, y) . Un poco de reflexión
muestra que 
i+j+1
(−1)
 si k = i, ` = j,
ϕij (ek , e` ) = (−1)i+j si k = j, ` = i,

0 en otro caso,

con lo que obtenemos la base


ϕij (x, y) = (−1)i+j+1 (xi yj − xj yi ), i < j. 

Número 11. Sean n > 1 un entero, y E = Mn (K) el espacio vectorial formado


por las matrices cuadradas de orden n con coeficientes en K. Comprobar que

ϕ : E × E → K : (A, B) 7→ tr(At B)
234 IV. Formas bilineales y formas cuadráticas

es una forma bilineal simétrica de E y calcular su rango. Describir explı́citamente la


forma cuadrática asociada. ¿Qué vectores isótropos tiene?
Solución. Calculemos
P explı́citamente ϕ. Sean A = (aij ), B = (bk` ) y At B = (cj` ).
Entonces cj` = i aij bi` , y
X X
ϕ(A, B) = tr(At B) = cjj = aij bij .
j i,j

En este punto, consideramos la base estándar E, formada por las matrices ∆ij cuyo
único coeficiente no nulo es un 1 en el lugar (i, j), y concluimos que ϕ es efectivamente
una forma bilineal: aquélla cuya matriz respecto de E es la matriz identidad. Por tanto,
es simétrica y no degenerada (de rango la dimensión n2 de E).
La forma cuadrática q asociada a ϕ es
X
q(A) = ϕ(A, A) = a2ij .
i,j

Dicho con palabras, q(A) es la suma de los cuadrados de todos los coeficientes de la
matriz A. Es por ello evidente que si K = R no existen vectores isótropos: una suma
de cuadrados de números reales sólo es nula cuando lo es cada sumando.
La situación es radicalmente distinta si K = C. Incluso para n = 2 puede haber
infinidad de vectores isótropos, por ejemplo,
 √   √   √ 
0 −1 3 5 −1 √1 7 −1
A= , , ,...
1 0 0 4 4 −1 8 

Número 12. Redefinir la forma bilineal del ejercicio anterior como

ψ : E × E → K : (A, B) 7→ tr(AB),

y resolver de nuevo el problema.


Solución. Consideremos el isomorfismo lineal h : E → E : A 7→ At , de modo que

ψ(A, B) = ϕ(h(A), B).

Ya de esta expresión se deduce directamente que ψ es bilineal simétrica, pero vale


el siguiente razonamiento explı́cito. Consideramos como en el ejercicio anterior la
base estándar E = {∆ij }, y coordenadas respecto de ella: a de A, a0 de h(A) y b
de B. Entonces h tiene unas ecuaciones a0t = T at , donde T es una matriz regular, y
ensayando un poco uno se convence de que es simétrica (o bien recuerda que tr(AB) =
tr(BA)). Como la matriz de ϕ es la identidad deducimos:

ψ(A, B) = ϕ(h(A), B) = a0 bt = (T at )t bt = aT t bt = aT bt .
Apéndice: Soluciones §16 235

Esto muestra que ψ es la forma bilineal simétrica cuya matriz respecto de E es T . Por
ser T regular, ψ es no degenerada (de rango n2 ).
Para calcular la forma cuadrática q inducida por ψ tomamos una matriz A ∈ E y
denotamos J ∈ Mn (C) su forma de Jordan compleja. Como A = CJC −1 para cierta
matriz regular compleja C, se tiene

q(A) = tr(A2 ) = tr(CJC −1 CJC −1 ) = tr(CJ 2 C −1 ) = tr(J 2 ).

Ahora bien, si λ1 , . . . , λr son los autovalores, posiblemente complejos, de A, con mul-


tiplicidades m1 , . . . , mr , entonces λ21 , . . . , λ2r son los autovalores de A2 , con multipli-
cidades m1 , . . . , mr . En consecuencia,
r
X
q(A) = tr(J 2 ) = mi λ2i .
i=1

Obsérvese que incluso en el caso en que los coeficientes de la matriz A sean reales,
algunos de sus autovalores pueden ser imaginarios, de modo que la suma anterior
no es necesariamente una suma de números reales no negativos. En fin, los vectores
isótropos son aquellas matrices para las que la suma de los cuadrados de sus autova-
lores, contados con multiplicidad, es nula. 

Número 13. Sea B una base de un espacio vectorial de tipo finito E sobre el
cuerpo K, y denotemos x = (x1 , . . . , xn ) las coordenadas respecto de B. Un polinomio
q(x) ∈ K[x1 , . . . , xn ] se denomina homogéneo de grado 2 si para cada λ ∈ K se cumple

q(λx1 , . . . , λxn ) = λ2 q(x1 , . . . , xn ).

Mostrar que los polinomios homogéneos de grado 2 (incluyendo el polinomio nulo)


forman un espacio vectorial isomorfo al de las formas bilineales simétricas de E.
Solución. La comprobación de que el subconjunto P2 de K[x1 , . . . , xn ] formado por
los polinomios homogéneos de grado 2 (incluyendo el polinomio nulo) es, con las ope-
raciones habituales, un espacio vectorial sobre el cuerpo K es mecánica y la dejamos
al cuidado del lector. Ahora todo se reduce a probar que su dimensión coincide con
la del espacio de las formas bilineales simétricas de E, esto es, dim(P2 ) = n(n + 1)/2.
Para ello es suficiente demostrar que una de sus bases es

B = {xi xj : 1 ≤ i ≤ j ≤ n}.

Que estos vectores son linealmente independientes no requiere comentario. Para com-
probar que
P además es un sistema generador, tomamos un polinomio no nulo cualquiera
q(x) = ν aν xν11 · · · xνnn ∈ P2 , donde ν = (ν1 , . . . , νn ) con 0 ≤ νi ≤ 2. Por supuesto,
sólo consideramos los sumandos no nulos. Para cada λ ∈ K tenemos
X X
λ2 aν xν11 · · · xνnn = λ2 q(x) = q(λx) = λν1 +···+νn aν xν11 · · · xνnn .
ν ν
236 IV. Formas bilineales y formas cuadráticas

La anterior puede interpretarse como una igualdad de polinomios en las n+1 variables
x1 , . . . , xn , λ y por tanto los exponentes de λ en cada sumando han de coincidir, esto
es, ν1 + · · · + νn = 2 para todo ν.PEsto significa, exactamente, que los monomios que
aparecen en la expresión q(x) = ν aν x1ν1 · · · xνnn son los de la base B.
Invitamos al lector a que complete los detalles en la siguiente solución alternativa:
la aplicación S(E) → P2 que asocia a cada ϕ ∈ S(E) el polinomio q(x) = xMϕ (B)xt
es un isomorfismo lineal. 

Número 14. Sean q y q 0 dos polinomios no nulos homogéneos de grado 2 con


coeficientes complejos.
(1) Mostrar que después de un cambio lineal de coordenadas se puede escribir
(
q(x) = x21 + b(x2 , . . . , xn ),
q 0(x) = λx21 + a0 (x2 , . . . , xn )x1 + b0 (x2 , . . . , xn ),

donde b y b0 son polinomios homogéneos de grado 2, a0 es una forma lineal y λ ∈ C.


(2) Deducir que si las ecuaciones q(x) = 0 y q 0 (x) = 0 tienen las mismas soluciones
entonces λ 6= 0 y los polinomios de grado dos en x1 obtenidos al evaluar arbitraria-
mente x2 , . . . , xn tienen las mismas raı́ces complejas, con lo que q 0 (x) = λq(x).
Utilizar esto para probar que si dos formas bilineales simétricas complejas tienen los
mismos vectores isótropos, entonces son proporcionales. ¿Es cierto lo mismo en el caso
real?
Solución. Sea E un espacio vectorial de tipo finito, B una base y x = (x1 , . . . , xn )
las coordenadas correspondientes. Sabemos que los polinomios homogéneos q(x) de
grado 2 se corresponden con las formas bilineales simétricas ϕ de E por la relación

q(x) = xM xt , M = Mϕ (B).

En esta situación, denotaremos q la forma cuadrática asociada a ϕ. Es inmediato


además, que un cambio lineal de las coordenadas en el polinomio equivale a un cambio
de base de la matriz de la forma bilineal. Tras este preámbulo procedemos con el
problema.
(1) En primer lugar elegimos un cambio de coordenadas adecuado para tener
q(x) = x21 + b(x2 , . . . , xn ). Si n = 1, necesariamente q(x) = µx21 para cierto µ ∈ C no
√ √
nulo. Por tanto q(x) = ( µx1 )2 , y el cambio buscado es y1 = µx1 .
sigue que n > 1. Como ϕ 6= 0, tiene un vector anisótropo
Suponemos en lo que p
w ∈ E, y denotamos µ = q(w) 6= 0. Ası́ el vector u = w/µ cumple que q(u) = 1.
Por ser u anisótropo, el núcleo H de la forma lineal ϕ(u, ·) tiene dimensión n − 1,
y E = L[u] ⊕ H. Elegimos en H una base arbitraria {u2 , . . . , un }, y B0 = {u1 =
u, u2 , . . . , un } es una base de E. Cada ϕ(u1 , ui ) = 0 si i > 1, luego la escritura
Apéndice: Soluciones §16 237

de q respecto de las coordenadas que corresponden a esta base (que por comodidad
seguimos denotando x) es

q(x) = x21 + b(x2 , . . . , xn ),

donde b es un polinomio homogéneo de grado 2 por serlo q(x) y x21 .


En cuanto a q 0 (x), como es un polinomio homogéneo de grado 2, se tiene:
X X  X
q 0 (x) = aij xi xj = a11 x21 + a1j xj x1 + aij xi xj ,
1≤i≤j≤n 1<j 2≤i≤j≤n

y obtenemos la escritura deseada para q 0 (x) tomando


X X
λ = a11 , a0 (x2 , . . . , xn ) = a1j xj y b0 (x2 , . . . , xn ) = aij xi xj .
1<j 2≤i≤j≤n

(2) En primer lugar, λ 6= 0, porque en otro caso la n-upla ξ = (1, 0, . . . , 0) cumple


q(ξ) = 1 y q 0 (ξ) = 0.
Ahora, observamos que las soluciones de la primera ecuación se expresan de modo
sencillo: para cada vector y = (x2 , . . . , xn ) ∈ Cn−1 elppolinomio qy (T p
) = q(T, y) =
T 2 + b(y) ∈ C[T ] tiene dos raı́ces en C, que son t1 = −b(y) y t2 = − −b(y). Esto
implica que para i = 1, 2 se tiene, por ser q(ti , y) = q 0 (ti , y) = 0,

0 = q 0 (ti , y) − λq(ti , y) = a0 (y)ti + b0 (y) − λb(y).

En forma de sistema de ecuaciones se tiene,


(
a0 (y)t1 + b0 (y) − λb(y) = 0,
a0 (y)t2 + b0 (y) − λb(y) = 0,

y puesto que t2 = −t1 , podemos reescribir lo anterior como


(
a0 (y)t1 + b0 (y) − λb(y) = 0,
a0 (y)t1 − b0 (y) + λb(y) = 0.

Al restar deducimos que b0 (y) − λb(y) = 0 para cada y ∈ Cn−1 , es decir, como
polinomios en las variables y2 , . . . , yn se tiene la igualdad b0 (y) = λb(y). Pero esto
implica que a0 (y)t1 = 0 y, elevando al cuadrado, obtenemos la igualdad polinómica
b(y)a0 (y)2 = 0. Por tanto, si b(y) 6= 0 deducimos que a0 (y) = 0, y ası́

q 0 (x) = λx21 + b0 (x2 , . . . , xn ) = λx21 + λb(x2 , . . . , xn ) = λ(x21 + b(x2 , . . . , xn )) = λq(x).

Para terminar, si b(y) = 0 también b0 (y) = λb(y) = 0, por lo que los polinomios q y
q 0 adoptan la forma: q(x) = x21 y q 0 (x) = λx21 + a0 (y)x1 , que sólo tienen las mismas
soluciones si a0 (y) ≡ 0, en cuyo caso se tiene de nuevo q 0 (x) = λx21 = λq(x).
238 IV. Formas bilineales y formas cuadráticas

Probado (2), sean ϕ y ϕ0 dos formas bilineales simétricas de E con los mismos
vectores isótropos. Las dos formas corresponden a dos polinomios homogéneos q(x) y
q 0 (x) de grado 2, y se concluye lo que se quiere tras observar que q(x) = 0 y q 0 (x) = 0
son las ecuaciones de los vectores isótropos de ϕ y ϕ0 respectivamente.
El resultado es falso en el caso real. La clave radica en que dos polinomios no
proporcionales pueden muy bien tener las mismas raı́ces reales. Por ejemplo las dos
formas cuadráticas siguientes no son proporcionales (si r > 1):

q(x) = x21 + · · · + x2r y q 0 (x) = 2x21 + x22 + · · · + x2r ,

pero tienen los mismos vectores isótropos (x1 = · · · = xr = 0). 

Número 15. Sea q(x) el polinomio homogéneo de grado 2 que define una forma
bilineal ϕ (en ciertas coordenadas) de un espacio vectorial E. Demostrar que si todos
los vectores de un hiperplano son isótropos, entonces q(x) es producto de dos formas
lineales, y concluir que ϕ está determinada, salvo producto por escalares, por sus
vectores isótropos. ¿Cuáles son estos?
Solución. Sea H un hiperplano de vectores isótropos de ϕ. Las afirmaciones del
enunciado no dependen de las coordenadas x elegidas, ası́ que supondremos que son
las coordenadas respecto de una base B = {u1 , u2 . . . , un } de E que prolonga una
{u2 , . . . , un } de H. De este modo x1 = 0 es una ecuación de H. En virtud del ejercicio
anterior podemos escribir

q(x) = λx21 + a(x2 , . . . , xn )x1 + b(x2 , . . . , xn ),

donde a es una forma lineal, λ ∈ K y b es un polinomio homogéneo de grado 2. De


hecho es el polinomio nulo, pues b(x2 , . . . , xn ) = q(0, x2 , . . . , xn ) = 0 por ser isótropos
todos los vectores de H : x1 = 0. Por tanto

q(x) = x1 (λx1 + a(x2 , . . . , xn ))

es el producto de dos formas lineales.


Esto muestra, además, que el conjunto de vectores isótropos de q es la unión de
los dos hiperplanos que tienen por ecuaciones los factores lineales de q. Por tanto,
en esta situación, los vectores isótropos de ϕ determinan q, ya que los hiperplanos
y sus ecuaciones lineales se determinan mutuamente, salvo producto por escalares.


Soluciones §17
Número 1. Dada la matriz
Apéndice: Soluciones §17 239

 
1 0 1
M = 0 2 2,
1 2 3
hallar una matriz regular C ∈ M3 (K) tal que C t M C sea una matriz diagonal.
Solución. Sea ϕ la forma bilineal simétrica cuya matriz respecto de la base estándar
E = {e1 , e2 , e3 } de E = K3 es M . Se trata de encontrar una base de E respecto de la
cual la matriz de ϕ sea diagonal. Empezamos tomando el vector anisótropo u = e1 :
ϕ(u, u) = e1 M et1 = 1. Ahora buscamos los vectores x = (x1 , x2 , x3 ) conjugados de u:

uM xt = 0 x1 + x3 = 0.

Ası́ v = e2 es uno de esos conjugados, y no es isótropo: ϕ(v, v) = 2. Buscamos ahora


los x = (x1 , x2 , x3 ) conjugados de u y v. Para serlo de u ya sabemos que deben cumplir
x1 + x3 = 0, y para que lo sean de v:

0 = vM xt = 2x2 + 2x3 .

Una solución del sistema de ecuaciones x1 + x3 = 2x2 + 2x3 = 0 es w = (1, 1, −1),


y se tiene ϕ(w, w) = 0. Por tanto, la matriz de ϕ respecto de la base B = {u, v, w}
es una matriz diagonal D = C t M C, donde C = C(B, E) es la matriz del cambio de
base:    
1 0 0 1 0 1
D = 0 2 0 , C = 0 1 1 .
0 0 0 0 0 −1 

Número 2. ¿Son congruentes como matrices reales las matrices


   
1 0 1 0
A= y M= ?
0 1 0 −1

¿Lo son como matrices complejas?


Solución. Las matrices A y M no son congruentes como matrices reales, ya que
sus determinantes tienen signos distintos (IV.16.11(2), vol. 2, p. 162). Sin embar-
go estas matrices son congruentes como matrices con coeficientes complejos, ya que
rg(A) = rg(M ) = 2. 

Número 3. Sean E un espacio vectorial y ϕ : E × E → K una forma bilineal


simétrica.
(1) Los vectores de E conjugados de todos los vectores del espacio constituyen un
subespacio vectorial denominado radical de ϕ, que se denota rad(ϕ). Demostrar que
ϕ es degenerada si y sólo si su radical es no nulo.
240 IV. Formas bilineales y formas cuadráticas

(2) Supongamos que dim E = 3 y que la matriz de ϕ respecto de una base B =


{u1 , u2 , u3 } de E es  
1 −1 0
A = −1 2 1  .
0 1 1
Consideramos los subespacios V1 = L[u1 + u2 ], V2 = L[u3 ], V = L[u1 + u2 , u3 ].
Encontrar bases de rad(ϕ) y de los subespacios conjugados V10 , V20 , V 0 . ¿Se cumple
alguna de las igualdades V100 = V1 , V200 = V2 , V 00 = V ?
Solución. (1) Por definición, si ϕ es degenerada, existe un vector no nulo u tal que
la forma lineal ϕ(u, ·) es idénticamente nula. Pero entonces L[u] tiene por conjugado
E, luego L[u] ⊂ rad(ϕ) 6= 0. Recı́procamente, si rad(ϕ) 6= {0}, cualquier vector no
nulo u que contenga cumple ϕ(u, ·) ≡ 0.
(2) Lo que acabamos de ver muestra en realidad que rad(ϕ) es el núcleo de la
polar de ϕ, esto es, consiste en los vectores u ∈ E tales que ϕ(u, ·) ≡ 0. Por tanto,
u = x1 u1 + x2 u2 + x3 u3 ∈ rad(ϕ) si y sólo si xA = 0. Esto proporciona el sistema

x1 − x2 = 0, −x1 + 2x2 + x3 = 0, x2 + x3 = 0,

es decir, x1 = x2 = −x3 ; estas ecuaciones definen la recta generada por el vector


u1 + u2 − u3 .
Por otro lado, el vector u = x1 u1 + x2 u2 + x3 u3 ∈ V10 si y sólo si

0 = (1, 1, 0)Axt = (0, 1, 1)xt = x2 + x3 ,

por lo que V10 es el plano generado por u1 , u2 − u3 . Para V20 procedemos igual, es decir,
u = x1 u1 + x2 u2 + x3 u3 ∈ V20 si y sólo si

0 = (0, 0, 1)Axt = (0, 1, 1)xt = x2 + x3 ,

y por tanto, V20 = V10 . En fin, V = V1 + V2 , luego,

V 0 = (V1 + V2 )0 = V10 ∩ V20 = V10 .

Ası́, los tres subespacios V1 , V2 y V tienen el mismo conjugado, y W = V100 = V200 =


V 00 = L[u1 , u2 − u3 ]0 . Este conjugado consiste en los vectores w = x1 u1 + x2 u2 + x3 u3
tales que
ϕ(u1 , w) = ϕ(u2 − u3 , w) = 0,
esto es (
0 = (1, 0, 0)Axt = (1, −1, 0)xt = x1 − x2 ,
x1 = x2 .
0 = (0, 1, −1)Axt = (−1, 1, 0)xt = −x1 + x2 ,
En suma, W es el plano generado por u1 + u2 , u3 , que es precisamente V . En conse-
cuencia, V = V 00 pero V1 6= V100 y V2 6= V200 . 
Apéndice: Soluciones §17 241

Número 4. Sean A ∈ M4 (K) la matriz cuyo coeficiente de la fila i y la columna j


es i−j y M la matriz antisimétrica de orden 4 cuyo coeficiente de la fila i y la columna
j, con i < j, es i + j. Decidir si estas dos matrices son congruentes, y clasificarlas
luego.
Solución. Las matrices del enunciado son
   
0 −1 −2 −3 0 3 4 5
1 0 −1 −2
 y M = −3 0 5 6 .
 
A= 2 1 0 −1 −4 −5 0 7
3 2 1 0 −5 −6 −7 0

Como dos matrices antisimétricas son congruentes si y sólo si tienen igual rango,
calcularemos los rangos de ambas. Por un lado, se comprueba inmediatamente que el
determinante de A es nulo, y como la matriz A es antisimétrica su rango es par, luego
rg(A) = 2 (el menor de sus dos primeras filas y columnas es no nulo). En cuanto a M ,
se comprueba que su determinante es 484, luego el rango es 4. Ası́ pues, las matrices
no son congruentes.
Para clasificarlas, aplicamos IV.17.9, vol. 2, p. 177, para concluir que A, M son
congruentes respectivamente a
   
0 −1 0 0 0 −1 0 0
1 0 0 0 1 0 0 0
 ,  .
0 0 0 0 0 0 0 −1
0 0 0 0 0 0 1 0 

Número 5. Clasificar según los valores de t ∈ K la siguiente forma cuadrática de


K3 :
qt (x, y, z) = x2 + 2txy + 2xz + y 2 + 2yz + tz 2 .

Solución. La matriz de q = qt respecto de la base estándar es


 
1 t 1
M = t 1 1,
1 1 t

con det(M ) = −(t − 1)2 (t + 2). Por tanto el rango es r = 3 salvo si t = 1 o t = −2.
En estos dos casos excepcionales, el rango es r = 1 si t = 1 y r = 2 si t = −2. Esto
clasifica la forma cuadrática si K = C.
Suponemos en lo que sigue que K = R. Se trata de calcular, en función de t, el
rango r y la signatura s de q. Si t = 1, entonces r = s = 1 porque q(e1 ) = 1 > 0,
mientras que si t = −2, entonces r = 2 y s = 1 porque q(e1 ) = 1 > 0 y q(e3 ) =
−2 < 0. Suponemos en lo sucesivo que t 6= 1, −2, por lo que r = 3, y para calcular
s diagonalizaremos. Empezamos con el vector anisótropo u = (1, 0, 0), que cumple
242 IV. Formas bilineales y formas cuadráticas

q(u) = 1. Sus conjugados vienen dados por


  
 1 t 1 x
1 0 0  t 1 1 y  = 0 x + ty + z = 0.
1 1 t z

Por ejemplo v = (1, 0, −1), que cumple q(v) = t − 1 6= 0. Ahora, los conjugados de v
cumplen:   
 1 t 1 x
1 0 −1  t 1 1 y  = 0 y − z = 0.
1 1 t z
Por tanto, los vectores conjugados de u y de v cumplen x + ty + z = y − z = 0, y entre
ellos elegimos w = (t + 1, −1, −1); al operar obtenemos q(w) = (1 − t)(t + 2). En fin,
la matriz de la forma cuadrática respecto de la base B = {u, v, w} es
 
1 0 0
M = 0 t − 1 0 .
0 0 (1 − t)(t + 2)

Si t > −2 los números t − 1 y (1 − t)(t + 2) tienen signos opuestos, luego uno y sólo
uno de ellos es positivo, y por tanto s = 2. Por otro lado, si t < −2 estos dos números
son negativos, luego s = 1. 

Número 6. Sea q : R4 → R la forma cuadrática

q(x) = −3x21 + 2x1 x2 − 2x1 x3 + 3x22 + 2x2 x3 + 4x2 x4 + 2x24 .

Clasificar q(x) y determinar el subespacio vectorial que generan las soluciones de la


ecuación q(x) = 0.
Solución. Hemos de calcular el rango r y la signatura s de q, y para ello buscamos
una base de R4 que la diagonalice. Elegimos v1 = (1, 0, 0, 0) como primer vector, que
cumple q(v1 ) = −3. Denotamos M la matriz de q respecto de la base estándar. El
vector de coordenadas x = (x1 , x2 , x3 , x4 ) respecto de la base estándar es conjugado
de v1 si y sólo si
0 = v1 M xt = −3x1 + x2 − x3 ,
y elegimos v2 = (0, 0, 0, 1), que desde luego cumple esta igualdad y, además, q(v2 ) = 2.
El tercer vector de la base buscada ha de ser conjugado de v1 y v2 . Ya hemos visto
que lo primero significa que 3x1 − x2 + x3 = 0, mientras que lo segundo equivale a

0 = v2 M xt = 2x2 + 2x4 .

Buscamos por tanto las soluciones del sistema 3x1 − x2 + x3 = 2x2 + 2x4 = 0,
como por ejemplo (1, 0 − 3, 0), que será nuestro vector v3 ; se comprueba inmedia-
tamente que q(v3 ) = 3. Por último, el cuarto vector v4 de la base buscada ha de
Apéndice: Soluciones §17 243

ser también conjugado de v1 y v2 , luego será solución del sistema anterior, es decir
v4 = (x1 , x2 , x2 − 3x1 , −x2 ); pero además habrá de ser conjugado de v3 :
 
x1
 x2 
0 = v3 M v4t = (1, 0, −3, 0)M 
x2 − 3x1
 x1 = x2 .
−x2

Tomamos v4 = (1, 1, −2, −1), que cumple q(v4 ) = 0. En consecuencia, la base B =


{v1 , v2 , v3 , v4 } diagonaliza q. Como q(v1 ) < 0, q(v2 ) > 0, q(v3 ) > 0 y q(v4 ) = 0,
concluimos que r = 3 y s = 2.
Se trata ahora de calcular suficientes vectores isótropos. En las coordenadas y
respecto de la nueva base los vectores isótropos vienen dados por
 
−3 0 0 0
 0 2 0 0 t 2 2 2
 0 0 3 0y = −3y1 + 2y2 + 3y3 .
0 = y 

0 0 0 0
√ √
Utilizando esta ecuación, se ve que v1 − v3 , v1 + v3 , 2v1 + 3v2 y v4 son isótropos;
como son cuatro vectores independientes, generan todo el espacio R4 . 

Número 7. Clasificar la forma cuadrática de R4

(3α − 1)x21 + 4αx1 x4 − x22 + 4αx2 x3 + (3α − 1)x23 − x24 = 0

atendiendo a los valores del parámetro α ∈ R.


Solución. No procederemos como en el caso general, sino que aprovecharemos las es-
peciales caracterı́sticas de este ejemplo. Escribimos la matriz de esta forma cuadrática,
que denotamos q, respecto de la base estándar E, que es
 
3α − 1 0 0 2α
 0 −1 2α 0
M = .
 0 2α 3α − 1 0 
2α 0 0 −1

Los ocho ceros que aparecen en esta matriz indican que los subespacios V = L[e1 , e4 ] y
W = L[e2 , e3 ] son conjugados, es decir, ϕ(v, w) = 0 para cada v ∈ V y w ∈ W , donde
ϕ es la forma bilineal simétrica que induce q. Por tanto, el rango y la signatura de q
se obtienen sumando los de sus restricciones a V y W . Ası́ pues, se trata de calcular
por separado cada uno de estos rangos y signaturas. Ahora bien, las dos restricciones
tienen la misma matriz  
0 3α − 1 2α
M =
2α −1
244 IV. Formas bilineales y formas cuadráticas

si elegimos bien las bases, a saber BV = {e1 , e4 } para V y BW = {e3 , e2 } (obsérvese


el orden de los vectores) para W . En consecuencia, el rango r y la signatura s de q
son los dobles del rango r0 y la signatura s0 de la restricción q 0 de q a V .
Ahora vamos a calcular r0 y s0 mediante la matriz M 0 , cuyo determinante es
det(M 0 ) = (1 + α)(1 − 4α). Vemos que tanto si α = −1 como si α = 1/4, r0 = 1 y
como q 0 (e1 ) < 0, s0 = 0.
Supongamos pues α 6= −1, 1/4, con lo que r0 = 2. El vector e4 es anisótropo con
0
q (e4 ) = −1, y el subespacio conjugado de L[e4 ] en V está formado por los vectores
x1 e1 + x4 e4 tales que
  
3α − 1 2α x1
0 = (0, 1) = 2αx1 − x4 .
2α −1 x4

Elegimos, por ejemplo, x1 = 1, x4 = 2α, y operando

q 0 (e1 + 2αe4 ) = −1 + 4α2 + 3α = −(1 + α)(1 − 4α).

Resulta que s0 = 1 si α < −1 o α > 1


4 y es s0 = 0 si −1 < α < 14 .
En fin, la discusión se resume en que el par rango, signatura (r, s) = (2r0 , 2s0 )
toma los siguientes valores según α ∈ R:
1
−1 4
α qqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqu
qqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqu
qqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqq
n (4, 2) 6 (4, 0) 6 (4, 2)
(r, s) =
(2, 0) (2, 0)


Número 8. Estudiar para qué valores del número real a, el polinomio

q(x, y, z) = 8x2 − 6xy + y 2 − 2xz + az 2

es diferencia de dos cuadrados de formas lineales. Para tales valores de a encontrar


formas lineales `1 y `2 tales que q(x, y, z) = `1 (x, y, z)`2 (x, y, z).
Solución. Una manera de obtener expresiones de q(x, y, z) como sumas o diferencias
de cuadrados de formas lineales es buscar diagonalizaciones de la forma cuadrática
asociada al polinomio. En este caso, buscamos formas lineales independientes x0 , y 0 , z 0
tales que q(x, y, z) = x02 − y 02 . Esto se hace mediante un cambio de coordenadas, y
por tanto la forma cuadrática deberá tener rango 2 y signatura 1. Según esto, como
la matriz (respecto de la base estándar de R3 ) de la forma cuadrática es
 
8 −3 −1
M = −3 1 0,
−1 0 a
Apéndice: Soluciones §17 245

deberá ser 0 = det(M ) = −a − 1.


Obsérvese que si a = −1 la signatura de q es 1, ya que q(e2 ) = 1 > 0 y q(e3 ) =
−1 < 0. Por tanto, a = −1 es el único valor para el que q es diferencia de dos
cuadrados de formas lineales.
Para obtener éstas diagonalizamos. Primero tomamos u = (0, 1, 0), de modo que
q(u) = 1 > 0. A continuación, elegimos v = (x, y, z) conjugado de u, esto es tal que:

0 = uM v t = (−3, 1, 0)v t = −3x + y.

Por ejemplo, v = (0, 0, 1) que es anisótropo: q(v) = a = −1. El tercer vector w


será uno que también cumpla y = 3z y sea conjugado de v:

0 = vM wt = (−1, 0, −1)wt = −x − z.

Nos vale w = (1, 3, −1) que, como era presumible, es isótropo: q(w) = 0. En conse-
cuencia, en coordenadas (x0 , y 0 , z 0 ) respecto de la base B = {u, v, w} se escribe

q(x, y, z) = x02 − y 02 .

En fin, las nuevas coordenadas χ0 = (x0 , y 0 , z 0 ) se calculan en función de χ = (x, y, z)


resolviendo el sistema χt = C(B, E)χ0t , esto es,
  0 
z0
   
x 0 0 1 x
 y =  1 0 3   y 0  =  x0 + 3z 0  ,
z 0 1 −1 z0 y0 − z0
y por tanto
x0 = −3x + y, y 0 = x + z, z 0 = x.
Obsérvese que

q(x, y, z) = x02 − y 02 = (x0 + y 0 )(x0 − y 0 ) = (−2x + y + z)(−4x + y − z).

Para terminar, un comentario. El enunciado no dice que se busque expresar q co-


mo diferencia de cuadrados de formas lineales independientes. Pero si no lo fueran,
digamos h y λh, entonces

q(x, y, z) = h2 − (λh)2 = (1 − λ2 )h2 ,

y tendrı́amos un cuadrado o su opuesto. En términos de la forma cuadrática, esto sig-


nificarı́a que el rango fuera 1. Como el rango es siempre ≥ 2, no puede existir tal h.


Número 9. Demostrar con todo detalle las afirmaciones de IV.17.2(4), vol. 2, p.


168, e ilustrar con ejemplos el diferente comportamiento al respecto de las formas
degeneradas y las no degeneradas.
246 IV. Formas bilineales y formas cuadráticas

Solución. Sean V y W subespacios de un espacio E en el que está definida una forma


bilineal ϕ simétrica o antisimétrica.
(i) Si V ⊃ W entonces V 0 ⊂ W 0 . En efecto, dado u ∈ V 0 se tiene ϕ(u, v) = 0 para
cada v ∈ V , y en particular ϕ(u, w) = 0 para cada w ∈ W , luego u ∈ W 0 .
(ii) Veamos ahora que (V + W )0 = V 0 ∩ W 0 . Acabamos de probar que conjugar
invierte los contenidos. Por eso (V + W )0 ⊂ V 0 ∩ W 0 , ya que V + W contiene tanto a
V como a W .
Recı́procamente, dados u ∈ V 0 ∩ W 0 y v + w ∈ V + W , donde v ∈ V y w ∈ W , se
tiene
ϕ(u, v + w) = ϕ(u, v) + ϕ(u, w) = 0 + 0 = 0,
luego u ∈ (V + W )0 .
(iii) (V ∩ W )0 ⊃ V 0 + W 0 . Como V ∩ W está contenido en V y en W deducimos de
(i) que (V ∩ W )0 contiene tanto a V 0 como a W 0 , luego también contiene a su suma.
(iv) V 00 ⊃ V . Para cualesquiera v ∈ V y w ∈ V 0 se tiene ϕ(v, w) = 0. Esto
significa que para cada v ∈ V fijo, v ∈ V 00 .
Si ϕ es degenerada, las inclusiones que aparecen en los apartados (iii) y (iv) no
son necesariamente igualdades.
En efecto, empecemos con (iii). Supongamos que existen un vector no nulo u ∈
E conjugado de todos los demás, y uno v que no lo sea, los dos necesariamente
independientes; tomamos V = L[v] y W = L[u + v]. Como V ∩ W = {0}, resulta
(V ∩ W )0 = {0}0 = E. Por otra parte, V y W tienen el mismo conjugado L[v]0 , pues

ϕ(u + v, w) = ϕ(u, w) + ϕ(v, w) = ϕ(v, w).

Ası́ V 0 + W 0 = L[v]0 6= E = (V ∩ W )0 ya que v no es conjugado de todos los vectores


de E. En cuanto a (iv), sea u como antes, y V ⊂ E un subespacio cualquiera que no
contenga al vector u. Entonces u ∈ V 00 \ V .
En cambio, si ϕ es no degenerada, los contenidos de (iii) y (iv) son igualdades. La
razón es que en tal caso para cada subespacio F ⊂ E se cumple:

dim(F ) + dim(F 0 ) = dim(E) (IV.17.2(2), vol. 2, p. 168)

Veamos cómo esta fórmula implica las igualdades en (iii) y (iv). Para ello basta ver
que dim((V ∩ W )0 ) = dim(V 0 + W 0 ) y dim(V 00 ) = dim(V ). Para lo primero,

dim (V ∩ W )0 = dim(E)−dim(V ∩ W )


= dim(E)− dim(V )+dim(W )−dim(V +W )
  
= dim(E)−dim(V ) + dim(E)−dim(W ) − dim(E)−dim(V +W )
= dim(V 0 )+dim(W 0 )−dim((V +W )0 )
= dim(V 0 )+dim(W 0 )−dim(V 0 ∩ W 0 ) = dim(V 0 +W 0 ),
Apéndice: Soluciones §17 247

mientras que para lo segundo,

dim(V 00 ) = dim(E) − dim(V 0 ) = dim(V ).

Para terminar, la igualdad


V 0 = ϕ−1 ∨
1 (V )

es consecuencia inmediata de las definiciones: un vector v ∈ E está en ϕ−1 ∨


1 (V ) si y

sólo si la forma ϕ( ·, v) está en V , si y sólo si se anula sobre V , que es lo mismo que
decir que v está en el conjugado V 0 .
El lector puede deducir las propiedades (i) a (iv) a partir de esta última fórmula,
y de que se cumplen para la dualidad canónica. Ası́mismo, como ϕ1 induce una
aplicación lineal inyectiva [ϕ1 ] : E/V 0 → E ∗ /V ∨ , deducimos

codim(V 0 ) = dim(E/V 0 ) ≤ dim(E ∗ /V ∨ ) = codim(V ∨ ) = dim(V ).

Y si ϕ es no degenerada, [ϕ1 ] es isomorfismo, con lo que la anterior desigualdad es


una igualdad. 

Número 10. Sean ϕ : E × E → K una forma bilineal simétrica no degenerada y


V un subespacio de E que no contiene vectores isótropos. Utilizar el conjugado de V
para construir una simetrı́a f respecto de V tal que

ϕ(f (u1 ), f (u2 )) = ϕ(u1 , u2 ).

Solución. Denotamos W = V 0 , y empleamos la pista que nos proporciona el enun-


ciado construyendo una simetrı́a que tenga a W por dirección. Para que sea efec-
tivamente ası́, V y W deben ser suplementarios. Como V no tiene vectores isótro-
pos, V ∩ W = {0}, y resta ver que V + W = E. Pero por ser ϕ no degenerada,
dim(W ) = dim(E) − dim(V ), o sea,

dim(V + W ) = dim(V ) + dim(W ) − dim(V ∩ W ) = dim(E).

En conclusión E = V ⊕ W , como se querı́a.


Finalmente, la simetrı́a respecto de V en la dirección de W cumple lo requerido.
En efecto, dados ui = vi + wi ∈ E = V ⊕ W (i = 1, 2), tenemos


ϕ(u1 , u2 ) = ϕ(v1 + w1 , v2 + w2 ) = ϕ(v1 , v2 ) + ϕ(v1 , w2 ) + ϕ(w1 , v2 ) + ϕ(w1 , w2 )

 = ϕ(v1 , v2 ) + ϕ(w1 , w2 ),


ϕ(f (u1 ), f (u2 )) = ϕ(v1 − w1 , v2 −w2 ) = ϕ(v1 , v2 )−ϕ(v1 , w2 )−ϕ(w1 , v2 )+ϕ(w1 , w2 )
= ϕ(v1 , v2 ) + ϕ(w1 , w2 ),

pues ϕ(v1 , w2 ) = ϕ(w1 , v2 ) = 0 por conjugación. 


248 IV. Formas bilineales y formas cuadráticas

Número 11. Demostrar que la signatura de una forma bilineal simétrica de un


espacio vectorial real es:
(1) La máxima dimensión de un subespacio sobre el que la forma cuadrática
asociada es > 0 (salvo por q(0) = 0).
(2) La mı́nima codimensión de un subespacio sobre el que la forma cuadrática
asociada es ≤ 0.
Solución. Denotemos E el espacio vectorial real del enunciado, ϕ una forma bilineal
simétrica de E y B = {u1 , . . . , un } una base de E de modo que respecto de estas
coordenadas se escriba

q(x) = x21 + · · · + x2s − x2s+1 − · · · − x2r .

El rango de ϕ es r y su signatura es s. La restricción de q al subespacio

E> (B) : xs+1 = · · · = xn = 0

es q(x) = x21 +· · ·+x2s > 0, salvo si x = 0, y dim(E> (B)) = s. Ası́, para demostrar (1),
es suficiente comprobar que no existe ningún subespacio V de E con dim(V ) = s + 1
tal que q|V > 0 (salvo si x = 0). Si existiera, compartirı́a algún vector no nulo con el
subespacio
W = E≤ (B) : x1 = · · · = xs = 0,
ya que

dim(V ∩ W ) = dim(V ) + dim(W ) − dim(V + W )


= (s + 1) + (n − s) − dim(V + W ) = n + 1 − dim(V + W ) ≥ 1.

Ahora bien, la restricción de q a W es q(x) = −(x2s+1 + · · · + x2r ) ≤ 0. Esto es


contradictorio, pues tomando u ∈ V ∩ W no nulo, resulta 0 < q(u) ≤ 0.
Probemos (2). Acabamos de ver que q|W ≤ 0 y codim(W ) = s, luego basta de-
mostrar que no existe ningún subespacio W1 de E con codim(W1 ) = s − 1 y q|W1 ≤ 0.
Supongamos lo contrario. Usando la fórmula de Grassmann como antes, se encuen-
tra un vector no nulo v ∈ E> (B) ∩ W1 , lo que implica 0 < q(v) ≤ 0, contradicción.


Número 12. Sea ϕ una forma cuadrática real de rango r y signatura s de un espacio
vectorial real E de tipo finito. Probar que máx{r − s, s} es la dimensión máxima de
un subespacio vectorial de E que no contiene vectores isótropos y que máx{r − s, s}
es la codimensión mı́nima de uno que consiste exclusivamente de ellos.
Solución. Sea B = {u1 , . . . , un } una base de E de modo que respecto de estas
coordenadas se escribe

q(x) = x21 + · · · + x2s − x2s+1 − · · · − x2r .


Apéndice: Soluciones §17 249

Las restricciones de q a los subespacios

V : xs+1 = · · · = xn = 0 y W : x1 = · · · = xs = xr+1 = · · · = xn = 0

no tienen vectores isótropos, ya que


(
x21 + · · · + x2s en V , y
q(x) =
−x2s+1 − · · · − x2r en W .

Como dim(V ) = s y dim(W ) = r − s hemos probado que máx{r − s, s} es menor o


igual que la dimensión máxima d de un subespacio vectorial de E que no contiene
vectores isótropos. Pero sea F ⊂ E un subespacio de dimensión d, y consideremos en
él unas coordenadas y = (y1 , . . . , yd ) en las cuales la restricción de q diagonalice:

q(y) = y12 + · · · + yσ2 − yσ+1


2
− · · · − x2ρ .

Si d > s, por el problema anterior, q no puede ser > 0 en F , y si d > r − s, no puede


ser < 0 en F (r − s es la signatura de −q). En consecuencia, bien σ + ρ < d, bien
σ + ρ = d y ρ > σ > 0. En el primer caso el vector (0, . . . , 0, 1) es isótropo, y en el
segundo lo es (1, 0, . . . , 0, 1). Esto muestra que necesariamente d = máx{r − s, s}.
Para la segunda parte mantenemos las notaciones de la primera, y para simplificar
suponemos que s ≥ r − s. El otro caso se argumenta análogamente. Observamos que
todos los vectores del subespacio

F : x1 = xs+1 , . . . , xr−s = xr , xr−s+1 = · · · = xs = 0

son isótropos y codim(F ) = s.


En fin, si un subespacio G ⊂ E tiene codim(G) < s, en V ∩ G hay algún vector
v 6= 0, ya que dim(V ) + dim(G) > n, y v ∈ V no es isótropo. 

Número 13. Sean ϕ una forma bilineal simétrica de un espacio vectorial real de
dimensión ≥ 2, y q la forma cuadrática asociada. Probar que si ϕ cambia de signo en
E, entonces q tiene vectores isótropos, (i) sin diagonalizar, y (ii) haciéndolo. ¿Qué se
puede decir del rango y la signatura en ese caso?
Solución. (i) Suponemos que q cambia de signo y vamos a comprobar que ϕ tiene
vectores isótropos. Sean u, v ∈ E tales que q(u) > 0 y q(v) < 0. Probaremos que
existe t ∈ R tal que el vector w = tu + v es isótropo. Esto equivale a que w no sea
nulo y cumpla

0 = ϕ(tu + v, tu + v) = q(u)t2 + 2ϕ(u, v)t + q(v).

Lo primero es cierto para cualquier elección de t, pues en caso contrario v = −tu,


luego q(v) = t2 q(u) ≥ 0, y esto es falso. En cuanto a la ecuación de segundo grado,
tiene raı́ces reales porque su discriminante δ = ϕ(u, v)2 − q(u)q(v) es ≥ 0.
250 IV. Formas bilineales y formas cuadráticas

(ii) Suponemos de nuevo que q cambia de signo. Entonces, respecto de unas coor-
denadas adecuadas, se escribe
q(x) = x21 + · · · + x2s − x2s+1 − · · · − x2r ,
con s > 0, r − s > 0. Resulta que tomando x1 = xs+1 y todas las demás coordenadas
nulas obtenemos vectores isótropos.
En fin, podemos concluir que ϕ no tiene vectores isótropos exactamente cuando
es no degenerada y la signatura es extremal (nula o igual a la dimensión). 

Número 14. Comparar el rango y la signatura de dos formas bilineales simétricas


reales que tienen los mismos vectores isótropos.
Solución. Vamos a demostrar en primer lugar que el conjunto de vectores isótropos
de una forma cuadrática determina su rango. Por supuesto, esto implica que dos
formas bilineales simétricas reales que tienen los mismos vectores isótropos comparten
el rango.
Sea ϕ una forma bilineal simétrica del espacio real E de dimensión n y q la forma
cuadrática asociada. Denotamos Q el conjunto de vectores isótropos de ϕ. Para cada
subespacio vectorial V de E escribimos
Q + V = {u + v : u ∈ Q, v ∈ V }.
Probaremos que el rango r de ϕ es la codimensión mı́nima de un subespacio vectorial
V de E tal que Q + V ⊂ Q.
En efecto, sea B = {u1 , . . . , un } una base de E en cuyas coordenadas se escribe
ϕ(x, y) = x1 y1 + · · · + xs ys − xs+1 ys+1 − · · · − xr yr .
El subespacio W : x1 = · · · = xr = 0, obviamente de codimensión r, cumple Q + W ⊂
Q. En efecto, si u ∈ Q y w ∈ W ,
ϕ(u + w, u + w) = ϕ(u, u) + 2ϕ(u, w) + ϕ(w, w) = 0 + 0 + 0 = 0.
Supongamos que existe un subespacio V tal que codim(V ) < r y Q + V ⊂ Q. La
primera condición garantiza, por la fórmula de Grassmann, Pr la existencia de un vector
no nulo v ∈ V ∩ {xr+1 = · · · = xn = 0}. El vector v = k=1 ck uk es isótropo, ya que
V ⊂ Q, luego
0 = ϕ(v, v) = c21 + · · · + c2s − c2s+1 − · · · − c2r .
Vemos aquı́ que 0 < s < r, pues en otro caso el vector v serı́a nulo. Para cada dos
ı́ndices i y j con 1 ≤ i ≤ s y s + 1 ≤ j ≤ r, consideramos los vectores isótropos
wij = ui + uj y wji = ui − uj . Por la hipótesis sobre V también son isótropos v + wij
y v + wji , y teniendo todo esto en cuenta obtenemos
0 = ϕ(v + wij , v + wij ) = 2ϕ(v, wij ) = 2(ci − cj ),
0 = ϕ(v + wji , v + wji ) = 2ϕ(v, wji ) = 2(ci + cj ),
Apéndice: Soluciones §17 251

o sea, ci = cj = 0. En conclusión, v = 0, absurdo.


Queda de este modo probado que si ϕ y ψ son dos formas bilineales con los mismos
vectores isótropos, sus rangos coinciden. Llamando r a dicho rango común y sϕ y sψ
a sus signaturas, se deduce del ejercicio número 12 de esta lección IV.17, vol. 2, p.
181, que, por compartir ϕ y ψ sus conjuntos de vectores isótropos,

máx{r − sϕ , sϕ } = máx{r − sψ , sψ }.

En consecuencia, bien sϕ = sψ , bien sϕ + sψ = r. En resumen, dos formas bilineales


con los mismos vectores isótropos comparten el rango y, bien sus signaturas coinciden,
bien suman el rango. 

Número 15. Sean A y B dos matrices cuadradas regulares del mismo orden con
coeficientes complejos, no necesariamente simétricas. Demostrar que A y B son con-
gruentes si y sólo si los productos At A−1 y B t B −1 son semejantes.
Solución. Suponemos primero que A y B son congruentes: A = C t BC para cierta
matriz regular C. Entonces At = C t B t C y A−1 = C −1 B −1 (C t )−1 , luego

At A−1 = C t B t CC −1 B −1 (C t )−1 = C t B t B −1 (C t )−1 ,

esto es, At A−1 y B t B −1 son semejantes.


Supongamos ahora que At A−1 = Q−1 B t B −1 Q siendo Q una matriz regular. Te-
nemos: (
At = Q−1 B t B −1 QA = Q−1 B t M,
con M = B −1 QA.
A = Q−1 BB −1 QA = Q−1 BM,
Ası́,
Q−1 BM = (At )t = (Q−1 B t M )t = M t B(Q−1 )t ,
y por tanto BM Qt = QM t B. Esto significa que la matriz N = M Qt , que es regular,
cumple BN = N t B.
De hecho, BN k = (N t )k B, para todo k ≥ 0 En efecto, para k = 0 es trivial, y
para k = 1 lo acabamos de ver. Por inducción, si k ≥ 2,

BN k = BN k−1 N = (N t )k−1 BN = (N t )k−1 N t B = (N t )k B.

Teniendo esto en cuenta, y que (N t )k = (N k )t , se deduce inmediatamente que


Bf (N ) = f (N )t B para cualquier polinomio f (T ) ∈ C[T ].
Vimos al resolver el ejercicio número 9 de la lección III.14, vol. 2, p. 129, que
por ser N una matriz regular compleja tiene raı́z cuadrada, y de hecho existe un
polinomio f (T ) ∈ C[T ] tales que f (N )2 = N . Denotamos R = f (N ), y por todo lo
anterior tenemos BR = Rt B. Además, R es regular, ya que R(RN −1 ) = I.
252 IV. Formas bilineales y formas cuadráticas

Recopilando las definiciones de M , N y R, obtenemos:

A = Q−1 BM = Q−1 BN (Q−1 )t = Q−1 BRR(Q−1 )t = Q−1 Rt BR(Q−1 )t ,

lo que muestra que A y B son congruentes, pues R(Q−1 )t es regular. 

Soluciones §18
Número 1. Sea A ∈ Mn (R) una matriz de rango r.
(1) Demostrar que la matriz At A define una forma cuadrática semidefinida posi-
tiva de rango r.
(2) Deducir que la matriz M = In + At A define un producto escalar.
(3) Aplicar (2) para mostrar que en el caso K = R el sistema del ejercicio 11 de
la lección I.3, vol. 1, p. 43, nunca es compatible indeterminado.
(4) Encontrar un ejemplo de que (3) no vale para K = C.
Solución. (1) Denotemos hx, yi el producto escalar estándar en Rn . Entonces:

xAt Axt = xAt (xAt )t = hxAt , xAt i ≥ 0,

luego la forma cuadrática q(x) definida por At A es semidefinida positiva.


Por otra parte, rg(At A) ≤ rg(A) = r y falta ver que rg(At A) ≥ r. Para ello
consideramos una submatriz T de A formada por r = rg(A) columnas independientes.
Esas columnas son una base de un subespacio vectorial E de Rn , y la matriz del
producto escalar estándar respecto de ella es T t T . Por tanto, rg(T t T ) = dim(E) = r.
Pero T t T es una submatriz de At A, luego rg(At A) ≥ r como se querı́a.
(2) Tenemos:

xM xt = x(In + At A)xt = xxt + xAt Axt ≥ 0,

pues ambos sumandos son ≥ 0. Y la igualdad sólo se da si xxt = xAt Axt = 0, esto
es, si x = 0.
(3) En la solución de aquel ejercicio (lección I.3, vol. 1, p. 108) se concluı́a que
si el sistema tenı́a solución pero no única, entonces el determinante de cierta matriz
I + At A debı́a ser nulo. Esto es imposible para K = R, pues tal determinante es el de
un producto escalar, luego > 0.
(4) Lo anterior no vale para K = C pues hay muchas matrices
√ complejas de la
forma In + At A con determinante nulo. Tómese por ejemplo A = −1I (y, por com-
pletar los datos del problema en cuestión, B = C = 0). 
Apéndice: Soluciones §18 253

Número 2. Sea f = (f1 , . . . , f5 ) : Rn → R5P una aplicación lineal suprayectiva. Se


considera la forma bilineal simétrica ϕ(x, y) = i fi (x)fi (y). Calcular n sabiendo que
la signatura de ϕ coincide con la dimensión del núcleo de f .
Solución. La forma cuadrática q inducida por ϕ cumple q(x) = i fi (x)2 ≥ 0 para
P
cada vector x ∈ Rn , luego la signatura y el rango de ϕ coinciden, y por las hipótesis

rg(ϕ) = dim(ker(f )) = n − 5.

Ahora calculemos la matriz Mϕ (En ) de ϕ respecto de la base estándar de Rn a partir


de la matriz A = Mf (En , E5 ) de f respecto de las bases estándar de Rn y R5 . Para
cada par de vectores x, y ∈ Rn ,

xMϕ (En )y t = ϕ(x, y) = (Axt )t Ay t = xAt Ay t ,

es decir, Mϕ (En ) = At A. Por el ejercicio anterior,

rg(ϕ) = rg(At A) = rg(A) = 5,

y como hemos visto antes que rg(ϕ) = n − 5, concluimos n = 10. 

Número 3. Sean A ∈ Mn (R) una matriz simétrica y b = (b1 , . . . , bn ) ∈ Rn . De-


mostrar que el sistema de ecuaciones lineales Axt = bt tiene solución si y sólo si
el vector b es ortogonal a todos los vectores y ∈ Rn que son solución del sistema
homogéneo Axt = 0.
Solución. Sea uj ∈ Rn la fila j-ésima de A. Como esta matriz es simétrica, el sis-
tema Axt = bt tiene solución si y sólo si b ∈ V = L[u1 , . . . , un ]. Por otro lado, los
vectores y ∈ Rn que cumplen Ay t = 0 constituyen el complemento ortogonal V ⊥
de V (producto euclı́deo estándar). En consecuencia, Axt = bt tiene solución si y
sólo si b ∈ V = (V ⊥ )⊥ , si y sólo si b es ortogonal a las soluciones de Axt = 0.


Número 4. Demostrar el teorema del coseno: en un espacio euclı́deo E, para cua-


lesquiera u, v ∈ E se cumple

ku − vk2 = kuk2 + kvk2 − 2kukkvk cos(u, v).

Solución. Basta observar que

kuk2 + kvk2 − ku − vk2 = hu, ui + hv, vi − hu − v, u − vi


= hu, ui + hv, vi − (hu, ui + hv, vi − 2hu, vi)
= 2hu, vi = 2kukkvk cos(u, v). 
254 IV. Formas bilineales y formas cuadráticas

Número 5. Consideramos en R4 el producto escalar estándar. Proyectar ortogo-


nalmente el vector (1, 1, 1, 1) sobre el subespacio V : x − y + z − 2t = y + z = 0, y
sobre su complemento ortogonal V ⊥ .
Solución. Si p es la proyección ortogonal sobre V y p⊥ la proyección ortogonal sobre
V ⊥ , se tiene u = p(u) + p⊥ (u) ∈ V ⊕ V ⊥ . Además de esto, recordemos que las mismas
ecuaciones de V nos dicen que V ⊥ está generado por los vectores (1, −1, 1, −2) y
(0, 1, 1, 0). Por tanto,
(
p⊥ (u) = a(1, −1, 1, −2) + b(0, 1, 1, 0) ∈ V ⊥ ,
p(u) = u − a(1, −1, 1, −2) − b(0, 1, 1, 0) ∈ V.

Para u = (1, 1, 1, 1), obtenemos p(u) = (1−a, 1+a−b, 1−a−b, 1+2a), y sustituyendo
en las ecuaciones de V :
(
0 = (1 − a) − (1 + a − b) + (1 − a − b) − 2(1 + 2a) = −1 − 7a,
0 = (1 + a − b) + (1 − a − b) = 2 − 2b,

luego a = − 71 , b = 1. En fin, p(u) = 17 (8, −1, 1, 5), p⊥ (u) = 17 (−1, 8, 6, 2). 

Número 6. Demostrar que el producto vectorial cumple la siguiente igualdad:

ku × vk2 = kuk2 kvk2 − hu, vi2 .

Deducir que el producto vectorial no depende de la base salvo producto por ±1, y
que esta ambigüedad se resuelve mediante la condición de signo

det{u × v, u, v} > 0.

Solución. Supongamos primero que {u, v} son dependientes. Podemos entonces su-
poner que v = au para cierto a ∈ R, de modo que

kuk2 kvk2 − hu, vi2 = kuk2 kauk2 − hu, aui2


= a2 kuk4 − (akuk2 )2 = 0 = ku × auk2 = ku × vk2 .

Por tanto, supondremos en lo que sigue que los vectores {u, v} son independientes.
Sea B = {w1 , w2 , w3 } una base ortonormal de un espacio euclı́deo E de dimensión 3.
Denotamos x = (x1 , x2 , x3 ) e (y1 , y2 , y3 ) las coordenadas de u y v respecto de esta
base, de modo que las coordenadas del producto vectorial ϑ = u × v son
     
x2 x3 x1 x3 x1 x2
z1 = det , z2 = − det , z3 = det .
y2 y3 y1 y3 y1 y2
Apéndice: Soluciones §18 255

Como la base es ortonormal


kϑk2 = (x2 y3 − x3 y2 )2 + (x1 y3 − x3 y1 )2 + (x1 y2 − x2 y1 )2
= x22 y32 + x23 y22 − 2x2 y2 x3 y3 + x21 y32 + x23 y12 − 2x1 y1 x3 y3
+ x21 y22 + x22 y12 − 2x1 y1 x2 y2
= (x21 + x22 + x23 )(y12 + y22 + y32 ) − (x1 y1 + x2 y2 + x3 y3 )2
= kuk2 kvk2 − hu, vi2 .
Recordamos ahora que ϑ genera L[u, v]⊥ , que es una recta, lo que nos da ϑ salvo
proporcionalidad, mientras que la fórmula que hemos demostrado proporciona su
módulo. Esto determina ϑ salvo signo.
Pero det{−ξ, u, v} = − det{ξ, u, v}, luego la condición det{u×v, u, v} > 0 resuelve
la indeterminación. De hecho, éste es el signo que corresponde, pues
 
z1 z2 z3
det{ϑ, u, v} = det x1 x2 x3  = z12 + z22 + z32 > 0.
y1 y2 y3 

Número 7. Demostrar la siguiente propiedad del producto vectorial:


u × (v × w) = hu, wiv − hu, viw.
¿Es este producto asociativo?
Solución. Estudiamos primero el caso en que u = v y los vectores {u, w} son orto-
gonales. Se trata entonces de probar que
u × (u × w) = −kuk2 w.
Pero la base  
u w u w
B= , , ×
kuk kwk kuk kwk
es ortonormal positiva, por lo que
u  u w  w
× × =− ,
kuk kuk kwk kwk
y quitando denominadores llegamos a la igualdad propuesta.
Probaremos ahora la fórmula del enunciado suponiendo sólo u = v. Se trata de
demostrar que
u × (u × w) = hu, wiu − kuk2 w.
Si u, w no son independientes, la comprobación es inmediata. Suponemos pues que lo
son, y elegimos un vector w0 ∈ L[u, w] ortogonal a u. Entonces existen a, b ∈ R tales
que w = au + bw0 . De hecho hu, wi = akuk2 y
u × w = u × (au + bw0 ) = bu × w0 .
256 IV. Formas bilineales y formas cuadráticas

Por lo probado inicialmente,


u×(u×w) = u×(bu×w0 ) = −bkuk2 w0 = kuk2 (au − w) = hu, wiu − kuk2 w.
Abordamos finalmente el caso general. Si v, w son dependientes, la fórmula se
comprueba sin problema, ası́ que supondremos que son independientes. Entonces la
terna B0 = {v, w, v × w} es una base de E, y por tanto u = av + bw + c(v × w) para
ciertos a, b, c ∈ R. En consecuencia,
u×(v×w) = (av+bw+c(v×w)) × (v×w) = av×(v×w) − bw×(w×v)
y empleando el caso particular anterior,
u × (v × w) = a(hv, wiv − kvk2 w) − b(hw, viw − kwk2 v)
= hav + bw, wiv − hav + bw, viw
= hu − c(v × w), wiv − hu − c(v × w), viw = hu, wiv − hu, viw.
Por último, analicemos la asociatividad. Por la fórmula probada,
(u × v) × w = −w × (u × v) = hu, wiv − hv, wiu,
y si u×(v×w) = (u×v)×w, debe ser
hu, viw = hv, wiu.
Ası́ que si u y w son independientes, y v no es perpendicular a ambos, la asociatividad
no es posible. 

Número 8. Sean E un espacio vectorial euclı́deo de dimensión 3, L la recta genera-


da por un vector ϑ y W = L⊥ . Mostrar que para cada vector u ∈ E la descomposición
ortogonal u = v + w, v ∈ L, w ∈ W está dada por
1 1
v= kϑk2 hϑ, uiϑ, w= kϑk2 ϑ × (u × ϑ).

Solución. Escribimos u = aϑ + w para ciertos a ∈ R y w ∈ W , y se nos propone


demostrar que
1 1
a = kϑk 2 hϑ, ui y w = kϑk 2 ϑ × (u × ϑ).

Para calcular a basta multiplicar escalarmente por ϑ los dos miembros de la igualdad
u = aϑ + w. Se tiene ası́,
hϑ, ui = hϑ, aϑ + wi = ahϑ, ϑi = akϑk2 ,
1
es decir, a = kϑk 2 hϑ, ui. Si u es proporcional a ϑ no hay que hacer nada más, pues

w = 0 en ese caso. Si u, ϑ son independientes, el vector w, que desde luego es ortogonal


a ϑ, también lo es a u × ϑ. En efecto, como u × ϑ es ortogonal a u y a ϑ,
hw, u × ϑi = hu − aϑ, u × ϑi = 0.
Apéndice: Soluciones §18 257

Por tanto, el vector w es proporcional al producto vectorial de ϑ y u × ϑ, es decir,


existe b ∈ R tal que w = b(ϑ × (u × ϑ)), y nos queda calcular b. Pero, por el ejercicio
anterior,
ϑ × (u × ϑ) = hϑ, ϑiu − hϑ, uiϑ = kϑk2 u − hϑ, uiϑ,
lo que nos permite calcular b:

u − aϑ = w = b(ϑ × (u × ϑ)) = bkϑk2 u − bhϑ, uiϑ,

y por la independencia de u y ϑ, deducimos, igualando componentes, 1 = bkϑk2 , luego


1
b = kϑk 2. 

Número 9. Demostrar la identidad de Jacobi del producto vectorial:

u × (v × w) + w × (u × v) + v × (w × u) = 0.

Solución. Según el ejercicio número 7 de esta lección, vol. 2, p. 194, se cumplen las
igualdades
u × (v × w) = hu, wiv − hu, viw,
w × (u × v) = hv, wiu − hu, wiv,
v × (w × u) = hu, viw − hv, wiu,
y se advierte que los seis sumandos de los segundos miembros se cancelan de dos en
dos, luego la suma es nula. 

Número 10. Sean v1 , v2 , w1 , w2 ∈ R3 vectores no nulos tales que v1 × v2 6= 0.


(1) Demostrar que existen vectores u ∈ R3 tales que v1 × u = w1 si y sólo si
hv1 , w1 i = 0. En tal caso, ¿cuáles son todos esos vectores u?
n v ×u=w ,
1 1
(2) Estudiar cuándo el sistema tiene soluciones, y cuántas.
v2 × u = w 2 ,
Solución. (1) Como el producto vectorial de dos vectores es ortogonal a cada factor,
si existe u tal que w1 = v1 × u, entonces w1 es ortogonal a v1 , es decir, hv1 , w1 i = 0.
Recı́procamente, supongamos que v1 y w1 son ortogonales. Entonces {v1 , w1 , v1 × w1 }
es una base ortogonal de R3 , y las posibles soluciones de la ecuación propuesta se
escribirán

u = av1 + bw1 + cv1 × w1 = av1 + cv1 × w1 , para a, b, c ∈ R,

pues b = 0, ya que u debe ser perpendicular a w1 = v1 × u. Al multiplicar vectorial-


mente esta igualdad por v1 se tiene

w1 = v1 × u = v1 × av1 + v1 × (cv1 × w1 )
= chv1 , w1 iv1 − chv1 , v1 iw1 = −ckv1 k2 w1 ,
258 IV. Formas bilineales y formas cuadráticas

y como w1 6= 0 se deduce 1 = −ckv1 k2 . En consecuencia, las soluciones son los vectores


1
(∗) u = av1 − v1 × w1 , para a ∈ R.
kv1 k2
(2) Por el apartado anterior, para que el sistema tenga solución, lo primero es
que hv1 , w1 i = hv2 , w2 i = 0. Entonces conocemos las soluciones de cada ecuación
separadamente.
(
Soluciones de la primera ecuación: u ∈ u1 + L[v1 ] con u1 = − kv11 k2 v1 × w1 ,
Soluciones de la segunda ecuación: u ∈ u2 + L[v2 ] con u2 = − kv12 k2 v2 × w2 .

En consecuencia, el sistema tiene solución si y sólo si la intersección

(u1 + L[v1 ]) ∩ (u2 + L[v2 ])

es no vacı́a. Veamos qué significa esto. Si tenemos una solución u = u1 + a1 v1 = u2 +


a2 v2 , pasando de miembro queda u2 − u1 = a1 v1 − a2 v2 ∈ L[v1 , v2 ]. Recı́procamente,
si u2 − u1 ∈ L[v1 , v2 ], como v1 , v2 son independientes (v1 × v2 6= 0), hay una única
expresión u2 − u1 = a1 v1 − a2 v2 , y u = u1 + a1 v1 = u2 + a2 v2 es la única solución del
sistema.
Por tanto, el sistema tiene solución, y entonces ésta es única, si y sólo si hv1 , w1 i =
hv2 , w2 i = 0 y u2 − u1 ∈ L[v1 , v2 ]. 

Número 11. Demostrar que el subconjunto X de R3 definido por las ecuaciones

3(x2 + y 2 + z 2 ) = 1, x2 y 2 + x2 z 2 + y 2 z 2 = xyz(x + y + z)3

es finito, y obtener la lista de sus elementos.


Solución. Comenzamos buscando aquellos vectores w = (x, y, z) ∈ X con alguna
coordenada nula. Si, por ejemplo, x = 0, entonces 3(y 2 + z 2 ) = 1 e y 2 z 2 = 0, luego
bien y = 0, bien z = 0. En el primer caso z = ± √13 , y en el segundo, y = ± √13 . Como
los papeles de las variables son intercambiables, por la simetrı́a de los polinomios
que definen X, resulta que este conjunto contiene exactamente 6 vectores con alguna
coordenada nula, que son los siguientes:

± √13 , 0, 0 , 0, ± √13 , 0 , 0, 0, ± √13 .


  

Buscamos ahora (x, y, z) ∈ X con las tres coordenadas no nulas. Aplicando la de-
sigualdad de Cauchy-Schwarz a los vectores w = (x, y, z) y u = (1, 1, 1), resulta
2
(x + y + z) = hu, wi2 ≤ ku k2 kw k2 = 3 x2 + y 2 + z 2 = 1,


y como x2 y 2 + x2 z 2 + y 2 z 2 ≥ 0,
3
x2 y 2 + x2 z 2 + y 2 z 2 = xyz (x + y + z) ≤ xyz (x + y + z) .
Apéndice: Soluciones §18 259

Multiplicando por 2 los dos miembros extremos de esta desigualdad y manipulando


con cuidado resulta
0 ≥ x2 y 2 + x2 z 2 + y 2 z 2 + x2 y 2 + x2 z 2 + y 2 z 2 − 2x2 yz − 2xy 2 z − 2xyz 2
= (xy − xz)2 + (xy − yz)2 + (xz − yz)2
2 2 2
= x2 (y − z) + y 2 (x − z) + z 2 (x − y) .
Se desprende de aquı́ que cada sumando del último miembro es nulo, y como x, y, z
no lo son concluimos que x = y = z.
Al sustituir esto en 3(x2 + y 2 + z 2 ) = 1 obtenemos 9x2 = 1, esto es, x = y = z =
± 31 . Esto nos proporciona otros dos puntos más de X:
1 1 1 1 1 1
 
3, 3, 3 , − 3, −3, −3 .

Ası́ pues, X tiene en total 8 puntos. 

Número 12. La Universidad organiza una fiesta, al comienzo del curso académico,
a la que están invitados todos los estudiantes del programa Erasmus. En ella, dos de
un mismo paı́s no se saludan, pues ya se conocen, mientras que dos de paı́ses distintos
pueden saludarse o no, pero en el primer caso una única vez. A la fiesta asisten, en
total, m estudiantes de n paı́ses diferentes. Demostrar que el número total de saludos
1
no excede de 2n m2 (n − 1). ¿Qué ha de suceder para que se alcance ese valor máximo?
Solución. Numeramos los paı́ses de procedencia de los estudiantes y denotamos
xi el número de asistentes del paı́s i-ésimo. Sin la restricción de no Psaludar a los
n
compatriotas, el número máximo s de saludos serı́a m

2 , donde m = i=1 xi es el
número
Pn total de estudiantes que participan en la fiesta. Pero a éstos hay que quitar la
suma i=1 x2i de saludos intercambiados por personas procedentes del mismo paı́s.


Por tanto,
  X n   n
m xi X
= 12 m(m − 1) −

s≤ − xi (xi − 1)
2 i=1
2 i=1
 n
X   n
X 
= 1
2 m2 − m − x2i + m = 21 m2 − x2i .
i=1 i=1

x2i ≥
P
Ahora, IV.18.12(5), vol. 2, p. 192, compara las medias aritmética y cuadrática: i
1
P 2
n i xi = n1 m2 , y sustituyendo este valor en la desigualdad inicial:
 
s ≤ 12 m2 − n1 m2 = 2n 1
m2 (n − 1),

que es la acotación buscada.


Para que se dé la igualdad han de ocurrir dos cosas. Por un lado que todos los
asistentes saluden
 aPtodos los
 que provienen de un paı́s distinto al suyo, lo que garan-
n
tiza que s = m 2 − xi
i=1 2 . Por otro, que las medias aritmética y cuadrática de los
260 IV. Formas bilineales y formas cuadráticas

xi coincidan, y esto sucede si y sólo si x1 = · · · = xn , es decir, el número de asistentes


de cada paı́s es el mismo. 

Número 13. Sea Sn (R) el espacio vectorial formado por las matrices simétricas de
orden n > 1 con coeficientes reales, e I la matriz identidad de orden n.
(1) Comprobar que

h·, ·i : Sn (R) × Sn (R) → R : (A, B) 7→ tr(AB)

es una forma bilineal simétrica definida positiva.


(2) Mostrar que para cada matriz simétrica A ∈ Sn (R) es tr(A)2 ≤ n tr(A2 ), y
que la igualdad se da si y sólo si A = aI para cierto número real a.
(3)] Calcular el rango y la signatura de la forma bilineal simétrica

ϕ : Sn (R) × Sn (R) → R : (A, B) 7→ tr(A) tr(B) − n tr(AB).

¿Para qué valores de n el rango de ϕ es 104?


Solución. (1) La bilinealidad de h·, ·i se probó en el problema número 12 de la lección
IV.16, vol. 2, p. 166. En cuanto a la simetrı́a, escribamos A = (aij ) y B = (bij ).
Entonces AB = (cij ), donde
Xn
cij = aik bkj
k=1

y en consecuencia
n
X X n
n X n X
X n
hA, Bi = tr(AB) = cii = aik bki = bik aki = hB, Ai.
i=1 i=1 k=1 k=1 i=1

Por último, dada una matriz simétrica no nula A = (aij ), empleamos la fórmula
anterior para obtener
X n
n X n X
X n
hA, Ai = aik aki = a2ik ≥ 0.
i=1 k=1 i=1 k=1

De hecho la anterior desigualdad es una igualdad sólo si cada coeficiente aik de A es


nulo, lo que equivale a que A = 0. Por tanto, h·, ·i es definida positiva.
(2) La desigualdad de Cauchy-Schwarz se lee en este caso

tr(A)2 = hA, Ii2 ≤ hI, IihA, Ai = n tr(A2 ).

Además, esta desigualdad se convierte en una igualdad si y sólo si A, I son propor-


cionales, esto es, si y sólo si existe a ∈ R tal que A = aI.
Apéndice: Soluciones §18 261

(4) Por el segundo apartado ϕ(A, A) ≤ 0, y A es un vector isótropo para esta


forma bilineal simétrica si y sólo si A ∈ L[I]. Por tanto, la forma ϕ es semidefinida,
no definida, negativa, luego al diagonalizarla tenemos al menos un cero y el resto
números ≤ 0. Como los vectores isótropos forman una recta, en esa diagonalización
no puede haber más de un cero. En suma, la signatura de ϕ es nula, y el rango es
dim(Sn (R)) − 1. En particular, si ese rango es 104 entonces dim(Sn (R)) = 105. Pero
la dimensión de Sn (R) es 12 n(n + 1), y concluimos que n = 14. 

Número 14. (1) Obtener una base ortonormal de R4 que contenga un número
máximo de vectores del hiperplano H cuya ecuación implı́cita respecto de la base
estándar E4 = {e1 , e2 , e3 , e4 } es x1 + x4 = x2 + x3 .
(2) Calcular el mı́nimo de las longitudes de las proyecciones ortogonales sobre H
de los vectores unitarios que forman ángulo de 60o con los vectores e1 y e2 , y los
vectores para los que se alcanza ese mı́nimo.
Solución. (1) Como dim(H) = 3, se trata de añadir a una base ortonormal de H
un vector unitario de H ⊥ . Por simple inspección se observa que los siguientes tres
vectores son unitarios, ortogonales dos a dos y pertenecen a H:

u1 = √1 (1, 0, 0, −1) ; u2 = √1 (0, 1, −1, 0) ; u3 = 12 (1, 1, 1, 1).


2 2

Un vector ϑ ortogonal a los tres es el producto vectorial generalizado descrito en


IV.18.8(3), vol. 2, p. 187:
 
x1 x2 x3 x4
 1 0 0 −1  X
det  = xi ϑi = hx, ϑi, de modo que ϑ = (−2, 2, 2, −2).
 0 1 −1 0  i
1 1 1 1

Al dividir por su módulo se tiene u4 = 21 (−1, 1, 1, −1). Por tanto, la base B =


{u1 , u2 , u3 , u4 } es ortonormal y contiene tres vectores de H; éste es, desde luego,
el máximo número de vectores posible.
(2) Un vector u = i yi ui ∈ R4 es unitario si i yi2 = 1, y forma ángulo de 60o
P P
con e1 y con e2 si
(1 o √1 y1 + 1 y3 − 1 y4 ,
P
2 = cos 60 = hu, e1 i = i yi hui , e1 i = 2 2 2
1 o 1 1 1
P
2 = cos 60 = hu, e2 i = y hu
i i i 2 , e i = √ y
2 2
+ y
2 3 + 2 y4 .

Por tanto, en coordenadas y respecto de la base B, el conjunto de vectores unitarios


que forman ángulos de 60o con e1 y e2 se expresa mediante las ecuaciones:
4
X √ √
yi2 = 1, 2y1 + y3 − y4 = 1, 2y2 + y3 + y4 = 1.
i=1
262 IV. Formas bilineales y formas cuadráticas

P4 P3
Puesto que la proyección ortogonal de u = i=1 yi ui sobre H es p(u) = i=1 yi ui ,
la función que debemos minimizar en ese conjunto es
q q
f (y) = kp(u)k = y12 + y22 + y32 = 1 − y42 ,

o sea, que debemos maximizar g(y) = y42 . Para ello manipulamos las ecuaciones
anteriores. Despejando y1 e y2 en las dos lineales, y sustituyendo en la cuadrática,
resulta: −2y3 + 2y32 + 2y42 = 0, esto es, g(y) = y42 = y3 (1 − y3 ). Ası́ pues, hay que
maximizar el producto y3 (1 − y3 ) de dos cantidades que suman 1; es bien sabido que
el valor máximo se alcanza cuando ambos factores coinciden, o sea y3 = 12 . Por tanto
q √
y42 = 14 y el valor mı́nimo de f es m = 1 − 14 = 23 .

De hecho hemos calculado también los puntos en que f alcanza su valor mı́nimo:
y3 = 21 e y4 = ± 12 , luego
(√ √
√ 1 1
√ 1 1
2y1 = 1, 2y2 = 0 y1 = √12 , y2 = 0, o
2y1 + 2 ∓ = 1,
2 2y2 + 2 ± =1
2
√ √
2y1 = 0, 2y2 = 1 y1 = 0, y2 = √12 .

En consecuencia, f alcanza su valor mı́nimo 23 para

y = √12 , 0, 12 , 12 , 0, √12 , 12 , − 12 ,
 

4
P
y los vectores unitarios u = i yi ui ∈ R cuyas proyecciones ortogonales sobre el
hiperplano H tienen norma mı́nima son

u = 12 (1, 1, 1, −1), 1
2 (1, 1, −1, 1).


Número 15. Una norma en un espacio vectorial real E es una aplicación k·k : E →
R que cumple las tres propiedades (1), (2) y (3) de IV.18.11, vol. 2, p. 190. Demostrar
que si además cumple la ley del paralelogramo (IV.18.12(2), vol. 2, p. 192), entonces
es la norma asociada a un producto escalar de E.
Solución. Supongamos que la norma proviene de un producto escalar h·, ·i. Entonces
q = k · k2 es la forma cuadrática asociada a h·, ·i, y

hu, vi = 21 q(u + v) − q(u) − q(v) = 21 ku + vk2 − kuk2 − kvk2 .


 

Por la ley del paralelogramo, el pretendido producto escalar será:

hu, vi = 12 ku + vk2 − 12 (ku + vk2 +ku − vk2 ) = 41 (ku + vk2 − ku − vk2 ).




Ası́ pues, se trata de que la última fórmula defina verdaderamente un producto escalar
(pues entonces hu, ui = kuk2 ). Como la simetrı́a es obvia y hu, ui = kuk2 > 0 si u 6= 0,
lo sustancial es la bilinealidad.
Apéndice: Soluciones §18 263

Veamos primero que h2u, vi = 2hu, vi:


4h2u, vi = k2u + vk2 − k2u − vk2 = (k2u + vk2 + kvk2 ) − (k2u − vk2 + kvk2 )
= 2(ku + vk2 + kuk2 ) − 2(ku − vk2 + kuk2 ) = 8hu, vi
(la penúltima igualdad por la ley del paralelogramo). De esto se deduce ya que h·, ·i
se comporta bien para la suma. En efecto, operando con las definiciones, la ley del
paralelogramo y la linealidad ya probada:
4hu, v + wi − 4hu, vi
= ku + v + wk2 − ku − v − wk2 − ku + vk2 − ku − vk2
 

= ku + v + wk2 + ku − vk2 − ku − v − wk2 + ku + vk2


 

= 21 k2u + wk2 + k2v + wk2 − 21 k2u − wk2 + k2v + wk2


 

= 21 k2u + wk2 − k2u − wk2 = 2h2u, wi = 4hu, wi.




Esto significa que se conserva la suma en la segunda variable, y por simetrı́a también
en la primera.
Queda estudiar el producto por escalares. Veamos primero que hλu, vi = λhu, vi
para λ = k entero. Para k = −1 basta escribir las definiciones:
h−u, vi = 14 (k − u + vk2 − k − u − vk2 ) = −hu, vi,
ası́ que suponemos k ≥ 0, y razonamos por inducción:
hku, vi = hu+(k−1)u, vi = hu, vi+h(k−1)u, vi = hu, vi+(k − 1)hu, vi = khu, vi.
k
Visto esto, sea λ = m un número racional. Entonces
k 1 1
hλu, vi = h m u, vi = kh m u, vi = λmh m u, vi = λhu, vi.
Para terminar, hay que probar lo mismo para λ ∈ R arbitrario. Pero esto es una
cuestión de continuidad. Fijados u, v ∈ E, la función
h : R → R : λ 7→ hλu, vi
coincide en los racionales con la multiplicación por el número real hu, vi, luego si es
continua, por paso al lı́mite coincide siempre.
Para ver que h es continua usamos la desigualdad de Cauchy-Schwarz, que se
cumple como consecuencia de la desigualdad triangular:
4hu, vi = ku + vk2 − ku − vk2 ≤ (kuk + kvk)2 − (kuk − kvk)2 = 4kukkvk.
Por tanto, dados λ, µ ∈ R se tiene
|h(λ) − h(µ)| = |hλu, vi − hµu, vi| = |h(λ − µ)u, vi|
≤ k(λ − µ)ukkvk = |λ − µ|kukkvk.
Por tanto, si |λ − µ| es suficientemente pequeño, |h(λ) − h(µ)| es tan pequeño como
queramos. Esto es, h es continua como se querı́a. 
264 IV. Formas bilineales y formas cuadráticas

Soluciones §19
Número 1. Se consideran las rectas de R3 de ecuaciones:

L1 : y = z = 0, L2 : x = 4y − 3z = 0, L3 : 3x + 5y = 3y + 4z = 0,

y el plano W que contiene a L1 y L3 . Encontrar y clasificar todos los endomorfis-


mos ortogonales del espacio euclı́deo estándar R3 que inducen la identidad en L2 y
transforman L1 en L3 . Calcular para cada uno el ortogonal del transformado de W .
Solución. Sea f uno cualquiera de esos endomorfismos ortogonales. Empezamos ana-
lizando las posiciones relativas de las tres rectas. Para ello consideramos generadores
de cada una:

u1 = (1, 0, 0) ∈ L1 , u2 = (0, 3, 4) ∈ L2 , u3 = (20, −12, 9) ∈ L3 .

Es claro que u2 es ortogonal a los otros dos, luego L2 = W ⊥ , y esto responde a la


última cuestión: f (W )⊥ = f (W ⊥ ) = f (L2 ) = L2 .
Estudiemos ya f . Observamos que el plano W : 3y+4z = 0 es invariante, pues lo es
su ortogonal L2 . Por tanto, y puesto que f induce la identidad en L2 , f está totalmente
determinado por su restricción g al plano W . Calculemos la imagen de u1 . Éste es
un vector unitario de L1 , luego f (u1 ) será un vector unitario de L3 : f (u1 ) = au3 con
a ∈ R tal que 1 = kau3 k = |a|ku3 k = 25|a|, y por tanto
1
f (u1 ) = ± 25 (20, −12, 9).

Por otro lado, buscamos un vector w = (x, y, z) ∈ W ortogonal a u1 :

0 = 3y + 4z, 0 = hw, u1 i = x w = (0, 4, −3).

Entonces f (w) = (x0 , y 0 , z 0 ) ∈ W tiene que ser ortogonal a f (u1 ), o sea, a u3 :

0 = 3y 0 + 4z 0 , 0 = hf (w), u3 i = 20x0 − 12y 0 + 9z 0 f (w) = b( 15


4 , 4, −3).

25
Pero además, w y f (w) deben tener la misma norma: 5 = kwk = kf (w)k = 4 |b|, de
manera que
f (w) = ±(3, 16 12
5 , − 5 ).

Ahora ya tenemos datos suficientes para determinar f : R3 → R3 :


f
(1, 0, 0), (0, 3, 4), (0, 4, −3) 7→ ±( 45 , − 25
12 9
, 25 ), (0, 3, 4), ±(3, 16 12
5 , − 5 ).

Los primeros tres vectores forman una base ortogonal B, y sus imágenes otra B0 , y
además las normas se conservan. Ası́ pues tenemos efectivamente cuatro endomor-
fismos ortogonales f según la elección de los signos. Las distinguimos escribiendo
B0+,+ , B0+,− , B0−,+ , B0−,− .
Apéndice: Soluciones §19 265

Para clasificar los cuatro endomorfismos que han resultado, observamos que:
f
det(B) < 0 −→ det(B0+,+ ) < 0, det(B0+,− ) > 0, det(B0−,+ ) > 0, det(B0−,− ) < 0,

y, mirando la clasificación IV.19.9, vol. 2, p. 203, tenemos:


(i) En los casos primero y último se conserva la orientación, y se trata de rotaciones
de eje L2 .
En efecto, si f fuera una simetrı́a ortogonal respecto de un eje, éste serı́a L2 , y
en L⊥2 = W se inducirı́a la simetrı́a central, y no es eso. Dicho lo cual, el ángulo de
rotación es el ángulo θ que forman u1 y su imagen:
hu1 , f (u1 )i 4
cos θ = =± .
ku1 kkf (u1 )k 5

(ii) En los casos segundo y tercero, se invierte la orientación, y se trata de dos


simetrı́as ortogonales respecto de un plano.
En efecto, no puede ser otra cosa porque 1 es autovalor. Si se quiere calcular el
plano H respecto al que se hace la simetrı́a, como f (u2 ) = u2 basta encontrar otro
vector v que coincida con su imagen f (v). Pero en W se induce una simetrı́a axial,
luego vale el vector
(
1
1
(45, −12, 9) para B0+,−
v = 2 (u1 + f (u1 )) = 50
1
50 (5, 12, −9) para B0−,+

Ası́, la ecuación de H = L[u2 , v] es 5x + 12y − 9z = 0 o 15x − 4y + 3z = 0. 

Número 2. Se considera en R3 (con el producto escalar estándar) el endomorfismo


cuya matriz respecto de la base estándar es
 √ √ 
2−2
4 − 2+24
1
2
 √ √ 
− 2+2 2−2
− 1 .
4 4 2 


2
− 21 1
2 2

Demostrar que es ortogonal y estudiar de qué tipo.


Solución. Denotemos M la matriz del enunciado, y por f el endomorfismo de R3 que
M define. Una comprobación rutinaria muestra que M t M = I3 es la matriz identidad,
luego f es ortogonal. Pero ocurre que 1 no es autovalor de M , pues
 √ √ 
2−6
4 − 2+2
4
1
2
 √ √  √
2+2 2−6
det(M − I) = det 
− 4 4 − 21  = −4 + 2 2 6= 0.


2−2
− 12 1
2 2
266 IV. Formas bilineales y formas cuadráticas

Por tanto, según la clasificación, f es composición de una rotación respecto de un eje


L y la simetrı́a ortogonal respecto del plano V = L⊥ .
Además, el eje L es el núcleo de f + IdR3 , por lo que sus ecuaciones son
 √ √ 
2+2
− 2+2 1    
 √ 4

4 2
 x 0
− 2+2 2+2
− 1  y  = 0 x − y = z = 0.
4 4 2 


2+2 z 0
− 12 1
2 2

En consecuencia L = L[u], u = (1, 1, 0), y V : x + y = 0. Por último, el ángu-


lo θ de rotación√es el que forman el vector v = (0, 0, 1) ∈ V con su transformado
f (v) = 21 (1, −1, 2). Ası́ pues,

hv, f (v)i 2
cos θ = = . 
kvk|f (v)k 2

Número 3. En R3 con el producto escalar estándar, se pide:


(1) Obtener las ecuaciones de la simetrı́a ortogonal σ respecto del plano V :
x+ y − 2z = 0.
(2) Clasificar el endomorfismo ortogonal τ de ecuaciones τ (x, y, z) = (z, x, y).
(3) Encontrar un plano W tal que la simetrı́a ortogonal σ 0 respecto de W cumpla
τ = σ 0 ◦ σ.
Solución. (1) El vector u = (1, 1, −2) es ortogonal a V , luego la proyección ortogonal
pV sobre V está determinada por la condición

pV (x, y, z) = (x, y, z) + λ(1, 1, −2) ∈ V.

Deducimos (x + λ) + (y + λ) − 2(z − 2λ) = 0, y por tanto λ = 16 (−x − y + 2z). Ahora


tenemos

(x0 , y 0 , z 0 ) = σ(x, y, z) = pV (x, y, z) + λ(1, 1, −2) = (x, y, z) + 2λ(1, 1, −2),

de modo que las ecuaciones y la matriz de σ respecto de la base estándar son


 2 1 2

3 −3
 0 2 1 2
x = 3 x − 3 y + 3 z,

 1 2
3
2
y 0 = − 13 x + 23 y + 23 z, y M =  −3 3 3.


2 2 1

3 −3
 0 2 2 1
z = 3 x + 3 y − 3 z, 3

(2) La matriz de τ respecto de la base estándar es


 
0 0 1
N = 1 0 0 ,
0 1 0
Apéndice: Soluciones §19 267

cuyo polinomio caracterı́stico es P (T ) = 1 − T 3 . Por tanto tiene dos autovalores


complejos conjugados y el autovalor 1, de lo que se deduce que es una rotación. El eje
es L = ker(τ − IdR3 ), que se calcula inmediatamente: L = L[(1, 1, 1)]. El ángulo θ de
rotación es el que forman cualquier vector v ortogonal al eje y su imagen τ (v). Por
ejemplo v = (1, 0, −1) ∈ L⊥ se transforma en τ (v) = (−1, 1, 0), y

hv, τ (v)i 1
cos θ = =− .
kvkkτ (v)k 2

(3) Como σ ◦ σ = IdR3 y se ha de cumplir τ = σ 0 ◦ σ, despejamos σ 0 = τ ◦ σ, luego


la matriz de σ 0 respecto de la base estándar es el producto
    
0 0 1 2 −1 2 2 2 −1
M 0 = N M = 31  1 0 0 −1 2 2  = 31  2 −1 2 .
0 1 0 2 2 −1 −1 2 2

Que σ 0 sea una simetrı́a ortogonal respecto de un plano significa que λ = 1 es auto-
valor, y que sus autovectores forman un plano, que será el plano respecto al que se
hace la simetrı́a. Pero en efecto, la matriz M 0 − I corresponde al sistema

−x + 2y − z = 0,
2x − 4y + 2z = 0,
−x + 2y − z = 0,

que tiene rango 1 y define el plano W : x − 2y + z = 0 buscado. 

Número 4. Sea B = {u1 , . . . , un } una base del espacio euclı́deo E. Demostrar que
la base ortonormal B0 = {v1 , . . . , vn } producida por el método de Gram-Schmidt a
partir de B está caracterizada (entre las ortonormales) porque para cada k = 1, . . . , n,
es L[u1 , . . . , uk ] = L[v1 , . . . , vk ], y en ese espacio las bases {u1 , . . . , uk } y {v1 , . . . , vk }
definen la misma orientación.
Solución. Que la base B0 satisface las condiciones del enunciado es ya conocido.
Probaremos por inducción sobre n = dim(E) que estas condiciones la caracterizan. Si
n = 1 sólo hay que observar que el único vector unitario proporcional a u1 y con su
mismo sentido es v1 = kuu11 k .
Supongamos probado el resultado en espacios de dimensión < n, y sea E de
dimensión n. En particular, B01 = {v1 , . . . , vn−1 } es la única base ortonormal de
E1 = L[u1 , . . . , un−1 ] cumpliendo que para cada k = 1, . . . , n − 1, es L[u1 , . . . , uk ] =
L[v1 , . . . , vk ] y en ese espacio las bases {u1 , . . . , uk } y {v1 , . . . , vk } definen la misma
orientación. Por tanto si una base de E cumple las condiciones del enunciado, ha de
ser de la forma B00 = {v1 , . . . , vn−1 , ϑ} para cierto vector ϑ, y hemos de probar que
ϑ = vn .
Como ϑ ∈ E \ E1 es ortogonal a cada vi , ha de ser proporcional a un vector de la
268 IV. Formas bilineales y formas cuadráticas

forma
n−1
X
w= λi vi + un
i=1

con cada λi = −hun , vi i. Como además ϑ ha de ser unitario, ϑ = ±w/kwk = ±vn .


Por último, deducimos que ϑ = vn porque
det(v1 , . . . , vn−1 , −vn ) = − det(v1 , . . . , vn−1 , vn ) = − det(u1 , . . . , un ). 

Número 5. Obtener todos los endomorfismos ortogonales de R3 (con el producto


escalar estándar) que no son simetrı́as especulares, y transforman el plano V : x = 0
en el plano W : y = 0, y recı́procamente. Clasificarlos.
Solución. Sea σ uno de los endomorfismos del enunciado. Vamos a calcular la imagen
por σ de la base estándar E = {e1 , e2 , e3 }.
El vector e3 genera V ∩ W , luego σ(e3 ) genera σ(V ) ∩ σ(W ) = W ∩ V , con lo que
σ(e3 ) = ε3 e3 con ε3 = ±1 (recuérdese que σ conserva normas). El vector e1 genera
V ⊥ , luego σ(e1 ) genera σ(V ⊥ ) = W ⊥ = L[e2 ], ası́ que σ(e1 ) = ε2 e2 con ε2 = ±1.
Análogamente, σ(e2 ) = ε1 e1 con ε1 = ±1. Por tanto la matriz de σ respecto de E es
 
0 ε1 0
M = ε2 0 0 .
0 0 ε3

La clasificación IV.19.9, vol. 2, p. 203, dice de qué tipo es σ según sus autovalores
λ, que se calculan muy fácilmente para cada terna ε = (ε1 , ε2 , ε3 ). Excluyendo las
simetrı́as especulares, que tienen un autovalor doble λ = +1, queda la siguiente tabla:

ε (+1,+1,−1) (+1,−1,+1) (−1,+1,+1) (+1,−1,−1) (−1,+1,−1) (−1,−1,−1)


√ √ √ √
λ +1,−1 doble +1,± −1 +1,± −1 −1,± −1 −1,± −1 +1,−1 doble

Ası́ tenemos: dos simetrı́as axiales, dos rotaciones, y dos composiciones de rotación y
simetrı́a especular. 

Número 6. En un espacio euclı́deo E de dimensión 3 se consideran una recta L y


el plano ortogonal V = L⊥ . ¿Cómo se relacionan las simetrı́as ortogonales respecto
de L y V ?
Solución. Elegimos una base ortonormal B = {u1 , u2 , u3 } de E de modo que L =
L[u1 ] y V = L[u2 , u3 ]. Respecto de esa base, las matrices de las simetrı́as ortogonales
σ y τ respecto de L y V son, respectivamente:
   
1 0 0 −1 0 0
 0 −1 0  y  0 1 0 .
0 0 −1 0 0 1
Apéndice: Soluciones §19 269

Vemos que las dos matrices son opuestas, luego σ = −τ . 

Número 7. Sea σ un endomorfismo de un espacio vectorial real euclı́deo E que


cumple hu + σ(u), u − σ(u)i = 0 para cada vector u ∈ E.
(1) Comprobar que σ es ortogonal.
(2) Suponemos ahora que existe un vector no nulo e ∈ E tal que σ(u) + u es
proporcional a e para cada u ∈ E. ¿Qué endomorfismo es σ?
Solución. (1) Para que σ sea ortogonal es suficiente que preserve normas. Pero para
cada u ∈ E tenemos,

0 = hu + σ(u), u − σ(u)i
= hu, ui + hσ(u), ui − hu, σ(u)i − hσ(u), σ(u)i = kuk2 − kσ(u)k2 ,

luego kuk2 = kσ(u)k2 , esto es, kuk = kσ(u)k.


(2) Elegimos una base ortonormal B = {u1 , . . . , un } cuyo primer vector sea u1 =
e/kek. Entonces para cada i existe un escalar λi tal que

σ(ui ) = −ui + λi u1 .

Ahora usamos que σ conserva las normas. Para i > 1 debe ser

1 = kσ(ui )k2 = h−ui + λi u1 , −ui + λi u1 i = 1 + λ2i ,

con lo que λi = 0 y σ(ui ) = −ui . Ası́mismo,

1 = kσ(u1 )k = k − u1 + λ1 u1 k = |1 − λ1 |,

y resulta λ1 = 0 o 2. Después de estos cálculos concluimos:


(i) Si λ1 = 0, entonces σ(u1 ) = −u1 , y σ = − IdE es la simetrı́a central.
(ii) Si λ1 = 2, entonces σ(u1 ) = u1 , y σ induce la simetrı́a central en L[ui , i > 1] =
L[u1 ]⊥ . Ası́, σ es la simetrı́a ortogonal respecto del eje L[u1 ] = L[e]. 

Número 8. Sea f un endomorfismo de Rn cuya matriz respecto de la base estándar


es simétrica o antisimétrica. Demostrar que el ortogonal del núcleo de f es la imagen
de f , y deducir que cualquier potencia f k (k ≥ 2) tiene el mismo rango que f .
Solución. Comprobamos en primer lugar que im(f ) ⊂ ker(f )⊥ , es decir, hu, vi = 0
para cada par de vectores v ∈ im(f ) y u ∈ ker(f ). Denotamos M la matriz de f
respecto de la base estándar. Como v ∈ im(f ) existe w ∈ Rn tal que v = f (w), o sea,
v t = M wt , y como M ut = 0 resulta

hu, vi = uv t = uM wt = (uM wt )t = wM t ut = ±wM ut = ±w 0t = 0.


270 IV. Formas bilineales y formas cuadráticas

Visto esto, la igualdad im(f ) = ker(f )⊥ se deduce de que ambos subespacios tienen
la misma dimensión (la codimensión de ker(f )).
Se deduce que im(f k ) ∩ ker(f ) ⊂ im(f ) ∩ ker(f ) = {0}, luego la restricción f | :
im(f k ) → im(f k+1 ) ⊂ im(f k ) es inyectiva, de modo que

dim(im(f k )) ≤ dim(im(f k+1 )) ≤ dim(im(f k )),

esto es im(f k ) = im(f k+1 ) y rg(f k ) = rg(f k+1 ). De ahı́ que todas las potencias de f
tengan el mismo rango. 

Número 9. (1) Determinar la matriz respecto de la base estándar de un endomor-


fismo autoadjunto f de R3 tal que f (1, 0, 0) = (3, 2, 2), f (0, 1, 0) = (2, 2, 0) y tiene
(2, −2, −1) por autovector.
(2) Diagonalizar la forma cuadrática q(x, y, z) de R3 cuya matriz respecto de la
base estándar es la matriz de f anteriormente determinada.
Solución. (1) Las dos primeras columnas de la matriz M = Mf (E) son las coorde-
nadas, respecto de E, de los vectores f (e1 ) y f (e2 ), luego M es de la forma
 
3 2 a
M = 2 2 b
2 0 c

para ciertos números reales a, b y c. Como f es autoadjunto y E es ortonormal, la


matriz M es simétrica, por lo que a = 2 y b = 0, y en consecuencia
 
3 2 2
M = 2 2 0.
2 0 c

Para determinar el valor de c empleamos que (2, −2, −1) es autovector de f , es decir,
existe λ ∈ R tal que
     
2 2 0
λ −2  = M −2  =  0  ,
−1 −1 4−c

de donde se deduce que c = 4.


(2) El vector u1 = e1 es anisótropo y q(e1 ) = 3. Los vectores (x, y, z) conjugados
de u1 respecto de la forma bilineal ϕ asociada a la forma cuadrática q cumplen
 
x
0 = (1, 0, 0)M  y  = 3x + 2y + 2z,
z
Apéndice: Soluciones §19 271

y entre ellos elegimos u2 = (0, 1, −1), para el que q(u2 ) = 6. Los vectores (x, y, z)
conjugados de u2 respecto de ϕ vienen dados por
 
x
0 = (0, 1, −1)A  y  = 2y − 4z,
z

luego un vector conjugado de u1 y u2 ha de cumplir: 3x + 2y + 2z = y − 2z = 0,


por lo que ha de ser múltiplo de u3 = (−2, 2, 1). Además q(u3 ) = 0, ası́ que la base
B = {u1 , u2 , u3 } cumple  
3 0 0
Mq (B) =  0 6 0  .
0 0 0 

Número 10. Sea M una matriz simétrica real. ¿Cuándo son M y M k (k ≥ 2)


congruentes?
Solución. Como M es simétrica real existe una matriz ortogonal C tal que C −1 M C =
C t M C = D es diagonal. Además, los elementos de la diagonal de D son los autovalores
de M . Al elevar a la potencia k-ésima,

C t M k C = C −1 M k C = (C −1 M C)k = Dk

luego M y M k son congruentes a D y Dk , respectivamente. Se trata pues de estudiar


cuándo son congruentes estas dos últimas matrices. Ambas comparten el rango, ya
que es el número de elementos no nulos en la diagonal de D. En cuanto a la signatura
debemos distinguir dos casos, según la paridad de k. Si k es impar, como elevar a la
potencia k preserva el signo, D y Dk tienen la misma signatura, luego M y M k son
congruentes. Sin embargo, si k es par, el rango y la signatura de Dk coinciden, luego
M y M k son congruentes sólo si coinciden el rango y la signatura de D, esto es, si
todos los autovalores de M son no negativos. 

Número 11. En lo que sigue, α es un número real en el intervalo [−1, 1]. Sea ϕα
la forma bilineal simétrica de R3 cuya matriz respecto de la base estándar es
 
−1 0 0
Aα =  0 1 1 + α .
0 1+α 1

(1) Clasificar ϕα en función de α.


(2) Mostrar que si existe un isomorfismo f de R3 tal que la forma bilineal simétrica

ψα : R3 × R3 → R : (u, v) 7→ ϕα (f (u), f (v))

tiene rango 2, entonces el parámetro α es nulo.


(3) Encontrar una base ortonormal del espacio euclı́deo estándar R3 respecto de
la cual la matriz de ϕ0 (esto es, α = 0) sea diagonal.
272 IV. Formas bilineales y formas cuadráticas

(4) ¿Qué tipo de endomorfismo ortogonal de R3 transforma la base estándar en


la base ortonormal obtenida en el apartado anterior?
Solución. (1) El rango de ϕα es al menos 2, pues el menor de Aα formado por las
dos primeras filas y columnas vale −1 6= 0. Por otro lado, el determinante de la matriz
es α(2 + α), y como α ≥ −1, es nulo sólo para α = 0. Una vez discutido el rango r
de ϕ, analizamos su signatura s. Por el teorema espectral, s es el número de raı́ces
positivas del polinomio caracterı́stico Pα (T ) de Aα , que es
Pα (T ) = (−1 − T )(−α − T )((2 + α) − T ).
Como −1 < 0 y 2 + α > 0, s = 1 si α ≥ 0, y 2 si α < 0. En conclusión,

 (3, 2) si −1 ≤ α < 0,
(r, s) = (2, 1) si α = 0,
(3, 1) si 0 < α ≤ 1.

(2) Sea M la matriz, respecto de la base estándar, de un isomorfismo f que cumple


el enunciado. Entonces, para cada par de vectores u, v ∈ R3 se tiene
ψα (u, v) = ϕα (f (u), f (v)) = f (u)Aα f (v)t = uM t Aα (vM t )t = u(M t Aα M )v t .
Al ser f isomorfismo, tanto M como M t son invertibles, luego
2 = rg(ψα ) = rg(M t Aα M ) = rg(Aα ) = rg(ϕα ),
y hemos visto en el apartado anterior que esto sucede si y sólo si α = 0.
(3) Ya sabemos que el polinomio caracterı́stico de A0 es P0 (T ) = −T (−1 − T )(2 −
T ), y la base ortonormal buscada estará formada por autovectores unitarios del en-
domorfismo g de R3 cuya matriz respecto de la base estándar es A0 .
Los autovalores de g son las raı́ces de P0 , o sea, λ = −1, 0, 2, y los autovectores
correspondientes u = (x, y, z) se calculan resolviendo los sistemas (A0 − λI)ut = 0:
(i) Para λ = −1, las ecuaciones son y = z = 0. Resulta que u1 = (1, 0, 0) es un
autovector unitario.
(ii) Para λ = 0, tenemos x = y + z = 0, y u2 = √1 (0, 1, −1) es un autovector
2
unitario.
(iii) Para λ = 2, es x = y − z = 0 y u3 = √12 (0, 1, 1) es un autovector unitario. El
cálculo de este último vector puede hacerse directamente a partir de los dos anteriores,
pues debe ser ortogonal a ambos, es decir proporcional a u1 × u2 ; de hecho, como son
todos unitarios, u3 = ±u1 × u2 (en este caso +).
La matriz de g respecto de la base ortonormal B = {u1 , u2 , u3 }, que coincide con
la matriz de ϕ0 respecto de B, es la diagonal
 
−1 0 0
D =  0 0 0.
0 0 2
Apéndice: Soluciones §19 273

(4) Se trata de averiguar la naturaleza del endomorfismo ortogonal h : R3 → R3


cuya matriz respecto de la base estándar E3 es
 
1 0 0
1 1 
Mh (E3 ) = C(B, E3 ) =  0 √2 √2  .

−1 √1
0 √
2 2

Pero como det(h) = det(Mh (E3 )) = 1, vemos que es un giro cuyo eje es la recta
generada por el autovector (1, 0, 0) asociado al autovalor λ = 1. El ángulo θ del giro,
que hemos convenido situar entre 0 y π, es el que forma con su imagen cualquier
vector ortogonal al eje; por ejemplo, para w = (0, 0, 1) tenemos h(w) = √12 (0, 1, 1), y

hw, h(w)i 1 π
cos θ = =√ , luego θ= .
kwkkh(w)k 2 4 

Número 12. Sean θ ∈ R y ϕθ la forma bilineal simétrica cuya matriz respecto de


la base estándar es  
1 cos θ sen θ
Aθ =  cos θ 1 0 .
sen θ 0 1
Calcular el rango y la signatura de ϕθ y construir una base ortonormal de R3 respecto
de la que la matriz de ϕθ sea diagonal.
Solución. El polinomio caracterı́stico de la matriz Aθ es

Pθ (T ) = T (1 − T )(T − 2),

que no depende de θ y tiene dos raı́ces positivas y una nula, esto es, el rango y la
signatura son ambos siempre 2.
Sea fθ el endomorfismo de R3 cuya matriz respecto de la base estándar es Aθ .
El teorema espectral nos dice que hay una base ortonormal B de R3 formada por
autovectores de fθ , y una tal base es la que buscamos. Como los autovalores de fθ
son λ = 0, 1, 2, los tres simples, cada λ tiene una recta de autovectores Lλ :
(i) Para λ = 0 la recta tiene ecuaciones x cos θ + y = x sen θ + z = 0. Una solución
es (1, − cos θ, − sen θ) y u = √12 (1, − cos θ, − sen θ) es unitario.

(ii) Para λ = 1 tenemos y cos θ + z sen θ = x = 0, y Lλ está generada por v =


(0, sen θ, − cos θ), que es unitario.
(iii) Para λ = 2, x cos θ − y = x sen θ − z = 0, de modo que (1, cos θ, sen θ) genera
Lλ y el vector w = √12 (1, cos θ, sen θ) ∈ Lλ es unitario.

Ası́ tenemos la base ortonormal {u, v, w}, y respecto de ella ϕθ y fθ tienen la


misma matriz diagonal, a saber:
 
0 0 0
0 1 0 .
0 0 2
274 IV. Formas bilineales y formas cuadráticas

Pn
Número 13. Consideramos números reales a1 , . . . , an tales que i=1 a2i = 1. Sean
I = (δij ) la matriz identidad y A = (aij ) la matriz definida por aij = ai aj . Demostrar
que la matriz 2A − I es ortogonal. ¿Qué endomorfismo ortogonal de Rn define?
Solución.
Pn Consideramos a = (a1 , . . . , an ) ∈ Rn , de modo que at a = A y aat =
2
i=1 ai = 1. Resulta:

(2A − I)(2At − I) = 4AAt − 2(A + At ) + I


= 4at aat a − 2(at a + at a) + I = 4at a − 4at a + I = I.
Se trata ahora de identificar el endomorfismo ortogonal σ de Rn cuya matriz respecto
de la base estándar es 2A − I. Como sabemos esto se hace mediante una base ortonor-
mal formada por autovectores. Para ello buscamos primero los autovalores, es decir,
las raı́ces del polinomio caracterı́stico P (T ) de 2A − I. Claramente, P (T ) = Q(T + 1),
siendo Q(T ) el polinomio caracterı́stico de 2A. Este Q(T ) es fácil de calcular. En
efecto, rg(A) = rg(a) = 1, y por tanto λ = 0 es un autovalor de multiplicidad n − 1,
luego Q(T ) = (−T )n−1 (µ − T ) con µ 6= 0. En consecuencia el polinomio caracterı́stico
de 2A − I es
P (T ) = Q(1 + T ) = (−1 − T )n−1 (µ − 1 − T ).
Para determinar µ observamos que a es autovector de 2A − I asociado al autovalor 1,
ya que
(2A − I)at = 2at aat − at = 2at − at = at .
En consecuencia, µ − 1 = 1. En suma, µ = 2 y σ es la simetrı́a ortogonal respecto de
la recta generada por a.
En realidad, una vez sabida la solución, podemos escribir una demostración mı́ni-
malista. Dado u = v + w ∈ L[a] ⊕ L[a]⊥ = Rn , es v = αa, y como awt = 0,
σ(u)t = (2A − I)ut = (2A − I)(αat + wt ) = (2at a − I)(αat + wt )
= 2αat aat + 2at awt − αat − wt = α(2at − at ) − wt = αat − wt = v t − wt ,
luego σ(u) = v − w. Esto redemuestra que σ es la simetrı́a ortogonal respecto de la
recta generada por el vector a. 

Número 14. Consideremos el espacio vectorial real E = Mn (R). Demostrar que


la aplicación
h·, ·i : Mn (R) × Mn (R) → R : (A, B) 7→ tr(At B)
es un producto escalar en E, y estudiar para qué matrices M la aplicación: X 7→ M X
define un endomorfismo ortogonal de E.
Solución. Ya vimos en el problema número 11 de la lección IV.16, vol. 2, p. 166,
que h·, ·i es una forma bilineal simétrica cuya matriz respecto de la base estándar
Apéndice: Soluciones §19 275

E = {∆ij } de E es la matriz identidad. Por tanto, es en efecto un producto escalar, y


E es una base ortonormal. De este modo, el endomorfismo σ definido por X 7→ M X es
ortogonal si y sólo si las imágenes σ(∆ij ) constituyen una base ortonormal, es decir,
debemos calcular
hσ(∆ij ), σ(∆k` )i = hM ∆ij , M ∆k` i = tr((M ∆ij )t M ∆k` )
= tr(∆tij M t M ∆k` ) = tr(∆ji M t M ∆k` )

(nótese la última permuta de subı́ndices). Ahora bien, ocurre que:


(i) A∆k` es la matriz cuya única columna no nula es la `-ésima, que es la columna
k-ésima de A, y
(ii) ∆ji B es la matriz cuya única fila no nula es la j-ésima, que es la fila i-ésima
de B.
Teniendo esto en cuenta, un poco de paciencia nos hace ver que la matriz ∆ji C∆k`
tiene nulos todos sus coeficientes, excepto el que ocupa lugar (j, `) que es el coeficiente
cki de C que ocupa el lugar (k, i).
Aplicando esto a C = M t M , tenemos
(
0 si j 6= `,
hσ(∆ij ), σ(∆k` )i = tr(∆ji M t M ∆k` ) =
cki si j = `.

Deducimos que las imágenes σ(∆ij ) constituyen una base ortonormal si y sólo si
(
0 si k 6= i,
cki =
1 si k = i.

Pero esto es decir que la matriz C = M t M es la identidad, o sea, que M sea ortogonal.
Por resumir todo en una frase, σ es un endomorfismo ortogonal si y sólo si M es
una matriz ortogonal. 

Número 15. Utilizar la clasificación de endomorfismos ortogonales para clasificar


por congruencia las matrices reales ortogonales.
Solución. La clasificación de endomorfismos ortogonales nos dice que toda matriz
276 IV. Formas bilineales y formas cuadráticas

real ortogonal es congruente a una de la forma


 
1 p)
 ... 
1
 





+
−1 q)
..





 . 
−1  = M (p, q, θ1 , . . . , θ` ),
+

 
 .. 

 . 


 cos θi − sen θi 


 sen θi cos θi 

..
.
con sen θi > 0, esto es, 0 < θi < π. Vamos a demostrar que, salvo reordenación
de cajas, dos de tales matrices son no congruentes, lo que resuelve el problema de
clasificación por congruencia de matrices ortogonales.
Supongamos que, como matrices reales,
A = M (p, q, θ1 , . . . , θ` ) y B = M (p0 , q 0 , θ10 , . . . , θ`0 0 )
son congruentes. Vamos a demostrar que p = p0 , q = q 0 , ` = `0 y cada θi = θi0 . Por
lo supuesto, A y B son también congruentes como matrices complejas. En virtud del
problema número 15 de la lección IV.17, vol. 2, p. 182, los productos At A−1 = (At )2
y B t B −1 = (B t )2 son semejantes como matrices complejas, luego también lo son A2
y B 2 . Ahora bien,
A2 = M (p + q, 0, 2θ1 , . . . , 2θ` ) y B 2 = M (p0 + q 0 , 0, 2θ10 , . . . , 2θ`0 0 ),
√ √
y si denotamos λi = cos θi + −1 sen θi y µi = cos θi0 + −1 sen θi0 , las matrices A2 y
B 2 son semejantes, respectivamente, a las matrices diagonales
2 2 0 0
. . . , 1, λ21 , λ1 , . . . , λ2` , λ` ) y diag (1, p .+q
diag (1, p+q) . . ), 1, µ21 , µ21 , . . . , µ2`0 , µ2`0 ).
En consecuencia estas matrices diagonales han de coincidir (salvo reordenación de sus
coeficientes). Pero ni λi ni µj son reales, con lo que ni λ2i ni µ2j son 1, y por tanto
p + q = p0 + q 0 . Resulta que ` = `0 , y podemos suponer que λ2i = µ2i , luego θi = θi0
(pues ambos senos son positivos). Ası́
A = M (p, q, θ1 , . . . , θ` ) y B = M (p0 , q 0 , θ1 , . . . , θ` ),
y p + q = p0 + q 0 , luego para terminar debemos ver que p = p0 . Puesto que estamos su-
poniendo A y B congruentes como matrices reales, podemos verlas como las matrices
de una misma forma bilineal ϕ de Rn respecto de dos bases B y B0 diferentes, y deno-
tamos ϕs la forma simétrica asociada a ϕ. Es claro que la matriz de ϕs respecto de B
(resp. B0 ) se obtiene cambiando los senos de A (resp. B) por ceros, luego la signatura
de ϕs es p (resp. p0 ) más el número de cosenos positivos. En consecuencia, p = p0 .

Apéndice: Soluciones §20 277

Soluciones §20
Número 1. Demostrar las siguientes igualdades para una matriz A ∈ Mn (C):

det(A∗ ) = det(A), rg(A∗ ) = rg(A) = rg(A∗ A).

Solución. Observamos primero que det(A) = det(A), ya que el determinante es


una suma de productos de los coeficientes de la matriz, y la conjugación de números
complejos respeta sumas y productos. En consecuencia,

det(A∗ ) = det((A)t ) = det(A) = det(A).

Para las igualdades de rangos, supongamos r = rg(A) y sea M una submatriz


cuadrada de orden r de A con determinante no nulo. Entonces, M ∗ es una submatriz
cuadrada de orden r de A∗ y por lo anterior, det(M ∗ ) = det(M ) 6= 0. Esto prueba la
desigualdad rg(A∗ ) ≥ r = rg(A). Por otra parte, como A∗∗ = A (problema 15 de la
lección III.15, vol. 2, p. 78), de la desigualdad anterior resulta la contraria:

rg(A) = rg(A∗∗ ) ≥ rg(A∗ ).

Probado ası́ que A y A∗ tienen igual rango r, como el rango de un producto de


matrices es menor o igual que el de cada factor, es r ≥ rg(A∗ A), y queda probar la
desigualdad contraria.
Sea B una submatriz de A formada por r columnas independientes, que vemos co-
mo vectores de Cn ; como tales vectores, forman una base B de un subespacio E ⊂ Cn
de dimensión r. En esta situación, M = B ∗ B es la matriz respecto de la base B del
producto hermı́tico estándar restringido a E, luego det(M ) 6= 0. Pero por otra parte
M = B ∗ B es una submatriz de orden r de A∗ A, y concluimos que efectivamente
rg(A∗ A) ≥ r. 

Número 2. Sea f un endomorfismo de Cn cuya matriz respecto de la base estándar


es antihermı́tica. Probar que Cn es suma directa ortogonal, para la estructura hermı́ti-
ca estándar, del núcleo y la imagen de f .
Solución. Sea M la matriz de f , que según el enunciado cumple M = −M ∗ . Com-
probamos en primer lugar que el núcleo y la imagen de f tienen intersección nula.
Sea u ∈ ker(f ) ∩ im(f ). Entonces M ut = 0 y existe w ∈ Cn tal que ut = M wt . Ası́,
u = wM t , y por tanto

kuk2 = hu, ui = uut = wM t ut = wM ∗ ut = −wM ut = −w0t = 0,

luego u = 0. De aquı́ se desprende que Cn = ker(f ) ⊕ im(f ), ya que

dim(ker(f ) + im(f )) = dim(ker(f )) + dim(im(f )) − dim(ker(f ) ∩ im(f ))


= dim(ker(f )) + dim(im(f )) = n = dim(Cn ).
278 IV. Formas bilineales y formas cuadráticas

Por último, comprobemos la ortogonalidad: para cada par de vectores u ∈ ker(f ) y


v ∈ im(f ) su producto escalar hu, vi es nulo. En efecto, será M ut = 0 y v t = M wt
para cierto w ∈ Cn , con lo que:

hu, vi = uv t = uM wt = −uM ∗ wt = −(uM t )wt = −0wt = 0. 

Número 3. Probar con todos los detalles que los rangos de las dos polares de una
forma sesquilineal ϕ coinciden, y coinciden con el rango de una cualquiera de las
matrices de ϕ.
Solución. Podemos suponer que ϕ es una forma sesquilineal de E = Cn y denotamos
M la matriz de ϕ respecto de una base cualquiera de E. Denotamos las polares de ϕ
mediante

ϕ1 : E → E : y 7→ ϕ( · , y) y ϕ2 : E → E ∗ : x 7→ ϕ(x, · ).

Resulta entonces:
(i) y ∈ ker(ϕ1 ) si y sólo si xM y t = 0 para todo x ∈ E, si y sólo si M y t = 0, que
por tanto son unas ecuaciones de ker(ϕ1 ) ⊂ E, y dim ker(ϕ1 ) = n − rg(M ).
(ii) x ∈ ker(ϕ2 ) si y sólo si xM y t = 0 para todo y ∈ E, si y sólo si xM = 0.
Usando el producto por escalares ? de E, vemos que M t?xt = 0 son unas ecuaciones
de ker(ϕ2 ) ⊂ E. Ası́ dim ker(ϕ2 ) = n − rg(M t ) = n − rg(M ).
Lo anterior muestra que el rango de ambas polares es el mismo, el de la matriz
M de ϕ. En particular, rg(ϕ) está bien definido. 

Número 4. Probar que el determinante de una matriz hermı́tica es un número real.


¿Qué se puede decir del determinante de una matriz antihermı́tica?
Solución. Si M es hermı́tica M ∗ = M , luego
t
det(M ) = det(M ∗ ) = det M = det(M t ) = det(M ),

por lo que det(M ) ∈ R. Si M es antihermı́tica de orden n, de la igualdad M ∗ = −M ,


se deduce que
t
det(M ) = det(−M ∗ ) = det −M = (−1)n det(M t ) = (−1)n det(M ),

luego det(M ) ∈ R si n es par y det(M ) ∈ −1R si n es impar. 

Número 5. Demostrar que:


(1) La signatura de una forma sesquilineal hermı́tica no depende de la base que
se elija para diagonalizarla.
Apéndice: Soluciones §20 279

√ √
(2) El número de −1’s y el de − −1’s que aparecen en la diagonal de una forma
sesquilineal antihermı́tica no dependen de la base utilizada para clasificarla.
Solución. (1) Sean ϕ una forma sesquilineal hermı́tica de un espacio complejo E y
B1 = {u1 , . . . , un } y B2 = {v1 , . . . , vn } dos bases de E que diagonalizan ϕ mediante
1’s, −1’s y 0’s. Denotemos s, t el número de 1’s en Mϕ (B1 ) y Mϕ (B2 ), respectivamente.
Es suficiente demostrar que s ≤ t, pues cambiando los papeles de ambas bases se
deduce la otra desigualdad.
Reordenando las bases si es preciso podemos suponer que ϕ(ui , ui ) = 1 para
1 ≤ i ≤ s, mientras que ϕ(vj , vj ) = 1 para 1 ≤ j ≤ t. Afirmamos que
L[u1 , . . . , us ] ∩ L[vt+1 , . . . , vn ] = {0}.
P P
En efecto, si w = i≤s αi ui = j>t βj vj , entonces
(  P
αi ui , i≤s αi ui = i≤s |αi |2 ,
P P
ϕ(w, w) = ϕ
Pi≤s P  P 2
ϕ(w, w) = ϕ j>t βj vj , j>t βj vj = − j>t |βj | ,

2 2
P P
luego i≤s |αi | = − j>t |βj | , y todos los αi , βj son nulos. Por tanto w = 0 y
nuestra afirmación queda probada.
En fin, contando dimensiones mediante la fórmula de Grassmann, s + (n − t) ≤ n,
o sea, s ≤ t.
(2) La segunda parte es consecuencia
√ inmediata de la primera teniendo en cuenta
que ϕ es antihermı́tica si y sólo si −1ϕ es hermı́tica. 

Número 6. Clasificar una forma sesquilineal antihermı́tica de C3 sabiendo que la


ecuación de vectores isótropos (en las coordenadas estándar) es
√ √
−1 x1 x1 − 2x1 x2 + 2x2 x1 − x2 x3 + x3 x2 + 2 −1 x3 x3 = 0.
¿Existe alguna forma sesquilineal hermı́tica con esos mismos vectores isótropos?
Solución. Si ϕ es la √
forma antihermı́tica del enunciado, basta clasificar la forma
hermı́tica ψ = iϕ (i = −1) dada por ψ(x, y) = xM y t , donde
 
−1 −2i 0
M =  2i 0 −i .
0 i −2
Además, ϕ y ψ tienen los mismos vectores isótropos, lo que responde a la segunda
parte. Busquemos una base {u, v, w} de C3 respecto de la que la matriz de ψ sea dia-
gonal. Elegimos u = (1, 0, 0), que cumple ψ(u, u) = −1. Las ecuaciones del conjugado
L[u]0 son   
−1 −2i 0 x1
(1, 0, 0) 2i 0 −i x2 = 0 x1 + 2ix2 = 0.
0 i −2 x3
280 IV. Formas bilineales y formas cuadráticas

Elegimos v = (2i, −1, 0), para el que ψ(v, v) = 4. Ahora, L[v]0 está definido por
  
−1 −2i 0 x1
(−2i, −1, 0)  2i 0 −ix2 = 0 −4x2 + ix3 = 0.
0 i −2 x3

Por tanto, las ecuaciones de L[u]0 ∩ L[v]0 son x1 + 2ix2 = −4x2 + ix3 = 0, por lo que
tomamos w = (2i, −1, 4i), y se comprueba que ψ(w, w) = −36.
Ası́, la matriz de ψ respecto de la base {u, v, w} es diagonal, con diagonal −1, 4,
−36. Por tanto la forma hermı́tica ψ tiene rango 3 y signatura 1. Respecto de esa
misma base la matriz de ϕ = −iψ es diagonal, con diagonal i, −4i, 36i. En suma,
existe una base que diagonaliza ϕ de modo que en la diagonal hay dos i y un −i.


Número 7. Estudiar la validez del teorema de Pitágoras y la de la regla del para-


lelogramo en un espacio hermı́tico.
Solución. Sean h·, ·i un producto hermı́tico en el espacio vectorial complejo E y
u, v ∈ E. Como

ku + vk2 − kuk2 − kvk2 = hu + v, u + vi − hu, ui − hv, vi


= hu, ui + hu, vi + hv, ui + hv, vi − hu, ui − hv, vi = hu, vi + hu, vi,

el teorema de Pitágoras se enuncia ası́ en los espacios hermı́ticos:



ku + vk2 = kuk2 + kvk2 si y sólo si hu, vi ∈ −1R.

En cuanto a la regla del paralelogramo se tiene


(
ku + vk2 = hu + v, u + vi = kuk2 + kvk2 + hu, vi + hv, ui,
ku − vk2 = hu − v, u − vi = kuk2 + kvk2 − hu, vi − hv, ui,

y al sumar se obtiene la misma regla que en el caso euclı́deo:


ku + vk2 + ku − vk2 = 2(kuk2 + kvk2 ). 

Número 8. Demostrar que

|x1 + · · · + xn |2 ≤ n(|x1 |2 + · · · + |xn |2 ),

para cualesquiera números complejos xi ∈ C. ¿Cuándo se da la igualdad?


Solución. Se imita lo que se hizo en el ejemplo IV.18.12(5), vol. 2, p. 192, para el
caso real. Consideramos en Cn con producto hermı́tico estándar h·, ·i los vectores
Apéndice: Soluciones §20 281

u = (1, . . . , 1) y v = (x1 , . . . , xn ). Elevando al cuadrado la desigualdad de Cauchy-


Schwarz resulta |hu, vi|2 ≤ kuk2 kvk2 . Pero hu, vi = x1 + · · · + xn , mientras que
√ p
kuk = n y kvk = |x1 |2 + · · · + |xn |2 ,

de donde se obtiene la desigualdad buscada. La desigualdad es una igualdad (según


Cauchy-Schwarz) si u es proporcional a v, luego sólo si x1 = · · · = xn . 

Número 9. Probar que un endomorfismo de un espacio hermı́tico que conserve la


norma es unitario.
Solución. Sean σ un endomorfismo que conserva la norma del espacio vectorial com-
plejo E y u, v ∈ E. Se trata de probar que hσ(u), σ(v)i = hu, vi, y para ello demos-
traremos que estos números complejos tienen iguales partes reales < e iguales partes
imaginarias =. Por un lado,
(
2<hu, vi = hu, vi + hv, ui = ku + vk2 − kuk2 − kvk2 ,
2<hσ(u), σ(v)i = kσ(u) + σ(v)k2 − kσ(u)k2 − kσ(v)k2 .

Puesto que σ es lineal, σ(u) + σ(v) = σ(u + v), y como σ conserva la norma se deduce
de las igualdades anteriores que <hu, vi = <hσ(u), σ(v)i.

Ahora aplicamos lo anterior a los vectores u y −1v. Como σ es lineal y h·, ·i es
lineal respecto de la segunda variable, deducimos:
( √ √
<hu, −1vi = <( −1hu, vi) = −=hu, vi,
√ √ √
<hu, −1vi = <hσ(u), σ( −1v)i = <( −1hσ(u), σ(v)i) = −=hσ(u), σ(v)i.

Por tanto, =hu, vi = =hσ(u), σ(v)i. 

Número 10. Dada la matriz hermı́tica


01 1
− 13 i
1
3 3 √
M= @∗
B 5
6
1
6
iC
A (i = −1),
5
∗ ∗ 6

encontrar una matriz unitaria C tal que C −1 M C sea diagonal.


Solución. Se trata de diagonalizar el endomorfismo autoadjunto f de C3 cuya matriz
respecto de la base estándar E es M . Para ello buscaremos una base ortonormal B de
C3 formada por autovectores de f . Hecho esto, la matriz Mf (B) será diagonal y la
matriz de cambio de base C = C(B, E) unitaria tal que

Mf (B) = C(E, B)Mf (E)C(B, E) = C −1 M C.


282 IV. Formas bilineales y formas cuadráticas

Calculando el polinomio caracterı́stico de M resulta P (T ) = −T (1 − T )2 , con raı́ces


λ = 0, simple y λ = 1, doble.
Unas ecuaciones de los autovectores de λ = 0√son x1 +x2 −ix3 = 2x1 +5x2 +ix3 =
0, y una solución es (−2, 1, i), que tiene norma 6. Dividiéndo por ella obtenemos el
vector unitario u = √16 (−2, 1, i).
Para el autovalor λ = 1 tenemos un plano W de autovectores, de ecuación −2x1 +
x2 − ix3 = 0,√y buscamos una base ortonormal suya. Una solución primera es (0, i, 1),
con norma 2, y dividiendo queda el vector unitario v = √12 (0, i, 1). Ahora, otro
vector (x1 , x2 , x3 ) de W es ortogonal a v si y sólo si −ix√
2 + x3 = 0. Una solución
de ésta ecuación y la de W es (1, 1, i), que tiene norma 3, y el tercer vector que
buscamos es: w = √13 (1, 1, i).
Finalmente, la matriz pedida es:
− √26 √1
 
0 3

C = C(B, E) =  √1 √1 i √1 .
 
 6 2 3 
√1 i √1 √1 i 
6 2 3

Número 11. Sea E un espacio vectorial complejo de tipo finito. Si se restringe


el producto por escalares de E a los números reales, se obtiene un espacio vec-
torial real ER , y cada endomorfismo f de E es√también un endomorfismo fR de
ER . Demostrar que si B = {u1 , . . . , un } (i = −1) es una base de E, entonces
BR = {u1 , iu1 , . . . , un , iun } es una base de ER , y describir la matriz de fR respecto
de BR en términos de la de f respecto de B.
Aplicar lo anterior a una base B de Jordan de f , para probar que los autovalores
de fR son los de f más todos sus conjugados. Deducir que det(fR ) = |det(f )|2 , y
explicar ası́ la afirmación de que todo isomorfismo complejo conserva la orientación.
Solución. En todo lo que sigue hay que tener bien presente que E y ER son el mismo
conjunto con las mismas operaciones, y que la diferencia estriba en que en ER sólo se
puede multiplicar por números reales. En particular, iuk es un vector de ER , pero no
proporcional a uk .
Consideremos un vector u ∈ P ER cualquiera. Como los uk generan E, habrá una
combinación lineal compleja u = k λk uk . Escribimos λk = αk + iβk , y
X X X
u= (αk + iβk )uk = αk uk + βk (iuk ),
k k k

que es una combinación lineal real, luego válida en ER . Ası́ queda probado que
u1 , iu1 , . . . , un , iun generan ER . Para ver que son independientes, consideremos una
combinación lineal real nula
X X
αk uk + βk (iuk ) = 0.
k k

Denotando
P λk = αk + iβk podemos reescribirla como la combinación lineal compleja
λ u
k k k = 0, y como los uk son independientes en E, concluimos que los coeficientes
Apéndice: Soluciones §20 283

complejos λk son todos nulos, luego lo son sus partes reales αk y sus partes imaginarias
βk . Hemos probado la independencia.
Analicemos ahora las matrices de f y fR respecto de las dos bases dadas. La matriz
M de f respecto de B es una matriz con n2 coeficientes complejos λk` = αk` + iβk` .
Entonces
( P P P 
f (u` ) = k λk` uk = k (αk` + iβk` )uk = k αk` uk + βk` (iuk ) ,
P 
f (iu` ) = if (u` ) = k −βk` uk + αk` (iuk ) .

Puesto que como aplicación fR y f no se distinguen, encontramos aquı́ una descripción


familiar de la matriz MR de fR respecto de la base BR : hay que reemplazar en M
cada coeficiente λk` por la matriz 2 × 2
 
αk` −βk`
.
βk` αk`
Ahora, si B es una base de Jordan, M es triangular y su diagonal consiste en los
autovalores λkk de f contados con sus multiplicidades. Se sigue que MR es triangular
por cajas 2 × 2 del tipo anterior y su polinomio caracterı́stico es el producto de los
determinantes de las cajas de la diagonal:
„ «
det αkkβ − T α−β−
Y
kk
PR (T ) = T
.
k kk kk

De aquı́ se deduce la afirmación sobre los autovalores, y también la de los determi-


nantes.
Por último, obsérvese que no tiene sentido definir orientaciones en espacios vec-
toriales complejos, pues los determinantes son números complejos, y no tienen signo.
Por tanto, que un isomorfismo f de un espacio vectorial complejo E conserve o no
la orientación sólo puede entenderse en un contexto real adecuado. Ese contexto lo
proporciona la estructura vectorial real de ER , para la cual f se denota fR , y como
det(fR ) = | det(f )|2 > 0, fR siempre conserva la orientación. 

Número 12. Sea E un espacio vectorial complejo de tipo finito, y ER el espacio


vectorial real subyacente. Sea ϕ una forma sesquilineal de E. Demostrar:
(1) La parte real ϕR = <ϕ de ϕ es una forma bilineal de ER , simétrica o anti-
simétrica según ϕ sea hermı́tica o antihermı́tica.
(2) La forma bilineal ϕR es un producto escalar si ϕ es un producto hermı́tico. En
ese caso las normas asociadas a ambos productos coinciden, y la asignación f 7→ fR
define un homomorfismo inyectivo de grupos U (E) → SO(ER ).
Solución. (1) Esto es una comprobación rutinaria. Por incluir algún detalle, supon-
gamos que ϕ es hermı́tica. Entonces
ϕR (v, u) = <ϕ(v, u) = <ϕ(u, v) = <ϕ(u, v) = ϕR (u, v).
284 IV. Formas bilineales y formas cuadráticas

(2) Que ϕ sea un producto hermı́tico significa que ϕ es hermı́tica y ϕ(u, u) es un


número real positivo para todo vector u 6= 0. Entonces ϕR es simétrica, y
ϕR (u, u) = <ϕ(u, u) = ϕ(u, u) > 0.
El mismo cálculo muestra que las normas asociadas a ϕ y ϕR coinciden.
Esto implica que si un endomorfismo f es unitario, entonces fR es ortogonal. Pero
según vimos en el problema anterior, fR siempre conserva la orientación, de modo que
f 7→ fR es efectivamente una aplicación U (E) → SO(ER ). Que es un homomorfismo
inyectivo es trivial, pues si las miramos desde un punto de vista conjuntista, esto
es, cuando E está desprovisto de estructura vectorial, las aplicaciones f y fR son en
realidad la misma. 

Número 13. Expresar matricialmente los resultados del problema anterior para
obtener un homomorfismo inyectivo U (n) → SO(2n). Mostrar que es un isomorfismo
para n = 1, pero no para n > 1.
Solución. El homomorfismo U (n) → SO(2n) es el que se detalló en los dos proble-
mas anteriores: M 7→ MR , donde√MR se obtiene a partir de M reemplazando cada
coeficiente λk` = αk` + iβk` (i = −1) por la caja
 
αk` −βk`
(∗) .
βk` αk`
Esta afirmación se justifica porque si B es una base ortonormal de un espacio hermı́tico
E, entonces BR lo es del espacio euclı́deo  subyacente ER . En efecto, el quid está en
que: ϕR (u, iu) = <ϕ(u, iu) = < iϕ(u, u) = 0, por ser ϕ(u, u) un número real.
Dicho lo anterior de modo tan abstracto, podemos ser más explı́citos. La identi-
ficación usual z = x + iy ≡ (x, y) de números complejos con puntos del plano real se
extiende de muchas maneras a una identificación entre Cn y R2n . Elegimos la siguiente
muy natural:
Cn ≡ R2n : z = (z1 , . . . , zn ) ≡ (x, y) = (x1 , y1 , . . . , xn , yn ), zk = xk + iyk .
Consideramos la base estándar E = {ek } de Cn , y resulta que la base asociada ER =
{ek , iek } es precisamente la base estándar de ER = R2n :
(k) (k)
ek = (0, . . . , 1 , . . . , 0) ≡ (0, 0, . . . , 1, 0, . . . , 0, 0),
(k) (k)
iek = i(0, . . . , 1 , . . . , 0) ≡ (0, 0, . . . , 0, 1, . . . , 0, 0).
Por tanto, a la matriz M de f ∈ U (Cn ) respecto de E le asignamos la matriz MR de
fR ∈ SO(R2n ) respecto de ER .
Para n = 1 los endomorfismos ortogonales de R2 (≡ C) que conservan la orien-
tación son los giros, cuyas matrices son precisamente las cajas (∗) de más arriba,
Apéndice: Soluciones §20 285

luego f 7→ fR es suprayectiva, y U (1) ≡ SO(2). Pero para n > 1 ya no es ası́: en


SO(2n) \ U (n) está cualquier matriz de la forma  
1 0
,
0 A
donde A ∈ SO(2n − 1) tenga el primer coeficiente a11 6= 1. 

Número 14. Demostrar que toda matriz M = (mij ) de un producto hermı́tico se


escribe como producto M = C ∗ C mediante una matriz triangular
c11 c12 c13 c14 . . .
 
 0 c22 c23 c24 . . .
 
C= 0 0 c33 c34 . . .,
 
0 0 0 c44 . . .
.. .. .. ..
. . . .
con cada cii real positivo. Deducir que:
Q
(1) det(M ) ≤ j mjj (nótese que ambos miembros son números reales positivos).
(2) | det(A)|2 ≤ j (|a1j |2 + · · · + |anj |2 ) para toda matriz compleja A = (aij )
Q
cuadrada de orden n.
Solución. Sea ϕ : Cn × Cn → C la forma hermı́tica cuya matriz respecto de la base
estándar E = {ei } es M . El método de Gram-Schmidt proporciona una base B = {vi }
respecto de la que la matriz de ϕ es la identidad. Por tanto

M = C ∗ C, donde C = C(E, B) es la matriz buscada.

En efecto, Gram-Schmidt produce por pasos sucesivos vectores


X
wj = λij vi + ej , vj = wj /kwj k,
i<j

y despejando ej obtenemos la columna j-ésima de la matriz C:


X
ej = cij vi + cjj vj , cjj = kwj k > 0.
i<j

Por tanto, C es efectivamente triangular, y los coeficientes de la diagonal son todos


números reales positivos. De ahı́ se desprenden (1) y (2). En efecto:
(1) Por un lado,
Y
det(M ) = det(C ∗ ) det(C) = det(C) det(C) = c2jj .
j
Por otro, los elementos mjj de la diagonal de M son:
X X 
mjj = ϕ(ej , ej ) = ϕ cij vi , cij vi = |c1j |2 + · · · +|cjj |2 ≥ |cjj |2 = c2jj ,
i≤j i≤j
286 IV. Formas bilineales y formas cuadráticas

Qn 2
Q
por lo que det(M ) = j=1 cjj ≤ j mjj .
(2) La matriz M = A AQ= (mij ) es hermı́tica, pues (A∗ A)∗ = A∗ A. Por el

apartado anterior, det(M ) ≤ j mjj . Ahora bien,


(
det(M ) = det(A∗ ) det(A) = det(A) det(A) = | det(A)|2 ,
Pn Pn
mjj = i=1 aij aij = i=1 |aij |2 = |a1j |2 + · · · + |anj |2 .

| det(A)|2 = det(M ) ≤ j mjj = j (|a1j |2 + · · · + |anj |2 ).


Q Q
Finalmente: 

Número 15. Demostrar que una matriz A ∈ Mn (C) factoriza como producto A =
QM de una matriz hermı́tica M y una unitaria Q. ¿Es única tal factorización?
Solución. Trataremos primero el caso en que A es regular. Supongamos halladas Q
y M . Entonces
A∗ A = M ∗ Q∗ QM = M ∗ M = M 2 ,
por ser Q unitaria y M hermı́tica. Se trata pues de buscar una raı́z cuadrada de
A∗ A. Ahora bien, esta matriz es hermı́tica, y entendida como la matriz de una forma
sesquilineal de Cn tenemos
t
xA∗ Axt = Axt Axt = kAxt k2 ≥ 0.

Por tanto podemos aplicar el teorema espectral, y A∗ A = C −1 DC para ciertas ma-


trices C unitaria y D diagonal. Como en la diagonal de D todos son números reales
no negativos, D tiene una raı́z cuadrada diagonal real S, y M = C −1 SC es una raı́z
cuadrada de A∗ A. Hemos terminado, pues M es hermı́tica:
∗ ∗
M ∗ = C −1 SC = C ∗ SC = C ∗ SC = M

(porque C es unitaria y S real diagonal). Dicho esto, como A es regular, lo es A∗ A, y


también M . En consecuencia, la matriz Q está ya determinada: Q = AM −1 , y todo
se reduce a comprobar que Q es unitaria. Pero

Q∗ Q = (M ∗ )−1 A∗ AM −1 = M −1 M 2 M −1 = I.

Esto completa la solución del caso regular.


El caso general se deduce reescribiendo el enunciado en términos de espacios
vectoriales hermı́ticos: A, Q y M son las matrices de ciertos endomorfismos h, f, g de
E = Cn , f unitario y g autoadjunto, y la factorización A = QM significa h = f ◦ g.
Acabamos de resolver el caso en que h es isomorfismo. En general consideramos su
núcleo W y su imagen V y los respectivos ortogonales, de forma que

h : E = W⊥ ⊕ W → V ⊕ V ⊥

induce por restricción un isomorfismo h1 : W ⊥ → V al que podemos aplicar el caso


ya probado, y factorizar h1 = f1 ◦ g1 , donde f1 : W ⊥ → V es unitario y g1 : W ⊥ → V
Apéndice: Soluciones de las cuestiones 287

es autoadjunto. Entonces extendemos: (i) f1 a un endomorfismo unitario f : E → E


(por prolongación de bases ortonormales), y (ii) g1 a un endomorfismo g : E → E que
es idénticamente nulo en W . Se comprueba inmediatamente que g es autoadjunto, y
que h = f ◦ g. La escritura detallada de este argumento es una labor rutinaria, pero
que recomendamos al lector.
En cuanto a la unicidad de la factorización, ya se ve que no puede haberla en el
caso general (la extensión de f1 a f puede hacerse de muchas maneras). Pero tampoco
hay unicidad en el caso regular. En ese caso sı́ es única Q una vez determinada M , y
también es única M 2 (pues M 2 = A∗ A). Pero hay muchas formas de extraer una raı́z
cuadrada, y por tanto M no es única. Un ejemplo muy sencillo es el siguiente:
       
1 0 1 0 1 0 1 0 1 0
A= = = .
0 1 0 1 0 1 0 −1 0 −1 

Soluciones de las cuestiones


Clave: V = verdadero, F = falso

1V, 2F, 3F, 4V, 5F, 6V, 7F, 8V, 9F, 10F,
11V, 12V, 13V, 14V, 15V, 16F, 17V, 18V, 19F, 20F,
21V, 22F, 23V, 24F, 25F, 26F, 27V, 28V, 29F, 30V,
31V, 32V, 33F, 34V, 35F, 36F, 37F, 38V, 39F, 40V,
41V, 42F, 43V, 44V, 45V, 46F, 47F, 48V, 49F, 50F.
Lecturas ulteriores

Como en el volumen anterior, mencionamos aquı́ algunas referencias que


consideramos especialmente recomendables, con todo lo que de opinable pueda
tener ese juicio.
1. A lo largo del curso hemos introducido varios grupos importantes: el grupo
lineal, el ortogonal y el unitario, y sus subgrupos especiales. Nada o muy poco
hemos dicho aquı́ de ellos como tales grupos: generadores, subgrupos notables,
... Para aprender algo de ello, de la teorı́a de grupos clásicos, recomendamos
leer:

E. Artin: Geometric algebra. New York: Wiley-Interscience 1988.

K. Tapp: Matrix groups for undergraduates. Providence, Rhode Island:


AMS 2005.

D.E. Taylor: The Geometry of the classical groups. Berlin: Heldermann


1992.

2. Central en este texto es la clasificación de endomorfismos, que hemos


descrito con detalle basándonos en la búsqueda de invariantes. Para apreciar el
alcance más profundo de estas ideas, ası́ como su aplicación en otros contextos,
véanse:

B. Hartley, T.O. Hawkes: Rings, modules and linear algebra. London:


Chapman and Hall 1987.

S. Lang: Álgebra. Madrid: Aguilar 1973.

3. Otro asunto esencial que hemos estudiado son las formas cuadráticas.
En realidad la teorı́a de formas cuadráticas tiene una importancia capital en

289
290 Lecturas ulteriores

las matemáticas, y por eso no resistimos la tentación de citar un libro muy


atractivo, junto con otro de dificultad elevada, pero por el que sentimos especial
apego:

J.H. Conway, F.Y. Fung: The Sensual (quadratic) form. Washington:


Mathematical Association of America 1997.

T.Y. Lam: The algebraic theory of quadratic forms (2nd edition). Reading,
Massachusetts: Addison Wesley 1980.

4. En este libro hemos tratado las aplicaciones lineales y las bilineales, pero
también el determinante, que hemos calificado de multilineal. En realidad, lo
que procede a continuación es estudiar álgebra multilineal. Se puede leer una
presentación resumida mı́nima en un par de lecciones del primero de los libros
siguientes, pero para un desarrollo completo sugerimos los otros dos:

J.M. Gamboa, J.M. Ruiz: Introducción al estudio de las variedades dife-


renciables (2a edición). Sanz y Torres 2006.

W. Greub: Multilinear algebra. Nueva York: Springer 1978.

L. Schwartz: Les tenseurs, torseurs sur un espace affine. Parı́s: Hermann


1975.

5. La última lección sobre formas sesquilineales podrı́a parecer motivada


por un deseo de completitud en la presentación de la teorı́a, pero las formas
sesquilineales son más importantes que eso. Aún ası́, es difı́cil encontrar una
presentación más exclusiva y especı́fica suya. Aquı́ sugerimos los dos libros
siguientes:

J.M. Arnaudiès, H. Fraysse: Algèbre bilinéaire et géométrie. Paris: Dunod


1990.

J.H. Kwak, S. Hong: Linear algebra. Boston: Birkhauser 1997.

6. También queremos citar dos libros de problemas y ejercicios, que propor-


cionan ocasión de asimilar ideas y procedimientos:

F. Ayres: Teorı́a y problemas de matrices. México D.F.: McGraw-Hill


1985.
Lecturas ulteriores 291

F. Broglia, E. Fortuna, D. Luminati: Problemi risolti di algebra lineare.


Bolonia: Zanichelli-Decibel 1995.

7. La continuación natural de un curso de álgebra lineal como este es otro de


geometrı́a lineal, es decir, geometrı́a afı́n y geometrı́a proyectiva. Dos textos
de estas materias son:

M. Audin: Géométrie (2a edición). Les Ulis: EDP Sciences 2006.

J.M. Rodrı́guez Sanjurjo, J.M. Ruiz: Lecciones de geometrı́a proyectiva.


Madrid: Sanz y Torres 2009.

8. La afirmación anterior de que a un curso de álgebra lineal debe seguir uno


de geometrı́a puede llevarse mucho más allá. El libro que sigue está escrito
para demostrar la tesis de que el álgebra lineal es en realidad la misma cosa
que la geometrı́a proyectiva. Aunque de nivel avanzado, su lectura será cuando
menos aleccionadora.

R. Baer: Linear algebra and projective geometry. Nueva York: Dover


2005.
Sı́mbolos
f :E→E 2 Nk ⊂ Nk+1 32
f (W ) ⊂ W 2 dk = dim(Nk ) 33
W ⊂ f −1 (W ) 2 dk ≤ dk+1 33
f (u) = λu 2 dν = dim(Nν ) 33
W (λ) = ker(f − λ IdE ) 3 N (λ) = Nν 33
Mf (B) = Mf (B, B) 4 g −1 (Nk ) =Nk+1 33
M = CM 0 C −1

4 [g]k : Nk+1 Nk → Nk Nk−1 33
k
M k = CM 0 C −1 5 rk = dk+1 − dk 33
t
(M − λI)x = 0 5 rk ≥ rk+1 33
P (λ) = det(M − λI) = 0 5 fλ : N (λ) → N (λ) 34
P (0) = det(MP ) 7 W = L[w1 , g(w1 ), . . . , g k (w1 )] 36
tr(M ) = i aii 7 Jk (λ) L 36
P (T ) = Pf (T ) 7 Nν = W 36
tr(f ) 7 BJ 36
det(fL ) 7 J(λ) 36
E = i W (λi ) 7 f 0 = f |W , g 0 = g|W 37
ei ≥ dim(W (λi )) 7 Nk0 = Nk (λ) ∩ W 37
(−T )d (1 − T )e 11 N 0 (λ) = Nν0 0 = Nν 0 (λ) ∩ W 38
(1 − T «
„ )d (−1 − T )e 11 P (T ) = (λ − T )n 38
α −β Nν (λ) = E 38
β α
16
fk = 0 44
f |W : W → W 17 P (T ) ∈ C[T ] 45
[f ]W : E/W → E/W 17 mi 45
W = H1 ∩ · · · ∩ Hr 19 E = N (λ1 )⊕ · · · ⊕N (λr ) 47
f ∗ (W ∨ ) = L[f ∗(h1), . . . ,f ∗(hr)] 20 W = N 0 (λi1 )⊕ · · · ⊕N 0 (λis ) 48
H ∨ = L[h] 20 dk (λ) = n−rg (M −λI)k 49
Pf (T ) = Pf ∗ (T ) 20 rg(J −λI)k = rg(M −λI)k 49
c(M − λI)1= 0 20 k)
f k = f ◦P··· ◦ f 49
0
λ 0 0
22 p
@0 α −β A P (f ) = k=0 ak f k 50
0 β α
(P Q)(f ) = P (f ) ◦ Q(f ) 50
g = f − λ IdE 32
P (f )(u) =QP (λ)u 50
Nk (λ) = ker(f −λ IdE )k 32
Pmin (T ) = i (T −λi )νi 53
f (Nk ) ⊂ Nk 32
ei ≥ νi 54
Nk = ker(g k ) 32

293
294 Sı́mbolos

Nk ⊂ E, Nk∗ ⊂ E ∗ 59 σ(Γk (µ)) = Γk (µ) 71


dim(Nk ) = dim(Nk∗ ) 59 Q(α, β) 72
W 7→ W ∨
„ «
59 µ 0
ε µ
72
W ∨ 7→ W√ 0
59 0 1
α −β 0 0
C = A + −1B 60 B β α 0 0 C
det(A + αB) 6= 0 60
B
@ ε 0
C
α −β A
73
M = (A+αB)M 0 (A+αB)−1 60 0 ε β α
tr(f k ) = 0 62 fα,β = f |Q(α,β) 73
fk = f 62 J(α, β) 73
f k = IdET 62 E = ⊕N (λi )⊕ ⊕ Q(αj , βj ) 73
N ∗ (λ) = µ6=λ N (µ)∨ 63 JR , J C 73
P (µ) = P (µ) 63 R2 ≡ C → C : z 7→ ζz 74
Q(T ) = (T −µ)(T −µ) 63 fe(σ(Γ )) = σ(fe(Γ )) 75
(T −α)2 +β 2 ∈ R[T ] 63 ϕ:E×E →K 152
√ ϕ(u,
Ee = E + −1E 64 Pv) P  152
e→E ϕ λP
i ui , µj vj =
σ:E √
e
√ 64 152
λi µj ϕ(ui , vj )
σ(u+ −1v) √ = u− −1v 64
ϕ(0, v) = ϕ(u, 0) = 0 152
w = u + −1v 64
ϕ(x, y) = xy t 152
u = 12 (w + σ(w)) 64
√ ϕ(x, y) = xAy t 152
v = − 12 −1(w − σ(w)) 64
ϕ(ei , ej ) = ei Aetj = aij 153
σ(zw) = zσ(w) 64 
det A(x, y) 153
L[ . . . ], L[
e ...] 65 Rb
Ee = L[E]
e 65 ϕ(α, β) = a α(t)β(t)dt 153
dimR (E) 65 B(E) 153
ϕ( · , v), ϕ1 : E → E ∗ 154
dimC (E) e 65
√ ϕ(u, · ), ϕ2 : E → E ∗ 154
V = V + −1V ⊂ E
e e 67 B(E) → L(E, ∗
V = L[V ] 67  E ) 154
dim B(E) = dim(E)2
e e
154
E ∩ Ve = V 67 rg(ϕ1 ) = rg(ϕ2 ) 154
dimR (V ) = dimC (Ve ) 67 rg(ϕ) 155
Γ + σ(Γ ) 67 rg(ϕ) = dim(E) 155
Γ, σ(Γ ) 67 ϕ(u, v) = ϕ(v, u) 157
e → Fe
fe : E 68 ϕ(u, v) = −ϕ(v, u) 157

f (w) = f (u)+ −1f (v)
e 68 S(E) 157
fe|E = f 68 A(E) 157
σ ◦ fe = fe ◦ σ 68 B(E) = S(E) ⊕ A(E) 157
^)
ker(fe) = ker(f 68 ϕ = ϕs + ϕa 157
ϕ(u, v) = xM y t 160
fe(Ve ) = f] (V ) 68
ei M etj = mij 160
Mfe = Mf 68
M = (ϕ(ui , uj ))ij 161
Ne 69 M = Mϕ (B) 161
Γ 69 ϕ(x, y)P = xM y t 161
dimC (N ek ) = dimR (Nk ) 70 q(x) = i≤j qij xi xj 161
Sı́mbolos 295

q(x) = 0 161 H ⊥ = L[ϑ] 188


M 0 = C tM C 161 ϑ = u1 × u2 188
M 0 = C tM C 161 kuk = 0 190
det(M 0 ) = det(C)2 det(M ) 162 kλuk = |λ|kuk 190
Mϕ1 (B, B∗ ) = Mϕ (B) 162 ku+vk ≤ kuk+kvk 190
Mϕ2 (B, B∗ ) = Mϕ (Bt ) 162 ku+vk2 = kuk2 +kvk2 191
B(E) → M  n (K) 162 |hu, vi| ≤ kukkvk. 191
dim S(E) = 12 n(n + 1) 162 hu,
vi = kukkvk
cos θ 191
dim A(E) = 12 n(n − 1) 162 kuk−kvk ≤ ku−vk 192
q(λx) = λ2 q(x) 166 rg(A) = rg(At A) 193
ϕ(u, v) = 0 167 hσ(u), σ(v)i = hu, vi 195
V0 ⊂E 167 kσ(u)k = kuk 195
codim(V 0 ) ≤ dim(V ) 168 σ(u) ⊥ σ(v) 195
(V + W )0 = V 0 ∩ W 0 168 O(E) 197
(V ∩ W )0 ⊃ V 0 + W 0 168 O(n) 198
V 00 ⊃ V 168 SL(E) 199
V 0 = ϕ−1
1 (V )

168 GL− (E) = f ◦ GL+ (E) 200
0 GL− (n) 200
E =V ⊕V 169
ϕ|V ×V , ϕ|V 0 ×V 0 169 SL(n) 200
q(x) = a1 y12 + q 0 (y2 , . . . , yn ) 169 O+ (E), O− (E) 200
q(x) = a1 y12 + · · · +ar yr2 169 SO(E) 200
u0i = √1ai ui 174 SO(n) = O+ (n) 200
q(x) = y12 + · · · + yr2 174 O− (n) 200
u0i = ±√1 ai ui 174 (x, y) = (ρ cos«a, ρ sen a)
„ 203
cos θ − sen θ
q(x) = y12 + · · · +ys2 sen θ cos θ
203
2 174
„ «
−ys+1 − · · · −yr2 hf (u),pvi = hu, f (v)i 205
0 −1 |λ| = √ α2 + β 2 212
1 0
178
rad(ϕ) 180 |λ| = λ · λ 212
q ≥ 0, q ≤ 0 182 M 212
q > 0, q < 0 182 det(M
P ) = det(M
P ) 212
hu, vi p 182 ϕ λi ui , µj vj =
P 213
kuk = hu, λi µj ϕ(ui , vj )
P ui 182 ∗
hx, yi =pPxi yi 183 L(E, C) = E 213
kxk =q x2i 183 λ ? u = λu 214
Rb ϕ∗ : (u, v) 7→ ϕ(v, u) 214
kαk = a
α(t)2 dt 184 ϕ∗∗ = ϕ 214
hu, vi = 0 185 ϕ(u, v) = ϕ(v, u) 214
V⊥ 185 ϕ(u, v) = −ϕ(v, u) 214
E =V ⊕V⊥ 185 ϕ(u, u) ∈ R 214
V = V ⊥⊥ 185 √
ϕ(u, u) ∈√ −1 R 214
hui , uP
j i = δij 186 ϕ = φ1 + −1φ2 214
u = hu, ui iui 186 ϕ(u, v) = xM y t . 215
C tC = I 186
296 Sı́mbolos

t
C∗ = C 215
M 0 = C ∗M C 215
det(M 0 ) = | det(C)|2 det(M ) 216
(AB)∗ = B ∗ A∗ 216
A∗∗ = A 216
M∗ =M 216
M ∗ = −M 216
mii = ϕ(ui , ui ) ∈ R 217
ϕ(λui , λui ) = |λ|2 mii 217
xxt = |xP 2
1 | + · · · + |xn |
2
217
hx, yi =
pPxi yi 217
kxk = |xi |2 217

C C=I 218
U (E) 219
SU (E) 219
U (n) 219
SU (n) 219
ER 221
fR 221
BR = {u1 ,iu1 , . . . ,un ,iun } 221
det(fR ) = |det(f )|2 221
rad(ϕ) 237
rg(A) = rg(At A) 250
Índice
Ángulo de dos hiperplanos, 192 Cálculo de autovalores, 6
Ángulo de una recta y un subespacio, Cálculo de hiperplanos invariantes, 20
191 Cambio de base de la matriz de una
Asociatividad del producto vectorial, forma bilineal, 161
194 Cambio de base de la matriz de una
Autovalor, 2 forma sesquilineal, 215
Autovalor imaginario de un endomor- Cambios de signo en la sucesión de coe-
fismo real, 12, 69 ficientes, 209
Autovalores de un endomorfismo auto- Canonicidad de las formas de Jordan,
adjunto de un espacio euclı́deo, 48, 74
205 Caracterización de la congruencia por
Autovalores de un endomorfismo auto- semejanza, 182
adjunto de un espacio hermı́ti- Caracterización de la signatura median-
co, 220 te isotropı́a, 182
Autovalores reales de un endomorfismo Caracterización de la signatura median-
ortogonal, 201 te subespacios, 181
Autovector, 2 Clasificación de formas bilineales, 167
Autovectores independientes, 3 Clasificación por congruencia de matri-
ces ortogonales, 212
Base de Jordan, 34, 36 Clasificación de endomorfismos reales
Base de Jordan real, 72 mediante formas de Jordan com-
Base negativa, 199 plejas, 60
Base ortogonal, 186 Clasificación de endomorfismos, 14
Base ortonormal, 186 Clasificación de endomorfismos ortogo-
Base positiva, 199 nales, 200
Bases con la misma orientación, 198 Clasificación de formas bilineales anti-
Bases de Jordan de autovalores conju- simétricas, 177
gados, 71 Clasificación de formas bilineales simé-
tricas complejas, 174
Caja de Jordan, 36 Clasificación de formas bilineales simétri-
Cajas de Jordan de autovalores conju- cas reales, 174
gados, 71 Clasificación de formas sesquilineales,
Cálculo completo de invariantes en el 216
caso complejo, 29

297
298 Índice

Cociente de un endomorfismo módulo Determinante de un endomorfismo, 7


un subespacio invariante, 17 Determinante de un endomorfismo or-
Complexificación de aplicaciones linea- togonal, 198
les, 68 Determinante de un endomorfismo uni-
Complexificación de bases y coordena- tario, 219
das un espacio vectorial real, Determinante de un producto escalar,
65 183
Complexificación de subespacios, 66 Determinante de una forma bilineal, 162
Complexificación de un espacio vecto- Determinante de una matriz ortogonal,
rial real, 64 186
Complexificación y dimensión, 65 Determinante de una matriz unitaria,
Configuración de incidencias, 2 218
Configuraciones de subespacios invarian- Determinantes de un endomorfismo com-
tes de f y de f ∗ , 59 plejo y del real subyacente, 221
Conjugación de matrices complejas, 212 Diagonalizabilidad de proyecciones y si-
Conjugación e independencia lineal, 64 metrı́as, 11
Conjugación en la complexificación de Diagonalización de formas bilineales si-
un espacio vectorial real, 64 métricas, 169
Conmutador, 13 Diagonalización de matrices hermı́ticas,
Conservación de la norma, 196 220
Conservación de la orientación por un Diagonalización por congruencia com-
isomorfismo, 199 pletando cuadrados, 170
Conservación de la orientación por un Diagonalización por congruencia me-
isomorfismo complejo, 221 diante vectores anisótropos, 169
Conservación de la ortogonalidad, 196 Diagonalización por congruencia por el
Conservación del producto escalar e iso- método de Gauss-Jordan, 170
morfı́a, 195 Diagonalización simultánea por congruen-
Construcción de vectores anisótropos, cia y semejanza de una matriz
158 simétrica real, 207
Coordenadas respecto de una base or- Dimensión del espacio de formas bili-
tonormal, 186 neales, 154
Criterio de Sylvester, 183 Dimensiones de subespacios conjuga-
dos, 168
Descomposición de Gelfand de un en- Dualidad canónica explı́cita, 63
domorfismo, 62 Dualidad formal de los subespacios in-
Descomposición polar de una matriz variantes de un endomorfismo,
compleja, 222 59, 77
Desigualdad de Cauchy-Schwarz para
integrales, 193 Ecuación de los vectores isótropos, 161
Desigualdad de Cauchy-Schwarz para Ecuación de una forma bilineal simétri-
productos escalares, 191 ca, 161
Desigualdad de Cauchy-Schwarz para Ecuaciones diferenciales lineales, 5
productos hermı́ticos, 218 Ecuaciones implı́citas de la complexifi-
Desigualdad triangular, 190 cación, 67
Índice 299

Eje de rotación, 205 Endomorfismos sin rectas invariantes,


Eje de simetrı́a, 197 11
Endomorfismo autoadjunto de un es- Espacio de formas bilineales antisimétri-
pacio euclı́deo, 205 cas, 157
Endomorfismo autoadjunto de un es- Espacio de formas bilineales simétri-
pacio hermı́tico, 219 cas, 157
Endomorfismo de un espacio vectorial, Espacio de formas semilineales, 213
2 Espacio vectorial euclı́deo, 183
Endomorfismo diagonalizable, 7 Espacio vectorial hermı́tico, 217
Endomorfismo idempotente, 62 Espacio vectorial real subyacente a un
Endomorfismo nilpotente, 44, 62 espacio vectorial complejo, 221
Endomorfismo ortogonal, 195 Espacios de aplicaciones bilineales, 153
Endomorfismo raı́z de la identidad, 62
Endomorfismo real subyacente a un en- Factorización de polinomios con coefi-
domorfismo complejo, 221 cientes complejos, 45
Endomorfismo unitario, 219 Factorización de polinomios con coefi-
Endomorfismos con un sólo autovalor, cientes reales, 63
38 Forma bilineal, 152
Endomorfismos de un espacio de di- Forma bilineal antisimétrica, 157
mensión 3 con exactamente tres Forma bilineal definida negativa, 182
rectas invariantes distintas, 21 Forma bilineal definida positiva, 182
Endomorfismos de un espacio de di- Forma bilineal degenerada, 155
mensión 3 con una recta in- Forma bilineal no degenerada, 155
variante y un plano de rectas Forma bilineal semidefinida negativa,
invariantes, 21 182
Endomorfismos de un espacio real de Forma bilineal semidefinida positiva, 182
dimensión 3 con un único au- Forma bilineal simétrica, 157
tovalor real, de multiplicidad Forma cuadrática, 160
algebraica 1, 22 Forma de Jordan, 36
Endomorfismos de un plano vectorial, Forma de Jordan compleja de un en-
14 domorfismo real, 73
Endomorfismos de un plano vectorial Forma de Jordan de la derivada de po-
real: sin autovalores, 15 linomios, 37
Endomorfismos de un plano vectorial: Forma de Jordan de un automorfismo
dos autovalores, 14 ortogonal, 201
Endomorfismos de un plano vectorial: Forma de Jordan de un endomorfismo,
un autovalor doble, 14 47
Endomorfismos equivalentes, 5 Forma de Jordan real, 73
Endomorfismos ortogonales del espacio Forma sesquilineal, 212
euclı́deo de dimensión 3, 203 Forma sesquilineal antihermı́tica, 214
Endomorfismos ortogonales del plano Forma sesquilineal degenerada, 214
euclı́deo, 202 Forma sesquilineal hermı́tica, 214
Forma sesquilineal hermı́tica definida
positiva, 217
300 Índice

Forma sesquilineal no degenerada, 214 Intersecciones de subespacios invarian-


Formas bilineales equivalentes, 167 tes, 17
Formas de Jordan complejas en dimen- Inversión de la orientación por un iso-
sión 3, 47 morfismo lineal, 199
Formas de Jordan de f y de f ∗ , 63 Isomorfismo directo, 199
Formas polares de una forma bilineal, Isomorfismo entre endomorfismos uni-
154 tarios y matrices unitarias, 219
Formas polares de una forma sesquili- Isomorfismo entre formas bilineales y
neal, 213 matrices, 162
Isomorfismo entre formas sesquilinea-
Geometrı́a Proyectiva, 169 les y matrices, 216
Giro del plano euclı́deo, 203 Isomorfismo negativo, 199
Grupo especial unitario de un espacio Isomorfismo positivo, 199
hermı́tico, 219
Grupo lineal especial de un espacio vec- Ley de inercia de Sylvester, 175
torial real, 199 Ley del paralelogramo, 192
Grupo ortogonal de un espacio vecto- Linealidad de la conjugación, 64
rial, 197 Linealidad parcial, 152
Grupo ortogonal especial de un espacio Longitud de un vector, 183
vectorial euclı́deo, 200
Grupo unitario de un espacio hermı́ti- Matrices de las polares de una forma
co, 219 bilineal, 162
Grupo unitario de un espacio hermı́tico Matrices semejantes, 4
y grupo ortogonal especial del Matriz conjugada traspuesta, 216
espacio euclı́deo subyacente, 222 Matriz de cambio de bases ortonorma-
Grupos lineales especiales de matrices les, 186
reales, 200 Matriz de cambio de bases ortonorma-
Grupos ortogonales de matrices, 198 les respecto de un producto
Grupos ortogonales especiales de ma- hermı́tico, 218
trices, 200 Matriz de la complexificación de una
Grupos unitarios de matrices, 219 aplicación lineal, 68
Grupos unitarios especiales de matri- Matriz de un endomorfismo, 4
ces, 219 Matriz de un endomorfismo autoadjun-
to respecto de una base orto-
Hiperplanos invariantes de un endomor- normal, 207
fismo f y rectas invariantes Matriz de un endomorfismo ortogonal,
de f ∗ , 20 198
Homotecias ortogonales, 197 Matriz de un endomorfismo unitario,
Homotecias unitarias, 219 219
Identidad de Jacobi, 194 Matriz de una forma bilineal, 160
Imagen de la complexificación de una Matriz de una forma sesquilineal, 215
aplicación lineal, 68 Matriz ortogonal, 186
Independencia lineal de vectores orto- Matriz unitaria, 218
gonales, 185 Media aritmética, 193
Índice 301

Media cuadrática, 193 Partes real e imaginaria de un vector


Medida de ángulos, 191 de la complexificación de un
Menores principales de una matriz, 183 espacio vectorial real, 64
Método de Gram-Schmidt, 188 Partes simétrica y antisimétrica de una
Minimización de la norma por proyec- forma bilineal, 158
ción ortogonal, 192 Polinomio anulador de un endomorfis-
Módulo de un número complejo, 212 mo, 50
Multiplicación por un número comple- Polinomio caracterı́stico de un endo-
jo, 74 morfismo, 7
Multiplicidad algebraica de un autova- Polinomio caracterı́stico de una matriz,
lor, 7 7
Multiplicidad algebraica de un autova- Polinomio cuadrático, 63
lor, 54 Polinomio homogéneo de grado 2, 166
Multiplicidad de una raı́z de un poli- Polinomio mı́nimo de un endomorfis-
nomio, 45 mo, 53, 74
Multiplicidad geométrica de un auto- Polinomios caracterı́sticos de un endo-
valor, 7, 54 morfismo real y de su comple-
xificación, 69
Norma asociada a un producto escalar, Potencias de matrices semejantes, 5
182 Procesos de Markov, 5
Norma asociada a un producto hermı́ti- Producto escalar, 182
co, 217 Producto escalar subyacente a un pro-
Núcleo de la complexificación de una ducto hermı́tico, 222
aplicación lineal, 68 Producto escalar y cosenos, 191
Producto hermı́tico, 217
Orientación contra-reloj del plano vec- Producto hermı́tico estándar, 217
torial, 199 Producto vectorial, 188
Orientación de un espacio vectorial real, Propiedades de la conjugación respecto
198 de una forma bilineal simétri-
Orientación estándar, 199 ca o antisimétrica, 168
Orientación por la regla del sacacor- Propiedades de la norma, 190
chos del espacio vectorial, 199 Proyección ortogonal, 185
Orientación positiva de la recta vecto-
rial, 199 Radical de una forma bilineal simétri-
Orientación y método de ortogonaliza- ca, 180, 237
ción de Gram-Schmidt, 210 Raı́ces de un polinomio anulador, 50
Ortogonalidad, 185 Raı́ces del polinomio caracterı́stico, 7
Ortogonalidad respecto de un produc- Rango de la matriz de una forma bili-
to hermı́tico, 218 neal, 162
Ortogonalidad y ecuaciones, 187 Rango de una forma bilineal, 155
Rango de una forma sesquilineal, 214
Partes hermı́tica y antihermı́tica de una Recta invariante, 2
forma sesquilineal, 214 Recta ortogonal a un hiperplano, 187
Regla de Descartes, 209
302 Índice

Regla del sacacorchos, 199 Subespacios invariantes asociados a un


Restricción de un endomorfismo a un autovalor, 32
subespacio invariante, 17 Subespacios invariantes contenidos en
Rotación axial, 205 el subespacio invariante ma-
ximal de un autovalor, 37
Semejanza compleja de matrices reales, Subespacios invariantes cuando hay una
60 sola caja de Jordan, 38
Semejanza vectorial, 196 Subespacios invariantes de un endomor-
Semilinealidad, 213 fismo ortogonal, 200
Semilinealidad y producto por escala- Subespacios invariantes de un endomor-
res, 214 fismo real, 75
Sesquilinealidad y simetrı́a, 214 Subespacios invariantes en una tabla
Signatura de una forma bilineal simétri- de Jordan, 36
ca real, 175 Substitución de un endomorfismo en
Signatura de una forma sesquilineal hermı́ti- un polinomio, 50
ca, 217 Sucesión de codimensiones de subespa-
Signatura y autovalores, 209 cios invariantes, 33
Simetrı́a ortogonal, 185 Sucesión de dimensiones de subespa-
Simetrı́a axial, 197 cios invariantes, 33
Simetrı́a central, 197 Suma de subespacios invariantes, 17
Simetrı́a especular, 197
Sistemas dinámicos continuos, 5 Tabla de Jordan, 35
Sistemas dinámicos discretos, 5 Tablas de Jordan de autovalores con-
Subespacio invariante de un endomor- jugados, 71
fismo, 2, 48 Teorema de Albert, 62
Subespacio invariante maximal de un Teorema de Cayley-Hamilton, 54, 74
autovalor, 33 Teorema de descomposición, caso real,
Subespacio invariante maximal real de 73
dos autovalores conjugados, 72 Teorema de descomposición, caso com-
Subespacio invariante por conjugación, plejo, 47
67 Teorema de descomposición, demostra-
Subespacio ortogonal de uno dado, 185 ción en el caso complejo, 51
Subespacios conjugados, 67 Teorema de descomposición, demostra-
Subespacios conjugados respecto de una ción en el caso real, 76
forma bilineal simétrica o an- Teorema de Pitágoras, 190
tisimétrica, 167 Teorema de prolongación ortogonal de
Subespacios conjugados respecto de una la base, 189
forma sesquilineal hermı́tica o Teorema del coseno, 193
antihermı́tica, 216 Teorema espectral para endomorfismos
Subespacios invariantes asociados a au- autoadjuntos de un espacio euclı́deo,
tovalores imaginarios, 70 205
Subespacios invariantes asociados a au- Teorema espectral para endomorfismos
tovalores reales, 69 autoadjuntos de un espacio hermı́ti-
co, 220
Índice 303

Teorema fundamental del álgebra, 11


Traza de un endomorfismo, 7
Traza de una matriz, 7

Valor propio, 2
Vector anisótropo de una forma bili-
neal, 158
Vector anisótropo de una forma sesqui-
lineal, 215
Vector isótropo de una forma bilineal,
158
Vector isótropo de una forma sesquili-
neal, 215
Vector propio, 2
Vector unitario, 186
Vectores conjugados respecto de una
forma bilineal simétrica o an-
tisimétrica, 167
Vectores conjugados respecto de una
forma sesquilineal hermı́tica o
antihermı́tica, 216
Vectores ortogonales, 185

También podría gustarte