Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Álgebra Lineal Gamboa VOL 2
Álgebra Lineal Gamboa VOL 2
Volumen 2
Capı́tulos III & IV
José F. Fernando
J. Manuel Gamboa
Jesús M. Ruiz
g = f − λ IdE , N = k ker(g k )
S
Nk+1 Nk ,→ Nk Nk−1 : [u] 7→ [g(u)]
BJ = { . . . , uk` , g(uk` ), . . . , g ν−k (uk` ), . . . } ⊂ N
.. .. ..
. . .
··· λ 0 0 ···
Mf |N (BJ ) =
··· 1
λ
0 ···
= J(λ)
··· 0 1 λ ···
.. .. ..
. . .
Prefacio
Este libro es el segundo volumen del curso de Álgebra Lineal cuyo primer
volumen dedicamos a los conceptos fundamentales. En éste desarrollamos los
primeros resultados importantes que resuelven mediante invariantes problemas
básicos de clasificación. El volumen consta de los dos capı́tulos siguientes:
primer volumen pretende ser un libro de texto susceptible de ser seguido con
casi entera fidelidad, este segundo debe ser empleado con otro discernimiento.
En su totalidad es un curso avanzado sobre los problemas de clasificación antes
enumerados, que hemos intentado presentar y resolver de modo elemental, pero
completo. Por ello, en un curso básico sugerimos utilizar sólo: del capı́tulo
III, las lecciones 11, 12 y 13, y la 14 sin la demostración del teorema de
descomposición, y del capı́tulo IV, la lección 16, la 17 sin la clasificación de
formas antisimétricas, la 18, y la 19 sólo en dimensión ≤ 3. Insistiremos en
esto en el resumen de cada uno de los dos capı́tulos.
Finalmente, queremos expresar nuestro agradecimiento a Concepción Fuer-
tes, Celia Martı́nez, y José F. Ruiz, compañeros y amigos, por su disponibilidad
para coincidir y discrepar con nuestras ideas sobre esta materia. Este curso de
Álgebra Lineal es mejor gracias a ellos.
VII
VIII Contenido
Sı́mbolos 293
Índice 297
CAPÍTULO III
Clasificación de endomorfismos
1
2 III. Clasificación de endomorfismos
f (u) = λu.
α1 u1 + · · · + αs us = 0
0 = α1 f (u1 ) + · · · + αs f (us ) = α1 λ1 u1 + · · · + αs λs us .
efecto, basta probar que W (λ1 )∩ rj=2 W (λj ) = {0} y suponemos lo contrario,
P
es decir, que existe un vector no nulo v1 ∈ W (λ1 ) que se escribe como suma
v1 = v2 +· · ·+vr , donde cada vj ∈ W (λj ). Entonces (−1)v1 +v2 +· · ·+vr = 0 es
una combinación lineal nula pero no trivial, y esto contradice la independencia
de los vectores v1 , . . . , vr que acabamos de probar.
(5) Como complemento a lo anterior, conviene señalar que si u, v son
autovectores asociados a autovalores diferentes, ninguna combinación lineal
w = αu + βv con coeficientes no nulos es autovector. En efecto, supongamos
f (u) = λu, f (v) = µv y f (w) = ρw. Entonces
(
f (αu + βv) = αf (u) + βf (v) = αλu + βµv,
f (w) =
ρ(αu + βv) = ραu + ρβv,
αλ = ρα, βµ = ρβ.
Mf (B) = C(B0 , B)Mf (B0 )C(B, B0 ) = C(B0 , B)Mf (B0 )C(B0 , B)−1
(∗) (M − λI)xt = 0.
(3) Para obtener esta ecuación P (λ) = 0 pensemos en λ como una in-
determinada T , y analicemos cómo calculamos P (T ) a partir de la matriz
M = (aij ):
a11 − T a12 a13 ··· a1n
a21
a22 − T a23 ··· a2n
a31 a32 a33 − T · · · a3n
P (T ) = det .
.. .. .. ..
. . . .
an1 an2 an3 · · · ann − T
Lo podemos hacer por la regla de Laplace por la primera fila, y luego los
adjuntos que aparecen también por sus primeras filas, y ası́ sucesivamente. Al
final obtenemos una suma de productos, cada uno de los cuales tiene un factor
y uno sólo de cada fila y cada columna, con el signo que la regla de Laplace va
dictando en el proceso. De estos productos, el que primero identificamos es:
donde los puntos del final indican términos de menor grado en T ; y su signo es
positivo, pues se obtiene al tomar sucesivamente el adjunto del primer elemento
de la fila que toque. Cualquiera de los otros productos siempre tendrá un factor
11. Subespacios invariantes y autovalores 7
Sus soluciones son (x, y, z) = ρ(1, 3, 5), es decir, W (λ) = L[u] con u = (1, 3, 5).
Para λ = 2 hay que resolver
1 1 −1 x 0
3 3 −3 y = 0 x + y = z,
5 5 −5 z 0
es decir, W (λ) = L[v, w], con v = (1, 0, 1), w = (0, 1, 1). Resulta que B =
{u, v, w} es una base de autovectores, y f es diagonalizable. Comprobamos que
las multiplicidades algebraica y geométrica de ambos autovalores coinciden:
valen 1 para λ = 1, y valen 2 para λ = 2.
La matriz de f respecto de la base B es
1 0 0
J= 0 2 0
0 0 2
y se cumple M = CJC −1 para la matriz de cambio de base C = M (B, E); se
tiene:
1 1 0 −1 −1 1
C=3 0 1, C −1 = 2 1 −1 .
5 1 1 3 4 −3
Utilicemos esto para calcular las potencias de M . Según III.11.3, vol. 2, p. 4:
1 1 0 1 0 0 −1 −1 1
M k = CJ k C −1 = 3 0 1 0 2k 0 2 1 −1 ,
5 1 1 0 0 2k 3 4 −3
y operando se obtiene:
2·2k − 1 2k − 1 −2k + 1
luego constituyen un plano. Por ello, K3 no tiene ninguna base formada por
autovectores, y f no es diagonalizable. Por supuesto, las multiplicidades alge-
braica y geométrica del autovalor λ = 1 son distintas: 3 y 2 respectivamente. Si
quisieramos calcular las potencias de M , no sabrı́amos cómo imitar el método
del ejemplo anterior. Debemos avanzar más en el análisis de los endomorfismos
para remediar esta ignorancia.
(3) Veamos ahora un caso intermedio entre los dos anteriores: el endomor-
fismo de K3 cuya matriz respecto de la base estándar es
1 −1 3
M = 0 3 1 .
0 −1 1
y son (x, y, z) = ρ(1, 0, 0), es decir, W (λ) = L[u] con u = (1, 0, 0). Para λ = 2
hay que resolver
−1 −1 3 x 0
0 1 1 y = 0 x + y = 3z,
y = −z,
0 −1 −1 z 0
P
con lo que W (λ) = L[v], donde v = (4, −1, 1). Resulta que λ W (λ) = L[u, v]
tiene dimensión 2, luego no contiene ninguna base de K3 . Como en el ejem-
plo anterior, vemos que K3 no tiene ninguna base formada por autovectores,
ası́ que f no es diagonalizable. Nótese que las multiplicidades algebraica y
geométrica de λ = 1 coinciden (ambas son 1), pero no las de λ = 2 (que son 2
y 1). Tampoco aquı́ se ve de qué manera simplificar el cálculo de las potencias
de M .
11. Subespacios invariantes y autovalores 11
p : E → E : v + w 7→ v, s : E → E : v + w 7→ v − w.
Se tiene p|V = s|V = IdV y p|W ≡ 0, s|W = − IdW . Si unimos una base de V
y otra de W para formar una de E, las matrices de estos endomorfismos son
diagonales:
Id 0 Id 0
Mp = y Ms = .
0 0 0 −Ie
Además, obtenemos sus polinomios caracterı́sticos, que son respectivamente
(1 − T )d (−T )e y (1 − T )d (−1 − T )e .
W : x = t, y = z y L : y = z = t.
¿Existen endomorfismos f de K4 cuyo núcleo sea W y cuya imagen sea L? ¿Existe alguno
diagonalizable?
Número 7. ¿Es diagonalizable un endomorfismo de K2 de traza 5 y determinante 4?
Número 8. Sea f : C2 → C2 un endomorfismo no diagonalizable cuya traza vale 2.
Calcular su determinante.
Número 9. Sea f : E → E un endomorfismo, tal que f 2 = f ◦ f es diagonalizable. ¿Lo es
necesariamente f ?
Número 10. Para cada terna de números complejos (a, b, c) se considera el endomorfismo
fa,b,c de C3 cuya matriz respecto de la base estándar es
0 1
a+b a−b+c a−c
@a − b − c a a + b + cA .
a+c a+b−c a−b
Número 12. Se tienen dos sucesiones de números reales (xn )n e (yn )n tales que
2
Número 14. Sean f y g dos endomorfismos de un espacio vectorial de tipo finito E.
Demostrar que los endomorfismos f ◦ g y g ◦ f tienen el mismo polinomio caracterı́stico.
Número 15. Demostrar que una matriz cuadrada de traza nula es un conmutador, es
decir, se puede escribir en la forma AB − BA para ciertas matrices cuadradas A y B.
14 III. Clasificación de endomorfismos
α 0
Por tanto, la matriz de f respecto de la base {u, w} es . Usando esta
1 λ
matriz resulta P (T ) = (α − T )(λ − T ), y por haber un único autovalor, α = λ.
Ası́ la matriz anterior es
λ 0
.
1 λ
Caso 3o . Si K = C, no hay más que decir, pero si K = R, queda el caso en
que P (T ) no tenga raı́ces reales. Entonces, P (T ) tendrá dos raı́ces conjugadas:
√ √
λ = α − −1β, λ̄ = α + −1β, con α, β ∈ R y β > 0.
√
Como la solución x = a + −1b no es trivial, uno de los vectores u, v es no
nulo, y de hecho son una base. Por ejemplo, si u 6= 0 y v = θu con θ ∈ R, la
primera de las ecuaciones anteriores darı́a f (u) = αu + βθu = (α + βθ)u, y
α + βθ ∈ R serı́a un autovalor real de f , lo que no es posible. En suma, {u, v}
es una base de E, y la matriz de f respecto de ella es:
α −β
.
β α
(2) De este modo hemos clasificado todos los endomorfismos de E, según
los cuatro tipos de matrices obtenidos, que preferimos enumerar ası́:
λ 0 λ 0 λ 0 α −β
, , , y si K = R, , β > 0.
0 λ 0 µ 1 λ β α
Además, podemos distinguir los tipos por sus rectas invariantes: en el primero
todas los son, en el segundo hay dos distintas, en el tercero hay una única, y
en el caso real adicional, no hay ninguna.
En efecto, estas distinciones no dependen de las coordenadas x = (x1 , x2 )
que usemos, luego podemos comprobarlas con las mismas matrices anteriores.
Lo más fácil es buscar todos los autovectores correspondientes a cada autova-
lor, cuando los hay. Para el primer tipo, M − λI ≡ 0, y todas las rectas son
invariantes. Para el segundo tipo, (M − λI)xt = 0 (resp. (M − µI)xt = 0) da el
sistema (µ − λ)x2 = 0 (resp. (λ − µ)x1 = 0), luego los autovectores asociados
a este autovalor generan la recta invariante x2 = 0 (resp x1 = 0), de modo que
hay dos rectas invariantes distintas. Para el tercer tipo, (M − λI)xt = 0 da
x1 = 0, que es la única recta invariante. Para el cuarto tipo no hay autovalores
reales, luego no hay rectas invariantes.
El lector puede aplicar esto al endomorfismo de III.11.9, vol. 2, p. 11.
(3) Disponer de la clasificación anterior tiene muchas utilidades. Por ejem-
plo, si un endomorfismo de un plano tiene tres rectas invariantes, entonces
las tiene todas, y se trata de una homotecia. También ayuda a estudiar endo-
morfismos en dimensiones superiores, pues describe el comportamiento de la
restricción de esos endomorfismos a sus planos invariantes. Tendremos ocasión
de verlo más adelante.
Con la discusión en el plano hemos ilustrado lo que se debe hacer para
clasificar endomorfismos. Por supuesto, hemos podido completar la tarea por
tratarse de la dimensión más baja; en dimensiones superiores, no basta calcular
rectas invariantes.
12. Clasificación de endomorfismos 17
(ii) P
Las siguientes P columnas de M se obtienen de las expresiones f (vk ) =
00 00
Pi mik ui + j mjk vj , cuyos segundos sumatorios definen M . Como
i mik ui ∈ P
W , su clase en el cociente es nula, y por tanto se tiene
[f ]W ([vj ]) = j m00jk [vj ], y M 00 es la matriz de [f ]W respecto de B00 .
1 4 0
con lo que Mϕ = 0 0 0 .
2 10 0
(3) Para encontrar las rectas invariantes F/W de ϕ, calculamos los auto-
valores de ϕ. El polinomio caracterı́stico de ϕ es det(Mϕ − T I) = T 2 (1 − T ),
luego los autovalores son λ = 0, 1. Ası́:
(i) Para λ = 0, el sistema (M − λI)χt = 0 tiene las soluciones χ =
ρ(0, 0, 1), y obtenemos la recta invariante F/W ⊂ E generada por ε3 = [e3 ].
Resulta que F = W + L[e3 ].
(ii) Para λ = 1, resolviendo (M − λI)χt = 0 sale χ = ρ(1, 0, 2), luego
F/W ⊂ E es la recta generada por ε1 + 2ε3 = [e1 + 2e3 ]. En consecuencia,
F = W + L[e1 + 2e3 ].
f ∗ : E ∗ → E ∗ : h 7→ h ◦ f.
f −1 (W ) = f −1 (H1 ) ∩ · · · ∩ f −1 (Hr ).
Para obtener ecuaciones de las imágenes inversas f −1 (Hi ) elegimos una ecua-
ción h = hi ∈ E ∗ de H = Hi , esto es, Hi = ker(hi ), y resulta:
u ∈ f −1 (H) si y sólo si f (u) ∈ H,
si y sólo si 0 = h(f (u)) = (h ◦ f )(u) = f ∗ (h)(u),
luego f ∗ (h) = 0 es una ecuación de f −1 (H) (si f ∗ (h) ≡ 0 simplemente ocurre
que f −1 (H) = E).
(2) Según lo anterior, W es invariante si y sólo si W ⊂ f −1 (W ), si y sólo
si todas las imágenes inversas f −1 (Hi ) contienen W = H1 ∩ · · · ∩ Hr , es decir,
20 III. Clasificación de endomorfismos
estos sistemas son diferentes, por supuesto, pero tienen el mismo rango, pues
sus matrices son traspuestas una de otra. De este modo, la dimensión del
subespacio de autovectores es la misma en los dos casos. En consecuencia, cada
recta invariante de f se corresponde con una de f ∗ , que por lo que acabamos
de decir, se corresponde con un hiperplano invariante de f .
Esto establece una correspondencia biyectiva entre rectas invariantes e hi-
perplanos invariantes de f . Esta dualidad se puede utilizar para el recuento de
12. Clasificación de endomorfismos 21
P (T ) = (α − T )(β − T )2 .
0 −2 3 2
24 III. Clasificación de endomorfismos
(i) Los del primer tipo son todos el mismo hiperplano H, generado por
v y el plano de autovectores x2 = x3 + x4 = 0. Por tanto, una ecuación h de
H será una combinación lineal
Para que v ∈ H, sus coordenadas (0, 0, 0, 1) deben cumplir esa ecuación, luego
0 = h(0, 0, 0, 1) = β, con lo que h(x) = αx2 , y H es el hiperplano x2 = 0.
(ii) Los hiperplanos del segundo tipo tienen ecuaciones de la forma
que ahora debe cumplir el vector u = (2, 2, 1, 1). Por tanto, 0 = h(2, 2, 1, 1) =
2α + 2β, o sea, β = −α y h(x) = α(x2 − x3 − x4 ). Obtenemos de nuevo sólo
un hiperplano: H 0 : x2 − x3 − x4 = 0.
(iii) Los hiperplanos del tercer tipo L[u, v, w], son los hiperplanos que
contienen al plano L[u, v]. En efecto, si H 00 ⊃ L[u, v], como H 00 debe cortar al
12. Clasificación de endomorfismos 25
y4 0 −1 1 −1 x4
26 III. Clasificación de endomorfismos
Queda probado que no hay más planos invariantes que los que decı́amos.
0 0 8 2
2 1 −3 0
Mostrar que los hiperplanos x1 = 0 y x1 − 3x2 + 2x4 = 0 son invariantes, y obtener todos
los planos invariantes de f que contienen.
Número 8. Se considera el endomorfismo de K4 dado por
sobre dim(E): (i) mediante cociente módulo una recta invariante, y (ii) por restricción a un
hiperplano invariante.)
Número 10. Calcular las rectas invariantes del endomorfismo f de K3 dado por
y mostrar que existe una base respecto de la cual las ecuaciones de f son
f (x0 , y 0 , z 0 ) = (x0 , x0 + y 0 , 2z 0 ).
Número 11. Sea f un endomorfismo de C3 que tiene exactamente una recta y un plano
invariantes. Demostrar que la recta está contenida en el plano, y que respecto de una base
adecuada la matriz del endomorfismo es
0 1
λ 0 0
@1 λ 0A .
0 1 λ
Número 12. Sea W un subespacio invariante de un endomorfismo f : E → E y f |W :
W → W y de [f ]W : E/W → E/W los dos endomorfismos asociados (III.12.2(2), vol. 2, p.
17).
(1) Probar que si W está contenido en otro subespacio invariante W 0 de f de dimensión
una unidad mayor, entonces W 0 = W ⊕ L[u], donde [u] ∈ E/W es un autovector de [f ]W .
(2) Sean B una base de f , M la matriz de f respecto de B y Axt = 0 unas ecuaciones
implı́citas de W . Demostrar que los vectores u ∈ E tales que W ⊕ L[u] es un subespacio
invariante se obtienen resolviendo los sistemas
A(M − λI)xt = 0
Número 15. Encontrar un endomorfismo f de R4 sin rectas invariantes, y con el plano
siguiente invariante:
W : x1 + x2 = x3 + x4 = 0.
¿Se puede encontrar f sin más planos invariantes?
32 III. Clasificación de endomorfismos
para definir
Nk = Nk (λ) = ker(f − λ IdE )k .
y para k ≥ 2 se escribe
k)
(f − λ IdE )k ◦ f = (f − λ IdE ) ◦ · · · ◦ (f − λ IdE ) ◦ f,
En consecuencia
es monótona decreciente:
Todas las posibles tablas de este tipo, y por tanto todos los posibles subespacios
invariantes W ⊂ N (λ) se obtienen eligiendo: (i) un ı́ndice ν 0 ≤ ν, y (ii) los
vectores uk` de la fila k-ésima para que esa fila sea una colección de vectores
independientes dentro de un suplementario de Nk−1 en Nk .
Por ejemplo, supongamos que la forma de Jordan de f |N (λ) tiene una única
caja de Jordan:
λ 0 0 ··· 0 0
1 λ 0 ··· 0 0
0 1 λ ··· 0 0
J(λ) = . . . . .
.. .. .. . . ... ...
0 0 0 ··· λ 0
0 0 0 ··· 1 λ
Esto significa que la tabla de Jordan sólo tiene una columna, luego elegido
ν 0 ≤ ν, ya está todo: sea el que sea u ∈ Nν 0 \ Nν 0 −1 , cada g k (u) (0 ≤ k < ν 0 )
genera un suplementario de Nν 0 −k−1 en Nν 0 −k , de modo que
0
W = L[u, g(u), . . . , g ν −1 (u)] = Nν 0 .
En otras palabras, en este caso los únicos subespacios invariantes contenidos
en N (λ) son los Nk . Esto ocurre en el ejemplo anterior III.13.3, vol. 2, p. 37.
y BJ es una base de E.
En efecto, probemos por inducción sobre n que (f − λ IdE )n = 0. El caso
n = 1 no requiere explicación, ası́ que suponemos n > 1. El polinomio carac-
terı́stico de g = f − λ IdE es (−T )n , con el único autovalor 0. Consideramos
un hiperplano invariante H de g, una base BH de H, y un vector u ∈ E \ H.
Entonces B = BH ∪ {u} es una base de E y
Mg|H (BH ) ∗
Mg (B) = .
0 α
(i) Pg|H (T ) = (−T )n−1 y por inducción (g|H )n−1 = 0. Se deduce que g n se
anula idénticamente en H.
(ii) α = 0, y por tanto g(u) ∈ H. Como (g|H )n−1 = 0, se sigue 0 =
g n−1 (g(u)) = g n (u).
de modo que vale por ejemplo el vector u = (0, 0, 1) Sus imágenes sucesivas
por g = f − 2I y g 2 = (f − 2I)2 son
En resumen, BJ = {(0, 0, 1), (1, 1, 0), (−3, 6, 0)}. El lector comprobará que la
matriz de cambio de base es
0 1 −3 0 0 9
C = C(BJ , E) = 0 1 6 , que C −1 = 19 6 3 0 ,
1 0 0 −1 1 0
Pero sabemos que B3 = 0 (pues N3 = K3 ), luego sólo quedan los tres primeros
sumandos:
En consecuencia
(1 − k)2k −k2k−1 k(7 − 3k)2k−3
Hemos hecho los cálculos sin recurrir a la forma de Jordan J. Pero esto ha sido
posible porque al haber un único autovalor, hay dos matrices A y B adecuadas
que conmutan. Veremos más adelante que en general hay que utilizar la fórmula
de Newton para calcular las potencias de la forma de Jordan, y deducir después
las de M .
dim(N1 ) = 3 − rg(M − I) = 2.
Ası́ que {(1, 0, 0)} y {(3, 1, 0), (−4, 1, −1)} son bases de Jordan de esos dos
subespacios invariantes maximales, y juntas son una base BJ de todo el es-
pacio. Denotamos C = C(BJ , E) y J = Mf (BJ ), de modo que M = CJC −1 .
Entonces M k = CJ k C −1 y fijamos nuestra atención en las potencias J k . Te-
nemos
1 1 0 0 0 0 0
J = 2 = 0 2 0 + 0 0 0 = A + B,
1 2 0 0 2 0 1 0
Número 9. ¿Existe algún endomorfismo f de C2n tal que ker(f n ) = im(f n−1 )?
Número 10. Sean E el espacio vectorial de los polinomios de grado ≤ d con coeficientes
complejos, y f el endomorfismo de E definido por la substitución: F (T ) 7→ F (T + 1). De-
mostrar que el único autovalor de f es λ = 1, que su subespacio invariante maximal es todo
E, y calcular la forma de Jordan de f .
Número 11. De un endomorfismo f de E = K8 se sabe que el rango de f − 2 IdE es ≥ 6,
el de (f − 2 IdE )4 es 1, y el de (f − 2 IdE )5 es 0. Demostrar que λ = 2 es el único autovalor
de f y que su espacio invariante maximal es todo E, y calcular la forma de Jordan de f .
14. Teorema de descomposición: caso complejo 45
Número 14. Sean E un espacio vectorial de tipo finito, y f un endomorfismo nilpotente de
E. Demostrar que si otro endomorfismo g de E conmuta con f , entonces det(f + g) = det(g).
Número 15. Sea g un endomorfismo de C3
0
cuya forma de Jordan es
1
λ 0 0
J =@1 λ 0A
0 1 λ
para cierto número complejo λ. Calcular la forma de Jordan del endomorfismo
f : L(C3 , C3 ) → L(C3 , C3 ) : h 7→ g ◦ h.
A1 (T )P1 (T ) + · · · + As (T )Ps (T ) = 1.
P (T ) = A1 (T )P1 (T ) + · · · + As (T )Ps (T )
Pi (T ) = Qi (T )P (T ) + Ri (T ),
Ri (T ) = Pi (T ) − Qi (T )P (T )
= Pi (T ) − Qi (T ) A1 (T )P1 (T ) + · · · + As (T )Ps (T )
= −Qi (T )A1 (T )P1 (T )− · · · +(1− Qi (T )Ai (T ))Pi (T )
− · · · − Qi (T )As (T )Ps (T ),
1 = 1c P (T ) = 1c A1 (T )P1 (T ) + · · · + 1c As (T )Ps (T ).
14. Teorema de descomposición: caso complejo 47
Y esto es todo lo que hace falta. En efecto, para cada autovalor λi elegimos
una base Bi de N (λi ) respecto de la cual la matriz J(λi ) de f |N (λi ) consiste
en cajas
S de Jordan de órdenes decrecientes. Por el teorema de descomposición,
B = i Bi es una base de E, y respecto de ella la matriz de f es
J(λ1 )
J = .. .
.
J(λr )
lo esencial es que f tiene, respecto de una base adecuada, una expresión ma-
tricial formada por cajas de Jordan, y que la estructura de cajas para cada
autovalor λ está encriptada en la sucesión de dimensiones de los subespacios
invariantes asociados a λ. Por otra parte, esas dimensiones se calculan direc-
tamente utilizando la matriz M de f respecto de cualquier base. En resumen,
los números
dk (λ) = dim(Nk (λ)) = dim ker(f − λ IdE )k = n − rg (M − λI)k ,
Pp k
(1) Sea P (T ) = k=0 ak T ∈ C[T ] un polinomio no nulo. Entonces
p
X
P (f ) = ak f k
k=0
(P Q)(f ) = P (f ) ◦ Q(f ),
IdE , f, f 2 , . . . , f p ,
0 = P (f )(u) = P (λ)u,
y como u 6= 0, es P (λ) = 0.
14. Teorema de descomposición: caso complejo 51
u = A(f )(Pj (f )(u)) + B(f )(Qj (f )(u)) = A(f )(0) + B(f )(0) = 0.
A1 (f ) ◦ Q1 (f ) + · · · + Ar (f ) ◦ Qr (f ) = IdE .
u = u1 + · · · + ur , ui = Ai (f ) ◦ Qi (f )(u).
pero
Pi (f )(ui ) = Pi (f ) ◦ Ai (f ) ◦ Qi (f )(u)
= Ai (f ) ◦ (Qi Pi )(f )(u) = Ai (f ) ◦ P (f )(u) = Ai (f )(0) = 0.
Como (∗) y (∗∗) son dos sumas directas, y cada sumando de la primera
está contenido en el correspondiente de la segunda, tiene que ser
dim(E) = 5 + 3 + 4 = 12.
Con esto tenemos todos los datos para construir la forma de Jordan de f .
(1) Cajas de Jordan para el autovalor λ = 1. La tabla de Jordan en este
caso es
u11
g(u11 )
g 2 (u11 ) u31 u32
De este modo, hay una caja de Jordan de orden 3, y dos de orden 1, lo que da
la matriz de Jordan
1 0 0 0 0
1 1 0 0 0
J(1) = 0 1 1 0 0 .
0 0 0 1 0
0 0 0 0 1
56 III. Clasificación de endomorfismos
0 0 1 6
Finalmente, la forma de Jordan de f es
J(1)
J= J(2) .
J(6)
y las coordenadas (2, 1, −2) cumplen este sistema, ası́ que podemos tomarlas
como coordenadas de w.
58 III. Clasificación de endomorfismos
según sea k par o impar. Miremos los determinantes. Sabemos que det(M ) =
−1, luego det(M k ) = 1 o −1 según sea k par o impar, y un sencillo (pero
recomendable) cálculo confirma estos valores en las dos últimas matrices.
14. Teorema de descomposición: caso complejo 59
(1) El lema crucial es que dos matrices reales M y M 0 que son semejantes
como matrices complejas, lo son también como matrices reales.
La demostración no es muy difı́cil. Supongamos que existe una matriz
regular compleja C tal que M = CM 0 C −1 , esto es M C = CM 0 . Escribimos
√
C = A + −1B,
M = (A + αB)M 0 (A + αB)−1 ,
Número 4.
es
Sea f el endomorfismo de E = C3 cuya matriz respecto de la base estándar
0 1
1 −1 0
M = @ 0 1 1A.
−1 1 0
Sea F = C3 [T ] el espacio vectorial de los polinomios de grado ≤ 3, y consideremos las
aplicaciones lineales
ϕ : F → L(E, E) : P 7→ P (f ) y ϕ∗ : L(E, E)∗ → F ∗ : γ 7→ γ ◦ ϕ.
sean semejantes?
Número 6. Sea E un espacio vectorial complejo de dimensión 3. Utilizar la clasificación
de endomorfismos para demostrar que dos endomorfismos complejos de E cuyos polinomios
mı́nimos coinciden tienen la misma forma de Jordan. ¿Es cierto el resultado en dimensión 4?
> c1 x12
> + ··· + cr xr = 0,
< c1 x1
> + ··· + cr x2r = 0,
.. .. ..
>
>
> . . .
c1 xr1 ··· cr xrr
:
+ + = 0,
en las incógnitas xj con coeficientes cj enteros positivos. Demostrar que en C este sistema
sólo tiene la solución trivial.
(2) Demostrar que un endomorfismo complejo f : E → E es nilpotente si y sólo si su
polinomio caracterı́stico es (−1)n T n , si y sólo si todas las trazas tr(f k ), k ≥ 1, son nulas.
Número 8. (1) Un endomorfismo se llama idempotente si f k = f para algún entero k ≥ 2.
Demostrar que todo endomorfismo complejo idempotente es diagonalizable, y obtener todas
sus posibles formas de Jordan.
(2) Un endomorfismo complejo f : E → E es una raı́z k-ésima de la identidad cuando
f k = IdE . Probar que un tal f es diagonalizable y obtener sus posibles formas de Jordan.
Número 9. Demostrar que toda matriz compleja cuadrada con determinante no nulo
tiene raı́z cuadrada (Albert).
Número 10. Demostrar que todo endomorfismo de un espacio vectorial complejo de tipo
finito es suma de uno diagonalizable y otro nilpotente (Gelfand).
Número 11. Clasificar por sus formas de Jordan los endomorfismos de C6 que cumplen:
(i) Su polinomio caracterı́stico es P (T ) = T 2 (T − 1)4 .
(ii) El subespacio de autovectores asociados a λ = 0 es una recta.
(iii) El subespacio de autovectores asociados a λ = 1 es un plano.
Número 12. Calcular las formas de Jordan de dos endomorfismos f y g de C4 que satis-
facen las siguientes condiciones:
(i) f |W = g|W , y f (W ) = W , para W : x + y − z − t = x + z + t = 0.
(ii) tr(f ) = 2, tr(g) = 4 y det(g) = 1.
(iii) f ◦ g = g ◦ f .
(iv) f no es diagonalizable.
(v) f (u) = v, f (v) = u, para u = (1, 1, 0, 0) y v = (0, 1, 1, 0).
Número 13. Sea f un endomorfismo de E = C7 de rango 5 cuyo polinomio caracterı́stico
es (−T )3 (1 − T )4 . Se sabe que el rango de (f − IdE )2 es 4. Calcular la matriz de Jordan de
15. Teorema de descomposición: caso real 63
ϕ : C7 [T ] → L(E, E) : P 7→ P (f ).
Número 14. Demostrar que toda matriz compleja es semejante a su transpuesta. Deducir
lo mismo para matrices reales.
Número 15. Sea f un endomorfismo de un espacio vectorial complejo E de tipo finito,
y f ∗ el correspondiente endomorfismo de su dual E ∗ . Mostrar que ambos tienen la misma
forma de Jordan, en particular los mismos autovalores λ, y que los subespacios invariantes
maximales N (λ) y N ∗ (λ) de uno y otro están relacionados mediante la dualidad canónica
como sigue: \
N ∗ (λ) = N (µ)∨ .
µ6=λ
Se deduce que las raı́ces complejas aparecen por pares conjugados, de igual
multiplicidad (pues al ir factorizando los Q(T ) las raı́ces imaginarias que van
quedando deben seguir apareciendo conjugadas). De este modo, en R[T ] el
polinomio P (T ) factoriza ası́:
Y Y q
P (T ) = (T − λi )pi (T − αj )2 + βj2 j , λi , αj , βj ∈ R.
i j
Pues bien, para establecer una versión real del teorema de descomposición, y
obtener formas de Jordan reales, necesitamos hacer para espacios vectoriales
reales argumentos del tipo anterior: partes real e imaginaria, conjugación... Es-
to requiere un formalismo sencillo, pero algo tedioso de describir. Sin embargo,
una vez establecido permite aplicar eficazmente el caso complejo al real. De
hecho, casi más que los resultados finales que obtengamos, interesa aprender
64 III. Clasificación de endomorfismos
que el caso real es en realidad un aspecto parcial del caso complejo, y aprender
a utilizar esto con aprovechamiento. Pongámomos ya con ello.
(15.1) Complexificación de un espacio √ vectorial real. Sea E un es-
pacio vectorial real. Imitando que C = R + −1R, definimos
√ √
e = E + −1E = {w = u + −1v : u, v ∈ E},
E
√ √ √
donde cada expresión u+ −1v es puramente formal, y u+ √−1v = u0 + −1v 0
si y sólo si u = u0 y v = v 0 (ası́ que podrı́amos definir u + −1v como el par
(u, v)). Se opera según las reglas que vamos a dar a continuación.
(1) En el conjunto Ee la suma de dos vectores es
√ √ √
w1 + w2 = (u1 + −1v1 ) + (u2 + −1v2 ) = (u1 + u2 ) + −1(v1 + v2 ),
√
y el producto por un escalar z = x + −1y ∈ C es:
√ √ √
zw = (x + −1y)(u + −1v) = (xu − yv) + −1(yu + xv).
√ √
(simplemente, se opera teniendo en cuenta que −1 −1 = −1). Es una com-
probación rutinaria que Ee con estas operaciones es un espacio vectorial com-
plejo, que denominamos complexificación de E. Cuando convenga distinguir
entre E y E e utilizaremos los calificativos real y complejo.
√
Dado w = u + −1v ∈ E, e decimos que u y v son respectivamente la parte
real y la parte imaginaria de w.
(2) También definimos la conjugación, que es la biyección
√ √
σ:E e→E e : w = u + −1v 7→ u − −1v.
wj ∈ E
Pvectores independientes, y consideremos una combinación lineal com-
e
pleja j zj σ(wj ) = 0. Entonces:
X X X
0=σ zj σ(wj ) = z j σ 2 (wj ) = z j wj ,
j j j
y puesto que los wj son independientes, los coeficientes z j son nulos, pero
entonces también son nulos los zj .
(4) El espacio real E es un subconjunto de E,e exactamente el mayor sub-
conjunto donde la conjugación es la identidad: w ∈ E si y sólo si σ(w) = w.
Por otra parte, podemos relacionar la dependencia lineal en E con la depen-
dencia lineal en E: e si uj ∈ E son linealmente independientes en E, entonces
lo son en E.e
√
P Para verlo, supongamos dados escalares zj = xj + −1yj ∈ C tales que
j zj uj = 0. Operando según las definiciones resulta, con las notaciones ha-
bituales:
X X √ X √ X
0= zj uj = (xj + −1yj )uj = xj uj + −1 yj uj ,
j j j j
P P
luego 0 = j xj uj = j yj uj . Éstas son combinaciones lineales en E, donde
los uj son independientes, de modo que todos los coeficientes xj , yj son nulos.
En conclusión, son nulos todos los zj .
(5) Para hablar de dependencia lineal, se debe distinguir muy bien si se
trata de E o de E. e En el primer caso sólo se usan coeficientes reales, y en
el segundo se usan coeficientes complejos; utilizaremos la notación habitual
L[ . . . ] para la generación de subespacios reales de E,√y L[
e . . . ] para la genera-
ción de subespacios complejos de E. como E = E + −1E, podemos escribir
e e
Ee = L[E].
e
(15.2) Complexificación de bases y coordenadas. Sea E un espacio
vectorial real y E
e su complexificación.
respecto de B
e y de u, v respecto de B. Tenemos:
( P
w = j zj uj ,
√ P √ P P √
w = u + −1v = j xj uj + −1 j yj uj = j (xj + −1yj )uj .
√
Deducimos que las coordenadas de w son zj = xj + −1yj . En particular, w ∈
E si y sólo si v = 0, esto es, si y sólo si todas las partes imaginarias yj son nulas.
Es decir, los vectores de E son aquéllos cuyas coordenadas son todas reales.
Esto se corresponde con la idea intuitiva de que Cn es la complexificación
natural de Rn via partes reales.
que son pares distintos. El error es hacer operaciones con números complejos
y vectores de E: al decir que E = C es un espacio vectorial real estamos
excluyendo esas operaciones.
fe(Ve ) = fe(L[V
e ]) = L[ e (V )] = f]
e fe(V )] = L[f (V ).
Y con esto bastarı́a, pues todo espacio real de tipo finito E es isomorfo a un
modelo estándar. Pero hemos preferido no hacer esto, porque: (i) el concepto
de complexificación no depende de bases, y es importante transmitirlo ası́, y
(ii) pasar al modelo estándar hace más difı́cil entender geométricamente qué se
hace en E.
Estamos ya en condiciones de estudiar desde un punto de vista complejo
los endomorfismos de espacios vectoriales reales.
Sea f : E → E un endomorfismo de un espacio vectorial real de tipo finito
e → E.
cuya dimensión denotamos n, y consideremos su complexificación fe : E e
Eligiendo una base B de E, y utilizándola también como base de E, e f y fe
tienen como hemos visto la misma matriz M . Por tanto tienen también el
mismo polinomio caracterı́stico:
P (T ) = det(M − T I) ∈ R[T ].
E o en E.
e Las denotamos:
(
E : {0} ⊂ N1 ⊂ · · · ⊂ Nk = ker(f − λ IdE )k ⊂ · · · ,
Ee : {0} ⊂ N ek = ker(fe − λ Id e )k ⊂ · · · .
e1 ⊂ · · · ⊂ N
E
dimC (N
ek ) = dimR (Nk ).
Esto significa que las cadenas se estabilizan a la vez, y las sucesiones de di-
mensiones de las dos son iguales. En fin, una base de Jordan de N (λ) para f
es también una base de Jordan de N e (λ) para fe, de modo que f y fe tienen
exactamente las mismas cajas de Jordan para el autovalor λ.
(15.7) Los autovalores√ imaginarios. Consideremos un autovalor imagi-
nario µ = µj , µ = α − −1β con β > 0.
(1) Las cadenas de subespacios invariantes de fe para µ y µ son cadenas de
subespacios complejos, y las denotaremos
(
{0} ⊂ Γ1 (µ) ⊂ · · · ⊂ Γk (µ) = ker(fe − µ IdEe )k ⊂ · · · ,
{0} ⊂ Γ1 (µ) ⊂ · · · ⊂ Γk (µ) = ker(fe − µ IdEe )k ⊂ · · · .
σ σ σ
fe−µ IdEe fe−µ IdEe
··· / Γk+1 (µ) / Γk (µ) / Γk−1 (µ) / ···
que sirve para comparar las tablas de Jordan de µ y µ, para concluir que una
se obtiene de la otra por conjugación.
Todo esto significa que las disposiciones de unos y ceros en las cajas de
Jordan de µ y las de µ son exactamente las mismas, y que si {w1 , . . . , wq } es
una base de Jordan del subespacio invariante maximal Γ (µ) de µ, entonces
{σ(w1 ), . . . , σ(wq )} es una de Γ (µ).
(2) Ahora interpretaremos los subespacios invariantes de µ y µ en E. Es-
cribimos
√ √
w` = u` + −1v` ∈ Γ (µ), σ(w` ) = u` − −1v` ∈ Γ (µ),
{u1 , v1 , . . . , uq , vq }.
En el primer caso:
√ √ √
µw` + w`+1 = (α − −1β)(u` + −1v` ) + (u`+1 + −1v`+1 )
√
= (αu` + βv` + u`+1 ) + −1(−βu` + αv` + v`+1 ),
√
luego como fe(w` ) = f (u` ) + −1f (v` ), resulta
(
f (u` ) = αu` + βv` + u`+1 ,
f (v` ) = −βu` + αv` + v`+1 .
en la de f encontramos
α −β 0 0
β α 0 0
ε 0 α −β .
0 ε β α
Se observa que se duplica el orden de las cajas, pero eso corresponde a que
en fe las cajas de µ se repiten para µ. Obsérvese que los dos últimos vectores
uq , vq de BJ generan el plano invariante W = L[uq , vq ] de f , que no contiene
rectas invariantes; por tanto, un plano de este tipo aparece siempre para cada
par de autovalores imaginarios conjugados.
Esto describe completamente la matriz de la restricción fα,β = f |Q(α,β)
respecto de la base BJ ; esa matriz se denota J(α, β) y se llama forma de
Jordan de fα,β .
De esta manera, hemos añadido a los subespacios invariantes N (λi ) aso-
ciados a los autovalores reales otros Q(αj , βj ) asociados a los autovalores ima-
ginarios. También hemos encontrado las formas de Jordan de las restricciones
de f a esos nuevos subespacios invariantes. Por tanto, lo único que falta es
establecer el teorema de descomposición siguiente:
Su polinomio caracterı́stico es
√ √
3 − T −5
P (T ) = det = T 2 + 16 = (−4 −1 − T )(4 −1 − T ).
5 −3 − T
sistema que define una recta invariante real L (generada por (2, 2, 1, 1)), y no
un plano. Ahora bien, sabemos que el subespacio complejo conjugado σ(Γ )
también es invariante, y tiene por ecuaciones (véase III.15.4(4), vol. 2, p. 67)
( √ √
2z1 − (1 − −1)z2 − 2(1 + −1)z3 = 0,
σ(Γ ) :
−z2 + z3 + z4 = 0.
σ(Γ ) ∩ R4 = Γ ∩ R4 = L.
Como N (λi ) ⊂ N
e (λi ) y Q(αj , βj ) ⊂ Γ (µj ) ⊕ Γ (µj ), la suma real
X X
V = N (λi ) + Q(αj , βj )
i j
= dimC (E)
e = dimR (E).
Número 7. Mostrar que un endomorfismo de un espacio vectorial real de dimensión n
tiene subespacios invariantes: (i) de todas las dimensiones pares ≤ n, y (ii) de todas las
dimensiones ≤ n si y sólo si tiene algún autovalor real.
Número 8. Calcular los subespacios invariantes del endomorfismo f de R4 de ecuaciones
f (x) = (x2 , −x1 , 2x4 , −2x3 ).
Número 10. Comprobar que el endomorfismo f de R4 de ecuaciones
f (x) = (x2 , −x1 , x1 + x4 , x2 − x3 )
tiene un sólo subespacio invariante: el plano x1 = x2 = 0.
Número 11. Sea f : R4 → R4 un endomorfismo sin rectas invariantes. ¿Cuáles son las
posibles formas de Jordan de f ? ¿Qué subespacios invariantes puede tener f ?
Número 12. Probar que un endomorfismo de R4 que tiene un número finito de planos
invariantes no tiene nunca más de seis. ¿Puede tener cinco?
Número 13. Mostrar que un endomorfismo f : E → E (real o complejo) tiene un único
subespacio invariante maximal W tal que el endomorfismo restricción f |W es isomorfismo.
Número 14. Emplear el teorema de descomposición para demostrar lo que ya se propuso
en el problema 4 de III.12, vol. 2, p. 30: Si un endomorfismo (real o complejo) es diagonali-
zable, lo es la restricción a cualquier subespacio invariante. ¿Cómo se formula este resultado
en términos de subespacios invariantes?
Número 15. Para cada matriz A ∈ Mm×n (C) se llama conjugada de A a la matriz Ā
cuyos coeficientes son los conjugados āij de los coeficientes aij de A . Denotaremos A∗ a la
matriz traspuesta de Ā.
(1) Mostrar que si ξ = (ξ1 , . . . , ξn ) ∈ Cn cumple ξξ ∗ = 0, entonces ξ es el vector nulo.
Cuestiones 79
Decidir cuáles de las siguientes afirmaciones son verdaderas y cuáles son falsas.
Soluciones §11
Número 1. ¿Existe algún endomorfismo de K4 tal que los subespacios
x − y + z + t = 0, x−y = 0,
W1 : y W2 :
x −z = 0, x − z = 0,
sean los espacios de autovectores asociados a dos autovalores?
Solución. Los subespacios de autovectores asociados a autovalores distintos sólo
comparten el vector nulo. Sin embargo,
W1 ∩ W2 : {x = y = z = −t},
luego w = (1, 1, 1, −1) ∈ W1 ∩ W2 . No existe por tanto un endomorfismo del que W1
y W2 sean subespacios de autovectores.
y λ2 es autovalor de f 2 .
(4) Revirtiendo el apartado anterior, si λ2 es autovalor de f 2 , entonces
P (T ) = (3 − T )(2 − T )(a − T ),
Número 5. Demuéstrese que si todos los vectores de un espacio vectorial son au-
tovectores de un endomorfismo f , entonces éste es una homotecia.
Solución. Podemos suponer que f : E → E no es el endomorfismo nulo, que es
la homotecia de razón 0. Para cada vector no nulo u ∈ E existe, por hipótesis, un
escalar λu tal que f (u) = λu u, y se trata de probar que λu = λv para cualquier par
de vectores no nulos u, v ∈ E; en tal caso f es la homotecia de razón ese valor común.
Si u, v son dependientes existe un escalar a tal que v = au, luego
es decir,
0 = (λw − λu )u + (λw − λv )v,
y por ser u, v independientes deducimos que λu = λw = λv , y en particular λu = λv ,
como pretendı́amos probar.
W : x = t, y = z y L : y = z = t.
se cumple lo requerido.
Sin embargo, f nunca será diagonalizable. En efecto, si lo fuese, su imagen tendrı́a
por base el resultado de unir bases de los subespacios de autovectores asociados a los
autovalores no nulos, luego {0} = ker(f ) ∩ im(f ) = W ∩ L. Sin embargo
(1, 1, 1, 1) ∈ W ∩ L.
k
(3) Calcular la traza de fa,0,a para cada a ∈ C y cada entero k ≥ 1.
Solución. (1) Denotamos u1 = (1, 1, 1), de modo que B = {u1 , e2 , e3 }. Por cálculo
directo obtenemos:
fa,b,c (1, 1, 1) = (3a, 3a, 3a) = 3au1 ,
fa,b,c (0, 1, 0) = (a − b + c, a, a + b − c) = (a − b + c)u1 + (b − c)e2 + 2(b − c)e3 ,
fa,b,c (0, 0, 1) = (a − c, a + b + c, a − b) = (a − c)u1 + (b + 2c)e2 + (c − b)e3 .
Si a = 0, esta matriz es nula, y también sus potencias y sus trazas. Supondremos pues
a 6= 0. Entonces,
√ del polinomio caracterı́stico P (T ) = (3a − T )(T 2 + 3a2 )
las raı́ces √
√
son 3a, 3ai y − 3ai (i = −1). Como las tres son distintas, f es diagonalizable, y
respecto de cierta base las matrices de f y f n son respectivamente:
n n
3a √ 0 0 3 a √0 n 0
0 3ai √0 0 ( 3ai)
y √0 n ,
0 0 − 3ai 0 0 (− 3ai)
y ası́ (
√ √ 3n an si n es impar,
tr(f n ) = 3n an +( 3ai)n +(− 3ai)n =
(3n + 2 · (−3)n/2 )an si n es par.
Apéndice: Soluciones §11 87
P (T ) = −T (T 2 − aT + 1).
Este polinomio debe tener alguna raı́z múltiple para que f no sea diagonalizable.
Como 0 no es raı́z del factor T 2 − aT + 1, es este factor el que tendrá una raı́z doble α;
necesariamente α = ±1 (el producto de las raı́ces es 1), y a = ±2. Ahora bien, la no
diagonalizabilidad equivale a que la dimensión del subespacio W (α) = ker(f − α IdC3 )
sea 1, esto es, rg(M − αI3 ) = 2, lo que se comprueba inmediatamente.
Si a = 1, el polinomio caracterı́stico de f es P (T ) = −T (T 2 − T + 1 + b), que debe
tener alguna raı́z múltiple α. Por tanto, bien 0 es raı́z del segundo factor T 2 −T +1+b,
bien ese segundo factor tiene una raı́z doble. Ası́, hay dos posibilidades:
(i) α = 0, y b = −1. Entonces f no es diagonalizable, pues la multiplicidad
geométrica del autovalor doble 0 es dim(W (α)) = 3 − rg(M ) = 1 < 2.
(ii) α = 21 , 1 + b = 12 · 21 , y b = − 34 . De nuevo resulta que f no es diagonalizable,
al ser
dim(W (α)) = 3 − rg(M − 12 I3 ) = 1 < 2.
En conclusión, los pares (a, b) buscados son (2, 0), (−2, 0), (1, −1) y (1, −3/4).
Número 12. Se tienen dos sucesiones de números reales (xn )n e (yn )n tales que
Ası́, lo que tenemos que calcular es la potencia M n , y para ello utilizaremos el en-
domorfismo f de R2 cuya matriz respecto de la base estándar E es M . Su polinomio
caracterı́stico es
6 − T −1
P (T ) = det = (6 − T )(2 − T ) + 3 = T 2 − 8T + 15 = (T − 3)(T − 5),
3 2−T
cuyas raı́ces son simples, ası́ que f es diagonalizable. Un autovector v = (x, y) asociado
al autovalor 3 se obtiene resolviendo
3 −1 x 0
= ,
3 −1 y 0
En consecuencia,
utn+1 = M n ut1 = (CDn C −1 )ut1 ,
y multiplicando estas matrices obtenemos las coordenadas (xn+1 , yn+1 ) de un+1 :
ası́ que por ejemplo v = (2, −1). De manera similar, w = (1, 1) es un autovector
asociado al autovalor 1, y B = {v, w} es una base de R2 respecto de la cual la matriz
de f es
−2 0
D = Mf (B) = .
0 1
La matriz de cambio de base es
2 1
C = C(B, E) = ,
−1 1
(−2)n−1
yn+1
= utn+1 = M n−2 ut3 = CDn−2 C −1 ut3 = ,
zn+1 (−2)n−2
y xn = yn+1 = (−2)n−1 .
B0 = {u1 , . . . , ur , ur+1 , . . . , un }
90 III. Clasificación de endomorfismos
λ1 f (u1 ) + · · · + λr f (ur ) = 0,
λr+1 ur+1 + · · · + λn un = 0,
Multiplicando resulta
donde B (resp. C) está formada por las primeras r columnas (resp. filas) de A. Por
ello si R es la submatriz cuadrada de orden r de A obtenida de sus primeras r filas y
columnas, resulta como se querı́a:
Número 15. Demostrar que una matriz cuadrada de traza nula es un conmutador,
es decir, se puede escribir en la forma AB − BA para ciertas matrices cuadradas A
y B.
Solución. Procederemos por inducción sobre el tamaño de la matriz, y para ello
usaremos la siguiente observación.
cumplen la igualdad M N − N M = Yb .
Una vez probado (∗) veamos, por inducción sobre su orden n, que toda matriz X
de traza nula es un conmutador. Para n = 1 el resultado es trivial. Sea pues X una
matriz de orden n > 1 con traza nula. Si X = 0, el resultado es de nuevo trivial, ası́ que
supondremos lo contrario. El endomorfismo f de Kn cuya matriz respecto de la base
estándar es X no es una homotecia: una homotecia de traza nula es idénticamente
nula. Afirmamos que existe algún vector u tal que u y f (u) son independientes. En
efecto, si no existiera, todos los vectores de Kn serı́an autovectores, y por el ejercicio
número 5 de III.11, vol. 2, p. 12, el autovalor deberı́a ser el mismo para todos, es decir,
f deberı́a ser una homotecia. Ası́ pues, existe el u que decimos, y por prolongación
obtenemos una base de E del tipo {u, f (u), . . . }. Es claro que respecto de esta base
la matriz de f tiene la forma Yb de (∗), y
0 = tr(X) = tr(f ) = tr(Yb ) = tr(Y ).
Por hipótesis de inducción, Y es un conmutador, y por (∗), lo es Yb :
Yb = M N − N M.
Pero X = C Yb C −1 con C = C(B, E), y deducimos
X = C Yb C −1 = C(M N − N M )C −1 = (CM C −1 )(CN C −1 ) − (CN C −1 )(CM C −1 ),
luego X es un conmutador.
Soluciones §12
Número 1. Calcular los subespacios invariantes del endomorfismo f de K3 dado
por
f (x, y, z) = (−2x − 5z, x − y, x + 2z).
Resolviendo los sistemas homogéneos por filas definidos por esas matrices obtene-
mos los autovectores asociados a cada autovalor, que generan las rectas invariantes.
Resultan las tres rectas siguientes:
L[(0, 1, 0)]
para λ = −1,
L[(3 + i, 2 − i, −1 − i)] para λ = i,
L[(3 − i, 2 + i, −1 + i)] para λ = −i.
Como era de esperar las dos últimas rectas, asociadas a autovalores conjugados, están
generadas por vectores conjugados.
El cálculo de los planos invariantes es, en dimensión 3 como estamos, el de los
hiperplanos invariantes, y se hace utilizando el endomorfismo f ∗ , o más explı́cita-
mente, la matriz traspuesta M t . Los autovalores de esta matriz son los mismos λ de
M , y sabemos que un plano H : ax + by + cz = 0 es invariante, asociado a λ, si y
sólo si (a, b, c) es solución del sistema homogéneo por filas definido por M t − λI, o
equivalentemente, el definido por columnas por M − λI:
Obtenemos:
Calculamos este determinante haciendo operaciones con las columnas tercera y se-
gunda:
x 6 3−i x 3 3−i
0 = det y 4 2 + i = 2 det y 2 2 + i
z −2 −1 + i z −1 −1 + i
x 3 −i x 3 −1
= 2 det y 2 i = 2i det y 2 1 = 2i(3x − 2y + 5z).
z −1 i z −1 1
−4 8 −4 0
Como nos piden una base de cada uno de ellos, habrı́a que resolver estas ecuaciones,
según los valores de los parámetros a, b.
El problema estarı́a terminado ası́, pero de una manera poco esclarecedora de la
situación geométrica en la que nos encontramos. Por ello preferimos razonar como
sigue. Reescribimos las ecuaciones (∗) como sigue:
n x − 2x + x = 0,
1 2 3
W : con (a, b) 6= (0, 0).
a(5x2 − 3x4 ) + b(5x3 − 3x4 ) = 0,
Vemos que la segunda ecuación es exactamente una cuyas soluciones contienen las del
sistema 5x2 − 3x4 = 5x3 − 3x4 = 0. Este sistema de dos ecuaciones independientes
define en H la recta
x1 − 2x2 + x3 = 0,
L: 5x2 − 3x4 = 0,
5x3 − 3x4 = 0,
luego los planos buscados son exactamente los planos W ⊂ H que contienen L. Por
tanto, una base de cada uno se puede generar con un generador u de L y con un vector
w ∈ H \ L; es decir, {u, w} será una base de W . Ahora bien, habrá muchos vectores w
que con u generen el mismo plano W , de modo que hay que ser un poco más selectivos.
Para ello fijamos un plano cualquiera V ⊂ H que no contenga a L. Como V y W son
hiperplanos de H, necesariamente V ∩W 6= {0} y podemos tomar w ∈ V . Por ejemplo,
sea V : x2 = 0 y explı́citemos las cosas. Resolviendo el sistema que define L obtenemos
u = (3, 3, 3, 5), y para obtener w resolvemos el sistema x1 − 2x2 + x3 = x2 = 0 que
define V , lo que da w = (λ, 0, −λ, µ), con λ 6= 0 o µ 6= 0. En consecuencia:
Se debe reparar en el hecho de que las ecuaciones (∗) de W han servido exclusivamente
para determinar la recta L; cuando se desarrolle completamente la teorı́a de invarian-
tes y la clasificación de endomorfismos en los capı́tulos siguientes, se comprenderá me-
jor hasta qué punto a veces se pueden evitar cálculos explı́citos con razonamiemtos
geométricos.
Apéndice: Soluciones §12 95
Sugerimos al lector que: (i) resuelva las ecuaciones (∗) para obtener bases de los
hiperplanos invariantes, y las compare con las bases obtenidas aquı́, (ii) utilice estas
últimas para escribir unas ecuaciones paramétricas de los planos invariantes, y después
otras implı́citas, y las compare con las anteriores (∗).
A continuación, proponemos otra solución alternativa, más directa, pero que re-
quiere bastante acierto para las diversas elecciones que intervienen. Recomenzamos
casi desde el principio, una vez obtenida la ecuación x1 − 2x2 + x3 = 0 de H. Esta
ecuación proporciona la siguiente base de H:
Como f tiene tres autovalores distintos tiene tres rectas invariantes, que son sus
subespacios de autovectores, y por dualidad tiene exactamente tres planos invariantes.
Las primeras son las soluciones de los siguientes tres sistemas de ecuaciones:
!
x
L1 : (M − 5I) y = 0 x=y=0 L1 = L[(0, 0, 1)],
z
!
x
L2 : (M − 2I) y = 0 x+y =y+z =0 L2 = L[(1, −1, 1)],
z
!
x
L3 : (M + I) y = 0 x + 2y = z = 0 L3 = L[(2, −1, 0)].
z
Como a priori sabı́amos que hay exactamente tres, han de ser éstos.
Por hipótesis de inducción, cada uno de los sumandos del último miembro está en
W , y como los autovalores son distintos, deducimos v1 , . . . , vk ∈ W . En fin, vk+1 =
v − (v1 + · · · + vk ) ∈ W.
3 −6 −6 2
(1) Comprobar que el hiperplano H : x1 − 2x2 − 2x3 = 0 es invariante y que 18
es un autovalor de f .
(2) Obtener bases y ecuaciones implı́citas respecto de la base estándar de todos
los planos invariantes de f contenidos en H.
(3) ¿Es diagonalizable la restricción f |H ? ¿Es f diagonalizable?
Solución. (1) Este primer apartado es una mera comprobación: la igualdad
Solución. En todo caso tendremos que calcular las restricciones de f a los hiperplanos
en cuestión, ası́ que empezamos por eso. Las ecuaciones de f son
0
x1 = 2x1 ,
x0 = −x − x + 2x ,
1 2 4
x0 = f (x) : 2
0
x 3 = 2x 1 − x2 − x 3 ,
0
x4 = −3x1 + 2x4 .
Ahora resulta que las coordenadas (x01 , x02 , x03 , x04 ) cumplen x01 − 3x02 + 2x04 = 0 (com-
pruébese), y esto significa que x0 = f (x) está en H2 ; por tanto H2 es invariante. Las
ecuaciones del endomorfismo restricción en las coordenadas (x2 , x3 , x4 ) son
0
x2 = −4x2 + 4x4 ,
x03 = 5x2 − x3 − 4x4 ,
0
x4 = −9x2 + 8x4 ,
y la matriz es
−4 0 4
M2 = 5 −1 −4.
−9 0 8
El polinomio caracterı́stico es P2 (T ) = (−1 − T )(2 − T )2 , con autovalores λ = −1, 2.
Como antes, resolviendo los sistemas (c2 , c3 , c4 )(M2 − λI3 ) = 0 obtenemos los planos
invariantes c2 x2 + c3 x3 + c4 x4 = 0 contenidos en H2 :
(i) Para λ = −1 obtenemos c2 + c3 = 8c2 + 9c4 = 0, y resulta el plano de
ecuación 9x2 − 9x3 − 8x4 = 0. En coordenadas de K4 es el plano x1 − 3x2 + 2x4 =
9x2 − 9x3 − 8x4 = 0.
(ii) Para λ = 2, c3 = 2c2 + 3c4 = 0, que dan el plano 3x2 − 2x4 = 0. En K4
es x1 − 3x2 + 2x4 = 3x2 − 2x4 = 0.
De este modo hemos encontrado los planos invariantes pedidos. Para terminar, ya
sabı́amos de antemano que H1 ∩ H2 es invariante, y como tal ha aparecido en efecto:
en (1)(i) y en (2)(ii).
0 0 0 1
Apéndice: Soluciones §12 101
Luego hay que añadir la ecuación del hiperplano invariante en el que estamos, y
resultan dos planos invariantes:
x4 = x1 − x2 + x3 = 0 , x4 = x3 = 0.
x3 + x4 = x3 = 0 , x3 + x4 = x2 + x3 = 0.
(ii) Como en (i), sabemos que existe un autovalor complejo, y por tanto existe un
hiperplano invariante H. Por inducción, la restricción f |H de f a H tiene subespacios
invariantes de cualquier dimensión k ≤ n − 1, que por supuesto son también subespa-
cios invariantes de f .
Número 10. Calcular las rectas invariantes del endomorfismo f de K3 dado por
y mostrar que existe una base respecto de la cual las ecuaciones de f son
f (x0 , y 0 , z 0 ) = (x0 , x0 + y 0 , 2z 0 ).
Por ejemplo, tomamos a = 1, u = (1, −1, 0), y B0 = {(1, −1, 0), (0, 1, −1), (0, 0, 1)}.
Solución. En primer lugar, nótese que f tiene un único autovalor, pues tiene una
única recta invariante. Si la recta invariante L no estuviera contenida en el plano
invariante H, entonces obtendrı́amos por restricción a H un endomorfismo de un
plano complejo sin rectas invariantes, lo que es imposible. Visto ası́ que L ⊂ H,
sabemos que hay una base {v, w} de H respecto de la cual la matriz de f |H es del
tipo
λ 0
.
1 λ
Ahora completamos hasta una base B = {u, v, w} de C3 , y escribimos f (u) = αu +
βv + γw. De hecho α = λ pues el polinomio caracterı́stico de la matriz de f respecto
de la base B es (α − T )(λ − T )2 , y ha de tener una única raı́z. La matriz de f respecto
de esta base es
λ 0 0
M = β λ 0
γ 1 λ
y debemos modificar B hasta lograr que la matriz de f tenga el aspecto del enunciado.
En realidad basta cambiar u por otro vector u0 tal que f (u0 ) = λu0 + v. Usamos
coordenadas u0 = (x, y, z) respecto de B, y se debe cumplir
λx = λx,
(
x = β1 ,
βx + λy = λy + 1,
y = −γβ ,
γx + y + λz = λz,
A(M − λI)xt = 0
Estas ecuaciones muestran que W es una recta. Los planos invariantes que contienen
a W se pueden calcular según el problema anterior: W ⊕ L[u] es invariante si las
Apéndice: Soluciones §12 107
Ahora bien, estas dos ecuaciones definen un plano W 0 que contiene a la recta W =
W (4) (compruébese, pero piénsese también por qué no hace falta comprobarlo). Ası́,
W 0 = W ⊕ L[u] para cualquier u ∈ W 0 \ W . Por tanto, este plano W 0 es el único plano
invariante que obtenemos para este µ.
(ii) Si µ = 2, tenemos que resolver (M − 4I)(M − 2I)xt = 0:
0 0 0 −1 x1
0 0 6 2 x2
= 0 x3 = x4 = 0.
0 0 0 2 x3
0 0 0 0 x4
Como antes, obtenemos un único plano invariante: x3 = x4 = 0.
(2) Para λ = 2 se opera análogamente. El subespacio W = W (λ) tiene ecuaciones
0 0 −1 0 x1
−2 2 2 0 x2
0 0 2 1 x3 = 0
−x1 + x2 = x3 = x4 = 0,
0 0 0 2 x4
y es también una recta. Veamos qué sistemas A(M − µI)xt = 0 tenemos en este caso.
La matriz A es M − 2I. En cuanto a µ, ahora el polinomio caracterı́stico de f |W es
2 − T , y el cociente del que µ es raı́z es (4 − T )3 , luego sólo tenemos el valor µ = 4.
Ası́, el sistema que nos interesa es (M − 2I)(M − 4I)xt = 0:
0 0 0 −1 x1
0 0 6 2 x2
0 0 0 2 x3 = 0 x3 = x4 = 0.
0 0 0 0 x4
¡Es el mismo plano invariante que en (1)(ii)! (Como no podı́a ser menos, pues las
matrices (M − 2I) y (M − 4I) conmutan.)
108 III. Clasificación de endomorfismos
Esto completa la búsqueda. Sin embargo, veamos qué pasa si operamos con µ = 2.
Entonces el sistema (M − 2I)2 xt = 0 es
0 0 −2 −1 x1
−4 4 10 2 x2
0 0 4 4 x3 = 0
−x1 + x2 = x3 = x4 = 0,
0 0 0 4 x4
y estas ecuaciones definen de nuevo la recta W , luego no encontramos ninguna infor-
mación adicional.
Las matrices M − λI y sus productos han aparecido aquı́ de una manera algo
inesperada. En las lecciones siguientes se estudian de modo sistemático, para explicar
el porqué de esa aparición.
0 0 1 0
Calculando el polinomio caracterı́stico de f mediante esta matriz resulta
P (T ) = (α − T )2 + β 2 (T 2 + 1),
luego estas dos matrices son semejantes. Esta semejanza como matrices reales implica
la semejanza como matrices complejas. El interés de esto es que podemos conside-
rarlas matrices respecto de bases diferentes√de un mismo endomorfismo fe de C4 . Ese
endomorfismo tendrá dos autovalores i = −1 y su conjugado −i. Resolviendo los
sistemas complejos
(M ± iI)z t = 0 y (N ± iI)z t = 0
se obtienen los autovectores de f en coordenadas respecto de una y otra base respec-
tivamente. Pero:
(
(M − iI)z t = 0 z1 = z2 = z3 − iz4 = 0, una recta en C4 ,
t
(M + iI)z = 0 z1 = z2 = z3 + iz4 = 0, una recta en C4 ,
(
(N − iI)z t = 0 iz1 + z2 = iz3 + z4 = 0, un plano en C4 ,
t
(N + iI)z = 0 −iz1 + z2 = −iz3 + z4 = 0, un plano en C4 .
Ası́, M nos dice que fe tiene dos rectas de autovectores, y N que tiene dos planos de
autovectores. Contradictorio. Por tanto no pueden existir planos invariantes distintos
de W : y1 = y2 = 0.
De esta manera hemos encontrado el endomorfismo f de ecuaciones
0
y1 = −y2 ,
y0 = y ,
1
y 0 = f (y) : 2
y30 = y1 − y4 ,
0
y4 = y2 + y3 ,
Para terminar, basta deshacer el cambio. Ahora bien, hay muchos cambios posibles,
pues hay muchas posibles elecciones de y3 , y4 . Por ejemplo podemos tomar:
0
x1 = y10 − y30 ,
y1 = x1 + x2 ,
y = x + x , x0 = y 0 ,
2 3 4
x 7→ y : x0 7→ y 0 : 2
0
3
0 0
2 − y4 ,
y3 = x2 ,
x 3 = y
0
y4 = x4 , x4 = y40 ,
Soluciones §13
Número 1. Demostrar que cualquier matriz cuadrada real de orden 2 cuyo deter-
minante es negativo, es semejante en M2 (R) a una matriz diagonal.
Solución. Sea A ∈ M2 (R) una matriz con determinante negativo. Como la matriz
es de orden dos, su polinomio caracterı́stico tiene grado dos, con término indepen-
diente el determinante de la matriz. Por tanto, ese determinante es el producto de
las dos raı́ces (quizás complejas conjugadas) del polinomio caracterı́stico. Ahora bien,
ese producto sólo puede ser negativo si las dos raı́ces son reales y distintas. Ası́, A es
diagonalizable, esto es, semejante en M2 (R) a una matriz diagonal.
0 0 0 0 ··· 0 0
1 0 0 0 ··· 0 0
0 0 0 0 ··· 0 0
u11 u21 · · · un1 0 0 1 0 ··· 0 0
, J = .
g(u11 ) g(u21 ) · · · g(un1 ) .. .. .. .. .. .. ..
. . . . . . .
0 0 0 0 ··· 0 0
0 0 0 0 ··· 1 0
„ «15
2 −1
Número 3. Calcular .
1 0
El polinomio caracterı́stico de f es
Pf (T ) = (2 − T )(−T ) + 1 = T 2 − 2T + 1 = (T − 1)2 ,
112 III. Clasificación de endomorfismos
Mostrar que tiene un único autovalor, que su subespacio invariante maximal es todo
K3 , y calcular su forma de Jordan.
Solución. El polinomio caracterı́stico de f es
3 − T −1 1
P (T ) = det 1 1−T 1 = (2 − T )(T 2 − 4T + 4) = (2 − T )3 ,
0 0 2−T
Como hay dos columnas, hay dos cajas de Jordan Jk (λ) (k = 2 y 1 son las alturas de
las columnas) y obtenemos la siguiente forma de Jordan:
2 0 0
J = 1 2 0 .
0 0 2
ac 6= 0 ac = 0
rg(g k ) 2>1>0 1>0
dim(Nk ) 1 < 2 < 3 2<3
y si ac = 0:
1 0 0
u11
y J = 1 1 0 .
g(u11 ) u21
0 0 1
Esto significa que la diagonal de la forma de Jordan de f está formada por ceros,
luego su traza es nula. Para las potencias es lo mismo, pues una potencia de un en-
domorfismo nilpotente es nilpotente a su vez.
Número 9. ¿Existe algún endomorfismo f de C2n tal que ker(f n ) = im(f n−1 )?
Solución. Supongamos que existe tal endomorfismo, que serı́a nilpotente, ya que
f 2n−1 = f n ◦ f n−1 = 0. Por ello, 0 serı́a su único autovalor con subespacio invariante
maximal ker(f ν ) = C2n para cierto ν ≤ 2n − 1. A partir de ahora debemos hacer
diversas estimaciones de dimensiones. Por un lado, por la fórmula de la dimensión,
Número 10. Sean E el espacio vectorial de los polinomios de grado ≤ d con coe-
ficientes complejos, y f el endomorfismo de E definido por la substitución: F (T ) 7→
F (T +1). Demostrar que el único autovalor de f es λ = 1, que su subespacio invariante
maximal es todo E, y calcular la forma de Jordan de f .
Solución. Consideremos la base estándar de E, formada por los monomios de grados
crecientes 1, T, . . . , T d . Tenemos:
k
k
X
k k k−i
f (T ) = (T + 1) = T ,
i=0
i
de manera que
{0} ( N1 ( N2 ( N3 ( N4 ( N5 = K8 ,
n dim(N ) = dim(ker(g)) = dim(E) − rg(g) ≤ 8 − 6 = 2,
1
donde
dim(N4 ) = dim(ker(g 4 )) = dim(E) − rg(g 4 ) = 8 − 1 = 7.
Ahora bien, la cadena dimensiones no puede empezar en 1, pues entonces todas
las codimensiones serı́an 1, y en tres eslabones no alcanzarı́amos dimensión 7. Ası́,
dim(N1 ) = 2. Si fuera dim(N2 ) = 3, entonces las codimensiones siguientes serı́an to-
das 1, y en dos eslabones no alcanzarı́amos dimensión 7. Razonando de esta manera,
se ve que la única posibilidad de alcanzar dimensión 7 y no excederla en N4 es que
la sucesión de dimensiones sea 2 < 4 < 6 < 7 < 8. Por tanto la tabla de Jordan tiene
dos columnas y la forma de Jordan dos cajas:
u11
g(u11 )
J5 (2) 0
g 2 (u11 ) u21 y J= .
0 J3 (2)
g 3 (u11 ) g(u21 )
g 4 (u11 ) g 2 (u21 )
y los dos contenidos son estrictos: el primero por ser λ autovalor, y el segundo pues
si no lo fuera f serı́a diagonalizable. En fin, para calcular la forma de Jordan de f ,
necesitamos la dimensión de ker(g). En principio puede ser 1 o 2, pero en el primer
caso la sucesión de codimensiones de los subespacios invariantes serı́a 1 < 2, y no
118 III. Clasificación de endomorfismos
dim(ker(f )) ≥ 2, luego
(3) Caso en que det(g) = 0. Debemos probar que también det(f + g) = 0. Se tiene
f p ≡ 0 para cierto entero p ≥ 1. Como f y g conmutan podemos aplicar la fórmula
de Newton:
p p
p
X p p−k k
X p p−k
(f + g) = f ◦g = f ◦ gk ,
k k
k=0 k=1
donde en el último sumatorio hemos suprimido el primer sumando f p ≡ 0. De este
modo podemos sacar factor común g:
p
X p p−k
(f + g)p = h ◦ g, h = f ◦ g k−1 .
k
k=1
En consecuencia: (det(f + g))p = det (f + g)p = det(h ◦ g) = det(h) det(g) = 0,
y esto implica que det(f + g) = 0.
y por ser B base, se deduce que cada λik = 0, lo que prueba la independencia.
Vamos a calcular la matriz de f respecto de esta base B0 , es decir, expresaremos
cada f (hij ) = g ◦ hij en términos de la base B0 . Para ello continuamos con la idea de
evaluar en los vk :
g(vi ) = λvi + vi+1 si k = j,
(g ◦ hij )(vk ) =
g(0) = 0 si k 6= j.
y por tanto f (hij ) = λhij + hi+1j para 1 ≤ i, j ≤ 3. Ordenamos la base B0 del modo
siguiente:
B0 = {h11 , h21 , h31 , h12 , h22 , h32 , h13 , h23 , h33 }
porque la fórmula que acabamos de obtener se escribe, caso a caso, ası́:
Soluciones §14
Número 1. Sea f : E → E un endomorfismo cuyo polinomio caracterı́stico es
P (T ) = (λ − T )n . Calcular, para cada entero m ≥ 1 la traza de f m en función,
únicamente, de n, λ y m.
Solución. Por el teorema de Cayley-Hamilton, 0 = P (f ) = (−1)n (f − λIn )n , luego
el endomorfismo g = f − λ IdE es nilpotente. Al despejar, f = g + λ IdE , y podemos
aplicar la fórmula de Newton,
m m
m m
X m k m−k
X m
f = (g + λ IdE ) = g ◦ (λ IdE ) = λm−k g k .
k k
k=0 k=0
Salvo la matriz identidad, cuya traza es n, todas las potencias de g tienen traza nula
(problema número 6 de la lección anterior, vol. 2, p. 44), luego concluimos:
m m
m
X m m−k k
X m
tr(f ) = tr λ g = λm−k tr(g k ) = nλm .
k k
k=0 k=0
Número 2. De una matriz cuadrada M ∈ Mn (C) se sabe que tiene tres autovalores
distintos, λ = 1, 2 y 3, y de las cadenas de subespacios invariantes asociados a ellos
que: (i) λ = 1 tiene uno sólo, de dimensión 2, (ii) λ = 2 tiene dos, de dimensiones 2
y 4, y (iii) λ = 3 tiene ası́mismo dos, de dimensiones 1 y 2. Calcular el orden de M ,
sus polinomios caracterı́stico y mı́nimo y su forma de Jordan.
Solución. Suponemos que M es la matriz de un endomorfismo de Cn respecto de la
base estándar. Entonces la información que tenemos es:
N1 (1) = N (1), d1 = 2,
N1 (2) ( N2 (2) = N (2), d1 = 2 < d2 = 4,
N1 (3) ( N2 (3) = N (3), d1 = 1 < d2 = 2,
Pmin (T ) = (1 − T )(2 − T )2 (3 − T )2 , P (T ) = (1 − T )2 (2 − T )4 (3 − T )2 .
dim(N1 (2)) = 9−rg(M −2I) = 9−7 = 2, dim(N2 (2)) = 9−rg(M −2I)2 = 9−5 = 4,
luego Nν (2) = N3 (2), y las dimensiones de los subespacios invariantes son 2 < 4 < 5.
En consecuencia este autovalor contribuye con dos cajas de Jordan, una de orden 3 y
otra de orden 2.
124 III. Clasificación de endomorfismos
tr(M −1 ) = tr(J −1 ) = ( −4
1
+ ··· + 1
−4 ) + ( 12 + · · · + 12 ) = 3
2 .
Dicho esto, empezamos por observar que si las matrices son semejantes, sus determi-
nantes deben ser iguales: 1 − a3 b(1 + b) = 1 y por tanto ab(1 + b) = 0. Como a 6= 0,
es bien b = −1, bien b = 0. En el primer caso,
1 a −a
A = 0 1 −a2 ,
0 0 1
α 0 0
J = 0 α 0 , Pmin (T ) = (α − T ) ,
0 0 α
α 0 0
J = 1 α 0 , Pmin (T ) = (α − T )2 ,
0 0 α
α 0 0
J = 1 α 0 , Pmin (T ) = (α − T )3 .
0 1 α
Recordemos que para confeccionar esta lista sirven las tablas de Jordan de cada
autovalor. Por ejemplo, la tabla de Jordan de α en la tercera J de la lista tiene una
sola columna de altura 2, luego la multiplicidad de α en el polinomio mı́nimo es 2.
En dimensión 4 las cosas cambian. Basta elegir las formas de Jordan
0 0 0 0 0 0 0 0
1 0 0 0 1 0 0 0
0 0 0 0 y 0 0 0 0 ,
0 0 0 0 0 0 1 0
que son distintas pero tienen el mismo polinomio mı́nimo Pmı́n (T ) = T 2 . Obsérvese
además que estas dos formas de Jordan distintas incluso tienen el mismo polinomio
caracterı́stico P (T ) = T 4 .
significa que
x1 + ··· + xn = 0,
x21 + x2n
+ ··· = 0,
.. .. ..
. . .
n
x1 + ··· + xnn = 0,
y hemos visto en el primer apartado que esto implica x1 = · · · = xn = 0. En conse-
cuencia λ = 0 es el único autovalor de f , por lo que su polinomio caracterı́stico es
P (T ) = (−1)n T n , como se querı́a.
Ası́ pues, basta encontrar una raı́z cuadrada de una matriz del tipo M = Jk (λ) con
λ 6= 0.
Para ello escribimos M = λI + N , donde N es nilpotente: N n = 0. Buscamos A
tal que M = A2 planteando la ecuación
y esta suma es finita, pues todas las potencias N n , N n+1 , . . . son nulas. Ası́ lo natural
es buscar los zi tales que
Para empezar tomamos como z0 una de las raı́ces cuadradas de λ, de modo que z0 6= 0.
Por tanto podemos resolver
1 z12
z1 = , z2 = − ,...
2z0 2z0
En general, si ya tenemos z0 , z1 , . . . , zk , el coeficiente de N k+1 en el desarrollo del
cuadrado es
0 = z0 zk+1 + z1 zk + · · · + zk z1 + zk+1 z0 ,
igualdad que permite despejar zk+1 en función de z0 , z1 , . . . , zk , ya que z0 6= 0.
Número 11. Clasificar por sus formas de Jordan los endomorfismos de C6 que
cumplen:
(i) Su polinomio caracterı́stico es P (T ) = T 2 (T − 1)4 .
(ii) El subespacio de autovectores asociados a λ = 0 es una recta.
(iii) El subespacio de autovectores asociados a λ = 1 es un plano.
Solución. Sea f un endomorfismo de C6 que satisface las condiciones del enunciado.
Sus autovalores son λ = 0 y 1. Estudiemos cada uno.
Autovalor λ = 0. La multiplicidad de este autovalor en el polinomio caracterı́stico es
2, luego esa es la dimensión de su subespacio invariante maximal N . Como por (ii) es
dim(N1 ) = 1, la cadena de subespacios invariantes tiene exactamente dos eslabones,
de dimensiones 1 y 2, lo que proporciona una caja de Jordan del tipo
0 0
J= .
1 0
„ « „ «
J 0 J 0
En suma, las posibles formas de Jordan de f son o .
0 J0 0 J 00
tiene una raı́z doble λ. Por tanto, λ = 1 (las raı́ces suman 2), y puesto que A no es
diagonalizable, tiene que ser semejante a la matriz de Jordan
1 0
.
1 1
En suma, después de cambiar los vectores w1 , w2 por otros adecuados (que seguimos
denominando igual), la matriz de f resulta ser
1 0 0 0
1 1 0 0
Mf (B) = 0 0 1 0 ,
0 0 0 −1
que es la forma de Jordan de f . Para uso posterior, destacamos que la última base B
determina bien los autovectores de f :
autovectores asociados a 1: N1 (1) = L[w2 , v1 ],
(∗)
autovectores asociados a −1: N1 (−1) = L[v2 ].
Apéndice: Soluciones §14 133
y g(v2 ) es un autovector de f asociado a −1: g(v2 ) = cv2 (por (∗) de nuevo). Con
estos datos, la matriz de g respecto de B es
1 0 0 0
1 1 a 0
Mg (B) =
0 0
,
b 0
0 0 0 c
0 0 0 1
0 0 0 1
ϕ : C7 [T ] → L(E, E) : P 7→ P (f ).
donde los ∗’s son 1 o 0. Para determinarlas, usamos las condiciones de rango del
enunciado. En primer lugar, puesto que el rango de f es 5, la caja 3 × 3 tiene que
tener exactamente un 1. En segundo lugar, analizamos cuándo (J − I)2 tiene rango
4. Operamos por cajas. Para la de orden 3, que ya hemos determinado, tenemos
2
−1 0 0 1 0 0
1 −1 0 = −2 1 0 ,
0 0 −1 0 0 1
y esto contribuye al rango de (J − I)2 con 3. Por tanto, la caja de orden 4 debe
contribuir con 1, y como
2
0 0 0 0 0 0 0 0
a 0 0 0 = 0 0 0 0
0 b 0 0 ab 0 0 0
0 0 c 0 0 cb 0 0
vemos que debe haber dos unos consecutivos bajo la diagonal de esa caja, pero no
tres. En suma, la forma de Jordan de f es
0 0 0
1 0 0
0 0 0
J = 1 0 0 0.
1 1 0 0
0 1 1 0
0 0 0 1
Hemos concluido.
Solución. Sabemos que dada una base B de E, la dual B∗ tiene la virtud de que
Mf ∗ (B∗ ) = Mf (B)t . Por tanto, según hemos visto en el ejercicio anterior, las dos
matrices son semejantes, luego tienen la misma forma de Jordan. En particular el
mismo polinomio caracterı́stico y los mismos autovalores. Fijemos uno de ellos λ para
calcular y comparar N (λ) y N ∗ (λ). Para ello podemos elegir la base B que más
convenga, y elegimos una de Jordan, de manera que se tenga
J(λ)
..
Mf (B) =
. , µ 6= λ.
J(µ)
..
.
136 III. Clasificación de endomorfismos
∗
N (λ) : cd+1 = · · · = cn = 0,
W ∗ : c1 = · · · = cd = 0.
Ahora recordamos que las coordenadas c de una forma h : E → C son los coeficientes
de su ecuación h(x) = c1 x1 + · · · + cn xn . Por tanto, h ∈ N ∗ (λ) si y sólo si su ecuación
es del tipo h(x) = c1 x1 + · · · + cd xd , es decir, si y sólo si h ∈ L[x1 , . . . , xd ]. Vemos
ası́ que N ∗ (λ) = L[x1 , . . . , xd ]. Pero la dualidad canónica dice que
M ∨ \
L[x1 , . . . , xd ] = ({x1 = · · · = xd = 0})∨ = W ∨ = N (µ) = N (µ)∨ ,
µ6=λ µ6=λ
Soluciones §15
Número 1. Calcular la forma de Jordan real de un endomorfismo f de R6 cuyo
polinomio mı́nimo es Pmı́n (T ) = (1 + T 2 )2 .
Solución. Vamos a calcular en primer lugar la forma de Jordan de la complexificación
fe : C6 → C6 de f . Sus autovalores son las raı́ces del polinomio Pmı́n (T ), esto es, λ = i
y λ = −i. Como el polinomio caracterı́stico P (T ) de fe es el de f , tiene coeficientes
reales, grado 6 y sus únicas raı́ces i y −i tienen la misma multiplicidad. Se deduce
que
P (T ) = (−i − T )3 (i − T )3 = (1 + T 2 )3 .
Por tanto, el subespacio invariante maximal de λ = i tiene dimensión 3, y la caja de
Jordan mayor tiene orden 2 (multiplicidad de λ en Pmı́n (T )), con lo que λ contribuye
a la forma de Jordan de fe con la matriz
i 0 0
1 i 0 .
0 0 i
Apéndice: Soluciones §15 137
Por lo mismo, (o simplemente porque las estructuras de las cajas de Jordan de auto-
valores conjugados son iguales), el autovalor λ = −i proporciona
−i 0 0
1 −i 0 .
0 0 −i
Ahora, se deduce directamente de III.15.8, vol. 2, p. 73, que la forma de Jordan real
de f es
0 −1 0 0 0 0
1 0 0 0 0 0
1 0 0 −1 0 0
J = .
0 1 1 0 0 0
0 0 0 0 0 −1
0 0 0 0 1 0
C4 = N
e (λ) ⊕ Γ (µ) ⊕ Γ (µ), R4 = N (λ) ⊕ Q(α, β).
−2 2 −1 1
de dimensiones 0 < 1 < 2. Por tanto debemos tomar un vector u1 ∈ N2 (λ) \ N1 (λ), y
entonces u2 = (f − λ IdC4 )(u1 ). Ası́ pues las coordenadas x de u1 deben cumplir
esto es,
0 0 2 0 x1 −2 1 −1 1 x1
0 0 0 0 x2 0 0 0 0 x2
2 0 −1 −1 x3 6= 0.
= 0,
−4 0 0 2 x3
0 0 2 0 x4 −2 2 −1 1 x4
√
(con i = −1). Identificamos C2 ≡ R4 tomando partes reales e imaginarias:
(z1 , z2 ) = (x1 + iy1 , x2 + iy2 ) ≡ (x1 , y1 , x2 , y2 ),
de modo que f : R4 → R4 es un endomorfismo real. Calcular la forma de Jordan de
f y de su complexificación.
Solución. Empezamos por determinar la matriz de f : R4 → R4 respecto de la base
estándar E = {e1 , e2 , e3 , e4 }:
f (x1 , y1 , x2 , y2 ) ≡ f (z1 , z2 ) = i(x1 + iy1 ), (x1 + iy1 ) + i(x2 + iy2 )
= − y1 + ix1 , (x1 − y2 ) + i(y1 + x2 ) ≡ (−y1 , x1 , x1 − y2 , y1 + x2 ),
con lo que la matriz de f respecto de E es
0 −1 0 0
1 0 0 0
,
1 0 0 −1
0 1 1 0
0 0 1 −i
T 2 − ρ = T 2 − r2 = (T − r)(T + r),
cuyas raı́ces son simples. Por tanto también son simples las raı́ces del polinomio mı́ni-
mo de f , por lo que f es diagonalizable. Las posibles formas de Jordan de f son:
r 0 0 r 0 0 r 0 0 −r 0 0
0 r 0, 0 r 0 , 0 −r 0 , 0 −r 0 ,
0 0 r 0 0 −r 0 0 −r 0 0 −r
lo que muestra que los dos últimos vectores un−1 , un de BJ generan un plano invarian-
te W . Ahora, por ser W invariante, podemos considerar el endomorfismo inducido por
f en E/W , y por el mismo argumento este endomorfismo tiene un plano invariante
W 0 /W . Esto significa que W 0 es un subespacio invariante de f de dimensión
Una de las consecuencias del teorema de descomposición es que los planos invariantes
de fe son suma directa de pares de esas rectas invariantes, luego tenemos los planos
de C4 siguientes:
N (i) + N (−i) = L[(1, i, 0, 0), (1, −i, 0, 0)] : z3 = z4 = 0,
N (i) + N (2i) = L[(1, i, 0, 0), (0, 0, 1, i)] : iz1 − z2 = iz3 − z4 = 0,
N (i) + N (−2i) = L[(1, i, 0, 0), (0, 0, 1, −i)] : iz1 − z2 = iz3 + z4 = 0,
N (−i) + N (2i) = L[(1, −i, 0, 0), (0, 0, 1, i)] : iz1 + z2 = iz3 − z4 = 0,
N (−i) + N (−2i) = L[(1, −i, 0, 0), (0, 0, 1, −i)] : iz1 + z2 = iz3 + z4 = 0,
N (2i) + N (−2i) = L[(0, 0, 1, i), (0, 0, 1, −i)] : z1 = z2 = 0.
Al intersecar estos planos de C4 con R4 (es decir, al buscar las soluciones reales de
las ecuaciones correspondientes), obtenemos {0} excepto para el primero y el último,
que son
W : x3 = x4 = 0, W 0 : x1 = x2 = 0.
Estos son pues los dos únicos planos invariantes que tiene f .
0 1 −1 0 −2 0 0 −1
luego el polinomio caracterı́stico de f 2 es (−1−T )4 , y hay un único autovalor λ = −1,
con multiplicidad 4. Calculemos sus autovectores:
0 0 0 0 x1
t
0 0 0 0 x2 x1 = 0,
0 = (N − λI)x =
0 2 0 0 x3 x2 = 0.
−2 0 0 0 x4
Ası́ que una posibilidad es que W sea este plano de autovectores de f 2 . Éste es el
plano del enunciado, luego éste debe ser el único plano invariante de f .
Supongamos, por reducción al absurdo, que W no contiene a todos los autovec-
tores de f 2 . Entonces existe uno u ∈/ W , y H = W + L[u] es un hiperplano invariante
c1 x1 + c2 x2 + c3 x3 + c4 x4 = 0 de f 2 . Esto significa que
0 0 0 0
0 0 0 0 c3 = 0,
0 = c(N − λI) = (c1 , c2 , c3 , c4 )
0 2 0 0
c4 = 0.
−2 0 0 0
Luego la ecuación de H es c1 x1 + c2 x2 = 0 (no ambos coeficientes nulos). Ahora
bien, como W ⊂ H tenemos W = f (W ) ⊂ f (H), y como f no tiene hiperplanos
invariantes H 6= f (H), con lo que necesariamente W = H ∩ f (H). Pero es fácil
calcular una ecuación de f (H), digamos d1 x1 + d2 x2 + d3 x3 + d4 x4 = 0:
0 1 0 0
−1 0 0 0 d1 = −c2 ,
d = cM = (c1 , c2 , 0, 0)
1 0 0 1
d 2 = c1 ,
d3 = d4 = 0.
0 1 −1 0
Ası́ obtenemos las siguientes ecuaciones de W :
c1 x1 + c2 x2 = 0,
−c2 x1 + c1 x2 = 0.
144 III. Clasificación de endomorfismos
Ası́, con las notaciones de esta lección, R4 se descompone como suma directa
R4 = Q(α, β) ⊕ Q(γ, δ),
donde Q(α, β) y Q(γ, δ) son dos planos invariantes. Pero el teorema de descomposi-
ción nos dice además que cualquier otro plano invariante deberı́a ser suma de rectas
invariantes de esos dos planos, y como tales rectas invariantes no existen, no hay más
planos invariantes.
(2) Caso de raı́ces múltiples. En este caso hay dos posibilidades.
(i) La complexificación es diagonalizable. Entonces las formas de Jordan com-
pleja y real son respectivamente
λ 0 0 0 α −β 0 0
0 λ 0 0
y JR = β α 0 0
JC = .
0 0 λ 0 0 0 α −β
0 0 0 λ 0 0 β α
La descomposición real es trivial, ası́ que razonaremos con la compleja para buscar
planos invariantes complejos. Los primeros son los sumandos N (λ) y N (λ), pero al
intersecarlos con R4 obtenemos {0}, pues en otro caso f tendrı́a autovectores. Los
demás planos invariantes de fe son del tipo LC [w, w0 ] siendo w y w0 autovectores
asociados respectivamente a λ y λ. Veamos cuándo es LC [w, w0 ] ∩ R4 un plano.
Si existen vectores u, v ∈ R4 de modo que LC [w, w0 ] ∩ R4 = LR [u, v], entonces
LC [w, w0 ] = LC [u, v] (pues ambos son el complexificado de LR [u, v]). Por tanto:
y ası́
w = (au + cv) − i(bu + dv) ∈ LC [u, v] = LC [w, w0 ].
En consecuencia LC [w, w0 ] = LC [w, w] = LC [u0 , v 0 ], siendo u0 y v 0 las partes real e
imaginaria de w. Reemplazando u, v por u0 , v 0 , podemos simplemente suponer w =
u + iv. Esto muestra que todos los planos invariantes de f se obtienen a partir de
un autovector w = u + iv asociado a λ. Para terminar, afirmamos que dos de tales
vectores definen dos planos invariantes reales distintos si y sólo si son independientes.
En efecto, si los planos reales coinciden, coinciden también sus complexificaciones
LC [w1 , w1 ] y LC [w2 , w2 ]. Se deduce:
un único plano invariante real LR [u, v]. Éste se ve bien en la matriz de Jordan JR :
corresponde a la segunda caja de la diagonal.
Como antes, un plano invariante diferente del segundo sumando no lo puede cortar,
pues ese sumando no contiene rectas invariantes, luego tal plano invariante coincide
con el primer sumando. Ası́ tenemos los dos planos N (λ) y Q(α, β).
Si f tiene cuatro autovalores reales, tiene cuatro rectas invariantes N (λi ), y
Vemos que un plano invariante es suma directa de dos rectas invariantes, y en conse-
cuencia hay seis posibilidades N (λi ) ⊕ N (λj ).
Si f tiene tres autovalores reales, tenemos tres sumandos
R4 = N (λ) ⊕ N (µ),
Las cajas están marcadas para destacar un hiperplano invariante H. En el primer caso
H contiene infinitos planos invariantes por contener infinitas rectas invariantes. En el
segundo caso, H es el único hiperplano invariante (rg(f − λ IdR4 ) = 3), y contiene a
la única recta invariante L de f . Además, H contiene un único plano invariante W .
Éste W es el único plano invariante. Si W 0 fuera otro, W 0 ∩H = L y W 0 +W serı́a un
hiperplano invariante 6= H. Imposible.
148 III. Clasificación de endomorfismos
W = W1 ⊕ · · · ⊕ W r , Wi ⊂ N (λi ) invariante.
Por lo dicho previamente, cada restricción f |Wi es una homotecia, luego diagonaliza-
ble, y se sigue inmediatamente que f |W es diagonalizable.
Una reformulación del tipo demandado podrı́a ser: un endomorfismo es diago-
nalizable si y sólo si todos sus subespacios invariantes están generados por rectas
invariantes.
Número 15. Para cada matriz A ∈ Mm×n (C) se llama conjugada de A a la matriz
Ā cuyos coeficientes son los conjugados āij de los coeficientes aij de A . Denotaremos
A∗ a la matriz traspuesta de Ā.
(1) Mostrar que si ξ = (ξ1 , . . . , ξn ) ∈ Cn cumple ξξ ∗ = 0, entonces ξ es el vector
nulo.
(2) Comprobar las identidades A∗∗ = A y (AB)∗ = B ∗ A∗ .
Apéndice: Soluciones §15 149
1F, 2V, 3F, 4V, 5V, 6F, 7V, 8F, 9F, 10F,
11V, 12V, 13V, 14F, 15F, 16V, 17F, 18F, 19V, 20V,
21V, 22F, 23F, 24V, 25V, 26F, 27F, 28F, 29V, 30F,
31V, 32V, 33F, 34V, 35F, 36V, 37V, 38V, 39V, 40F,
41V, 42V, 43F, 44V, 45F, 46V, 47F, 48V, 49F, 50F.
CAPÍTULO IV
151
152 IV. Formas bilineales y formas cuadráticas
ϕ : E × E → K : (u, v) 7→ ϕ(u, v)
para cualesquiera u, v ∈ E.
ϕ( · , v) : E → K : u 7→ ϕ(u, v), v ∈ E.
La condición (ii) de IV.16.1, vol. 2, p. 152, significa que todas las aplicaciones
parciales ϕ( · , v) son formas lineales. Por tanto, tenemos bien definida una
aplicación
ϕ1 : E → L(E, K) = E ∗ : v 7→ ϕ( · , v).
Ya advierte el lector que la condición (i) de IV.16.1, significa que esta aplicación
ϕ1 es lineal, y que ası́ hemos definido una biyección
(3) Dada una forma bilineal ϕ, decimos que ϕ1 y ϕ2 son las (formas) polares de
ϕ. Estas dos polares pueden ser diferentes, pero siempre se cumple la siguiente
igualdad de rangos:
rg(ϕ1 ) = rg(ϕ2 ).
En efecto, denotemos n = dim(E), r = rg(ϕ1 ) y s = rg(ϕ2 ). Entonces
r es la dimensión de la imagen im(ϕ1 ) ⊂ E ∗ , y podemos elegir una base
h1 = ϕ( · , v1 ), . . . , hr = ϕ( · , vr ) de esa imagen. En particular, el subespacio
V = ker(h1 ) ∩ · · · ∩ ker(hr ) ⊂ E
16. Formas bilineales 155
Ejemplos 16.6 (1) Calculemos las formas polares de ϕ(x, y) = xAy t (ejemplo
IV.16.2(2), vol. 2, p. 152), que es una forma bilineal en Kn . Primero calculamos
la matriz de
ϕ1 : Kn → Kn∗ : y 7→ ϕ( · , y)
respecto de las bases estándar E = {ei } y su dual E∗ . La columna j-ésima de esa
matriz consiste en las coordenadas respecto E∗ de ϕ( · , ej ), y esas coordenadas
son
ϕ(·, ej )(ei ) = ϕ(ei , ej ) = ei Aetj = aij .
Por tanto, la matriz es (aij ) = A, y en consecuencia rg(ϕ1 ) = rg(A).
156 IV. Formas bilineales y formas cuadráticas
Para que y esté en ese núcleo, el determinante de la matriz A(x, y) debe ser
nulo para cualquier fila x. Por el teorema de prolongación de la base, esto
ocurre exactamente cuando la fila y depende de las que no se sustituyen, es
decir, cuando y ∈ V . Por tanto, V es el núcleo de ϕ1 , que por tanto tiene
dimensión n − 2. Concluimos que la forma polar, y por tanto ϕ, tiene rango 2.
Por tanto, ϕ es degenerada excepto si n = 2, en cuyo caso
x1 x2
A(x, y) = y ϕ(x, y) = x1 y2 − x2 y1 .
y1 y2
De todas las formas bilineales, aquı́ interesan las de dos tipos especiales:
Nos damos cuenta de que una forma bilineal es simétrica si sus dos for-
mas polares son iguales, y antisimétrica si son opuestas. Las formas bilineales
simétricas constituyen un subespacio vectorial de B(E) que denotamos S(E)
y las antisimétricas otro que denotamos A(E). Estos subespacios cumplen que
Esto es esencialmente el ejemplo II.8.11, p. 182. Dada una forma bilineal cual-
quiera ϕ, podemos escribir ϕ = ϕs + ϕa , con
Definición 16.8 Sea ϕ una forma bilineal. Decimos que un vector no nulo
u ∈ E es isótropo (respecto de ϕ) cuando ϕ(u, u) = 0, y anisótropo en otro
caso.
Veremos más adelante cómo los vectores isótropos juegan un papel impor-
tante en la clasificación de las formas bilineales.
La última noción de esta lección es crucial:
Por otra parte, la expresión (∗) se obtiene fácilmente por cálculo directo:
X X X
ϕ(u, v) = ϕ xi ui , yj uj = xi yj ϕ(ui , uj ) = xM y t ,
i j i,j
Vemos que los qij no determinan los mij excepto si mij = mji , es decir,
excepto si ϕ es simétrica. Reencontramos pues el hecho de que si bien ϕ no
está determinada por q, sı́ lo está su parte simétrica ϕs .
Las soluciones de la ecuación q(x) = 0 son (las coordenadas de) los vectores
isótropos. Por tanto: (i) si K = C (y n > 1) siempre hay vectores isótropos,
(ii) si K = R puede que no.
(2) Veamos cómo varı́a la matriz de ϕ cuando varı́an las bases empleadas
para su cálculo. Sea B0 otra base de E, y consideremos la matriz de cambio
C = C(B0 , B). Entonces xt = Cx0 t , y t = Cy 0 t , y resulta:
t t
ϕ(u, v) = xM y t = (x0 C t )M (Cy 0 ) = x0 (C t M C)y 0 .
decir es que
Si K = C esto sólo dice que uno es nulo si y sólo si lo es el otro (pero ya sabemos
que M y M 0 tienen el mismo rango); si K = R, la congruencia proporciona
más información, pues los dos determinantes tienen el mismo signo.
(3) Como complemento, dejamos al lector la tarea de deducir las siguientes
expresiones de M = Mϕ (B) utilizando las polares:
De esto se deduce:
es una biyección entre formas bilineales y matrices. Ya hemos visto cómo, fijada
una base, se asocia una única matriz a una forma bilineal, y recı́procamente,
cada matriz define una única forma bilineal (mediante la ecuación (∗)).
Esta biyección es de hecho un isomorfismo del espacio B(E) sobre el de
las matrices cuadradas de orden n, que respeta la descomposición en partes
simétricas y antisimétricas para formas bilineales y para matrices (la compro-
bación es rutinaria). Confirmamos ası́ que
Para buscar matrices M = (mij ) tales que q(x) = xM xt tenemos las fórmulas
de IV.16.11(1), vol. 2, p. 160,
qii = mii ,
qij = mij + mji para i < j.
Ejemplos 16.13 Una vez más consideramos los ejemplos IV.16.2, vol. 2, p.
152.
(1) La matriz de la forma bilineal ϕ(x, y) = xAy t respecto de la base
estándar de Kn es por supuesto A.
(2) La matriz de ϕ(u, v) = f (u)g(v), f, g ∈ E ∗ \ {0}, respecto de una base
B = {ui } de E es
obtenida viendo como variables las filas k- y `-ésima, k < `, de una matriz
dada A = (aij ) de orden n: hay que calcular todos los determinantes
mij = ϕ(ei , ej ) = det A(ei , ej ) .
Pero sugerimos al lector que lo haga para n = 2, y para n = 3 con, por ejemplo,
k = 1, ` = 2. Debe obtener lo siguiente:
0 a33 −a32
0 1
n = 2 : Mϕ (E) = ; n = 3 : Mϕ (E) = −a33 0 a31 .
−1 0 a −a 0 32 31
En ambos casos el rango es 2, salvo si todos los a3j son nulos (como habı́amos
demostrado en IV.16.6(2), vol. 2, p. 156). Se observa que las matrices Mϕ (E)
son antisimétricas, lo que se corresponde con las propiedades de los determi-
nantes.
(4) También podemos calcular la matriz de
Z b
ϕ(α(T ), β(T )) = α(t)β(t)dt.
a
u = x1 e1 + x2 e2 + x3 e3 y v = y1 e1 + y2 e2 + y3 e3 .
Hallar la matriz de ϕ respecto de la base B0 = {e01 , e02 , e03 }, donde e01 = e1 + e2 + e3 , e02 = −e2
y e03 = e1 − e3 . Calcular también ϕ(u, v) para u = 2e01 + e03 y v = −e02 + 2e03 .
Número 5. De una forma bilineal ϕ del espacio E de los polinomios reales de grado ≤ 1
se sabe que es simétrica y que ϕ(X + 1, X + 1) = 8, ϕ(X + 2, X + 2) = 11 y ϕ(X, X) = 3.
Calcular su matriz respecto de la base estándar E = {1, X} de E.
Número 6. Sea ϕ : R2 × R2 → R la forma bilineal dada por
Determinar λ para que ϕ sea degenerada. Para este valor de λ describir los núcleos de las
formas polares.
Número 7. Sean E un espacio vectorial de tipo finito sobre el cuerpo K y q : E → K
una aplicación tal que: (i) q(−u) = q(u) para cada u ∈ E, y (ii) la fórmula ϕ(u, v) =
q(u + v) − q(u) − q(v) define una forma bilineal de E. Demostrar las siguientes igualdades:
Número 14.
complejos.
Sean q y q 0 dos polinomios homogéneos de grado 2 no nulos con coeficientes
Utilizar esto para probar que si dos formas bilineales simétricas complejas tienen los mismos
vectores isótropos, entonces son proporcionales. ¿Es cierto lo mismo en el caso real?
Número 15. Sea q(x) el polinomio homogéneo de grado 2 que define una forma bilineal
ϕ (en ciertas coordenadas) de un espacio vectorial E. Demostrar que si todos los vectores
de un hiperplano son isótropos, entonces q(x) es producto de dos formas lineales, y concluir
que ϕ está determinada, salvo producto por escalares, por sus vectores isótropos. ¿Cuáles
son estos?
Por ello decimos que cada forma ϕ proporciona una realización explı́cita de la
dualidad canónica. No nos detenemos casi en este interesante aspecto, porque
corresponde más bien al ámbito de la Geometrı́a Proyectiva.
x1 = α, x2 = β, x3 = γ, x4 = −2α − 3β + γ,
que proporcionan la base {(1, 0, 0, −2), (0, 1, 0, −3), (0, 0, 1, 1)} del hiperplano
definido por la ecuación resuelta. El vector anisótropo buscado es alguno de
esos tres o una suma de dos (comentario tras IV.16.8, vol. 2, p. 158). En nuestro
caso u2 = (1, 0, 0, −2) es anisótropo:
Para buscar u3 resolvemos este sistema. Por hacerlo algo diferente, podemos
sustituir en la segunda ecuación las ecuaciones paramétricas antes obtenidas
de la primera:
Este sistema define una recta generada por u4 = (18, −11, 8, 5), y
q(u4 ) = u4 M ut4 = −462.
En resumen, la forma cuadrática diagonal que resulta es
q(x) = −x21 + 12x22 + 132x23 − 462x24 .
(2) Procedamos ahora mediante operaciones elementales por filas y colum-
nas. Vamos haciendo operaciones alternativamente por columnas y por filas:
0 1 0 1 0 1
0 1 2 −1 2 1 0 −1 −1 3 2 1
B 1 0 3 0C B 3 0 1 0C B 3 0 1 0C
M= B
@ 2
C
3 −1 1 A
B
@−1 3 2 1A
C B
@ 2
C
1 0 −1 A
−1 0 1 2 1 0 −1 2 1 0 −1 2
0 1 0 1 0 1
−1 0 2 1 −1 0 2 1 −1 0 0 1
B 3 9 1 0C B 0 9 7 3C B 0 9 7 3C
B C B C B C
@ 2 7 0 −1 A @ 2 7 0 −1 A @ 2 7 4 −1 A
1 3 −1 2 1 3 −1 2 1 3 1 2
0 1 0 1 0 1
−1 0 0 1 −1 0 0 0 −1 0 0 0
B 0 9 7 3C B 0 9 7 3C B 0 9 7 3C
B
@ 0
C B C B C ···
7 4 1A @ 0 7 4 1A @ 0 7 4 1A
1 3 1 2 1 3 1 3 0 3 1 3
Por supuesto, pueden muy bien obtenerse diagonales diferentes según las ope-
raciones que se elijan.
Asimismo, confiamos en que el lector descubra por sı́ mismo que muchas
de las operaciones de filas pueden evitarse, haciendo primero las de columnas,
y teniendo en cuenta que después de hacer la correspondiente por filas debe
obtenerse una matriz simétrica.
(3) Por último, usemos el artificio de completar cuadrados. El primer cua-
drado que aparece es el de x3 , ası́ que escribimos:
q 00 (x00 ) = − 13 2
4 (x2 −
10
13 x2 x4 ) + 11 2
4 x4 = − 13
4 (x2 −
5
13 x4 )
2 + 42 2
13 x4
= − 13 2
4 y2 +
42 2
13 x4 ,
5
con y2 = x2 − 13 x4 .
Finalmente, tomando y4 = x4 resulta
q(x) = 4x21 − 13 2
4 x2 − x23 + 42 2
13 x4 ,
De este modo,
2
ϕ(u0i , u0i ) = ϕ( √1ai ui , √1ai ui ) = √1
ai ϕ(ui , ui ) = 1
ai ai = 1,
y con esta variante resulta que ϕ(u0i , u0i ) = +1 si ai > 0, ϕ(u0i , u0i ) = −1 si
ai < 0. De este modo obtenemos una diagonal formada por +1’s y −1’s, y la
forma cuadrática se expresa:
q(x) = y12 + · · · + ys2 − ys+1
2
− · · · − yr2
17. Clasificación de formas bilineales 175
(reordenando la base para que primero estén los coeficientes positivos y con
un pequeño abuso de notación si s = 0). Para terminar este caso real debemos
mostrar que s es independiente de la base B que diagonaliza.
Para ello obsérvese que la forma cuadrática q es
(
> 0 en E> (B) : ys+1 = · · · = yn = 0, si y 6= 0, y
≤ 0 en E≤ (B) : y1 = · · · = ys = 0.
de modo que s0 ≥ s. Por lo mismo, E> (B0 ) ∩ E≤ (B) = {0}, y se deduce la otra
desigualdad s ≥ s0 .
Acabamos de demostrar la denominada ley de inercia de Sylvester. El ente-
ro s se llama signatura de ϕ, y concluimos que el rango y la signatura clasifican
sobre R.
1
Ahora bien, reemplazando u por u1 = ϕ(v,u) u, resulta:
(
1 1
ϕ(u1 , v) = ϕ ϕ(v,u) u, v = ϕ(v,u) ϕ(u, v) = −1,
1 1
ϕ(v, u1 ) = ϕ v, ϕ(v,u) u = ϕ(v,u) ϕ(v, u) = +1,
178 IV. Formas bilineales y formas cuadráticas
Ejemplos 17.10 (1) Entre los ejemplos de IV.16.2, vol. 2, p. 152, está la forma
bilineal antisimétrica
fila wi se repite.
Ésta es una ilustración del procedimiento general, con V = L[u, v] y V 0 =
L[w3 , . . . , wn ]. En este caso el proceso acaba con el primer paso.
(2) Sea ϕ la forma bilineal antisimétrica de K5 definida por
0 1 −1 2 0
−1 0 0 −3 1
ϕ(x, y) = xM y t ,
1 0 0 −1 1
M = .
−2 3 1 0 2
0 −1 −1 −2 0
Busquemos una base respecto de la cual la matriz de ϕ sea del tipo descrito
en IV.17.9, vol. 2, p. 177. Empezamos por un par de vectores u, v tales que
ϕ(u, v) 6= 0. En este caso, vemos en la matriz que podemos tomar u = e1 , v =
e2 . Como ϕ(v, u) = −1, es u1 = −u = −e1 . Ası́ V = L[u1 , v] y su conjugado
es
(
0 0 = ϕ(u1 , x) = (−1, 0, 0, 0, 0)M xt = −x2 + x3 − 2x4 = 0,
V :
0 = ϕ(v, x) = (0, 1, 0, 0, 0)M xt = −x1 − 3x4 + x5 = 0.
Las dos primeras ecuaciones dicen que x está en V 0 , las otras dos que está en
el conjugado de L[u01 , v 0 ]. Esas cuatro ecuaciones definen una recta generada
por cualquier solución no nula, por ejemplo w = (−1, −2, 0, 1, 2). Ası́ tenemos
la base buscada: B = {u, v, u0 , v 0 , w}, respecto de la cual la matriz de ϕ es
0 −1
1 0
0 −1 .
1 0
0
Resultado que de antemano podı́amos pronosticar, pues rg(M ) = 4.
es diferencia de dos cuadrados de formas lineales. Para tales valores de a encontrar formas
lineales `1 y `2 tales que q(x, y, z) = `1 (x, y, z)`2 (x, y, z).
Número 9. Demostrar con todo detalle las afirmaciones de IV.17.2(4), vol. 2, p. 168, e
ilustrar con ejemplos el diferente comportamiento al respecto de las formas degeneradas y
las no degeneradas.
Número 10. Sean ϕ : E × E → K una forma bilineal simétrica no degenerada y V un
subespacio de E que no contiene vectores isótropos. Utilizar el conjugado de V para construir
una simetrı́a f de base V tal que
Número 11. Demostrar que la signatura de una forma bilineal simétrica de un espacio
vectorial real es:
(1) La máxima dimensión de un subespacio sobre el que la forma cuadrática asociada es
> 0 (salvo por q(0) = 0).
(2) La mı́nima codimensión de un subespacio sobre el que la forma cuadrática asociada
es ≤ 0.
Número 12. Sea ϕ una forma cuadrática real de rango r y signatura s de un espacio
vectorial real E de tipo finito. Probar que máx{r − s, s} es la dimensión máxima de un
182 IV. Formas bilineales y formas cuadráticas
Número 14. Comparar el rango y la signatura de dos formas bilineales simétricas reales
que tienen los mismos vectores isótropos.
Número 15. Sean A y B dos matrices cuadradas regulares del mismo orden con coefi-
cientes complejos, no necesariamente simétricas. Demostrar que A y B son congruentes si y
sólo si los productos At A−1 y B t B −1 son semejantes.
Los determinantes de estas dos matrices son Sk+1 y ϕ(vk+1 , vk+1 )Sk , y deben
tener el mismo signo. Por hipótesis Sk y Sk+1 son positivos, luego efectivamente
ϕ(vk+1 , vk+1 ) > 0. Por construcción, los vi forman una base que diagonaliza
la forma bilineal.
p(t) = 1
x22
q(x1 , x2 ) = at2 + 2bt + c, con t = x1 /x2 ∈ R.
y como huk , uk i =
6 0 concluimos λk = 0. Por tanto, los ui son independientes.
(2) Para cada subespacio vectorial V ⊂ E se cumple
E = V ⊕ V ⊥.
En efecto, si v1 , . . . , vd , forman una base de V , entonces unas ecuaciones
independientes de V ⊥ son hv1 , ·i = · · · = hvd , ·i = 0, pues por ser h·, ·i no
degenerada, la forma polar es inyectiva. Por tanto, dim(V ⊥ ) = n − d, y la
descomposición en suma directa anterior se sigue si V ∩ V ⊥ = {0}. Pero esto
ocurre por no haber vectores isótropos.
(3) Por lo anterior, dim(V ⊥⊥ ) = n − dim(V ⊥ ) = n − (n − d) = d, y como
obviamente V ⊂ V ⊥⊥ , resulta que V = V ⊥⊥ .
(4) Ası́ vemos que el producto escalar asocia de modo unı́voco un suple-
mentario vectorial W = V ⊥ a cada subespacio V , y por tanto, una proyección
p : E = V ⊕ W → E : u = v + w 7→ v, que denominaremos proyección ortogo-
nal sobre V . La simetrı́a asociada u = v + w 7→ v − w se denomina ortogonal
respecto de V .
186 IV. Formas bilineales y formas cuadráticas
vk+1 = wk+1 /kwk+1 k. Este procedimiento produce una base ortonormal, con
la condición adicional de que:
luego wk+1 = ek+1 y vk+1 = ek+1 . Es decir, la base ortonormal que proporciona
el método de Gram-Schmidt es la base estándar.
(2) Consideremos ahora el producto escalar
Z b
ϕ(α(T ), β(T )) = α(t)β(t)dt,
a
190 IV. Formas bilineales y formas cuadráticas
Ası́: Z 1
2
kw2 k = ( 16 − T + T 2 )2 dt = 1
180 , luego kw2 k = 1
√
6 5
,
0
√ √ √
y v2 = w2 /kw2 k = 5 − 6 5T + 6 5T 2 . Y ya no seguimos haciendo cálculos.
Este ejemplo muestra cómo una base que consideramos estándar puede
distar mucho de ser ortonormal.
tanto,
kvk2 ≥ λ2 kuk2 = (hu, vi/kuk2 )2 kuk2 = hu, vi2 /kuk2 .
Es decir, obtenemos la desigualdad de Cauchy-Schwarz:
(5) |hu, vi| ≤ kukkvk.
(Nótese que la desigualdad es trivialmente cierta si u = 0). Obsérvese además
que la igualdad se da si y sólo si kwk = 0, esto es w = 0, o lo que es igual,
u = λv, es decir, u y v son proporcionales.
Ahora ya se sigue la desigualdad triangular:
Deducir que el producto vectorial no depende de la base salvo producto por ±1, y que esta
ambigüedad se resuelve mediante la condición de signo
det{u × v, u, v} > 0.
u × (v × w) + w × (u × v) + v × (w × u) = 0.
Número 12. La Universidad organiza una fiesta, al comienzo del curso académico, a la
que están invitados todos los estudiantes del programa Erasmus. En ella, dos de un mismo
paı́s no se saludan, pues ya se conocen, mientras que dos de paı́ses distintos pueden saludarse
o no, pero en el primer caso una única vez. A la fiesta asisten, en total, m estudiantes de
n paı́ses diferentes. Demostrar que el número total de saludos no excede de 2n 1
m2 (n − 1).
¿Qué ha de suceder para que se alcance ese valor máximo?
Número 13. Sea Sn (R) el espacio vectorial formado por las matrices simétricas de orden
n > 1 con coeficientes reales, e I la matriz identidad de orden n.
(1) Comprobar que
Número 15. Una norma en un espacio vectorial real E es una aplicación k · k : E → R
que cumple las tres propiedades (1), (2) y (3) de IV.18.11, vol. 2, p. 190. Demostrar que si
además cumple la ley del paralelogramo (IV.18.12(2), vol. 2, p. 192), entonces es la norma
asociada a un producto escalar de E.
Pero
kσ(λu) − λσ(u)k2 = kσ(λu)k2 − 2hσ(λu), λσ(u)i + kλσ(u)k2
= kλuk2 − 2λhσ(λu), σ(u)i + λ2 kσ(u)k2
= λ2 kuk2 − 2λhλu, ui + λ2 kuk2 = 0,
Ejemplos 19.3 (1) Las únicas homotecias λ IdE que son endomorfismos orto-
gonales son la identidad (λ = 1), y la simetrı́a central (λ = −1). En dimensión
1, éstos son los dos únicos endomorfismos ortogonales.
(2) Las simetrı́as ortogonales son, como era de esperar, endomorfismos
ortogonales. Sea σ : E → E una de ellas, respecto digamos un subespacio V .
Entonces si u = v + w, v ∈ V , w ∈ W = V ⊥ tenemos, por el teorema de
Pitágoras,
kuk2 = kv + wk2 = kvk2 + kwk2 ,
kσ(u)k2 = kv − wk2 = kvk2 + kwk2 .
Por tanto σ conserva la norma.
En realidad, la simetrı́a central es la simetrı́a respecto del subespacio menor
posible V = {0}, y como un exceso, podemos considerar la identidad como
la simetrı́a respecto del subespacio mayor V = E. Cuando V es una recta,
denominamos a la simetrı́a axial, y a V eje de simetrı́a. Cuando V es un
hiperplano, denominamos a la simetrı́a especular.
e3 R3
2
R R
e1 e2 e2
0 0
e1
0 e1
subgrupo; pero a cambio tenemos que GL− (E) = f ◦ GL+ (E), para cualquier
isomorfismo f que invierta la orientación.
Sea n = dim(E). Mediante cualquier base B de E, se identifica GL(E) con
GL(n) (II.9.18(5), vol. 1, p. 203), de manera que un isomorfismo f es positivo
si y sólo si el determinante de su matriz Mf (B) = C(f (B), B) es positivo.
Ası́, GL+ (E) se corresponde con el grupo GL+ (n) de las matrices reales re-
gulares que tienen determinante positivo, GL− (E) con el conjunto (no grupo)
GL− (n) de las que lo tienen negativo. Además, el grupo lineal especial SL(E)
se corresponde con el conjunto de las matrices con determinante +1, que es el
grupo lineal especial de las matrices reales de orden n, denotado SL(n).
(3) A partir de aquı́, E es, de nuevo, un espacio vectorial euclideo, y O(E)
su grupo ortogonal. Como en el grupo lineal, en el ortogonal hay dos subcon-
juntos, O+ (E) y O− (E), el primero formado por los endomorfismos ortogonales
positivos y el segundo por los negativos. Pero aquı́ determinante positivo signi-
fica +1 y negativo −1, por lo que O+ (E), que por supuesto es un subgrupo de
O(E), se llama grupo ortogonal especial , y se denota SO(E). Y por supuesto,
O− (E) no es subgrupo; nótese que siempre hay endomorfismos ortogonales que
invierten la orientación: por ejemplo, las simetrı́as especulares.
(4) Cada base ortonormal B induce un isomorfismo O(E) → O(n) que
obviamente conserva el determinante, y transporta a matrices ortogonales lo
que acabamos de decir. Ası́ en el grupo ortogonal O(n) tenemos el subgrupo
especial SO(n) = O+ (n) de las matrices ortogonales de determinante +1, y el
subconjunto O− (n) de las matrices ortogonales de determinante −1. Además,
O− (n) = M · O+ (n) para cualquier matriz M ∈ O− (n).
A continuación determinamos la forma de Jordan de un endomorfismo
ortogonal aprovechando el producto escalar de E.
(19.6) Clasificación de endomorfismos ortogonales. Sea σ : E → E
un endomorfismo ortogonal. Debemos estudiar sus subespacios invariantes, y
vamos a ver cómo el producto escalar facilita la tarea enormemente.
(1) Si W es un subespacio invariante de σ, entonces W ⊥ también lo es:
σ(W ⊥ ) = σ(W )⊥ = W ⊥ .
(2) Sea λ ∈ R un autovalor de σ, es decir, una raı́z real de su polinomio
caracterı́stico. Entonces λ = ±1, pues si σ(u) = λu, resulta kuk = kσ(u)k =
kλuk = |λ|kuk, y como se conserva la norma, |λ| = 1. En esta situación, obte-
19. Endomorfismos de espacios vectoriales euclı́deos 201
de la forma siguiente:
1 p)
...
1
+−1
. .q)
.
−1
+. . .
αi −βi
βi αi
..
.
u
W (−1) = W (1)⊥
W (1)
σ(u)
ρ ρ sen(a + θ)
ρ u
θ ρ sen a
a
ρ cos a
ρ cos(a + θ)
−v W (1)⊥ = W (−1)
σ(u)
Matriz (1) Matriz (2)
W (1) W (−1)
u w u w
σ(u)
v W (−1)⊥
θ
W (1)⊥
v σ(v)
θ −w
σ(v)
σ(u)
Matriz (3) Matriz (4)
hu, (f − λ IdE )2 (u)i = h(f − λ IdE )(u), (f − λ IdE )(u)i = k(f − λ IdE )(u)k2 .
Los primeros miembros son iguales, por ser f autoadjunto, luego son iguales
los segundos miembros. Como λ 6= µ, necesariamente hu, vi = 0.
Probados estos tres hechos, procedemos como sigue. En primer lugar, ele-
gimos en cada subespacio propio W (λ) una base ortonormal Bλ (pues siempre
existen talesL
bases). Ahora, por
S (1) y (2), el teorema de descomposición se
escribe E = λ W (λ), y B = λ Bλ es una base de E. Obviamente, todos los
vectores de B son unitarios, y los de cada Bλ mutuamente ortogonales. Pero
19. Endomorfismos de espacios vectoriales euclı́deos 207
0 0 0 6
208 IV. Formas bilineales y formas cuadráticas
W (0) = L[(−1, 2, 1, 0)], W (1) = L[(2, 1, 0, 0)], W (6) = L[(1,−2, 5, 0), (0, 0, 0, 1)].
En efecto, supongamos que sı́ lo es. Entonces todas sus raı́ces serı́an reales,
y después de factorizar −T 2 , el polinomio T 3 + 10T 2 + 1 tendrı́a tres raı́ces
reales, evidentemente negativas. Pero la función y = x3 + 10x2 + 1 tiene dos
extremos locales, donde se anula su derivada y 0 = 3x2 + 20x, es decir, en
x = 0, − 20
3 . El primero es un mı́nimo local y = 1 > 0 y el segundo un máximo
local, luego la función tiene un único cero.
19. Endomorfismos de espacios vectoriales euclı́deos 209
Nótese que bi = (−1)n−i ai , y por tanto bi bi+1 = (−1)2(n−i)−1 ai ai+1 = −ai ai+1 ,
luego una pareja de coeficientes consecutivos no nulos de a aportan una varia-
ción de signo si y sólo si no la aportan en b. Por tanto, v(P ) + v(Q) ≤ n.
En consecuencia, como suponemos ya probado que n+ (P ) ≤ v(P ), luego
n− (P ) ≤ v(Q), y por hipótesis n+ (P ) + n− (P ) = n, resulta
n+ (P ) = 1 + n+ (F ) ≤ 1 + v(F ) ≤ v(P ).
n+1
X
P (T ) = (T − u)F (T ) = bj T n+1−j donde
j=0
19. Endomorfismos de espacios vectoriales euclı́deos 211
S1 = {0 ≤ j ≤ n : aj < 0}.
S2 = {k + 1 ≤ j ≤ n : aj > 0}.
Si S2 es vacı́o se tiene
y en consecuencia,
mientras que, puesto que a`−1 a` < 0, el signo de b` coincide con el de a` > 0,
es decir, b` > 0. Esto implica, por ser bk < 0, que
Los signos de los coeficientes son (+, −, −, +, +), y contamos dos cambios de
signo, luego la signatura es 2 (como ya obtuvimos en el ejemplo IV.17.4, vol. 2,
p. 170). Ya se ve que esto depende sólo de calcular P (T ). Y a veces, ni siquiera,
pues la traza y el determinante pueden bastar. En este ejemplo tenemos:
P (T ) = T 4 − T 3 + aT 2 + bT + 42,
L1 : y = z = 0, L2 : x = 4y − 3z = 0, L3 : 3x + 5y = 3y + 4z = 0
Número 8. Sea f un endomorfismo de Rn cuya matriz respecto de la base estándar es
simétrica o antisimétrica. Demostrar que el ortogonal del núcleo de f es la imagen de f , y
deducir que cualquier potencia f k (k ≥ 2) tiene el mismo rango que f .
Número 9. (1) Determinar la matriz respecto de la base estándar de un endomorfismo
autoadjunto f de R3 tal que f (1, 0, 0) = (3, 2, 2), f (0, 1, 0) = (2, 2, 0) y tiene (2, −2, −1) por
autovector.
(2) Diagonalizar la forma cuadrática q de R3 cuya matriz respecto de la base estándar
es la matriz de f anteriormente determinada.
Número 10. Sea M una matriz simétrica real. ¿Cuándo son M y M k (k ≥ 2) congruentes?
Número 11. En lo que sigue, α es un número real en el intervalo [−1, 1]. Sea ϕα la forma
bilineal simétrica de R3 cuya matriz respecto de la base estándar es
0 1
−1 0 0
Aα = @ 0 1 1 + αA .
0 1+α 1
(2) Mostrar que si existe un isomorfismo f de R3 tal que la forma bilineal simétrica
ψα : R3 × R3 → R : (u, v) 7→ ϕα (f (u), f (v))
tiene rango 2, entonces el parámetro α es nulo.
(3) Encontrar una base ortonormal del espacio euclı́deo estándar R3 respecto de la cual
la matriz de ϕ0 (esto es, α = 0) sea diagonal.
(4) ¿Qué tipo de endomorfismo ortogonal de R3 transforma la base estándar en la base
ortonormal obtenida en el apartado anterior?
Número 12. Sean θ ∈ R y ϕθ la forma bilineal simétrica cuya matriz respecto de la base
estándar es 0 1
1 cos θ sen θ
Aθ = @ cos θ 1 0 A.
sen θ 0 1
Calcular el rango y la signatura de ϕθ y construir una base ortonormal de R3 respecto de la
cual la matriz de ϕθ sea diagonal.
Pn 2
Número 13. Consideramos números reales a1 , . . . , an tales que i=1 ai = 1. Sean I =
(δij ) la matriz identidad y A = (aij ) la matriz definida por aij = ai aj . Demostrar que la
matriz 2A − I es ortogonal. ¿Qué endomorfismo ortogonal de Rn define?
Número 14. Consideremos el espacio vectorial real E = Mn (R). Demostrar que la apli-
cación
h·, ·i : Mn (R) × Mn (R) → R : (A, B) 7→ tr(At B)
es un producto escalar en E, y estudiar para qué matrices M la aplicación: X 7→ M X es un
endomorfismo ortogonal de E.
Número 15. Utilizar la clasificación de endomorfismos ortogonales para clasificar por con-
gruencia las matrices reales ortogonales.
√
y reescribir |λ| = λ · λ. A decir verdad esto resuelve bien el problema, pero
hace necesario rehacer toda la teorı́a desde la primera definición.
En toda la lección se utiliza repetidamente la conjugación de números com-
plejos. En realidad se utiliza también para matrices, entendiéndola del modo
más inmediato: la matriz conjugada M de una dada M se obtiene conjugando
todos sus coeficientes. Algunas propiedades inmediatas se utilizan sin mayor
explicación. Por ejemplo, si M es cuadrada, det(M ) = det(M ).
Sea E un espacio vectorial complejo (K = C) de tipo finito, dim(E) = n.
El nuevo punto de partida es:
ϕ : E × E → C : (u, v) 7→ ϕ(u, v)
y lineal en la segunda:
para λi , µj ∈ C, ui , vj ∈ E.
Las formas sesquilineales de E forman un espacio vectorial complejo.
ϕ2 : E → L(E, C) = E ∗ : u 7→ ϕ(u, · ).
λ ? u = λu para λ ∈ C, u ∈ E;
(1) hermı́tica cuando ϕ(u, v) = ϕ(v, u)(= ϕ∗ (u, v)) para cualesquiera vecto-
res u, v ∈ E.
20. Formas sesquilineales 217
(2) antihermı́tica cuando ϕ(u, v) = −ϕ(v, u)(= −ϕ∗ (u, v)) para cualesquiera
vectores u, v ∈ E.
√ ϕ(u, u) ∈ R;
Nótese que: (i) si ϕ es hermı́tica, ϕ(u, u) = ϕ(u, u), con lo que
(ii) si ϕ es antihermı́tica, ϕ(u, u) = −ϕ(u, u), luego ϕ(u, u) ∈ −1 R.
En consonancia con el caso bilineal, ocurre que toda forma sesquilineal ϕ
es suma (de una única manera) de una forma sesquilineal hermı́tica y de otra
antihermı́tica:
ϕ = 12 (ϕ + ϕ∗ ) + 21 (ϕ − ϕ∗ .
√
Pero en el caso complejo hay más, pues ϕ es hermı́tica si y sólo si −1ϕ es
antihermı́tica, y podemos escribir
(
√ φ1 = 21 (ϕ + ϕ∗ ),
ϕ = φ1 + −1φ2 ,
φ2 = 2√1−1 (ϕ − ϕ∗ ,
con dos vectores u, v tales que ϕ(u, v) + ϕ(v, u) 6= 0. Ésta es una estrategia
ganadora: si se tiene ϕ(u, v) 6= 0 y ϕ(u, v) + ϕ(v, u) = 0, entonces
√ √ √ √ √
ϕ(u, −1v) + ϕ( −1v, u) = −1ϕ(u, v) − −1ϕ(v, u) = 2 −1ϕ(u, v) 6= 0,
√
y se usa −1v en lugar de v.
(20.5) Ecuaciones y matrices. Sean ϕ : E × E → C una forma ses-
quilineal, y B = {u1 , . . . , un } una base de E. Dados dos vectores u, v ∈ E
denotamos por x = (x1 , . . . , xn ) e y = (y1 , . . . , yn ) las coordenadas de u y v
respecto de B.
218 IV. Formas bilineales y formas cuadráticas
(1) Existe una única matriz M tal que para cualesquiera u, v ∈ E se tiene:
(∗) ϕ(u, v) = xM y t .
Los coeficientes de M son ϕ(ui , uj ) = ei M etj = mij . Ésta es la matriz de ϕ
respecto de la base B, y se denota Mϕ (B). La igualdad (∗) se llama ecuación
de ϕ respecto de la base dada; denotaremos ϕ(x, y) = xM y t . El rango de ϕ es
el rango de M . Las soluciones de la ecuación xM xt = 0 son (las coordenadas
respecto de B de) los vectores isótropos.
(2) Sea B0 otra base de E, y consideremos la matriz de cambio C =
C(B0 , B). Entonces la matriz de ϕ respecto de B0 es
t
M 0 = C ∗ M C, C∗ = C .
En el caso sesquilineal, esta relación entre M y M 0 sustituye a la congruencia,
propia del caso bilineal.
En particular, nótese que para los determinantes, tenemos
t
det(M 0 ) = det(C ∗ M C) = det(C ) det(M ) det(C)
= det(C t ) det(C) det(M ) = | det(C)|2 det(M ),
es decir, los dos determinantes son iguales salvo producto por un número real
positivo (atención: los determinantes son números complejos).
(3) En general, podemos definir para cualquier matriz A su conjugada
t
transpuesta A∗ = A , y se comprueba inmediatamente que (AB)∗ = B ∗ A∗ y
A∗∗ = A.
La conjugada traspuesta ya estaba oculta en la definición IV.20.3, vol. 2,
p. 216: si M es la matriz de una forma sesquilineal ϕ respecto de B, entonces
M ∗ es la de ϕ∗ .
(4) La aplicación : ϕ 7→ Mϕ (B) es una biyección entre formas sesquilinea-
les y matrices, y de hecho un isomorfismo de espacios vectoriales complejos.
Mediante esta biyección las formas sesquilineales hermı́ticas corresponden a
las matrices que coinciden con su conjugada transpuesta (M ∗ = M ), y las an-
tihermı́ticas a aquéllas cuya opuesta es su conjugada traspuesta (M ∗ = −M ).
Naturalmente, denominamos hermı́ticas a las matrices primeras, y antihermı́ti-
cas a las segundas.
Ahora procede clasificar las formas sesquilineales, o más exactamente las
hermı́ticas y las antihermı́ticas.
20. Formas sesquilineales 219
0 < hλu − v, λu − vi = hλu, λui + hλu, −vi + h−v, λui + h−v, −vi
= λλhu, ui − λhu, vi − λhu, vi + hv, vi = λλ − λhu, vi − λhu, vi + 1.
para cualesquiera u, v ∈ E.
Los endomorfismos unitarios forman un grupo para la composición, de-
nominado grupo unitario (de E), y denotado U (E). Es un subconjunto de
L(E, E), pero no un subespacio. Las homotecias f = λ IdE que son endomor-
fismos unitarios son las de módulo |λ| = 1 (como se ve, hay más que en el caso
euclı́deo).
(2) Un endomorfismo es unitario si y sólo si transforma bases ortonormales
en bases ortonormales, lo que equivale a que su matriz M respecto de cualquier
base ortonormal sea unitaria: M ∗ M = I, y en particular su determinante
tendrá módulo 1. Los que tienen determinante exactamente igual a +1 forman
el denominado subgrupo especial unitario SU (E).
222 IV. Formas bilineales y formas cuadráticas
para cualesquiera u, v ∈ E.
(1) En este caso hermı́tico también se tiene un teorema espectral: para todo
endomorfismo autoadjunto f hay bases ortonormales formadas por autovecto-
res de f .
La demostración es la misma que en el caso euclı́deo. La única diferencia,
que es una simplificación, es cómo se ve que todos los autovalores λ de un
endomorfismo autoadjunto f son reales: si f (u) = λu, u 6= 0, entonces
(
hf (u), ui = hλu, ui = λhu, ui,
hu, f (u)i = hu, λui = λhu, ui,
(3) Finalmente, lo anterior dice también que todas las raı́ces del polinomio
caracterı́stico de una matriz hermı́tica son reales, luego el polinomio mismo tie-
ne coeficientes reales, y se puede utilizar la regla de Descartes para determinar
cuántas raı́ces positivas tiene.
Damos por terminada aquı́ esta revisión sumaria de las cuatro lecciones
anteriores. Insistimos en que los razonamientos omitidos imitan sin dificultad
los de esas cuatro lecciones, y a veces incluso se simplifican. También insistimos
en que el lector lo compruebe por sı́ mismo.
¿Existe alguna forma sesquilineal hermı́tica con esos mismos vectores isótropos?
Número 7. Estudiar la validez del teorema de Pitágoras y la de la regla del paralelogramo
en un espacio hermı́tico.
Número 8. Demostrar que
Número 11. Sea E un espacio vectorial complejo de tipo finito. Si se restringe el producto
por escalares de E a los números reales, se obtiene un espacio vectorial real subyacente ER ,
y cada endomorfismo f de E es también un endomorfismo fR de ER . Demostrar √ que si
B = {u1 , . . . , un } es una base de E, entonces BR = {u1 , iu1 , . . . , un , iun } (i = −1) es una
base de ER , y describir la matriz de fR respecto de BR en términos de la de f respecto de B.
Aplicar lo anterior a una base B de Jordan de f , para probar que los autovalores de fR
son los de f más todos sus conjugados. Deducir que det(fR ) = |det(f )|2 , y explicar ası́ la
afirmación de que todo isomorfismo complejo conserva la orientación.
Número 12. Sea E un espacio vectorial complejo de tipo finito, y ER el espacio vectorial
real subyacente. Sea ϕ una forma sesquilineal de E. Demostrar:
(1) La parte real ϕR = <ϕ de ϕ es una forma bilineal de ER , simétrica o antisimétrica
según ϕ sea hermı́tica o antihermı́tica.
(2) La forma bilineal ϕR es un producto escalar si ϕ es un producto hermı́tico. En ese
caso las normas asociadas a ambos productos coinciden, y la asignación f → fR define un
homomorfismo inyectivo de grupos U (E) → SO(ER ).
Número 13. Expresar matricialmente los resultados del problema anterior para obtener
un homomorfismo inyectivo U (n) → SO(2n). Mostrar que es un isomorfismo para n = 1,
pero no para n > 1.
Número 14. Demostrar que toda matriz M = (mij ) de un producto hermı́tico se escribe
como producto M = C ∗ C mediante una matriz triangular
0c c12 c13 c14 . . .1
11
B 0 c22 c23 c24 . . .C
0 0 c33 c34 . . . C,
B C
C=B
B
@ 0 0 0 c44 . . .CA
.. .. .. ..
. . . .
(2) | det(A)|2 ≤ j (|a1j |2 + · · · + |anj |2 ) para toda matriz compleja A = (aij ) cuadrada
Q
de orden n.
Número 15. Demostrar que una matriz A ∈ Mn (C) factoriza como producto A = QM
de una matriz hermı́tica M y una unitaria Q (descomposición polar de una matriz compleja).
¿Es única tal factorización?
Cuestiones 225
Decidir cuáles de las siguientes afirmaciones son verdaderas y cuáles son falsas.
Número 20. Si dos matrices simétricas reales no son congruentes tampoco lo son
sus cuadrados.
Número 21. Dos matrices simétricas complejas de igual rango son congruentes.
Número 22. Toda matriz simétrica es congruente a su cuadrado.
Número 23. Hay matrices ortogonales que no son diagonalizables por semejanza.
Número 24. Hay matrices diagonalizables por congruencia que no son simétricas.
Número 25. La composición de dos simetrı́as ortogonales respecto de dos planos
distintos de R3 es la simetrı́a axial respecto de la recta intersección de los dos planos.
Número 26. Una matriz real ortogonal distinta de la identidad tiene a −1 por
autovalor.
Número 27. En el espacio vectorial real E de los polinomios de grado ≤ 1, la
fórmula hF (T ), G(T )i = F (0)G(0) + F (1)G(1) define un producto escalar.
Número 28. Las formas sesquilineales hermı́ticas forman un espacio vectorial real,
las antihermı́ticas otro, y ambos son isomorfos como tales.
Número 29. Si dos matrices simétricas reales son congruentes, entonces son seme-
jantes.
Número 30. La aplicación inversa de una semejanza es otra semejanza.
Número 31. Toda matriz simétrica real es diagonalizable por semejanza.
Número 32. Todas las potencias impares de una matriz simétrica real son con-
gruentes.
Número 33. El producto vectorial de dos vectores de R3 es nulo sólo si los vectores
son independientes.
Número 34. Un endomorfismo ortogonal positivo de R3 con un único plano inva-
riante es necesariamente una rotación.
Número 35. Dos subespacios conjugados respecto de una forma bilineal simétrica
no degenerada son suplementarios el uno del otro.
Número 36. Un endomorfismo de un espacio vectorial euclı́deo es una semejanza
si y sólo si existe alguna base ortogonal que se transforma en una base ortogonal.
Número 37. Si una forma bilineal simétrica no degenerada de R2 no tiene vectores
isótropos, su determinante es negativo.
Número 38. Si un endomorfismo ortogonal (6= Id) de R3 tiene un plano invariante
en el que induce la identidad, entonces es una simetrı́a.
Número 39. Respecto de una forma sesquilineal antihermı́tica, todos los vectores
son isótropos.
Apéndice: Soluciones §16 227
Número 40. La composición de dos simetrı́as axiales del plano vectorial euclı́deo
nunca es otra simetrı́a axial.
Número 41. Dadas dos bases ortonormales de un espacio vectorial euclı́deo, existe
un único endomorfismo ortogonal que transforma una en otra.
Número√42. Hay matrices antisimétricas complejas de orden impar cuyo determi-
nante es −1.
Número 43. Si el inverso de una semejanza es un endomorfismo ortogonal, enton-
ces la propia semejanza es un endomorfismo ortogonal.
Número 44. Si un endomorfismo de un espacio vectorial euclı́deo transforma bases
ortogonales en bases ortogonales, entonces es una semejanza.
Número 45. Si dos matrices simétricas reales son semejantes como matrices com-
plejas, entonces son congruentes como matrices reales.
Número 46. Si dos matrices simétricas con coeficientes reales son congruentes co-
mo matrices complejas, entonces son semejantes como matrices reales.
Número 47. Como todas las matrices antisimétricas de orden impar, todas las
matrices antihermı́ticas de orden impar tienen determinante nulo.
Número 48. Toda matriz antihermı́tica es diagonalizable por semejanza.
Número 49. Existen endomorfismos ortogonales con polinomio mı́nimo (1 − T )3 .
Número 50. Existe un endomorfismo autoadjunto de R3 que tiene a (1, 0, 1) y
(1, 1, 1) por autovectores.
Soluciones §16
Número 1. Estudiar cuáles de las siguientes aplicaciones son formas bilineales de
Rn :
Solución. En cada uno de los casos (1), (2) y (3), con las notaciones evidentes,
se tiene F (x, −y) = F (x, y), en lugar de la igualdad F (x, −y) = −F (x, y) que se
cumplirı́a si F fuese bilineal, luego no lo son.
(4) Estos sı́ son ejemplos de aplicaciones bilineales, pues se escriben F (x, y) =
xAk y t , donde Ak es la matriz diagonal cuyos coeficientes aii valen 1 si i ≤ k y 0 si
i > k.
Número 2. Encontrar todas las formas bilineales de K3 que tienen rango uno y
de las que los vectores (1, 1, 0), (1, 0, 1), (0, 1, 1) y (1, 1, 1) son isótropos. ¿Hay alguna
simétrica no nula?
Solución. Como sabemos, los vectores isótropos de una forma bilineal ϕ son los de
la forma bilineal simétrica asociada a ella, de manera que empezamos por buscar las
formas cuadráticas q que tienen esos vectores isótropos. Para simplificar los cálculos
usaremos coordenadas (x, y, z) respecto de la base B = {u = (1, 1, 0), v = (1, 0, 1), w =
(0, 1, 1)}. Como los tres vectores son isótropos, será:
Pero tenemos un cuarto vector isótropo, cuyas coordenadas respecto de la base B son
( 21 , 12 , 12 ), luego:
0 = q 12 , 12 , 12 = 12 a + 12 b + 12 c
c = −a − b.
En fin, nos piden que ϕ tenga rango 1, para lo cual debe ser 1 el rango de esta matriz.
Un análisis cuidadoso de los menores de orden 2 (que deben ser todos nulos), muestra
que hay sólo las tres siguientes posibilidades:
0 λ µ 0 λ 0 0 0 0
0 0 0 , 0 0 0 , 0 0 0 ,
0 0 0 0 µ 0 λ µ 0
u = x1 e1 + x2 e2 + x3 e3 y v = y1 e1 + y2 e2 + y3 e3 .
Número 5. De una forma bilineal ϕ del espacio E de los polinomios reales de grado
≤ 1 se sabe que es simétrica y que ϕ(X + 1, X + 1) = 8, ϕ(X + 2, X + 2) = 11 y
ϕ(X, X) = 3. Calcular su matriz respecto de la base estándar E = {1, X} de E.
230 IV. Formas bilineales y formas cuadráticas
Solución. Puesto que ϕ es simétrica y conocemos ϕ(X, X), todo se reduce a calcular
los valores de ϕ(1, 1) y ϕ(1, X). De los datos del enunciado se desprende que
Determinar λ para que ϕ sea degenerada. Para este valor de λ describir los núcleos
de las formas polares.
Solución. La matriz de ϕ respecto de la base estándar es
2 −4
A= ,
5 λ
cuyo determinante det(A) = 2(λ + 10) sólo se anula para λ = −10. Éste es, por tanto,
el único valor de λ para el que ϕ es degenerada.
El vector v = (y1 , y2 ) ∈ R2 pertenece al núcleo de la forma polar
ϕ1 : R2 → L(R2 , R) : v 7→ ϕ(·, v)
ϕ2 : R2 → L(R2 , R) : u 7→ ϕ(u, ·)
que, después de operar del modo obvio, nos proporciona la igualdad buscada.
(2) Observamos en primer lugar que q(0) = 0, ya que, al ser ϕ bilineal, ϕ(0, 0) = 0,
o sea, q(0 + 0) − q(0) − q(0) = 0, es decir, q(0) = 0.
Utilizando la igualdad del apartado anterior y la hipótesis q(−u) = q(u) se tiene
q(u) = q(u + u − u)
= q(u + u) + q(u + (−u)) + q(u + (−u)) − q(u) − q(u) − q(−u)
= q(2u) − 2q(u) − q(u),
y ya tenemos una base. Por su parte, A(K3 ) tiene dimensión 3, como el espacio de
las matrices antisimétricas de orden 3. Ya sabemos (IV.16.13(3), vol. 2, p. 164) que
tomando una matriz cualquiera A = (aij ) y eligiendo las filas primera y segunda para
colocar los vectores variables x e y se obtienen las siguientes matrices:
0 a33 −a32
Mϕ (E) = −a33 0 a31 .
a32 −a31 0
Haciendo 0 dos de estos coeficientes y 1 el restante obtenemos la siguiente base del
espacio de matrices antisimétricas de orden 3:
0 1 0 0 0 −1 0 0 0
−1 0 0 , 0 0 0 , 0 0 1.
0 0 0 1 0 0 0 −1 0
Por tanto, obtenemos la siguiente base {ϕ1 , ϕ2 , ϕ3 } del espacio de formas bilineales
antisimétricas A(K3 ):
Para n > 3 se hace lo mismo, aunque la formalización es más delicada. Reservamos las
dos primeras filas de la matriz A para x, y, y en las restantes colocamos “en su orden”
n − 2 vectores ek de la base estándar E. Esto se puede hacer de n−2 n
= n(n − 1)/2
n
maneras, y ésta es precisamente la dimensión de A(K ). Para escribir explicitamente
la base resultante denotamos Aij (x, y) (i < j) la matriz que corresponde a elegir los
vectores ek con k 6= i, j, y consideramos ϕij = det Aij (x, y) . Un poco de reflexión
muestra que
i+j+1
(−1)
si k = i, ` = j,
ϕij (ek , e` ) = (−1)i+j si k = j, ` = i,
0 en otro caso,
ϕ : E × E → K : (A, B) 7→ tr(At B)
234 IV. Formas bilineales y formas cuadráticas
En este punto, consideramos la base estándar E, formada por las matrices ∆ij cuyo
único coeficiente no nulo es un 1 en el lugar (i, j), y concluimos que ϕ es efectivamente
una forma bilineal: aquélla cuya matriz respecto de E es la matriz identidad. Por tanto,
es simétrica y no degenerada (de rango la dimensión n2 de E).
La forma cuadrática q asociada a ϕ es
X
q(A) = ϕ(A, A) = a2ij .
i,j
Dicho con palabras, q(A) es la suma de los cuadrados de todos los coeficientes de la
matriz A. Es por ello evidente que si K = R no existen vectores isótropos: una suma
de cuadrados de números reales sólo es nula cuando lo es cada sumando.
La situación es radicalmente distinta si K = C. Incluso para n = 2 puede haber
infinidad de vectores isótropos, por ejemplo,
√ √ √
0 −1 3 5 −1 √1 7 −1
A= , , ,...
1 0 0 4 4 −1 8
ψ : E × E → K : (A, B) 7→ tr(AB),
ψ(A, B) = ϕ(h(A), B) = a0 bt = (T at )t bt = aT t bt = aT bt .
Apéndice: Soluciones §16 235
Esto muestra que ψ es la forma bilineal simétrica cuya matriz respecto de E es T . Por
ser T regular, ψ es no degenerada (de rango n2 ).
Para calcular la forma cuadrática q inducida por ψ tomamos una matriz A ∈ E y
denotamos J ∈ Mn (C) su forma de Jordan compleja. Como A = CJC −1 para cierta
matriz regular compleja C, se tiene
Obsérvese que incluso en el caso en que los coeficientes de la matriz A sean reales,
algunos de sus autovalores pueden ser imaginarios, de modo que la suma anterior
no es necesariamente una suma de números reales no negativos. En fin, los vectores
isótropos son aquellas matrices para las que la suma de los cuadrados de sus autova-
lores, contados con multiplicidad, es nula.
Número 13. Sea B una base de un espacio vectorial de tipo finito E sobre el
cuerpo K, y denotemos x = (x1 , . . . , xn ) las coordenadas respecto de B. Un polinomio
q(x) ∈ K[x1 , . . . , xn ] se denomina homogéneo de grado 2 si para cada λ ∈ K se cumple
B = {xi xj : 1 ≤ i ≤ j ≤ n}.
Que estos vectores son linealmente independientes no requiere comentario. Para com-
probar que
P además es un sistema generador, tomamos un polinomio no nulo cualquiera
q(x) = ν aν xν11 · · · xνnn ∈ P2 , donde ν = (ν1 , . . . , νn ) con 0 ≤ νi ≤ 2. Por supuesto,
sólo consideramos los sumandos no nulos. Para cada λ ∈ K tenemos
X X
λ2 aν xν11 · · · xνnn = λ2 q(x) = q(λx) = λν1 +···+νn aν xν11 · · · xνnn .
ν ν
236 IV. Formas bilineales y formas cuadráticas
La anterior puede interpretarse como una igualdad de polinomios en las n+1 variables
x1 , . . . , xn , λ y por tanto los exponentes de λ en cada sumando han de coincidir, esto
es, ν1 + · · · + νn = 2 para todo ν.PEsto significa, exactamente, que los monomios que
aparecen en la expresión q(x) = ν aν x1ν1 · · · xνnn son los de la base B.
Invitamos al lector a que complete los detalles en la siguiente solución alternativa:
la aplicación S(E) → P2 que asocia a cada ϕ ∈ S(E) el polinomio q(x) = xMϕ (B)xt
es un isomorfismo lineal.
q(x) = xM xt , M = Mϕ (B).
de q respecto de las coordenadas que corresponden a esta base (que por comodidad
seguimos denotando x) es
Al restar deducimos que b0 (y) − λb(y) = 0 para cada y ∈ Cn−1 , es decir, como
polinomios en las variables y2 , . . . , yn se tiene la igualdad b0 (y) = λb(y). Pero esto
implica que a0 (y)t1 = 0 y, elevando al cuadrado, obtenemos la igualdad polinómica
b(y)a0 (y)2 = 0. Por tanto, si b(y) 6= 0 deducimos que a0 (y) = 0, y ası́
Para terminar, si b(y) = 0 también b0 (y) = λb(y) = 0, por lo que los polinomios q y
q 0 adoptan la forma: q(x) = x21 y q 0 (x) = λx21 + a0 (y)x1 , que sólo tienen las mismas
soluciones si a0 (y) ≡ 0, en cuyo caso se tiene de nuevo q 0 (x) = λx21 = λq(x).
238 IV. Formas bilineales y formas cuadráticas
Probado (2), sean ϕ y ϕ0 dos formas bilineales simétricas de E con los mismos
vectores isótropos. Las dos formas corresponden a dos polinomios homogéneos q(x) y
q 0 (x) de grado 2, y se concluye lo que se quiere tras observar que q(x) = 0 y q 0 (x) = 0
son las ecuaciones de los vectores isótropos de ϕ y ϕ0 respectivamente.
El resultado es falso en el caso real. La clave radica en que dos polinomios no
proporcionales pueden muy bien tener las mismas raı́ces reales. Por ejemplo las dos
formas cuadráticas siguientes no son proporcionales (si r > 1):
Número 15. Sea q(x) el polinomio homogéneo de grado 2 que define una forma
bilineal ϕ (en ciertas coordenadas) de un espacio vectorial E. Demostrar que si todos
los vectores de un hiperplano son isótropos, entonces q(x) es producto de dos formas
lineales, y concluir que ϕ está determinada, salvo producto por escalares, por sus
vectores isótropos. ¿Cuáles son estos?
Solución. Sea H un hiperplano de vectores isótropos de ϕ. Las afirmaciones del
enunciado no dependen de las coordenadas x elegidas, ası́ que supondremos que son
las coordenadas respecto de una base B = {u1 , u2 . . . , un } de E que prolonga una
{u2 , . . . , un } de H. De este modo x1 = 0 es una ecuación de H. En virtud del ejercicio
anterior podemos escribir
Soluciones §17
Número 1. Dada la matriz
Apéndice: Soluciones §17 239
1 0 1
M = 0 2 2,
1 2 3
hallar una matriz regular C ∈ M3 (K) tal que C t M C sea una matriz diagonal.
Solución. Sea ϕ la forma bilineal simétrica cuya matriz respecto de la base estándar
E = {e1 , e2 , e3 } de E = K3 es M . Se trata de encontrar una base de E respecto de la
cual la matriz de ϕ sea diagonal. Empezamos tomando el vector anisótropo u = e1 :
ϕ(u, u) = e1 M et1 = 1. Ahora buscamos los vectores x = (x1 , x2 , x3 ) conjugados de u:
uM xt = 0 x1 + x3 = 0.
0 = vM xt = 2x2 + 2x3 .
x1 − x2 = 0, −x1 + 2x2 + x3 = 0, x2 + x3 = 0,
por lo que V10 es el plano generado por u1 , u2 − u3 . Para V20 procedemos igual, es decir,
u = x1 u1 + x2 u2 + x3 u3 ∈ V20 si y sólo si
Como dos matrices antisimétricas son congruentes si y sólo si tienen igual rango,
calcularemos los rangos de ambas. Por un lado, se comprueba inmediatamente que el
determinante de A es nulo, y como la matriz A es antisimétrica su rango es par, luego
rg(A) = 2 (el menor de sus dos primeras filas y columnas es no nulo). En cuanto a M ,
se comprueba que su determinante es 484, luego el rango es 4. Ası́ pues, las matrices
no son congruentes.
Para clasificarlas, aplicamos IV.17.9, vol. 2, p. 177, para concluir que A, M son
congruentes respectivamente a
0 −1 0 0 0 −1 0 0
1 0 0 0 1 0 0 0
, .
0 0 0 0 0 0 0 −1
0 0 0 0 0 0 1 0
con det(M ) = −(t − 1)2 (t + 2). Por tanto el rango es r = 3 salvo si t = 1 o t = −2.
En estos dos casos excepcionales, el rango es r = 1 si t = 1 y r = 2 si t = −2. Esto
clasifica la forma cuadrática si K = C.
Suponemos en lo que sigue que K = R. Se trata de calcular, en función de t, el
rango r y la signatura s de q. Si t = 1, entonces r = s = 1 porque q(e1 ) = 1 > 0,
mientras que si t = −2, entonces r = 2 y s = 1 porque q(e1 ) = 1 > 0 y q(e3 ) =
−2 < 0. Suponemos en lo sucesivo que t 6= 1, −2, por lo que r = 3, y para calcular
s diagonalizaremos. Empezamos con el vector anisótropo u = (1, 0, 0), que cumple
242 IV. Formas bilineales y formas cuadráticas
Por ejemplo v = (1, 0, −1), que cumple q(v) = t − 1 6= 0. Ahora, los conjugados de v
cumplen:
1 t 1 x
1 0 −1 t 1 1 y = 0 y − z = 0.
1 1 t z
Por tanto, los vectores conjugados de u y de v cumplen x + ty + z = y − z = 0, y entre
ellos elegimos w = (t + 1, −1, −1); al operar obtenemos q(w) = (1 − t)(t + 2). En fin,
la matriz de la forma cuadrática respecto de la base B = {u, v, w} es
1 0 0
M = 0 t − 1 0 .
0 0 (1 − t)(t + 2)
Si t > −2 los números t − 1 y (1 − t)(t + 2) tienen signos opuestos, luego uno y sólo
uno de ellos es positivo, y por tanto s = 2. Por otro lado, si t < −2 estos dos números
son negativos, luego s = 1.
0 = v2 M xt = 2x2 + 2x4 .
Buscamos por tanto las soluciones del sistema 3x1 − x2 + x3 = 2x2 + 2x4 = 0,
como por ejemplo (1, 0 − 3, 0), que será nuestro vector v3 ; se comprueba inmedia-
tamente que q(v3 ) = 3. Por último, el cuarto vector v4 de la base buscada ha de
Apéndice: Soluciones §17 243
ser también conjugado de v1 y v2 , luego será solución del sistema anterior, es decir
v4 = (x1 , x2 , x2 − 3x1 , −x2 ); pero además habrá de ser conjugado de v3 :
x1
x2
0 = v3 M v4t = (1, 0, −3, 0)M
x2 − 3x1
x1 = x2 .
−x2
0 0 0 0
√ √
Utilizando esta ecuación, se ve que v1 − v3 , v1 + v3 , 2v1 + 3v2 y v4 son isótropos;
como son cuatro vectores independientes, generan todo el espacio R4 .
Los ocho ceros que aparecen en esta matriz indican que los subespacios V = L[e1 , e4 ] y
W = L[e2 , e3 ] son conjugados, es decir, ϕ(v, w) = 0 para cada v ∈ V y w ∈ W , donde
ϕ es la forma bilineal simétrica que induce q. Por tanto, el rango y la signatura de q
se obtienen sumando los de sus restricciones a V y W . Ası́ pues, se trata de calcular
por separado cada uno de estos rangos y signaturas. Ahora bien, las dos restricciones
tienen la misma matriz
0 3α − 1 2α
M =
2α −1
244 IV. Formas bilineales y formas cuadráticas
0 = vM wt = (−1, 0, −1)wt = −x − z.
Nos vale w = (1, 3, −1) que, como era presumible, es isótropo: q(w) = 0. En conse-
cuencia, en coordenadas (x0 , y 0 , z 0 ) respecto de la base B = {u, v, w} se escribe
q(x, y, z) = x02 − y 02 .
Veamos cómo esta fórmula implica las igualdades en (iii) y (iv). Para ello basta ver
que dim((V ∩ W )0 ) = dim(V 0 + W 0 ) y dim(V 00 ) = dim(V ). Para lo primero,
dim (V ∩ W )0 = dim(E)−dim(V ∩ W )
= dim(E)− dim(V )+dim(W )−dim(V +W )
= dim(E)−dim(V ) + dim(E)−dim(W ) − dim(E)−dim(V +W )
= dim(V 0 )+dim(W 0 )−dim((V +W )0 )
= dim(V 0 )+dim(W 0 )−dim(V 0 ∩ W 0 ) = dim(V 0 +W 0 ),
Apéndice: Soluciones §17 247
es q(x) = x21 +· · ·+x2s > 0, salvo si x = 0, y dim(E> (B)) = s. Ası́, para demostrar (1),
es suficiente comprobar que no existe ningún subespacio V de E con dim(V ) = s + 1
tal que q|V > 0 (salvo si x = 0). Si existiera, compartirı́a algún vector no nulo con el
subespacio
W = E≤ (B) : x1 = · · · = xs = 0,
ya que
Número 12. Sea ϕ una forma cuadrática real de rango r y signatura s de un espacio
vectorial real E de tipo finito. Probar que máx{r − s, s} es la dimensión máxima de
un subespacio vectorial de E que no contiene vectores isótropos y que máx{r − s, s}
es la codimensión mı́nima de uno que consiste exclusivamente de ellos.
Solución. Sea B = {u1 , . . . , un } una base de E de modo que respecto de estas
coordenadas se escribe
V : xs+1 = · · · = xn = 0 y W : x1 = · · · = xs = xr+1 = · · · = xn = 0
Número 13. Sean ϕ una forma bilineal simétrica de un espacio vectorial real de
dimensión ≥ 2, y q la forma cuadrática asociada. Probar que si ϕ cambia de signo en
E, entonces q tiene vectores isótropos, (i) sin diagonalizar, y (ii) haciéndolo. ¿Qué se
puede decir del rango y la signatura en ese caso?
Solución. (i) Suponemos que q cambia de signo y vamos a comprobar que ϕ tiene
vectores isótropos. Sean u, v ∈ E tales que q(u) > 0 y q(v) < 0. Probaremos que
existe t ∈ R tal que el vector w = tu + v es isótropo. Esto equivale a que w no sea
nulo y cumpla
(ii) Suponemos de nuevo que q cambia de signo. Entonces, respecto de unas coor-
denadas adecuadas, se escribe
q(x) = x21 + · · · + x2s − x2s+1 − · · · − x2r ,
con s > 0, r − s > 0. Resulta que tomando x1 = xs+1 y todas las demás coordenadas
nulas obtenemos vectores isótropos.
En fin, podemos concluir que ϕ no tiene vectores isótropos exactamente cuando
es no degenerada y la signatura es extremal (nula o igual a la dimensión).
máx{r − sϕ , sϕ } = máx{r − sψ , sψ }.
Número 15. Sean A y B dos matrices cuadradas regulares del mismo orden con
coeficientes complejos, no necesariamente simétricas. Demostrar que A y B son con-
gruentes si y sólo si los productos At A−1 y B t B −1 son semejantes.
Solución. Suponemos primero que A y B son congruentes: A = C t BC para cierta
matriz regular C. Entonces At = C t B t C y A−1 = C −1 B −1 (C t )−1 , luego
Soluciones §18
Número 1. Sea A ∈ Mn (R) una matriz de rango r.
(1) Demostrar que la matriz At A define una forma cuadrática semidefinida posi-
tiva de rango r.
(2) Deducir que la matriz M = In + At A define un producto escalar.
(3) Aplicar (2) para mostrar que en el caso K = R el sistema del ejercicio 11 de
la lección I.3, vol. 1, p. 43, nunca es compatible indeterminado.
(4) Encontrar un ejemplo de que (3) no vale para K = C.
Solución. (1) Denotemos hx, yi el producto escalar estándar en Rn . Entonces:
pues ambos sumandos son ≥ 0. Y la igualdad sólo se da si xxt = xAt Axt = 0, esto
es, si x = 0.
(3) En la solución de aquel ejercicio (lección I.3, vol. 1, p. 108) se concluı́a que
si el sistema tenı́a solución pero no única, entonces el determinante de cierta matriz
I + At A debı́a ser nulo. Esto es imposible para K = R, pues tal determinante es el de
un producto escalar, luego > 0.
(4) Lo anterior no vale para K = C pues hay muchas matrices
√ complejas de la
forma In + At A con determinante nulo. Tómese por ejemplo A = −1I (y, por com-
pletar los datos del problema en cuestión, B = C = 0).
Apéndice: Soluciones §18 253
rg(ϕ) = dim(ker(f )) = n − 5.
Para u = (1, 1, 1, 1), obtenemos p(u) = (1−a, 1+a−b, 1−a−b, 1+2a), y sustituyendo
en las ecuaciones de V :
(
0 = (1 − a) − (1 + a − b) + (1 − a − b) − 2(1 + 2a) = −1 − 7a,
0 = (1 + a − b) + (1 − a − b) = 2 − 2b,
Deducir que el producto vectorial no depende de la base salvo producto por ±1, y
que esta ambigüedad se resuelve mediante la condición de signo
det{u × v, u, v} > 0.
Solución. Supongamos primero que {u, v} son dependientes. Podemos entonces su-
poner que v = au para cierto a ∈ R, de modo que
Por tanto, supondremos en lo que sigue que los vectores {u, v} son independientes.
Sea B = {w1 , w2 , w3 } una base ortonormal de un espacio euclı́deo E de dimensión 3.
Denotamos x = (x1 , x2 , x3 ) e (y1 , y2 , y3 ) las coordenadas de u y v respecto de esta
base, de modo que las coordenadas del producto vectorial ϑ = u × v son
x2 x3 x1 x3 x1 x2
z1 = det , z2 = − det , z3 = det .
y2 y3 y1 y3 y1 y2
Apéndice: Soluciones §18 255
Para calcular a basta multiplicar escalarmente por ϑ los dos miembros de la igualdad
u = aϑ + w. Se tiene ası́,
hϑ, ui = hϑ, aϑ + wi = ahϑ, ϑi = akϑk2 ,
1
es decir, a = kϑk 2 hϑ, ui. Si u es proporcional a ϑ no hay que hacer nada más, pues
u × (v × w) + w × (u × v) + v × (w × u) = 0.
Solución. Según el ejercicio número 7 de esta lección, vol. 2, p. 194, se cumplen las
igualdades
u × (v × w) = hu, wiv − hu, viw,
w × (u × v) = hv, wiu − hu, wiv,
v × (w × u) = hu, viw − hv, wiu,
y se advierte que los seis sumandos de los segundos miembros se cancelan de dos en
dos, luego la suma es nula.
w1 = v1 × u = v1 × av1 + v1 × (cv1 × w1 )
= chv1 , w1 iv1 − chv1 , v1 iw1 = −ckv1 k2 w1 ,
258 IV. Formas bilineales y formas cuadráticas
Buscamos ahora (x, y, z) ∈ X con las tres coordenadas no nulas. Aplicando la de-
sigualdad de Cauchy-Schwarz a los vectores w = (x, y, z) y u = (1, 1, 1), resulta
2
(x + y + z) = hu, wi2 ≤ ku k2 kw k2 = 3 x2 + y 2 + z 2 = 1,
y como x2 y 2 + x2 z 2 + y 2 z 2 ≥ 0,
3
x2 y 2 + x2 z 2 + y 2 z 2 = xyz (x + y + z) ≤ xyz (x + y + z) .
Apéndice: Soluciones §18 259
Número 12. La Universidad organiza una fiesta, al comienzo del curso académico,
a la que están invitados todos los estudiantes del programa Erasmus. En ella, dos de
un mismo paı́s no se saludan, pues ya se conocen, mientras que dos de paı́ses distintos
pueden saludarse o no, pero en el primer caso una única vez. A la fiesta asisten, en
total, m estudiantes de n paı́ses diferentes. Demostrar que el número total de saludos
1
no excede de 2n m2 (n − 1). ¿Qué ha de suceder para que se alcance ese valor máximo?
Solución. Numeramos los paı́ses de procedencia de los estudiantes y denotamos
xi el número de asistentes del paı́s i-ésimo. Sin la restricción de no Psaludar a los
n
compatriotas, el número máximo s de saludos serı́a m
2 , donde m = i=1 xi es el
número
Pn total de estudiantes que participan en la fiesta. Pero a éstos hay que quitar la
suma i=1 x2i de saludos intercambiados por personas procedentes del mismo paı́s.
Por tanto,
X n n
m xi X
= 12 m(m − 1) −
s≤ − xi (xi − 1)
2 i=1
2 i=1
n
X n
X
= 1
2 m2 − m − x2i + m = 21 m2 − x2i .
i=1 i=1
x2i ≥
P
Ahora, IV.18.12(5), vol. 2, p. 192, compara las medias aritmética y cuadrática: i
1
P 2
n i xi = n1 m2 , y sustituyendo este valor en la desigualdad inicial:
s ≤ 12 m2 − n1 m2 = 2n 1
m2 (n − 1),
Número 13. Sea Sn (R) el espacio vectorial formado por las matrices simétricas de
orden n > 1 con coeficientes reales, e I la matriz identidad de orden n.
(1) Comprobar que
y en consecuencia
n
X X n
n X n X
X n
hA, Bi = tr(AB) = cii = aik bki = bik aki = hB, Ai.
i=1 i=1 k=1 k=1 i=1
Por último, dada una matriz simétrica no nula A = (aij ), empleamos la fórmula
anterior para obtener
X n
n X n X
X n
hA, Ai = aik aki = a2ik ≥ 0.
i=1 k=1 i=1 k=1
Número 14. (1) Obtener una base ortonormal de R4 que contenga un número
máximo de vectores del hiperplano H cuya ecuación implı́cita respecto de la base
estándar E4 = {e1 , e2 , e3 , e4 } es x1 + x4 = x2 + x3 .
(2) Calcular el mı́nimo de las longitudes de las proyecciones ortogonales sobre H
de los vectores unitarios que forman ángulo de 60o con los vectores e1 y e2 , y los
vectores para los que se alcanza ese mı́nimo.
Solución. (1) Como dim(H) = 3, se trata de añadir a una base ortonormal de H
un vector unitario de H ⊥ . Por simple inspección se observa que los siguientes tres
vectores son unitarios, ortogonales dos a dos y pertenecen a H:
P4 P3
Puesto que la proyección ortogonal de u = i=1 yi ui sobre H es p(u) = i=1 yi ui ,
la función que debemos minimizar en ese conjunto es
q q
f (y) = kp(u)k = y12 + y22 + y32 = 1 − y42 ,
o sea, que debemos maximizar g(y) = y42 . Para ello manipulamos las ecuaciones
anteriores. Despejando y1 e y2 en las dos lineales, y sustituyendo en la cuadrática,
resulta: −2y3 + 2y32 + 2y42 = 0, esto es, g(y) = y42 = y3 (1 − y3 ). Ası́ pues, hay que
maximizar el producto y3 (1 − y3 ) de dos cantidades que suman 1; es bien sabido que
el valor máximo se alcanza cuando ambos factores coinciden, o sea y3 = 12 . Por tanto
q √
y42 = 14 y el valor mı́nimo de f es m = 1 − 14 = 23 .
De hecho hemos calculado también los puntos en que f alcanza su valor mı́nimo:
y3 = 21 e y4 = ± 12 , luego
(√ √
√ 1 1
√ 1 1
2y1 = 1, 2y2 = 0 y1 = √12 , y2 = 0, o
2y1 + 2 ∓ = 1,
2 2y2 + 2 ± =1
2
√ √
2y1 = 0, 2y2 = 1 y1 = 0, y2 = √12 .
√
En consecuencia, f alcanza su valor mı́nimo 23 para
y = √12 , 0, 12 , 12 , 0, √12 , 12 , − 12 ,
4
P
y los vectores unitarios u = i yi ui ∈ R cuyas proyecciones ortogonales sobre el
hiperplano H tienen norma mı́nima son
u = 12 (1, 1, 1, −1), 1
2 (1, 1, −1, 1).
Número 15. Una norma en un espacio vectorial real E es una aplicación k·k : E →
R que cumple las tres propiedades (1), (2) y (3) de IV.18.11, vol. 2, p. 190. Demostrar
que si además cumple la ley del paralelogramo (IV.18.12(2), vol. 2, p. 192), entonces
es la norma asociada a un producto escalar de E.
Solución. Supongamos que la norma proviene de un producto escalar h·, ·i. Entonces
q = k · k2 es la forma cuadrática asociada a h·, ·i, y
Ası́ pues, se trata de que la última fórmula defina verdaderamente un producto escalar
(pues entonces hu, ui = kuk2 ). Como la simetrı́a es obvia y hu, ui = kuk2 > 0 si u 6= 0,
lo sustancial es la bilinealidad.
Apéndice: Soluciones §18 263
Esto significa que se conserva la suma en la segunda variable, y por simetrı́a también
en la primera.
Queda estudiar el producto por escalares. Veamos primero que hλu, vi = λhu, vi
para λ = k entero. Para k = −1 basta escribir las definiciones:
h−u, vi = 14 (k − u + vk2 − k − u − vk2 ) = −hu, vi,
ası́ que suponemos k ≥ 0, y razonamos por inducción:
hku, vi = hu+(k−1)u, vi = hu, vi+h(k−1)u, vi = hu, vi+(k − 1)hu, vi = khu, vi.
k
Visto esto, sea λ = m un número racional. Entonces
k 1 1
hλu, vi = h m u, vi = kh m u, vi = λmh m u, vi = λhu, vi.
Para terminar, hay que probar lo mismo para λ ∈ R arbitrario. Pero esto es una
cuestión de continuidad. Fijados u, v ∈ E, la función
h : R → R : λ 7→ hλu, vi
coincide en los racionales con la multiplicación por el número real hu, vi, luego si es
continua, por paso al lı́mite coincide siempre.
Para ver que h es continua usamos la desigualdad de Cauchy-Schwarz, que se
cumple como consecuencia de la desigualdad triangular:
4hu, vi = ku + vk2 − ku − vk2 ≤ (kuk + kvk)2 − (kuk − kvk)2 = 4kukkvk.
Por tanto, dados λ, µ ∈ R se tiene
|h(λ) − h(µ)| = |hλu, vi − hµu, vi| = |h(λ − µ)u, vi|
≤ k(λ − µ)ukkvk = |λ − µ|kukkvk.
Por tanto, si |λ − µ| es suficientemente pequeño, |h(λ) − h(µ)| es tan pequeño como
queramos. Esto es, h es continua como se querı́a.
264 IV. Formas bilineales y formas cuadráticas
Soluciones §19
Número 1. Se consideran las rectas de R3 de ecuaciones:
L1 : y = z = 0, L2 : x = 4y − 3z = 0, L3 : 3x + 5y = 3y + 4z = 0,
25
Pero además, w y f (w) deben tener la misma norma: 5 = kwk = kf (w)k = 4 |b|, de
manera que
f (w) = ±(3, 16 12
5 , − 5 ).
Los primeros tres vectores forman una base ortogonal B, y sus imágenes otra B0 , y
además las normas se conservan. Ası́ pues tenemos efectivamente cuatro endomor-
fismos ortogonales f según la elección de los signos. Las distinguimos escribiendo
B0+,+ , B0+,− , B0−,+ , B0−,− .
Apéndice: Soluciones §19 265
Para clasificar los cuatro endomorfismos que han resultado, observamos que:
f
det(B) < 0 −→ det(B0+,+ ) < 0, det(B0+,− ) > 0, det(B0−,+ ) > 0, det(B0−,− ) < 0,
hv, τ (v)i 1
cos θ = =− .
kvkkτ (v)k 2
Que σ 0 sea una simetrı́a ortogonal respecto de un plano significa que λ = 1 es auto-
valor, y que sus autovectores forman un plano, que será el plano respecto al que se
hace la simetrı́a. Pero en efecto, la matriz M 0 − I corresponde al sistema
−x + 2y − z = 0,
2x − 4y + 2z = 0,
−x + 2y − z = 0,
Número 4. Sea B = {u1 , . . . , un } una base del espacio euclı́deo E. Demostrar que
la base ortonormal B0 = {v1 , . . . , vn } producida por el método de Gram-Schmidt a
partir de B está caracterizada (entre las ortonormales) porque para cada k = 1, . . . , n,
es L[u1 , . . . , uk ] = L[v1 , . . . , vk ], y en ese espacio las bases {u1 , . . . , uk } y {v1 , . . . , vk }
definen la misma orientación.
Solución. Que la base B0 satisface las condiciones del enunciado es ya conocido.
Probaremos por inducción sobre n = dim(E) que estas condiciones la caracterizan. Si
n = 1 sólo hay que observar que el único vector unitario proporcional a u1 y con su
mismo sentido es v1 = kuu11 k .
Supongamos probado el resultado en espacios de dimensión < n, y sea E de
dimensión n. En particular, B01 = {v1 , . . . , vn−1 } es la única base ortonormal de
E1 = L[u1 , . . . , un−1 ] cumpliendo que para cada k = 1, . . . , n − 1, es L[u1 , . . . , uk ] =
L[v1 , . . . , vk ] y en ese espacio las bases {u1 , . . . , uk } y {v1 , . . . , vk } definen la misma
orientación. Por tanto si una base de E cumple las condiciones del enunciado, ha de
ser de la forma B00 = {v1 , . . . , vn−1 , ϑ} para cierto vector ϑ, y hemos de probar que
ϑ = vn .
Como ϑ ∈ E \ E1 es ortogonal a cada vi , ha de ser proporcional a un vector de la
268 IV. Formas bilineales y formas cuadráticas
forma
n−1
X
w= λi vi + un
i=1
La clasificación IV.19.9, vol. 2, p. 203, dice de qué tipo es σ según sus autovalores
λ, que se calculan muy fácilmente para cada terna ε = (ε1 , ε2 , ε3 ). Excluyendo las
simetrı́as especulares, que tienen un autovalor doble λ = +1, queda la siguiente tabla:
Ası́ tenemos: dos simetrı́as axiales, dos rotaciones, y dos composiciones de rotación y
simetrı́a especular.
0 = hu + σ(u), u − σ(u)i
= hu, ui + hσ(u), ui − hu, σ(u)i − hσ(u), σ(u)i = kuk2 − kσ(u)k2 ,
σ(ui ) = −ui + λi u1 .
Ahora usamos que σ conserva las normas. Para i > 1 debe ser
1 = kσ(u1 )k = k − u1 + λ1 u1 k = |1 − λ1 |,
Visto esto, la igualdad im(f ) = ker(f )⊥ se deduce de que ambos subespacios tienen
la misma dimensión (la codimensión de ker(f )).
Se deduce que im(f k ) ∩ ker(f ) ⊂ im(f ) ∩ ker(f ) = {0}, luego la restricción f | :
im(f k ) → im(f k+1 ) ⊂ im(f k ) es inyectiva, de modo que
esto es im(f k ) = im(f k+1 ) y rg(f k ) = rg(f k+1 ). De ahı́ que todas las potencias de f
tengan el mismo rango.
Para determinar el valor de c empleamos que (2, −2, −1) es autovector de f , es decir,
existe λ ∈ R tal que
2 2 0
λ −2 = M −2 = 0 ,
−1 −1 4−c
y entre ellos elegimos u2 = (0, 1, −1), para el que q(u2 ) = 6. Los vectores (x, y, z)
conjugados de u2 respecto de ϕ vienen dados por
x
0 = (0, 1, −1)A y = 2y − 4z,
z
C t M k C = C −1 M k C = (C −1 M C)k = Dk
Número 11. En lo que sigue, α es un número real en el intervalo [−1, 1]. Sea ϕα
la forma bilineal simétrica de R3 cuya matriz respecto de la base estándar es
−1 0 0
Aα = 0 1 1 + α .
0 1+α 1
Pero como det(h) = det(Mh (E3 )) = 1, vemos que es un giro cuyo eje es la recta
generada por el autovector (1, 0, 0) asociado al autovalor λ = 1. El ángulo θ del giro,
que hemos convenido situar entre 0 y π, es el que forma con su imagen cualquier
vector ortogonal al eje; por ejemplo, para w = (0, 0, 1) tenemos h(w) = √12 (0, 1, 1), y
hw, h(w)i 1 π
cos θ = =√ , luego θ= .
kwkkh(w)k 2 4
Pθ (T ) = T (1 − T )(T − 2),
que no depende de θ y tiene dos raı́ces positivas y una nula, esto es, el rango y la
signatura son ambos siempre 2.
Sea fθ el endomorfismo de R3 cuya matriz respecto de la base estándar es Aθ .
El teorema espectral nos dice que hay una base ortonormal B de R3 formada por
autovectores de fθ , y una tal base es la que buscamos. Como los autovalores de fθ
son λ = 0, 1, 2, los tres simples, cada λ tiene una recta de autovectores Lλ :
(i) Para λ = 0 la recta tiene ecuaciones x cos θ + y = x sen θ + z = 0. Una solución
es (1, − cos θ, − sen θ) y u = √12 (1, − cos θ, − sen θ) es unitario.
Pn
Número 13. Consideramos números reales a1 , . . . , an tales que i=1 a2i = 1. Sean
I = (δij ) la matriz identidad y A = (aij ) la matriz definida por aij = ai aj . Demostrar
que la matriz 2A − I es ortogonal. ¿Qué endomorfismo ortogonal de Rn define?
Solución.
Pn Consideramos a = (a1 , . . . , an ) ∈ Rn , de modo que at a = A y aat =
2
i=1 ai = 1. Resulta:
Deducimos que las imágenes σ(∆ij ) constituyen una base ortonormal si y sólo si
(
0 si k 6= i,
cki =
1 si k = i.
Pero esto es decir que la matriz C = M t M es la identidad, o sea, que M sea ortogonal.
Por resumir todo en una frase, σ es un endomorfismo ortogonal si y sólo si M es
una matriz ortogonal.
Soluciones §20
Número 1. Demostrar las siguientes igualdades para una matriz A ∈ Mn (C):
Número 3. Probar con todos los detalles que los rangos de las dos polares de una
forma sesquilineal ϕ coinciden, y coinciden con el rango de una cualquiera de las
matrices de ϕ.
Solución. Podemos suponer que ϕ es una forma sesquilineal de E = Cn y denotamos
M la matriz de ϕ respecto de una base cualquiera de E. Denotamos las polares de ϕ
mediante
∗
ϕ1 : E → E : y 7→ ϕ( · , y) y ϕ2 : E → E ∗ : x 7→ ϕ(x, · ).
Resulta entonces:
(i) y ∈ ker(ϕ1 ) si y sólo si xM y t = 0 para todo x ∈ E, si y sólo si M y t = 0, que
por tanto son unas ecuaciones de ker(ϕ1 ) ⊂ E, y dim ker(ϕ1 ) = n − rg(M ).
(ii) x ∈ ker(ϕ2 ) si y sólo si xM y t = 0 para todo y ∈ E, si y sólo si xM = 0.
Usando el producto por escalares ? de E, vemos que M t?xt = 0 son unas ecuaciones
de ker(ϕ2 ) ⊂ E. Ası́ dim ker(ϕ2 ) = n − rg(M t ) = n − rg(M ).
Lo anterior muestra que el rango de ambas polares es el mismo, el de la matriz
M de ϕ. En particular, rg(ϕ) está bien definido.
√ √
(2) El número de −1’s y el de − −1’s que aparecen en la diagonal de una forma
sesquilineal antihermı́tica no dependen de la base utilizada para clasificarla.
Solución. (1) Sean ϕ una forma sesquilineal hermı́tica de un espacio complejo E y
B1 = {u1 , . . . , un } y B2 = {v1 , . . . , vn } dos bases de E que diagonalizan ϕ mediante
1’s, −1’s y 0’s. Denotemos s, t el número de 1’s en Mϕ (B1 ) y Mϕ (B2 ), respectivamente.
Es suficiente demostrar que s ≤ t, pues cambiando los papeles de ambas bases se
deduce la otra desigualdad.
Reordenando las bases si es preciso podemos suponer que ϕ(ui , ui ) = 1 para
1 ≤ i ≤ s, mientras que ϕ(vj , vj ) = 1 para 1 ≤ j ≤ t. Afirmamos que
L[u1 , . . . , us ] ∩ L[vt+1 , . . . , vn ] = {0}.
P P
En efecto, si w = i≤s αi ui = j>t βj vj , entonces
( P
αi ui , i≤s αi ui = i≤s |αi |2 ,
P P
ϕ(w, w) = ϕ
Pi≤s P P 2
ϕ(w, w) = ϕ j>t βj vj , j>t βj vj = − j>t |βj | ,
2 2
P P
luego i≤s |αi | = − j>t |βj | , y todos los αi , βj son nulos. Por tanto w = 0 y
nuestra afirmación queda probada.
En fin, contando dimensiones mediante la fórmula de Grassmann, s + (n − t) ≤ n,
o sea, s ≤ t.
(2) La segunda parte es consecuencia
√ inmediata de la primera teniendo en cuenta
que ϕ es antihermı́tica si y sólo si −1ϕ es hermı́tica.
Elegimos v = (2i, −1, 0), para el que ψ(v, v) = 4. Ahora, L[v]0 está definido por
−1 −2i 0 x1
(−2i, −1, 0) 2i 0 −ix2 = 0 −4x2 + ix3 = 0.
0 i −2 x3
Por tanto, las ecuaciones de L[u]0 ∩ L[v]0 son x1 + 2ix2 = −4x2 + ix3 = 0, por lo que
tomamos w = (2i, −1, 4i), y se comprueba que ψ(w, w) = −36.
Ası́, la matriz de ψ respecto de la base {u, v, w} es diagonal, con diagonal −1, 4,
−36. Por tanto la forma hermı́tica ψ tiene rango 3 y signatura 1. Respecto de esa
misma base la matriz de ϕ = −iψ es diagonal, con diagonal i, −4i, 36i. En suma,
existe una base que diagonaliza ϕ de modo que en la diagonal hay dos i y un −i.
Puesto que σ es lineal, σ(u) + σ(v) = σ(u + v), y como σ conserva la norma se deduce
de las igualdades anteriores que <hu, vi = <hσ(u), σ(v)i.
√
Ahora aplicamos lo anterior a los vectores u y −1v. Como σ es lineal y h·, ·i es
lineal respecto de la segunda variable, deducimos:
( √ √
<hu, −1vi = <( −1hu, vi) = −=hu, vi,
√ √ √
<hu, −1vi = <hσ(u), σ( −1v)i = <( −1hσ(u), σ(v)i) = −=hσ(u), σ(v)i.
C = C(B, E) = √1 √1 i √1 .
6 2 3
√1 i √1 √1 i
6 2 3
que es una combinación lineal real, luego válida en ER . Ası́ queda probado que
u1 , iu1 , . . . , un , iun generan ER . Para ver que son independientes, consideremos una
combinación lineal real nula
X X
αk uk + βk (iuk ) = 0.
k k
Denotando
P λk = αk + iβk podemos reescribirla como la combinación lineal compleja
λ u
k k k = 0, y como los uk son independientes en E, concluimos que los coeficientes
Apéndice: Soluciones §20 283
complejos λk son todos nulos, luego lo son sus partes reales αk y sus partes imaginarias
βk . Hemos probado la independencia.
Analicemos ahora las matrices de f y fR respecto de las dos bases dadas. La matriz
M de f respecto de B es una matriz con n2 coeficientes complejos λk` = αk` + iβk` .
Entonces
( P P P
f (u` ) = k λk` uk = k (αk` + iβk` )uk = k αk` uk + βk` (iuk ) ,
P
f (iu` ) = if (u` ) = k −βk` uk + αk` (iuk ) .
Número 13. Expresar matricialmente los resultados del problema anterior para
obtener un homomorfismo inyectivo U (n) → SO(2n). Mostrar que es un isomorfismo
para n = 1, pero no para n > 1.
Solución. El homomorfismo U (n) → SO(2n) es el que se detalló en los dos proble-
mas anteriores: M 7→ MR , donde√MR se obtiene a partir de M reemplazando cada
coeficiente λk` = αk` + iβk` (i = −1) por la caja
αk` −βk`
(∗) .
βk` αk`
Esta afirmación se justifica porque si B es una base ortonormal de un espacio hermı́tico
E, entonces BR lo es del espacio euclı́deo subyacente ER . En efecto, el quid está en
que: ϕR (u, iu) = <ϕ(u, iu) = < iϕ(u, u) = 0, por ser ϕ(u, u) un número real.
Dicho lo anterior de modo tan abstracto, podemos ser más explı́citos. La identi-
ficación usual z = x + iy ≡ (x, y) de números complejos con puntos del plano real se
extiende de muchas maneras a una identificación entre Cn y R2n . Elegimos la siguiente
muy natural:
Cn ≡ R2n : z = (z1 , . . . , zn ) ≡ (x, y) = (x1 , y1 , . . . , xn , yn ), zk = xk + iyk .
Consideramos la base estándar E = {ek } de Cn , y resulta que la base asociada ER =
{ek , iek } es precisamente la base estándar de ER = R2n :
(k) (k)
ek = (0, . . . , 1 , . . . , 0) ≡ (0, 0, . . . , 1, 0, . . . , 0, 0),
(k) (k)
iek = i(0, . . . , 1 , . . . , 0) ≡ (0, 0, . . . , 0, 1, . . . , 0, 0).
Por tanto, a la matriz M de f ∈ U (Cn ) respecto de E le asignamos la matriz MR de
fR ∈ SO(R2n ) respecto de ER .
Para n = 1 los endomorfismos ortogonales de R2 (≡ C) que conservan la orien-
tación son los giros, cuyas matrices son precisamente las cajas (∗) de más arriba,
Apéndice: Soluciones §20 285
Qn 2
Q
por lo que det(M ) = j=1 cjj ≤ j mjj .
(2) La matriz M = A AQ= (mij ) es hermı́tica, pues (A∗ A)∗ = A∗ A. Por el
∗
Número 15. Demostrar que una matriz A ∈ Mn (C) factoriza como producto A =
QM de una matriz hermı́tica M y una unitaria Q. ¿Es única tal factorización?
Solución. Trataremos primero el caso en que A es regular. Supongamos halladas Q
y M . Entonces
A∗ A = M ∗ Q∗ QM = M ∗ M = M 2 ,
por ser Q unitaria y M hermı́tica. Se trata pues de buscar una raı́z cuadrada de
A∗ A. Ahora bien, esta matriz es hermı́tica, y entendida como la matriz de una forma
sesquilineal de Cn tenemos
t
xA∗ Axt = Axt Axt = kAxt k2 ≥ 0.
Q∗ Q = (M ∗ )−1 A∗ AM −1 = M −1 M 2 M −1 = I.
h : E = W⊥ ⊕ W → V ⊕ V ⊥
1V, 2F, 3F, 4V, 5F, 6V, 7F, 8V, 9F, 10F,
11V, 12V, 13V, 14V, 15V, 16F, 17V, 18V, 19F, 20F,
21V, 22F, 23V, 24F, 25F, 26F, 27V, 28V, 29F, 30V,
31V, 32V, 33F, 34V, 35F, 36F, 37F, 38V, 39F, 40V,
41V, 42F, 43V, 44V, 45V, 46F, 47F, 48V, 49F, 50F.
Lecturas ulteriores
3. Otro asunto esencial que hemos estudiado son las formas cuadráticas.
En realidad la teorı́a de formas cuadráticas tiene una importancia capital en
289
290 Lecturas ulteriores
T.Y. Lam: The algebraic theory of quadratic forms (2nd edition). Reading,
Massachusetts: Addison Wesley 1980.
4. En este libro hemos tratado las aplicaciones lineales y las bilineales, pero
también el determinante, que hemos calificado de multilineal. En realidad, lo
que procede a continuación es estudiar álgebra multilineal. Se puede leer una
presentación resumida mı́nima en un par de lecciones del primero de los libros
siguientes, pero para un desarrollo completo sugerimos los otros dos:
293
294 Sı́mbolos
t
C∗ = C 215
M 0 = C ∗M C 215
det(M 0 ) = | det(C)|2 det(M ) 216
(AB)∗ = B ∗ A∗ 216
A∗∗ = A 216
M∗ =M 216
M ∗ = −M 216
mii = ϕ(ui , ui ) ∈ R 217
ϕ(λui , λui ) = |λ|2 mii 217
xxt = |xP 2
1 | + · · · + |xn |
2
217
hx, yi =
pPxi yi 217
kxk = |xi |2 217
∗
C C=I 218
U (E) 219
SU (E) 219
U (n) 219
SU (n) 219
ER 221
fR 221
BR = {u1 ,iu1 , . . . ,un ,iun } 221
det(fR ) = |det(f )|2 221
rad(ϕ) 237
rg(A) = rg(At A) 250
Índice
Ángulo de dos hiperplanos, 192 Cálculo de autovalores, 6
Ángulo de una recta y un subespacio, Cálculo de hiperplanos invariantes, 20
191 Cambio de base de la matriz de una
Asociatividad del producto vectorial, forma bilineal, 161
194 Cambio de base de la matriz de una
Autovalor, 2 forma sesquilineal, 215
Autovalor imaginario de un endomor- Cambios de signo en la sucesión de coe-
fismo real, 12, 69 ficientes, 209
Autovalores de un endomorfismo auto- Canonicidad de las formas de Jordan,
adjunto de un espacio euclı́deo, 48, 74
205 Caracterización de la congruencia por
Autovalores de un endomorfismo auto- semejanza, 182
adjunto de un espacio hermı́ti- Caracterización de la signatura median-
co, 220 te isotropı́a, 182
Autovalores reales de un endomorfismo Caracterización de la signatura median-
ortogonal, 201 te subespacios, 181
Autovector, 2 Clasificación de formas bilineales, 167
Autovectores independientes, 3 Clasificación por congruencia de matri-
ces ortogonales, 212
Base de Jordan, 34, 36 Clasificación de endomorfismos reales
Base de Jordan real, 72 mediante formas de Jordan com-
Base negativa, 199 plejas, 60
Base ortogonal, 186 Clasificación de endomorfismos, 14
Base ortonormal, 186 Clasificación de endomorfismos ortogo-
Base positiva, 199 nales, 200
Bases con la misma orientación, 198 Clasificación de formas bilineales anti-
Bases de Jordan de autovalores conju- simétricas, 177
gados, 71 Clasificación de formas bilineales simé-
tricas complejas, 174
Caja de Jordan, 36 Clasificación de formas bilineales simétri-
Cajas de Jordan de autovalores conju- cas reales, 174
gados, 71 Clasificación de formas sesquilineales,
Cálculo completo de invariantes en el 216
caso complejo, 29
297
298 Índice
Valor propio, 2
Vector anisótropo de una forma bili-
neal, 158
Vector anisótropo de una forma sesqui-
lineal, 215
Vector isótropo de una forma bilineal,
158
Vector isótropo de una forma sesquili-
neal, 215
Vector propio, 2
Vector unitario, 186
Vectores conjugados respecto de una
forma bilineal simétrica o an-
tisimétrica, 167
Vectores conjugados respecto de una
forma sesquilineal hermı́tica o
antihermı́tica, 216
Vectores ortogonales, 185