Está en la página 1de 152

Algebra Multilineal y Formas Canónicas

Universidad Nacional de Colombia - Sede Medellı́n

David Blázquez-Sanz

Semestre 2021-02
Índice general

1. Espacios vectoriales 5
1.1. Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1. El cuerpo base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2. Espacio vectorial: definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3. K-álgebras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.4. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.5. Generadores, bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.6. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.7. ¿Qué pasa con los A-módulos? . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.8. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.9. Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.10. Suma e intersección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.11. Subvariedades lineales afines y cocientes . . . . . . . . . . . . . . . . . . . . . 17
1.1.12. Restricción de escalares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.1. Categorı́as . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.2. Matrices con coeficientes en K . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.3. Transformaciones lineales: definición y ejemplos . . . . . . . . . . . . . . . . . 22
1.2.4. Matriz de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . 25
1.2.5. Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2.6. Secuencias exactas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.3. Espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.3.1. Reflexividad y fórmulas de dualidad . . . . . . . . . . . . . . . . . . . . . . . 33
1.3.2. El espacio incidente o anulador . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.3.3. La transformación transpuesta . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.4. Sumas, productos, lı́mites directos e inversos . . . . . . . . . . . . . . . . . . . . . . 40
1.4.1. Producto directo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.4.2. Suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.4.3. Limı́tes dirigidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.4.4. Lı́mites inversos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.5. Variedades Grassmanianas y espacios proyectivos . . . . . . . . . . . . . . . . . . . . 42
1.5.1. Transformaciones inducidas entre las variedades Grassmanianas . . . . . . . . 42
1.5.2. Espacio proyectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.5.3. Coordenadas homogéneas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

1
1.5.4. Descomposición del espacio proyectivo . . . . . . . . . . . . . . . . . . . . . . 46
1.5.5. Subvariedades lineales del espacio proyectivo . . . . . . . . . . . . . . . . . . 46
1.5.6. Homogeneización y deshomogeneización . . . . . . . . . . . . . . . . . . . . . 47
1.5.7. Fórmula de la dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
1.5.8. Coordenadas pluckerianas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
1.5.9. Dualidad proyectiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.6. El grupo lineal, afı́n y proyectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1.6.1. Transformaciones afines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1.6.2. Transformaciones proyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
1.6.3. La razón doble o cruzada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

2. Multilinealidad en espacios vectoriales 55


2.1. Transformaciones multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.1.1. Transformaciones bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.1.2. Tensores métricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.1.3. Construcción del producto tensorial por dualidad . . . . . . . . . . . . . . . . 60
2.1.4. Propiedades del producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . 61
2.1.5. Restricción y extensión de escalares . . . . . . . . . . . . . . . . . . . . . . . 62
2.1.6. Transformaciones multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.2. Tensores en un espacio vectorial de dimensión finita . . . . . . . . . . . . . . . . . . 65
2.2.1. Coordenadas tensoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.2.2. Contracción de ı́ndices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.2.3. Álgebra tensorial covariante y contravariante . . . . . . . . . . . . . . . . . . 68
2.2.4. Pull-back y push-forward de tensores . . . . . . . . . . . . . . . . . . . . . . . 69
2.3. Tensores alternados y simétricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.3.1. Acción por transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 72
2.3.2. Operador de alternancia (char(K) = 0) . . . . . . . . . . . . . . . . . . . . . . 73
2.3.3. Operador de simetrización (char(K) = 0) . . . . . . . . . . . . . . . . . . . . 74
2.3.4. El producto cuña (char(K) = 0) . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.3.5. Producto simétrico (char(K) = 0) . . . . . . . . . . . . . . . . . . . . . . . . . 79
2.3.6. Algebra exterior y simétrica (caso general y char(K) > 0) . . . . . . . . . . . 81
2.4. Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.4.1. Formas simétricas, polinomios, funciones polinomiales . . . . . . . . . . . . . 83
2.4.2. Subvariedades proyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

3. Problemas lineales de clasificación 86


3.1. Conceptos básicos de teorı́a de invariantes . . . . . . . . . . . . . . . . . . . . . . . . 86
3.1.1. Cocientes por grupoides . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.1.2. Cocientes por grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2. Clasificación de endomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.2.1. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.2.2. Conjugación de endomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.2.3. Polinomios caracterı́stico y anulador . . . . . . . . . . . . . . . . . . . . . . . 90
3.2.4. Suma directa y descomposición en bloques . . . . . . . . . . . . . . . . . . . . 91
3.2.5. Espacios cı́clicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.2.6. Subespacios propios generalizados . . . . . . . . . . . . . . . . . . . . . . . . 93

2
3.2.7. Teoremas de descomposición . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.2.8. Divisores elementales y factores invariantes . . . . . . . . . . . . . . . . . . . 97
3.2.9. Forma racional de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.2.10. Forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3. Clasificación de tensores métricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.3.1. Suma ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.3.2. Polaridad y radical . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.3.3. Métricas alternantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.3.4. Métricas simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.3.5. Métricas simétricas en cuerpos cerrados por la raı́z cuadrada . . . . . . . . . 105
3.3.6. Métricas simétricas reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.4. Teorema de descomposición espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.4.1. Estructura compleja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.4.2. Formas lineales y antilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
3.4.3. Formas sesquilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.4.4. Producto hermitiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.4.5. Descomposición ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.4.6. El grupo unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.4.7. Operadores auto-adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.4.8. Teorema de descomposición espectral . . . . . . . . . . . . . . . . . . . . . . . 115

4. Módulos y bimódulos sobre anillos 118


4.1. Generalidades sobre anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
4.2. Módulos por la izquierda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.2.1. Submódulos y cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.2.2. Morfismos de módulos izquierdos . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.2.3. Sumas y productos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.2.4. Modulos libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.2.5. Anillos y módulos noetherianos . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.2.6. Anuladores y torsiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.2.7. Rango y longitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
4.2.8. Producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
4.2.9. Producto tensorial y secuencias exactas . . . . . . . . . . . . . . . . . . . . . 133
4.3. Bimódulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.3.1. Producto tensorial de bimódulos . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.3.2. Restricción de escalares y producto tensorial . . . . . . . . . . . . . . . . . . 138
4.3.3. Producto tensorial de A-algebras . . . . . . . . . . . . . . . . . . . . . . . . . 139
4.3.4. Algebra tensorial sobre un A-bimódulo . . . . . . . . . . . . . . . . . . . . . . 139
4.4. Módulos sobre anillos conmutativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.4.1. Anillos conmutativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.4.2. Módulos sobre anillos conmutativos . . . . . . . . . . . . . . . . . . . . . . . 142
4.4.3. Módulos libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
4.4.4. Producto tensorial sobre anillos conmutativos . . . . . . . . . . . . . . . . . . 146
4.4.5. El álgebra exterior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.4.6. El álgebra simétrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
4.4.7. Dominios de ideales principales . . . . . . . . . . . . . . . . . . . . . . . . . . 148

3
4.4.8. Módulos sobre dominios de ideales principales . . . . . . . . . . . . . . . . . . 149

4
Capı́tulo 1

Espacios vectoriales

1.1. Definiciones básicas


Asumimos conocidas las nociones de grupo, grupo abeliano, anillo 1 , anillo conmutativo y cuerpo.
También se asume el conocimiento de morfismos de anillos y la definición de subanillo y de ideal,
aunque no se necesita demasiada familiaridad con estas nociones.

1.1.1. El cuerpo base


De ahora en adelante K un cuerpo. El ejemplo prototı́pico de cuerpo es Q, el cuerpo de los
números racionales. Sin embargo tenemos muchos otros ejemplos.
El cuerpo R de los números reales. Este cuerpo contiene a Q y esta caracterizado por ser
arquimediano y completo.
El cuerpo
√ C de los números complejos. Este cuerpo contiene a R y a la unidad imaginaria
i = −1. Es algebraicamente cerrado: todo polinomio no constante con coeficientes en C tiene
alguna raiz en C.
Dado un número primo p, el cuerpo Fp de congruencias módulo p.
Los cuerpos finitos Fq con q = pn para p un número primo.
Dado un cuerpo K el cuerpo K(x1 , . . . , xn ) de funciones racionales en n variables indepen-
dientes. Los elementos de K(x1 , . . . , xn ) son fracciones entre polinomios, con denominador no
nulo.
Cada cuerpo K tiene asociado un subcuerpo primo P ⊂ K que es el menor subcuerpo que contiene
a 0 y a 1. Este cuerpo primo siempre es Q o de la forma Fp donde p es un primo. Si el cuerpo primo
de K es Q decimos que K es de caracterı́stica 0. Si el cuerpo primo de K es Fp defimos que K es
de caracterı́stica p. La caracterı́stica también puede verse como el orden del grupo abeliano (K, +)
(donde orden infinito significa caracterı́stica 0) o el generador del núcleo del morfismo natural,
Z → K, 0 7→ 0, 1 7→ 1, 2 7→ 1 + 1, 3 7→ 1 + 1 + 1, . . .
1 En este curso, “anillo” significa “anillo unitario” salvo que se especifique lo contrario.

5
En álgebra lineal michı́simos resultados no dependen del cuerpo base. Es decir, podemos olvi-
darnos de qué es el cuerpo K y nos basta suponer que se trata de un cuerpo cualquiera.

1.1.2. Espacio vectorial: definición


Definición 1.1 Un K-espacio vectorial (en adelante sobreentenderemos el cuerpo base K) es una
estructura algebraica E dotada de dos operaciones, la suma,

E × E → E, (e, v) 7→ e + v,

y el producto por escalares,


K × E → E, (a, e) 7→ ae,
que verifican:

(i-ii-iii-iv) E es un grupo abeliano con la operación +.


(v) a(bv) = (ab)v .
(vi) (a + b)v = av + bv.
(vii) a(v + w) = av + aw.

(viii) 1v = v.

Los axiomas de espacio vectorial tienen una serie de implicaciones elementales como 0v = 0 y
(−1)v = −v para todo v ∈ E.

Ejemplo 1.2 Sea X un conjunto cualquiera y sea KX el conjunto de las funciones con dominio
X y codiminio K. Puede definirse la suma y el producto por escalares de funciones f, g : X → K,
λ ∈ K,
(f + g)(x) = f (x) + g(x), (λf )(x) = λ(f (x))
de esta manera KX es un espacio vectorial.

Ejemplo 1.3 Si partimos de un espacio vectorial E y X un conjunto cualquiera podemos formar


EX el conjunto de las funciones con dominio X y codiminio E. Exactamente de la misma manera,
puede definirse la suma y el producto por escalares de funciones. Para f, g : X → E, λ ∈ K,

(f + g)(x) = f (x) + g(x), (λf )(x) = λ(f (x))

de esta manera E X es un espacio vectorial.

Ejemplo 1.4 Sea X un conjunto. Llamamos una combinación lineal formal con coeficientes en K
de elementos de X a toda suma finita de la forma,
X
λi {xi }
finita

6
donde los escalares λi están en K y los elementos xi son todos elementos diferentes de X. Dos
combinaciones lineales formales pueden sumarse y multiplicarse por escalares de forma obvia, agru-
pando coeficientes de elementos iguales de X. De esta manera, el conjunto de las combinaciones
lineales formales ( )
X
FreeK (X) = λi {xi } | λi ∈ K, xi ∈ X
finita

es un espacio vectorial. El espacio libre generado por X. Observemos que es necesario considerar
una combinación formal nula 0 que no tiene ningún coeficiente.

Ejemplo 1.5 El ejemplo propotı́pico de espacio vectorial es el conjunto Kn de las n-tuplas de


elementos de K. Donde la suma en Kn se define componente a componente, y el producto de un
escalar por una tupla es simultáneo en todas las componentes. Existe la convención en algebra lineal
de representar las n-tuplas x̄ = (x1 , . . . , xn ) y ȳ = (y1 , . . . , yn ) como vectores columna.
         
x1 y1 x1 + y1 x1 ax1
 ..   ..   ..  .   . 
 . + . =  , a  ..  =  ..  .

.
xn yn xn + yn xn axn

Esta convención se justifica por la compatibilidad con en producto de matrices.

Ejemplo 1.6 Sean E y V espacios vectoriales. Entonces en el producto cartesiano E × V puede


definirse la suma y el producto por escalares de la siguiente manera:

(e, v) + (e0 , v 0 ) = (e + e0 , v + v 0 ), λ(e, v) = (λe, λv),

lo que dota a E × V de una estructura de espacio vectorial.

Breve incursión de los A-módulos


Veamos someramente un caso un poco más general. Sea A un anillo conmutativo con unidad.
Una estructura algebraica M dotada de dos operaciones, la suma,

M × M → M, (e, v) 7→ e + v,

y el producto por escalares,


A × M → M, (a, e) 7→ ae,
que verifican:
(i-ii-iii-iv) M es un grupo abeliano con la operación +.
(v) a(bv) = (ab)v .

(vi) (a + b)v = av + bv.


(vii) a(v + w) = av + aw.
(viii) 1v = v.

7
recibe el nombre de A-módulo. Es claro que en el caso particular en el que A es un cuerpo, A-
módulo significa lo mismo que A-espacio vectorial. Pero veremos que hay muchı́simos ejemplos muy
interesantes de módulos sobre anillos que no son cuerpos.

Ejemplo 1.7 Todo grupo abeliano admite una única estructura de Z-módulo. Sea M un grupo abe-
liano con la operación interna suma “+”. De las axiomas de Z-módulo tenemos que para cualquier
e ∈ M se tiene:
1e = e.
(1 + 0)e = e + 0e, de donde 0e = 0 ∈ M .
0 = (1 + (−1))e = e + (−1)e = 0 y por tanto (−1)e = −e.
Lo anterior debe ser cierto en cualquier posible estructura de Z módulo. Pero la propiedad distri-
butiva, ya nos permite definir el producto escalar de cualquier entero m por el elemento e. Veamos,
si m es un entero positivo, entonces:

me = (1 + . . . + 1)e = e + . . . + e .
| {z } | {z }
m veces m veces

−me = ((−1) + . . . + (−1))e = −e − . . . − e .


| {z } | {z }
m veces m veces

Ésta es la única manera posible de multiplicar enteros por elementos de un grupo abeliado. Por
tanto, todo grupo abeliano es un Z-módulo de una única y natural manera, y recı́procamente, por
definición todo Z-módulo es un grupo abeliano.

Ojo, que cualquier espacio vectorial, si nos olvidamos del cuerpo K, es también un Z-módulo.

1.1.3. K-álgebras
En muchas ocasiones, los espacios vectoriales que aparecerán en el desarrollo del curso, tienen
una estructura adicional.

Definición 1.8 Un anillo unitario A dotado de un morfismo de anillos i : K ,→ A se dice una


K-álgebra.

Una K-álgebra es automáticamente también un espacio vectorial, tomando la operación suma


de A y definiendo av = i(a)v. Es usual omitir la función i e interpretar que K es un subanillo de A.

Ejemplo 1.9 Conocemos, de hecho, varios ejemplos de K-álgebras.


(a) El anillo de polinomios K[x], en una o varias variables. Los elementos de K ⊂ K[x] son los
polinomios constantes.
(b) El anillo de series formalies K[[x]], en una o varias variables. Los elementos de K ⊂ K[[x]]
son las constantes.
(c) Para un conjunto X, el anillo KX donde la suma ya fue definida (ejemplo 1.3) y el producto
es (f g)(x) = f (x)g(x). Los elementos de K ⊆ KX son las funciones constantes.

8
(d) El anillo de series de potencias convergentes C{{z}} con coeficientes complejos.
(e) El anillo de funciones suaves C ∞ (U, R) con U ⊆ Rn .
(f ) El anillo de matrices cuadradas Mat(n×n, K). Un elementos a de K se interpretan en Mat(n×
n, K) como un múltiplo de la matriz identidad aIn .

1.1.4. Combinaciones lineales


Sea E un espacio vectorial y sea S un subconjunto de E. Una combinación lineal de elementos
de S es una suma finita, X
λi si ,
finita
donde los λi son elementos cualesquiera de K y los si son elementos de S. Notemos que existe
una diferencia entre la noción de combinación lineal y combinación lineal formal. Las combinacio-
nes lineales formales de elementos de S son elementos de FreeK (S) y son distintas de 0 excepto
aquella combinación nula cuyos coeficientes son todos cero. Para distinguir unas de otras puede ser
interesante substituir S por el conjunto S̃ = {{x} | x ∈ S} que está en biyección con el, pero sus
elementos ya no son vectores de E. Es decir, si x, y, z son elementos de S,
3x + 2y − 5z
es una suma de vectores, cuyo resultado es un elemento de E mientras que
3{x} + 2{y} − 5{z}
es una combinación lineal formal. Hay una función natural que consiste en evaluar las combinaciones
formales, X X
vS : FreeK (S) → E, λi {si } 7→ λi si .
finita finita

Definición 1.10 Un subconjunto S de E se dice K-linealmente independiente (L.I.) si el único


elemento de FreeK (S) cuya evaluación en E es el vector nulo es la combinación lineal formal nula.
En otro caso se dice K-linealmente dependiente (L.D.).
Ejercicio 1 Muestre que S es L.I. si y solo si la función de evaluación vS es inyectiva.

1.1.5. Generadores, bases


Definición 1.11 Un subconjunto V de E se llama un subespacio vectorial si es cerrado mediante
combinaciones lineales. Es decir, cualquier combinación lineal de elementos de V es un elemento
de V . Todo subespacio vectorial es ası́ mismo un espacio vectorial con las operaciones que hereda
mediante restricción de las operaciones de V .
Dado un subconjunto S ⊂ E, que no sea necesariamente un subespacio vectorial, podemos
considerar el conjunto de todas las combinaciones lineales que pueden formarse con elementos de
S, ( )
X
hSiK = λi si | λi ∈ K, si ∈ S .
finita
Cuando no hay lugar a confusión omitiremos el sı́mbolo K.

9
Proposición 1.12 hSiK es el menor subespacio vectorial de E que contiene a S.

Prueba. Si V es un subespacio vectorial que contiene a S debe contener cualquier combinación


lineal de elementos de S y por tanto a hSiK . Por su propia definición hSiK es cerrado por combina-
ciones lineales, luego es un subespacio vectorial.

Dos propiedades elementales, e importantes, del espacio vectorial generado son las siguientes.
Para cualesquiera S, S 0 ⊆ E se tiene:

(a) hhSiK iK = hSiK .


(b) S ⊆ S 0 =⇒ hSiK ⊆ hSiK .

Definición 1.13 Un subconjunto S de E se llama un sistema de generadores de E si hSiK = E.

Proposición 1.14 Sea B ⊂ E. Son equivalentes:


(a) B es un conjunto L.I. maximal entre los subconjuntos L.I. de E.
(b) B es un sistema de generadores de E minimal entre los sistemas de generadores de E.
(c) B es un sistema de generadores L.I. de E.

Prueba. (a)=⇒(b). Sea B un conjunto L.I. maximal. Para cualquier elemento v ∈ E. Si v ∈ B


entonces, puede escribirse de forma trivial como combinación lineal de elementos de B. Supongamos
entonces que v 6∈ B. Tenemos entonces B ∪ {v} no el L.I. pues contiene propiamente a B. Por tanto
hay una combinación lineal nula de elementos de B ∪ {v}. El coeficiente de v no puede ser nulo,
pues en otro caso serı́a una combinación lineal de elementos de B. Podemos por tanto, despejar v
y escribirlo como combinación lineal de elementos de V . Concluimos que B genera a E. Veamos
que además el B es minimal entre los sistemas de generadores de E. Sea B 0 ( B. Entonces hay un
elemento b ∈ B −B 0 . Si b se escribiera como combinación lineal de los elementos de B 0 , obtendriamos
inmediantamente una combinación lineal no trivial y nula de elementos de B. Por tanto b no está
en el espacio generado por B 0 y B 0 no es un sistema de generadores. Esto prueba la minimalidad
de B.
(b)=⇒(a). Sea B minimal entre los sistemas de generadores. Si hubiera una combinación lineal no
trivial nula de elementos de B, X
λj bj = 0, λ1 6= 0,
finita

entonces tenemos que b1 es combianción lineal de otros elementos de B y por tanto B − {b1 } es un
sistema de generadores, lo que contradice la minimalidad. Por tanto B es L.I. y dado que genera E
es maximal.
La equivalencia (a) ⇐⇒ (c) se deja como ejercicio al lector.

Ejercicio 2 Muestre la equivalencia entre los puntos (a) y (c) de la Proposición 1.14. Puede su-
poner que la equivalencia entre los puntos (a) y (b) ya ha sido demostrada.

10
En cualquiera de estos casos equivalentes diremos que B es una base de E. Notese que B es una
base de E si y solo si el morfismo de valuación en E,
X X
vB : FreeK (B) → E, λi {bi } → λi bi
finita finita

es biyectivo. La existencia de bases, y los siguientes lemas, están asegurados por el lema de Zorn.

Lema 1.15 Se verifica:


(a) (Lema de extensión) Todo subconjunto L.I. de E puede extenderse a una base de E.

(b) (Lema de selección) Todo sistema de generadores de E contiene una base de E.

Prueba. Mostremos en primer lugar que toda cadena de conjuntos L.I. tiene una cota superior L.I.
Sea entonces AiI una cadena de conjuntos L.I. en E. Es decir, una familia de subconjuntos L.I. de
E con ı́ndicesSen un conjunto totalmente ordenado I y tal que Ai ⊆ Aj para i < j.
Sea A = ı∈I Ai . Sea,
λ1 e1 + . . . λn en = 0
una combinación lineal de elementos de A. Entonces, necesariamente hay un i ∈ I tal que
{e1 , . . . , en } ⊆ Ai . Como Ai es L.I. deducimos que la combinación es trivial.
(a) Consideremos ahora L un conjunto L.I. y sea F la familia de subconjuntos de E cuyos
miembros son los conjuntos L.I. que contienen a L. Por el argumento anteior, toda cadena en F
tiene cota superior. Por el lema de Zorn F contiene elementos maximales, que son bases de E.
(b) Consideremos ahora S un sistema de generadores y sea F la familia de subconjuntos de E
cuyos miembros son conjuntos L.I. contenidos en S. De nuevo F tiene elementos maximales, sea B
uno de ellos. Cualquier elemento de S depende linealmente de los elementos de B es decir, S ⊆ hBiK
y por tanto hBiK = E.

1.1.6. Dimensión
Teorema 1.16 (de la base o de la dimensión) Todas las bases de un espacio vectorial tienen
la misma cardinalidad.

Tal cardinalidad se llama la dimensión del espacio, que denotamos por dim E o dimK E cuando
sea necesario especificar el cuerpo base K. La prueba del teorema de la base puede facilmente
reducirse al siguiente lema.

Ejercicio 3 Asumiendo el Lema 1.17 demuestre el teorema de la dimensión.

Lema 1.17 Sea L un conjunto linealmente independiente y sea S un sistema de generadores, en-
tonces |L| ≤ |S|.

La prueba sigue dos argumentos diferentes en el caso de que los conjuntos en cuestión sean
finitos o infinitos. Si S es finito entonces es resultado se sigue inmediatamente del conocido lema de
intercambio de Steinitz.

11
Lema 1.18 (de intercambio de Steinitz) Suponga que L = {v1 , . . . , vn } es L.I. y
S = {w1 , . . . , wm } es un sistema de generadores. Entonces m ≤ n y reordenando S si es preci-
so se tiene que S 0 = {v1 , . . . , vn , wn+1 , . . . , wm } es un sistema de generadores.
Pm
Prueba. Como S genera E podemos escribir v1 = j=1 µ1j wj . Como v1 6= 0 alguno de estos
coeficientes tiene que ser distinto de cero. Reordenando S si es necesario podemos suponer µ11 6= 0.
Pero en ese caso:
m
1 X µ1j
w1 = v1 − wj .
µ11 µ
j=2 11

Esto prueba que w1 ∈ hv1 , w2 , . . . , wm iK y por tanto, este es un sistema de generadores. Los si-
guientes reemplazos se realizan por inducción completa.
Supongamos que tenemos que {v1 . . . , vk , wk+1 , . . . , wm } (con cierto posible reordenamiento) es
un sistema de generadores. Veamos que podemos substituir alguno de los wk+j por vk+1 . Escribimos,
de nuevo,
X k X m
vk+1 = µk+1,j vj + µk+1,j wj .
j=1 j=k+1

Por ser {v1 , . . . , vk+1 } L.I., alguno de los coeficientes µk+1,j debe ser distinto de cero. Reordenando
si es necesario, supongmos µk+1,+1 6= 0. Tenemos entonces,
k k
X µk+1,j 1 X µk+1,j
wk+1 = − vj + vk+1 − wj
µ
j=1 k+1,k+1
µk+k,k+1 µk+1,k+1
j=k+2

de donde obtenemos que wk+1 es combinación lineal de {v1 , . . . , vk+1 , wk+2 , . . . , wm }.

Concluyamos la prueba del Lema 1.17. Supongamos que S es infinito. Si L es finito, el lema es
cierto, luego supongamos que L es a su vez infinito. Entonces consideramos L0 una base que contiene
a L. Cada elemento v ∈ S puede escribirse como una combinación lineal finita de elementos de L0 .
Consideremos para cada v ∈ S el conjunto finito L0 (v) de elementos de la base L0 que aparecen en
la descomposición de v sobre la base L0 . Entonces,
[
L00 = L0 (v).
v∈S

Debe ser |L00 | ≤ |S| pues cada L0 (v) es finito y por tanto la cardinalidad de L00 no puede exceder
a la de S. Por otro lado hL00 iK contiene a S y por tanto L00 es un sistema de generadores. Por la
minimalidad de L0 tenemos L0 = L00 y como L ⊂ L0 tenemos |L| ≤ |L0 | ≤ |S|, como queriamos
demostrar.
Una consecuencia del teorema de la base es el siguiente.

Proposición 1.19 Suponga dimK (E) < ∞ entonces para todo subespacio propio V ⊂ E se tiene
dimK (V ) < dimK (E).

12
1.1.7. ¿Qué pasa con los A-módulos?
Uno de los motivos por los que los espacios vectoriales son mucho más sencillos de estudiar que
los módulos es la noción de dimensión y el teorema de la base. Si M es un A-módulo, podemos
hablar de:

Combinaciones lineales de elementos de M con coeficientes en A.


Conjuntos L.I. o L.D. en M .
Sistemas de generadores.
Pero en los A-módulos no es cierto que todo sistema de generadores minimal sea L.I., ni que
todo conjunto L.I. maximal sea un sistema de generadores. Es correcto decir que B ⊂ M es una
base de M , si B es un sistema L.I. de generadores de M . Pero los A-módulos no tienen siempre
bases.
Los A-módulos que tienen base, se llaman A-módulos libres. Para los A-módulos libres es cierto
el teorema de la base, todas las bases tienen la misma cardinalidad, pero la demostración requiere un
poquito de teorı́a de anillos que no vamos a incluir aquı́. En la teorı́a de A-módulos la cardinalidad
de las bases no se llama dimensión sino rango.
Lo escrito en el párrafo anterior sirve para anillos conmutativos con unidad, una vez salimos del
mundo conmutativo la noción de rango desaparece.

1.1.8. Coordenadas
Sea B una base de E. Entonces, por la definición de base, todo elemento e de E puede escribirse
de forma única como combinación lineal de los elementos de la base. A cada elemento b ∈ B le
podemos asignar una función:
X
b∗ : E → K, v 7→ coeficiente de b en la descomposición v = λj bj .
j

Esto da un conjunto de funciones B ∗ = {b∗ | b ∈ B} ⊂ K E (más adelante veremos que estas


funciones b∗ son lineales y por tanto elementos del espacio dual E ∗ ) que reciben el nombre de
funciones coordenadas inducidas por la base B. Observemos que dado un vector cualquiera v ∈ V ,
todas sus coordenadas b∗ (v) deben ser nulas excepto un número finito.
Sea E de dimensión finita n y sea {b1 , . . . , bn } es una base de E. Dado que el orden de las
coordenadas también va a ser importante, fijamos la n-tupla b̄ = (b1 , . . . , bn ) de vectores. Entonces,
la tupla de funciones b̄∗ = (b∗1 , . . . , b∗n ) produce una biyección entre V y Kn ,
 
λ1
b̄∗ : E → Kn , v = λ1 b1 + . . . + λn bn 7→ [ v ]b̄ =  ...  .
 

λn

El vector columna b̄∗ (v) = [ v ]b̄ recibe el nombre de vector de coordenadas de v en la base {b1 , . . . , bn }.2
2 Nótese que hay un abuso de lenguaje. Para definir el vector de coordenadas hace falta, además de la base, un

orden de sus elementos. De ahı́ el uso de la tupla b̄ en la notación.

13
Ejercicio 4 Sea δj la secuencia en K cuyo j-ésimo término es 1, y todos los demas son 0. Es decir,

δ1 = [1, 0, 0, 0, . . .]

δ2 = [0, 1, 0, 0, . . .]
δ3 = [0, 0, 1, 0, . . .]
...
Considere Sec(K) el espacio de todas las secuencias en K y Sec0 (K) es espacio el espacio de las
secuencias en eventualmente nulas,

Sec0 (K) = {(an )n∈N | ∃n0 ∈ N ∀n ∈ N n ≥ n0 =⇒ an = 0}.

(i) Muestre que Sec0 (K) es un subespacio vectorial de Sec(K).

(ii) Muestre que {δn }n∈N es una base de Sec0 (K).

1.1.9. Matriz de cambio de base


Sea E un espacio vectorial de dimensión n. Si consideramos dos bases (ordenadas) {e1 , . . . , en }
y {u1 , . . . , un } entonces debemos tener relaciones de la forma
X
ej = aij ui .
i
Pn
Sea ahora v un elemento cualquiera de E. Tenemos v = j=1 λj ej , de manera que el vector de
coordenadas de v en la base {ej } es ē∗ (v) = [λ1 , . . . , λn ]T . Substituyendo los valores de los ej en
función de los ui obtenemos,
Xn X n
v= λ j ej = aij λj ui .
j=1 i,j=1

Si consideramos ū (v) el vector d coordenadas de v en la base {u1 , . . . , un } es inmediato observar
que:
[ v ]ū = A[ v ]ē .
Es decir, tenemos un diagrama conmutativo:

a11 a12 . . . a1n


 
 .. .. .. . 
E A= . . . ..  .
ē∗ ū∗ an1 an2 . . . ann
~
Kn
A / Kn

Se sigue también que A es una matriz invertible –pues la inversa de A expresa ē∗ en función de ū∗ –.
Decimos que A es la matriz de cambio de base.

14
1.1.10. Suma e intersección
Definición 1.20 Sean V y V 0 subespacios de E. El espacio hV ∪ V 0 iK recibe el nombre del espacio
suma V + V 0 .

Es sencillo probar que en general, la intersección V ∩ V 0 es un subespacio de E. Se dice que los


subespacios V y V 0 están en suma directa si V ∩ V 0 = {0}. La notación V1 + V2 = V1 ⊕ V2 se utiliza
para hacer notar que V1 y V2 están en suma directa.

Proposición 1.21 Sean V1 y V2 subespacios vectoriales de E. Entonces V1 y V2 están en suma


directa si y solo si todo vector v ∈ V1 + V2 puede descomponerse de una única manera,

v = v1 + v2

con v1 ∈ V1 y v2 ∈ V2 .

Prueba. Supongamos que V1 y V2 están en suma directa. Por definición, hay al menos una manera
de descomponer v como suma de vectores de V1 y V2 . Supongamos que hay dos.

v = v1 + v2 = v10 + v20 .

Entonces v1 − v10 y v2 − v20 están en V1 ∩ V2 y por tanto se anulan. Luego v1 = v10 y v2 = v20 . El
recı́proco sigue un argumento similar y se deja como ejercicio.

Ejercicio 5 Complete la prueba de la Proposición 1.21 mostrando que si todo vector v ∈ V1 + V2


puede escribirse de una unica manera como una suma v = v1 + v2 con v1 ∈ V1 y v2 ∈ V2 entonces
V1 ∩ V2 = {0}.

Por tanto, si V1 y V2 están en suma directa, tenemos una biyección:



V1 × V2 −
→ V1 ⊕ V2 , (v1 , v2 ) 7→ v1 + v2 .

Se dice que los subespacios V y V 0 son suplementarios en E si están en suma directa y además
V + V 0 = E. En tal caso escribimos V ⊕ V 0 = E.

Ejercicio 6 Sea C(R) es espacio vectorial de las funciones continuas reales de variable real. Muestre
que toda función puede escribirse de una única manera como la suma de una función par y una
función impar. Relacione esta cuestión con la descomposición del espacio C(R) como suma directa
de dos subespacios. ¿Sucede el mismo hecho en una situación más general?

Proposición 1.22 Todo subespacio vectorial admite un suplementario.

Prueba. Sea V 0 un subespacio de E. Consideremos B 0 una base de V 0 . Entonces B 0 puede exten-


derse a una base B de E. Sea B 00 = B − B 0 el complemento de B 0 en B. Tomemos V 00 = hB 00 iK
y verifiquemos que es un suplementario. En primer lugar V 0 + V 00 = E pues V + V 0 contiene a la
base B. Sea ahora u ∈ V 0 ∩ V 00 . Como u esta en V 0 puede escribirse como una combinación lineal
de elementos de B 0 , y como está en V 00 puede escribirse como una combinación lineal de B 00 .
n
X m
X
u= λi b0i = µj b00j b0i ∈ B 0 , b00j ∈ B 00
i=1 j=1

15
La diferencia de esas combinaciones lineales nos da una combinación lineal nula de elementos de B.
Por la independencia lineal de B se tiene que todos los λi y µj son nulos. Por tanto u = 0.

También puede definirse la suma de una familia {Vi }i∈I como el menor subespacio que contiene
a todos ellos, * +
X [
Vi = Vi .
i∈I ∈I K

Decimos que los miembros de la familia {Vi }i∈I se encuentran en suma directa si cada uno de ellos
está en suma directa con la suma de los demás. En tal caso usamos la notación:
X M
Vi = Vi .
i∈I i∈I
P
Ejercicio 7 Sea {Vi }i∈I una familia de subespacios de E tal que i∈I Vi = E. Muestre que la
familia se encuentra en suma directa si y solo si cada vector e ∈ E puede escribirse de un modo
único como una suma finita3 X
e= vi
i∈I

con vi ∈ Vi

Una consecuencia de estos resultados es la siguiente proposición.

Proposición 1.23 (Fórmula de la dimensión) Sean V y V 0 subespacios de un espacio E, de


dimensión finita.
dimK (V + V 0 ) = dimK (V ) + dimK (V 0 ) − dimK (V ∩ V 0 )

Prueba. Tomemos una base {u1 , . . . , uk } de V ∩ V 0 . Por el lema de extensión, podemos extenderla
a bases {u1 , . . . , uk , e1 , . . . , er } de V y {u1 , . . . , uk , e01 , . . . , e0s } de V 0 . La demostración del lema se
reduce a verificar que {u1 , . . . , uk , e1 , . . . , er , e01 , . . . , e0s } es una base de V + V 0 .
En primer lugar veamos que es un sistema generador. Si e ∈ V + V 0 entonces e = v + v 0 con
v ∈ V y v 0 ∈ V 0 . Ahora, podemos escribir v como combinación lineal de {u1 , . . . , uk , e1 , . . . , er } y
v 0 como combinación lineal de {u1 , . . . , um , e01 , . . . , e0s }. Al sumar ambas combinaciones, obtenemos
una expresión de e como combinación lineal de {u1 , . . . , uk , e1 , . . . , er , e01 , . . . , e0s }.
Veamos ahora que son linealmente independientes. Consideremos una combinación lineal igual
a cero, X X X
αi ui + β j ej + γk e0j = 0.
i j k

Veamos que todos los coeficientes deben anularse. Tomemos u = − i αi ui , e = j βj ej y e0 =


P P
0 0 0
∈ V . Luego e0 ∈ V ∩ V 0 , y por tanto debe
P
k γk ek . Entonces tenemos e + e = u. Luego e = u − e P
0
escribirse como combinación lineal de {u1 , . . . , uk }, e = i δi ui De ahı́ tenemos,
X X
δi ui − γk e0k ,
i k
3 Es decir, todos los vi excepto un número finito son cero.

16
y por la independencia lineal de estos vectores tenemos que los coeficientes γk son todos nulos. El
mismo argumento, intercambiando los papeles de e y e0 prueba que los coeficientes βj son todos
nulos. Finalmente, por la independencia lineal de {u1 , . . . , um } tenemos que los coeficientes restan-
tes αi son también nulos.

Ejercicio 8 Encuentre la fórmula de la dimensión para la suma de 3 subespacios vectoriales. ¿Es


posible encontrar una fórmula para la dimensión de la suma de un número arbitrario de espacios
vectoriales?

1.1.11. Subvariedades lineales afines y cocientes


Definición 1.24 Sea E un espacio vectorial. Una variedad lineal afı́n de espacio director E es un
conjunto A en el que E actúa,

A × E → A, (x, e) → x + e,

libre y transitivamente. Esto implica que si fijamos un elemento x0 ∈ A la acción induce una
biyección,

E− → A, e 7→ x0 + e.

Un espacio vectorial E es, en si mismo, también una variedad lineal afı́n de espacio director E.
Además E contiene subvariedades lineales afines cuyos espacios directores son subespacios de E. Sea
V un subespacio vectorial de E, y v0 ∈ E. Un conjunto de la forma, A = v0 + V = {v0 + s | s ∈ V }
es una subvariedad lineal afı́n de E con espacio director V . Cualquier punto de A puede escogerse,
en lugar de v0 , como punto inicial.
Dos subvariedades lineales afines de E se dicen paralelas si el espacio director de una está
contenido en el espacio director de la otra.

Ejercicio 9 Sean A1 y A2 dos subvariedades lineales afines paralelas de E. Muestre que o bien una
de ellas está contenida en la otra o bien A1 ∩ A2 = ∅.

Ejemplo 1.25 Una subvariedad lineal afı́n k-dimensional en Kn puede ser siempre descrita como
el conjunto de soluciones de un sistema de ecuaciones lineales no homogéneas compatible,

aj1 x1 + . . . ajn xn = bj , j = 1, . . . , n − k.

Su espacio director es el espacio de soluciones del sistema homogéneo asociado,

aj1 x1 + . . . ajn xn = 0, j = 1, . . . , n − k.

Ejercicio 10 Sean A1 = v1 + V1 , A2 = v2 + V2 subvariedades lineales afines de un espacio vectorial


E.
(a) Muestre que A1 ∩ A2 = ∅ si y solo si (v2 − v1 ) 6∈ V2 + V1 .
(b) Muestre que si A1 ∩A2 6= ∅ entonces A1 ∩A2 es una subvariedad lineal afı́n de espacio director
V1 ∩ V2 .

17
Ejercicio 11 Muestre que la intersección de una familia de subvariedades lineales afines de un
espacio vectorial E, si no es vacı́a, es una subvariedad lineal afı́n. Deduzca que para cualquier
conjunto X ⊂ E existe la menor subvariedad lineal afı́n que contiene a X.
Ejercicio 12 Sean A1 = v1 + V1 y A2 = v2 + V2 dos subvariedades lineales afines de E.
(a) Muestre que v1 + (V1 + V2 + hv2 − v1 iK ) es la subvariedad lineal afı́n de E más pequeña que
contiene a A1 ∪ A2 .
(b) Suponga que A1 , A2 tiene dimensiones m y n respectivamente. ¿Que dimensiones puede tener
la menor variedad afı́n que contiene a A1 ∪ A2 ?
Ejercicio 13 Sean (A1 , A2 ) y (B1 , B2 ) dos parejas de subvariedades lineales afines de E con
dim A1 = dim B1 y dim A2 = dim B2 . Decimos que (A1 , A2 ) y (B1 , B2 ) están en la misma po-
sición relativa si dim(A1 ∩ A2 ) = dim(B1 ∩ B2 ) y la dimensión de la menor subvariedad lineal
afı́n que contiene a A1 ∪ A2 es igual a la dimensión de la menor subvariedad afı́n que contiene a
B1 ∪ B2 . ¿En cuantas posiciones relativas diferentes pueden estar dos rectas en el plano K2 ? ¿Dos
rectas en el espacio K3 ?¿Dos rectas en un espacio de dimensión infinita?¿Y una recta y un plano
en el espacio K3 ?¿Y dos planos en un espacio de dimensión infinita?
El subespacio vectorial S ⊂ E define una relación de equivalencia ∼ en E, donde e ∼ v ⇔
e − v ∈ S. Las clases de equivalencia son conjuntos de la forma v0 + S = {v0 + s | s ∈ S}. Es decir,
las clases de equivalencia son las subvariedades lineales afines cuyo espacio director es S.
Definición 1.26 Este conjunto de clases de equivalencia E/ ∼ se llama espacio cociente por S y
se denota por E/S. El espacio cociente E/S está dotado de una estructura de espacio vectorial,
(e + S) + (v + S) = (e + v) + S, λ(e + S) = λe + S.
También mediante el teorema de la base es sencillo calcular la dimensión. En general, si E tiene
dimensión finita,
dimK (E/S) = dimK (E) − dimK (S).
La dimensión de E/S se llama la codimensión de S en E. Los subespacios de codimensión 1 de un
espacio vectorial se llaman hiperplanos.
Ejercicio 14 Siguiendo con la notación del Ejercicio 4, muestre que el espacio cociente Sec(K)/Sec0 (K)
no tiene dimensión finita.

1.1.12. Restricción de escalares


Sea E un K-espacio vectorial sobre K, y sea F ⊂ K un subcuerpo. Es claro que E es también
un F-espacio vectorial, pues la suma y la multiplicación por escalares en F ya están definidas. Por
otro lado, K es un F-espacio vectorial. Por tanto K tiene una dimensión como K-espacio vectorial
(que en teorı́a de cuerpos se denomina el grado).
Proposición 1.27 Sea E un K-espacio vectorial y B una base de E como K-espacio vectorial. Sea
F ⊂ K un subcuerpo y sea A una base de K como F-espacio vectorial. Entonces el conjunto,
AB = {ae ∈ E | a ∈ A, e ∈ B}
es una base de E como F-espacio vectorial. Por tanto,
dimF (E) = dimK (E) dimF (K).

18
Prueba. Sea A = {a1 , . . . , ag } y B = e1 , . . . , en . Veamos que,
AB = {ai ej | i = 1, . . . , g, j = 1, . . . , n}
es una base de E como F-espacio vectorial.
En primer lugar veamos que es un sistema de generadores. Sea e ∈ E, se tiene una descomposi-
ción sobre la base
Xn
e= λj ej
j=1

∈ K. Ahora, cada coeficiente a su vez descompone sobre la base de K de manera


con coeficientes λj P
g
que tenemos λj = i=1 µij ai con µij ∈ F. Substituyendo en la combinación lineal anterior tenemos
que e es combinación lineal de los elementos ai ej como queriamos probar.
Procedemos a probar independencia lineal de AB sobre F. Consideremos una combinación lineal
nula,
Xg,n
µij ai ej = 0.
i,j=1

Para cada j supongamos E 0 el espacio vectorial generado por todos los elementos de B excepto ej .
Entonces ēj = ej + E 0 es una base de E/E 0 , que tiene dimensión 1. Tenemos,
g
X g,n
X
µij ai ej = − µik ai ek ∈ E 0
i=1 i,k6=j
Pg Pg
luego
Pg µij ai ēj = 0. Sacando factor común tenemos ( i=1 ai µij ) ēj = 0 y como ēj 6= 0,
i=1
i=1 ai µij = 0. Por la independencia lineal de A tenemos que los coeficientes µij se anulan.

Ejercicio 15 Muestre que R no tiene dimensión finita sobre Q.


Ejercicio 16 ¿Cual es la dimensión de C sobre R?

1.2. Transformaciones lineales


1.2.1. Categorı́as
Las categorı́as son, entre otras cosas, un elemento muy útil del lenguaje matemático para siste-
matizar el estudio de los objetos algebraicos y sus transformaciones.
Una categorı́a C consta de varios datos, a saber:
(b) Dos clases propias 4 , la clase ObjC de los objetos y la clase HomC de los morfismos y flechas.
(b) Dos funciones sobreyectivas, dom : HomC → ObjC y cod : dom : HomC → ObjC de tal
manera que para cualquier pareja de objetos A, B:
HomC (A, B) = {f ∈ HomC | dom(f ) = A, cod(f ) = B}
es un conjunto, eventualmente vacı́o.
4 Colecciones que no son necesariamente conjuntos

19
(c) Para cualquier terna de objetos A, B, C un operador de composición,

HomC (B, C) × HomC (A, B) → HomC (A, C), (f, g) 7→ f ◦ g

verificando:

(i) La composición es asociativa, siempre que tenga sentido componer, se tiene:

f ◦ (g ◦ h) = (f ◦ g) ◦ h.

(ii) Para cada objeto A hay un elemento IdA ∈ HomC (A, A) tal que siempre que se pueda
componer, se tiene:
f ◦ IdA = f, IdA ◦ g = g.
Los morfismos se representan gráficamente mediante flechas. Si f ∈ HomC (A, B) entonces escri-
f
bimos A −−→ B. Esto nos permite dibujar diagramas conmutativos, que son diagramas en los cuales
pueden componerse las flechas por diferentes caminos obteniendo el mismo resultado.
Las categorı́as pueden transformarse de forma compatible con la composición y por tanto con
el los diagramas conmutativos. Algunas transformaciones convervan la dirección de las flechas (co-
variantes) otras las invierten (contravariantes). Consideremos dos categorı́as C y D
f
Un morfismo A −−→ B es un isomorfismo si tiene inverso por la derecha y por la izquierda, es
g
decir si hay un B −−→ A tal que f ◦g = IdB y g ◦f = IdA . En tal caso g está determinado únicamente
−1
y se denomina f , el inverso de f . Dos objetos A, B se dicen isomorfos si hay un isomorfismo entre
ellos. Los isomorfismos de un objeto A en si mismo forman un grupo que se denomina AutC (A). Una
categorı́a donde todo morfismo es un isomorfismo se llama un grupoide. Toda categorı́a C contiene
un grupoide Cisom cuyos objetos son los mismos de C y cuyos morfismos son los isomorfismos de C.
Una transformación natural o functor covariante F : C D consiste en una pareja de funciones
que denotamos por el mismo nombre,

F : ObjC → ObjD , F : HomC → HomD

vefificando:
(i) Para todo f ∈ HomC se tiene dom(F (f )) = F (dom(f )) y cod(F (f )) = F (cod(f )).
(ii) F envı́a la composición en la composición: F (f ◦ h) = F (f ) ◦ F (h).

Una transformación natural o functor contravariante F : C D consiste en una pareja de


funciones que denotamos por el mismo nombre,

F : ObjC → ObjD , F : HomC → HomD

vefificando:
(i) Para todo f ∈ HomC se tiene dom(F (f )) = F (cod(f )) y cod(F (f )) = F (dom(f )).

(ii) F envı́a la composición en la composición, invirtiendo el orden: F (f ◦ h) = F (h) ◦ F (f ).

20
1.2.2. Matrices con coeficientes en K
Antes de desarrollar el tema de las transformaciones lineales, revisitemos nuestro conocimiento
acerca de las matrices con coeficientes en K.Consideramos Mat(m×n, K) el conjunto de las matrices
m × n con coeficientes en K. En el curso de álgebra lineal definimos la suma de matrices,

Mat(m × n, K) × Mat(m × n, K) → Mat(n × m, K)


     
a11 . . . a1n b11 . . . b1n a11 + b11 . . . a1n + b1n
.. .. ..  +  .. .. ..  =  .. .. ..
,
 
 . . .   . . .   . . .
am1 . . . amn bm1 . . . bmn am1 + bm1 . . . amn + bmn
y el producto por escalares de matrices,

K × Mat(m × n, K) → Mat(m × n, K)
   
a11 . . . a1n λa11 . . . λa1n
λ  ... .. ..  =  .. .. ..
,
 
. .   . . .
am1 . . . amn λam1 . . . λamn
Lo que hace que Mat(m × n, K) sea también un espacio vectorial. Pero además las matrices tienen
una estructura multiplicativa, tenemos el producto de matrices,

Mat(m × n, K) × Mat(n × `, K) → Mat(m × `, K)


    Pn Pn 
a11 . . . a1n b11 . . . b1` j=1 a1j bj1 ... j=1 a1j bj`
.. .. ..   .. .. ..  =  .. .. ..
,
 
. . .  . . .   P . .
Pn .

n
am1 . . . amn bn1 . . . bn` j=1 amj bj1 . . . j=1 amj bj`

Que verifica una serie de propiedades, a saber:


(i) A(BC) = (AB)C.
(ii) A(B + C) = AB + AC.
(iii) (A + B)C = AC + BC.
(iv) Im A = AIn = A donde Ik representa la matriz identidad k × k.
(v) A(λB) = λ(AB)
También hay una involución, la transposición. Si A es una matriz m × n entonces AT es la matriz
n × m cuyas columnas son las filas de A y reciprocamente.
(vi) (AT )T = A.
(vi) (AB)T = B T AT .
Esto tiene las siguientes interpretaciones algebraicas:
(i) El conjunto de todas las matrices con coeficientes en K es una categorı́a abeliana autodual
asunto del cual no hablaremos más, dado que no va a tener relevancia para el curso.

21
(ii) Si fijamos n, entonces Mat(n × n, K) es un anillo (no-conmutativo si n > 1) con unidad. Este
anillo Mat(n×n, K) contiene a K como subanillo, si identificamos cada escalar λ con la matriz
diagonal λIn ,
K ,→ Mat(n × n, K), λ 7→ λIn ,
y por tanto es lo que se denomina una K-álgebra.
Hay dos mapas destacados, el determinante y la traza,

det, tr : Mat(n × n, K) → K,

X n
X
det(A) = (−1)σ a1σ(1) · · · anσ(n) , tr(A) = aii .
σ∈Sn i=1

cuyas propiedades básicas fueron estudiadas en el curso de álgebra lineal. Cabe destacar,

det(AB) = det(A) det(B), tr(A + B) = tr(A) + tr(B).

Además el grupo multiplicativo de los elementos invertibles de Mat(n × n, K), que denotamos por
GL(n, K) esta constituido por las matrices cuyo determinante es distinto de cero, pues:
1
A−1 = (A0 )T
det(A)

donde A0 es la llamada matriz adjunta de A cuyo coeficiente (i, j) es el determinante de la matriz


(n − 1) × (n − 1) que se obtiene al eliminar la fila i-ésima y la columna j-ésima de A.
Recordemos también la noción de rango de una matriz, que es igual al mayor número de filas o de
columnas linealmente independientes. El rango puede calcularse de diversas maneras (escalonando
la matriz mediante operaciones elementales de fila o de columna, por menores). Una forma útil en
muchos ejercicios teóricos es calcular el rango de A como el tamaño del mayor menor5 no nulo de
A.

1.2.3. Transformaciones lineales: definición y ejemplos


Sean E, V K-espacios vectoriales.

Definición 1.28 Una transformación K-lineal de E en V es un mapa ϕ : E → V que verifica:

ϕ(λv + µw) = λϕ(v) + µϕ(w)

para cualesquiera λ, µ ∈ K, v, w ∈ E. El conjunto de las transformaciones K-lineales de E en V


se denota por LinK (E, V ). Una transformación lineal invertible se dice un isomorfismo. Una trans-
formación lineal de un espacio vectorial en si mismo se llama un endomorfismo. Un endomorfismo
invertible es un automorfismo.

Ejemplo 1.29 Si fijamos un escalar a ∈ K, la transformación “multiplicar por a” E → E, e 7→ ae,


es una transformación lineal. Recibe el nombre de “dilatación de razón a”.
5 Un menor de A es el valor del determinante de una matriz cuadrada que se obtiene tachando algunas filas y/o

columnas de A.

22
Ejemplo 1.30 Sean V1 y V2 dos subespacios suplementarios en V . Entonces, todo elementos v ∈ V
puede descomponerse de forma única como suma v = v1 + v2 con v1 ∈ V1 y v2 ∈ V2 . La función
π1 : V → V1 que asigna a cada vector v su componente v1 es una transformación lineal sobreyectiva.
Lo mismo para π2 : V → V2 . De la descomposición única tenemos que la transformación,
(π1 , π2 ) : V = V1 ⊕ V2 → V1 × V2 , v = v1 + v2 7→ (v1 , v2 )
es un isomorfismo de espacios vectoriales.
Ejemplo 1.31 Sea B una base de E, entonces para cada elemento b ∈ B podemos considerar la
función b∗ : E → K que asigna a cada e ∈ E el coeficiente de b en la descomposición única de e
como combinación lineal de elementos de la base B.
En el ejemplo anterior hay que observar que existe un abuso de lenguaje. El elemento b ∈ B no
define por si solo la función b∗ . Esta depende también de los otros elementos de la base B.
Ejemplo 1.32 La función de paso al cociente,
E → E/S, e 7→ e + S,
es una transformación lineal sobreyectiva y la inmersión canónica de un subespacio,
S ,→ E, v 7→ v,
es una transformación lineal inyectiva.
Ejemplo 1.33 Fijemos una matriz A ∈ Mat(m × n). Entonces, multiplicar por A por la derecha o
por la izquierda son transformaciones K-lineales.
Mat(n × `, K) → Mat(m × `, K), Z → AZ.
Mat(` × m, K) → Mat(` × n, K), Y → ZA.
Recordemos que hemos convenido identificar el espacio vectorial Kn con el de los vectores columna
Mat(n×1, K). Entonces, como caso particular del ejemplo anterior, la multiplicación por la izquierda
por la matriz A es una transformación lineal:
A : Kn → Km , v 7→ Av,
y no solo eso, sino que además toda transformación lineal de Kn en Km está dada por una matriz6 .
Tenemos una identificación LinK (Kn , Km ) ' Mat(m × n, K).
LinK (E, V ) está en si mismo dotado de una estructura de K-espacio vectorial. Puede definirse
la suma y el producto por escalares de transformaciones lineales,
(ϕ + ψ)(v) = ϕ(v) + ψ(v), (λϕ)(v) = λ(ϕ(v)).
Observemos que entre dos espacios vectoriales siempre hay una transformación lineal nula, que es la
que envı́a a todos los vectores de su dominio al vector cero de su codominio. Es también elemental
que una transformación lineal ϕ : E → V es la transformación lineal nula si y solo si se anula sobre
un sistema de generadores de E.
6 Como se vió en el curso de álgebra lineal, f : Kn → Kn y tomamos e , . . . , e la base canónica de Kn , entonces
1 n
podemos construir la matriz de f como A = [f (e1 ), . . . , f (en )]. Por definición A es una matriz m × n. Por linealidad
se comprueba que para todo v en Kn se tiene Av = f (v).

23
Ejemplo 1.34 La identificación entre LinK (Kn , Km ) y Mat(m × n, K) no es solo una biyección
sino también un isomorfismo. Es decir, las matrices se suman y multiplican por escalares de la
misma manera si se interpretan como matrices o como transformaciones lineales.

Una utilidad del espacio libre generado por un conjunto es que nos permite definir transforma-
ciones lineales.
Proposición 1.35 Sea X un conjunto y E un K-espacio vectorial. Hay un isomorfismo natural,

i : LinK (FreeK (X), E) → E X

dado por i(ϕ)(x) = ϕ(1{x}).


Prueba. Basta con contruir el inverso j de P i. Dado f ∈ E(X)
P definimos j(f ) como la transformación
lineal de FreeK (X) en E que hace j(f ) ( k λk {xk }) = k λk f (xk ). Se comprueba elementalmente
que j está bien definida, es lineal y es la inversa por la derecha y por la izquierda de i.

Dado que si B es una base de E entonces vB : FreeK (B) → E es un isomorfismo, se sigue


inmediatamente el siguiente corolario.

Corolario 1.36 Sean E y V espacios vectoriales y B una base de E. Hay un isomorfismo natural,

i : LinK (E, V ) → V B

dado por i(ϕ)(x) = ϕ(x).

Es decir, una transformación lineal está completamente determinada por las imágenes de los
elementos de una base, y recı́procamente, pueden fijarse arbitrariamente estas imágenes para obtener
una transformación lineal.

(i) La composición de transformaciones lineales, es ası́ mismo lineal. Más aún, la operación “com-
poner”
◦ : LinK (V, W ) × LinK (E, V ) → LinK (E, W ), (ϕ, ψ) 7→ ϕ ◦ ψ
es lineal en cada factor (es decir: bilineal).
(ii) Si una transformación lineal es invertible (como mapa) su inversa es una transformación lineal.
(iii) La identidad IdE en E es una transformación lineal.

Esto implica que el conjunto de las transformaciones lineales de E en si mismo EndK (E) es
de nuevo un anillo (no-conmutativo) con unidad que contiene7 una copia de K (es decir, una K-
álgebra). El grupo multiplicativo AutK (E) de los elementos invertibles de EndK (E) se denomina el
grupo lineal de E.

Ejemplo 1.37 La asociatividad del producto de matrices nos muestra que la identificación que
hemos hecho entre matrices y transformaciones lineales, en el caso de las matrices cuadradas
Mat(n × n, K) ' Lin(Kn , Kn ) no es solamente un isomorfismo de espacios vectoriales, sino de
anillos, pues A ◦ B = AB. La matriz identidad In×n es la identidad en Kn .
7 La forma de incluir a K como sub-anillo de End (E) es interpretar a los escalares λ ∈ K como múltiplos de la
K
identidad K ,→ EndK (E), λ 7→ λIdE .

24
La noción de dependencia e independencia lineal también puede revisarse a la luz de las trans-
formaciones lineales. El siguiente resultado es evidente a partir de las definiciones.

Teorema 1.38 Sea S ⊂ E un subconjunto de un espacio vectorial. Consideramos la función de


evaluación: X X
vS : FreeK (S) → E, λi {si } 7→ λi si .
finita finita

Entonces:
(a) S es L.I. si y solo si vS es inyectivo.
(b) S es un sistema de generadores si y solo si vS es sobreyectivo.

(c) S es una base si y solo si vS es un isomorfismo.

Ejercicio 17 Demuestre el Teorema 1.38.

Ejemplo 1.39 Sea E de dimensión finita n y sea b̄ = (b1 , . . . , bn ) una n-tupla de vectores tal que
{b1 , . . . , bn } es una base de E. La n-tupla de funciones coordenadas b̄∗ = (b∗1 , . . . , b∗n )
 
n λ1
λj bj 7→  ...  .
X
b̄∗ : E → Kn ,
 
j=1 λn

es un isomorfismo de E con Kn .

Ejercicio 18 Sea ϕ : E → V una transformación lineal. Sea S ⊂ E un conjunto de vectores.


Muestre:
(a) Si S es L.D. entonces ϕ(S) es L.D.
(b) Si ϕ(S) es L.I. entonces S es L.I.

Ejercicio 19 Muestre que si ϕ : E → V es una transformación lineal entonces su gráfica:

Γϕ = {(e, ϕ(e)) ∈ E × V | e ∈ E}

es un subespacio vectorial de E × V . Recordemos que una función está completamente determinada


por su gráfica8 . ¿Qué subespacios de E × V son las gráficas de funciones lineales de E en V ?

1.2.4. Matriz de una transformación lineal


Recordemos que toda transformación lineal de Kn en Km es una transformación matricial. Es
decir, está dada por la multiplicación a izquierda por una matriz m × n:

A : Kn → Km , x → Ax.
8 De hecho, para los teóricos de los conjuntos no existe ninguna diferencia entre función y gráfica. Una función es

su gráfica.

25
De la misma manera, supongamos ahora que ϕ : E → V es una transformación lineal entre espa-
cios de dimensiones n y m respectivamente. Podemos fijar una base {e1 , . . . , en } de E y {v1 , . . . , vm }
de V . Tenemos entonces descomposiciones en coordenadas,
m
X
ϕ(ei ) = aji vj .
j=1

Si llamamos [ϕ]ē,v̄ a la matriz de coeficientes (aij ) entonces tenemos un diagrama conmutativo,

E
ϕ
/V

ē∗ v̄ ∗
 [ϕ]ē,v̄ 
Kn / Km

y decimos que [ϕ]ē,v̄ es la matriz de ϕ en las bases ē, v̄. La función,

LinK (E, V ) → Mat(m × n, K), ϕ 7→ [ϕ]ē,v̄

que asigna a cada ϕ su matriz en las bases {ei }, {vj } es una transformación lineal. Esta asignación
es también compatible con la composición si se fijan bases en los espacios. Si W es un tercer espacio
con {w1 , . . . , w` } una base de W y w̄ = (w1 , . . . , w` ) entonces para todo ψ : V → W tenemos,

[ψ ◦ ϕ]ē,w̄ = [ψ]v̄,w̄ [ϕ]ē,v̄ .

Además si en E consideramos una base alternativa {e01 , . . . , e0n } y en V consideramos una base
alternativa {v10 , . . . , vn0 } entonces tenemos matrices B y C de cambio de base,
n
X m
X
e0i = bji ej , vj0 = cji vj ,
j=1 j=1

de manera que ē∗ = Bē0∗ y v̄ ∗ = C v̄ 0∗ , entonces

[ϕ]ē0 ,v̄0 = C −1 [ϕ]ē,v̄ B

como ilustra el diagrama:


[ϕ]ē0 ,v̄0
K_ /K
?
0∗

ē0∗
B E
ϕ
/V C
v̄ ∗

  ē∗
[ϕ]ē,v̄  
K /K
Si ahora nos centramos en el caso de los endomorfismos E, observamos que solo es necesario
fijar la base ē de E. Por tanto cada endomorfismo ϕ : E → E tiene una matriz [ϕ]ē . La signación

EndK (E) → Mat(n × n, K), ϕ 7→ [ϕ]ē

26
es, de hecho, un isomorfismo de anillos unitarios. Las matrices de los endomorfismos cambian de
base por con conjugación, es decir,
[ϕ]ē0 = B −1 [ϕ]ē B,
lo que puede verse como un caso particular del diagrama anterior tomando E = V , ē = v̄ y ē0 = v̄ 0 .
La fórmula anterior nos garantiza que podemos definir el determinante det(ϕ) de un endomor-
fismo ϕ como el determinante de su matriz en cualquier base. El determinante tiene las propiedades
esperadas:
(a) det(IdE ) = 1.
(b) det(ϕ ◦ ψ) = det(ϕ) det(ψ).
(c) ϕ es un automorfismo si y solo si det(ϕ) 6= 0
Los automorfismos de determinante 1 se llaman automorfismos especiales y constituyen el grupo
especial lineal SL(E) ⊂ AutK (E). En el caso particular de Rn tenemos el grupo de las matrices
especiales:
SL(n, K) = {A ∈ GL(n, K) | det(A) = 1}.

1.2.5. Núcleo e imagen


Consideremos ϕ : E → V una transformación lineal. Un problema tı́pico de álgebra lineal es
resolver la ecuación ϕ(x) = y para cierto valor fijo (o variable) de y. Es decir, determinar la
preimagen o fibra ϕ−1 {y} de y ∈ V .

Definición 1.40 Sea ϕ : E → V una transformación lineal. Su núcleo:

ker(ϕ) = {e ∈ E | ϕ(e) = 0}

es un subespacio de E y su imagen,

im(ϕ) = ϕ(E) = {ϕ(e) | e ∈ E}

es un subespacio de V . La dimensión de la imagen se denomina el rango de ϕ,

rank(ϕ) = dim(im(ϕ)).

No es dificil ver que si v ∈ im(ϕ) no es vacı́o, entonces ϕ−1 (v) = e0 + ker(ϕ). Es decir, las fibras
de las transformaciones lineales son subvariedades lineales afines de espacio director ker(ϕ). De ahı́
ϕ es inyectiva si y solo si ker(ϕ) = {0}.

Ejercicio 20 Sea A ∈ Mat(m×n, K) una matriz, es decir, una transformación lineal A : Kn → Km .


Recordemos que9 a la matriz A se le asignan una serie de espacios, a saber: espacio columna, espacio
fila, espacio nulo, etc.
(a) ¿Alguno de ellos corresponde con el espacio im(A)?
(b) ¿Alguno de ellos corresponde con el espacio ker(A)?
9 En el curso de álgebra lineal

27
Fijemos además b = (b1 , . . . , bm ) ∈ Km . Considere el sistema de m ecuaciones lineales no ho-
mogéneas:
Ax = b.
(c) Exprese la noción de si el sistema es compatible o incompatible utilizando el lenguaje de
transformaciones lineales.

(d) Exprese la noción de si el sistema es determinado o indetermindado utilizando el lenguaje de


transformaciones lineales.
(e) ¿Cómo interpretarı́as en terminos de transformaciones lineales el conjunto de soluciones del
sistema?

El siguiente resultado es la versión de álgebra lineal del teorema de isomorfismos de la teorı́a de


grupos.

Teorema 1.41 (primer teorema de isomorfismo) Toda transformación lineal ϕ : E → V pue-


de descomponerse como ϕ = i ◦ ϕ̄ ◦ q donde:

E
ϕ
/V
O
q i

E/ ker(ϕ)
ϕ̄
/ im(ϕ)

(a) q es la función de paso al cociente E → E/ ker(ϕ).


(b) ϕ̄ es un isomorfismo de E/ ker(ϕ) en im(ϕ) dado por ϕ̄(e + S) = ϕ(e).
(c) i es la inmersión canónica de im(ϕ) en V .

Los otros teoremas de isomorfismo de la teorı́a de grupos son también válidos en el contexto de
los espacios vectoriales.

(ii) Segundo teorema de isomorfismo: Si V , W son subespacios de E entonces V /(V ∩ W ) '


(V + W )/W donde e + (V ∩ W ) 7→ e + V .
(iii) Tercer teorema de isomorfismo: Si W ⊆ V ⊆ E son subespacios, entonces E/V ' (E/W )/(V /W )
donde e + V 7→ (e + W ) + (V /W ). Hay una correspondencia 1 a 1 entre los subespacios de
E/W y los subespacios de E que contienen a W .

La demostración de los teoremas de isomorfismo es totalmente análoga a la que se ha visto en


teorı́a de grupos. La única novedad es que hay que comprobar que las transformaciones en cuestión,
además de ser de grupos, son lineales. Por el momento, se deja al lector.

Ejercicio 21 Detalle las pruebas de los teoremas de isomorfismo, en el contexto de los espacios
vectoriales.

Ejercicio 22 Sea ϕ : E → V una transformación lineal. Muestre:


(a) ϕ es inyectivo si y solo si transforma conjuntos L.I. en conjuntos L.I.

28
(b) ϕ es sobreyectivo si y solo si transforma sitemas de generadores en sistemas de generadores.
(c) ϕ es un isomorfismo si y solo si transforma bases en bases.

Un resultado un poco más fuerte, que no es cierto en general para grupos abelianos pero sı́ para
espacios vectoriales.

Teorema 1.42 (de extensión de T.L.) Sean p : E → V y f : E → W transformaciones lineales.


La condición necesaria y suficiente para que exista f˜: V → W tal que f˜ ◦ p = f es que ker(p) ⊆
ker(f ).
E
f
/W
>
p
 f˜
V
Además f˜ es única si y solo si p es sobreyectiva.

Prueba. Vamos a definir primero una función f1 : p(E) → W que verifique las hipótesis del enuncia-
do. Entonces debe ser necesariamente f1 (p(e)) = f (e) para todo e ∈ E. La fórmula anterior define
unı́vocamente una función en p(E) si y solo si f es constante a lo largo de la fibra p−1 ({p(e)}). Esto
es cierto si y solo si p−1 ({p(e)}) = e + ker(p) ⊆ e + ker(f ). Por tanto si y solo si ker(p) ⊆ ker(f )
entonces f1 (p(e)) = f (e) está bien definida en p(E).
Para ver que f˜ puede definirse a lo largo de todo V razonemos de la siguiente manera. Consi-
deremos un suplementario S de p(E) en V de manera que V = p(E) ⊕ S. Ahora, cada elemento
v ∈ V se descompone de forma única como v1 +v2 con v1 ∈ p(E) y v2 ∈ S. Definimos f˜(v) = f1 (v1 ).

Ejercicio 23 Demuestre el siguiente corolario al teorema de extensión:


Sean ϕ : E → V una transformación lineal y séan E 0 ⊂ E y V 0 ⊂ V subespacios vectoriales. La
condición necesaria y suficiente para que exista una transformación lineal ϕ̃ : E/E 0 → V /V 0 que
haga conmutativo el diagrama
E
ϕ
/V

 
E/E 0
ϕ̃
/ V /V 0

es que ϕ(E 0 ) ⊆ V 0 . Además, si dicha transformación ϕ̃ existe, es única.

Ejercicio 24 Sean E y V espacios vectoriales de dimensión finita n y m y ϕ : E → V una trans-


formación lineal. Muestre que existen bases ē de E y v̄ de V tal que la matriz de ϕ es dicha pareja
de bases es:  
Ir×r 0r×n−r
[ϕ]ē,v̄ =
0m−r×r 0m−r×n−r
donde r es el rango de ϕ.

29
Ejercicio 25 Considere la función:
d
: K[[x]] → K[[x]], p(x) 7→ p0 (x).
dx
¿Es una transformación lineal?¿Cuál es su imagen?¿Cuál es su núcleo? (Pista: la respuesta depende
de la caracterı́stica de K)

Ejercicio 26 Considere la función:

σ : Sec(K) → Sec(K), (an )n∈N 7→ σ((an )n∈N ) = (an+1 )n∈N .

¿Es una transformación lineal?¿Cuál es su imagen?¿Cuál es su núcleo?

1.2.6. Secuencias exactas


Definición 1.43 Consideremos,
ϕk−1 ϕk ϕk+1
. . . → Ek−1 −−−→ Ek −−→ Ek+1 −−−→ . . .

una secuencia de transformaciones lineales. Decimos que es exacta en el k-ésimo término si im(ϕk−1 ) =
ker(ϕk ). Una secuencia de transformaciones lineales es exacta si es exacta en todos sus términos.

El teorema de Factorización nos indica como incluir cualquier transformación lineal dentro de
una secuencia exacta, puesto que si ϕ : E → V es una transformación lineal entonces,
i ϕ q
0→
− ker(ϕ) →
− E−
→V −
→ V /im(ϕ) →
− 0

es una secuencia exacta. Por la situación en la que se encuentra en la secuencia (que tendra sus
consecuencias en la teorı́a de la dualidad) el espacio cociente V /im(ϕ) recibe también el nombre de
conúcleo de ϕ. Se denota V /im(ϕ) = coker(ϕ).

Ejercicio 27 Consideremos
0 → E 0 → E → E 00 → 0
una sucesión exacta corta de 3 términos no necesariamente nulos. Demuestre que

dimE = dim(E 0 ) + dim(E 00 ).

Teorema 1.44 Consideremos una secuencia exacta que empieza y termina por 0,
ϕ0 ϕ1 ϕ2 ϕm−1 ϕm
0 −→ E1 −→ E2 −→ . . . −−−−→ Em −−→ 0
Pm k
Entonces k=1 (−1) dimK (Ek ) = 0.

Prueba. La prueba se realiza por inducción finita sobre la longitud de la secuencia. Por la particu-
laridad del argumento inductivo que vamos a realizar, es necesario considerar como casos iniciales
m = 1, 2, 3.
Si m = 1 entonces necesariamente E1 = {0} y el teorema es cierto. Si m = 2 entonces ϕ1 es
necesariamente un isomorfismo, y el teorema también es cierto. Si m = 3 entonces se trata del
Ejercicio 27.

30
Realicemos ahora el paso inductivo. Supongamos m > 3 y asumamos que el teorema es cierto
para toda secuencia exacta de longitud menor a m. Si substituimos Em−1 por el núcleo de ϕm−1
obtenemos dos secuencias.
ϕ0 ϕ1 ϕ2 ϕm−2 ϕm−1
0 −→ E1 −→ E2 −→ . . . −−−−→ ker(ϕm−1 ) −−−−→ 0
i ϕm−1 ϕm
0−
→ ker(ϕm−1 ) −→ Em−1 −−−−→ Em −−→ 0.
Supongamos, por hipótesis de inducción, que el teorema es cierto para estas secuencias más cortas.
Tenemos entonces:
m−2
X
(−1)m dim(Ek ) + (−1)m−1 dim(ker(ϕm−1 )) = 0
k=1
dim(ker(ϕm−1 )) − dim(Em−1 ) + dim(Em ) = 0.
Sumando o restando estas expresiones, según m sea par o impar, obtenemos el resultado del teore-
ma.

Ejercicio 28 ¿Puede diseñar una secuencia exacta, tal que al aplicarle el Teorema 1.44 se obtenga
la fórmula de la dimensión?
Las secuencias exactas de la forma,
i q
0 → E0 → → E 00 → 0.
− E−
reciben el nombre de secuencias exactas cortas. En este caso siempre i es inyectivo y q es sobreyec-
tivo. Notemos que i(E 0 ) es ker(q) y que q factoriza a un isomorfismo entre E/i(E 0 ) y E 00 .
Un inverso por la izquierda de i, es decir ρ : E → E 0 tal que ρ ◦ i = IdE 0 recibe el nombre dee
retracto de i. Un inverso por la derecha de q, es decir σ : E 00 → E tal que q ◦ σ = IdE 00 recibe el
nombre de sección de q.
Proposición 1.45 Si ρ es un retracto de i entonces ker(ρ) es un suplementario de i(E 0 ) en E.
Si σ es una sección de q entonces im(σ) es un suplementario de i(E 0 ) en E. Estas asignaciones
establecen correspondencias biyectivas naturales entre los conjuntos de:
(a) Retractos de i.
(b) Secciones de q.
(c) Subespacios suplementarios de i(E 0 ) en E.
Prueba. Elemental.

La existencia de suplementarios es un resultado fuerte de la teorı́a de espacios vectoriales. En


otros contextos más generales, como módulos o grupos, las secuencias exactas pueden no admitir
secciones ni retractos. En el caso de módulos, la existencia de una sección es equivalente a la un
retracto.
Ejercicio 29 Considere C r (R) el espacio de las funciones reales r-veces diferenciables. Muestre que
la secuencia,
d
0 → R → C r+1 (R) −−→ C r (R) → 0
dx

es exacta. Mediante herramientas del cálculo diferencial construya secciones y retractos.

31
1.3. Espacio dual
Definición 1.46 Llamamos espacio dual de E a E ∗ = LinK (E, K). Los elementos de E ∗ se llaman
formas lineal o covectores en E.

Ejemplo 1.47 Sea B una base de E. Como antes habı́amos observado, cada elemento b ∈ B se de-
fine una función b∗ : E → K que asigna a cada elemento de e el coeficiente de b en su descomposición
sobre la base B. Este elemento b∗ es una forma lineal en E.

Ejemplo 1.48 Sea X un conjunto y consideremos x ∈ X. Entonces x define un elemento vx ∈


(KX )∗ llamado la valuación en x.

vx : KX → K, f 7→ vx (f ) = f (x).

Esto se conoce como la dualidad punto-función. Las funciones se aplican a los puntos, pero ası́
mismo los puntos pueden verse como funciones cuyo dominio es el conjunto de las funciones. Es
contumbre escribir simplemente x en lugar de vx , es decir x(f ) = f (x).

Cuando B = {b1 , . . . , bn } es una base finita, las formas b∗j están determinadas por las ecuaciones
b∗j (bi )
= δji , donde δji representa la función delta de Kronecker. Observemos que hay un cierto
abuso de lenguaje en la notación b∗ , pues la construcción de la forma b∗ depende no solamente del
elemento b ∈ B sino de los otros elementos de la base. Es decir, un vector b puede formar parte de
diferentes bases, y en ese caso darı́a lugar a diferentes covectores b∗ .

Ejemplo 1.49 Desde el comienzo hemos identificado el espacio Kn de las n-tuplas con los vectores
columna. Es decir, Kn = Mat(n × 1, K). Por otro lado, cada vector fila F ∈ Mat(1 × n, K) puede
multiplicarse por vectores columna, obteniendose un escalar, es decir:

F : Kn → K, v 7→ F v

de esta manera el vector fila F es un covector en el espacio Kn de los vectores columna.

Teorema 1.50 (de la base dual) Suponga que B = {b1 , . . . , bn } es una base del espacio E de
dimensión finita. Entonces el conjunto de covectores B ∗ = {b∗1 , . . . , b∗n } es una base de E ∗ .
Pn
Prueba. Sea ω una forma lineal en E. Consideremos ω 0 = j=1 ω(bj )b∗j . Automaticamente tenemos
ω − ω 0 se anula sobre todos los elementos de la base, y por tanto ω = ω 0 . Es decir, ω es combinación
lineal de B ∗ . Por otro lado, es muy sencillo probar que si existe una combinación lineal nula,
n
X
λj b∗j = 0
j=1

entonces aplicando ambos términos de la igualdad a los elementos de la base obtenemos la nulidad
de todos los coeficientes.

Ejemplo 1.51 Se deduce facilmente de todo lo anterior que si identificamos Kn con el espacio
Mat(n × 1, K) de los vectores columna, entonces (Kn )∗ es el espacio Mat(1 × n, K) de los vecores
fila, que se aplican a los vectores columna mediante el producto de matrices.

32
Veamos que si E no tiene dimensión finita y B es una base de E entonces los covectores B ∗ no
son un sistema de generadores de E ∗ . Consideremos la forma
X X
ω: λi bi 7→ λi .
finita finita


Es claro que ω ∈ E . Supongamos,
Pm razonando por reducción al absurdo que ω puede escribirse como
una combinación lineal ω = j=1 µj b∗j donde b∗1 , . . . , b∗m ∈ B ∗ . Consideremos entonces un b ∈ B
tal que b∗ no aparece en dicha combinación lineal. Aplicando ambos términos de la igualdad a b
obtenemos 1 = 0, contradicción.

1.3.1. Reflexividad y fórmulas de dualidad


Abusando de la notación, decimos que cada vector e ∈ E es una forma lineal en E ∗ mediante la
fórmula,
e(ω) = ω(e),
es decir, identificamos e como elemento de E y e como función e : E ∗ K. Esto no es problemático ya
que si dos vectores definen la misma función en E ∗ esto implica que tienen la misma expresión en
coordenadas en cualquier base y por tanto son el mismo vector. Por tanto, en adeltante podemos
suponer E ⊆ E ∗∗ .

Teorema 1.52 (de reflexividad) Si E tiene dimensión finita entonces E = E ∗∗ .

Prueba. Sea B una base de E. El teorema de la base dual nos dice que (B ∗ )∗ = B y por tanto
E ∗∗ está generado por B.

Sea entonces B = {b1 , . . . , bn } una base de E y sea B ∗ = {b1 , . . . , bn } su correspondiente base


dual10 . La descomposición en coordenadas de E o E ∗ se realiza aplicando los elementos de la base
dual. Es decir, si v ∈ E y ω ∈ E ∗ entonces,
n
X n
X
v= bj (v)bj , ω= ω(bj )bj .
j=1 j=1

Veamos como cambian de base las coordenadas en el espacio dual. Sea E un espacio vectorial
de dimensión finita n y sea {e1 , . . . , en } una base de E, y sea {e1 , . . . , en } su correspondiente base
dual. Consideremos {u1 , . . . , un } otra base de E, con base dual {u1 , . . . , un } de manera que tenemos
una matriz de cambio de base,
n
X
ei = aji uj
j=1

aplicando la fórmula de dualidad a ui se obtiene automáticamente,


n
X
ui = aij ej .
j=1
10 (bj := b∗j ).

33
1.3.2. El espacio incidente o anulador
Consideremos un subconjunto S ⊂ E y tomemos,

ann(S) = {ω ∈ E ∗ | ∀v ∈ S ω(v) = 0}.

Es fácil mostrar que ann(S) es un subespacio de E ∗ al que nos referiremos como el incidente o
anulador de S.

Proposición 1.53 Sean S y S 0 subespacios de E. Se verifica:


(a) ann(ann(S)) ∩ E = S,
(b) S 0 ⊆ S ⇐⇒ ann(S) ⊆ ann(S 0 ).

Prueba. (a) La contención S ⊆ ann(ann(S)) ∩ E es elemental. Mostremos la contención

ann(ann(S)) ∩ E ⊆ S.

Consideremos e ∈ ann(ann(S)) ∩ E. Para todo ω ∈ ann(S) se tiene ω(e) = 0. Veamos, razonando


por reducción al absurdo que e es necesariamente un elemento de S. Supongamos lo contrario. Sea
B 0 una base de S. Como e 6∈ S entonces B 0 ∪ {e} es L.I. y por tanto puede extenderse a una base
B de E. Por la definición de la base dual tenemos e∗ |S = 0, pues se anula sobre los elementos
de una base de S, y por tanto e∗ ∈ ann(S). Pero por otro lado e∗ (e) = 1, en contradicción con
e ∈ ann(ann(S)).
(b) La implicación de izquierda a derecha es consecuencia inmediata de la definición. Suponga-
mos entonces ann(S) ⊆ ann(S 0 ). Entonces tenemos ann(ann(S 0 )) ⊆ ann(ann(S)) como subespacios
del bidual E ∗∗ . Tomando ahora intersección con E, concluimos por el apartado (a).

Proposición 1.54 Sean S y S 0 subespacios de E. Se verifica:


(a) ann(S + S 0 ) = ann(S) ∩ ann(S 0 ),
(b) ann(S ∩ S 0 ) = ann(S) + ann(S 0 ).

Prueba. El apartado (a) es consecuencia inmediata de la definición. Veamos el apartado (b). La


contención de izquierda a derecha es también inmediata. Hay que ver que toda forma que se anula
sobre la intersección S ∩ S 0 puede escribirse como suma de formas que se anulan sobre S y S 0
respectivamente.
Sea ω una forma que se anula sobre S ∩ S 0 . El espacio ann(S ∩ S 0 ) ⊆ E ∗ se identifica con el dual
de Ē = E/(S ∩ S 0 ). Consideramos la forma lineal ω̄ ∈ Ē ∗ definida por ω mediante el diagrama:

E
q
/ Ē = E/(S ∩ S 0 )

ω̄
ω
& 
K

Consideramos, S̄ = S/(S ∩ S 0 ) y S̄ 0 = S 0 /(S ∩ S 0 ). Entonces S̄ y S̄ 0 están en suma directa en Ē.


Calculemos una descomposión de ω̄ = ᾱ + β̄ donde ᾱ se anula sobre S̄ y β se anula sobre S̄ 0 . Por

34
el teorema de la base, es posible extender S̄ 0 a un suplementario S̄ 00 de S̄ en E. Tenemos por tanto
una descomposición,
Ē = S̄ ⊕ S̄ 00
Consideremos la secuencia exacta,
0 → S̄ → Ē → Ē/S̄ → 0
y sea ahora ρ : Ē → S̄ el retracto de dicha secuencia cuyo núcleo es S̄ 00 . Entonces tomamos ᾱ = ω̄ ◦ρ
y β̄ = ω̄ − ᾱ, obteniendo la descomposición deseada. Finalmente, definimos α = ᾱ ◦ q y β = β̄ ◦ q.
Se tiene α ∈ ann(S), β ∈ ann(S 0 ) y ω = α + β.

Otra manera de expresar la situación es la siguiente. La asignación S ann(S) establece un anti-


morfismo inyectivo de retı́culos entre el retı́culo de los subespacios vectoriales de E el el retı́culo de
los subespacios vectoriales de E ∗ . En general, puede haber en E ∗ subespacios que no son el espacio
anulador de un subespacio de E, por ejemplo si B es una base de E entonces hB ∗ iK ⊂ E ∗ es un
subespacio propio, pero no es el espacio anulador de ningún subespacio propio de E.
Sin embargo, por el teorema de reflexividad, cuando E tiene dimensión finita entonces la asig-
nación S ann(S) establece un anti-isomorfismo de retı́culos entre el retı́culo de los subespacios
vectoriales de E el el retı́culo de los subespacios vectoriales de E ∗ .

Ecuaciones de los subespacios y subvariedades lineales afines


Supongamos ahora que E tiene dimensión finita. Si V es un subespacio de E entonces ann(V )
puede interpretarse como el espacio de las ecuaciones de V . Los sistemas de generadores de ann(V )
son sistemas de ecuaciones lineales homogéneas cuyo espacio de soluciones en V . Si {ω1 , . . . , ωr }
es una base de ann(V ) entonces,
V = {v ∈ E | ω1 (v) = . . . = ωr (v) = 0}.
Si fijamos un punto inicial v0 , también podemos describir las ecuaciones no homogéneas de la
subvariedad lineal afı́n v0 + V utilizando la base de ann(V ),
V + v0 = {v ∈ E | ω1 (v) = ω1 (v0 ), . . . , ωr (v) = ωr (v0 )}.
Podemos afirmar que las subvariedades lineales afines cuyo espacio director es V son los conjuntos
de nivel de las funciones ω1 ,. . .,ωr .

Ecuaciones paramétricas e implı́citas


Como hemos visto, hay dos maneras de expresar un subespacio V ⊂ E. Podemos decir que V
es el espacio generado por unos ciertos vectores, es decir, dar un sistema de generadores de V ,
 
Xk 
V = hv1 , . . . , vk iK = λj vj | λj ∈ K
 
j=1

lo que se conoce como ecuaciones paramétricas de V o podemos decir que V es el espacio de


soluciones de un sistema de ecuaciones lineales,
V = ann(ω1 , . . . , ωr ) = {x ∈ Kn | ω1 (x) = 0, . . . ωr (x) = 0}.

35
lo que se conoce como ecuaciones implı́citas de V .
¿Como se realiza el tránsito de un tipo de ecuaciones al otro? Existen varios procedimientos.

Por el teorema de reflexividad, el paso de ecuaciones implı́citas a paramétricas es equivalente


al paso de ecuaciones paramétricas a implicitas. Pues las ecuaciones paramétricas de V son
ecuaciones implı́citas de ann(V ) y viceversa. Es decir, los métodos que vamos a describir
funcionan en ambos sentidos.
Método de Gauss-Jordan: Supongamos que conocemos unas ecuaciones implı́citas de V .
Partimos por tanto de una base {ω1 , . . . , ωr } de ann(V ). Escribimos cada una de las formas
lineales ωj en coordenadas:

ω1 (x) = a11 x1 + . . . + a1n xn , ... ωr (x) = ar1 x1 + . . . + arn xn .

De manera que el espacio V queda descrito como el espacio de soluciones de una ecuación
escrita en forma matricial
V = {x ∈ Kn | Ax = 0}
donde A es la matriz r × n de coeficientes aij . Procedemos a reducir la matriz A a su forma
escalonada reducida, obteniendo un sistema equivalente de ecuaciones,

xi1 = b11 xj1 + ... + b1k xjk


x i2 = b21 xj1 + ... + b2k xjk
.. .. ..
. = . .
x ir = br1 xj1 + ... + brk xjk

donde x1i , . . . , xir son las variables pivote, y xj1 ,. . .,xjk las variables libres. Substituyendo
en los términos de la derecha las variables libres por parámetros λ1 ,. . .,λs , y añadiendo las
ecuaciones xj` = λ` obtenemos la expresión general para un vector de V :
     
x1 c11 ck1
 x2   c12   ck2 
 ..  = λ1  ..  + . . . + λk  .. 
     
 .   .   . 
xn c1n xkn
y por tanto,    
* c11 ck1 +
 c12   ck2 
V = ,..., .
   
 .. .. 
 .   . 
c1n xkn K

Método de Kramer: Partimos ahora de una base {v1 , . . . , vk } de V . Consideremos x un


vector variable en (Kn )∗ .  
x1
 x2 
x= . 
 
 .. 
xn

36
Las componentes de x se pueden interpretar como las funciones coordenadas en Kn , y por
tanto son elementos de (Kn )∗ . Entonces [v1 , . . . , vk , x] es una matriz n × (k + 1). Es claro que
si ahora le damos al vector x un valor en Kn tenemos que x ∈ V si y solo si el rango de dicha
matriz es k y no k + 1. Es decir,

V = {x ∈ Kn | rank[v1 , . . . , vk , x] = k}

ahora, para que la matriz [v1 , . . . , vk , x] tenga rango k deben anularse los menores de tamaño
(k + 1). Cada uno de los menores de tamaño (k + 1) es una combinación lineal con coeficientes
en K de las funciones coordenadas x1 , . . . , xn . Concluimos:

Los generadores de ann(V ) para V ⊆ Kn son los menores11 de tamaño (k + 1) de la matriz


[v1 , . . . , vk , x], donde v1 ,. . .,vk es una base de V .

Esto es particularmente sencillo en el caso k = n − 1, es decir cuando V es un hiperplano. En


ese caso solamente hay un menor de tamaño n, det[v1 , . . . , vk , x] es una función lineal, y la
ecuación implı́cita de V es
det[v1 , . . . , vk , x] = 0.

Estos métodos se adaptan al caso de las subvariedades lineales afines. Supongamos que tene-
mos una subvariedad lineal afı́n S = v0 + V . Entonces, dada una base de {v1 , . . . , vk } de S
tenemos las ecuaciones paramétricas para S,
k
X
x = v0 + λ j vj λj ∈ K
j=1

y dada una base {ω1 , . . . , ωr } de ann(V ) entonces tenemos unas ecuaciones implı́citas de V ,

ω1 (x) = ω1 (v0 )
..
.
ωr (x) = ωr (v0 ).

Ejercicio 30 Calcule unas ecuaciones implı́citas para el plano de K3 que pasa por (1, 0, 3) y su
espacio director está generado por (2, 3, 1) y (1, −2, 1).

Ejercicio 31 Calcule unas ecuaciones implı́citas para el plano de K4 que pasa por (1, 0, 3, 1) y su
espacio director está generado por (2, 3, 1, 0) y (0, 1, −2, 1).

Independencia lineal de formas


Proposición 1.55 Sean ω1 , . . . , ωn formas lineales en E. Entonces {ω1 , . . . , ωn } es linealmente
independiente si y solo si,
ω̄ : E → Kn , e 7→ (ω1 (e), . . . , ωn (e))
es sobreyectiva.
11 Nota práctica: no es necesario calcular todos los menores de tamaño (k + 1). Basta con localizar un menor no

nulo de tamaño k en [v1 , . . . , vk ] y considerar en v1 , . . . , vk , x] los r menores diferentes de orden (k + 1) que contienen
a dicho menor de tamaño k. Los otros serán linealmente dependientes de estos.

37
Pn
Prueba. Es claro que hay una combinación lineal no trivial nula i=1 λi ωi = 0, si y solo si la
imagen de ω̄ está contenida en el hiperplano de ecuación λ1 x1 + . . . + λn xn = 0.

Nota 1.56 El resultado anterior es falso si se toma un conjunto infinito de formas lineales. Por
ejemplo, consideremos E = K[x] y las formas lineales,

ai : K[x] → K, p = a0 + a1 x + . . . + an xn 7→ ai ,

v1 : K[x] → K, p = a0 + a1 x + . . . + an xn 7→ p(1) = a0 + a1 + . . . + an .
En este caso {v1 , a0 , a1 , a2 , . . . , } es L.I. pero el mapa,

K[x] → Sec0 (K), p 7→ (v1 , a1 (p), a2 (p), . . .)

no es sobreyectivo,12 por ejemplo (1, 0, 0, 0, 0, . . .) no está en la imagen.

1.3.3. La transformación transpuesta


Sea ϕ : E → V una transformación lineal. Sea ω ∈ V ∗ un covector en V entonces podemos
componer con ϕ obteniendo que ω ◦ ϕ es un covector en E. Es decir, la precomposición con ϕ
produce una transformación lineal,

ϕT : V ∗ → E ∗ , ω 7→ ϕt (ω) = ω ◦ ϕ.

Nos referimos a ϕT como la transformación transpuesta. Esto tiene un significado muy concreto
cuando E y V son de dimensión finita: si la matriz de ϕ en una pareja de bases es A, entonces la
matriz de ϕT en las correspondientes bases duales es AT . La transposición, por definición, invierte
el orden de la composición (ϕ ◦ ψ)T = ψ T ◦ ϕT . Cuando E y V tienen dimensión finita, la función
“transposición”

→ LinK (V ∗ , E ∗ ), ϕ 7→ ϕT
LinK (E, V ) −
es un isomorfismo de espacios vectoriales.

Dual de un subespacio
Cuando i : S ⊂ E es la inmersión canónica de un subespacio S de E entonces la transformación
transpuesta iT es la restricción,

iT : E ∗ → S ∗ , ω 7→ iT (ω) = ω|S .

El teorema de extensión garantiza que iT es una transformación sobreyectiva. El núcleo de iT es


por definición ker(iT ) = ann(S). Es decir, el dual de un subespacio se identifica con un cociente del
dual, y tenemos un isomorfismo canónico S ∗ ' E ∗ /ann(S).
12 En este caso tomamos Seq (K) el espacio de las secuencias eventualmente nulas de elementos de K, es decir,
0
secuencias (λ1 , λ2 , λ3 , . . . , 0, . . .) ya que el espacio de todas las secuencias KN es aún demasiado grande para nuestros
propósitos. La observación es, a fortiori, igualmente válida si se utiliza KN en lugar de Seq0 (K).

38
Dual de un cociente
Cuando q : E → E/S es la función de paso al cociente tiene por transpuesta una inmersión
q T : (E/S)∗ ,→ E ∗
que identifica a (E/S)∗ con el subespacio de las formas lineales en E que se anulan a lo largo de
S, im(q T ) = ann(S). Es decir, el dual de un cociente se identifica con un subespacio del dual y
tenemos (E/S)∗ ' ann(S).
Proposición 1.57 Si E tiene dimensión finita dimK E = dimK S + dimK (ann(S))
Prueba. Basta considerar la secuencia exacta:
0 → ann(S) → E ∗ → S ∗ → 0.

Dual de secuencias exactas


De forma general:
Proposición 1.58 Sea ϕ : E → V una transformación lineal y sea ϕT : V ∗ → E ∗ la transformación
transpuesta. Se verifica:
(a) ker(ϕT ) = ann(im(ϕ)).
(b) im(ϕT ) = ann(ker(ϕ)).
Prueba. El punto (a) es consecuencia inmediata de las definiciones. El punto (b) es un corolario
al teorema de extensión.

La proposición anterior tiene como consecuencia la dualización de las secuencias exactas.


Proposición 1.59 Una secuencia de transformaciones lineales
ϕk−1 ϕk ϕk+1
. . . → Ek−1 −−−→ Ek −−→ Ek+1 −−−→ . . .
es exacta si y si solo la secuencia de transformaciones transpuestas
∗ ϕk−1 ϕk ϕk+1
. . . ← Ek−1 ←−−− Ek∗ ←−− Ek+1

←−−− . . .
es exacta.
De esta manera una secuencia exacta del tipo,
ϕ
0 → ker(ϕ) → E −
→ V → coker(ϕ) → 0
se transforma por dualidad en
ϕT
0 ← ker(ϕ)∗ ← E ∗ ←−− V ∗ ← coker(ϕ)∗ ← 0
y obtenemos isomorfismos canónicos ker(ϕ)∗ ' coker(ϕT ) y coker(ϕ)∗ ' ker(ϕT ).

39
1.4. Sumas, productos, lı́mites directos e inversos
1.4.1. Producto directo
Sea {Ei }i∈I una familia de K-espacios vectoriales. Uno puede considerar el producto directo (o
cartesiano) de la familia, Y
E= Ei .
i∈I

El producto está dotado de proyecciones πi : E → Ei sobre cada elemento de la familia. Se puede


dotar a E de la única estructura de espacio vectorial que hace a todas las πi transformaciones
lineales. Esta es la estructura evidente, la suma es componente a componente, y el producto por
escalares es sobre todas las componentes.
El espacio producto, tiene la siguiente propiedad universal, para cualquier otro espacio vectorial
Z la composición con las proyecciones produce una biyección,
!

Y Y
LinK Z, Ei − → LinK (Z, Ei ), ϕ 7→ (πi ◦ ϕ)i∈I .
i∈I i∈I

1.4.2. Suma directa


También puede formarse el espacio suma directa,
( )
M X
Ei = ei | ei ∈ Ei
i∈I finita
L
cuyos elementos son sumas finitas
Q de vectores en los espacios Ei . Los elementos de i∈I Ei pueden
entenderse como elementos de i∈I Ei cuyas componentes son todas cero excepto un número finito.
De esta manera, M Y
Ei ⊆ Ei .
i∈I i∈I

y la igualdad se tiene si y solo si el cardinal


L del conjunto I de ı́ndices es finito. Para cada espacio
Ei hay una inmersión canónica ρi : Ei ⊂ i∈I Ei y la suma directa también está caracterizada por
una propiedad universal. Para cualquier otro espacio vectorial Z la composición con las inmersiones
produce una biyección,
!

M Y
LinK Ei , Z − → LinK (Ei , Z), ϕ 7→ (ϕ ◦ ρi )i∈I .
i∈I i∈I

Dualidad entre lı́mites sumas y productos


El dual de la suma directa es el producto directo
Q de los duales como puedeLconstruirse explı́ci-
tamente. En primer lugar un elemento (ωi )i∈I de i∈I Ei∗ es un covector es i∈I Ei pues puede
aplicarse a las sumas finitas de elementos de los espacios Ei ,
!
X X
(ωi )i∈I ei = ωi (ei ) ∈ K.
finita finita

40
L
Por otro lado un covector
Q cualquiera ω en i∈I Ei puede descomponerse como (ω ◦ ρi )i∈I y por
tanto es un elemento de i∈I (Ei∗ );
!∗
M Y
Ei = Ei∗ .
i∈I i∈I

1.4.3. Limı́tes dirigidos


En ocasiones también podemos tener un sistema dirigido de espacios vectoriales. Esto es una
familia {Ei }i∈I donde I es un conjunto parcialmente ordenado y para cada pareja de ı́ndices i < j
se tiene una transformación lineal fij : Ei → Ej de manera que si i < j < k entonces fjk ◦ fij = fik .
Entonces se define el lı́mite dirigido (o colı́mite),
!
M
lı́m Ei = Ei / Γ

i∈I

donde Γ es el subespacio vectorial generado por todas los elementos de la forma e − fij (e). Es decir,
en el lı́mite dirigido cada elemento e se identifica con sus imágenes a lo largo de todo el sistema.
El limite dirigido está construido ad hoc para satisfacer la siguiente propiedad universal. Dado
un espacio vectorial cualquiera Z una familia de transformaciones lineales compatible con el sistema
dirigido es una familia {ϕi : Ei → Z}i∈I de transformaciones tal que para cada fij : Ei → Ej se
tiene ϕj ◦ fij = ϕi .

Proposición 1.60 Sea ({Ei }i∈I , {fij }i<j ) un sistema dirigido de espacios vectoriales, y sea Z un
espacio vectorial cualquiera. Entonces cada familia compatibles {ϕi : Ei → Z} de transformaciones
lineales induce una transformación lineal ϕ : lı́m→ Ei → Z mediante la fórmula,
!
X X
ϕ ei = ϕi (ei ).
finita finita

Esta asignación establece una correspondencia biyectiva entre el conjunto de las familias compatibles
y LinK (lı́m→ Ei , Z)

Prueba. Por la propiedad L universal de la suma directa, las familias {ϕi : Z → Ei } inducen trans-
formaciones lineales ϕ : i∈I → Z. Ahora, una familia es compatible si y solo si se anula sobre
todos los elementos de la forma e − fij (e), es decir, si se anula sobre el espacio Γ. Por el teorema
de extensión obtenemos la correspondencia biyectiva del enunciado.

1.4.4. Lı́mites inversos


La noción dual de sistema dirigido es la de sistema proyectivo esto es una familia {Vi }i∈I I es
un conjunto parcialmente ordenado y para cada pareja de ı́ndices i > j se tiene una transformación
lineal fij : Vi → Vj de manera que si i > j > k entonces fjk ◦ fij = fik . Entonces se define el lı́mite
inverso oproyectivo, ( )
Y
lı́m Vi = (vi )i∈I ∈ Vi | fij (vi ) = vj

i∈I

41
De forma dual al limite dirigido, el lı́mite proyectivo está construido ad hoc para satisfacer
una propiedad universal. Dado un espacio vectorial cualquiera Z una familia de transformaciones
lineales compatible con el sistema proyectivo es una familia {ϕi : Z → Ei }i∈I de transformaciones
tal que para cada fij : Ei → Ej se tiene fij ◦ ϕi = ϕj .

Proposición 1.61 Sea ({Ei }i∈I , {fij }i<j ) un sistema proyectivo de espacios vectoriales, y sea Z
un espacio vectorial cualquiera. Entonces cada familia de transformaciones lineales compatibles
{ϕi : Ei → Z} de transformaciones lineales induce una transformación lineal ϕ : lı́m← Ei → Z
mediante la fórmula,
ϕ((ei )i∈I ) = (ϕi (ei ))i∈I .
Esta asignación establece una correspondencia biyectiva entre el conjunto de las familias compatibles
y LinK (lı́m← Ei , Z)

Dualidad entre lı́mites directos e inversos


Notemos que, transponiendo las transformaciones lineales, un sistema dirigido ({Ei }i∈I , {fij }i<j )
nos produce por paso al dual un sistema proyectivo
L ({Ei∗ }i∈I , {fij
T
}i>j ). Si definimos Γ como el espa-
cio generado por los elementos ei −fij (ei ) en i∈I (Ei ) entonces tenemos que ann(Γ) es precisamente
lı́m→ Ei∗ . Dado que, !
M
(Ei )/ Γ = ann(Γ),
i∈I

obtenemos,
(lı́m Ei )∗ = lı́m Ei∗ .
→ ←

1.5. Variedades Grassmanianas y espacios proyectivos


Sea E un espacio vectorial. Se define la k-ésima variedad Grassmaniana de E como el conjunto
de los subespacios de E de dimensión k.

Gr(k, E) = {S ⊂ E | dimK (S) = k}

La variedad Grassmaniana es no vacı́a si y solo si k ≤ dimK (E). En el caso de k = 0 0 k = dimK (E)


tenemos que la variedad Grassmaniana se reduce a solamente un punto.

1.5.1. Transformaciones inducidas entre las variedades Grassmanianas


Imagen directa de subespacios vectoriales
Consideremos una transformación lineal ϕ : E → V . Es claro que S es un subespacio vectorial de
E entonces im(ϕ|S ) es un subespacio vectorial de V . Podemos considerar la función imagen directa,

ϕ∗ : {subespacios vectoriales de E} → {subespacios vectoriales de V }, S 7→ ϕ∗ (S) = im(ϕ|S ).

Sin embargo, las dimensiones de S y ϕ(S) no siempre están relacionadas de la misma manera y
la imagen directa ϕ∗ no envı́a necesariamente unas variedades Grassmanianas en otras. un cálculo
sencillo nos dice,
dimK ϕ(S) = dimK (S) − dimK (ker(ϕ|S )).

42
Es decir, la dimensión de ϕ(S) depende, no solo de la dimensión de S simo también de su situación
relativa con respecto al núcleo. La condición para que ϕ preserve la dimensión de S es que S corte
solamente en {0} a ker ϕ. Definimos entonces la Grassmaniana localizada a ϕ como,
Gr(k, E)ϕ = {S ∈ Gr(k, E) | S ∩ ker(ϕ) = {0}}.
En la Grassmaniana localizada está definida la función inducida,
ϕ∗ : Gr(k, E)ϕ → Gr(k, V ), S 7→ ϕ(S).
La imagen ϕ∗ (Gr(k, E)ϕ ) es el conjunto de los subespacios vectoriales k-dimensionales de V que
están contenidos en la imagen de ϕ. Esto es, ϕ(Gr(k, E)ϕ ) = Gr(k, im(ϕ)).

Caso inyectivo
Si i : E 0 → E es una transformación lineal inyectiva, entonces para cada subespacio k-dimensional
S de E 0 tenemos que i(S) es un subespacio k-dimensional de E. También, por la inyectividad, es-
pacios diferentes deben tener imágenes diferentes. Por tanto tenemos una función inyectiva,
i∗ : Gr(k, E 0 ) ,→ Gr(k, E), S 7→ I(S).
que identifica Gr(k, E 0 ) con Gr(k, i(E 0 )) ⊆ Gr(k, E).

Acción de los automorfismos


Es evidente que la acción de AutK (E) en E induce una acción de AutK (E) en cada variedad
Grassmaniana Gr(k, E).

AutK (E) × Gr(E, k) → Gr(E, k), (ϕ, S) 7→ ϕ∗ (S) = im(ϕ|S ).

Imagen inversa de subespacios vectoriales


De nuevo si ϕ : E → V es una transformación lineal y S es un subespacio de V , la preimagen
ϕ−1 (S) es un subespacio vectorial de V . Es decir, tenemos una función imagen inversa.
ϕ∗ : {subespacios vectoriales de V } → {subespacios vectoriales de E}, S 7→ ϕ∗ (S) = ϕ−1 (S).
Hay una relación elemental entre la imagen directa y la imagen inversa:
(a) Si S ⊆ E entonces ϕ∗ (ϕ∗ (S)) = S + ker(ϕ).
(b) Si S ⊆ V entonces ϕ∗ (ϕ∗ (S)) = S ∩ im(ϕ).
Al igual que la imagen directa, la imagen inversa no envı́a unas variedades Grassmanianas en
otras. Sea S ⊂ V , podemos calcular la dimensión:
dimK (ϕ∗ (S)) = dimK (S ∩ im(ϕ)) + dimK (ker(ϕ)).
Por tanto si S es un subespacio k-dimensional contenido en la imagen de ϕ, y d es la dimensión
de ker(ϕ) entonces ϕ∗ (S) es un subespacio (k + d)-dimensional de E. Tenemos por tanto la función
imagen inversa preserva las Grassmanianas siguientes:
ϕ∗ : Gr(k, im(ϕ)) → Gr(k + d, E), S 7→ ϕ∗ (S) = ϕ−1 (S).
En particular si ϕ : E → V es sobreyectiva y el núcleo tiene dimensión d entonces la imagen inversa
de subespacios vectoriales asigna Gr(V, k) en Gr(E, k + d).

43
1.5.2. Espacio proyectivo
La primera variedad Grassmaniana Gr(1, E) recibe también el nombre de espacio proyectivo
asociado a E y se denota por P(E). El espacio proyectivo puede también construirse de la siguiente
manera. Cada vector v 6= 0 genera una recta vectorial [v] = hviK , y toda recta vectorial es generada
por un vector. Luego el mapa,
[ ] : (E − {0}) → P(E), v 7→ [v]
es claramente sobreyectivo. Por tanto P(E) se identifica con el conjunto cociente (E −{0})/ ∼ donde
∼ es la relación de equivalencia “generar la misma recta”. Dos vectores no nulos e, v ∈ E − {0}
generan la misma recta si y solo sı́ hay un elemento no nulo en λ ∈ (K − {0}) tal que e = λv.
Podemos por tanto considerar la acción del grupo multiplicativo (K − {0}) en (E − {0}) dada por
la multiplicación por escalares.
(K − {0}) × (E − {0}) → (E − {0}), (λ, e) 7→ λe.
Es claro que [e] = [v] si y solo si e y v están en la misma órbita bajo la acción del grupo y por
tanto, P(E) puede verse como el espacio de órbitas (E − {0})/(K − {0}).

1.5.3. Coordenadas homogéneas


El espacio proyectivo P(Kn+1 ) recibe el nombre de espacio proyectivo n-dimensional sobre K
y se denota KPn . De forma general, si E es un espacio vectorial de dimensión (n + 1), cualquier
sistema de coordenadas en E producirá una identificación entre P(E) y KPn , por lo tanto en lo
que sigue restringiremos nuestras consideraciones al espacio KPn . Es el modelo de la geometrı́a
proyectiva. Vamos a describirlo a través de un sistema de coordenadas.
Los elementos de Kn+1 los representaremos en esta sección por (n + 1)-tuplas (t0 , t1 , . . . , tn )
(no los escribiremos generalmente como vectores columnas, para no recargar la notación). La recta
generada por (t0 , t1 , . . . , tn ) la denotaremos [t0 : t1 : . . . : tn ], y nos referiremos a ella como un punto
del espacio proyectivo. Es decir los puntos de KPn son las rectas vectoriales de Kn+1 .
Dado un punto p = [t0 : . . . : tn ] de KPn diremos que los elementos de K t0 , . . . , tn son
unas coordenadas homogéneas de p. Las coordenadas homogéneas no están bien definidas, porque
si t0 , . . . , tn son unas coordenadas homogéneas de p entonces para cualquier λ 6= 0 en K tabién
λt0 , . . . , λtn son otras coordenadas homogéneas del mismo punto p.
Sin embargo los ratios entre las coordenadas homogéneas si están bien definidos. Es decir, si
p = [t0 , . . . , tn ] es un punto, entonces el cociente,
ti
xij (p) =
tj
no depende de las elección del generador de p. Sin embargo, xij no es una función bien definida en
KPn pues podemos encontrarnos con divisiones por 0 o indeterminaciones 00 . Una forma posible de
evitar este problema es adjuntar dos nuevos elementos ∞ y ? a los valores de la función, de manera
que tenemos:
xij : KPn → K ∪ {∞, ?}
t
i
 tj
 si tj 6= 0,
xij ([t0 : . . . : tn ]) = ∞ si tj = 0 y ti 6= 0,

? si tj = ti = 0.

44
Las funciones xij reciben el nombre de coordenadas afines en KPn . Nos interesa describir el sub-
conjunto de KPn en el que x10 , . . . , xn0 toman valores en K. Dentro de Kn+1 podemos considerar el
hiperplano H0 definido por la ecuación t0 = 0. Entonces, P(H0 ) es una región de KPn que consiste
en aquellos puntos cuya coordenada homogénea t0 se anula. Dado H0 ' Kn se tiene que P(H0 ) es
un espacio proyectivo de dimensión (n − 1). Designemos por U0 al complementario de P(H0 ) en
KPn . Si p = [t0 : . . . : tn ] ∈ U0 entonces es claro que t0 6= 0. Por tanto las funciones coordenadas
afines x10 , . . . , xn0 en U0 toman valores en K.13

Teorema 1.62 Las funciones afines x01 , . . . , x0n definen una biyección entre U0 y Kn ,
 
∼ t1 tn
→ Kn , p = [t0 : . . . : tn ] → x10 (p) = , . . . , xn0 (p) =
U0 − .
t0 t0
De esta manera KPn = U0 ∪ P(H0 ). Es decir, el espacio proyectivo KPn puede descomponerse
en dos regiones:
(a) La región finita afı́n U0 ' Kn , que está en correspondencia biyectiva con el espacio n-
dimensional sobre K mediante las coordenadas afines.
(b) La región del infinito P(H0 ) ' KPn−1 que es un espacio proyectivo de dimensiı́on n − 1.
De forma absolutamente análoga, se pueden tomar diferenties regiones afines U1 ,. . .,Un , cada
una de ellas de ecuación ti 6= 0, de manera que cubren la totalidad del espacio proyectivo KPn .
Cada una de estas regiones Ui está coordenada por las n coordenadas afines xji con j 6= i. Adeḿas
en las intersecciones los cambios de coordenadas están dados por,
xik
xij = ,
xjk
en los casos particulares K = R y K = C esto dota al espacio proyectivo de un atlas con cambios
de cartas analı́ticos, y por tanto de una estructura de variedad suave y analı́tica.
Es especialmente notable el caso de dimensión 1 en el cual la región del infinito se reduce a un
solo punto. Por eso la recta proyectiva KP1 puede verse como la completación de la recta afı́n K.
De esta manera, cada punto [t0 : t1 ] ∈ KP1 tiene una coordenada afı́n x = tt10 ∈ K excepto el punto
del infinito [0 : 1], para el cual convenimos precisamente x = ∞.
∼ t1
KP1 −
→ K ∪ {∞}, [t0 : t1 ] 7→ x = .
t0
Nota 1.63 En el caso complejo la recta proyectiva CP1 se conoce también como la esfera de Rie-
mann, ya que sus puntos pueden ponerse en biyección con los de una esfera que es proyectada
estereográficamente sobre el plano complejo C desde el punto del infinito.
13 Esta construcción es completamente generalizable a un espacio vectorial abstracto. Sean θ, ω ∈ E ∗ dos formas
θ
lineales en E. Entonces el cociente ω entre las dos formas,
θ
: P(E) → K ∪ {∞, ?}
ω
 θ(v)
 ω(v)
 si ω(v) 6= 0,
θ
([v]) = ∞ si ω(v) = 0 y θ(v) 6= 0,
ω 
? si ω(v) = θ(v) = 0.

define una función en P(E).

45
Nota 1.64 Otro caso notable es el de dimensión 2 real. Si consideramos la superficie esférica
S 2 = {(x, y, z) ∈ R3 | x2 + y 2 + z 2 = 1}
vemos que cada elemento de RP2 está representado por exactamente dos puntos de la esfera. Tene-
mos por tanto un mapa sobreyectivo,
π : S 2 → RP2 ,
donde la fibra de cada punto [v] consiste en sus dos representantes unitarios, v/kvk y −v/kvk. En
este caso S 2 es el espacio recubridor universal de RP2 .

1.5.4. Descomposición del espacio proyectivo


La descomposición de un espacio proyectivo P(E) en una región finita afı́n y un espacio proyectivo
de dimensión menor en el infinito puede hacerse de forma independiente a las coordenadas. Podemos
considerar H0 cualquier hiperplano en E, y v0 cualquier vector que no está en H0 . Consideramos
la subvariedad lineal afı́n U0 = v0 + H0 ∈ E. La proyectivización,
i : U0 ,→ P(E), v0 + v 7→ [v0 + v]
nos da una inmersión de U0 dentro del espacio proyectivo. El complementario en P(E) de U0 es
precisamente P(H0 ). De esta manera tenemos una descomposición,
P(E) = U0 ∪ P(H0 )
del espacio proyectivo como la unión de una variedad lineal afı́n y un espacio proyectivo de dimensión
menor “en el infinito.”

1.5.5. Subvariedades lineales del espacio proyectivo


Sea V ⊆ E un subespacio vectorial de dimensión (k + 1). Su proyectivización,
P(V ) = {[v] | v ∈ V } ⊂ P(E)
es una región del espacio proyectivo. Decimos que P(V ) es una subvariedad lineal k-dimensional de
P(E). El vacı́o, que es la proyectivización del subespacio {0}, es una subvariedad lineal proyectiva
de dimensión (−1).
Cualquier subvariedad lineal k-dimensional de P(E) es la proyectivización de un único subespacio
vectorial (k + 1)-dimensional de E. Hay una correspondencia biyectiva entre subespacios vectoriales
de E y subvariedades lineales del espacio proyectivo P(E). Es decir, dos maneras de interpretar la
variedad grassmaniana:
Gr(k + 1, E) ' {subespacios (k + 1) dimensionales de E} '
' {subvariedades lineales proyectivas k dimensionales de P(E)}
También hay una relación entre variedades lineales proyectivas y variedades lineales afines.
Consideremos una descomposición KPn = H ∪ P(H0 ) del espacio proyectivo en una subvariedad
lineal afı́n U0 de dimensión n y un espacio del infinito P(H0 ).
Entonces, para cualquier subespacio V la intersección de V y U0 es distinta de 0 excepto en el
caso en el que V ⊆ H0 . La intersección V ∩ H es la parte de P(V ) que queda en la región afı́n. De
esta manera, al tomar la intersección con la parte afı́n H obtenemos una correspondencia biyectiva
entre:

46
Subvariedades lineales proyectivas de dimensión k de KPn que no están contenidas en la región
del infinito P(H0 )
Subvariedades lineales afines de dimensión k de H.
Lo que permite observar la geometrı́a afı́n como una parte de la geometrı́a proyectiva. Por ejemplo,
dos subvariedades lineales afines en H son paralelas si vistas como variedades lineales proyectivas
se cortan en en infinito.

1.5.6. Homogeneización y deshomogeneización


Kn al que nos referiremos como el espacio afı́n ha sido identificado con la región finita U0 del
espacio proyectivo. Consideremos R una subvariedad lineal proyectiva k-dimensional. Es claro ver
que R puede describirse mediante n − k ecuaciones independientes,
aj0 t0 + . . . ajn tn = 0 j = . . . 1, . . . , n − k. (1.1)
dividiendo por t0 obtenemos un sistema no-homogéno de ecuaciones lineales en las coordenadas
afines,
aj1 x10 + . . . ajn xn0 = −aj0 , . . . 1, . . . , n − k. (1.2)
Si R no está contenido en la parte del infinito P(H0 ) este sistema es forzosamente compatible. Sus
solución es R ∩ U0 que es entonces una subvariedad lineal afı́n en Kn ' U0 . Recı́plocamente, si
partimos de una subvariedad lineal afı́n de Kn ésta debe poder describirse mediante un sistema
de ecuaciones del tipo (1.2). Realizando el proceso inverso (homogeneización) encontramos una
subvariedad lineal proyectiva cuya intersección con la parte finita es la subvariedad lineal afı́n de la
que partiamos.
Hay por tanto una correspondencia biyectiva entre el conjunto de subvariedades lineales afines
en Kn y el conjunto de subvariedades lineales proyectivas de KPn que no están contenidas en la
región del infinito P(H0 ). El proceso para pasar de las ecuaciones de la subvariedad proyectiva a la
afı́n o viceversa es el que relaciona los sistemas de ecuaciones (1.1) y (1.2).
Este proceso de homogeneización y desomogeneización es también válido para ecuaciones no
lineales. Consideremos un polinomio homogéneo f (t0 , . . . , tn ) de grado k de (n + 1) variables. Por
ser homogéneo se verifica para todo λ ∈ K,
f (λt0 , λt1 , . . . λtn ) = λk f (t0 , t1 , . . . , tn ).
y por tanto sus ceros en el espacio proyectivo forman un lugar geométrico bien definidos,
ceros(f ) = {[t0 : t1 : . . . : tn ] | f (t0 , . . . , tn ) = 0}.
Entonces ceros(f ) ∩ U0 puede encontrarse como el conjunto de soluciones de la ecuación polinomial
f (1, x10 , . . . , xn0 ) = 0.
Recı́procamente, si partimos de una ecuación polinomial de grado k en Kn ,
P (x10 , . . . , xn0 ) = 0
entonces  
t1
k tn
t P ,..., =0
t0 t0
es la correspondiente ecuación homogénea en KPn .

47
1.5.7. Fórmula de la dimensión
Consideremos dos subvariedades lineales R, S ⊆ KPn . Puede considerarse:

(a) La intersección R ∩ S, que es la proyectivización de R̃ ∩ S̃.


(b) La suma R + S que es la menor suvariedad lineal que contiene a R y a S y que es la proyec-
tivización de R̃ + S̃.

La ventaja del estudio de la geometrı́a de las variedades lineales proyectivas en KPn sobre la de
las variedades lineales afines en la región finita U0 ' Kn es que, al considerar también la región del
infinito, se satisface la fórmula de la dimensión.

dim(R + S) = dim(R) + dim(S) − dim(R ∩ S)

que es una consecuencia inmediata de la fórmula de la dimensión para la suma de espacios vecto-
riales.

1.5.8. Coordenadas pluckerianas.


De la misma manera que el espacio proyectivo P(E) se descomponı́a en una región afı́n y una
región en el infinito, queremos descomponer las variedades Grassmanianas para dotarlas de coor-
denadas. Realicemos en primer lugar la construcción en Gr(Kk+n , k).
Consideremos la proyección π1 : Kk+n → Kk sobre las k primeras componentes. El núcleo ker(π1 )
es el espacio generado por los últimos n vectores de la báse canónica. Por otro lado consideremos la
proyección π2 : Kk+n → Kn sobre las n últimas componentes. Tenemos entonces una descomposición
Kk+n ' Kk × Kn .
Sea S un subespacio k-dimensional de Kk+n . Es claro que S es un suplementario a ker(π1 ) si y
solo si π1 |S es un isomorfismo de S con Kk . Entonces, S ⊂ Kk × Kn es la gáfica de la transformación
lineal π2 ◦ (π1 |S )−1 : Kk → Kn . Por tanto el espacio S está completamente determinado por la
transformación lineal π2 ◦ (π1 |S )−1 . Recı́procamente, cualquier transformación lineal ϕ : Kk → Kn
tiene una gráfica Γϕ . Tal gráfica es, vista en Kk × Kn , un suplentarios de ker(π1 ). Tenemos una
correspondencia biyectiva:

{suplementarios de ker(π1 )} → LinK (Kk , Kn ) = Mat(n × k, K).

S → π2 ◦ (π1 |S )−1 .
Llamemos U{1,2,...,k} al subconjunto de Gr(Kk+n , k) formado por los subespacios S tales que π1 |S
es un isomorfismo. Las componentes de la función que acabamos de definir,

Λ{1,2,...,k} : U{1,2,...,k} → Mat(n × k, K),

reciben el nombre de coordenadas Pluckerianas en la Grassmaniana. El cálculo de las coordenadas


pluckerianas a partir de una base es sencillo. ea S ⊂ Kk+n un subespacio k-dimensional. Podemos
considerar u1 , . . . , uk una base de S. Consideremos,

U = [u1 , . . . , uk ]

48
que es una matriz (n + k) × k. Si S ∈ U{1,...,k} entonces la matriz U1,2,...,k compuesta por las k
primeras filas de U es invertible. Tenemos entonces,
 
1 0 ... 0
 0 1 ... 0 
 .. .. ..
 
.. 
 . . . . 
−1
 
U U1,2,...,k =  0
 ... ... 1 
 b11 b12 . . . b1k 
 
 . .. .. .. 
 .. . . . 
bn1 bn2 ... bnk

y las coordenadas pluckerianas de S están dadas por,


 
b11 b12 ... b1k
 .. .. .. ..  .
Λ{1,2,...,k} (S) =  . . . . 
bn1 bn2 ... bnk

De forma absolutamente análoga, para cualquier elección I = {i1 , . . . , ik } ⊂ {1, . . . , k + n} de k


ı́ndices diferentes, podemos considerar la proyección πI : Kn+k → Kk consistente en seleccionar las
componentes i1 , . . . , in . Por el mismo procedimiento anterior, si consideramos UI el conjunto de
suplementario al ker(πI ) tenemos unas coordenadas Plucklerianas,

ΛI : UI → Mat(n × k, K).

En este caso ΛI (S) se calcula tomando las filas correspondientes a los ı́ndices que no aparecen en I
de U Ui−1
1 ,...,ik
donde Ui1 ,...,ik es la matriz k × k que se obtiene al elegir las filas i1 , . . . , ik de I.
Todo espacio k-dimensional debe estár en alguno de los UI . En la intesección UI ∩ UJ , el paso
de unas coordenadas Pluckerianas puede expresarse mediante funciones racionales. Entonces en los
casos K = C y K = C las coordenadas Pluckerianas definen un atlas en la variedad Grassmaniana
que la dota de estructura de variedad suave y analı́tica.

1.5.9. Dualidad proyectiva


Recordemos que Gr(k, E) puede interpretarse como el conjunto de los subespacios k-dimensionales
de E pero también como el conjunto de subvariedades lineales proyectivas (k − 1)-dimensionales de
P(E). Para cada k, tenemos una biyección,

ann : Gr(k, E) −−→ Gr(n − k, E ∗ ).

en particular si R ⊂ P(E) es la subvariedad lineal proyectiva correspondiente al subespacio R̃ ⊂ E,


entonces denotaremos por R◦ ⊂ P(E ∗ ) a la subvariedad lineal proyectiva correspondiente a ann(R̃).
Si p ∈ P(E) es un punto, entonces p◦ es un hiperplano en P(E ∗ ), si r ⊆ P(E) es una recta entonces
r◦ es una subvariedad de codimensión 2 en P(E ∗ ), y ası́ hasta llegar un hiperplano H ⊂ P(E) cuyo
dual H ◦ es un punto de P(E ∗ ). En particular el conjunto de los hiperplanos de KPn se identifica
con el espacio proyectivo P(Kn+1∗ ) y recibe el nombre de espacio proyectivo dual n-dimensional
KP∗n .

49
Teorema 1.65 La dualidad invierte el sentido de la intesección y la suma. Para subvariedades
lineales proyectivas R y S de KPn o de KP∗n se tiene:
(a) R◦◦ = R
(b) (R + S)◦ = R◦ ∩ S ◦
(c) (R ∩ S)◦ = R◦ ∩ S ◦
(d) R ⊆ S ⇔ S ◦ ⊆ R◦ .
(e) dimR◦ + dimR = n − 1

Esto implica que cualquier enunciado acerca de subvariedades lineales proyectivas que involucre
unicamente dimensiones, inclusiones, sumas e intersecciones, puede traducirse a otro enunciado
dual que tiene el mismo valor de verdad. Por ejemplo, es tán valido decir por toda pareja de puntos
diferentes en KP3 pasa una única recta como toda pareja de planos diferentes de KP∗3 se cortan en
una recta.
Una utilidad de la dualidad es la siguiente. Fijemos R una subvariedad lineal proyectiva de
dimensión k en P(E) y fijemos m > k. Podemos estar interesados en considerar la radiación de
m-planos de R, el conjunto de variedades lineales m-dimensionales que contienen a R. Mediante
dualidad, esto es lo mismo que considerar el conjunto de variedades (n − 1 − m)-dimensionales
contenidas en R◦ , que es una variedad Grassmaniana. En particular, la radiación de hiperplanos de
R es un espacio proyectivo de dimensión n − m − 1.

1.6. El grupo lineal, afı́n y proyectivo


Finalizamos este capı́tulo con una muy breve introducción a las transformaciones lineales, afines
y proyectivas y las relaciones que existen entre ellas.

1.6.1. Transformaciones afines


Consideremos A una variedad lineal afı́n cuyo espacio director es E. Consideremos una biyección
f : A → A. ¿Qué significa que dicha biyección respeta la estructura afı́n de A? Los vectores de E
pueden recuperarse a partir de A como la diferencia entre los puntos. Ası́ si p, q ∈ A entonces hay
un único vector e ∈ E tal que p + e = q, y por tanto podemos escribir e = q − p. Es decir, la acción
produce un mapa,
A × A → E, (p, q) 7→ → −
pq = q − p
algo razonable que podemos exigir a f es que sea compatible con el cálculo de vectores como
−−−−−→ −−−−−→
diferencia de puntos. Es decir que si →

pq = →

rs entonces debe ser también f (p)f (q) = f (r)f (s). Como
cada vector de E puede escribirse como la diferencia de dos puntos de A tenemos entonces una
−−−−−→
función f0 : E → E que denominamos f0 (→ −
pq) = f (p)f (q) y que hace conmutativo al diagrama,

A×E /A (p, e) / p+e

(f,f0 ) f (f,f0 ) f
   
A×E /A (f (p), f0 (e)) / f (p) + f0 (e)

50
Una consecuencia del diagrama es que f0 verifica, pra cualesquiera e, e0 ∈ E

f0 (e + e0 ) = f0 (e) + f0 (e0 ).

Esto implica que f0 es una transformación lineal sobre el cuerpo primo contenido en K. Si además
f es K-lineal diremos que f es una transformación afı́n de A con variedad lineal afı́n definida sobre
K.
Si elegimos un punto inicial p0 ∈ A de manera que A = p0 + E, entonces podemos ver que toda
transformación afin f está completamente determinada por f (p0 ) y la parte lineal f0 pues,

f (p0 + e) = f (p0 ) + f0 (e).

Ejemplo 1.66 Consideremos Kn como variedad lineal afı́n. Las transformaciones afines de Kn son
aquellas de la forma,
x 7→ Ax + b
donde A es una matriz n × n invertible y b es un elemento fijo de Kn .

Es facil ver que la composición de transformaciones afines es afı́n y que la inversa de las trans-
formaciones afines es afı́n. Por tanto, el conjunto de las transformaciones afines de A es un grupo
que denominamos Aff K (A). La función que asigna a cada transformación afı́n su parte lineal es un
morfismo de grupos y por tanto tenemos,

Aff K (A) → AutK , f 7→ f0 .

En el caso en el que A = E, es decir, consideramos a E como variedad lineal afı́n, tenemos que todo
automorfismo lineal de E es en particular una transformación afı́n y por tantop tenemos,

AutK (E) ⊂ Aff K (E).

que es un morfismo epiyectivo. Las más sencillas de las transformaciones afı́nes son aquellas cuya
parte lineal es la identidad en E y se llaman translaciones. Una translación está determinada por
un vector fijo e ∈ E que se denomina la dirección de la translación. La translación en la dirección
de e es:
te : A → A, p 7→ te (p) = p + e
También es claro que te ◦ tv = te+v y por tanto las translaciones forman un subgrupo de Aff K (A)
isomorfo a (E, +). Obtenemos por tanto una secuencia exacta,

0 → E → Aff K (A) → AutK (E) → 0.

En el caso particular en el que A = E, tenemos una escisión canónica de dicha secuencia y por
tanto una descomposición,
Aff K (E) = E n AutK (E).
En la geometrı́a afı́n, las nociones claves son las de paralelismo y proporción. Tiene sentido
medir proporciones entre segmentos que están sobre la misma recta. Por ejemplo, sean p0 , p1 , p2
tres puntos que están en la misma recta afı́n, supongamos p0 6= p1 . Entonces −
p−→
0 p1 es un generador

51
del espacio director de la recta, y por tanto hay un escalar λ tal que − p− → −−→
0 p2 = λp0 p1 . Este escalar se
denota por [p0 , p1 ; p2 ] y se llama la razón afı́n de los puntos alineados p0 , p1 , p2 .
p0 p1
[p0 , p1 ; p2 ] =
p0 p2
corresponde a la noción clásica de proporción entre segmentos y es invariante por transformaciones
afines. Es decir,
[p0 , p1 ; p2 ] = [f (p0 ), f (p1 ); f (p2 )].

1.6.2. Transformaciones proyectivas


Como hemos visto con anterioridad los automorfismos de E inducen biyecciones del espacio
proyectivo P(E). Estas biyecciones reciben el nombre de transformaciones proyectivas y forman un
grupo que denotamos por PGLK (E). Los múltiplos de la identidad en E inducen todos la identidad
en P(E) y por tanto tenemos una secuencia exacta,
Id → K× → AutK (E) → PGLK (E) → Id
λ → λIdE
Es decir una transformación proyectiva está determinada por un automorfismo lineal, y todos los
múltiplos no nulos de un automorfismo lineal determinan la misma transformación proyectiva.
En particular, las transformaciones proyectivas de KPn están determinadas por matrices cuadra-
das de tamaño (n + 1). Estas matrices actuan sobre las coordenadas homogéneas por composición,
es decir,     
t0 a00 . . . a0n t0
 ..   . .. ..   ..  .
 .  7→  .. . .  . 
tn an1 ... ann tn
tj
Consideremos la región afı́n U0 donde están definidas las coordenadas afines xj = t0 . En estas
coordenadas, la transformación proyectiva por funciones racionales,
   a10 +a11 x1 +...+a1n xn 
x1 a00 +a01 x1 +...+a0n xn
 ..  ..

7 .
 
 .   .
an0 +an1 x1 +...+ann xn
xn a00 +a01 x1 +...+a0n xn

El denominador es la ecuación de un hiperplano de U0 ,


a00 + a01 x1 + . . . + a0n xn = 0
que la transformación proyectiva envı́a a la región del infinito P(H0 ). Por tanto, una transformación
proyectiva envia la región U0 en si misma si y solo si dicho hyperplano es el vacı́o. Es decir, si a00 6= 0
y a01 = . . . a0n = 0. Dividiendo la matriz por a00 podemos suponer a00 = 1 de tal manera que toma
la forma:  
1 0 ... 0
 a10 a11 . . . a1n 
 
 .. .. .. .. 
 . . . . 
an0 an1 ... ann

52
Es decir, que actúa sobre los puntos de U0 en coordenadas afines como:
      
x1 a01 a11 . . . a1n x1
 ..   .   . .. ..   .. 
 .  7→  ..  +  .. . .  . 
xn a0n an1 . . . ann xn

Es decir, uno tiene que las transformaciones proyectivas de P(E) que respetan la descomposición
P(E) = U0 ∪ P(H0 ) son las transformaciones afines de U0 . El grupo afı́n Aff K (U0 ) se identifica
entonces con el grupo de las transformaciones proyectivas que envı́an la región del infinito sobre si
misma, es decir, clases de automorfismos lineales de E que envı́an el hiperplano H0 spbre si mismo.

Aff K (U0 ) ⊆ PGL(E).

En este sentido es que se dice que la geometrı́a afı́n puede verse como una parte de la geometrı́a
proyectiva. A nivel práctico es equivalente hablar de una variedad lineal afı́n de dimensión n o de
un espacio proyectivo de dimensión n dotado de un hiperplano al que denominamos hiperplano del
infinito.
Tiene especial importancia el grupo PGL(2, K) de las transformaciones proyectivas de la recta
proyectiva PK1 = K ∩ {∞}. Tales transformaciones reciben el nombre de transformaciones de
Möbius u homografı́as. En la coordenada afı́n z = t1 /t0 se esciben como,

a + bz
z 7→ , ad − bc 6= 0.
c + dz
En el caso en el que K es cerrado por raices cuadradas, es decir, que todo elemento de K tenga
sus dos raı́ces cuadradas en K, entonces cualquier transformación de Möebius puede representarse
por exactamente 2 matrices con determinante 1. En tal caso se tiene una secuencia exacta,

Id → Z/2Z → SL(2, K) → PGL(2, K) → Id

1.6.3. La razón doble o cruzada


Los antiguos griegos utilizaban de forma sistemática las transformaciones proyectivas. Esto es
porque, si elegimos un punto exterior a dos rectas, y proyectamos desde él una sobre otra, la
transformación que obtenemos es una transformación proyectiva de una en la otra.
Las transformaciones proyectivas no respetan las proporciones entre segmentos en la misma
recta. Sin embargo, si respetan las proporciones entre proporciones. Si tenemos p,q,r,s cuatro puntos
alineados en una recta proyectiva, se define su razón doble como la proporción:
pr × qs
[p, q; r, s] =
qr × ps
que tiene sentido calcular en cualquier coordenada afı́n. Es decir si z1 , z2 , z3 , z4 son puntos distintos
en KP1 = K ∪ {∞} entonces:

(z3 − z1 )(z4 − z2 )
[z1 , z2 ; z3 , z4 ] = .
(z3 − z2 )(z4 − z1 )

53
La razón cruzada es invariante por transformaciones proyectivas. Es decir, que si f es una trans-
formación de Möbius entonces:

[z1 , z2 ; z3 , z4 ] = [f (z1 ), f (z2 ); f (z3 ), f (z4 )],

y (cuando el cardinal de K es suficientemente grande) recı́procamente, una transformación de KP1


es una transformación de Moebius si y solo si respeta la razón doble.

54
Capı́tulo 2

Multilinealidad en espacios
vectoriales

2.1. Transformaciones multilineales


2.1.1. Transformaciones bilineales
Sean E, V, W K-espacios vectoriales, una transformación K-bilineal de E,V en W es una función,

f: E×V →W

que es lineal en cada factor. Es decir,

f (λe1 + µe2 , v) = λf (e1 , v) + µf (e2 , v), f (e, λv1 + µv2 ) = λf (e, v1 ) + µf (e, v2 ).

Por el momento hemos encontrado (en este y otros cursos) varias transformaciones bilineales, por
ejemplo:
Mat(m × n, K) × Mat(n × k, K) → Mat(m × k, K), (A, B) 7→ AB,
E ∗ × E → K, (ω, e) 7→ ω(e)
n n
K × K → K, (v, w) 7→ v · w = v T w.
~k
 
~ı ~
K3 × K3 → K3 , (v, w) 7→ v × w = det  v1 v2 v3 
w1 w2 w3
El conjunto de funciones bilineales de E × V en W se denota por BilK (E, V ; W ) y es un subespacio
vectorial de W E×V . Nótese que si E y V son diferentes de cero entonces una transformación bilineal
no nula nunca es lineal.

Definición 2.1 Sea f : E × V → W una transformación bilineal. Para cada e ∈ E llamamos


contracción interior de f con e, ιe f a la transformación lineal ιe f : V → W definida por ιe f (v) =
f (e, v).

55
Proposición 2.2 (Adjunción) La contracción interior define un isomorfismo de espacios vecto-
riales,

ι : BilK (E, V ; W ) −
→ LinK (E, LinK (V, W )), f 7→ ιf, donde (ιf )(e) = ιe f.
Prueba. Definimos la inversa j de ι, mediante la fórmula,
j(ϕ)(e, v) = ϕ(e)(v).

Ejercicio 32 Complete la prueba de la Proposición 2.2 mostrando que j es efectivamente inversa


por la izquierda y la derecha de ι.
El papel de los espacios E y V en la proposición es intercambiable. La transformación de
intercambio E × V → V × E, (e, v) 7→ (v, e) induce un isomorfismo lineal entre BilK (E, V ; W ) y
BilK (V, E; W ).
Además, la proposión anterior implica que, si E, V y W son de dimensión finita n, m y r
entonces BilK (E, V ; W ) es de dimensión finita nmr. Veamos como descomponer transformaciones
bilineales sobre una base. Consideremos B = {e1 , . . . , en } una base de E y B 0 = {v1 , . . . , vm } una
base de V . Entonces,  
Xn m
X n,m
X
f  λi ei , µj vj =
 λi µj f (ei , vj ).
i=1 j=1 i,j=1

De esta manera los mn elementos fij = f (ei , vj ) ∈ W determinan completamente la transformación


bilineal f . La matriz F = (fij ) de elementos de W es la matriz de f en las bases B y B 0 . Puede
utilizarse para calcular la transformación bilineal de la siguiente manera:

  
f11 ... f1m µ1
 .. .. ..   .. 
f (λ1 e1 + . . . , λn en , µ1 v1 + . . . + µm vm ) = [λ1 , . . . , λn ]  . . .  . 
fn1 ... fnm µm

2.1.2. Tensores métricos


Definición 2.3 Las formas bilineales,
g: E × E → K
se denominan tensores métricos. Un tensor métrico g se dice simétrico si para cualesquiera u, w ∈ E
verifica g(v, w) = g(w, v). Un tensor métrico h se dice antisimétrico o si para cualesquiera u, w ∈ E
verifica g(v, w) + g(w, v) = 0.
Denotemos por T2 E al espacio vectorial de los tensores métricos en E, y por S2 E y A2 E los
conjuntos de los vectores simétricos y antisimétricos respectivamente.
Proposición 2.4 SI char(K) 6= 2 entonces S2 E y A2 E son subespacios suplementarios en T2 E.
Todo tensor métrico puede descomponerse de forma única como suma de un tensor métrico simétrico
y un tensor métrico antisiḿetrico.
T2 E = S2 E ⊕ A2 E.

56
Prueba. Basta definir las proyecciones sobre los factores,
1 1
sym(g)(u, v) =(g(u, v) + g(v, u)), alt(g)(u, v) = (g(u, v) − g(v, u))
2 2
(lo cual puede hacerse por ser 2 invertible en K) y comprobar que producen la descomposición
deseada
g = sym(g) + alt(g).

En el caso de los tensores métricos la contracción interior da un isomorfismo,



→ LinK (E, E ∗ )
ι : T2 E −
por tanto es equivalente dar un tensor métrico en E o una transformación lineal de E en E ∗ . Dado
un tensor métrico g, su contracción,
ιg : e 7→ ιe g, (ιe g)(v) = g(e, v)
recibe el nombre de polaridad de g. Decimos que g es no degenerado si ιg es invertible. El núcleo de
ιg recibe el nombre de radical de g, rad(g). Una condición necesaria para la existencia de tensores
métrico no degenerados es que E sea de dimensión finita.
Supongamos entonces que E tiene dimensión finita n. Fijemos una base {e1 , . . . , en } y la n-tupla
ē = (e1 , . . . , en ). Un tensor métrico g está determinado por los n2 escalares gij = g(ei , ej ). Definimos
la matriz de g en la base {e1 , . . . , en },
 
g11 . . . g1n
[ g ]ē =  ... .. .. 

. . 
gn1 ... gnn
El tensor métrico g es (anti)simétrico si y solo si lo es su matriz en cualquier base. La utilidad de
la matriz es que permite aplicar el tensor métrico en coordenadas. Para cualesquiera v, w ∈ E,
g(v, w) = [ v ]Tē [ g ]ē [w]ē .
Ejercicio 33 Sea {e1 , . . . , en } una base de E. Muestre que la la matriz de la polaridad ιg en las
bases duales {e1 , . . . , en }, {e∗1 , . . . , e∗n } es la transpuesta de la matriz de g en la base {e1 , . . . , en }:
[ g ]Tē = [ ιg ]ē,ē∗

Pncomo cambia la matriz de g al cambiar de base. Consideremos otra base {u1 , . . . , un }


Veamos
con ui = j=1 aji ej y calculemos la matriz de g en la base {u1 , . . . , un }. Tenemos entonces,
n n
! n
X X X
k `
g(ui , uj ) = g ai ek , aj e` = aki gk` λ`j ,
k=1 `=1 k,`=1

dicho de otra manera,


a11 . . . an1
 

[ g ]ū = A[ g ]ē AT , A =  ... .. . 


. ..  ,

a1n . . . ann
en este casi A es la matriz transpuesta de la matriz de cambio de base: [ v ]ē = AT [ v ]ū .

57
Ortogonalidad
Definición 2.5 Sea g un tensor métrico simétrico o alternado en un espacio vectorial E. Se dice
que,
(a) Los vectores e, v son ortogonales con respecto a g si g(e, v) = 0. Escribimos e ⊥g v
(b) Dado un subespacio V ⊆ E llamamos espacio ortogonal a V respecto a g, denotado V ⊥g al
conjunto de los vectores ortogonales a todos los vectores de V . De otra manera V ⊥g = ann(ιg(V )).
(c) Un vector e se dice isótropo respecto a g si v ⊥g v.
(d) Un subespacio V se dice isótropo respecto a g si V ⊆ V ⊥g .
(e) El conjunto de los vectores isótropos,

cono(g) = {v ∈ E | g(v, v) = 0}

recibe el nombre de cono de luz del tensor métrico g.

Supongamos que g (simétrico o alternado) es no degenerado. Entonces para todo subespacio V


se tiene
dim V + dim(Vg⊥ ) = dim E y (Vg⊥ )⊥g .
Además, dado que su polaridad ιg : E → E ∗ es un isomorfismo puede definirse:

g ∗ : E ∗ × E ∗ → K, (α, β) 7→ g(ιg −1 (α), ιg −1 (β))

con dicha definición g ∗ = ιg∗ (g) un tensor métrico en E ∗ también simétrico o alternado, al que
denominamos dualizado de g. Note que ι(g ∗ ) = ι(g −1 ) y g ∗∗ = g.

Cuádricas
Fijemos ahora g simétrico. Notemos que si v es isótropo para g entonces todos sus múltiplos
también lo son, y por tanto [v] ∈ P(E) es un punto del espacio proyectivo cuyos representantes son
todos isótropos. La cuádrica definida por g es:

cuad(g) = {[v] ∈ P(E) | g(v, v) = 0}.

O de otra manera, dado v 6= 0, [v] ∈ cuad(g) si y solo si v ∈ cono(g). Las cuádricas en KP2 se
llaman curvas cónicas las cúadricas en KP3 se llaman superficies cuádricas.

Teorema 2.6 Sea C = cuad(g) una cuádrica en P(E). Entonces, toda recta r ⊂ KPn está en una
de las siguientes situaciones:
(a) r está contenida en C.

(b) r no corta a C. decimos entonces que r es exterior a C.


(c) r corta a C en dos puntos. Decimos entonces que r es transversal a C.
(d) r corta a C en exactamente un punto. Decimos entonces que r es tangente a C.

Si además, el cuerpo K es algebraicamente cerrado, la situación (b) es imposible.

58
Prueba. Basta ver que para calcular la intersección de r y C hay que resolver una ecuación de
segundo grado.

Asumamos g simétrico y no degenerado. La cuádrica cuad(g ∗ ) ⊂ P(E ∗ ) recibe el nombre de


cuádrica polar de g. Dado un punto p = [v] ∈ P(E) llamamos hiperplano polar de p al hiperplano
ortogonal a [v], visto como un punto de P (E ∗ ). Si p es un punto de cuad(g ∗ ) entonces p está en su
hiperplano polar y éste recibe el nombre de hiperplano tangente cuad(g) en p. La cuádrica polar
cuad(g ∗ ) ⊂ P (E ∗ ) es el conjunto de los hiperplanos tangentes a cuad(g).

El producto escalar euclı́deo


Sea E un espacio vectorial real. Un tensor métrico g : E × E → R que tiene la propiedad,

∀e ∈ E e 6= 0 ⇐⇒ g(e, e) > 0,

se llama un producto escalar euclı́deo. El ejemplo tı́pico es el producto punto en Rn definido por
u · v = uT v.
Un espacio vectorial euclı́deo es un espacio vectorial real (E, g) dotado de un producto vectorial
eucı́deo. En él pueden definirse norma,1 ángulos y distancias.
 
p −1 g(e, v)
kek = (g(e, x)), dist(e, v) = ke − vk, ang(e, v) = cos
kekkvk

La desigualdad triangular de las distancia es una consecuencia de la desigualdad de Cauchy-


Schwartz,
g(e, v)2 ≤ g(e, e)g(v, v).
En un espacio vectorial euclı́deo de dimensión finita, mediante el proceso de ortogonalización
de Gram-Schmidt siempre puede encontrarse una base {e1 , . . . , en } tal que g(ei , ej ) = δij , es decir,
una base ortonormal. En una base ortogonal la matriz de g es la matriz identidad.
Una isometrı́a de dos espacios vectoriales euclı́deos ϕ : (E, g) → (V, h) es una transformación
lineal ϕ : E → E que verifica,

∀e, v ∈ E g(e, v) = h(ϕ(e), ϕ(v)).


1 Una norma en un espacio vectorial E es una función no negativa
k k: E → R
que verifica las propiedades:
(a) ∀e ∈ E kek ≥ 0 y kek = 0 ⇐⇒ e = 0,
(b) ∀e ∈ E, λ ∈ R kλek = |λ|kek,
(c) ∀e, v ∈ E ke + vk ≤ kek + kvk.
La norma induce una distancia dist(e, v) = ke − vk que tiene las propiedades:
(a) ∀e, v ∈ E dist(e, v) ≥ 0 y dist(e, v) = 0 ⇐⇒ e = v,
(b) ∀e, v, w ∈ E dist(e, w) ≤ dist(e, v) + dist(v, w). La distancia dota a E de una estructura de espacio métrico
y por tanto topologı́a. Curiosamente, todas las topologı́as inducidas por productos escalares euclı́deos en los
espacios de dimensión finita son equivalentes.

59
Las isometrı́as respetan distancias, normas y ángulos, y son necesariamente inyectivas. Todo espacio
vectorial euclı́deo de dimensión finita es isométrico a (Rn , ·) para n igual a su dimensión.
Si E tiene dimesión finita entonces toda isometrı́a de (E, g) en si mismo es un automorfismo.
Las isometrı́as de (E, g) forman un grupo O(E, g) ⊂ AutK (E) que se denomina el grupo ortogonal
de (E, g). Las transformaciones ortogonales de determinante uno se llaman transformaciones orto-
gonales especiales y forman un subgrupo SO(E, g) ⊂ AutK (E) que se denomina el grupo especial
ortogonal de (E, S).
En particular, si tomamos (Rn , ·) tenemos los grupos ortogonal y especial ortogonal clásicos,

O(n, R) = {R ∈ GL(n, R) | RRT = In×n },

SO(n, R) = {R ∈ GL(n, R) | RRT = In×n det(R) = 1},


cuyos elementos se llaman matrices ortogonales y matrices ortogonales especiales respectivamente.

2.1.3. Construcción del producto tensorial por dualidad


Una forma K-bilineal en E × V es un elemento de BilK (E, V ; K).

Definición 2.7 Sean e ∈ E y v ∈ V vectores. Llamamos producto tensorial de e y v a la forma


K-bilineal e ⊗ v en E ∗ × V ∗ definida por:

e ⊗ v : E ∗ × V ∗ → K, (e ⊗ v)(ω, θ) = ω(e)θ(v).

El producto tensorial E ⊗K V es el subespacio de BilK (E ∗ , V ∗ ; K) generado por las formas


bilineales e ⊗ v con e ∈ E y v ∈ V .

E ⊗K V = he ⊗ v | e ∈ E, v ∈ V iK .

Un elemento Θ ∈ E ⊗K V se denomina tensor simple si puede escribirse de la forma Θ = e ⊗ v


con e ∈ E y v ∈ V . El resto, por definición, pueden escribirse siempre como combinaciones lineales
de tensores simples y se denominan tensores compuestos.
Las siguientes identidades, se comprueban elementalmente y son producto de la definición:
(a) (λe) ⊗ v = e ⊗ (λv) = λ(e ⊗ v).
(b) e ⊗ (v + v 0 ) = e ⊗ v + e ⊗ v 0 .
(c) (e + e0 ) ⊗ v = e ⊗ v + e0 ⊗ v.
Una consecuencia inmediata es la siguiente proposición.

Proposición 2.8 La función i : E × V → E ⊗K V que asigna a cada pareja (e, v) el tensor simple
e ⊗ v es bilineal.

Lema 2.9 Si B ⊂ E y B 0 ⊂ V son conjuntos L.I. entonces,

B ⊗ B 0 = {e ⊗ v | e ∈ B, v ∈ B 0 } ⊂ E ⊗K V

es también L.I.

60
Corolario 2.10 Sean B y B 0 bases de E y V como K-espacios vectoriales. Entonces B ⊗ B 0 es
una base de E ⊗K V . En particular dimK (E ⊗K V ) = dimK (E) × dimK (V ).

Prueba. Supongamos que es falso. Rápidamente, agrupando terminos en una combinación lineal
nula minimal, se llega a la conclusión de que hay un tensor simple e ⊗ v que puede escribirse como
combinación lineal
Xn
e⊗v = e i ⊗ vi
j=1

donde e 6∈ span{e1 , . . . , en }. Pero entonces hay una forma ω ∈ E ∗ tal que ω(e) = 1 y que se anula
sobre todos los ei . Tomando cualquier forma α ∈ V ∗ con α(v) = 1 tenemos (e ⊗ v)(ω, α) = 1 en
contradicción con que ω se anula sobre todos los ei .

El producto tensorial se ha construido adhoc para que verifique la siguiente propiedad universal

Teorema 2.11 Para cualquier K-espacio vectorial W y cualquier transformación K-bilineal


f : E × V → W hay una única transformación K-lineal f˜: E ⊗K V → W tal que f˜ ◦ i = f .

Prueba. Cosideremos B una base de E y B 0 una base de V . Definimos f˜(e ⊗ v) = f (e, v) para
cada e ⊗ v ∈ B ⊗ B 0 . Esta f˜ está bien definida como transformación lineal, dado que B ⊗ B 0 es una
base. Se comprueba con facilidad que cumple lo establecido en el enunciado.

Una consecuencia directa de la Proposición 2.2 es la existencia de un isomorfismo canónico, que


se conoce como fórmula de adjunción:

LinK (E ⊗K V, W ) ' LinK (E, LinK (V, W ))

Nota 2.12 En este sentido se dice que en la cateogı́a de K-espacios vectoriales los functores ⊗K V
y LinK (V, ) por la izquierda y derecha respectivamente.

2.1.4. Propiedades del producto tensorial


Proposición 2.13 Sean E, V espacios vectoriales y {E}i∈I una familia de espacios vectoriales.
Hay isomorfismos canónicos:
(a) E ⊗K V ' V ⊗K E
L  L
(b) i∈I Ei ⊗K V ' i∈I (Ei ⊗ V ).

(c) (E ⊗K V ) ⊗K W ' E ⊗K (V ⊗K W ).

Prueba. Los isomorfismos (a), (b) y (c) son elementales y su construcción se deja al lector.

En el caso de los espacios vectoriales de dimensión finita, el teorema de reflexividad tiene algunas
consecuencias que se reflejan en la relación entre el producto tensorial y la dualidad.

Proposición 2.14 Si E y V tienen dimensión finita, entonces E ⊗K V = BilK (E ∗ , V ∗ ; K).

Prueba. Uno es subespacio del otro, pero además tienen la misma dimensión.

61
Proposición 2.15 Sean E y V K-espacios vectoriales. Hay una inmersión canónica

E ∗ ⊗K V ∗ ,→ (E ⊗K V )∗ , (ω ⊗ θ)(e ⊗ v) = ω(e)θ(v).

Si además E y V son de dimensión finita dicha inmersión es un isomorfismo.


Pm
Prueba. Veamos primero que se trata de una inmersión. Conisderemos un elemento Θ = j=1 ωj ⊗
θj de E ∗ ⊗K V ∗ . Reagrupando términos, podemos suponer que los {ωj } son linealmente independien-
tes. Por la Proposición 1.55 debe haber un vector e tal que ω1 (e) = 1, y ωj (e) = 0 para j = 2, . . . , m.
Supongamos que θ está en el núcleo de la inmersión. Entonces θ1 = ιe Θ = 0. El mismo argumento
prueba θ2 = . . . = θm = 0 y por tanto Θ = 0. Finalmente E y V son de dimensión finita E ∗ ⊗K V ∗
y (E ⊗K V )∗ tienen la misma dimensión.

Proposición 2.16 Sean E y V K-espacios vectoriales. Hay una inmersión canónica

E ∗ ⊗K V ,→ LinK (E, V ), (ω ⊗ v)(e) = ω(e) ⊗ v

Si alguno de los espacios E o V es de dimensión finita dicha inmersión es un isomorfismo.

Prueba. Basta observar que E ∗ ⊗K V es el subespacio de las transformaciones lineales cuya imagen
tiene dimensión finita.

Merece la pena observar como el isomorfismo se expresa en función de bases de E y V cuando


estos tienen domensión finita. Consideremos {e1 , . . . , en } una base de E. Su base dual es por tanto
{e∗1 , . . . , e∗n }. Consideremos {v1 . . . , vm } una base de V y ϕ : E → V una transformación lineal.
Entonces,
Xn
ϕ= e∗j ⊗ ϕ(ej ).
j=1

La expresión de la derecha recibe el nombre de expresión tensorial de ϕ. Aplicar una transformación


lineal, vista como tensor, es lo mismo que realizar su contracción interior. Es decir ϕ(e) = ιe ϕ.

2.1.5. Restricción y extensión de escalares


Consideremos ahora E, V , W tres K-espacios vectoriales, y F ⊂ K un subcuerpo de K. To-
da transformación K-(bi)lineal es también, a fortiori F-(bi)lineal. Es decir, tenemos inmersiones
canónicas de F-espacios vectoriales,

LinK (E, V ) ,→ LinK (E, V ), BilF (E, V ; W ) ,→ BilK (E, V ; W ).

El mapa, E × V → E ⊗K V es K-bilineal, a fortiori, F-bilineal. Por la propiedad universal del


producto tensorial, hay un único mapa lineal,

π : E ⊗F V → E ⊗K V, e ⊗F v 7→ e ⊗K v.

Este mapa es, de necesidad, sobreyectivo, pues su imagen contiene a los tensores simples, que son
un sistema de generadores. Podemos entonces afirmar que E ⊗K V es, como F-espacio vectorial, un
cociente de E ⊗F V .

62
Supongamos ahora K ⊂ L una extensión de K y sea E un K-espacio vectorial. En el producto
tensorial L ⊗K E puede definirse una estructura de L-espacio vectorial, tomando:
!
X X
λ ai ⊗ ei = λai ⊗ ei
i i

para cada λ ∈ L.

Proposición 2.17 Sea B una base de E como K-espacio vectorial. Entonces 1⊗B = {1⊗b | b ∈ B}
es una base de L ⊗K E como L-espacio vectorial. Por tanto:

dimL (L ⊗K E) = dimK E.

Prueba. Sea C una base de L como K-espacio vectorial. Entonces C ⊗ B es una base de L ⊗K E
como K espacio vectorial. A fortiori C ⊗ B es un sistema de generadores de L ⊗K E como L-espacio
vectorial. Por otro lado para c ∈ C y b ∈ B tenemos,

c ⊗ b = c(1 ⊗ b)

Luego c ⊗ b ∈ h1 ⊗ BiL . De ahı́ tenemos C ⊗ B ⊂ h1 × BiL . Dado que h1 ⊗ BiL contiene un sistema
de generadores, podemos asegurar que es el total.
Veamos ahora la independencia lineal de 1 ⊗ B. Si tenemos una combinación lineal nula,
X
λi (1 ⊗ bi ) = 0, λj ∈ L
finita

podemos ahora descomponer cada uno de los coeficientes λi en función de los elmentos de la base
C de L. X
λi = µij cj , µij ∈ K.
finita

Sin perdida de generalidad, tomando algunos µij nulos, podemos suponer que todos los sumatorios
son sobre los mı́smos elementos ci de C. Ahora tenemos,
X
µij (cj ⊗ bi ).
finita

Por ser C⊗B linealmente independiente sobre K, deducimos que todos los coeficientes P µij son nu-
los, y por tanto todos los λi también lo son, es decir, la combinación lineal nula λi (1 ⊗ bi ) es
necesariamente trivial.

Conservación de secuencias exactas


Si E 0 es un subespacio de E y V 0 es un subespacio de V es claro que E 0 ⊗K V 0 es un subespacio
vectorial de E ⊗K V . Extendiendo esta idea, sean f : E → E1 y g : V → V1 dos transformaciones
lineales, por la propiedad universal del producto tensorial se tiene que el mapa,

f ⊗ g : E⊗K → E 0 ⊗K V 0 , (f ⊗ g)(e ⊗ v) = f (e) ⊗ g(v)

es una transformación lineal.

63
Proposición 2.18 Sean f : E → E1 y g : V → V1 dos transformaciones lineales. Entonces,
(a) ker(f ⊗ g) = ker(f ) ⊗ V + E ⊗ ker(g).
(b) im(f ⊗ g) = im(f ) ⊗ im(g).

Prueba. Tomemos B una base de ker(f ) y extendamosla a una base B ∪ B 0 de E, de manera que
B ∩ B 0 = ∅. Tenemos entonces que f (B 0 ) es una base de im(f ). De manera análoga tomamos una
base C de ker(g) y la extendemos a una base C ∪ C 0 de V de manera que C ∩ c0 = ∅. Por tanto
g(C 0 ) es una base de im(g). La base inducida de E ⊗K V descompone como unión disjunta:

(B ∪ B 0 ) ⊗ (C ∪ C 0 ) = (B ⊗ C) ∪ (B 0 ⊗ C) ∪ (B ⊗ C 0 ) ∪ (B 0 ⊗ C 0 ).

Es claro que f ⊗ g aniquila a todos los elementos de la base, excepto a los del último conjunto
B 0 ⊗ C 0 . De ahı́ tenemos:

(f ⊗ g)((B ∪ B 0 ) ⊗ (C ∪ C 0 )) = {0} ∪ (f (B 0 ) ⊗ f (C 0 )),

lo que nos dá inmediatamente el apartado (b). De ahı́ tenemos que (B ⊗ C) ∪ (B 0 ⊗ C) ∪ (B ⊗ C 0 )


es una base de ker(f ⊗ g) lo que prueba el apartado (a).

Un consecuencia es la preservación de secuencias exactas (es decir, la platitud de los espacios


vectoriales).

Corolario 2.19 Sea V un K-espacio vectorial. Una secuencia de transformaciones lineales


ϕk−1 ϕk ϕk+1
. . . → Ek−1 −−−→ Ek −−→ Ek+1 −−−→ . . .

es exacta si y si solo la secuencia de transformaciones transpuestas


ϕk−1 ⊗IdV ϕk ⊗IdV ϕk+1 ⊗IdV
. . . → Ek−1 ⊗K V −−−−−−−→ Ek ⊗K V −−−−−→ Ek+1 ⊗K V −−−−−−−→ . . .

es exacta.

Dicho de otra manera, el functor ⊗K V es un functor exacto.

2.1.6. Transformaciones multilineales


La noción de transformación bilineal se generaliza de forma natural a la de transformación
multilineal. Sean E1 , . . . , En , W espacios vectoriales. Una función:

f : E1 × . . . × En → W,

es multilineal si es lineal en cada factor. Las transformaciones multilineales con dominio E1 ×


. . . × En y codominio W forman un espacio vectorial que denotamos MultK (E1 , . . . , En ; W ). Las
transformaciones multilineales cuyo codominio es K se llaman formas multilineales.
Da nuevo, descomponiendo sobre elementos de bases para cada espacio, podemos comprobas
que si los espacios E1 ,. . .,En ,W tienen todos dimensión finita entonces,

dimK MultK (E1 , . . . , En ; W ) = (dimK E1 ) × . . . × (dimK En ) × (dimK W ).

64
Ejemplo 2.20 Un ejemplo ya bien conocido por nosotros es,

det : Kn × . . . × Kn → K, v1 , . . . , vn 7→ det[v1 , . . . , vn ].

De nuevo tenemos la contracción interior. Si e ∈ E1 entonces podemos fijar el primer argumento


e para la f y obtenemos,

ιe f : E2 × . . . × En , (e2 , . . . , en ) 7→ (ιe f )(e2 , . . . , en ) = f (e, e2 , . . . , en ).

y tenemos por tanto un isomorfismo de adjunción,



ι : MultK (E1 , . . . , En ; W ) −
→ LinK (E1 , MultK (E2 , . . . , En ; W )), f 7→ ιf, (ιf )(e) = ιe f.

El isomorfismo de adjunción puede reiterarse, y manera que obtenemos:

MultK (E1 , . . . , En ; W ) ' LinK (E1 , MultK (E2 , . . . , En ; W )) ' BilK (E1 , E2 ; MultK (E3 , . . . , En ; W )) '

' . . . ' MultK (E1 , . . . , En−2 , BilK (En−1 , En ; W )) ' MultK (E1 , . . . , En−1 , LinK (En ; W ))
Dado el isomorfismo canónico (E1 ⊗K E2 ) ⊗K E3 ' E1 ⊗K (E2 ⊗K E3 ), y eligiendo por convención
eliminar los paréntesis de las expresions e1 ⊗ e2 ⊗ . . . ⊗ en podemos realizar el producto tensorial
de varios espacios vectoriales simultaneamente. Hay una transformación multilineal,

i : E1 × E2 × . . . × En → E1 ⊗K E2 ⊗K . . . ⊗K En , (e1 , e2 . . . , en ) 7→ e1 ⊗ e2 ⊗ . . . ⊗ en .

El producto tensorial ası́ definido verifica la propiedad universal esperada.

Teorema 2.21 Para cualquier K-espacio vectorial W y cualquier transformación K-bilineal


f : E1 × . . . × En → V hay una única transformación K-lineal f˜: E1 ⊗K E2 ⊗K . . . ⊗K En → W tal
que f˜ ◦ i = f .

Proposición 2.22 Si Bi es una base de Ei para i = 1, . . . , n entonces el conjunto

B1 ⊗ B2 . . . ⊗ Bn = {b1 ⊗ . . . ⊗ bn | b1 ∈ B1 , . . . , bn ∈ Bn }

es una base de E1 ⊗K . . . ⊗K En . En particular, si estos espacios tienen todos dimensión finita

dimK (E1 ⊗K . . . ⊗K En ) = (dimK E1 ) × . . . × (dimK En ).

2.2. Tensores en un espacio vectorial de dimensión finita


Fijemos E un espacio vectorial de dimensión finita n.

Definición 2.23 Un tensor de tipo (p, q) o p-veces contravariante y q-veces covariante es una forma
(p + q)-multilineal definida en (E ∗ )p × E q .

El espacio de los tensores de tipo (p, q) en E es por tanto un espacio vectorial, de dimensión
np+q que denotamos por Tqp E. Si uno de los ı́ndices (p, q) es cero, lo podemos omitir.

(a) T00 E = K.

65
(b) T 1 E = E.
(c) T1 E = E ∗ .
(d) T11 E = E ⊗K E ∗ = BilK (E ∗ , E; K) ' LinK (E, E) ' LinK (E ∗ , E ∗ ).
(e) T 2 E = E ⊗K E = BilK (E ∗ , E ∗ ; K) ' LinK (E ∗ , E).

(f) T2 E = E ∗ ⊗K E ∗ = BilK (E, E; K) ' LinK (E, E ∗ ).


(e) Tqp E = E ⊗p ⊗K E ∗⊗q .

Hay que observar que, por acoplamiento de formas lineales y vectores, tenemos:

(Tpq E)∗ = Tqp E

donde

(e1 ⊗ . . . ⊗ eq ⊗ ω1 ⊗ . . . ⊗ ωp )(v1 ⊗ . . . ⊗ vp ⊗ θ1 ⊗ . . . ⊗ θq ) = ω1 (v1 ) · · · ωp (vp )θ1 (e1 ) · θq (eq ).

2.2.1. Coordenadas tensoriales


Fijemos una base {e1 , . . . , en } de E, y sea {e1 , . . . , en } su base dual. A cada vector (tensor de
tipo (1, 0)) le corresponde una matriz n × 1, su expresión en coordenadas. De forma análoga a los
endomorfismos ((1, 1)-tensores) tensores métricos ((0, 2)-tensores) les corresponden matrices n × n.
Vamos a generalizar esta situación al caso de los tensores de tipo (p, q).
Los np+q tensores,
e i1 ⊗ . . . ⊗ e ip ⊗ e j 1 ⊗ . . . ⊗ e j q
forman una base de Tqp E. Si Θ es un tensor de tipo (p, q) en E entonces tiene una única expresión
de la forma: X i ,...,i
Θ= λj11 ,...jqp ei1 ⊗ . . . ⊗ eip ⊗ ej1 ⊗ . . . ⊗ ejq
i ,...,i
los np+q escalares λj11 ,...jqp se denominan las coordenadas tensoriales de Θ en la base {e1 , . . . , en }.
Veamos como cambian de base las coordenadas tensoriales. Supongamos que tenemos otra base
{u1 , . . . , un } de E, de manera que
Xn
ei = aji uj .
j=1

Sea {u1 , . . . , un } la correspondiente base dual. En seguida tenemos que,


n
X
ui = aij ej
j=1

y si tomamos (ãji ) = (aji )−1 entonces,


n
X
i
e = ãij uj .
j=1

66
Entonces,
i ,...,i
X X
Θ= λj11 ,...jqp ei1 ⊗ . . . ⊗ eip ⊗ ej1 ⊗ . . . ⊗ ejq =
i1 ,...,ip j1 ,...,jq
 
k j i ,...,i
X X X X
=  aki11 · · · aipp ãj`11 · · · ã`qq λj11 ,...jqp  uk1 ⊗ . . . ⊗ ukp ⊗ u`1 ⊗ . . . ⊗ u`q
k1 ,...,kp `1 ,...,`q i1 ,...,ip j1 ,...,jq

k ,...,k
Es decir, que si µ`11,...,`qp son las coordenadas tensoriales de Θ en la base {u1 , . . . , un } entonces,

k ,...,k k j i ,...,i
X X
µ`11,...,`qp = aki11 · · · aipp ãj`11 · · · ã`qq λj11 ,...jqp
i1 ,...,ip j1 ,...,jq

En fı́sica matemática, es usual fijar la base del espacio vectorial e identificar al tensor Θ con sus
coordenadas tensoriales, que se denotan con la misma letra, de manera que el tensor Θ se interpreta
i ,...,i
como una matriz multidimensional de escalares Θj11 ,...jqp relativa a una base {e1 , . . . , en } y que se
comporta ante un cambios de base de la manera que acabamos de explicar.

2.2.2. Contracción de ı́ndices


Se define la constracción de ı́ndices (1, 1), int11 de tensores tipo (p, q) con p > 0 y q > 0 como,
p−1
int11 : Tqp E → Tq−1 E, e1 ⊗ e2 ⊗ . . . ⊗ ep ⊗ ω1 ⊗ . . . ωq 7→ ω1 (e1 )(e2 ⊗ . . . ⊗ ep ⊗ ω2 ⊗ . . . ωq ).
j ,...,j
Si las coordenadas tensoriales de Θ son Θi11,...,ipq entonces las coordenadas tensoriales de int11 Θ
son,
n
j1 ,...,jq−1 X `,j ,...,jq−1
int11 Θ i1 ,...,ip−1 = Θ`,i11,...,ip−1
`=1

De forma general, se pueden seleccionar ı́ndices 0 < k ≤ p y 0 < r ≤ q y contraer el k-ésimo


sub-ı́ndice abajo con el r-ésimo superı́ndice, definiendo la contracción.
n
j ,...,j j ,...,j ,`,j ,j
X
(intrk Θ)i11,...,ip−1
q−1
= Θi11,...,ik−1
r−1 r+1 q−1
,`,ik+1 ,ip−1 .
`=1

De forma análoga se pueden contraer simultáneamente varios superı́ndices y subı́ndices, definimos


intc,d
a,b como la contracción de: a-ésimo subı́ndice con c-ésimo superı́ndice y simultáneamente b-ésimo
subı́ndice y d-ésimo superı́ndice. Por ejemplo:

int3,1
2,3 e ⊗ v ⊗ w ⊗ θ ⊗ β ⊗ γ = β(w)γ(e)(w ⊗ θ).

Nota 2.24 La contracción de ı́ndices es un dolor de cabeza para cualquiera, pero desafortunada-
mente, es inevitable. Son numerosas las ecuaciones de la fı́sica matemática y de la geometrı́a dife-
rencial que dependen de este proceso (p. ej. ecuación de Einstein, identidad de Ricci, identidades
de Bianchi ...). Un método práctico e ingenioso para lidiar con estas contracciones es la notación
gráfica de Penrose. La búsqueda “Penrose graphical notation” la dejo en manos de la curiosidad del
lector.

67
2.2.3. Álgebra tensorial covariante y contravariante
Si Θ es un tensor de tipo (p, q) y Ξ es un tensor de tipo (p0 , r0 ) definimos el producto tensorial,
Θ ⊗ Ξ como el (p + p0 , q + q 0 )-tensor que hace:

(Θ ⊗ Ξ)(e1 , . . . , ep+p0 , ω1 , . . . ωq+q0 ) = Θ(e1 , . . . , ep , ω1 , . . . ωq )Ξ(ep+1 , . . . , ep+p0 , ωq+1 , . . . ωq+q0 )

Observemos que esta definición del producto tensorial requiere un reordenamiento, pues:

(u1 ⊗ . . . ⊗ up ⊗ θ1 ⊗ . . . ⊗ θq ) ⊗ (v1 ⊗ . . . ⊗ vp0 ⊗ α1 ⊗ . . . ⊗ αq0 ) =

= u1 ⊗ . . . ⊗ up ⊗ v1 ⊗ . . . ⊗ vp0 ⊗ θ1 ⊗ . . . ⊗ θq ⊗ α1 ⊗ . . . ⊗ αq0
es decir, siempre se colocan en primer lugar los vectores y en último lugar los covectores.

Ejemplo 2.25 (Métrica de la traza) Sea ϕ ∈ EndK (E) un endomorfismo, y por tanto un (1, 1)-
tensor. La contracción interior int11 (ϕ) es un (0, 0)-tensor, es decir un elemento de K, que recibe el
nombre de traza de ϕ
tr(ϕ) = int11 ϕ.
Se comprueba con facilidad que la traza de ϕ coincide con la traza de la matriz de ϕ en cualquier
base. El producto tensorial de 2 endomorfismos ϕ y ψ es un (2, 2)-tensor. La composición puede
expresarse en función del producto tensorial y la contracción de ı́ndices,

int21 (ϕ ⊗ ψ) = ϕ ◦ ψ.

Esto permite definir en EndK (E) un tensor métrico simétrico no degenerado que se denomina la
métrica de la traza,

gtr : EndK (E) × EndK (E) → K, (ϕ, ψ) 7→ gtr (ϕ, ψ) = tr(ϕ ◦ ψ) = int1,2
2,1 (ϕ ⊗ ψ).

Definición 2.26 El espacio,



M
TE = Tqp E
p,q=1

dotado de su estructura como espacio vectorial, y de la operación producto tensorial recibe el nombre
de álgebra tensorial mixta sobre E.

El álgebra tensorial mixta T E es una K-álgebra, no conmutativa. El subespacio,

Tqp E ⊂ T E

se llama la componente homogénea de T E de grado de covarianza p, grado de contravarianza q


y grado total p + q. Los elementos de los subespacios Tqp E se dicen homogéneos. Un elemento de
Θ ∈ T E es una combinación lineal,
X
Θ= Θpq , Θpq ∈ Tqp E,
finita

de elementos de los espacios Tqp E, a los que llamamos componentes homogéneas de Θ, que pueden
tener distintos grados de covarianza y contravarianza.

68
(a) El grado de covarianza de Θ es el grado de covarianza más alto de alguna de sus componentes
homogéneas.
(b) El grado de contravarianza de Θ es el grado de contravarianza más alto de alguna de sus
componentes homogéneas.

(c) El grado total de Θ es el grado de total más alto de alguna de sus componentes homogéneas.

Ejemplo 2.27 Si E tiene dimensión 1 y e es un generador de E entonces su algebra tensorial T E


es el anillo de polinomios en dos variables K[e, e∗ ].

El álgebra tensorial mixta tiene dos subálgebras graduadas destacadas el álgebra tensorial con-
travariante
M∞
T •E = T p E,
p=0

y el álgebra tensorial covariante



M
T• E = Tq E.
q=0

Notemos que hay una inmersión canónica E ,→ T E como la parte homogénea de grado 1. El álgebra
tensorial contravariante está caracterizado por la siguiente propiedad universal:

Proposición 2.28 Sea A una K-álgebra con unidad. La restricción a E,



HomK−alg (T • E, A) −
→ LinK (E, A)

es una biyección.

Es decir, toda transformación lineal de E en una K-álgebra A con unidad levanta a un morfismo
de K-álgebras de T • E en A.

2.2.4. Pull-back y push-forward de tensores


Sea f : E → V una transformación lineal. Puede definirse el push-forward, de un tensor contra-
variante,
f∗ (e1 ⊗ . . . ⊗ ep ) = f (e1 ) ⊗ . . . ⊗ f (ep ),
de tal manera que
f∗ : T • E → T • V,
es un morfismo de K-álgebras que extiende a f . Transponiendo f definimos el pull-back (que no es
otra cosa que el push-forward por f T ),

f ∗ (θ1 ⊗ . . . ⊗ θp ) = f T (θ1 ) ⊗ . . . ⊗ f T (θq ),

de tal manera que


f ∗ : T• E → T• V,
es un morfismo de K-álgebras que extiende a f T .

69

Si f : E −
→ V es un isomorfismo entonces es posible definir el push-forward de tensores de tipo
mixto, tomando:
f∗ (Θp ⊗ Ξq ) = f∗ (Θp ) ⊗ f ∗−1 (Ξq )
para Θp contravariante y Ξq covariante.
De esta manera, el grupo AutK (E) actúa en el algebra tensorial.

AutK (E) × T (E) → T (E).

(a) La acción de AutK (E) en T00 E = K es trivial.


(b) La acción de AutK (E) en T 1 E es f∗ (e) = f (e).
(c) La acción de AutK (E) en T1 E es f∗ (ω) = (f T )−1 (ω).
(d) La acción de AutK (E) en T11 E es f∗ (ϕ) = f ◦ ϕ ◦ f −1 , aquı́ el (1, 1)-tensor ϕ es visto como
un endomorfismo de E.
(e) La acción de AutK (E) en T2 E es f∗ (ψ) = f ◦ ψ ◦ f T , aquı́ el (0, 2)-tensor ψ es visto como una
transformación lineal de E en E ∗ . Si ψ = ιg con g un tensor métrico, entonces f∗ (g)(e, v) =
g(f −1 (e), f −1 (v)).

Decimos que dos tensores son conjugados si están en la misma órbita de la acción. La des-
composición de T00 E, T 1 E y T1 E en clases de conjugación es elemental. La despomposición de
T11 E ' EndK (E) en órbitas es la teorı́a de las formas canónicas (de Jordan y racional) de los
endomorfismos. La descomposición de T2 E el problema de clasificación de métricas.

2.3. Tensores alternados y simétricos


Las construciones covariante y contravariante son equivalentes permutando los papeles de E por
E ∗ . En algunas ocasiones expondremos una de ellas dejando la otra a cargo del lector. Recordamos
que el grupo simétrico Sp de biyecciónes de {1, . . . , q} está dotado de un morfismo de grupos,
llamado signo,
(
1 si σ es producto de un un número par de transposiciones,
Sp → {−1, +1}, σ 7→ (−1)σ =
(−1) si σ es producto de un un número impar de transposiciones.

El espacio Tp E de los tensores q-covariantes está dotado de una acción natural por la derecha 2 de
Sp barajando los ı́ndices en los argumentos:

(Θ ? σ)(u1 , . . . , up ) = Θ(uσ(1) , . . . , uσ(p) ).

Definición 2.29 Decimos que Θ es un tensor siḿetrico si Θ ? σ = Θ para todo σ ∈ Sp . Decimos


que Θ es un tensor antisimétrico o alternado si Θ ? σ = (−1)σ Θ para todo σ ∈ Sp .
2 Esta acción es equivalente a otra, por la izquierda, barajando las 1-formas que aparecen en la expresión del
tensor,
σ ? (ω1 ⊗ . . . ⊗ ωp ) = ωσ(1) ⊗ . . . ⊗ ωσ(p) .
La equivalencia de las acciones viene dada por σ ?Θ = Θ?σ −1 , y tienen por tanto las mı́smas órbitas y estabilizadores.

70
Una combinación lineal de tensores simétricos (alternados) es también simétrica (alternada).
Por tanto, los tensores simétricos y alternados definen subespacios vectoriales de Tp P .
(a) Denotamos Sp E el espacio de los tensores simétricos p-covariantes. Los elementos de Sp E
reciben también el nombre de formas simétricas homogéneas de grado p en E.
(b) Denotamos S p E el espacio de los tensores simétricos p-contravariantes. El espacio S p E se
denomina la potencia simétrica p-ésima de E. Consecuentemente, Sp E es la potencia simétrica
p-ésima de E ∗ .
(c) Denotamos Ap E el espacio de los tensores alternados p-covariantes. Los elementos de Ap
reciben el nombre de p-formas exteriores o formas exteriores homogéneas de grado p en E.

(d) Denotamos Ap E el espacio de los tensores alternados p-covariantes. El espacio Ap E se de-


nomina la potencia exterior p-ésima de E. Consecuentemente Ap E es la potencia exterior
p-ésima de E ∗ .
Se tiene A0 E = S0 E = K y A1 E = S1 E = E ∗ . Para p > 1 si char(K) 6= 2, Ap E ∩ Sp E = {0}. Si
char(K) = 2, entonces 1 = (−1) y por tanto no hay distinción entre tensores simétricos y tensores
alternados.
Una propiedad relevante de las formas exteriores homogéneas es la siguiente.

Lema 2.30 Supongamos char(K) 6= 2. Sea ω una p-forma exterior en E. Para cualesquiera u1 ,. . .,up
en E, se verifica:
(a) Si hay i 6= j tales que ui = uj entonces ω(up , . . . , up ) = 0.
(b) Si {u1 , . . . , up } es L.D. entonces ω(up , . . . , up ) 6= 0.

Prueba. (a) Supongamos que hay ı́ndices distintos i 6= j con ui = uj . Considermemos la transpo-
sición (i, j). Por la alternancia ω(u1 , . . . , un ) = (−1)(i,j) ω(u1 , . . . , un ). Es decir 2ω(u1 , . . . , un ) = 0.
(b) Supongamos que {u1 , . . . , up } es L.D., entonces uno de sus miembros es combinación lineal de
los demás. Aplicando multilinealidad y el apartado anterior concluimos.

Una consecuencia del Lema 2.30 es que si p > dimK E entonces Ap E = 0 y Ap E = 0.


Realicemos el cálculo de la dimensión y las expresiones en coordenadas tensoriales de los tensores
simétricos y alternados. Consideremos {e1 , . . . , en } una base de E. Sea Θ un tensor p-covariante y
n
X
Θ= λi1 ,...,ip ei1 ⊗ . . . ⊗ eip
i1 ,...,ip =1

su descomposición en coordenadas tensoriales. Entonces, para cada permutación σ tenemos:


n
X
Θ?σ = λiσ(1) , . . . , iσ(p) ei1 ⊗ . . . ⊗ eip .
i1 ,...,ip =1

Veamos por separado el caso de los tensores simétricos y alternados.

71
(a) El tensor Θ es simétrico si y solo sus coordenadas tensoriales verifican el sistema de ecuaciones
lineales,
λi1 ,...,ip = λiσ(1) ,...,iσ(p) σ ∈ Sp .

Dicho sistema puede resolverse facilmente con respecto a las n+p−1



p variables libres:

λi1 ,...,ip i1 ≤ . . . ≤ ip .

Por tanto podemos afirmar,


 
p n+p−1
dim(S E) = dim(Sp E) = .
p

(a) Para el cálculo de la dimensión de los espacios de tensores alternados, asumamos char(K) 6= 2.
El tensor Θ es alternado si y solo sus coordenadas tensoriales verifican el sistema de ecuaciones
lineales,
λi1 ,...,ip = (−1)σ λiσ(1) ,...,iσ(p) σ ∈ Sp .
En particular si hay algún indice repetido il = i` entonces

2λi1 ,...,ip = 0

Entre el resto de las coordenadas tensoriales, que corresponden


 a multi-ı́ndices sin repeticiones,
el sistema puede resolverse fácilmente con respecto a las np variables libres:

λi1 ,...,ip i1 < . . . < ip .

Por tanto podemos afirmar,


 
p n+p−1
dim(A E) = dim(Ap E) = .
p

2.3.1. Acción por transformaciones lineales


Consideremos f : E → V una transformación lineal. El pull-back y push-forwad de tensores
respeta la propiedad de ser simétricos o antisimétricos. Por tanto para cada p tenemos,

f ∗ : Sp V → Sp E, f∗ : S p E → Sp V,

f ∗ : Ap V → Ap E, f∗ : Ap E → Ap V,
que son la restricción a dichos espacios del pull-back y el push-forward de tensores. En particular,
si f es un isomorfismo entonces las transformaciones inducidas son todas también isomorfismos.
Por lo que el grupo AutK (E) actúa en los espacios de Sp E, Ap E, S p E, Ap E. Estas acciones son
simplementee la restricción a dichos subespacios de las acciónes de AutK (E) en Tp E y T p E.

72
2.3.2. Operador de alternancia (char(K) = 0)
Supongamos, en este apartado, char(K) = 0. Esto permite definir el operador de alternancia
con generalidad. Hemos definido Ap E y Ap E como subespacios de Tp E y T p E. Queremos encon-
trar espacios suplementarios. Definimos el operador de alternancia altp : Tp E → Ap E mediante la
fórmula:
1 X
altp (θ1 ⊗ . . . ⊗ θn ) = (−1)σ θσ(1) ⊗ . . . ⊗ θσ(p)
p!
σ∈Sp

para cualesquiera formas lineales θ1 . . . θp y extendiendo por linealidad. Otra definición equivalente
es tomar para cualquier tensor p-covariante Θ:
1 X
altp (Θ)(v1 , . . . , vp ) = (−1)σ Θ(vσ(1) , . . . , vσ(p) ). (2.1)
p!
σ∈Sp

De forma análoga se define el operador de alternancia para la potencia exterior,

altp : T p E → Ap E.

Proposición 2.31 El operador de alternancia altp es un inverso por la izquierda (retracto) de la


inclusión Ap E ⊆ Tp E.

Prueba. Trivial.

Por tanto, el núcleo de altp es suplementario de Ap E. Definimos las diagonales ampliadas,

H p E = hv1 ⊗ . . . ⊗ vp | ∃i 6= j vi = vj iK ⊂ T p E.

Hp E = hθ1 ⊗ . . . ⊗ θq | ∃i 6= j θi = θj iK ⊂ Tp E.
con el acoplamiento de formas y vectores estos espacios fungen como duales el uno del otro.

Proposición 2.32 La condición necesaria y suficiente para que Θ ∈ Tp E sea un tensor alternado
es que Θ se anule sobre la diagonal ampliada, Θ|H p E = 0. Es decir,

Θ(v1 , . . . , vq ) = 0

siempre que haya algún argumento vi = vj con i 6= j repetido. Dicho de otra manera,

Ap E = ann(H p E), Ap E = ann(H p E).

Prueba. La necesidad consecuencia inmediata del apartado (a) del Lema 2.30. Veamos la suficien-
cia. Sea ω ∈ ann(H p E) y sean e1 , . . . , ep elementos cualesquiera de E. Entonces:

0 = ω(e1 + e2 , e1 + e2 , e3 , . . . , ep ) = ω(e1 , e2 , e3 , . . . , ep ) + ω(e2 , e1 , e3 , . . . , ep ).

Esto prueba que ω ? (1, 2) = (−1)(1,2) ω. El mismo argumento sirve para cualquier transposición
(i, j) y por tanto ω ? (i, j) = (−1)(i,j) ω. Como toda permutación descompone como producto de
transposiciones, obtenemos el resultado deseado.

73
Proposición 2.33 El núcleo del operador de alternancia altp es Hp E.

Prueba. Los elementos generadores de Hp E son todos ellos invariantes por una transposición (i, j).
Esto permite separar el sumatorio que define altp en dos partes con signos opuestos que se cancelan.
Luego Hp E ⊆ ker(altp ). Las dimensión de Hp E coincide con la de ker(altp ) por la Proposición 2.32.
Por tanto Hp E = ker(altp )

Por tanto, el espacio Hp E es un suplementario de Ap E en Tp E. Tenemos una descomposición,

Tp E = Ap E ⊕ Hp E.

y el operador de alternancia es la proyección sobre el primer factor.


Finalmente observemos que si {e1 , . . . , en } es una base de E entonces

{altp (ei1 ⊗ . . . ⊗ eip ) | i1 < . . . < ip }

es una base de Ap E.

2.3.3. Operador de simetrización (char(K) = 0)


Una situación similar sucede para los tensores simétricos. Supongamos, en este apartado, char(K) =
0. Esto permite definir el operador de simetrización con generalidad. Hemos definido Sp E y S p E co-
mo subespacios de Tp E y T p E. Queremos encontrar espacios suplementarios. Definimos el operador
de simetrización symp : Tp E → Sp E mediante la fórmula:

1 X
symp (θ1 ⊗ . . . ⊗ θn ) = θσ(1) ⊗ . . . ⊗ θσ(p)
p!
σ∈Sp

para cualesquiera formas lineales θ1 . . . θp y extendiendo por linealidad. Otra definición equivalente
es tomar para cualquier tensor p-covariante Θ:
1 X
symp (Θ)(v1 , . . . , vp ) = Θ(vσ(1) , . . . , vσ(p) ). (2.2)
p!
σ∈Sp

De forma análoga se define el operador de simetrización para la potencia simétrica,

symp : T p E → S p E.

Proposición 2.34 El operador de simetrización symp es un inverso por la izquierda (retracto) de


la inclusión Sp E ⊆ Tp E.

Prueba. Trivial.

La dimensión de Sp E se calcula de forma sencilla. Si {e1 , . . . , en } es una base de E entonces


{symp (ei1 ⊗ . . . ⊗ eip ) | i1 ≤ . . . ≤ ip } es una base de Sp E y por tanto
 
n+p−1
dimK (Sp E) = .
p

74
Procedamos ahora al cálculo del núcleo del operador de simetrización. Considerar los espacios,

K p E = hΘp − Θp ? σ | σ ∈ Sp , Θp ∈ T p EiK ⊆ T p E

Kp E = hΘp − Θp ? σ | σ ∈ Sp , Θ ∈ Tp EiK ⊆ Tp E.
En realidad, basta considerar tensores simples y transposiciones para generar tales espacios. Pode-
mos probar resultados análogos a los que obtuvimos para el operador de alternancia.

Proposición 2.35 Se verifica:


(a) La condición necesaria y suficiente para que Θ ∈ Tp E sea un tensor simétrico es que Θ se anule
sobre el espacio K p E. Es decir Sp E = ann(K p E), y por tanto también S p E = ann(Kp E)
(b) El espacio Kp E es el núcleo de symp . Tenemos una descomposición,

Tp E = Sp E ⊕ Kp E

Prueba. (a) Si Θ es simétrico, entonces se anula sobre los generadores de Kp E. Recı́procamen-


te, supongamos que Θ se anula sobre los generadores de Kp E. Se sigue que Θ es invariante por
transposiciones. Finalmente, Θ es invariante por Sp .
(b) Si simetrizamos un elemento de Kp E obtenemos que los términos del sumatorio se cancelan
dos a dos. Luego Kp E ⊆ ker(symp ) De nuevo por la igualdad de las dimensiones, apartado (a), se
concluye.

Tiene espacial relevancia el caso p = 2, y para el cual H2 E = S2 E y K2 E = A2 E. En grado


homogéneo 2 tenemos por tanto una descomposiciı́on,

T2 E = S2 E ⊕ A2 E,

que es la descomposición, que ya habı́amos visto, de los tensores métricos.

2.3.4. El producto cuña (char(K) = 0)


Consideremos el espacio vectorial,
n
M
A• E = Ap E.
p=0

Observemos que la dimensión de A• E es,


n n  

X X n
dim A E = dim A• E = dim Ap E = = 2n .
p=0 p=0
p

Los elementos de A• E se llaman formas exteriores en E. Un elemento de A• E es combinación lineal


de formas exteriores homogéneas cada una de ellas de un grado diferente. En general, A• E no es
una subálgebra de T• E, pues el producto tensorial formas exteriores no es, en general, alternado.
Veamos como definir una estructura algebraica en A• E. Para dos formas lineales α1 y α2 en E
definimos el producto cuña de la siguiente manera.

75
(a) Exigimos que el producto cuña sea asociativo:

(ω ∧ θ) ∧ α = ω ∧ (θ ∧ α).

(b) Si α1 , . . . , αp formas lineales en E:


X
α1 ∧ . . . ∧ αp = (−1)σ ασ(1) ⊗ . . . ⊗ ασ(p) .
σ∈Sn

Lo que tiene como consecuencias:


(i) Para cualesquiera p formas lineales α1 ∧ . . . ∧ αp y vectores u1 , . . . , up :
 
α1 (u1 ) . . . α1 (up )
(α1 ∧ . . . ∧ αp )(u1 , . . . , up ) = det  .. .. ..
.
 
. . .
αp (u1 ) . . . αp (up )

(ii) Lema 2.36 Sea {θ1 , . . . , θn } una base de E. Entonces, para cada p ≥ 1

{θi1 ∧ . . . ∧ θip | i1 < . . . < ip }

es una base de Ap E.
Prueba. Basta observar que son linealmente independientes, lo que dejamos como ejer-
cicio al lector. Entonces concluimos, pues la dimensión de Ap E es np .


(c) Exigimos que el producto cuña Ap E × Aq E → Ap+q E sea unitario y K-bilineal. Esto es
equivalente a exigir:
(i) Si λ ∈ K es un escalar y ωp una p-forma exterior entonces:

λ ∧ ωp = ωp ∧ λ = λωp

(ii) El producto cuña es distributivo sobre la suma:

ω ∧ (θ + α) = ω ∧ θ + ω ∧ α, (ω + θ) ∧ α = ω ∧ α + θ ∧ α.

Dado que, por el Lema 2.36, toda forma exterior puede escribirse como combinación lineal de
productos cuña de 1-formas, las condiciones (a), (b) y (c) definen el producto cuña en todo A• E.
El espacio A• E dotado del producto cuña recibe el nombre de álgebra exterior covariante de E.
De forma análoga se define el producto cuña en A• E que se llama simplemente el algebra exterior
generada por E. Ambas tienen estructura de K-álgebras unitarias, graduadas, no conmutativas
(salvo en el caso dim E = 1).
Los espacios A• E y A• E son duales el uno del otro. Sea {e1 , . . . , en } es una base de E. Notemos
que:
X X X
(e1 ∧. . .∧ep )(e1 ∧. . .∧ep ) = (−1)σ (−1)τ eσ(1) (eτ (1) ) . . . eσ(p) (eτ (p) ) = (−1)σ (−1)τ = p!.
σ∈Sp τ ∈Sp σ=τ

76
Entonces  
1
ei ∧ . . . ∧ eip | i1 < . . . < ip {ei1 ∧ . . . ∧ eip | i1 < . . . < ip }
p! 1
son bases duales de Ap E y Ap E respectivamente.
El producto cuña satisface las siguiente propiedades:
(a) Si ap y bq son fomas exteriores homogéneas de grados p y q respectivamente,
ap ∧ bq = (−1)pq bq ∧ aq ;
por esta propiedad se dice que el producto cuña es anti-conmutativo graduado.
(b) Si los a1 , . . . an son formas lineales y y σ ∈ Sn ,
a1 ∧ . . . ∧ an = (−1)σ aσ(1) ∧ . . . ∧ aσ(n) .

(c) Si a es una forma lineal en E


a ∧ a = 0.
La relación entre el producto cuña y el producto tensorial puede describirse de forma sencilla. El
producto tensorial induce una operación en Ap E si en vez de considerarlo como un subespacio de E,
lo consideramos como un cociente. Para eso definimos el operador de alternancia (simultáneamente
en todos los grados),
alt : T• E → A• E,
de manera que alt(Θp ) = altp (Θp ) para cada tensor covariante homogéneo de grado p.
Lema 2.37 El núcleo de alt es el subespacio,

M
H• E = Hp E ⊂ T• E.
p=0

que es el ideal bilátero de T• E generado por todos los elementos de la forma θ ⊗ θ con θ ∈ E ∗ .
Prueba. Es elemental ver que es ideal bilátero. Para ver que los elementos θ ⊗ θ generan hay que
ver que α ⊗ Ξ ⊗ α para cualquier 1-forma α y cualquier tensor covariante homogéneo Ξ puede
describirse mediante elementos de ese tipo.

ˆ Para
Por tanto, el producto tensorial en T• E define un producto en A• E que denotamos “⊗”.
ˆ
dos tensores alternados α y β se tiene entonces, α⊗β = alt(α ⊗ β).
Proposición 2.38 Para formas exteriores homogéneas αp y βq de grado p y q respectivamente:
(p + q)!
α p ∧ βq = ˆ q
αp ⊗β
p!q!
Prueba. Basta comprobar la fórmula para tensores simples.

Proposición 2.39 Sea ϕ : E → V una transformación lineal. Entonces el pullback de tensores,


restringido al álgebra de formas exteriores,
ϕ∗ : A• V → A• E,
es un morfismo de K-álgebras graduadas.

77
Contracción interior
Dado un tensor antisimétrico homogéneo αp ∈ Ap E y un vector e ∈ E. Recordemos que la
contracción interior ιe αp está definida por la fórmula:

ιe αp (u1 , . . . , up−1 ) = αp (e, u1 , . . . , up−1 ),

para cualesquiera u1 , . . . , up en E.
Se comprueba con facilidad que la contracción interior define una transformación lineal de grado
(−1) –es decir, baja el grado en uno–

ιe : A• E → A• E,

que satisface, entre otras, las siguientes propiedades notables.


(a) Para e, v ∈ E, ιe ◦ ιv = −ιv ◦ ιe .
(b) Para e ∈ E, ιe ◦ ιe = 0.

(c) (Leibniz) ιe (αp ∧ βq ) = (ιe αp ) ∧ βq + (−1)p αp ∧ (ιe βq ) para αp forma exterior homogénea de
grado q.
(d) Para α1 , . . . , αp formas lineales en E y e ∈ E,

ie (α1 ∧. . .∧αp ) = α1 (e)∧α2 ∧. . .∧αp −α1 ∧α2 (e)∧. . .∧αp +. . .+(−1)p−1 α1 ∧. . .∧αp−1 ∧αp (e).

A consecuencia de la identidad de Leibniz (c) decimos que ιe es una derivación de grado (−1) del
álgebra exterior covariante.

Determinante de un endomorfismo
Los elementos de An E se llaman formas de volumen en E. Observemos que An E tiene dimensión
uno. Por tanto, todo endomorfismo de An E es una dilatación. Hay un isomorfismo canónico,

K → EndK (An E), λ 7→ λIdAp E .

Definición 2.40 Sea ϕ : E → E un endomorfismo de E. Se define el determinante de E como la


razón de la dilatación ϕ∗ : An E → An E. Es decir, para toda forma de volumen,

ϕ∗ (ωn ) = det(ϕ)ωn .

El volumen tiene la interpretación geométrica esperada. Fijemos ωn una forma de volumen en


E. Entonces, dados vectores u1 . . . , un llamamos volumen generado por el paralelepı́pedo de lados
u1 , . . . , un al escalar ωn (u1 , . . . , un ). Es claro que ωn (u1 , . . . , un ) = 0 si y solo si {u1 , . . . , un } es
L.D.

78
Bi-álgebra
El producto cuña ∧ es un mapa bilineal y por tanto, puede linealizarse a través del producto
tensorial. De ahı́,
∧ : Ap E ⊗K Ap E → Ap E,
pasando al dual, tenemos
∧T : Ap E → Ap ⊗K Ap ,
La inmersión canónica de K ⊂ Ap E como la componente homogénea de grado 0 también pasa al
dual y nos da,
iT : Ap E → K
la proyección sobre la componente homogénea de grado cero. En general, el espacio dual de un
álgebra, está dotado de estas operaciones, llamadas co-multiplicación (∧T ) y co-unidad (iT ) que dan
al dual de un álgebra una estructura que se denomina co-álgebra. En el caso particular del álgebra
exterior, se tiene simultáneamente estructura de álgebra y co-álgebra. En ese sentido decimos que
A• E y A• E son bi-álgebras.

2.3.5. Producto simétrico (char(K) = 0)


La construcción realizada para el álgebra exterior puede hacerse de forma análoga en el caso de
los tensores simétricos. Consideremos el espacio vectorial,

M
S• E = Sp E.
p=0

Los elementos de S• E se llaman formas simétricas en E. Un elemento de S• E es combinación lineal


de formas simétricas homogéneos cada uno de ellas de un grado diferente. En general, S• E no es
una subálgebra de T• E, pues el producto tensorial de formas simétricas no es, en general, simétrico.
No obstante, podemos inducir una operación en Sp E si en vez de considerarlo como un subes-
pacio de E, lo consideramos como un cociente. Para eso definimos el operador de simetrización
(simultáneamente en todos los grados),

sym : T• E → S• E,

de manera que sym(Θp ) = symp (Θp ) para cada tensor covariante homogéneo de grado p.

Lema 2.41 El núcleo de sym es el subespacio,



M
K• E = Kp E ⊂ T• E.
p=0

que es el ideal bilátero de T• E generado por todos los elementos de la forma α ⊗ β − β ⊗ α.

Prueba.

Por tanto, el producto tensorial en T• E define un producto en S• E que denotamos como producto
simétrico “·”. Para dos formas simétricas α y β se tiene entonces α · β = sym(α ⊗ β).

79
Definición 2.42 El espacio S• E dotado del producto cuña recibe el nombre de álgebra de formas
simétricas en E. De forma análoga, S • E está dotado de un producto simétrico y recibe el nombre
de álgebra simétrica generada por E.

Si {e1 , . . . , en } es una base de E entonces S• E es el anillo de polinomios K[e∗1 , . . . , e∗n ] y S • E


es el anillo de polinomios K[e1 , . . . , en ]. Para cada p los espacios Sp EPy S p E son duales el uno del
n
otro. Consideremos un n-entero positivo α = (α1 , . . . , αn ) con |α| = j=1 αj = p. Denotamos

eα = eα αn p
1 · · · en ∈ S E
1

y análogamente para la base dual. Vamos a calcular: (e∗ )α (eα ). Consideremos la p-tupla:

(β1 , . . . , βp ) = (1, . . . , 1, 2, . . . , 2, . . . , n, . . . , n)

donde cada ı́ndice j aparece repetido αj veces. Entonces,


1 X
eα = eσ(β1 ) ⊗ . . . ⊗ eσ(βp ) .
p!
σ∈Sp

También tenemos una fórmula similar para (e∗ )α Por tanto,


1 X X σ(β1 )
(e∗ )α (eα ) = e (eτ (β1 ) ) · · · eσ(βp ) (eτ (βp ) )
p!2
σ∈Sp τ ∈Sp

Los sumandos dan 1 si y solo siσ(β) = τ (β) componente a componente, en otro caso son nulos. Es
decir, si y τ = σ ◦ h donde h es una permutación que estabiliza beta. La cantidad de permutaciones
que estabilizan β es el multifactorial α! = α1 ! · · · αp !. Tenemos por tanto,

1 X X 1 α!
(e∗ )α (eα ) = 1= p!α! = .
p!2 p!2 p!
σ∈Sp h∈Est(β)

Concluimos entonces que


 
α p! ∗ α
{e | α ∈ Zn≥0 , |α| = p} (e ) | α ∈ Zn≥0 , |α| = p
α!

son bases duales.


El álgebra de polinomios generada por E está caracterizada por la siguiente propiedad universal.

Proposición 2.43 Sea A una K-álgebra conmutativa con unidad. La restricción a E,



HomK−alg (S • E, A) −
→ LinK (E, A)

es una biyección.

Prueba.

Es decir, toda transformación lineal de E en una K-álgebra conmutativa A con unidad levanta
a un único morfismo de K-álgebras de S • E en A.

80
2.3.6. Algebra exterior y simétrica (caso general y char(K) > 0)
Los espacios A• E, A• E, S• E, S • E, H• E, H • E, K• E, K • E, se definen de la misma manera que
en el caso de caracterı́stica 0. También, el mismo argumento prueba que los espacios S • E, H• E,
H • E, K• E, K • E son ideales biláteros de las correspondientes algebras tensoriales.
Si char(K) 6= 2 el producto cuña puede definirse en A• E y A• E de la misma forma que se hace
en la Sección 2.3.4. Dotando a estos espacios de estructura de álgebra. No ocurre lo mismo con el
producto simétrico, ya que su definición necesita del operador de simetrización.
El mismo argumento de la Proposiciones 2.32 y 2.35.(a) prueba:

Ap E = ann(Hp E), Ap E = ann(H p E)

S p E = ann(Kp E), Ap E = ann(K p E)


En particular si char(K) = 2 entonces también Hp E = Kp E y H p E = K p E.
Los operadores de altp y symp pueden definirse solo en el caso en el que el grado p < char(K).
En cal caso, p! es invertible en K y las fórmulas (2.1), (2.2) pueden aplicarse.

Proposición 2.44 Si char(K) > p entonces los operadores de alternacia altp y simetrización symp
son retractos de las inmersiones Ap E ⊆ Tp E y Sp E ⊆ Tp E. Sus núcleos están dados por Hp E y
Kp E respectivamente, y tenemos por tanto descomposiciones

Tp E = Ap E ⊕ Hp E = Sp E ⊕ Kp E

T p E = Ap E ⊕ Hp E = S p E ⊕ Kp E
donde los operadores de alternancia y simetrización son las proyecciones sobre el primer factor.
Consecuentemente Ap E,Ap E y S p E,Sp E son parejas de espacios duales.

Prueba. Sirven los mismos argumentos de las Proposiciones 2.33 y 2.35.(b).

Sin embargo, si p ≥ char(K) estas descomposiciones en suma directa ya no se dan. Por ejemplo:

(a) Sea K de caracterı́stica 3 y consideremos un espacio 3-dimensional E de base {e1 , e2 , e3 }. A3 E


está generado por e1 ∧ e2 ∧ e3 y A3 E por e1 ∧ e2 ∧ e3 , sin embargo:

(e1 ∧ e2 ∧ e3 )(e1 ∧ e2 ∧ e3 ) = 1 + 1 + 1 = 0.

Esto implica e1 ∧ e2 ∧ e3 ∈ A3 E ∩ H3 E, y que A3 E 6= (A3 E)∗ .


(b) Sea K de caracterı́stica 2 y consideremos un espacio 2-dimensional E de base {e1 , e2 }. Entonces
una base de S 2 E es {e1 ⊗ e1 , e2 ⊗ e2 , e1 ⊗ e2 + e2 ⊗ e1 }. Análogamente base de S2 E es
{e1 ⊗ e1 , e2 ⊗ e2 , e1 ⊗ e2 + e2 ⊗ e1 }. De nuevo es sencillo comprobar que e1 ⊗ e2 + e2 ⊗ e1 se
anula sobre S 2 E:
(e1 ⊗ e2 + e2 ⊗ e1 )(e1 ⊗ e1 ) = 0
(e1 ⊗ e2 + e2 ⊗ e1 )(e2 ⊗ e2 ) = 0
(e1 ⊗ e2 + e2 ⊗ e1 )(e1 ⊗ e2 + e2 ⊗ e1 ) = 1 + 1 = 0
Por tanto e1 ⊗ e2 + e2 ⊗ e1 ∈ S2 E ∩ K2 E y S2 E 6= (S 2 E)∗ .

81
Definición 2.45 Se llama algebra exterior generada por E a la K-álgebra cociente,

ΛE = T • E/H • E.

El producto cuña ∧ en ΛE es la operación inducida por el producto tensorial en E. Es una K-álgebra


anti-conmutativa, unitaria, graduada:
M∞
ΛE = Λp E
p=0

donde la componente homogénea de grado p es,

Λp E = T p E/H p E.

Las propiedades satisfechas por el producto cuña en ΛE son las mismas que las del producto
cuña en A• E. Por definición, dado que H p E = ann(Ap E) tenemos Λp E = (Ap E)∗ . En el caso de
caracterı́stica 0 tenı́amos (Ap E)∗ = Ap E y por tanto ΛE = A• E, donde la relación entre el producto
cuña de ΛE y el de A• E está dado por la Proposición 2.38. Sin embargo, si char(K) > dimK (E)
tenemos (Ap E)∗ 6= Ap E para todo y se pierde por tanto el isomorfismos entre ΛE y Ap E.
En cualquier caso, de forma independiente de la caracterı́stica del cuerpo, si {e1 , . . . , en } es una
base de E entonces,

{ei1 ∧ . . . ∧ eip | i1 < . . . < ip }, {ei1 ∧ . . . ∧ eip | i1 < . . . < ip }

son bases duales de Λp E y Ap E respectivamente. El algebra exterior ha sido construida para verificar
la siguiente propiedad universal.

Proposición 2.46 Sea ϕ : E → B una transformación lineal de A en una K-álgebra unitaria tal
que para todo e ∈ E se tiene ϕ(e)2 = 0. Entonces, existe un único morfismo de K-álgebras,

ϕ̃ : ΛE → B

tal que ϕ̃|Λ1 E = ϕ.

Prueba.

Para rizar más el rizo, si es posible. ¡El álgebra exterior ΛE y Ap E son finalmente isomorfas!
Eso es por la propiedad universal, aplicada a la inclusión de E en Ap E como componente de grado
1.

Definición 2.47 Se llama álgebra simétrica generada por E a la K-álgebra cociente,

K[E] = T • E/K • E.

El producto simétrico en K[E] es la operación inducida por el producto tensorial en E. Es una


K-álgebra conmutativa, unitaria, graduada:
M∞
K[E] = K[E]p
p=0

donde la componente homogénea,


K[E]p = T p E/K p E.

82
Si {e1 , . . . , en } es una base de E entonces K[E] es el anillo K[e1 , . . . , en ] de polinomios generado
por las variables libres e1 , . . . , en .
Por definición, dado que K p E = ann(Sp E) tenemos K[E]p = (Sp E)∗ . En el caso de caracterı́stica
0 tenı́amos (Sp E)∗ = S p E y por tanto K[E] = S • E. Sin embargo en el caso de caracterı́stica positiva
esta igualdad se pierde.

Proposición 2.48 Sea ϕ : E → B una transformación lineal de A en una K álgebra unitaria


conmutativa. Entonces, existe un único morfismo de K-álgebras,

ϕ̃ : ΛE → B

tal que ϕ̃|Λ1 E = ϕ.

Prueba.

2.4. Formas cuadráticas


2.4.1. Formas simétricas, polinomios, funciones polinomiales
Consideremos,
∆p : E → E × . . . × E, e 7→ (e, . . . , e)
la inmersión diagonal. Tenemos una función inducida,

∆∗p : Tp E → KE , Θ 7→ ∆∗p (Θ), ∆∗p (Θ)(e) = Θ(e, . . . , e).

El mapa ∆∗p es K-lineal. La imagen de ∆∗p se llama el espacio de funciones polinomiales homogéneas
de grado p en E, FPolp (E). Una función polinomial homogénea de grado p, f : E → K es una
función homogénea de grado p en el sentido de que verifica:

f (λe) = λp f (e),

para todo λ ∈ K y todo e ∈ E.


Reuniendo las transformaciones ∆∗p para cada grado p, obtenemos:

∆∗ : T• E → KE .

Recordemos que KE tiene una estructura de K-álgebra, son la suma y producto de funciones.
Resulta entonces que ∆∗ es un morfismo de K-álgebras. La imagen de ∆∗p se llama el álgebra de
funciones polinomiales en E, FPol(E).
Es claro que el idea K• E está incluido en el núcleo de ∆∗ . Esto puede verse tanto aplicando
directamente la definición de K• E como la propiedad universal del cociente K[E ∗ ] = T• E/K• E.
Por otro lado, podemos construir ejemplos de formas simétricas no nulas que inducen funciones
polinomiales nulas, y polinomios no nulos que inducen funciones polinomiales nulas.

Proposición 2.49 Las siguientes afirmaciones son ciertas:

83
(a) La condición necesaria y suficiente para que ker(∆∗ ) = K• E es |K| = ∞. En tal caso ∆∗
establece un isomorfismo entre el álgebra de polinomios K[E ∗ ] engendrada por E ∗ y el álgebra
FPol(E) de funciones polinomiales en E.
(b) La condición necesaria y suficiente para que ∆∗ |S• E : S• E → FPol(E) sea un isomorfismo
es que char(K) = 0. En tal caso es un isomorfismo de K-álgebras entre el álgebra de formas
simétricas en E y funciones polinomiales en E.
(b) Si K tiene infinitos elementos y char(K) > p entonces ∆∗ induce un isomorfismo natural entre
Sp E y el espacio de funciones polinomiales homogéneas de grado p FPolp (E).

Nota 2.50 La hipotésis |K| = ∞ puede asumirse en cualquier caso, si es necesario reemplazando
K por su cierre algebraico.

Prueba. (a) es obvio tomando coordenadas, (b) es consecuencia de (a) y un resultado anterior. El
mismo argumento que prueba (b) prueba (c).

Las funciones polinomiales homogénea de grado 2 en E reciben el nombre de formas cuadráticas.


Si K tiene infinitos elementos y char(K) > 2 entonces toda forma cuadrática es la restricción a
la diagonal de un tensor métrico. Aplicando la bilinealidad y la simetrı́a es facil deducir que si
f : E → K es una forma cuadrática, entonces,
1
g(e, v) = (f (e + v) − f (e) − f (v))
2
es el único tensor métrico tal que ∆∗ (gf ) = f .
En E = Kn , con coordenadas x1 , . . . , xn a la forma cuadrática,
X
f (x1 , . . . , xn ) = aij xi xj
i≤j

le corresponde el tensor métrico de matriz


a12 a1n
 
a11 2 ... 2
 a12 a22 ... a2n 
 2 2 
 .. .. .. .. 
 . . . . 
a1n a2n
2 2 ... ann

Un argumento similar sirve para funciones polinomiales de cualquier grado. Las funciones poli-
nomiales homogéneas de grado 3 reciben el nombre de formas cúbicas. Si f : E → K es una forma
cúbica entonces necesariamente f = ∆∗ (Θ) donde Θ es una forma simétrica 3-covariante. Se tiene,

6Θ(e, v, w) = f (e + v + w) − f (e + v) − f (e + w) − f (v + w) + f (e) + f (v) + f (w).

Lo que permite encontrar Θ si char(K) > 3.

84
2.4.2. Subvariedades proyectivas
La situación de las cuádricas puede generalizarse a cualquier grado. Si f es una función polino-
mial homogénea de grado k en E entonces define un lugar geométrico,

var(f ) = {[v] ∈ P(E) f (v) = 0}

que se llama la variedad de ceros de f . En general si f1 , . . . , fr son funciones polinomiales ho-


mogéneas (no necesariamente del mismo grado, podemos definir su variedad de ceros,

var(f1 , . . . , fr ) = {[v] ∈ P(E) f1 (v) = . . . = fr (v) = 0}.

Estos conjuntos se llaman subvariedades proyectivas y son uno de los objetos fundamentales de
estudio de la geometrı́a algebraica.

85
Capı́tulo 3

Problemas lineales de clasificación

3.1. Conceptos básicos de teorı́a de invariantes


En muchos problemas de matemática moderna, dentro de una clase de objetos, se plante el
problema de estudiar las diferentes clases de objetos isomorfos entre sı́. SI M denota nuestra clase
de objetos, y ∼ es la relación de equivalencia: x ∼ y si x es isomorfo a y estamos hablando entoces
de la construcción de la clase cociente M/ ∼ y del estudio de las posibles estructuras matemáticas
que dicha clase pudiera albergar de forma natural. Por ejemplo, esta clase cociente M/ ∼ si es un
conjunto, podrı́a estar dotada de una topologı́a natural, o de una estructura de variedad suave, o
algebraica, etc.

3.1.1. Cocientes por grupoides


Definición 3.1 Un grupoide es una categorı́a donde todo morfismo es un isomorfismo.

El contexto natural de los problemas de clasificación es de los grupoides. Cualquier categorı́a


puede reducirse a un grupoide simplemente excluyendo los morfismos que no son isomorfismos. De
esta manera tenemos el grupoide de los K-espacios vectoriales con los isomorfismos lineales, de los
conjuntos con las biyecciones, de los grupos finitos con los isomorfismos de grupos, etc.
Un grupoide consiste de:
(a) La clase M de los objetos de la categorı́a.
(b) La clase G de los isomorfismos de la categorı́a.

(c) Las funciones s, t : G de tal manera que cada morfismo g ∈ G es un morfismo dg : s(g) → t(g).
Por abuso de notación, usualmente en vez de referirnos al grupoide como la terna (M, G, (s, t))
nos referiremos simplemente al grupoide G. Dados dos objetos x, y ∈ M denotamos por G(x, y) al
conjunto de los isomorfismos de x en y. Cabe observar las siguientes propiedades:

(a) G(x, x) y G(y, y) son grupos, llamados grupos estabilizadores de x e y respectivamente.

86
(b) G(x, y) o bien es vacı́o, o bien es un conjunto donde G(x, x) y G(y, y) actuan libre y transiti-
vamente por la izquierda y por la derecha respectivamente. En tal caso G(x, x) y G(y, y) son
grupos isomorfos.

El espacio cociente, de las clases de objetos isomorfos en M se denota por M/G. Hay una
aplicación natural de paso al cociente:

π : M → M/G, x 7→ [x],

donde [x] denota la clase de todos los objetos isomorfos a x.


Existen dos maneras naturales, más o menos equivalentes, de dotar a la clase cociente M/G de
estructura.

Definición 3.2 Sea X una clase, un invariante con valores en X es una función F : M → X de
manera que si x ' y entonces F (x) = F (y).

Una familia {Fi }i∈I de invariantes, Fi : M → Xi se dice suficiente, si para cualesquiera objetos
x y y tales que para todo i ∈ I se tiene Fi (x) = Fi (y) necesariamente se tiene x ' y. Una familia
suficiente de invariantes permite sumergir la clase cociente,
Y
M/G → Xi , x 7→ (Fi (x))i∈I
i∈I
Q
lo cual puede dotar a M/G de alguna estructura
Q adicional, como subclase de i∈I Xi . Resulta
especialmente importante en caso en el que i∈I Xi es un conjunto.

Definición 3.3 Una forma canónica es una sección s del paso al cociente π : M → M/S.

La forma canónica corresponde a la elección de un objeto especı́fico dentro de cada clase de


objetos isomorfos. Nótese que s ◦ π es un invariante suficiente, dos objetos x y y son isomorfos si y
solo si tienen la misma forma canónica s(π(x)) = s(π(y)).

Ejemplo 3.4 Consideremos E la clase de todos los K-espacios vectoriales de dimensión finita.
Entonces,
dim : E → N
es un invariante suficiente, pues dos espacios vectoriales son isomorfos si solo tienen la misma
dimensión. Este invariante identifica N con la clase cociente, y:

s : N → E, n 7→ Kn

es una forma canónica.

3.1.2. Cocientes por grupos


Consideremos M un conjunto G un grupo y,

G × M → M, (g, x) 7→ gx

87
una acción de G en M . Se define la relación de equivalencia x ∼ y si y solo si hay un elemento
g ∈ G tal que gx = y. El espacio de órbitas, cuyos elementos son las clases de equivalencia bajo la
acción del grupo, se denota M/G.
Veamos que esta situación puede verse como un caso particular de la anterior. Para cada pareja
de (x, y) de elementos de M definimos
a
G(x, y) = {g ∈ G | gx = y}, G = G(x, y).
(x,y)∈M×M

De esta manera G es un grupoide. El problema de la construcción del cociente M/G es exactamente


el mismo que el problema de la construcción del cociente M/G.

Ejemplo 3.5 Consideremos Mat(n × m, K) el espacio de las matrices n × m. En este espacio, el


grupo GL(n, K) actua por la izquierda por composición:

GL(n, K) × Mat(n × n, K) → Mat(n × m, K), (C, A) 7→ CA

Puede probarse con facilidad que dos matrices A y B son equivalentes si y solo si tienen el mismo
espacio nulo nul(A) = nul(B). Por tanto la función:

nul : Mat(n × m, K) → {subespacios de Km }

es un invariante suficiente. También sabemos que dos matrices equivalentes tienen la misma forma
escalonada por filas. Por tanto,

ferf : Mat(n × m, K)/GL(n, K) → Mat(n × m, K)

que asigna a cada clase de matrices su forma escalonada reducida por filas es una forma canónica
para dicha acción.

Problema 3.6 Desarrolle una teorı́a similar para la acción de GL(m, K) en GL(n, K) dada por
A ? B = BA−1 .

Problema 3.7 Clasifique todos los objetos de las categorı́as:


(a) La categorı́a de espacios vectoriales sobre Kn donde los objetos son espacios vectoriales dotados
de transformaciones ϕ : E → Kn , y los morfismos son triángulos conmutativos.
(b) La categorı́a de espacios vectoriales desde Km donde los objetos son espacios vectoriales do-
tados de transformaciones ϕ : Km → E y los morfismos son triangulos conmutativos.
(c) De la categorı́a de las transformaciones lineales, donde los objetos son transformaciones li-
neales y los morfismos son cuadrados conmutativos.

3.2. Clasificación de endomorfismos


3.2.1. Polinomios
Conviene recordar algunas propiedades del anillo K[x] de polinomios con coeficientes en el cuerpo
K. Es un anillo en el cual hay noción de grado y un algoritmo de división entera. Dados dos

88
polinomios p(x) y q(x) es siempre posible encontrar únicos d(x) y r(x) con grad(r(x)) < grad(q(x))
tales que,
p(x) = q(x)d(x) + r(x).
Se llama a d(x) y r(x) el cociente y el resto de la división entera de p(x) entre q(x). Cuando el
resto es nulo, decimos que q(x) divide a p(x) y escribimos q(x)|p(x). En el anillo de polinomios hay
noción de máximo común divisor de una pareja, o de un número finito de polinomios.
El coeficiente de la potencia de x de mayor exponente en p(x) se llama el coeficiente dominante
de p(x). Un polinomio es mónico si su coeficiente dominante es 1.
El máximo común divisor de p1 (x), . . . , pr (x) es el polinomio mónico q(x) de mayor grado tal
que q(x)|p1 (x), . . ., q(x)|pr (x). Escribimos q(x) = mcd(p1 (x), . . . , pr (x)). Además existen polinomios
α1 (x),. . .,αr (x) tales que:
mcd(p1 (x), . . . , pr (x)) = α1 (x)p1 (x) + . . . + αr (x)pr (x).
Decimos que los polinomios p1 (x), . . . , pr (x) son coprimos si su máximo común divisor es 1. El
mı́nimo común múltiplo de p1 (x), . . . , pr (x) es el polinomio mónico q(x) de menor grado tal que
p1 (x)|q(x), . . ., pr (x)|q(x). Escribimos q(x) = mcm(p1 (x), . . . , pr (x)).
Un polinomio no constante p(x) es irreducible o primo si no tiene divisores mónicos, excepto 1 y
p(x). Un polinomio factoriza de forma única, salvo el orden, como producto de irreducibles mónicos
y una constante:
q(x) = ap1 (x) · · · pr (x),
la constante a es el coeficiente dominante de q(x). Se puede asegurar que dos polinomios son
coprimos si no comparten ningún factor en su descomposición en irreducibles. Los mcd y mcm
pueden calcularse a partir de la descomposición en irreducible de la forma usual.
Una raı́z de p(x) un polinomio es λ ∈ K si p(λ) = 0 o equivalentemente x − λ|p(x). La multiplici-
dad de λ en p es el mayor r tal que (x − λ)r |p(x). Se tiene que λ es una raiz de p(x) de multiplicidad
r si y solo si p(x) = (x − λ)r q(x) con q(λ) 6= 0.
Decimos que K es algebraicamente cerrado cuando todo polinomio no constante tiene una raı́z
en K. En este caso puede decirse que los polinomios p1 (x), . . . , pr (x) son coprimos si no hay ninguna
raı́z común a todos ellos. También en este contexto los polinomios mónicos irreducibles son todos
de la forma x − λ con λ ∈ K y todo polimomio no constante q(x) factoriza como
q(x) = a(x − λ1 )m1 · · · (x − λr )mr ,
donde a es el coeficiente dominante de q(x), los elementos λj son las distintas raices de p(x), cada
una de ellas de multiplicidad mj , y m1 + . . . + mr = grad(p(x)).

3.2.2. Conjugación de endomorfismos


Consideremos la categorı́a de espacios vectoriales de dimensión finita dotados de endomorfismos.
Los objetos de esta categorı́a son parejas (E, ϕ) donde ϕ ∈ EndK (E). Dadas dos parejas (E, ϕ),
(E 0 , ϕ0 ) un isomorfismo entre ellas es un cuadrado conmutativo,

E
f
/ E0
ϕ ϕ0
 
E
f
/ E0

89
donde f es un isomorfismo de espacios vectoriales. Tenemos en tal caso ϕ0 = f ◦ ϕ ◦ f −1 , y decimos
que el isomorfismo f conjuga ϕ y ϕ0 . Decimos (E, ϕ) ' (E 0 , ϕ0 ). Si E = E 0 entonces f es un
automorfismo de E y decimos que ϕ y ϕ0 son endomorfismos conjugados de E, lo que denotamos
ϕ ∼ ϕ0 .
Este problema de clasificación es equivalente a otro que tiene un planteamiento más sencillo. En
el conjunto Mat(n × n, K) de las matrices n × n consideramos la acción por conjugación del grupo
lineal GL(n, K) de las matrices no degeneradas.
GL(n, K) × Mat(n × n, K) → Mat(n × n, K), (B, A) 7→ BAB −1 .
Dos matrices A y B se dicen conjugadas si están en la misma órbita de la acción. Escribimos A ∼ B.
Tomando bases {e1 , . . . , en } de E y {e01 , . . . , e0n } de E 0 obenemos un diagrama
B

ē∗ ē0∗ %
Kn o / E0 / Kn
f
E
[ϕ]ē ϕ ϕ0 [ϕ]ē0
 ∗   0∗ 
Kn o / E0 / Kn
ē f ē
E 9
B

de tal manera que [ϕ]ē0 = B[ϕ]ē B −1 . Es decir (E, ϕ) ' (E 0 , ϕ0 ) si y solo si [ϕ]ē ∼ [ϕ0 ]ē0 en alguna
(y por tanto en todas) pareja de bases. En este sentido, la clasificación de espacios vectoriales de
dimensión finita dotados de endomorfismos es equivalente a la clasificación de matrices cuadradas
por conjugación.

3.2.3. Polinomios caracterı́stico y anulador


El polinomio caracterı́stico de una matriz cuadrada A es charA (x) = det(xIn×n − A). Es un
polinomio mónico de grado n. Si A ∼ A0 , se prueba con facilidad que A y A0 tienen el mismo
polinomio caracterı́stico. Por ejemplo, si A0 = BAB −1 entonces charA0 (x) = det(xIn×n − A0 ) =
det(B(xIn×n − A)B −1 ) = det(B) det(xIn×n − A) det(B)−1 = charA (x). Por tanto, puede definirse
el polinomio caraterı́stico charϕ (x) de un endomorfismo ϕ como el polinomio caracterı́stico de su
matriz en cualquier base. Por definición, el polinomio caracterı́stico es un invariante, si (E, ϕ) '
(E 0 , ϕ0 ) entonces charϕ (x) = charϕ0 (x).
Fijemos E un espacio vectorial de dimensión n. Recordemos que EndK (E) es una K-álgebra,
isomorfa a Mat(n × n, K). Para ϕ ∈ K disponemos la notación,
ϕk = ϕ ◦ . . . ◦ ϕ k veces, ϕ0 = IdE ,
De esta manera, para cada polinomio p(x) = ak xk + . . . a1 x + a0 en K[x] disponemos,
p(ϕ) = ak ϕk + . . . a1 ϕ + a0 IdE .
Si fijamos el endomorfismos ϕ y dejamos variar el polinomio p(ϕ) obtenemos un morfismo de K-
álgebras:
K[x] → EndK (E), p(x) 7→ p(ϕ).
Se deduce que si p(x) y q(x) son polinomios entonces p(ϕ) ◦ q(ϕ) = q(ϕ) ◦ p(ϕ).

90
Nota 3.8 Sea f : E → E 0 un isomorfismo de espacios vectoriales que conjuga ϕ y ϕ0 , es decir
ϕ0 = f ◦ ϕ ◦ f −1 . Entonces para todo polinomio p(x) se tiene p(ϕ0 ) = f ◦ p(ϕ) ◦ f −1

El espacio EndK (E) tiene dimensión finita n2 . Por tanto los elementos de la secuencia IdE , ϕ, ϕ2 ,
ϕ , . . . no pueden ser todos L.I. consideremos el menor m tal que el conjunto {IdE , ϕ, ϕ2 , ϕ3 , . . . , ϕm }
3

es L.D. o bien haya una repetición ϕm = ϕk con k < m, lo primero que ocurra. Entonces, necesa-
riamente ϕm es combinación lineal de las potencias anteriores de ϕ.
m−1
X
ϕm = bk ϕk .
k=0

Pm−1
Tomamos entonces anϕ (x) = xm − k=0 bk xk . Se tiene por definición anϕ (ϕ) = 0 y para cualquier
polinomio no nulo q(x) de grado < m, q(ϕ) 6= 0.

Definición 3.9 Llamamos polinomio anulador de ϕ al polinomio mónico de menor grado anϕ (x)
tal que anϕ (ϕ) = 0.

Por la división entera, tenemos que si p(x) es un polinomio tal que p(ϕ) = 0 entonces annϕ (x)|p(x).
Es decir p(x) es un múltiplo1 del polinomio anulador.

3.2.4. Suma directa y descomposición en bloques


Si (E, ϕ) y (E 0 , ϕ) son espacios dotados de endomorfismo, entonces podemos definir en la suma
directa el endomorfismo suma2 :

ϕ + ϕ0 : E ⊕ E 0 → E ⊕ E 0 , e + e0 7→ ϕ(e) + ϕ0 (e0 ).

Escribimos (E, ϕ) ⊕ (E 0 , ϕ) = (E + E 0 , ϕ + ϕ0 ). Si {e1 , . . . , en } una base de E y {e01 , . . . , e0m } es


una base de E 0 entonces {e1 , . . . , en , e01 , . . . , e0m }. La matriz de ϕ + ϕ0 en esta base es una matriz
diagonal por bloques, cuyos bloques son las matrices de ϕ y ϕ0 :
 
0 [ϕ]ē 0n×m
[ϕ + ϕ ]ē,ē = 0 .
0m×n [ϕ0 ]ē0

Lema 3.10 Consideremos (E, ϕ) ⊕ (E 0 , ϕ) = (E + E 0 , ϕ + ϕ0 ) una suma directa de espacios con


endomorfismo. Entonces:
(a) anϕ+ϕ0 (x) = mcm(anϕ (x), anϕ0 (x)),
(b) charϕ+ϕ0 (x) = charϕ (x)charϕ0 (x).
1 Otra
manera de definir annϕ (x) es como el generador mónico del núcleo del morfismo p(x) 7→ p(ϕ).
2 Repitiendo
este proceso, podemos realizar la suma de un número cualquiera de bloques. Si E1 , . . . , Ek son espacios
dotados de endomorfismos ϕ1 , . . . , ϕk entonces en el espacio suma directa podemos definir el endomorfismo morfismo
suma
X k M k Mk
ϕk : Ej → Ej , e1 + . . . + ek 7→ ϕ1 (e1 ) + . . . + ϕk (ek )
j=1 j=1 j=1

De manera que si se construye una base de kj=1 Ej mediante la concatenación de bases de los espacios Ej , entonces
L
Pk
la matriz de j=1 ϕk es una matriz diagonal por bloques, cuyos bloques diagonales son las matrices de ϕ1 ,. . .,ϕk .

91
Prueba. (a) Elemental, cálculo del determinante de matrices diagonales por bloques.
(b)Basta observar que (ϕ + ϕ0 )k (e + e0 ) = ϕk (e) + ϕ0k (e0 ). Luego para que un polinomio anule
ϕ + ϕ0 basta con que anule simultáneamente ϕ y ϕ0 . Por tanto anϕ+ϕ0 (x) debe ser un múltiplo de
ambos anuladores. El mcm(anϕ (x), anϕ0 (x)) es el polinomio mónico de menor con esta propiedad,
y por tanto es el anulador requerido.

Definición 3.11 Sea (E, ϕ) un espacio dotado de un endomorfismo. Un subespacio ϕ-invariante


es un subespacio vectorial V ⊆ E tal que ϕ(V ) ⊆ V . En tal caso (V, ϕ|V ) es un espacio dotado de
un endomorfismo.

Lema 3.12 Sea f : E → E 0 un isomorfismo de espacios vectoriales que conjuga ϕ y ϕ0 , es decir


ϕ0 = f ◦ϕ◦f −1 . Entonces, V es un espacio ϕ-invariante si y solo si f (V ) es un espacio ϕ0 -invariante.

Prueba. Elemental.

Vamos a abordar el problema de clasificación de endomorfismos de la siguiente manera. Que-


remos descomponer (E, ϕ) como suma directa de espacios lo más sencillos que hagan el papel de
bloques de construcción. Este problema es equivalente a encontrar subespacios ϕ-invariantes suple-
mentarios. Si V y W son subespacios ϕ-invariantes suplementarios.

Proposición 3.13 Suponga que V1 , . . . , Vk son subespacios ϕ-invariantes de E y que,

E = V1 ⊕ . . . ⊕ Vk

entonces, se tiene,
ϕ = ϕ|V1 + . . . + ϕ|Vk
y por tanto
(E, ϕ) = (V1 , ϕ|V1 ) ⊕ . . . ⊕ (Vk , ϕ|Vk ).

Prueba. Es consecuencia directa de las definiciones.

Por ejemplo, un endomorfismo es diagonalizable si y solo si se puede descomponer como suma


directa de espacios invariantes de dimensión 1. Eso significa que hay una base en la cual la matriz
del endomorfismo es diagonal. Sin embargo no siempre es posible encontrar subespacios invariantes
de dimensión 1. Nuestros bloques de construcción se denominan espacios cı́clicos.

3.2.5. Espacios cı́clicos


Definición 3.14 Un espacio dotado de endomorfismo (E, ϕ) se dice un espacio cı́clico si hay un
elemento e ∈ E tal que
E = he, ϕ(e), ϕ2 (e), ϕ3 (e), . . . iK
decimos que el generador e es un vector ϕ-cı́clico.

En un espacio con endormorfismo (E, ϕ) todo vector e ∈ E está contenido un subespacio ϕ-


invariante cı́clico que denotamos por heiϕ :

heiϕ = he, ϕ(e), ϕ(ϕ(e)), . . .iK .

92
Decimos que heiϕ es el subespacio cı́clico generado por e. Es también claro que heiϕ es el menor
subespacio ϕ-invariante que contiene a e,
Sea (E, ϕ) un espacio cı́clico y e un vector cı́clico. Si el polinomio anulador de ϕ tiene grado
n entonces {e, ϕ(e), . . . , ϕn−1 (e)} es una base de E. Por tanto la dimensión de un espacio cı́clico
coindice con el grado de su polinomio anulador. Más aún, los polinomios anuladores caracterizan
los espacios cı́clicos.

Proposición 3.15 Sean (E, ϕ) y (V, ψ) dos espacios cı́clicos. Entonces (E, ϕ) ' (V, ψ) si y solo si
anϕ (x) = anψ (x).

Prueba. Suponga que son isomorfos. Entonces el isomorfismo envı́a un vector cı́clico a un vector
cı́clico. Las relaciones de dependencia lineal entre sus transformados son las mismas, luego el polino-
mio anulador también. Recı́procamente fijamos vectores cı́clicos e ∈ E y v ∈ V . podemos encontar
un unico isomorfismo que envı́a e a v.

Consideremos (E, ϕ) un espacio cı́clico de dimensión n y e un vector cı́clico. Consideremos el


polinomio anulador,
anϕ (x) = xn + an−1 xn−1 + . . . + a0 .
Definimos ej = ϕj (e) para j = 0, . . . , n − 1. Entonces {e0 , . . . , en−1 } es una base de E, de la cual
decimos que es un base cı́clica 3 . La matriz de ϕ en esta base es fácil de calcular, ya que

ϕ(ej ) = ej+1 para 0 ≤ j < n − 1, ϕ(en−1 ) = −a0 e0 − a1 e1 − . . . − an−1 en−1 .

Por tanto,  
0 0 ... 0 −a1

 1 0 ... 0 −a2 

[ϕ]ē = 
 0 1 ... 0 −a3 

 .. .. .. .. .. 
 . . . . . 
0 ... 0 1 −an−1
La matriz [ϕ]ē recibe el nombre de matriz compañera del polinomio xn + an+1 xn−1 + . . . a0 . Por el
Lema 3.15 sabemos que cualquier otro espacio con endomorfismo (ψ, V ) es conjugado con (E, ϕ) si
y solo si hay una base {v1 , . . . , vn } de V tal que la matrix [ψ]v̄ es igual a [ϕ]ē . Por tanto [ϕ]ē es una
forma canónica para (E, ϕ) que recibe el nombre de forma canónica racional de Frobenius. De esta
manera hemos definido la forma canónica racional de Frobenius para los endomorfismos cı́clicos,
más adelante veremos como definirla para endomorfismos cualesquiera.

3.2.6. Subespacios propios generalizados


Dado un vector e ∈ E denotamos por anϕ,e (x) al polinomio anulador de ϕ|heiϕ . Se comprueba
sin dificultad que anϕ,e (x) es el polinomio mónico de menor grado tal que anϕ,e (ϕ)(e) = 0. Por
definición anϕ,e (x) es un divisor de annϕ (x).
Definimos ahora los subespacios propios generalizados.
3 Cada vector cı́clico diferente genera una base cı́clica diferente, aunque todas son equivalentes.

93
Definición 3.16 Para cada polinomio p(x) denotamos Eϕ,p(x) ⊂ E al subespacio:
Eϕ,p(x) = ker(p(ϕ)),
que recibe el nombre de subespacio propio generalizado de polinomio p(x).
Por ejemplo, Eϕ,x−λ es el espacio propio de ϕ de valor λ,
E(ϕ, x − λ) = {e ∈ E | ϕ(e) = λe};
sus elementos se llaman vectores propios de valor propio λ.
Lema 3.17 Los espacios propios generalizados verifican las siguiente propiedades:
(a) Para todo polinomio p(x) el Eϕ,p(x) = ker(p(ϕ)) es un subespacio ϕ-invariante.
(b) Si p(x)|q(x) entonces Eϕ,q(x) ⊆ Eϕ,p(x) .
(c) Eϕ,p(x) = Eϕ,mcd(anϕ (x),p(x)) .
(d) heiϕ ⊆ Eϕ,p(x) ⇐⇒ anϕ,e (x)|p(x).
(e) Para cualquier espacio ϕ-invariante V se tiene V ⊆ Eϕ,p(x) ⇐⇒ anϕ|V (x)|p(x).
Prueba. (a) Sea e ∈ ker(p(ϕ) entonces p(ϕ)(ϕ(e)) = (p(ϕ) ◦ ϕ)(e) = ϕ(p(ϕ)(e)) = 0. Lue-
go ϕ(e) ∈ ker(p(ϕ)). (b) Basta aplicar la definición. (c) Sea q(x) el mcd. La descomposición,
q(x) = a(x)p(x) + b(x)anϕ (x) prueba una inclusión, la otra es por el apartado (b). (e) Basta
aplicar la definición. (d) es un caso particular de (e).

Por tanto (E, ϕ) está organizado como un retı́culo de un número finito espacios propios genera-
lizados. Cada espacio propio corresponde a ún divisor de annϕ (E).

3.2.7. Teoremas de descomposición


Vamos a ver como descomponer cualquier espacio (E, ϕ) como suma directa de espacios cı́clicos.
Lema 3.18 (de descomposición) Sea, anϕ (x) = p(x)q(x) una descomposición de anϕ (x) en fac-
tores coprimos. Entonces,
E = Eϕ,p(x) ⊕ Eϕ,q(x)
Prueba. En primer lugar, como p(x) y q(x) son coprimos, hay polinomios α(x) y β(x) tales que
α(x)p(x) + β(x)q(x) = 1. Es decir,
α(ϕ)p(ϕ) + β(ϕ)q(ϕ) = In×n .
Veamos Eϕ,p(x) ∩ Eϕ,q(x) = {0}. Sea e ∈ Eϕ,p(x) ∩ Eϕ,q(x) entonces p(ϕ)(e) = q(ϕ)(e) = 0, pero
entonces
e = In×n (e) = α(ϕ)p(ϕ)(e) + β(ϕ)q(ϕ)(e) = 0.
Probemos ker(p(A)) + ker(q(A)) = Kn . Sea e ∈ E cualquiera. Entonces
e = In×n (e) = p(ϕ)α(ϕ)(e) + q(ϕ)β(ϕ)(e) = 0.
Definamos u = q(ϕ)β(ϕ)(e) y v = p(ϕ)α(ϕ)(e). Entonces e = u + v. Calculemos p(ϕ)(u) =
anϕ (ϕ)(α(ϕ)(u)) = 0. Análogamente q(ϕ)(v) = 0. Por tanto u ∈ Eϕ,p(x) y v ∈ Eϕ,q(x) .

94
Corolario 3.19 (Primer teorema de descomposición) Sea

anϕ (x) = p1 (x)m1 · · · pr (x)mr

la descomposición de anϕ (x) es factores irreducibles diferentes en K[x]. Entonces hay una descom-
posión única de E es subespacios ϕ-invariantes,

E = Eϕ,p1 (x)m1 ⊕ Eϕ,p2 (x)m2 ⊕ . . . ⊕ Eϕ,pr (x)mr .

Esta descomposición es única en el sentido siguiente. Suponga que tenemos un isomorfismo:


f
(E, ϕ) −−→ (E1 , ϕ1 ) ⊕ . . . ⊕ (Er , ϕr )

de tal manera que para cada j el polinomio anϕj (x) es una potencia de pj (x). Entonces para j =
1, . . . , r,
f (Eϕ,pj (x)mj ) = Ej .

Prueba. La existencia de la descomposición se sigue del lema, por inducción. Veamos la unicidad.
Como el polinomio anulador de ϕj divide al polinomio anulador de ϕ tenemos que es una potencia
pj (x)`j con `j ≤ mj . Por tanto f −1 (Ej ) ⊆ Eϕ,pj (x)`j ⊆ Eϕ,pj (x)mj . Para que las dimensiones de
los espacios Ej sumen la dimnsión de E es necesario que las inclusiónes anteriores sean igualdades
para cada j = 1, . . . , r.

Lema 3.20 Supongamos (E, ϕ) un espacio cı́clico anϕ (x) = p(x)m con p(x) irreducible en K[x].
Entonces para todo k = 0, . . . , m se tiene im(p(ϕ)k ) = ker(p(ϕ)m−k ).

Prueba. Sea e un vector cı́clico de E. Sea n el grado de p(x). Consideramos los vectores:

{ei,j = p(ϕ)j ϕi (e) | i = 0, . . . , n − 1, j = 0, . . . , m − 1}

como todos ellos se obtienen aplicando a e polinomios de grados diferentes, y menores que el
grado del anulador nm, deben ser linealmente independientes y por tanto una base de E. En dicha
base, ordenada de la siguiente manera ē = (e00 , e01 , . . . , e0,n−1 , e11 , e12 , . . . , em−1,0 , . . . , em−1,n−1 la
matriz de p(ϕ) toma la siguiente forma:
 
0n×n 0n×n ... . . . 0n×n
 .. .. .. 
 In×n 0n×n
 . . .  
[p(ϕ)]ē =  0n×n In×n 0n×n
 . .. .. 
 .  
 . .. .. ..
 ..

. . . 0n×n 
0 . . . 0n×n In×n 0n×n

Lo que nos lleva a un cálculo sencillo de las imágenes y los núcleos:

ker(p(ϕ)0 ) = {0} = im(p(ϕ)m )

ker(p(ϕ)1 ) = hem−1,j | 0 ≤ j ≤ n − 1iK = im(p(ϕ)m−1 )

95
ker(p(ϕ)2 ) = hek,j | m − 2 ≤ k ≤ m − 1, 0 ≤ j ≤ n − 1iK = im(p(ϕ)m−1 )
..
.
ker(p(ϕ)m−1 ) = hek,j | 1 ≤ k ≤ m − 1, 0 ≤ j ≤ n − 1imathbbK = im(p(ϕ)1 )
ker(p(ϕ)m ) = E = im(p(ϕ)0 )
que finaliza la demostración.

Teorema 3.21 (Segundo teorema de descomposición) Supongamos anϕ (x) = p(x)m con p(x)
irreducible en K[x]. Entonces E descompone como suma directa de espacios cı́clicos:
k
M
E= hej iϕ .
j=1

Además anϕ,ej (x) = p(x)mj con m1 = m ≥ m2 ≥ . . . ≥ mk ≥ 1. Esta descomposición no es única,


pero cualquier otra descomposición de E en subespacios cı́clicos tiene el mismo número de términos
e idénticos polinomios anuladores.

Prueba. Por inducción sobre la dimensión de E. Para todo e ∈ E el anulador de (ϕ, e) es una
potencia de p(x) de exponente r ≤ m. Sea r el exponente más alto que se alcanza. Entonces
p(ϕ)r = 0 y por tanto r ≥ m. Luego r = m y existe un elemento e1 tal que anϕ,e1 (x) = p(x)m .
Como he1 iϕ es ϕ-invariante entonces el morfismo ϕ pasa al cociente e induce un endomorfismo
ϕ̄ que hace al siguiente diagrama conmutativo:

he1 iϕ /E / E/he1 iϕ

ϕ ϕ̄
  
he1 iϕ /E / E/he1 iϕ

Por la conmutatividad del diagrama sabemos que el polinomio anulador de ϕ̄ es un divisor de


p(x)m . Sea v̄ el generador de un subespacio cı́clico hv̄iϕ̄ en E/he1 iϕ . Entonces anϕ̄,v̄ (x) = p(x)r con
r ≤ m.Consideremos un representante v de v̄.

v̄ = v + he1 iϕ

Dado que p(ϕ̄)r (v̄) = 0 tenemos p(ϕ)r (v) ∈ he1 iϕ . Además pm−r (ϕ)(p(ϕ)r (v)) = 0, y por el Lema
3.20 entonces p(ϕ)r (v) está en la imagen de p(ϕ)r |he1 iϕ . Eso significa que hay un elemento q(ϕ)(e1 )
tal que p(ϕ)r (v) = p(ϕ)r q(ϕ)(e1 ) Tomemos ahora el nuevo representante v 0 = v − q(ϕ)e1 . Resulta
entonces p(ϕ)r (v 0 ) = 0, y por tanto el subespacio cı́clico he02 iϕ se proyecta isomorficamente sobre
hv̄iϕ̄ y está en suma directa con he1 iϕ .
Apliquemos ahora la hipótesis de inducción. Tenemos que hay vectores ē2 , . . . ēk en E/he1 iϕ
Lk
de manera que E/he1 iϕ = j=2 hēj iϕ . Por la discusión anterior podemos encontrar representantes
Lk
e2 , . . . , ek de ē1 , . . . ēk de manera que j=2 hej iϕ es un suplementario en E de he1 iϕ . Esto concluye
la demostración.

96
3.2.8. Divisores elementales y factores invariantes
Entonces, dado ϕ un endomorfismo de E, con

anϕ (x) = p1 (x)m1 . . . p1 (x)mr ,

primero se descompone, por el primer teorema, en los espacios propios generalizados correspondien-
tes a los polinomios pj (x)mj y luego cada uno de estos Eϕ,pj (x)mj se descompone, por el segundo
teorema, en espacios cı́clicos con polinomios anuladoes pj (x)mj,1 , . . . , pj (x)mj,`(j) ; con mj = mj,1 ≥
mj2 ≥ . . . ≥ mj,`(j) . Estos polinomios,

p1 (x)m1,1 p1 (x)m1,2 ... p1 (x)m1,`(1)


p2 (x)m2,1 p1 (x)m2,2 ... ... p2 (x)m2,`(2)
.. .. (3.1)
. .
pr (x)mr,1 pr (x)mj,2 ... ... ... pr (x)mr,`(r)

se llaman los divisores elementales de (E, ϕ). Queda demostrado el siguiente resultado.

Teorema 3.22 Todo espacio dotado de endomorfismo (E, ϕ) descompone como suma de espacios
cı́clicos,
(E, ϕ) = (E1 , ϕ1 ) ⊕ . . . ⊕ (Ek , ϕk )
donde los anuladores qj (x) = anϕj (x) son los divisores elementales de (E, ϕ). La tupla no ordenada
de divisores elementales (p1 (x), . . . , pk (x)) es un invariante suficiente de (E, ϕ).

El siguiente resultado tiene ahora una prueba inmediata.

Teorema 3.23 (Cayley-Hamilton) Sea(E, ϕ) un espacio vectorial dotado de un endomorfismo.


Entonces:
(a) anϕ (x)|charϕ (x).
(b) Todo factor irreducible de charϕ (x) divide anϕ (x)

Prueba. Basta observar que el polinomio anulador el producto de los divisores elementales con
exponentes mayores, es decir, la primera columna de (3.1), mientras que el polinomio caracterı́stico
es el producto de todos los divisores elementales.

En en diagrama (3.1) hay que observar que cada fila puede tener una longitud diferente. Vamos
a definir otro invariante suficiente, reescribiendo los divisores elementales. Sea ` = máx{`(j) | j =
1, . . . r}. Para convertir al diagrama (3.1) en una matriz r × ` completamos por pj (x)0 = 1 todos
los espacios, es decir, si ` ≥ k > `(j) tomamos mj,k = 0. Entonces definimos los polinomios:
r
Y
Φ1 (x) = pj (x)mj,`
j=1

r
Y
Φ2 (x) = pj (x)mj,`−1
j=1

97
..
.
r
Y
Φ` (x) = pj (x)mj,1
j=1

Es decir Φ1 (x) es el producto de los elementos de la última columna de (3.1), y ası́ hasta Φ` (x)
que es el producto de los elementos de la primera columna (3.1). Estos polinomios se llaman los
factores invariantes de (E, ϕ). Los divisores elementales pueden recuperarse de la descomposición
en irreducibles de los factores invariantes. Por tanto los factores invariantes son también un sistema
suficiente de invariantes: dos endomorfismos son conjugados si y solo si tienen los mismos factores
invariantes.
Los factores invariantes se han construido de manera que cada uno divide al siguiente,
Φ1 (x)|Φ2 (x)| . . . |Φ` (x).
El producto de todos ellos es el polinomio caracterı́stico y el último de ellos el polinomio anulador.

3.2.9. Forma racional de Frobenius


Teorema 3.24 (Teorema chino de los restos - versión lineal) Sean (E, ϕ) y (E 0 , ϕ0 ) espa-
cios cı́clicos. Supongamos que anϕ (x) y anϕ0 (x) son coprimos. Entonces (E ⊕ E 0 , ϕ + ϕ0 ) es cı́clico
y anϕ+ϕ0 (x) = anϕ (x)anϕ0 (x).
Prueba. Sea e un vector cı́clico de E y e0 un vector cı́clico de E 0 . Por comodidad, denotemos
ϕ00 = ϕ + ϕ0 y e00 = e + e0 . Veamos que e00 es un vector cı́clico.
Al ser los anuladores coprimos, podemos encontrar polinomios p(x) y q(x) tales que:
p(x)anϕ (x) + q(x)anϕ0 (x) = 1.
De ahı́,
p(ϕ00 )anϕ (ϕ00 )(e00 ) + q(ϕ00 )anϕ0 (ϕ00 )(e00 ) = e00 .
Ahora, teniendo en cuenta que para todo polinomio a(ϕ00 )(e00 ) = a(ϕ)(e) + a(ϕ0 )(e0 ), al descompo-
ner la suma anterior tenemos, q(ϕ00 )anϕ0 (ϕ00 )(e00 ) = e y p(ϕ00 )anϕ (ϕ00 ) = e0 . Luego el espacio cı́clico
generado por e00 contiene a e y e0 .

Una consecuencia inmediata de la definición de los factores invariantes y el teorema chino de los
restos es.
Corolario 3.25 Un endomorfismo es cı́clico si y solo si su polinomio anulador coindice con su
polinomio caracterı́stico.
Consideremos ahora (E, ϕ). Dado que cada factor invariante,
r
Y
Φk (x) = pj (x)mj,`−k
j=1

se ha construido como producto de divisores elementales coprimos, aplicando el teorema chino de los
restos, obtenemos que la suma directa de los cı́clicos correspondientes a los divisores {pj (x)mj,`−k |
j = 1, . . . , r} es un cı́clico cuyo anulador es Φk (x). Queda por tanto demostrado el teorema.

98
Teorema 3.26 (Descomposición minimal) Sean Φ1 (x), . . . Φ` (x) los factores invariantes de (E, ϕ);
el espacio E descompone como suma directa de ` espacios ϕ-invariantes cı́clicos,

E = E1 ⊕ . . . ⊕ E`

de polinomios anuladores Φ1 (x), . . . Φ` (x).

Definición 3.27 Sea (E, ϕ) un endomorfismo y sean Φ1 ,. . .,Φ` sus divisores elementales. La forma
canónica racional de Frobenius es la matriz diagonal por bloques, cuyos bloques diagonales son las
matrices compañeras de Φ` ,. . .,Φ1 4 .

Dado que la forma racional de Frobenius contiene todos los coeficientes de los factores inva-
riantes, es claro que la forma canónica racional de Frobenius de un endomorfismo es un invariante
suficiente. Dado un endomorfismo ϕ de E. ¿Como encontrar una base tal que la matriz de ϕ en dicha
base sea su forma racional de Frobenius, y en consecuencia hallar también los divisores invariantes?
Puede seguirse el siguiente procedimiento:

(1.) Calcule el polinomio caracterı́stico de ϕ, como un determinante.


(2.) Calcule el anϕ (x) de la siguiente manera. Descomponga charϕ (x) en factores irreducibles:

charϕ (x) = p1 (x)m1 · · · pr (x)mr

Para cada divisor intermedio q(x), p1 (x) · · · pr (x)|q(x)|charϕ (x) evalúe q(ϕ). El polinomio
anulador es el menor de ellos para el cual q(ϕ) = 0.
(3.) Busque un vector e1 de polinomio anulador anϕ (x) Esto puede hacerlo al azar, basta con que
e no caiga en un espacio propio generalizado. Entonces e1 ,ϕ(e1 ), . . .,ϕk−1 (e1 ) (donde k es el
grado del anulador) son los elementos de la base correspondientes al ultimo bloque.
(4.) Sea E0 ⊂ E el espacio generado por los elementos de la base que ya calculó. Calcule el
endomorfismo inducido por ϕ en el cociente E/E0 ; su polinomio anulador es el penúltimo
factor invariante Φ`−1 (x).
(5.) Busque un vector e2 en el espacio propio generalizado Eϕ,Φ`−1 (x) que tenga polinomio anulador
Φ`−1 (x). e2 y sus transformados (hasta el grado de Φ`−1 (x) menos 1) forman los siguientes
vectores de la base.
(6.) Pase al cociente por el espacio generado por los vectores de la base que ya calculó, para
calcular el factor invariante anterior, y repita el proceso hasta que complete una base de E.

3.2.10. Forma canónica de Jordan


La forma canónica de Jordan de un endomorfismo es la matriz que tiene por bloques las matrices
de los endomorfismos cı́clicos correspondientes a los divisores elementales. Sin enbargo, en la forma
canónica de Jordan no aparecen las matrices compañeras de los divisores elementales, sino otras
expresiones algo más sencillas, llamadas bloques de Jordan.
4 Sı́, en orden inverso... el más grande primero

99
Definición 3.28 Sea (E, ϕ) un espacio con endomorfismo cı́clico cuyo polinomio anulador es de
la forma p(x)r con p(x) irreducible de grado m en K[x]. Una base de Jordan para (E, ϕ) es una
base de la forma {ei,j | 0 ≤ i < r, 0 ≤ j ≤ m} con ei,j = p(ϕ)i ϕj (e) para e un vector ϕ-cı́clico.

Consideremos una base de Jordan para ϕe ordenada de la siguiente manera:

ē = (e01 , e02 , . . . , e0,m−1 , e10 , . . . , er−1,0 , . . . er−1,m−1 )

y sea anϕ = xm + am−1 xm−1 + . . . + a0 . Notemos que entonces, por la propia definición de la base
de Jordan:
ϕ
e01 −−→ e02
ϕ
e02 −−→ e03
..
.
ϕ
e0,m−1 −−→ −a0 e00 − a1 e01 − . . . am−1 e0,m−1 + e10
ϕ
e01 −−→ e02
..
.
ϕ
e1,m−1 −−→ −a0 e10 − a1 e11 − . . . am−1 e1,m−1 + e20
..
.
ϕ
er−1,m−1 −−→ −a0 er−1,0 − a1 er−1,1 − . . . am−1 er−1,m−1

y por tanto la matrix de ϕ se escribe,

0 0 ... −a1
 
 1 0 ... −a2 
 .. . . ..
 
.

 . . 
 
 0 . . . 1 −an−1 
 

 1 0 0 ... −a1 

 1 0 ... −a2 
.. ..
 
 .. 
[ϕ]ē = 
 . . . 


 0 ... 1 −an−1 

 .. 

 1 . 


 1 0 0 ... −a1 


 1 0 ... −a2 

 .. .. .. 
 . . . 
0 ... 1 −an−1

Que es lo que se conoce como un bloque de Jordan de tamaño mr × mr correspondiente polinomio


anulador p(x).
En el caso general, sea ϕ un endomorfismo de E. El Teorema de descomposición 3.22 nos da
una descomposición de E como suma directa de subespacios cı́clicos cuyos polinomios anuladores
son los divisors elementales de ϕ. Entonces una base de Jordan para ϕ se obtiene reuniendo bases

100
de Jordan para uno de los subespacios cı́clicos. En una base de Jordan e = (e1 , . . . , en ) la matriz
de ϕ se escribe:  
J1

 J2 

 .. 
[ϕ]ē = 
 . 


 . ..


Jm
donde las matrices Jm son los bloques de Jordan correspondientes a los divisores elementales de ϕ.
Esta matriz recibe el nombre de forma canónica de Jordan y está definida salvo por el orden de los
bloques.
Merece especial atención el caso en el que K es algebraicamente cerrado. En ese caso, los divisores
elementales son necesariamente de la forma (x − λ)r , y corresponden por tanto a valores propios de
ϕ. El bloque de Jordan correspondiente al polinomio (x − λ)r es la matriz r × r:
 
λ 0 ... ... 0
. 
 1 λ . . . . . . .. 

 
 .. .. 
 0 1
 λ . . 

 . .
 .. .. ... ... 0 

0 ... 0 1 λ

y por tanto, cuando K es algebraicamente cerrado la forma canónica de Jordan de ϕ es una matriz
que en la diagonal tiene los valores propios de ϕ repetidos tantas veces según su multiplicidad en
charϕ y por debajo de la diagonal elementos 1 o 0.
Veamos como es el cálculo de una base de Jordan, una forma canónica de Jordan, y por tanto
de los divisores elementales, cuando el cuerpos K es algebraicamente cerrado.

(1.) Factorice el polinomio caracterı́stico charϕ (x) = (x − λ)r (x − λ2 )r2 · · · (x − λm )rm .


(2.) Como el calculo de una base de Jordan para cada espacio propio generalizado es similar,
vamos a calcular una base de Jordan para Eϕ,(x−λ)r .

(3.) Estudie la secuencia de espacios:

{0} ⊆ Eϕ,(x−λ) ⊆ Eϕ,(x−λ)2 ⊆ . . . Eϕ,(x−λ)` = Eϕ,(x−λ)`+1 = . . . = Eϕ,(x−λ)r

debe estabilizar para algún ` ≤ r. Entonces ` es el exponente del divisor elemental (x − λ)`
con mayor exponente. Podemos deducir varias cosas:
(i) La dimensión de Eϕ,x−λ es el número total de bloques de Jordan con valor propio λ que
aparecen en la forma canónica de ϕ.
(ii) La codimensión de Eϕ,(x−λ)k−1 en Eϕ,(x−λ)k es la cantidad de bloques que hay de tamaño
≥ k. Con esta información puede calcular la cantidad y tamaño de los bloques.

101
(iii) La cantidad de bloques y es cantidad de divisores elementales correspondientes al valor
propio λ. Los tamaños de los bloques, son los exponentes. Se calculan por tanto los
divisores elementales (x − λ)s1 ,. . .,(x − λ)sn . Debe ser s1 = `, s1 ≥ s2 ≥ . . . ≥ sn y
s1 + . . . + sn = r.
(4.) Para cada sk , por orden de mayor a menor, debe buscar generador de un cı́clico de dimensión
sk . Puede tomar cualquier ek que esté en Eϕ,(x−λ)sk y no esté Eϕ,(x−λ)sk −1 .
(i) En cada caso debe comprobar que el nuevo vector ek que toma no está en la suma
de los espacios cı́clicos generados por los vectores cı́clicos e1 ,. . .,ek−1 que haya tomado
anteriormente.
(ii) Los vectores de la base de Jordan correspondientes al bloque de tamaño sk correspondien-
te al subespacio cı́clico generado por ek son ek ,(ϕ−λ)(ek ),(ϕ−λ)2 (ek ),. . .,(ϕ−λ)sk −1 (ek ).

3.3. Clasificación de tensores métricos


Sea E un K-espacio vectorial de dimensión finita. Recordamos que una métrica o tensor métrico
en E es una función bilineal:
g : E × E → K.
El espacio de las métricas se denota por T2 E. Si para toda pareja e, v de elementos de E la métrica
verifica g(e, v) = g(v, e) decimos que g es simétrico. Si g(e, v) = −g(v, e) decimos que es anti-
simétrico o alternado. Si la caracterı́stica de K es diferente de 2 todo tensor métrico descompone
de modo único como suma de un tensor métrico simétrico y otro alternado.

T2 E = S2 E ⊕ A2 E.

Recordamos que toda transformación lineal ϕ : F → E induce una transformación:

ϕ∗ : T2 E → T2 F

donde (ϕ∗ g)(e, v) = g(ϕ(e), ϕ(v)). En particular el grupo de automorfismos AutK (E) actúa en T2 E
por la izquierda tomando σ ? g := (σ ∗ )−1 (g). Esta acción conserva los subespacios S2 E y A2 E.

3.3.1. Suma ortogonal


Consideremos en adelante la categorı́a de espacios vectoriales dotados de tensores métricos. Dado
(E, g) y (E 0 , g 0 ) dos objetos de esta categorı́a, un morfimo en una transformación lineal ϕ : E → E 0
tal que ϕ∗ (g 0 ) = g. Notemos que si ϕ es un isomorfismo en esta categorı́a entonces también un
isomorfismo de espacios vectoriales.
En esta categorı́a hay una operación de suma directa que denominaremos suma ortogonal. Dados
dos objetos (E, g) y (E 0 , g 0 ) se define:

(E, g) ⊥ (E 0 , g 0 ) = (E ⊕ E 0 , g + g 0 )

donde el tensor métrico g + g 0 está definido por la fórmula: (g + g 0 )(e + e0 , v + v 0 ) = g(e, v) + g 0 (e0 , v 0 ).
La suma ortogonal es claramente asociativa.

102
Dos subespacios S y S 0 de E son ortogonales respecto al tensor métrico g si g(S, S 0 ) = g(S 0 , S) =
{0}. Para descomponer un espacio dotado de tensor métrico (E, g) como suma ortogonal, necesita-
mos encontrar espacios suplementarios que además sean ortogonales con respecto a g. Decimos que
S y S 0 son suplementarios ortogonales en (E, g) si son suplementarios en E y además g(S × S 0 ) = 0.
Lema 3.29 Si S y S 0 son suplementarios ortogonales en (E, g) entonces:

(E, g) ' (S, g|S ) ⊥ (S 0 , g|S 0 ).

Prueba. Elemental.

3.3.2. Polaridad y radical


Recordamos que un tensor métrico g define una polaridad, ιg : E → E ∗ , e 7→ ιe g donde (ιe g)(v) =
g(e, v). El núcleo de la polaridad es un subespacio de E llamado el radical de la métrica rad(g). Se
llama rango de g al rango de su polaridad, y se dice que g es no degenerada si es de rango máximo,
es decir, si la polaridad es un isomorfismo.

Lema 3.30 Sea g un tensor métrico simétrico (alternado) en E. Sea S cualquier espacio vectorial
suplementario a rad(E). Considere la proyección π : E → E/rad(g). Entonces hay una único tensor
métrico simétrico (alternado) ḡ en E/rad(g) tal que π ∗ (ḡ) = g. Además se tiene:

(S, g|S ) ' (E/rad(g), ḡ), (E, g) ' (S, g|S ) ⊥ (rad(g), 0)

Problema 3.31 Muestre que el lema no aplica si g no es simétrico ni alternado.

3.3.3. Métricas alternantes


Consideremos K de caracterı́stica diferente de 2. Procedamos a la clasificación de los K-espacios
vectoriales de dimensión finita dotados de tensores métricos alternados.

Lema 3.32 Sea P ⊂ E un plano y Ω una métrica alternante no nula en P . Entonces hay una base
{e1 , e2 } de P tal que (Ω(e1 , e2 ) = 1. Es decir, en la base dual {θ1 , θ2 ) se tiene Ω = θ1 ∧ θ2 .

Prueba. Dado que Ω es distinto de cero, debe haber dos vectores v1 , v2 tales que Ω(v1 , v2 ) 6= 0. Da-
do que Ω es alternante, v1 , y v2 son L.I. Basta entonces tomar v1 como e1 y Ω(v1 , v2 )−1 v2 como e2 .

Se sigue que solo hay dos clases de isomorfismo de planos dotados de métricas alternantes. Las
métricas nulas, y las de rango 2, que en alguna base se ecriben como θ1 ∧ θ2 .

Lema 3.33 Sea Ω un tensor métrico alternado no nula en E. Entonces existe un plano P ⊂ E,
tal que Ω|P 6= 0 y un suplementario H ortogonal a P de manera que:

(E, ω) = (P, Ω|P ) ⊥ (H, Ω|H ).

103
Prueba. Sea e un vector tal que ιe Ω 6= 0 que debe existir pues Ω no es nula. Entonces debe haver
un segundo vector tal que (ιe Ω)(v) 6= 0. De nuevo, por ser Ω alternante, e y v son L.I.. Tomemos
P el plano generado por e y v. Tomemos H el espacio definido:

H = {x ∈ E : Ω(e, x) = Ω(v, x) = 0}.

Se comprueba con facilidad que H tiene codimensión 2 y en un suplementario de P .

Teorema 3.34 (Clasificación de métricas antisimétricas) Sea Ω un tensor métrico alternado


no nulo en E. Entonces necesariamente su rango es par 2r ≤ dim(E) y se tienen r planos en E de
manera que:
(E, Ω) = (P1 , Ω|P1 ) ⊥ . . . (Pr , Ω|Pr ) ⊥ (rad(Ω), 0)
Por tanto, hay una base {e1 , . . . , en } del espacio vectorial de manera que en la base dual {θ1 , . . . , θn }
se tiene:
Ω = θ1 ∧ θ2 + θ3 ∧ θ4 + . . . + θr−1 ∧ θr

Prueba. Por inducción sobre el lema anterior.

Este teorema ya da una clasificación completa. Dos espacios (E, Ω) y (E 0 , Ω0 ) dotados de métricas
alternantes son isomorfos si y solo si dim(E) = dim(E 0 ) y rk(Ω) = rk(Ω0 ), siendo este último rango
par. El conjunto de las clases de isomorfı́a se identifica con:

{(n, 2r) : 2r ≤ n} ⊆ N × 2N

Notemos que, como los espacios vectoriales están clasificados por la dimensión, es equivalente
clasificar los objetos de la categorı́a de los espacio vectoriales dotados de métricas, que clasificar las
métricas en el espacio Kn para cada dimensión n.

Problema 3.35 Utilizando el razonamiento anterior, resuelva el siguiente problema de clasifica-


ción. Considere el espacio ASym(n × n, K) de las matrices antisimétricas con la acción del grupo
lineal GL(n, K) dada por:

GL(n, K) × ASym(n × n, K) → ASym(n × n, K), (A, B) 7→ A ? B = ABAT .

Construya el espacio de las clases de equivalencia.

Espacios vectoriales simplécticos


Las métricas antisimétricas sin radical, es decir, cuyo rango es igual a la dimensión, se llaman
métricas simplécticas. Un espacio vectorial dotado de una métrica simpléctica se dice un espacio
vectorial simpléctico.
Sea (E, Ω) un espacio vectorial simpléctico de dimensión 2n. Una transformación simpléctica es
una transformación lineal ϕ tal que ϕ∗ (Ω) = Ω. Las transformacioes simplécticas forman un grupo
que denotamos por Sp(E, Ω). Una base simpléctica es una base {e1 , . . . , en , u1 , . . . , un } tal que

Ω = e∗1 ∧ u∗1 + . . . + e∗n ∧ u∗n .

104
Una transformación ϕ es simpléctica si y solo si su matriz Aen una base simpléctica verifica:
   
T 0n×n In×n 0n×n In×n
A A= .
−In×n 0n×n −In×n 0n×n
Definimo por tanto el grupo simpléctico
    
T 0n×n In×n 0n×n In×n
Sp(2n, K) = A ∈ GL(2n, K) | A A=
−In×n 0n×n −In×n 0n×n
cuyos elementos se denominan matrices simplécticas.

3.3.4. Métricas simétricas


Lema 3.36 Sea E un espacio vectorial y g una métrica simétrica no nula. Entonces hay una recta
L tal que g|L no es nula y un hiperplano H tal que:
(E, g) = (L, g|L ) ⊥ (H, g|H )
Teorema 3.37 (Gram-Schmidt) Sea E un espacio vectorial y g una métrica simétrica no nula
de rango r. Entonces podemos encontrar r rectas L1 ,. . .,Lr mutuamente ortogonales tales que:
(E, g) = (L1 , g|L1 ) ⊥ . . . ⊥ (Lr , g|Lr ) ⊥ (rad(g), 0)
Prueba. Tome una base de E cuyos primeros miembros forman una base del radical de g. Después
aplique el proceso de ortogonalización de Gram-Schmidt tal y como vimos en el curso de álgebra
lineal. Los elementos de la base ortogonalizada que no están en el radical son los generadores de las
rectas.

3.3.5. Métricas simétricas en cuerpos cerrados por la raı́z cuadrada


Supongamos que todo elemento de e K tiene raı́z cuadrada en K. Esto ocurre, por ejemplo, si
K es algebraicamente cerrado.
Lema 3.38 Sea E un espacio vectorial de dimensión 1 sobre K algebraicamente cerrado y g una
métrica simétrica no nula. Entonces hay un vector e ∈ E tal que g(e, e) = 1, es decir, si {θ} es la
base dual de E entonces g = θ ⊗ θ.
v
Prueba. Sea v cualquier vector no nulo. Basta tomar e = √ .
g(v,v)

Entonces, todas las rectas ortogonales que aparecen en la descomposición del teorema de Gram-
Schmidt son isomorfas y tenemos:
Teorema 3.39 Sea E un espacio vectorial de dimensión finita sobre un cuerpos K cerrado por
raı́ces cuadradas y g una métrica simétrica no nula de sango r. Entonces hay una base {e1 , . . . , en }
de E tal que: (
δij si i ≤ r
g(ei , ej ) =
0 en otro caso
es decir, en la base dual {θ1 , . . . , θn },
g = θ1 ⊗ θ1 + . . . θr ⊗ θr .

105
Problema 3.40 Una pareja de vectores u, v se llama un par hiperbólico si Ω(u, u) = Ω(v, v) = 0 y
Ω(u, v) = 1. Muestre que si Ω es una métrica simétrica no degenerada en un espacio E de dimensión
para entonces hay una base de E formada por parejas hiperbólicas, de tal manera que los planos
que generan son mutuamente ortogonales.

Problema 3.41 Utilizando el razonamiento anterior, resuelva el siguiente problema de clasifica-


ción. Considere el espacio Sym(n × n, K) de las matrices simétricas con la acción del grupo lineal
GL(n, K) dada por:

GL(n, K) × Sym(n × n, K) → Sym(n × n, K), (A, B) 7→ A ? B = ABAT .

Construya el espacio de las clases de equivalencia.

Problema 3.42 En dos problemas anteriores, hemos clasificado bajo la acciones A ? B = ABAT
las matrices simétricas y antisimétricas. La misma acción podrı́a considerarse en el espacio de todas
las matrices, sin embargo: ¿Podemos resolver este problema de clasificación en función de los dos
anteriores?

3.3.6. Métricas simétricas reales


El cuerpo real tiene la particularidad de que para todo elemento λ ∈ R no nulo entonces, exac-
tamente uno de los dos, λ o −λ, tiene una raı́z cuadrada real. El siguiente resultado lo enunciamos
para R pero es válido para cualquier otro cuerpo con esa misma propiedad.

Lema 3.43 Sea E un espacio vectorial real de dimensión 1 y sea g una métrica simétrica no nula.
Entonces se verifica una y solo una de las siguientes:

(a) Hay un vector e ∈ E tal que g(e, e) = 1, es decir, si {θ} es la base dual de E entonces g = θ⊗θ.
(b) Hay un vector e ∈ E tal que g(e, e) = −1, es decir, si {θ} es la base dual de E entonces
g = −θ ⊗ θ.
v
Prueba. Sea v cualquier vector no nulo. Basta tomar e = √ .
|g(v,v)|

Aplicando el teorema de Gram-Schmidt obtenemos:

Teorema 3.44 Sea E un espacio vectorial de dimensión finita sobre K algebraicamente cerrado y
g una métrica simétrica no nula. Entonces hay un 0 ≤ s ≤ r y una base {e1 , . . . , en } de E tal que:

δij
 si 0 ≤ i ≤ s
g(ei , ej ) = −δij si s < i ≤ r

0 en otro caso

es decir, en la base dual {θ1 , . . . , θn },

g = θ1 ⊗ θ1 + . . . θs ⊗ θs − θs+1 ⊗ θs+1 − . . . − θr ⊗ θr .

La terna (s, r − s, n − r), donde n es la dimensión de E, que corresponde al:

106
(a) s = número de 1’s,
(b) r − s = número de −1’s,
(c) n − r = número de0’s,
que aparecen en la matriz de la métrica g en la base dada por el teorema anterior se llama la
signatura de la métrica g. Notese que si (a, b, c) es la signatura de (E, g) entonces a + b + c es la
dimensión de E y c es la dimensión del radical de g.
Las métricas de signatura (n, 0, 0) se llaman productos escalares euclı́deos. Un espacio vectorial
euclı́deo es un espacio vectorial dotado de un producto escalar euclideo, por ejemplo Rn con el
producto punto “·” usual. Todos los espacios vectoriales euclı́deos de la misma dimensión son
isomorfos. Un tensor métrico simétrico g en E es un producto escalar euclı́deo si y solo si:

∀e ∈ E e 6= 0 =⇒ g(e, e) > 0

Teorema 3.45 (Ley de inercia de Sylvester) La signatura es un invariante suficiente, es decir


dos espacios vectoriales dotados de métricas simétricas son isomorfos si y solo si las dos métricas
tienen la misma signatura.

Prueba. La signatura (a, b, c) es claramente invariante por isomorfismos de espacios vectoriales


dotados de métricas, puesto que:
(a) a es la dimensión del subespacio vectorial más grande que podemos encontrar en E en el cual
la restricción de g es un producto escalar euclı́deo.
(b) a es la dimensión del subespacio vectorial más grande que podemos encontrar en E en el cual
la restricción de −g es un producto escalar euclı́deo.
(c) c es la dimensión del radical de g.
Por otro lado, la signatura es suficiente, puesto que si dos espacios dotados de métricas simétricas
tienen la misma signatura, entonces cada uno está dotado de una base en la cual la métrica tiene
la expresión del teorema anterior, y por tanto se tiene un isomorfismo entre ellos.

Supongamos que en cierta base G la matriz de la métrica es diagonal. Entonces la signatura es


(a, b, c) donde a es el número de elementos estrictamente positivos en la diagonal, b es el número
de elementos estrictamente negativos en la diagonal y c el número de elementos nulos. Si B es una
matriz de cambio de base, entonces B T GB es la matriz de Ω en la nueva base. La ley de inercia
de Sylvester se enuncia de modo clásico diciendo que el número de valores propios estrictamente
positivos de G contados con mutiplicidad, coincide con el de los de B T GB, y lo mismo para los
estrictamente negativos.

Problema 3.46 Encuentre todas las bases posibles en las cuales Ω se encuentra en forma canónica
para un plano de signatura (1, 1, 0) y un espacio (2, 1, 0).

Problema 3.47 Muestre que la signatura es una función aditiva en el sentido de que si (E1 , g1 )
tiene signatura (a1 , b1 , c1 ) y (E2 , g2 ) tiene signatura (a2 , b2 , c2 ) entonces (E1 , g1 ) ⊥ (E2 , g2 ) tiene
signatura (a1 + a2 , b1 , +b2 , c1 + c2 ).

107
Para las métricas simétricas, además de con bases ortonormales, también se puede trabajar con
bases hiperbólicas. Una pareja hiperbólica es una pareja de vectores e, v linealmente independientes
tales que g(e, e) = g(v, v) = 0 y g(e, v) = 1.

Problema 3.48 Muestre que si (E, g) tiene signatura (r, r, 0) entonces hay una base de E com-
puesta por parejas hiperbólicas, de manera que el plano generado por cada pareja es ortogonal al
espacio generado por todas las demás. Escriba la matriz de g en dicha base.

3.4. Teorema de descomposición espectral


3.4.1. Estructura compleja
Sea E un espacio vectorial real. Una estructura compleja en E es un endomorfismo J : E → E
tal que J 2 + IdE = 0.

Lema 3.49 Se verifica:


(a) Si existe una extructura compleja en E y E tiene dimensión finita entonces E tiene dimensión
par.

(b) Si J es una estructura compleja en E entonces −J = J −1 es otra estructura compleja.

Decimos que las estructuras complejas J y −J son conjugadas.


Si (E, J) es un espacio vectorial real con estructura compleja, entonces podemos definir en E
una estructura de C-espacio vectorial tomando:

(a + bi)e = ae + bJ(e).

Recı́procamente, todo espacio vectorial complejo es un espacio vectorial real. Además la multipli-
cación por la unidad imaginaria:
E → E, e → 7 ie
es una estructura compleja en E. Además, una transformación R-lineal ϕ : E → V entre dos espaciso
vectoriales complejos es C-lineal si y solamente si verifica ϕ(ie) = iϕ(e). Es decir, si es un morfismo
de espacios vectoriales reales con estructura compleja. Queda demostrado:

Teorema 3.50 La categorı́a de espacios vectoriales reales dotados de estructura compleja es equi-
valente a la categorı́a de espacios vectoriales complejos.

En el caso del espacio Cn se toma la identinficación Cn ' R2n separando cada coordenada
compleja zj en parte real e imaginaria zj = xi + yj . Entonces,

Cn −−→ R2n , (z1 , . . . , zn ) 7→ (x1 , . . . , xn , y1 , . . . , yn ).

En el sistema de coordenadas reales x1 , . . . , xn , y1 , . . . , yn la matriz real de la estructura compleja


es,  
0n×n In×n
J= .
−In×n 0n×n

108
Una matriz real 2n × 2n corresponde con una transformación C-lineal si y solo si conmuta con la
estructura compleja J. Tenemos entonces,

AutR (R2n , J) = {A ∈ GL(2n, R) | AJ = JA}.

Este grupo se identifica con GL(n, C) mediante el isomorfismo:


 
∼ 2n A −B
GL(n, C) −−→ AutR (R , J) A + Bi 7→ .
B A

3.4.2. Formas lineales y antilineales


Sea E un C-espacio vectorial de dimensión finita. Recordamos que el cuerpo de los números
complejos está dotado del automorfismo,

C → C, z = a + bi 7→ z̄ = a − bi.

Llamamos el espacio conjugado de E al espacio E cj ,


(a) Los elementos de E cj son los elementos de E.
(b) La multiplicacón por escalares en E cj está definida de la siguiente manera. El producto de
a ∈ C y e ∈ E cj es āe.
Una transformación antilineal de E → V es un transformación lineal ϕ : E cj → V . Es decir, es
una funcón ϕ : E → V tal que,
(i) ϕ es R-lineal y,
(ii) para todo λ ∈ C y e ∈ E se tiene ϕ(λe) = λ̄ϕ(e).
Una transformación antilineal E → C se dice una forma antilineal. El conjunto de las formas
antilineales en E es por definición E cj∗ . Atención: E cj∗ 6= E ∗cj . Las transformaciones antilineales
tienen las siguientes propiedades:
(a) La inversa de una transformación antilineal, si existe, es también antilineal.
(b) La composición de dos transformaciones antilineales es una transformación lineal.
(c) La composición de una transformación lineal y una transformación antilineal es antilineal.
(d) Una transformación antilineal ϕ : E → V induce por composición transformaciónes lineales
ϕT : V ∗ → E cj∗ y ϕT : V cj∗ → E ∗ .
(e) Una transformación lineal ϕ : E → V induce por composición transformaciónes lineales
ϕT : V ∗ → E ∗ y ϕT : V cj∗ → E cj∗ .

Lema 3.51 Sea E un espacio vectorial complejo. Entonces,

LinR (E, C) = E ∗ ⊕ E cj∗

es decir toda funcón R-lineal de E en C descompone de forma única como la suma de una forma
lineal y una antilineal.

109
Prueba. Sea θ una forma R-lineal con valores en C. Definimos η(e) = θ(e) − iθ(ie) y χ(e) =
θ(e) + i(θ(ie)). Se comprueba con facilidad que θ = η + χ, η es C-lineal y χ es antilineal. También, si
una forma θ es lineal y antilineal a la vez, debe ser nula pues verificarı́a 2iθ(e) = 0 para todo e ∈ E.

Ejemplo 3.52 Consideramos en Cn las coordenadas z1 , . . . , zn . Por definición, son lineales y for-
man una base de E ∗ . Sus funciones conjugadas z̄1 , . . . , z̄n son antilineales y forman una base de
E cj∗ . Escribamos,
zj = xj + iyj .
Las funciones x1 , y1 , . . . , xn , yn son R-lineales y forman una base de LinR (E, C). Ahora:
1 1
xj = (zj + z̄j ), yj = (zj + z̄j ).
2 2i
Y de ahı́, las funciones z1 , z̄1 , . . . , zn , z̄n también forman una base de LinR (E, C).

3.4.3. Formas sesquilineales


Una forma sesquilineal κ en E es una forma C-bilineal en E × E cj . Equivalentemente κ es una
transformación R-bilineal
κ : E × E → C, (e, v) 7→ κ(e, v).
que además verifica:
∀λ ∈ C, e, v ∈ E λκ(e, v) = κ(λe, v) = κ(e, λ̄v).
Las composiciones de una forma sesquilineal con las proyecciones Re : C → R y Im : C → R se
llaman la parte real y la parte imaginaria. Ambos son tensores métricos reales. Se tiene κ = g + iω
donde g es la parte real y ω es la parte imaginaria. Dada una base ordenada {e1 , . . . , en } de E la
matriz de la forma sesquilinear κ es la matrix [κ]ē cuyo elemento (i, j) es κ(ei , ej ). La matriz puede
usarse para calcular κ en coordenadas pues,
 
X n n
X n
X
κ λ j ej , µk ek  = λj µ̄k .
j=1 k=0 j,k=1

Las matrices de las formas sesquilineales cambian de base de una forma parecida a la de las formas
bilineales, pero debe tenerse en cuenta la conjugación compleja.

Definición 3.53 Sea B una matriz n × n compleja. Su matriz adjunta B ∗ es la matriz cuyos
elementos son los números complejos conjugados de la matriz transpuesta B T .

Entonces,
P si tenemos otra base {v1 , . . . , vn } y tenemos la matriz de cambio de base B dada por
vk = bjk ej entonces,
[κ]v̄ = B[κ]ē B ∗ .
Se comprueba con facilidad que la contracción interior ικ de una forma sesquilineal es una
transformación lineal
ικ : E → E cj∗ , e 7→ ιe κ, ιe κ(v) = κ(e, v).
De la misma forma que los tensores métricos simétricos están determinados por una forma
cudrática, también las formas sesquilineales están determinadas por la restricción a la identidad.

110
Lema 3.54 (Identidad de polarización) Sea κ : E × E → C una forma sesquilineal que para
cualesquiera e, v en E verifica κ(v, e) = κ(e, v). Entonces,
3
1X k
κ(e, v) = i κ(e + ik v, e + ik v).
4
k=0

Prueba. Es una identidad aritmética. Basta desarrollar por sesquilinealidad (cobservando ī = −i


y agrupar los términos.

3.4.4. Producto hermitiano


Una forma sesquilineal es un producto hermitiano si además verifica:

κ(e, v) = κ(v, e), e 6= 0 =⇒ κ(e, e) > 0.

Notemos que la segunda condición tiene sentido a causa de la primera κ(e, e) es un número real.
Por las propiedades anteriores la descomposición en parte real e imaginaria puede hacerse:
κ(e, v) + κ(v, e) κ(e, v) − κ(v, e)
g(e, v) = , ω(e, v) =
2 2i
Se tiene:
(a) La parte real de un producto hermitiano es un producto escalar euclı́deo (real).
(b) La parte imaginaria de un producto hermitiano es una métrica simpléctica real.
La parte real g y la parte imaginaria ω se determinan mútuamente, pues g(e, iv) = ω(e, v).
El producto unitario define en E una norma, que es la misma definida por su parte real.

kek = |κ(e, e)|.

Esta norma tiene además compatibilidad con el producto por escalares complejos, y no sólo reales,
en el sentido que que,
∀λ ∈ C, e ∈ E, kλek = |λ|kek,
y en ese sentido decimos que es una norma compleja.

Definición 3.55 Un espacio unitario (E, κ) es un C-espacio vectorial dotado de un producto her-
mitiano.

Es claro que si (E, κ) es un espacio unitario y V ⊆ E es un subespacio vectorial, entonces


(V, κ|V ) es un espacio unitario. También, si (E1 , κ1 ) y (E2 , κ2 ) son espacios unitarios, podemos
definir la suma ortogonal,

(E1 , κ1 ) ⊥ (E2 , κ2 ) = (E1 ⊕ E2 , κ1 + κ2 )

es un espacio unitario, donde κ1 + κ2 es la forma sesquilineal definida:

∀e1 , e01 ∈ E1 e2 , e02 ∈ E2 (κ1 + κ2 )(e1 + e2 , e01 + e02 ) = κ1 (e1 , e01 ) + κ2 (e2 , e02 ).

111
Ejemplo 3.56 En el espacio Cn consideremos el producto interno,

Cn × C n → Cn , ((z1 , . . . , zn ), (w1 , . . . , wn )) → z1 w̄1 + . . . zn w̄n .

Este producto es el producto Hermitiano estándar de Cn . En este caso se tiene,


√ p
k(z1 , . . . , zn )k = z1 z̄1 + . . . + zn z̄n = |z1 |2 + . . . + |zn |2 .

Decimos que dos espacios hermitianos (E1 , κ1 ) y (E2 , κ2 ) son isomorfos (como espacios hermi-
tianos) si hay un isomorfismo C-lineal f : E1 → E2 tal que,

∀e, v ∈ E1 κ1 (e, v) = κ2 (f (e), f (v)).

Una base unitaria de E es una base {e1 , . . . , en } tal que κ(ek , ej ) = δkj . En los espacios unitarios
también funciona el algoritmo de Gram-Schmidt y por tanto, existen bases unitarias. La transfor-
mación lineal que envı́a una base unitaria de E1 en una base unitaria de E2 es un isomorfismo de
espacios unitarios. Por tanto, tenemos el siguiente resultado de clasificación.

Proposición 3.57 Los espacios hermitianos están clasificados por la dimensión. Es decir, si (E1 , κ1 )
y (E2 , κ2 ) son espacios unitarios de la misma dimensión, entonces existe un isomorfismo f : E1 →
E2 tal que
∀e, v ∈ E κ1 (e, v) = κ2 (f (e), f (v)).

3.4.5. Descomposición ortogonal


Sea (E, κ) un espacio unitario. Dado un subespacio vectorial V ⊆ E, se define el ortogonal,

V ⊥κ = {e ∈ E | ∀v ∈ V κ(v, e) = 0}.

Sea κ = g + iω. El espacio ortogonal tiene las siguientes propiedades:


(a) Para todo V ⊆ E subespacio vectorial complejo V ⊥κ = V ⊥g = V ⊥ω .
(b) Sea V un subespacio vectorial real de E. Entonces V es un subespacio vectorial complejo si
y solo si V ⊥g = V ⊥ω .
(c) Para todo V ⊆ E subespacio vectorial complejo (V ⊥κ )⊥κ = V .
(d) Para todo V ⊆ E subespacio vectorial complejo

E = V ⊕ V ⊥κ ,

es decir,
(E, κ) = (V κ|V ) ⊥ (V ⊥κ , κ|V ⊥κ ).

De esta manera, dado un subsespacio V ⊆ E tenemos una tranformación lineal canónica que es
la proyección sobre el primer factor de la descomposición E = V ⊕ V ⊥κ . Esta transformación se
llama la proyección ortogonal sobre V , πV : E → V .

112
3.4.6. El grupo unitario
Sea (E, κ) un espacio unitario. Una transformación lineal ϕ : E → E es unitaria si ϕ∗ (κ) = κ,
es decir,
κ(e, v) = κ(ϕ(e), ϕ(v)).
Esto implica que ϕ es inyectiva y por tanto un automorfismo. El grupo U(E, κ) ⊂ AutC (E) se dice
el grupo unitario de E.

Ejemplo 3.58 Una matriz U ∈ GL(n, C) es una transformación unitaria de Cn si y solo si verifica

U U ∗ = In×n .

En tal caso decimos que es una matriz unitaria. El grupo de las matrices unitarias n × n se llama
el grupo unitario U(n). Son equivalentes:
(a) U es una matriz unitaria n × n.
(b) Las columnas de U forman una base unitaria de Cn .

(c) Las filas de U forman una base unitaria de Cn .

Es claro que una transformación lineal ϕ de un espacio unitario (E, κ) es unitaria, si y solo si,
en bases unitarias la matriz de ϕ es unitaria.

Proposición 3.59 Sea ϕ una transformación unitaria de (E, κ).

(a) | det(ϕ)| = 1.
(b) Spec(ϕ) ⊂ {z ∈ C | z z̄ = 1} si λ es un valor propio de ϕ entonces |λ| = 1.
(c) Si e y v son vectores propios de ϕ correspondientes a diferentes valores propios entonces
κ(e, v) = 0.

Prueba. Pendiente.

Teorema 3.60 (Teorema 2 de 3) Sea (E, κ) un espacio unitario. Denotemos por J la estructura
compleja de E, y κ = g + iω. Entonces el grupo U(E, κ) es la intersección de 2 cualesquiera de los
tres grupos AutR (E, J), Sp(E, ω), O(E, g).

Prueba. En Cn tenemos cuatro estructuras: la estructura compleja J, la estructura simpléctica ω,


la estructura euclı́dea y y la estructura unitaria κ. Hay que mostrar que dos cualesquiera de las pri-
meras tres estucturas determinan completamente la tercera. De ahı́ se sigue facilmente el teorema.

En el caso particular de E = Cn , identificamos el espacio Cn con R2n tomando coordenadas


x1 , . . . , xn , y1 , . . . , yn de manera que zj = xj + iyj . Entonces, para todo n, el grupo U(n) es la
intersección de 2 cualesquiera de los tres grupos GL(n, C), Sp(2n, R), O(2n, R).

113
3.4.7. Operadores auto-adjuntos
Sea (E, κ) un espacio unitario. Denotemos,

κ(e, v) = he, vi

Recordamos que contracción interior es un isomorfismo lineal:

ικ : E → E cj∗ , e 7→ ιe κ, ιe κ : v 7→ he, vi.

Lema 3.61 Sean e, v ∈ E, espacio unitario. Son equivalentes:

(a) e = v.
(b) ∀w ∈ E he, wi = hv, wi.
(c) ∀w ∈ E hw, ei = hw, ei.
Prueba. Notemos que (b) significa exactamente (ικ)(e) = (ικ)(v) y ικ es un isomorfismo luego (a)
y (b) son equivalentes. De forma similar, cambiando el orden de los argumentos en κ, (c) significa
σ ◦ ((ικ)(e)) = σ ◦ ((ικ)(v)) y por tanto donde σ representa la conjugación compleja. Componiendo
de nuevo con σ tenemos (ικ)(e) = (ικ)(v).

Por otro lado, toda transformación lineal ψ : E → E define una transformación lineal transpuesta
en el espacio de formas antilineales ψ T : E cj∗ → E cj∗ θ 7→ ψ T (θ) = θ ◦ ψ. Definimos entonces la
transformación adjunta de ψ como,

ψT
E cj∗ / E cj∗ ψ ∗ = (ικ)−1 ◦ ψ T ◦ ικ.
O O
ικ ικ

ψ∗
E /E

La transformación adjunta se ha definido de tal modo que para todo e ∈ E se tiene ιe κ ◦ ψ = ιψ∗ e κ.
Es decir, para todos e, v ∈ E
hψ ∗ (e), vi = he, ψ(v)i,
invirtiendo el orden de los argumentos de κ y conjugando, esto es equivalente a decir que para todos
e, v ∈ E
hψ(v), ei = hv, ψ ∗ (e)i.
Del Lema 3.61 se extrae que ψ ∗ es la única transformación lineal que verifica alguna de las anteriores
identidades.

Ejemplo 3.62 En el caso de las matrices n × n complejas, el operador adjunto se corresponde con
la matriz adjunta. Por tanto un operador auto-adjunto en Cn es una matriz A tal que A = A∗ .

El operador de adjunción EndC (E) → EndC , ψ 7→ ψ ∗ tiene ciertas propiedades elementales


notables:

(a) Es una transformacón anti-lineal. (aψ + bφ)∗ = āψ ∗ + b̄φ∗

114
(b) Es una involución ψ ∗∗ = ψ.
Decimos que transformación lineal ψ es un operador auto-adjunto si ψ = ψ ∗ . Veamos algunas
de las propiedades elementales de los operadores auto-adjuntos:

Proposición 3.63 Sea ψ un operador auto-adjunto de (E, κ).


(a) charψ ∈ R[x].
(b) Spec(ψ) ⊂ R si λ es un valor propio de ψ entonces λ ∈ R.

(c) Si e y v son vectores propios de ψ correspondientes a diferentes valores propios entonces


κ(e, v) = 0.

Prueba. (a) es consecuencia de (b), por tanto probemos (b). Sean λ un valor propio de ψ, consi-
deremos e un vector propio no nulo de valor λ. Entonces

λkek2 = hλe, ei = hψ(e), ei = he, ψ(e)i = he, λei = λ̄kek2

por tanto λ = λ̄ y λ ∈ R.
(c) Supongamos ψ(e) = λe y ψ(v) = µv con λ 6= µ. Entonces,

λhe, vi = hψ(e), vi = he, ψ(v)i = µ̄he, vi = µhe, vi.

Como λ 6= µ obtenemos κ(e, v) = 0.

3.4.8. Teorema de descomposición espectral


Un endomorfismo C-lineal ψ de un espacio unitario es un operador normal si ψ ◦ ψ ∗ = ψ ∗ ◦ ψ.
Como caso particular, que comprende toda la generalidad, los operadores normales de Cn son las
matrices normales; una matriz cuadrada compleja A es normal si AA∗ = A∗ A.

Proposición 3.64 Propiedades de los transformaciones normales. Sea ψ un endormorfismo de un


espacio unitario (E, κ).
(a) ψ unitaria ⇐⇒ ψ −1 = ψ ∗ =⇒ ψ normal.
(b) ψ autoadjunto =⇒ ψ normal.
(c) Si ψ es normal y v es un vector propio de ψ de valor λ, entonces v es un vector propio de ψ ∗
de valor λ̄.
(d) Si ψ es normal y v y e son vectores propios de ψ correspondientes a diferentes valores propios
entonces κ(v, e) = 0.
(e) Cualquier combinación lineal de operadores normales que conmutan entre sı́ dos a dos, es
también normal.

(f ) Sea πV : E → E un operador de proyección ortogonal sobre un subespacio vectorial de E.


Entonces πV es autoadjunto y para todo número complejo lambda, λπV es normal.

115
Prueba. (a) y (b) son inmediatos en una base unitaria.
Probemos (c). Sea V el espacio propio de valor λ de ψ. Como ψ ∗◦ψ = ψ ◦ψ ∗ se tiene que ψ ∗ (V ) ⊆ V
pues para cada e ∈ V se tiene ψ(ψ ∗ (e)) = ψ ∗ (λe) = λψ ∗ (e). Para todo e en V tenemos,

he, ψ ∗ (e)i = hψ(e), ei = hλe, ei = he, λ̄ei

Definimos la forma ψ̃ : V × V → E, que hace ψ̃(e, v) = he, ψ ∗ (v)i. Es una forma sesquilineal. Por
la identidad de polarización (Lemma 3.54) aplicada a ψ̃ y luego a κ|V tenemos, para cualesquiera
e, v ∈ V
3 3
1X k λX k
he, ψ ∗ (v)i = ψ̃(e, v) = i ψ̃(e + ik v, e + ik v) = i κ(e + ik v, e + ik v) = λhe, vi = he, λ̄vi.
4 4
k=0 k=0

Finalmente por el Lema 3.61 tenemos ϕ ∗ (v) = λ̄v.


Probemos (d). Sea v un vector propio de valor propio λ y e un vector propio de valor propio µ.
Tenemos entonces:
λhv, ei = hψ(v), ei = hv, ψ ∗ (e)i = hv, µ̄ei = µhv, ei,
y como λ 6= µ tenemos κ(v, e) = 0.
(e) es consecuencia directa de la definición y (f) es consecuencia directa de (e).

Teorema 3.65 (Descomposición espectral) Sea ψ : E → E una transformación lineal. Enton-


ces ψ es normal, si y solo si E descompone comoso suma ortogonal de sus espacios propios. Es
decir, existe una de descomposición de E en espacios ortogonales,

E = V1 ⊥ . . . ⊥ Vk ,

y números complejos diferentes {λ1 , . . . , λk } de tal manera que

ψ = λ1 π1 + . . . + λk πk

donde πj denota la proyección ortogonal de E sobre Vj .

Prueba. Si existe la descomposición, es inmediato comprobar que ψ es normal, puesto que los πj
conmutan con los π` y (λj πj )∗ = λ̄j πj .
En la otra dirección, procedemos por inducción sobre la dimensión de E. Si la dimensión de E es 1
el teorema es evidente. Sea (E, κ) de dimensión n y ψ normal. Supongamos que el teorema es cierto
para espacios de dimensión < n. Toda transformación lineal tiene al menos una recta de vectores
propios. Sea por tanto e un vector propio no nulo, y sea λ su valor propio. Consideramos,

V0 = heiC . V = hei⊥
C .
κ

Entonces (V, κ|V ) es un espacio unitario de dimensión (n − 1). Además para todo v ∈ V ,

he, ψ(v)i = hψ ∗ (e), vi = λ̄he, vi = 0.

116
Es decir ψ(V ) ⊆ V . Por tanto ψ|V es una transformación lineal de V . Es inmediato comprobar que
(ψ|V )∗ = ψ ∗ |V . Por hipótesis de inducción,

V = V1 ⊥ . . . ⊥ Vk

y ψ|V = λ1 π1 + . . . + λk πk . Llamando π0 a la proyección ortogonal sobre V0 tenemos,

ψ = λπ0 + π0 λ1 π1 + . . . + λk πk .

Si todos los λj son diferentes de λ entonces ya tenemos la descomposición espectral de ψ. En otro


caso, supongamos sin perdida de generalidad λ = λ1 entonces V0 + V1 es el espacio propio de valor
propio λ = λ1 . Definimos π10 = π0 + π1 que es la proyección sobre V0 + V1 y

ψ = λ1 π10 + . . . λk πk

es la descomposición espectral. Finalmente la descomposición es única porque los Vj son los espacios
propios ψ.

Corolario 3.66 Consecuencias del teorema de descomposición espectral:


(a) Una matriz cuadrada compleja A es normal si y solo si existe una matriz unitaria U tal que
U V U ∗ es una matriz diagonal.
(b) Una matriz cuadrada compleja A es autoadjunta si y solo si existe una matriz unitaria U tal
que U AU ∗ es una matriz diagonal real.
(c) Una matriz cuadrada real A es simétrica si y solo si existe una matriz ortogonal R tal que
RART es una matriz diagonal real.

(d) Una matriz cuadrada compleja V es unitaria si y solo si existe otra matriz unitaria U tal que
U V U ∗ es una matriz unitaria diagonal.

Prueba. (a), (b) y (d): para formar U basta tomar una base cuyas columnas sean bases unitarias de
los espacios propios de A. (c) es el caso particular en el que se parte de una matriz autoadjunta real.

117
Capı́tulo 4

Módulos y bimódulos sobre anillos

4.1. Generalidades sobre anillos


Sea A un anillo 1 . Recordemos que un anillo es una estructura algebraica (A, +, ·) dotada de dos
operaciones binarias suma + y producto · tales que:
(a) (A, +) es un grupo abeliano.2

(b) El producto es una operación asociativa:

∀a, b, c ∈ A (ab)c = a(bc).

(c) El producto distribuye sobre la suma:

∀a, b, c ∈ A (a + b)c = ac + bc a(b + c) = ab + ac.

(d) Hay un elemento3 1A ∈ A tal que 1A a = a1A = a para todo a ∈ A.


Recordamos que un anillo es conmutativo si además:

(e) ∀a, b ∈ A ab = ba.


Dado un anillo A se define su anillo opuesto Aop como el anillo (A, +, ?) donde:
(a) Los elementos de Aop son los elementos de A.
(b) La suma en Aop es la suma de A.

(c) El producto en Aop es a ? b = ba.


1 Todoslos anillos en este curso se consideran unitarios. ¡Los anillos no unitarios son aberrantes!
2 Denotamos por 0, o por 0A al elemento neutro de (A, +).
3 Cuando no de lugar a confusión escribiremos 1 en lugar de 1 .
A

118
Es claro que A = Aop si y solo si A es conmutativo.
Un ideal izquierdo es un subgrupo aditivo I ⊂ A que tiene la propiedad de absorción por la
derecha AI ⊆ I. Es decir,
∀a ∈ A b, c ∈ I ab ∈ I b + c ∈ I.
Dado un elemento b ∈ A denotamos por Ab al conjunto, Ab = {ab ∈ A|a ∈ A}, que es claramente
el menor ideal izquierdo que contiene a b, y se llama el ideal izquierdo principal generado por b.
Análogamente un ideal derecho es un subgrupo aditivo J ⊂ A que tiene la propiedad de absorción
por la izquierda JA ⊆ J. Es decir,

∀a ∈ A b, c ∈ J ba ∈ I b + c ∈ J.

Dado un elemento b ∈ A denotamos por bA al conjunto, Ab = {ba ∈ A|a ∈ A}, que es claramente
el menor ideal derecho que contiene a b, y se llama el ideal derecho principal generado por b.
Un ideal bilátero L ⊂ A es un subgrupo aditivo que es simultáneamente ideal por la derecha y
por la izquierda ALA ⊆ L.
Si L ( A es un ideal bilátero, entonces en el conjunto de clases,

A/L = {a + L| | a ∈ A}, a + L = {a + ` | ` ∈ L}

se definen las operaciones,

(a + L) + (b + L) = (a + b) + L, (a + L)(b + L) = ab + L

de manera que A/L es un anillo que denominamos anillo cociente de A por L.


Sean A y B anillos. Un morfismo de anillos de A en B es una función f : A → B compatible
con la suma, el producto y la unidad. Es decir:
(a) ∀a, b ∈ A f (a + b) = f (a) + f (b)

(b) ∀a, b ∈ A f (ab) = f (a)f (b)


(c) f (1A ) = 1B .
Un morfismo de anillos se dice inyectivo, sobreyectivo o isomorfismo, si lo es como función. El núcleo
de f
ker(f ) = {a ∈ A | f (a) = 0B }
es ideal bilátero de A y f es inyectivo si y solo si ker(f ) = {0A }. El conjunto imagen im(f ) ⊆ B es
un subanillo de B.
Un antimorfismo de anillos es una función f : A → B que es es morfismo de anillos de A en B op
o equivalentemente de Aop en B.
Un subanillo A0 de A es un subconjunto A0 ⊂ A cerrado para las operaciones suma y producto
y que, dotado de ellas, es también un anillo. Es claro que entonces la inmersión canónica i : A0 ,→ A
es un morfismo de anillos inyectivo.

119
Si A y B son anillos entonces en el producto cartesiano A × B hay una estructura natural de
anillo tomando (a, b)(a0 , b0 ) = (aa0 , bb0 ) las proyecciones A × B → A y A × B → B sobre los factores
son morfismos de anillos.
Si L ( A es un ideal bilátero, la función de paso al cociente q : A → A/L, a 7→ a + L es un
morfimo de anillos sobreyectivo.
Dados dos ideales biláteros I y J de A tanto la intersección I ∩ J como la suma I + J son ideales
biláteros de A. Se tiene además el ideal producto:
( )
X
IJ = ai bi | ai ∈ I, bi ∈ J
finitas

que también es un ideal bilátero. En general se tienen inclusiones:

IJ ⊆ I ∩ J ⊆ I + J.

Teorema 4.1 (chino de los restos) Supongamos que I y J son ideales biláteros de A tales que
I + J = A. Entonces IJ = I ∩ J y la función:

A/IJ 7→ A/I × A/J, a 7→ (a + I, a + J)

es un isomorfismo de anillos.

Prueba. Dado que A = I + J entonces tenemos elementos i ∈ I y j ∈ J tales que i + j = 1.


Sea a ∈ I ∩ J entonces 1a = ia + ja ∈ IJ lo que demuestra la primera parte del teorema. Es
inmediato comprobar que la función del enunciado esta bien definida y es un morfismo de anillos.
El núcleo es (I ∩ J)/IJ luego la primera parte prueba que la función es injectiva. Veamos que es
sobreyectiva. Consideremos (a + I, b + J) un elemento de A/I × A/J. Tomemos c = aj + bi entonces
c + I = aj + I = aj + ai + I = a(i + j) + I = a + I y c + J = bi + J = bi + bj + J = b(i + j) + J = b + J.
Luego (c + IJ) 7→ (a + I, b + J).

En la teorı́a de anillos también se verifica el teorema de factorización 4 de la teorı́a de grupos,


es decir, todo morfismo f de anillos factoriza como composición de un paso al cociente q , un
isomorfismo f¯ y una inclusión i:

A
f
/B f = i ◦ f¯ ◦ q.
O
q i
 f¯
A/L / Im(f )

El ejemplo tı́pico de anillo no conmutativo EndK (E) para un espacio vectorial E. En el caso
particular E = Kn este es el anillo Mat(n × n, K) de las matrices cuadradas n × n con coeficientes
en K.
4 También llamado tercer teorema de isomorfismo

120
Endomorfismos de un grupo aditivo
Sea M un grupo abeliano con la operación suma. Denotamos por EndZ (M ) al conjunto de los
endomorfismos de grupo abeliano de M en M . Puede definirse la suma de endomorfismos,

σ + τ : m 7→ σ(m) + τ (m).

Entonces EndZ (M ) con la suma y composición es un anillo.


Todo anillo A puede representarse como un subanillo de Endgr (A, +). Basta considerar la fun-
ción,
A → Endgr (A, +), a 7→ ha , ha : b 7→ ab.
y observar que es un morfismo de anillos inyectivo (por la propiedad a1A = a).
Dado un cuerpo K, una K-algebra 5 es un anillo A que contiene al cuerpo K como subanillo.
Toda K-algebra es en particular un espacio vectorial, y sus ideales son subespacios vectoriales. Los
subanillos de Mat(n × n, K) que contienen a K se denominan K-algebras matriciales.

Proposición 4.2 Toda K-álgebra de dimensión finita n es isomorfa a una K-algebra matricial.

4.2. Módulos por la izquierda


Sean (M, +) un grupo aditivo y A un anillo. Una estructura de A-modulo izquierdo en M es un
morfismo de anillos,
A → Endgr (M ).
Esto es equivalente a dar una operación de A en M por la izquierda

A × M → M, (a, m) → am

de manera que para cualesquiera a, b ∈ A y m, n ∈ M se tiene

a(m + n) = am + an, (ab)m = a(bm), (a + b)m = am + bm, 1A m = m.

Las nociones de combinación lineal y combinación lineal formal, de las que hemos hecho uso,
tienen perfecto sentido con coeficientes en el anillo A. Por tanto tiene tambı́en sentido hablar de
conjunto L.I. o L.D. sobre A en un A-módulo izquierdo, si bien esta noción no es tan útil como en
el contexto de los espacios vectoriales.

Ejemplo 4.3 Algunos ejemplos:


1. Un anillo A es un módulo izquierdo sobre si mismo. También, potencia cartesiana An tiene
estructura natural de módulo izquierdo considerando la operación de A sobre si mismo,

b(a1 , . . . , an ) = (ba1 , . . . , ban ).


5 Al igual que los anillos, se asume que es unitaria, salvo que se indique lo contrario.

121
2. Dado un conjunto X consideramos:
( )
X
FreeA (X) = ai {xi } | Ai ∈ A, xi ∈ X
finita

el conjunto de las combinaciones lineales formales de elementos de X con coeficientes en A.


Entonces FreeA (X) es un A-módulo izquierdo tomando para cada b ∈ A,
!
X X
b ai {xi } = bai {xi }.
finita finita

3. El conjunto AX de las funciones de X en A es un R-módulo izquierdo tomando

(af )(x) = a(f (x)).

4. Todo grupo abeliano (M, +) es automáticamente un Z-módulo6


5. Sea ϕ un endomorfismo de un K-espacio vectorial E. Entonces la acción de K[x] en E dada
por,
K[x] × E → E, (p(x), e) 7→ p(x)e = p(ϕ)(e)
dota a E de una estructura de K[x]-módulo.7

6. Sean E y F espacios K-vectoriales. Entonces, la composición,

EndK (F ) × LinK (E, F ) → LinK (E, F )

dota a LinK (E, F ) de una estructura de EndK (F )-módulo izquierdo.

4.2.1. Submódulos y cocientes


Sea M un A-módulo izquierdo. Un A-submódulo izquierdo es un subgrupo abeliano N de (M, +)
tal que AN ⊆ N , es decir:
∀a ∈ A n ∈ N an ∈ N.
Un A-submódulo izquierdo N ⊆ M es un A-módulo izquierdo con la estructura inducida por M .
Dado un subconjunto S ⊂ M ,
( )
X
hSiA = ai mi | ai ∈ A, mi ∈ M ,
finita

el menor submódulo izquierdo que contiene a S. Un subconjunto S ⊆ M tal que hSiA = M se


llama un sistema de generadores de M . Decimos que M es finitamente generado (sobre A) si tiene
un sistema de generadores finito.
6 Como Z es conmutativo, no es necesario aclarar si la operación de Z es por el lado izquierdo o derecho.
7 De nuevo, al ser K[x] no se necesita mencional si la estructura es por la izquierda o por la derecha.

122
T
La intersección i∈I Ni de cualquier familia arbitraria {Ni }i∈I de submódulos izquierdos de M
es también un submódulo izquierdo. Definimos también el módulo suma
* +
X [
Ni = Ni ,
i∈I i∈I A

que es el menor submódulo izquierdo que cotiene a los Ni . De nuevo, cuando tenemos N1 y N2
tales que N1 ∩ N2 = 0 y N1 + N2 = M entonces todo elemento de M descompone de forma única
como la suma de un elemento de N1 y un elemento de N2 . Decimos que N1 y N2 son A-módulos
izquierdos suplementarios y escribimos,

M = N1 ⊕ N2 .

Dado un A-submódulo izquierdo N ⊂ M podemos definir en el grupo cociente,

M/N = {m + N | m ∈ M }, m + N = {m + n | n ∈ n},

una estructura de A-módulo izquierdo. Decimos que M/N es el A-módulo-i cociente.


Si I ( A es un ideal derecho entonces para todo módulo M el conjunto,
( )
X
IM = ai mi ∈ M | ai ∈ I, mi ∈ M
finita

es un A-submódulo izquierdo de M . Si además I es un ideal bilátero entonces el cociente M/IM


admite una estructura natural de A/I-módulo donde,

(a + I)(m + IM ) = am + IM.

4.2.2. Morfismos de módulos izquierdos


Sean M, N dos A-módulos izquierdos. Un morfismo de A-módulos izquierdos es una función
f : M → N verificando:
(i) f es un morfismo de grupos aditivos de (M, +) en (N, +)
(ii) Para todos a ∈ A y m ∈ M se tiene f (am) = af (m).
El núcleo ker(f ) y la imagen im(f ) son A-submódulos izquierdos de M y N respectivamente. La
inmersión canónica de un A-submódulo izquierdo y el paso al cociente por un A-submódulo izquierdo
son morfismos de módulos izquierdos. Por tanto, en este contexto también aplica el teorema de
factorización.
M
f
/N f = i ◦ f¯ ◦ q.
O
q i
 f¯
M/ker(f ) / Im(f )

123
Demotamos por HomA (M, N ) al conjunto de homomorfismos de A-módulos izquierdos de M en
N . Este conjunto tiene una estructura natural de grupo abeliano8 definiendo la suma f + g de dos
homomorfismos f y g como:

∀m ∈ M (f + g)(m) = f (m) + g(n).

Dualidad
Sea f : M → N un morfismo de A-módulos izquierdos. Para cada A-módulo izquierdo Z tenemos
un morfismo inducido por composición.

MO
f
/N f∗
HomA (Z, M ) −−→ HomA (Z, N ).
>
g
f ◦g=f∗ (g)
Z

Tenemos entonces que f∗ es un morfismo de grupos abelianos.


¿Que podemos decir del núcleo y la imagen de f∗ en función del núcleo y la imagen de f ? La
cuestión es que podemos describir de forma general el núcleo, pero no la imagen.
Para que un morfismo g verifique f∗ (g) = 0 es necesario y suficiente que g tome valores en el
núcleo de f . Por tanto:

ker(f∗ ) = HomA (Z, ker(f )) ⊆ HomA (Z, M ).

De aquı́ podemos también asegurar que f es inyectiva si y solo si f∗ es inyectiva para todo Z.
Para que un morfismo h : Z → N esté en la imagen de f∗ es una condición necesaria que la
imagen de h esté contenida en la imagen de f . Pero no es una condición suficiente. Por tanto,
podemos decir,
im(f∗ ) ⊆ HomA (Z, im(f )) ⊆ HomA (Z, N )
pero no podemos decir si la primera inclusión es o no una igualdad. Por eso f puede ser sobreyectiva
sin que lo sea f∗ .
Podemos hacer preguntas similares invirtiendo las flechas. Entonces, para cada AB-bimódulo Z
tenemos un morfismos inducido por composición.

f∗
M
f
/N HomA (N, z) −−→ HomAB−mi (M, Z).
g
g◦f =f ∗ (g) 
Z

¿Que podemos decir del núcleo y la imagen de f ∗ en función del núcleo y la imagen de f ? De
nuevo ocurre algo similar. Podemos describir de forma general, pero no la imagen. La condición
8 En el caso general no es aún posible definir una estructura de módulo en el módulo de los homomorfismos. Esto

es porque para a ∈ A y f ∈ HomA (M, N ) la función af : M → N m 7→ a(f (m)) no es un morfismo de A-módulos


pues (af )(bm) = abf (m) 6= b(af )(m) salvo si a y b conmutan.

124
necesaria y suficiente para que f ∗ (g) = 0 es que g se anule a lo largo de la imagen de f . Eso describe
un subgrupo de Homgr (N, Z).

ker(f ∗ ) = {g ∈ HomA (N, Z) | ker(g) ⊇ im(f )}.

Por ejemplo si f sobreyectiva, podemos asegurar que f es inyectiva. Ahora, ¿cuál es la condición
para que h ∈ Homgr (M, Z) esté en la imagen de f ∗ ? Una condición necesaria es que h se anule a lo
largo del núcleo de f , pero esta condición no es suficiente. Tenemos una inclusión,

im(f ∗ ) ⊆ {h ∈ Homgr (M, Z)| ker(f ) ⊆ ker(h)}.

pero en general no tenemos la igualdad.

Secuencias exactas
Vamos a examinar la cuestión de las secuencias exactas de A-módulos izquierdos. Decimos que
una secuencia de morfismos de A-módulos izquierdos,
fk−2 fk−1 fk fk+1
. . . −−−→ Mk−1 −−−→ Mk −−→ Mk+1 −−−→ . . .

es exacta en el k-ésimo termino Mk si im(fk−1 ) = ker(fk ), y decimos que es exacta si es exacta en


todos sus términos.
Para cada otro A-módulo izquierdo Z tenemos dos secuencias inducidas, por composición.
fk−2∗ fk−1∗ fk∗ fk+1∗
. . . −−−−→ HomA (Z, Mk−1 ) −−−−→ HomA (Z, Mk ) −−→ HomA (Z, Mk+1 ) −−−−→ . . .
∗ ∗ ∗
fk−2 fk−1 f∗ fk+1
. . . ←−−− HomA (Mk−1 , Z) ←−−− HomA (Mk , Z) ←−k− HomA (Mk+1 , Z) ←−−− . . .
Estas secuencias no son en general exactas. El análisis que hicimos en el apartado anterior nos dice,
que la imagen de cada morfismo está incluido en el núcleo del siguiente, pero no tienen por qué
coincidir.
Vamos al caso en el que tenemos una secuencia exacta corta AB-bimódulos,
i f q
0−
→K−
→ M −→ N −→ C −
→0 (4.1)

donde definimos K = ker(f ) y C = coker(f ) := N/im(f ). Para cada AB-bimódulo Z tenemos dos
secuencias inducı́das,
∗ i f∗ q∗
0−
→ HomA (Z, K) −−→ HomA (Z, M ) −−→ HomA (Z, N ) −−→ HomA (Z, C)(−
→ 0) (4.2)
i∗ f∗ q∗
(0 ←−)HomAB−bm (K, Z) ←−− HomAB−bm (M, Z) ←−− HomAB−bm (N, Z) ←−− HomAB−bm (C, Z) ← −0
(4.3)
De la discusión anterior se desprende que las secuencias (4.2) y (4.3) son exactas en todos
los términos excepto en el último (señalado entre paréntesis). Puede probarse, de forma bastante
natural:
(a) La condición necesaria y suficiente para que (4.2) sea una secuencia exacta para todo Z es
que q admita una sección σ (inverso por la derecha q ◦ σ = IdC ).

125
(b) La condición necesaria y suficiente para que (4.3) sea una secuencia exacta para todo Z es
que i admita un retracto ρ (inverso por la izquierda ρ ◦ i = IdK ).
Otra cuestión es que A-módulos izquierdos Z tienen la propiedad de producir siempre la secuen-
cias exactas en todos los términos. Esto nos lleva a la teorı́a de módulos proyectivos e inyectivos,
que tiene respuestas diferentes para cada anillo.

Decimos que un A-módulo izquierdo Z es proyectivo si para toda secuencia exacta (4.1) la
secuencia de homomorfimos (4.2) es exacta en todos sus términos.

Decimos que un A-módulo izquierdo Z es inyectivo si para toda secuencia exacta (4.1) la
secuencia de homomorfimos (4.3) es exacta en todos sus términos.

Por ejemplo, por el teorema de factorización, los K-espacios vectoriales (K-módulos) son tanto
inyectivos como proyectivos. Los grupos abelianos (Z-módulos) inyectivos son los grupos divisibles.

4.2.3. Sumas y productos


Sea {Mi }i∈I una familia de A-modulos izquierdos. Definimos,
( )
M X
Mi = mi | mi ∈ Mi
i∈I finita
Y
Mi = {(mi )i∈I | mi ∈ Mi }.
i∈I

Los objetos de la suma directa son sumas finitas de elementos de los A-módulos izquierdos de la
familia, mientras que los elementos del producto son secciónes del mapa canónico:
a
Mi → I, m 7→ i tal que m ∈ Mi .
i∈I

Que interpretamos como tuplas correspondientes a una elección de un elemento en cada miembro
de la familia. Tanto en la suma directa como en el producto directo se tiene una estructura de
B-modulo izquierdo tomando para a ∈ A,
!
X X
a mi = ami a(mi )i∈I = (ami )i∈I
finita finita

La suma directa puede verse como un A-módulo izquierdo del producto directo si consideramos las
sumas finitas como tuplas que toman el valor cero en casi todos sus términos.
M Y
Mi ⊆ Mi
i∈I i∈I

Se tiene la igualdad si y solo si la familia I es finita o todos los {Mi } son cero excepto un número
finito.

126
Para cada indice i ∈ I se tiene la inclusión y la proyección canónicas, que son morfismos de
AB-bimódulos. M Y
ρi : Mi → Mj , πi : Mj → M i .
j∈I j∈I

El producto y la suma directa en la categorı́a de A-módulos izquierdos verifican las propiedades


universales esperadas con respecto a la in inclusiones y proyecciones. Para todo A-bimódulo Z
mediante composición con las inclusiones o proyecciones se tienen respectivamente isomorfismos de
grupos abelianos:
!

M Y
HomA Mi , Z − → HomAB−mi (Mi , Z), ϕ 7→ (ϕ ◦ ρi )i∈I .
i∈I i∈I
!

Y Y
HomA Z, Mi −
→ HomA (Z, Mi ), ϕ 7→ (π1 ◦ ϕ)i∈I .
i∈I i∈I

De la misma manera que haciamos con espacios vectoriales tiene completo sentido calcular limites
inductivos (colı́mites) y proyectivos de familias dirigidas de A-módulos izquierdos. Emplazamos al
lector a revisar las Secciones 1.4.3 y 1.4.4 reemplazando la nocion de espacio vectorial por la de
A-módulo izquierdo.

4.2.4. Modulos libres


L
Como caso particular de la suma directa tenemos FreeA (X) = x∈X A{x}. Es decir, el módulo
izquierdo libre generado por X es la suma directa de copias de A, una por cada elemento de X.
Los módulos libres están caracterizados por la siguiente propiedad universal.

Definición 4.4 Decimos que un A-módulo izquierdo es M libre si es isomorfo a una suma directa
de copias de A.

La definición de base de un espacio vectorial puede adaptarse a los módulos izquierdos. Decimos
que S subset M es una base si S es un sistema de generadores de M linealmente independiente
sobre A. Puede mostrarse con facilidad que un módulo es libre si y solo si tiene una base, pues:
X X
Free(S) → M, ai {si } → ai si ,
finita finita

es un isomorfismo si y solo si S es una base de M .


Notemos que el conjunto X es una base de Free(X). Los módulos libres y las bases están
caracterizadas por la siguiente propiedad universal.

Proposición 4.5 Sea X una base de un A-módulo izquierdo libre L. Entonces, para cada módulo
M y cada función f : X → M hay un único morfismo de módulos f˜: L → M tal que f˜|X = f . Es
decir,
HomA (L, M ) ' M X .

127
Prueba. Elemental.

El teorema de la dimensión no se verifica para módulos izquierdos libre y puede haber bases con
distintas cardinalidades (incluso finitas). Llamamos rango libre rankf (M ) de un módulo libre M al
mı́nimo cardinal de una base de M .
Consideremos un módulo libre M de rango finito n. Para cada base ordenada m1 , . . . , mn tene-
mos un isomorfismo:

X
M− → An , ai mi 7→ (a1 , . . . , an ).
Si A es no conmutativo, es conveniente identificar An con el conjunto de vectores fila Mat(1 ×
n, A). Se muestra con facilidad que todo morfismo de A-módulos izquierdos de An en Am corres-
ponde a la multiplicación a la derecha por una matriz. Es decir, si ϕ es un morfismo,

ϕ : An → Am

entonces hay una matriz n × m [ϕ] con coeficientes en A tal que:


" n n
#
X X
ϕ : [a1 , . . . , an ] 7→ [a1 , . . . , an ][ϕ] = ai ϕi1 , . . . , ai ϕim
i=1 i=1

Al haber invertido el papel de las filas y columnas se tiene9 [ϕ][ψ] = [ψ ◦ ϕ].


Notemos que si M es un módulo finito generado y m1 , . . . , mn es un sistema de generadores,
entonces M puede escribirse como un cociente de un módulo libre de rango finito:

π : An → M, (a1 , . . . , an ) 7→ a1 m1 + . . . an mn .

Cuando el núcleo de π es también finito generado, entonces podemos escribirlo también como
cociente de un libre Ar y tenemos una morfismo de A-módulos izquierdos f : Ar → An cuya imagen
es el núcleo de π. Por tanto M ' coker(f ) = An /im(f ). Decimos que f es una presentación finita. Si
consideramos en Ar la base canónica y f (ei ) = ai1 e1 + . . . ain en para i = 1, . . . r entonces utilizamos
la notación:
M ' hm1 , . . . , mn | ai1 m1 + . . . ain mn = 0, i = 1, . . . , ri
Para expresar que M es el A-módulo izquierdo generado por los elementos m1 , . . . , mn que satisfacen
las relaciones de dependencia lineal,

ai1 m1 + . . . + ain mn = 0, i = 1, . . . , r.

En general decimos que M es un A-módulo izquierdo de presentación finita si admite una presen-
tación finita, es decir, si es isomofo al conúcleo de un morfismo entre dos módulos libres de rango
finito.
9 Sin embargo, si en lugar de con módulos izquierdos trabajamos con módulos derechos, entonces podemos operar

de la misma manera que hacı́amos con los espacios vectoriales, representando a los elementos de An por vectores
columna y con los morfismos como matrices operando por el lado izquierdo.

128
4.2.5. Anillos y módulos noetherianos
Definición 4.6 Un A-módulo izquierdo M es noetheriano si tiene cualquiera de las dos propiedades
equivalentes:
(a) Toda cadena ascendente de sumbódulos,

M0 ⊆ M1 ⊆ . . . ⊆ Mn ⊆ . . .

estaciona, es decir hay un n0 tal que para todo k ≥ n0 se tiene Mn0 = Mk .


(b) Todo A-submódulo izquierdo de M es finito generado.

Decimos que A es un anillo noetheriano-izquierdo si tanto A si A es un A-módulo noetheriano


izquierdo. Es decir, si todo ideal izquierdo es finito generado. Decimos que A es un anillo noetheriano
cuando además Aop es un Aop -módulo noetheriano izquierdo. En tal caso, todo ideal izquierdo o
derecho es finito generado.

Proposición 4.7 Propiedades de los módulos noetherianos:


(a) Todo submódulo de un módulo noetheriano es noetheriano.
(b) Si M es noetheriano y N ⊂ M es un submódulo, entonces M/N es noetheriano.
(c) Si M y N son noetherianos, entonces M ⊕ N es noetheriano.
(d) Si A es noetheriano-izquierdo entonces todo A-módulo izquierdo finito generado es noetheriano
y de presentación finita.

Prueba. Es elemental. Pendiente

4.2.6. Anuladores y torsiones


Una noción muy útil en la teorı́a de A-módulos es la del ideal anulador. Sea M un A-módulo.
Para cada m ∈ M consideramos:

annA (m) = {a ∈ A | am = 0}

se comprueba con facilidad que annA (m) es un ideal izquierdo de A, excepto si m = 0, en tal caso
annA (m) = A.
De la misma forma que definimos el ideal de un elemento, definimos el ideal anulador de un
subconjunto cualquiera N ⊆ M ,
\
annA (N ) = annA (n).
n∈N

Decimos que un elemento m ∈ M es de torsión si annA (m) 6= {0}. Decimos que M es un


módulo de torsión si todos los elementos de M son de torsión. Decimos que M es libre de torsión si
el único elemento de torsión de M es el cero. El conjunto de los elementos de torsión de M forma

129
un submódulo T (M ) que denominamos torsión de M . El cociente, M/T (M ) es libre de torsión. En
general,
annA (A) 6= {0} =⇒ M de torsión.
Pero el recı́proco no es cierto en general, pero sı́ para módulos izquierdos finitamente generados.
Un módulo M = hmiA generado por un solo elemento m, se llama un módulo cı́clico. Si M es
un módulo cı́clico generado por m entonces annA (M ) = annA (m). Tenemos una secuencia exacta,
π
0 → annA (m) −
→A→M →0

dondeπ(a) = am, de manera que M ' A/ann(M ).

4.2.7. Rango y longitud


En la teorı́a de los módulos izquierdos, existen varias maneras de generlizar la noción de dimen-
sión. Decimos que un A-módulo izquierdo M es simple, si sus únicos submódulos son {0} y M . Una
cadena de submódulos:
{0} = M0 ( M1 ( M2 . . . ( M` = M
es una serie de composición si los cocientes consecutivos Mi /Mi−1 son simples.

Se llama longitud de M a la longitud mı́nima long(M ) de una serie de composición de M .


Se llama rango de M al mı́nimo cardinal rank(M ) de un sistema de generadores de M

Cuando M es libre, se tiene por construcción rankf (M ) ≥ rank(M ), pero no se tiene necesaria-
mente la igualdad. Cuando la longitud es finita, puede probarse (Teorema de Jordan-Hölder, sirve
la misma prueba de teorı́a de grupos) que todas las series de composición tienen la misma longitud.
El un espacio vectorial, las tres nociones, longitud, rango y rango libre coinciden con la dimensión.

4.2.8. Producto tensorial


Una estructura de A-modulo derecho en un grupo abeliano (M, +) es un anti-morfismo de anillos,

A → EndZ (M ).

Esto es equivalente a dar una operación

M × A → M, (m, b) → mb

de manera que para todos b, c ∈ B, m, n, ∈ M se tiene

(m + n)b = mb + nb, m(bc) = (mb)c, m(b + c) = mb + mc m1A = m.

Una estructura de A-módulo derecho es una estructura de Aop -módulo izquierdo, y viceversa. Toda
la teorı́a desarrollada para los módulos izquierdos aplica para los módulos derechos, basta substituir
el anillo A por Aop . En particular, si M y N son A-módulos derechos,

Hom−A (M, N ) = {ϕ ∈ Homgr (M, N ) | ∀m ∈ M, b ∈ A ϕ(mb) = ϕ(m)b},

es un grupo abeliano.

130
Sea M un A-módulo derecho, N un A-módulo izquierdo y W un grupo abeliano aditivo. Una
función,
f: M ×N →W
es A-balanceada si verifica

f (m +0 m0 , n) = f (m, n) + f (m0 , n), f (ma, n) = f (m, an), f (m, n + n0 ) = f (m, n) + f (m, n0 ),

para cualesquiera a, ∈ A, m, m0 ∈ M, n ∈ n0 ∈ N .
La suma de funciones A-balanceadas es balanceada y por eso el conjunto BalB (M, N ; W ) de
las funciones A-balanceadas es un grupo abeliano aditivo. Si f es una función A-balanceada y
m es un elemento d M entonces podemos definir la contracción interior ιm f : N → W como
(ιm f )(n) = f (m, n) para todo n ∈ N . Entonces ιm f es un morfismo de grupos abelianos.
Notemos ahora que el grupo abeliano Homgr (N, W ) tiene una estructura natural de A-módulo
derecho donde se toma, para cada a ∈ A y ϕ : N → W , (ϕa)(n) = ϕ(an). Si consideramos ιf
la función de M en Homgr (N, W ) que asigna m 7→ ιm f obtenemos un morfismo de A-módulos
derechos:
ιf : M → Homgr (N, W ), m 7→ ιm f.
Finalmente tenemos ι(f + g) = ιf + ιg y de ahı́ obtenemos un morfismo de grupos abelianos:

ι : BalA (M, N ; W ) −−→ Hom−A (M, Homgr (N, W ))

del cual podemos comprobar que se trata de un isomorfismo construyendo su inverso:

(ι−1 (φ))(m, n) = φ(m)(n),

y al que llamamos isomorfismo de adjunción.


Nuestro objetivo es construir un grupo abeliano M ⊗A N y una función balanceada universal
i : M × N → M ⊗A N que permita linealizar todas las funciones balanceadas definidas en M × N .
Es decir, que para cada función balanceada f : M × N → W exista un único morfismo de grupos
abelianos f˜: M ⊗A N → W tal que i ◦ f˜ = f .
Lo que vamos a hacer es construir el objeto M ⊗A N ad hoc para que cumpla con esta propiedad.
Para eso, consideramos Lib(M × N ) el grupo abeliano libre generado por todas las parejas (m, n) ∈
M × N. ( )
X
Lib(M × N ) = ai (mi , ni ) | ai ∈ Z, mi ∈ M, ni ∈ N
finita

Ahora consideramos el subgrupo Relb(M, N ) ⊆ Lib(M × N ) generado por todas las relaciones de
balanceo. Es decir RelB(M, N ) está generado por todos los elementos de la forma,

(m + m0 , n) − (m, n) − (m0 , n) (m, n + n0 ) − (m, n) − (m, n0 ), (ma, n) − (m, an)

para m, m0 ∈ M , n, n0 ∈ N , a ∈ A.
Definimos entonce M ⊗A N = Lib(M × N )/RelB(M, N ). Como consecuencia directa de esta
definición:

131
P
1. Los elementos del producto tensorial M ⊗B N son sumas finitas finita mi ⊗ ni donde los mi
están en M y los ni están en n.
2. En el producto tensorial se verifican las identidades:
(m + m0 ) ⊗ n = (m ⊗ n) + (m0 ⊗ n) m ⊗ (n + n0 ) = (m ⊗ n) + (m ⊗ n0 ) mb ⊗ n = m ⊗ bn
para cualesquiera m, m0 ∈ M , n, n0 ∈ N , b ∈ B.
3. La función i : M × N → M ⊗A N que asigna (m, n) 7→ m ⊗ n es balanceada.
4. Para cualquier morfismo de grupos abelianos ϕ : M ⊗A N → W la composición ϕ◦i : M ×N →
W es una función balanceada.
5. Para cualquier función balanceada f : M × N → W la función inducida, f˜: M ⊗A N definida
mediante la fórmula: !
X X
f˜ m i ⊗ ni = f (mi , ni )
finita finita
es un morfismo de grupos abelianos.
Podemos concluir:
Teorema 4.8 (Propiedad universal del producto tensorial) Para todo grupo abeliano W la
restricción por i produce una biyección entre el conjunto de morfismos de grupos abelianos de M ⊗A
N en W y el conjunto de funciones A-balanceadas de M × N en W .
La propiedad universal permite tambien probar la unicidad de M ⊗A N salvo isomorfismos de
grupos abelianos. Supongamos que hubiera otro AC-ḿodulo T dotado de una función balanceada
j : M × N → T y que verifica la propiedad universal. Entonces, por aplicación dos veces de la
propiedad universal, tendrı́amos un isomorfismo de grupos abelianos,
j̃ : M ⊗B N → T.
La propiedad universal junto al isomorfismo de adjunción producen la fórmula de adjunción.
Homgr (M ⊗A N, W ) ' Hom−A (M, Homgr (N, W ))

f˜ ∼ ιf.

Propiedades del producto tensorial:


(a) Si Mi es una familia de A-módulos derechos y N un A-módulo izquierdo,
!
M M
Mi ⊗A N ' (Mi ⊗A N ) .
i∈I i∈I

(b) Si Mi es una familia dirigida de A-módulos derechs y N un A-módulo izquierdo,


(lı́m Mi ) ⊗B N ' lı́m(Mi ⊗B N ).
→ →

Cabe observar que cambiando A por Aop tenemos que estas propiedades también se verifican si
invertimos los papeles de M y N .

132
4.2.9. Producto tensorial y secuencias exactas
Sean M , M 0 A-módulos derechos y N , N 0 A-módulos izquierdos. Dados dos morfismos f : M →
M y N → N 0 es posible construir un morfismo de grupos abelianos,
0

f ⊗ g : M ⊗B N → M 0 ⊗B N 0 , (f ⊗ g), (f ⊗ g)(m ⊗ n) = f (m) ⊗ g(n).

De este modo, obtenemos una operación balanceada10 :

Hom−A (M, M 0 ) × HomA− (N, N 0 ) → Homgr (M ⊗A N, M 0 ⊗A N )

En particular si M 0 ⊆ M y N 0 ⊆ N son submódulos (derecho e izquierdo, respectivamente) entonces


M 0 ⊗A N 0 es un subgrupo de M ⊗A N . Una propiedad importante del producto tensorial de morfismos
es que es compatible con las imágenes, pero no ası́ con los núcleos.
Proposición 4.9 Sean f : M → M 0 y N → N 0 morfismos de AB-bimódulos y BC-bimódulos
respectivamente. Entonces:

(a) im(f ⊗ g) = im(f ) ⊗B im(g)


(b) ker(f ⊗ g) ⊇ ker(f ) ⊗B ker(g)
Prueba. Elemental.

Definición 4.10 Decimos que un A-módulo izquierdo N es plano si para cualquier morfismo de
A-módulos derechos f : M → M 0 se tiene ker(f ⊗ IdM ) = ker f ⊗ IdM .

Invirtiendo los papeles de M y N , o reemplazando A por Aop se obtiene la definición de A-


modulo derecho plano.
Fijemos ahora un BC-bimódulo N . Si tenemos una secuencia de morfismos de AB-bimódulos,
fk−2 fk−1 fk fk+1
. . . −−−→ Mk−1 −−−→ Mk −−→ Mk+1 −−−→ . . .

podemos tensorizar todos estos morfismos por IdN , obteniendo una secuencia,
fk−2 ⊗IdN fk−1 ⊗IdN fk ⊗IdN fk+1 ⊗IdN
. . . −−−−−−−→ Mk−1 ⊗B N −−−−−−−→ Mk ⊗B N −−−−−→ Mk+1 ⊗B N −−−−−−−→ . . .

que no es en general exacta, excepto si N es plano.


10 Dicha operación, a través de la propiedad universal del producto tensorial, puede verse como un morfismo de

grupos abelianos,
Hom−A (M, M 0 ) ⊗Z HomA (N, N 0 ) → Homgr (M ⊗A N, M 0 ⊗A N ).

133
4.3. Bimódulos
En la teorı́a de módulos, sobre anillos no necesariamente conmutativos, la multilinealidad so-
lamente tiene sentido cuando se consideran simultáneamente estructuras de módulo por el lado
izquierdo y derecho.
Ahora que despondemos de la estructura de módulo por ambos lados podemos definir bimódulos.
Una estructura de AB-bimódulo en M consiste de estructuras de A-modulo izquierdo y B-módulo
derecho compatibles en el sentido de que (am)b = a(mb) para todos a ∈ A, m ∈ M , b ∈ B. Los
morfismos de AB-bimódulos son los morfismos compatibles con ambas estructuras:

HomAB (M, N ) = HomA (M, N ) ∩ Hom−B (M, N ).

Los AB-sub-bimódulos son aquiellos que simultaneamente son submódulos izquierdos y derechos.
Los cocientes por sub-bimódulos son a su vez bimódulos. Si A es un anillo, entonces, con la multipli-
cación, es un AA-bimódulo. Los ideales izquierdos de A son sus submódulos izquierdos, los ideales
derechos de A son sus submódulos derechos y los ideales biláteros de A son sus sub-bimódulos. Los
núcleos, conúcleos11 , imágenes y coimágenes12 de los morfismos de AB-bimódulos son AB-bimódu-
los.
Ejemplos:

Las sumas directas, productos directos, lı́mites y colı́mites de familias de AB-bimódulos son
AB-bimódulos.

Si A es un anillo conmutativo entonces todo A-módulo izquierdo M es simultáneamente A-


módulo derecho y AA-bimódulo tomando am = ma para todo a ∈ A y m ∈ M . Por tanto,
cuando los coeficientes están en un anillo conmutativo no hay diferencia entre el concepto
de A-módulo izquierdo, A-módulo derecho, y cualquiera de las dos estructuras induce una
estructura de AA-módulo izquierdo.

Sea E un espacio vectorial complejo. Entonces podemos ver E como CC-bimódulo de una
forma diferente a la del ejemplo anterior definiendo eλ = λ̄e. Entonces, la estructura por la
izquierda es la de E, la estructura por la derecha es la de E cj , ambas son compatibles pero
diferentes.
Todo grupo abeliano (M, +) admite únicas estructuras de Z-módulo izquierdo, Z-módulo de-
recho y ZZ-bimódulo. Basta definir,

nx = x + . . . x + n veces,

para cada n ∈ Z y x ∈ M . Por las propiedades distributivas, cualquier otra estructura de


Z-módulo-i debe coindicir con esta. Lo mismo sirve para la estructura por la derecha,

xn = x + . . . x + n veces,

y es obvio que son compatibles. Por tanto, también:


11 coker(f ) = codom(f )/im(f ).
12 coim(f ) = dom(f )/ ker(f )

134
Todo A-modulo izquierdo puede interpretarse de una sola forma como AZ-bimódulo.
Todo B-modulo derecho puede interpretarse de una sola forma como ZB-bimódulo.
Sean E y F espacios vectoriales sobre K, sea A = EndK (F ), B = EndK (F ), entonces
LinK (E, F ) es un AB-bimódulo con la composición.

Estructura de grupo abeliano en los homomorfismos


Cuando tenemos bimódulos sobre anillos diferentes, pero que coinciden por un lado, entonces
el grupo abeliano de morfismos puede dotarse de mayor estructura. Por ejemplo, sean M un BC-
bimódulo y N es AC-bimódulo. Es posible considerar los homomorfismos de C-módulo izquierdo
de M en N . En este caso, nos quedan la opción de multiplicar los homomorfismos por elementos de
A y B. Consideremos f : M → N un morfismo de C-módulos-d. Podemos definir, para todo a ∈ A
y m ∈ M,
(af )(m) = a(f m)
y para todo B ∈ B y m ∈ M ,
(f b)(m) = f (bm).
De esta manera, af y f b son homomorfimos de C-módulos y se comprueba sin dificultad que
Hom−C (M, N ) tiene estructura de AB-bimódulo.
El caso opuesto es el siguiente. Sean M un AB-bimódulo y N un AC-bimódulo. Entonces para
cada homomorfismo f : M → N de A-módulos-i definimos, para todo b ∈ B, c ∈ C y m ∈ M ,

(f b)(m) = f (mb), (cf )(m) = f (m)c.

En resumen:
Si M es un BC-bimódulo y N es un AC-bimódulo entonces Hom−C (M, N ) es un AB-bimódu-
lo.

Si M es un AB-bimódulo y N es un AC-bimódulo entonces HomA (M, N ) es un BC-bimódulo.

Dualidad en bimódulos
En esta sección fijemos A, B anillos. Las consideraciones realizadas acerca de los morfismos
inducidos para módulos izquierdos aplican sin diferencia al caso de los bimódulos. De hecho, los
casos de módulos izquierdos o derechos pueden verse como casos particulares de bimódulos tomado
B = Z o A = Z.
Sea f : M → N un morfismo de AB-bimódulos. Para cada AB-bimódulo Z tenemos los morfis-
mos de grupos abelianos inducidos por composición.
f∗ f∗
HomAB (Z, M ) −−→ HomAB (Z, N ), HomAB (Z, M ) ←−− HomAB (Z, N )

¿Que podemos decir del núcleo y la imagen de f∗ y f ∗ en función del núcleo y la imagen de f ?
Obtenemos respuesta similares a las de la sección anterior.

135
Para que un morfismo g verifique f∗ (g) = 0 es necesario y suficiente que g tome valores en el
núcleo de f . Por tanto:

ker(f∗ ) = HomAB (Z, ker(f )) ⊆ HomAB (Z, M ).

ker(f ∗ ) = {g ∈ HomAB (N, Z) | ker(g) ⊇ im(f )}.


De aquı́ podemos también asegurar que f es inyectiva si y solo si f∗ es inyectiva para todo Z si y
solo si f ∗ es sobreyectiva para todo Z.
Por otro lado, tenemos inclusiones:

im(f∗ ) ⊆ HomAB (Z, im(f )) ⊆ HomAB (Z, N )

im(f ∗ ) ⊆ {h ∈ Homgr (M, Z)| ker(f ) ⊆ ker(h)}.


pero en general no tenemos la igualdad.
De forma similar una secuencia de morfismos de AB-bimódulos,
fk−2 fk−1 fk fk+1
. . . −−−→ Mk−1 −−−→ Mk −−→ Mk+1 −−−→ . . .

produce, para cada AB-bimódulo Z dos secuencias inducidas, por composición


fk−2∗ fk−1∗ fk∗ fk+1∗
. . . −−−−→ HomAB (Z, Mk−1 ) −−−−→ HomAB (Z, Mk ) −−→ HomAB (Z, Mk+1 ) −−−−→ . . .
∗ ∗ ∗
fk−2 fk−1 f∗ fk+1
. . . ←−−− HomAB (Mk−1 , Z) ←−−− HomAB (Mk , Z) ←−k− HomAB (Mk+1 , Z) ←−−− . . .
donde la imagen de cada morfismo está incluida en el núcleo del siguiente, pero que no son en
general exactas.
Para una secuencias exactas cortas de AB-bimódulos,
i f q
0−
→K−
→ M −→ N −→ C −
→0 (4.4)

obtenemos, para cada Z, dos secuencias inducı́das.

∗ i f∗ q∗
0−
→ HomAB (Z, K) −−→ HomAB (Z, M ) −−→ HomAB (Z, N ) −−→ HomAB (Z, C)(−
→ 0) (4.5)

i∗ f∗ q∗
(0 ←
−)HomAB (K, Z) ←−− HomAB (M, Z) ←−− HomAB (N, Z) ←−− HomAB (C, Z) ←
−0 (4.6)
Tal y como ocurrı́a para A-módulos izquierdos, las secuencias (4.5) y (4.6) son exactas en todos los
términos excepto en el último (señalado entre paréntesis). También ocurre:
(a) La condición necesaria y suficiente para que (4.5) sea una secuencia exacta para todo Z es
que q admita una sección σ (inverso por la derecha q ◦ σ = IdC ).

(b) La condición necesaria y suficiente para que (4.6) sea una secuencia exacta para todo Z es
que i admita un retracto ρ (inverso por la izquierda ρ ◦ i = IdK ).

136
4.3.1. Producto tensorial de bimódulos
La noción de función balanceada se generaliza, si permitiendo linealidad con respecto a los
coeficientes en los extremos.Sea M un AB-bimódulo, N un BC-bimódulo y W un AC-módulo. Una
función,
f: M ×N →W
es ABC-balanceada si verifica

f (am+a0 m0 , n) = af (m, n)+a0 f (m0 , n), f (mb, n) = f (m, bn), f (m, nc+n0 c0 ) = f (m, n)c+f (m, n0 )c0 ,

para cualesquiera a, a0 ∈ A, b ∈ B, c, c0 ∈ C, m, m0 ∈ M, n ∈ n0 ∈ N .
La suma de funciones ABC-balanceadas es ABC-balanceada y por eso el conjunto BalABC (M, N ; W )
de las funciones ABC-balanceadas es un grupo abeliano aditivo.13
Dada las estructura adicional que tiene los grupos de morfismos de bimódulos, la contracción
interior tendrá también una estructura adicional. Si f es una función ABC-balanceada y m es un
elemento d M entonces la contracción interior ιm f : N → W es un morfismo de C-módulos derechos.
La función ιf de M en HomC−md (N, W ) que asigna m 7→ ιm f es un morfismo de AB-bimódulos:

ιf : M → Hom−C (N, W ), m 7→ ιm f.

Por lo tanto, tenemos un isomorfismo de adjunción, que es una restricción del que ya conocı́amos:

ι : BalABC (M, N ; W ) −−→ HomAB (M, Hom−C (N, W )).

Podemos dotar a M ⊗B N de una estructura de AC-módulo, tomando:

a(m ⊗ n) = (am) ⊗ n, (m ⊗ n)c = m ⊗ (nc)

para todo a ∈ A, c ∈ C, m ∈ M y n ∈ N . Como consecuencia tenemos nuevas propiedades para la


estructura de AC-módulo del producto tensorial:

1. La función i : M × N → M ⊗B N que asigna (m, n) 7→ m ⊗ n es ABC-balanceada.


2. Para cualquier morfismo de AC-módulos ϕ : M ⊗B N → W la composición ϕ ◦ i : M × N → W
es una función ABC-balancedada.

3. Para cualquier función ABC-balanceada f : M ×N → W la función función inducida, f˜: M ⊗B


N definida mediante la fórmula:
!
X X
˜
f m i ⊗ ni = f (mi , ni )
finita finita

es un morfismo de AC-bimódulos.
13 Las
funciones B-balanceadas son las funciones ZBZ-balanceadas. De esta manera, el producto tensorial de un
B-módulo derecho y un B-módulo izquierdo se puede ver como un caso particular de producto tensorial de bimódulos.

137
Podemos concluir que el producto tensorial, considerado en el contexto de los bimódulos, tiene
la propiedad universal siguiente. Para todo AC-bimódulo W la rescricción por i produce una
biyección entre el conjunto de morfismos de AC-bimódulos de M ⊗B N en W y el conjunto de
funciones ABC-balanceadas de M × N en W .
La propiedad universal junto al isomorfismo de adjunción producen la fórmula de adjunción en
el contexto de los bimódulos.
HomAC (M ⊗B N, W ) ' HomAB (M, Hom−C (N, W ))
f˜ ∼ ιf.

En el contexto de los bimódulos ya tiene sentido hablar de la asociatividad del producto tensorial.
Para cualesquiera A,B,C,D, anillos, AB-bı́módulo M , BC-bimódulo N , y CD-bimódulo P se tiene
un isomorfismo canónico de AD-bimódulos,
M ⊗B (N ⊗C P ) ' (M ⊗B N ) ⊗C P, (m ⊗ n) ⊗ p 7→ m ⊗ (n ⊗ p).
Identificando estos objetos escribimos simplemente M ⊗B N ⊗C P y a sus elementos los denotamos
por m ⊗ n ⊗ p.

4.3.2. Restricción de escalares y producto tensorial


Sean ϕ : A0 → A y ψ : B 0 → B morfismos de anillos. Vı́a estos morfismos, cualquier AB-bimódulo
M adquiere estructura de A0 B 0 -bimódulo tomando:
a0 m = ϕ(a0 )m, mb0 = mψ(b0 )
para todo a0 ∈ A, b0 ∈ B, m ∈ M y n ∈ N .
Sean ahora A, B, B 0 , C anillos, M un AB-módulo y N un BC-módulo. Consideremos ψ : B 0 → B
morfismo de anillos. Entonces ψ dota a M de estructura de AB 0 -módulo y a N de estructura de
B 0 C-módulo.
Notemos que toda aplicación B balanceada en M × N es en particular AB 0 C-balanceada pero
no a la inversa.
BalABC (M, N ; W ) ⊆ BalAB 0 C (M, N ; W )
obteniéndose la igualdad si y solo si ψ es sobreyectivo.
Por tanto, las relaciones de balanceo utilizadas para la construcción del producto tensorial sobre
B 0 están necesariamente incluidas en las relaciones de balanceo utilizadas para el producto tensorial
sobre B. Podemos entonces asegurar que existe un morfismo canónico:
M ⊗B 0 N → M ⊗B N, m ⊗ n 7→ m ⊗ n
que es en general sobreyectivo, y que es además biyectivo si y solo si ψ es sobreyectivo.
Otra observación importante es la siguiente. Consideremos ahora A, A0 , B, C, C 0 anillos, y
morfismos ϕ : A0 → A, ψ : B 0 → B. Sea M un AB-bimódulo y N un BC bimódulo. Entonces ϕ
induce en M estructura de A0 B-módulo y ψ induce en N estructura de BC 0 -módulo. La construcción
del producto tensorial M ⊗B N es totalmente independiente y conmuta con esta restricción de
escalares. Es decir: el producto tensorial de M como A0 B-bimódulo y N como BC 0 -bimódulo es
M ⊗B N con la estructura de A0 C 0 -bimódulo inducida por ϕ y ψ.

138
4.3.3. Producto tensorial de A-algebras
Cuando el anillo A que opera por la derecha y por la izquierda es el mismo, escribimos A-
bimódulo en lugar de AA-bimódulo.
Recordemos que una A-álgebra es un anillo B dotado de un morfismo de anillos ψ : A → B. Las
A-álgebras son un primer ejemplo de A-bimódulos, puesto que están dotadas de las operaciones por
la izquierda y derecha,
ab = φ(a)b, ba = bφ(a), ∀a ∈ A, b ∈ B.
Recordemos que un morfismo de A-álgebras ϕ : B → C es un morfismo de anillos que hace conmutar
al diagrama:
B_
ϕ
/C.
?

A
Todo morfirmo de A-álgebras es, en particular, de A-bimódulos. Por tanto las A-álgebras junto con
sus morfismos forman una categorı́a embebida dentro de la categorı́a de A-bimódulos.
φB φC
Dadas A −−→ B y A −−→ C dos A-álgebras, el producto tensorial B ⊗A C es, a priori, un
A-módulo. No obstante, puede definirse una estructura de A-álgebra en B ⊗ C tomando

φB⊗A C : A → B ⊗A C, a 7→ φB (a) ⊗ 1 = 1 ⊗ φC (a).

Además, la unidad nos permite definir dos morfismos,

iB : B → B ⊗A C, b 7→ b ⊗ 1

iC : C → B ⊗A C, c 7→ 1 ⊗ c
Con esta definición, la operación producto tensorial verifica una propiedad que se asemeja a la de
la suma directa, cuando se consideran solamente morfismos con valores en A-algebras conmutativas.
φB φC
Proposición 4.11 A −−→ B y A −−→ C dos A-álgebras. Para cualquier A-álgebra Z conmutativa
y cualquier pareja de morfismos de A-álgebras ψ1 : B → Z, ψ2 : C → Z hay un único morfismo de
A-álgebras ψ : B ⊗ C → Z tal que ψ ◦ iB = ψ1 y ψ ◦ iC = ψ2 . Por tanto, la composición con iB e
iC induce una biyección:

HomA−alg (B ⊗A C, Z) ' HomA−alg (B, Z) × HomA−alg (C, Z).

Prueba. Basta definir ψ(a ⊗ b) = ψ1 (a)ψ2 (b). Se comprueba que respeta las relaciones de balanceo,
por tanto está bien definida. La conmutatividad de Z permite demostrar que es un morfismo de
A-álgebras.

4.3.4. Algebra tensorial sobre un A-bimódulo


En un A-bimódulo M tiene sentido calcular la potencia tensorial,

M ⊗n = M ⊗A M ⊗A . . . ⊗A M n veces.

139
por convención M ⊗0 = A. El producto tensorial de elementos está definido entonces como una
función A-balanceada:
Tk M × Tr M → Tk+r M,
((m1 ⊗ . . . ⊗ mk ), (m01 ⊗ . . . ⊗ m0r )) 7→ m1 ⊗ . . . ⊗ mk ⊗ m01 ⊗ . . . ⊗ m0r .
Las potencias tensoriales de M son A-bimódulos y tiene sentido entonces definir el algebra
tensorial de M ,
M∞
T• M = M ⊗n .
n=0

El álgebra tensorial de M es, por definición, una A-álgebra, dotado de la inmersión A ⊂ T• A que
identifica A con la componente de grado cero de Tbullet A. También debe interpretarse M ⊂ T• M
como un A-sub-bimódulo, la componente de grado uno.
El álgebra tensorial está caracterizada por la propiedad universal:

Teorema 4.12 Sea B una A-álgebra y ϕ : M → B un morfismo de A-bimódulos. Entonces existe


un único morfimo de A-álgebras ϕ̃ : T• M → B tal que ϕ̃|M = ϕ. Por tanto, la restricción a M
produce una biyección:
HomA−alg (T• M, B) = HomA (M, B).

Prueba. Basta definir ϕ̃(m1 ⊗ . . . ⊗ mn ) = ϕ(m1 ) · · · ϕ(mn ).

4.4. Módulos sobre anillos conmutativos


4.4.1. Anillos conmutativos
Sea, en adelante A un anillo14 conmutativo. Recordemos que un elemento de a de A es:
Una unidad si es invertible, es decir si hay un b ∈ A tal que ba = 1. En ese caso b es único y se
denota a−1 . El conjunto A× de las unidades de A forma un grupo abeliano con la operación
multiplicación.
Nilpotente si existe un n ∈ N tal que an = 0. El conjunto de los nilpotentes de A forma un
ideal rad(A) que se denomina el radical de A.
Divisor de 0 si existe un b 6= 0 tal que ab = 0.

Reducible si existen b, c ∈ A ninguno de ellos invertible, tal que a = bc. En otro caso se dice
que a es irreducible.
Divisor de b ∈ A si existe c ∈ A tal que ac = b, escribimos a|b.
14 recordamos que los anillos de este curso son siempre unitarios.

140
Recordamos que el anillo A es un cuerpo si todo elemento distinto de cero es una unidad, un
anillo integro si no contiene divisores de cero, y un anillo reducido si no contiene nilpotentes.
Dado que A es conmutativo no hay distinción entre los conceptos de ideal izquierdo, ideal derecho
o ideal bilátero. Por tanto nos referiremos a estos objetos como ideales. Dado un subconjunto
cualquiera de S ⊂ A denotamos por hSiA al ideal generado por S,
( )
X
hSi = ai bi | ai ∈ A, bi ∈ S
finita

Recordemos que un ideal I ( A es:


Principal si está generado por un solo elemento, es decir existe a ∈ A tal que haiA = I.
Notemos que para cualesquiera a, b ∈ A:

a|b ⇐⇒ hbiA ⊆ haiA .

Primo si y solo si verifica

∀a, b ∈ A (a 6∈ p y b 6∈ p) =⇒ ab 6∈ p

y esto ocurre si y solo si A/p es integro. Decimos que un elemento a ∈ A es primo si el ideal
haiA es primo. Los elementos primos están muy relacionados con los irreducibles. Es fácil
mostrar que en un anillo ı́ntegro todo elemento primo es irreducible.
Maximal si no está contenido en ningún otro ideal propio de A, y esto ocurre si y solo si A/I
es un cuerpo. Dado que todo cuerpo es un anillo ı́ntegro, tenemos que todo ideal maximal es
primo. Decimos que el anillo A es un anillo local si tiene un único ideal maximal m. En tal
caso, el cuerpo A/m se denomina cuerpo residual de A.
Radical si es intersección ideales primos. Es decir,
\
I= p.
I⊆p primo

Dado un ideal J ( A definimos el radical de J como el menor ideal radical que contiene a J.
Es decir, la intersección de todos los ideales primos que contienen a J.
\
rad(J) = p.
J⊆p primo

Denotemos por Ids(A) al conjunto de todos los ideales de A. Tiene mas relevancia el conjunto
de los ideales primos de A, que recibe el nombre de espectro primo de A y se denota por Spec(A).
El conjunto de los ideales maximales de A recibe el nombre de espectro maximal y se denota por
Specmx (A).
Specmx (A) ⊆ Spec(A) ⊆ Ids(A).
Se tiene, \
rad(A) = p.
p∈Spec(A)

141
Es decir, un elemento es nilpotente si y solo si está en todos los ideales primos. Como consecuencia
se tiene que un ideal I es radical si y solo si A/I es un anillo reducido. La intersección de todos los
ideales maximales de A recibe el nombre de radical de Jacobson.
\
J(A) = m.
m∈Specmx (A)

4.4.2. Módulos sobre anillos conmutativos


Sobre el anillo conmutativo A no hay distinción entre los conceptos de A-módulo izquierdo,
A-módulo derecho. Además todo A-módulo (derecho o izquierdo) es también un AA-bimódulo.
Por tanto nos referiremos a ellos simplemente como A-módulos y por convención interpretatemos
la operación de A por el lado izquierdo. Es decir, un A-módulo es un grupo abeliano M dotado de
una operación de A en M ,
A × M → M, (a, m) 7→ am.
Todo lo dicho acerca de módulos izquierdos, modulos derechos, y biḿodulos aplica a los A-módulos.

4.4.3. Módulos libres


En los módulos sobre anillos conmutativos se verifica el teorema de la base.

Teorema 4.13 Sea A un anillo conmutativo y L un A-módulo libre. Entonces todas las bases de
L tienen la misma cardinalidad.

Prueba. Por ejemplo Hungerford, pág. 186.

Estructura de módulo en el grupo de morfismos


Dados A-módulos M y N denotamos por HomA (M, N ) al grupo abeliano de los homomorfismos
de A-módulos15 . A diferencia del caso no-conmutativo, ahora es posible dotar a HomA (M, N ) de
una estructura natural de A-ódulo, definiendo para f ∈ HomA (M, N ) y a ∈ A,

(af )(m) = a(f (m)) ∀m ∈ M.

Baste observar que f : M → N es un morfismo de A-módulos y si Z es un tercer módulo entonces


los morfismos inducidos:

f∗ : HomA (Z, M ) → HomA (Z, N ) f ∗ : HomA (N, Z) → HomA (M, Z)

son morfismos de A-módulos.


Un importante resultado acerca de la estructura de módulos sobre anillos locales es el siguiente.
15 Dado que, por convención, colocamos la operación de A en el lado izquierdo, los morfismos de A-módulos son
morfismos de A-módulos izquierdos. Sin embargo, es indistinto definir estos homomorfismos como homomorfismos fr
A-módulos izquierdos, derechos o bimódulos, ya que no hay distinción.

142
Proposición 4.14 (Lema de Nakayama) Sea A es un anillo local de ideal maximal m. Sea M
un A-módulo finito generado. Entonces:

M =0 ⇐⇒ M = mM.

Prueba. Tomado del libro de Carlos y Pedro Sancho. Sea m1 , . . . , mr unP sistema generador de M
r
con el mı́nimo número posible de elementos.Pr Si mM = M entonces, m1 = i=1 ai mi con elementos
a1 , . . . , ar en m. Entonces (1 − a1 )n1 = i=2 ai mi . Como 1 − a1 es necesariamente una unidad,
tomando b1 = (1 − a1 )−1 ai para i = 2, . . . , r obtenemos:
r
X
m1 = bi mi
i=2

y por tanto m2 , . . . , mr es un sistema generador, lo que es una contradicción. El recı́proco es ele-


mental.

La consecuencia del lema de Nakayama es la siguiente. Sea A local y M un módulo finito-


generado. Un conjunto {m1 , . . . , mn } es un sistema generador de M si y solo si sus clases módulo
m, {m̄1 , . . . , m̄n } forman una base de M/mM .

Localización
Fijamos A un anillo conmutativo y M un A-módulo. Recordemos que a cada elemento m de
A se le asigna un ideal annA (m). De forma dual, a cada elemento a ∈ A se le puede asignar el
conjunto,
annM (a) = {m ∈ M | am = 0}.
Puede comprobarse con facilidad que annM (a) es un A-submódulo de M .

Definición 4.15 Un sistema multiplicativo S ⊂ A es un subconjunto de A que verifica las siguientes


tres condiciones:
(a) 1 ∈ S.
(b) Para cualesquiera s, s0 ∈ S se tiene ss0 ∈ S es decir S es cerrado por la multiplicación.
(c) 0 6∈ S.

Sea M un A-módulo y S un sistema multiplicativo. Queremos formar fracciones con numeradores


en M y denominadores en S. Las fracciones deben poder sumarse con la regla habitual:
m m0 s0 m + s0 m
+ 0 = ,
s s ss0
deben poder denominador si multiplicamos numerador y denominados por el mismo elemento de S,
m s0 m
= 0 .
s ss
Por tanto, si m es un elemento de M tal que hay un elemento de s0 ∈ S que hace s0 m = 0 entonces
cualquier fracción de la forma m
s debe interpretarse como 0. Eso nos lleva a una regla de comparación

143
de fracciones, que además del clásico “producto de medios igual al producto de extremos” incluye
esta última posibilidad:
m m0
= 0 ⇐⇒ ∃s00 ∈ S s00 (s0 m − sm0 ) = 0.
s s
Para formalizar esta idea, consideramos en el conjunto M × S la relación de equivalencia:

(m, s) ∼ (m0 , s0 ) ⇐⇒ ∃s00 ∈ S s00 (s0 m − sm0 ) = 0.


m
y denotamos por s a la clase de equivalencia de la pareja (m, s).
Llamamos módulo localizado M por S que denotamos por MS al conjunto de las fracciones de
M con denominadores en S, dotado de la estructura de A-módulo dada por:
m m0 s0 m + sm m am
+ 0 = , a = .
s s ss0 s s

Propiedades de la localización
La función `S : M → S −1 M , m 7→ m 1 se llama el morfismo de localización. Al ser S un sistema
multiplicativo se tiene que la unión de los ceros de los elementos de S es un submódulo.
[
ker(`S ) = annM (s).
s∈S

El A-módulo AS es además un anillo, dotado del producto,


a a0 a0
0
= 0.
ss s
El morfismo de localización `S : A → AS es un morfismo de anillos. La función induci-
da `∗S : Spec(AS ) → Spec(A) es una inmersión abierta que identifica homeomorficamente
Spec(AS ) con el conjunto US = {p ∈ Spec(A) | p ∩ S = ∅} de los ideales primos de A que
evitan al sistema multiplicativo S.
MS tiene estructura de AS -módulo tomando,
am am
0
= 0.
ss ss

Si tomamos
S0 = {a ∈ A | a no es un divisor de 0}
el anillo AS0 recibe el nombre de anillo de fracciones totales de A, frac(A). El morfismo de
localización A → frac(A) es inyectivo.
Si A es un anillo ı́ntegro16 entonces frac(A) es un cuerpo y recibe el nombre de cuerpo de
fracciones de A.
Si S y T son sistemas multiplicativos compatibles en el sentido de que S ∪ T es un sistema
multiplicativo, entonces la localización puede hacerse por etapas y se tiene (AS )`S (T ) ' AS∩T .
16 Sin divisores de cero.

144
La localización conmuta con el paso al cociente. Si S es un sistema multiplicativo y N ⊂ M
es un A-submódulo entonces MS /NS ' (M/N )S .
Notemos que para un ideal p ( A la diferencia A − p es un sistema multiplicativo si y solo si p
es un ideal primo. Para cada módulo M denotamos Mp a la localización de M por dicho sistema
multiplicativo: nm o
Mp = M(A−p) = | m ∈ M, s 6∈ p .
s
En particular, para la localización de un anillo en un ideal primo se tiene.

Localización de morfismos
Si f : M → N es un morfismo de A-módulos, para cada sistema multiplicativo S ⊂ A podemos
definir la localización de f ,
m f (m)
fS : S −1 M → S −1 N, 7→
s s
de tal manera que fS es un morfismo de AS -módulos.
Proposición 4.16 La localización de morfismos es compatible con núcleos e imágenes. Es decir,
para todo morfismo f de A-módulos ker(fS ) = (ker(f ))S y im(fS ) = (im(f )S .
Prueba. Veamos el caso del núcleo, el de la imagen lo dejamos como ejercicio al lector. Sea m
s ∈
f (m) 0 −1 0 0
ker(locS (f)). Entonces s = 1 en S N . Luego hay un elemento s ∈ S tal que s f (m) = 0 en N .
m s0 m
s0 f (m) = 0 =⇒ s0 m ∈ ker(f ) =⇒ = 0 ∈ S −1 ker(f ).
s ss

Corolario 4.17 Si
fk−2 fk−1 fk fk+1
. . . −−−→ Mk−1 −−−→ Mk −−→ Mk+1 −−−→ . . .
es una secuencia exacta de A-módulos, entonces para todo sistema multiplicativo S,
(fk−2 )S (fk−1 )S (fk )S (fk+1 )S
. . . −−−−−→ (Mk−1 )S −−−−−→ (Mk )S −−−→ (Mk+1 )S −−−−−→ . . .
es una secuencia exacta de S −1 A-módulos.
De ahı́ tenemos:
(M ∩ N )S ' MS ∩ NS
(M + N )S ' MS + NS
Lema 4.18 Sea M un A-módulo. condición necesaria y suficiente para que MS = {0} es que para
todo elemento m ∈ M , S ∩ annA (m) 6= ∅.
Prueba. Es consecuencia directa de la definición.

En particular, si M es finito generado, la condición necesaria y suficiente para que M = 0 es


que S ∩ annA (M ) 6= ∅. El Lema 4.18 tiene como consecuencia:

145
Lema 4.19 Sea M un A-módulo. condición necesaria y suficiente para que MS = {0} es que para
todo ideal propio I ( A exista un sistema multiplicativo S ⊂ A tal que I ∩ S = ∅ y S −1 M = 0.

Prueba. Hay que probar la suficiencia. Sea m ∈ M , hay que ver que m es necesariamente el elemen-
to cero. Razonemos como sigue. Para cada ideal propio I ( A tenemos un sistema multiplicativo
−1
S tal que m1 = 0 en S M . Por tanto hay un s ∈ S tal que sm = 0. Se sigue annA (m) 6⊂ I. Se
deduce que annA (m) no está contenido en ningún ideal propio de A, es decir annA (m) = A. Por
tanto m = 1m = 0.

Lema 4.20 Sean N1 y N2 dos A-submódulos de M . La condición necesaria y suficiente para que
N1 = N2 es que para todo ideal propio I ( A exista un sistema multiplicativo S ⊂ A tal que
I ∩ S = ∅ y S −1 N1 = S −1 N2 .

Prueba. Sea N3 = N1 ∩ N2 . Entonces N1 y N2 son iguales si y solo si N1 = N3 y N2 = N3 . Sea


M 0 = N1 /N3 . Por aplicación del Lema 4.19 obtenemos que N1 = N3 si y solo si para todo ideal
propio I ( A exista un sistema multiplicativo S ⊂ A tal que I ∩ S = ∅ y S −1 N1 = S −1 N3 . El
mismo argumento se aplica ahora a la igualdad entre N2 y N3 .

Teorema 4.21 Sea


fk−2 fk−1 fk fk+1
. . . −−−→ Mk−1 −−−→ Mk −−→ Mk+1 −−−→ . . . (4.7)
una secuencia de A-módulos. Suponga quepara todo ideal propio I ( A exista un sistema multipli-
cativo S ⊂ A tal que I ∩ S = ∅ y la secuencia
(fk−2 )S (fk−1 )S (fk )S (fk+1 )S
. . . −−−−−→ (Mk−1 )S −−−−−→ (Mk )S −−−→ (Mk+1 )S −−−−−→ . . .

es exacta. Entonces, la secuencia (4.7) es exacta.

Prueba. Es consecuencia directa del Lemma 4.20 aplicado a los núcleos e imágenes de los morfis-
mos.

4.4.4. Producto tensorial sobre anillos conmutativos


Recordemos las propiedades del producto tensorial de bimódulos. Dado que los A-módulos tienen
una estructura canónica de A-bimódulos, entonces tenemos que el producto tensorial M ⊗ N de
A-módulos es un A-módulo, donde:

a(m ⊗ n) = am ⊗ n = m ⊗ an.

además de todas las relaciones de balanceo anteriormente consideradas. En este sentido, la fórmula
de adjunción:
HomA (M ⊗A N, W ) ' HomA (M, HomA (N, W ))
no es solamente un morfismo de grupos abelianos sino también de A-módulos.
Otra propiedad destacada del producto tensorial de A-módulos (sobre anillos conmutativos) es
la compatibilidad entre el producto tensorial, la localización y el paso al cociente.

146
Teorema 4.22 Sean I un ideal de A, S un sistema multiplicativo en A y M un A-módulo. Los
morfismos,

i : A/I ⊗A M −−→ M/IM, (a + I) ⊗ m 7→ am + IM
∼ a am
j : AS ⊗A M −−→ MS , ⊗ m 7→
s s
son isomorfismos.

Prueba. Pendiente

4.4.5. El álgebra exterior


Sea M un A-módulo, consideramos T• M el álgebra tensorial generada por M . Se define el algebra
exterior de M como el cociente:

ΛM = T• M/H
donde K es el ideal bilátero de T• M generado por los elementos de la forma m ⊗ m. La operación
producto en ΛM , inducida por el producto tensorial, se denomina producto cuña ∧.
Dado que el ideal K es homogéneo,

M
K= Hr , Hr = H ∩ Tr M,
r=0

el álgebra exterior es una álgebra graduada,



M
ΛM = Λr M, Λr M = Tr M/Hr
r=0

y el producto cuña es una operación graduada:

∧ : Λr M × Λs M → Λr+s M.

Las componentes de grado 0 y 1 son necesariamente Λ0 M = A, Λ1 M = M .

(a) Si a tiene grado 0 entonces para todo b ∈ ΛM , a ∧ b = ab.


(b) Si ap y bq son elementos homogéneos de grados p y q respectivamente,

ap ∧ bq = (−1)pq bq ∧ aq ;

por esta propiedad se dice que el producto cuña es anti-conmutativo graduado.


(c) Si los a1 , . . . an elementos de M y σ ∈ Sn es una permutación,

a1 ∧ . . . ∧ an = (−1)σ aσ(1) ∧ . . . ∧ aσ(n) .

(d) Si a es un elemento de M .
a ∧ a = 0.

147
Proposición 4.23 Sea ϕ : M → B un morfismo de A-módulos de M en una A-álgebra tal que para
todo m ∈ M se tiene ϕ(m)2 = 0. Entonces, existe un único morfismo de A-álgebras,

ϕ̃ : ΛM → B

tal que ϕ̃|M = ϕ.

Prueba.

4.4.6. El álgebra simétrica


Sea M un A-módulo, consideramos T• M el álgebra tensorial generada por M . Se define el algebra
smétrica de M como el cociente:

A[M ] = T• M/K
donde K es el ideal bilátero de T• M generado por los elementos de la forma α ⊗ β − β ⊗ α. La
operación producto en ΛM , inducida por el producto tensorial, se denomina producto simétrico.
El álgebra simétrica es, por definición, un álgebra conmutativa y graduada. Además, si M es
el módulo libre generado por elementos x1 , . . . , xn entonces A[M ] = A[x1 , . . . , xn ]. En ese sentido
podemos decir que A[M ] es el anillo de polinomios con coeficientes en A y variables en M .

Proposición 4.24 Sea ϕ : M → B un morfismo de A-módulos de M en una A-álgebra conmutati-


va. Entonces, existe un único morfismo de A-álgebras,

ϕ̃ : A[M ] → B

tal que ϕ̃|M = ϕ.

Prueba.

4.4.7. Dominios de ideales principales


Un anillo euclı́deo es un anillo ı́ntegro en el que hay división entera. Es decir, hay una noción
de valor absoluto:
| | : A → N ∩ {−∞}
que toma un valor mı́nimo absoluto en 0A con la propiedad de que para todo pareja de elementos
x, y se tiene
|xy| ≤ |x||y|,
y existen q y r tales que,
y = xq + r
con |r| < |x|.
Un dominio de factorización única es un anillo ı́ntegro en que todo elemento se escribe de
forma única (salvo orden y multiplicación por unidades) como producto de elementos irreducibles.

148
En los anillos euclı́deos puede realizarse el algoritmo de Euclides y por tanto son dominios de
factorización única. Un dominio de ideales principales es un anillo ı́ntegro donde todo ideal es
principal. Los dominios de factorización única son dominios de ideales principales. Los dominios de
ideales principales son, evidentemente, noetherianos.
En un dominio A de ideales principales, cada ideal tiene un generador que es único, salvo
multiplicación por unidades en A× . Dados dos elementos a, b ∈ A llamamos máximo común divisor
mcd(a, b) a cualquier generador de ha, biA . y mı́nimo común múltiplo al generador de haiA ∩ hbiA .
El máximo común divisor y el minimo común múltiplo están definidos salvo multiplicación por una
unidad.
Proposición 4.25 En un dominio de ideales principales todo elemento irreducible es primo. Además,
para todo irreducible p el ideal hpiA es maximal.
Prueba. Sea p un elemento irreducible. Es sencillo comprobar que el ideal hpiA es maximal, luego
primo. Por tanto p es primo.

Por tanto, los ideales primos de A son h0iA , que es un primo minimal, y los generados por los
elementos irreducibles hpiA , que son ideales primos y maximales.

4.4.8. Módulos sobre dominios de ideales principales


Otra propiedad interesante es que, cuando el anillo A es un dominio de ideales principales,
entonces todo submódulo de un módulo libre es también libre y de rango libre menor.
Lema 4.26 Sea L ( An un submódulo. Entonces L es libre y de rango libre menor que n.
Prueba. Por ejemplo Hungerford, T6.1 pág 218.

Lema 4.27 Si M es un módulo finito generado libre de torsión, entonces M es libre y su rango
libre coincide con su rango.
Prueba. Hungerford, T6.5 pág 221.

Sea M un módulo finito generado de rango n. Dado que A es noetheriano M es de presentación


finita, y M puede escribirse como conúcleo de un morfismo entre dos A-módulos libres de rango
exactamente n.
f π
An −→ An − →M →0
El morfismo f es A-lineal y (eligiendo representar los elementos de An por columnas) esta repre-
sentado por una matriz [fij ].
Podemos realizar cambios de base en An , de manera que obtenemos presentaciones diferentes
de M . De esta manera si ψ y ψ son dos automorfismos de An entonces f˜ = ψ −1 ◦ f ◦ φ es otra
nueva presentación del módulo M .

An / An
π̃
φ ψ
  !
An
f
/ An π /M

149
De esta manera, clasificar los módulos de presentación finita de rango n es equivalente a clasificar
los endomorfismos de An por la acción de AutA (An ) × AutA (An ), y esto es escoger una forma
canónica para cada presentación.
Si nos restrigimos a isomorfismos elementales de An , esto es, que corresponden a
(i) Intercambiar dos componentes.
(ii) Agregar a una componente un múltiplo de otra.

vemos que estos afectan a la matriz [fij ] mediante las operaciones elementales de matriz por filas o
por columnas:
(a) Intercambiar dos filas.
(c) Agregar a una fila un múltiplo de otra.

(d) Intercambiar dos columnas.


(e) Agregar a una fila un múltiplo de otra.
Ahora, sea φ1 el m.c.d. de los elementos de la matriz [fij ]. Puede mostrarse que mediante
operaciones elementales de matriz es posible reducir [fij ] a una matriz de la forma:
 
φ1 0 ... 0
 0 f˜22 ... f˜2n 
[fij ] = [f˜ij ] = 
 
.. .. .. .. 
 . . . . 
0 ˜
fn2 ... ˜
fnn

Donde φ1 es un divisor de todos los f˜ij . Reiterando el proceso, obtenemos una matriz, que se
denomina la forma canónica de Smith de [fij ].
 
φ1 0 . . . 0
 0 φ2 . . . 0 
Φ= .
 
.. . . ..
 ..

. . . 
0 0 ... φn
Donde φ1 |φ2 | . . . |φn y el módulo M descompone como suma de módulos cı́clicos:

M = A/hφ1 iA ⊕ . . . ⊕ A/hφn iA .

Los elementos φ1 |φ2 | . . . |φn , están definidos salvo unidades de A, y reciben el nombre de factores
invariantes. Es claro que dos módulos M y N son isomorfos si y solo si les corresponden los mismos
factores invariantes.

150
Bibliografı́a

[1] Thomas W. Hungerford. Algebra. Graduate Texts in Mathematics 73. Springer Verlag, 1974.
[2] Serge Lang. Algebra. Graduate Texts in Mathematics 211. Springer Verlag, 2002.

[3] Alexei I. Kostrikin y Yu I. Manin. Linear Algebra and geometry. Gordon and Breach science
publishers, 1997.
[4] Carlos Sancho y Pedro Sancho. Algebra Conmutativa. Colección Manuales UEX, 2013.

[5] Igor R. Shafarevich y Alexey O. Remizov. Linear Algebra and geometry. Springer Verlag, 2013.
[6] Regino Martı́nez-Chavanz. Álgebra multilineal. Editorial UdeA, 2006.

151

También podría gustarte