Documentos de Académico
Documentos de Profesional
Documentos de Cultura
David Blázquez-Sanz
Semestre 2021-02
Índice general
1. Espacios vectoriales 5
1.1. Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1. El cuerpo base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2. Espacio vectorial: definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3. K-álgebras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.4. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.5. Generadores, bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.6. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.7. ¿Qué pasa con los A-módulos? . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.8. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.9. Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.10. Suma e intersección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.11. Subvariedades lineales afines y cocientes . . . . . . . . . . . . . . . . . . . . . 17
1.1.12. Restricción de escalares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.1. Categorı́as . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.2. Matrices con coeficientes en K . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.3. Transformaciones lineales: definición y ejemplos . . . . . . . . . . . . . . . . . 22
1.2.4. Matriz de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . 25
1.2.5. Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2.6. Secuencias exactas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.3. Espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.3.1. Reflexividad y fórmulas de dualidad . . . . . . . . . . . . . . . . . . . . . . . 33
1.3.2. El espacio incidente o anulador . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.3.3. La transformación transpuesta . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.4. Sumas, productos, lı́mites directos e inversos . . . . . . . . . . . . . . . . . . . . . . 40
1.4.1. Producto directo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.4.2. Suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.4.3. Limı́tes dirigidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.4.4. Lı́mites inversos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.5. Variedades Grassmanianas y espacios proyectivos . . . . . . . . . . . . . . . . . . . . 42
1.5.1. Transformaciones inducidas entre las variedades Grassmanianas . . . . . . . . 42
1.5.2. Espacio proyectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.5.3. Coordenadas homogéneas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1
1.5.4. Descomposición del espacio proyectivo . . . . . . . . . . . . . . . . . . . . . . 46
1.5.5. Subvariedades lineales del espacio proyectivo . . . . . . . . . . . . . . . . . . 46
1.5.6. Homogeneización y deshomogeneización . . . . . . . . . . . . . . . . . . . . . 47
1.5.7. Fórmula de la dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
1.5.8. Coordenadas pluckerianas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
1.5.9. Dualidad proyectiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.6. El grupo lineal, afı́n y proyectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1.6.1. Transformaciones afines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1.6.2. Transformaciones proyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
1.6.3. La razón doble o cruzada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2
3.2.7. Teoremas de descomposición . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.2.8. Divisores elementales y factores invariantes . . . . . . . . . . . . . . . . . . . 97
3.2.9. Forma racional de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.2.10. Forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3. Clasificación de tensores métricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.3.1. Suma ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.3.2. Polaridad y radical . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.3.3. Métricas alternantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.3.4. Métricas simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.3.5. Métricas simétricas en cuerpos cerrados por la raı́z cuadrada . . . . . . . . . 105
3.3.6. Métricas simétricas reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.4. Teorema de descomposición espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.4.1. Estructura compleja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.4.2. Formas lineales y antilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
3.4.3. Formas sesquilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.4.4. Producto hermitiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.4.5. Descomposición ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.4.6. El grupo unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.4.7. Operadores auto-adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.4.8. Teorema de descomposición espectral . . . . . . . . . . . . . . . . . . . . . . . 115
3
4.4.8. Módulos sobre dominios de ideales principales . . . . . . . . . . . . . . . . . . 149
4
Capı́tulo 1
Espacios vectoriales
5
En álgebra lineal michı́simos resultados no dependen del cuerpo base. Es decir, podemos olvi-
darnos de qué es el cuerpo K y nos basta suponer que se trata de un cuerpo cualquiera.
E × E → E, (e, v) 7→ e + v,
(viii) 1v = v.
Los axiomas de espacio vectorial tienen una serie de implicaciones elementales como 0v = 0 y
(−1)v = −v para todo v ∈ E.
Ejemplo 1.2 Sea X un conjunto cualquiera y sea KX el conjunto de las funciones con dominio
X y codiminio K. Puede definirse la suma y el producto por escalares de funciones f, g : X → K,
λ ∈ K,
(f + g)(x) = f (x) + g(x), (λf )(x) = λ(f (x))
de esta manera KX es un espacio vectorial.
Ejemplo 1.4 Sea X un conjunto. Llamamos una combinación lineal formal con coeficientes en K
de elementos de X a toda suma finita de la forma,
X
λi {xi }
finita
6
donde los escalares λi están en K y los elementos xi son todos elementos diferentes de X. Dos
combinaciones lineales formales pueden sumarse y multiplicarse por escalares de forma obvia, agru-
pando coeficientes de elementos iguales de X. De esta manera, el conjunto de las combinaciones
lineales formales ( )
X
FreeK (X) = λi {xi } | λi ∈ K, xi ∈ X
finita
es un espacio vectorial. El espacio libre generado por X. Observemos que es necesario considerar
una combinación formal nula 0 que no tiene ningún coeficiente.
M × M → M, (e, v) 7→ e + v,
7
recibe el nombre de A-módulo. Es claro que en el caso particular en el que A es un cuerpo, A-
módulo significa lo mismo que A-espacio vectorial. Pero veremos que hay muchı́simos ejemplos muy
interesantes de módulos sobre anillos que no son cuerpos.
Ejemplo 1.7 Todo grupo abeliano admite una única estructura de Z-módulo. Sea M un grupo abe-
liano con la operación interna suma “+”. De las axiomas de Z-módulo tenemos que para cualquier
e ∈ M se tiene:
1e = e.
(1 + 0)e = e + 0e, de donde 0e = 0 ∈ M .
0 = (1 + (−1))e = e + (−1)e = 0 y por tanto (−1)e = −e.
Lo anterior debe ser cierto en cualquier posible estructura de Z módulo. Pero la propiedad distri-
butiva, ya nos permite definir el producto escalar de cualquier entero m por el elemento e. Veamos,
si m es un entero positivo, entonces:
me = (1 + . . . + 1)e = e + . . . + e .
| {z } | {z }
m veces m veces
Ésta es la única manera posible de multiplicar enteros por elementos de un grupo abeliado. Por
tanto, todo grupo abeliano es un Z-módulo de una única y natural manera, y recı́procamente, por
definición todo Z-módulo es un grupo abeliano.
Ojo, que cualquier espacio vectorial, si nos olvidamos del cuerpo K, es también un Z-módulo.
1.1.3. K-álgebras
En muchas ocasiones, los espacios vectoriales que aparecerán en el desarrollo del curso, tienen
una estructura adicional.
8
(d) El anillo de series de potencias convergentes C{{z}} con coeficientes complejos.
(e) El anillo de funciones suaves C ∞ (U, R) con U ⊆ Rn .
(f ) El anillo de matrices cuadradas Mat(n×n, K). Un elementos a de K se interpretan en Mat(n×
n, K) como un múltiplo de la matriz identidad aIn .
9
Proposición 1.12 hSiK es el menor subespacio vectorial de E que contiene a S.
Dos propiedades elementales, e importantes, del espacio vectorial generado son las siguientes.
Para cualesquiera S, S 0 ⊆ E se tiene:
entonces tenemos que b1 es combianción lineal de otros elementos de B y por tanto B − {b1 } es un
sistema de generadores, lo que contradice la minimalidad. Por tanto B es L.I. y dado que genera E
es maximal.
La equivalencia (a) ⇐⇒ (c) se deja como ejercicio al lector.
Ejercicio 2 Muestre la equivalencia entre los puntos (a) y (c) de la Proposición 1.14. Puede su-
poner que la equivalencia entre los puntos (a) y (b) ya ha sido demostrada.
10
En cualquiera de estos casos equivalentes diremos que B es una base de E. Notese que B es una
base de E si y solo si el morfismo de valuación en E,
X X
vB : FreeK (B) → E, λi {bi } → λi bi
finita finita
es biyectivo. La existencia de bases, y los siguientes lemas, están asegurados por el lema de Zorn.
Prueba. Mostremos en primer lugar que toda cadena de conjuntos L.I. tiene una cota superior L.I.
Sea entonces AiI una cadena de conjuntos L.I. en E. Es decir, una familia de subconjuntos L.I. de
E con ı́ndicesSen un conjunto totalmente ordenado I y tal que Ai ⊆ Aj para i < j.
Sea A = ı∈I Ai . Sea,
λ1 e1 + . . . λn en = 0
una combinación lineal de elementos de A. Entonces, necesariamente hay un i ∈ I tal que
{e1 , . . . , en } ⊆ Ai . Como Ai es L.I. deducimos que la combinación es trivial.
(a) Consideremos ahora L un conjunto L.I. y sea F la familia de subconjuntos de E cuyos
miembros son los conjuntos L.I. que contienen a L. Por el argumento anteior, toda cadena en F
tiene cota superior. Por el lema de Zorn F contiene elementos maximales, que son bases de E.
(b) Consideremos ahora S un sistema de generadores y sea F la familia de subconjuntos de E
cuyos miembros son conjuntos L.I. contenidos en S. De nuevo F tiene elementos maximales, sea B
uno de ellos. Cualquier elemento de S depende linealmente de los elementos de B es decir, S ⊆ hBiK
y por tanto hBiK = E.
1.1.6. Dimensión
Teorema 1.16 (de la base o de la dimensión) Todas las bases de un espacio vectorial tienen
la misma cardinalidad.
Tal cardinalidad se llama la dimensión del espacio, que denotamos por dim E o dimK E cuando
sea necesario especificar el cuerpo base K. La prueba del teorema de la base puede facilmente
reducirse al siguiente lema.
Lema 1.17 Sea L un conjunto linealmente independiente y sea S un sistema de generadores, en-
tonces |L| ≤ |S|.
La prueba sigue dos argumentos diferentes en el caso de que los conjuntos en cuestión sean
finitos o infinitos. Si S es finito entonces es resultado se sigue inmediatamente del conocido lema de
intercambio de Steinitz.
11
Lema 1.18 (de intercambio de Steinitz) Suponga que L = {v1 , . . . , vn } es L.I. y
S = {w1 , . . . , wm } es un sistema de generadores. Entonces m ≤ n y reordenando S si es preci-
so se tiene que S 0 = {v1 , . . . , vn , wn+1 , . . . , wm } es un sistema de generadores.
Pm
Prueba. Como S genera E podemos escribir v1 = j=1 µ1j wj . Como v1 6= 0 alguno de estos
coeficientes tiene que ser distinto de cero. Reordenando S si es necesario podemos suponer µ11 6= 0.
Pero en ese caso:
m
1 X µ1j
w1 = v1 − wj .
µ11 µ
j=2 11
Esto prueba que w1 ∈ hv1 , w2 , . . . , wm iK y por tanto, este es un sistema de generadores. Los si-
guientes reemplazos se realizan por inducción completa.
Supongamos que tenemos que {v1 . . . , vk , wk+1 , . . . , wm } (con cierto posible reordenamiento) es
un sistema de generadores. Veamos que podemos substituir alguno de los wk+j por vk+1 . Escribimos,
de nuevo,
X k X m
vk+1 = µk+1,j vj + µk+1,j wj .
j=1 j=k+1
Por ser {v1 , . . . , vk+1 } L.I., alguno de los coeficientes µk+1,j debe ser distinto de cero. Reordenando
si es necesario, supongmos µk+1,+1 6= 0. Tenemos entonces,
k k
X µk+1,j 1 X µk+1,j
wk+1 = − vj + vk+1 − wj
µ
j=1 k+1,k+1
µk+k,k+1 µk+1,k+1
j=k+2
Concluyamos la prueba del Lema 1.17. Supongamos que S es infinito. Si L es finito, el lema es
cierto, luego supongamos que L es a su vez infinito. Entonces consideramos L0 una base que contiene
a L. Cada elemento v ∈ S puede escribirse como una combinación lineal finita de elementos de L0 .
Consideremos para cada v ∈ S el conjunto finito L0 (v) de elementos de la base L0 que aparecen en
la descomposición de v sobre la base L0 . Entonces,
[
L00 = L0 (v).
v∈S
Debe ser |L00 | ≤ |S| pues cada L0 (v) es finito y por tanto la cardinalidad de L00 no puede exceder
a la de S. Por otro lado hL00 iK contiene a S y por tanto L00 es un sistema de generadores. Por la
minimalidad de L0 tenemos L0 = L00 y como L ⊂ L0 tenemos |L| ≤ |L0 | ≤ |S|, como queriamos
demostrar.
Una consecuencia del teorema de la base es el siguiente.
Proposición 1.19 Suponga dimK (E) < ∞ entonces para todo subespacio propio V ⊂ E se tiene
dimK (V ) < dimK (E).
12
1.1.7. ¿Qué pasa con los A-módulos?
Uno de los motivos por los que los espacios vectoriales son mucho más sencillos de estudiar que
los módulos es la noción de dimensión y el teorema de la base. Si M es un A-módulo, podemos
hablar de:
1.1.8. Coordenadas
Sea B una base de E. Entonces, por la definición de base, todo elemento e de E puede escribirse
de forma única como combinación lineal de los elementos de la base. A cada elemento b ∈ B le
podemos asignar una función:
X
b∗ : E → K, v 7→ coeficiente de b en la descomposición v = λj bj .
j
λn
El vector columna b̄∗ (v) = [ v ]b̄ recibe el nombre de vector de coordenadas de v en la base {b1 , . . . , bn }.2
2 Nótese que hay un abuso de lenguaje. Para definir el vector de coordenadas hace falta, además de la base, un
13
Ejercicio 4 Sea δj la secuencia en K cuyo j-ésimo término es 1, y todos los demas son 0. Es decir,
δ1 = [1, 0, 0, 0, . . .]
δ2 = [0, 1, 0, 0, . . .]
δ3 = [0, 0, 1, 0, . . .]
...
Considere Sec(K) el espacio de todas las secuencias en K y Sec0 (K) es espacio el espacio de las
secuencias en eventualmente nulas,
Se sigue también que A es una matriz invertible –pues la inversa de A expresa ē∗ en función de ū∗ –.
Decimos que A es la matriz de cambio de base.
14
1.1.10. Suma e intersección
Definición 1.20 Sean V y V 0 subespacios de E. El espacio hV ∪ V 0 iK recibe el nombre del espacio
suma V + V 0 .
v = v1 + v2
con v1 ∈ V1 y v2 ∈ V2 .
Prueba. Supongamos que V1 y V2 están en suma directa. Por definición, hay al menos una manera
de descomponer v como suma de vectores de V1 y V2 . Supongamos que hay dos.
v = v1 + v2 = v10 + v20 .
Entonces v1 − v10 y v2 − v20 están en V1 ∩ V2 y por tanto se anulan. Luego v1 = v10 y v2 = v20 . El
recı́proco sigue un argumento similar y se deja como ejercicio.
Se dice que los subespacios V y V 0 son suplementarios en E si están en suma directa y además
V + V 0 = E. En tal caso escribimos V ⊕ V 0 = E.
Ejercicio 6 Sea C(R) es espacio vectorial de las funciones continuas reales de variable real. Muestre
que toda función puede escribirse de una única manera como la suma de una función par y una
función impar. Relacione esta cuestión con la descomposición del espacio C(R) como suma directa
de dos subespacios. ¿Sucede el mismo hecho en una situación más general?
15
La diferencia de esas combinaciones lineales nos da una combinación lineal nula de elementos de B.
Por la independencia lineal de B se tiene que todos los λi y µj son nulos. Por tanto u = 0.
También puede definirse la suma de una familia {Vi }i∈I como el menor subespacio que contiene
a todos ellos, * +
X [
Vi = Vi .
i∈I ∈I K
Decimos que los miembros de la familia {Vi }i∈I se encuentran en suma directa si cada uno de ellos
está en suma directa con la suma de los demás. En tal caso usamos la notación:
X M
Vi = Vi .
i∈I i∈I
P
Ejercicio 7 Sea {Vi }i∈I una familia de subespacios de E tal que i∈I Vi = E. Muestre que la
familia se encuentra en suma directa si y solo si cada vector e ∈ E puede escribirse de un modo
único como una suma finita3 X
e= vi
i∈I
con vi ∈ Vi
Prueba. Tomemos una base {u1 , . . . , uk } de V ∩ V 0 . Por el lema de extensión, podemos extenderla
a bases {u1 , . . . , uk , e1 , . . . , er } de V y {u1 , . . . , uk , e01 , . . . , e0s } de V 0 . La demostración del lema se
reduce a verificar que {u1 , . . . , uk , e1 , . . . , er , e01 , . . . , e0s } es una base de V + V 0 .
En primer lugar veamos que es un sistema generador. Si e ∈ V + V 0 entonces e = v + v 0 con
v ∈ V y v 0 ∈ V 0 . Ahora, podemos escribir v como combinación lineal de {u1 , . . . , uk , e1 , . . . , er } y
v 0 como combinación lineal de {u1 , . . . , um , e01 , . . . , e0s }. Al sumar ambas combinaciones, obtenemos
una expresión de e como combinación lineal de {u1 , . . . , uk , e1 , . . . , er , e01 , . . . , e0s }.
Veamos ahora que son linealmente independientes. Consideremos una combinación lineal igual
a cero, X X X
αi ui + β j ej + γk e0j = 0.
i j k
16
y por la independencia lineal de estos vectores tenemos que los coeficientes γk son todos nulos. El
mismo argumento, intercambiando los papeles de e y e0 prueba que los coeficientes βj son todos
nulos. Finalmente, por la independencia lineal de {u1 , . . . , um } tenemos que los coeficientes restan-
tes αi son también nulos.
A × E → A, (x, e) → x + e,
libre y transitivamente. Esto implica que si fijamos un elemento x0 ∈ A la acción induce una
biyección,
∼
E− → A, e 7→ x0 + e.
Un espacio vectorial E es, en si mismo, también una variedad lineal afı́n de espacio director E.
Además E contiene subvariedades lineales afines cuyos espacios directores son subespacios de E. Sea
V un subespacio vectorial de E, y v0 ∈ E. Un conjunto de la forma, A = v0 + V = {v0 + s | s ∈ V }
es una subvariedad lineal afı́n de E con espacio director V . Cualquier punto de A puede escogerse,
en lugar de v0 , como punto inicial.
Dos subvariedades lineales afines de E se dicen paralelas si el espacio director de una está
contenido en el espacio director de la otra.
Ejercicio 9 Sean A1 y A2 dos subvariedades lineales afines paralelas de E. Muestre que o bien una
de ellas está contenida en la otra o bien A1 ∩ A2 = ∅.
Ejemplo 1.25 Una subvariedad lineal afı́n k-dimensional en Kn puede ser siempre descrita como
el conjunto de soluciones de un sistema de ecuaciones lineales no homogéneas compatible,
aj1 x1 + . . . ajn xn = bj , j = 1, . . . , n − k.
aj1 x1 + . . . ajn xn = 0, j = 1, . . . , n − k.
17
Ejercicio 11 Muestre que la intersección de una familia de subvariedades lineales afines de un
espacio vectorial E, si no es vacı́a, es una subvariedad lineal afı́n. Deduzca que para cualquier
conjunto X ⊂ E existe la menor subvariedad lineal afı́n que contiene a X.
Ejercicio 12 Sean A1 = v1 + V1 y A2 = v2 + V2 dos subvariedades lineales afines de E.
(a) Muestre que v1 + (V1 + V2 + hv2 − v1 iK ) es la subvariedad lineal afı́n de E más pequeña que
contiene a A1 ∪ A2 .
(b) Suponga que A1 , A2 tiene dimensiones m y n respectivamente. ¿Que dimensiones puede tener
la menor variedad afı́n que contiene a A1 ∪ A2 ?
Ejercicio 13 Sean (A1 , A2 ) y (B1 , B2 ) dos parejas de subvariedades lineales afines de E con
dim A1 = dim B1 y dim A2 = dim B2 . Decimos que (A1 , A2 ) y (B1 , B2 ) están en la misma po-
sición relativa si dim(A1 ∩ A2 ) = dim(B1 ∩ B2 ) y la dimensión de la menor subvariedad lineal
afı́n que contiene a A1 ∪ A2 es igual a la dimensión de la menor subvariedad afı́n que contiene a
B1 ∪ B2 . ¿En cuantas posiciones relativas diferentes pueden estar dos rectas en el plano K2 ? ¿Dos
rectas en el espacio K3 ?¿Dos rectas en un espacio de dimensión infinita?¿Y una recta y un plano
en el espacio K3 ?¿Y dos planos en un espacio de dimensión infinita?
El subespacio vectorial S ⊂ E define una relación de equivalencia ∼ en E, donde e ∼ v ⇔
e − v ∈ S. Las clases de equivalencia son conjuntos de la forma v0 + S = {v0 + s | s ∈ S}. Es decir,
las clases de equivalencia son las subvariedades lineales afines cuyo espacio director es S.
Definición 1.26 Este conjunto de clases de equivalencia E/ ∼ se llama espacio cociente por S y
se denota por E/S. El espacio cociente E/S está dotado de una estructura de espacio vectorial,
(e + S) + (v + S) = (e + v) + S, λ(e + S) = λe + S.
También mediante el teorema de la base es sencillo calcular la dimensión. En general, si E tiene
dimensión finita,
dimK (E/S) = dimK (E) − dimK (S).
La dimensión de E/S se llama la codimensión de S en E. Los subespacios de codimensión 1 de un
espacio vectorial se llaman hiperplanos.
Ejercicio 14 Siguiendo con la notación del Ejercicio 4, muestre que el espacio cociente Sec(K)/Sec0 (K)
no tiene dimensión finita.
18
Prueba. Sea A = {a1 , . . . , ag } y B = e1 , . . . , en . Veamos que,
AB = {ai ej | i = 1, . . . , g, j = 1, . . . , n}
es una base de E como F-espacio vectorial.
En primer lugar veamos que es un sistema de generadores. Sea e ∈ E, se tiene una descomposi-
ción sobre la base
Xn
e= λj ej
j=1
Para cada j supongamos E 0 el espacio vectorial generado por todos los elementos de B excepto ej .
Entonces ēj = ej + E 0 es una base de E/E 0 , que tiene dimensión 1. Tenemos,
g
X g,n
X
µij ai ej = − µik ai ek ∈ E 0
i=1 i,k6=j
Pg Pg
luego
Pg µij ai ēj = 0. Sacando factor común tenemos ( i=1 ai µij ) ēj = 0 y como ēj 6= 0,
i=1
i=1 ai µij = 0. Por la independencia lineal de A tenemos que los coeficientes µij se anulan.
19
(c) Para cualquier terna de objetos A, B, C un operador de composición,
verificando:
f ◦ (g ◦ h) = (f ◦ g) ◦ h.
(ii) Para cada objeto A hay un elemento IdA ∈ HomC (A, A) tal que siempre que se pueda
componer, se tiene:
f ◦ IdA = f, IdA ◦ g = g.
Los morfismos se representan gráficamente mediante flechas. Si f ∈ HomC (A, B) entonces escri-
f
bimos A −−→ B. Esto nos permite dibujar diagramas conmutativos, que son diagramas en los cuales
pueden componerse las flechas por diferentes caminos obteniendo el mismo resultado.
Las categorı́as pueden transformarse de forma compatible con la composición y por tanto con
el los diagramas conmutativos. Algunas transformaciones convervan la dirección de las flechas (co-
variantes) otras las invierten (contravariantes). Consideremos dos categorı́as C y D
f
Un morfismo A −−→ B es un isomorfismo si tiene inverso por la derecha y por la izquierda, es
g
decir si hay un B −−→ A tal que f ◦g = IdB y g ◦f = IdA . En tal caso g está determinado únicamente
−1
y se denomina f , el inverso de f . Dos objetos A, B se dicen isomorfos si hay un isomorfismo entre
ellos. Los isomorfismos de un objeto A en si mismo forman un grupo que se denomina AutC (A). Una
categorı́a donde todo morfismo es un isomorfismo se llama un grupoide. Toda categorı́a C contiene
un grupoide Cisom cuyos objetos son los mismos de C y cuyos morfismos son los isomorfismos de C.
Una transformación natural o functor covariante F : C D consiste en una pareja de funciones
que denotamos por el mismo nombre,
vefificando:
(i) Para todo f ∈ HomC se tiene dom(F (f )) = F (dom(f )) y cod(F (f )) = F (cod(f )).
(ii) F envı́a la composición en la composición: F (f ◦ h) = F (f ) ◦ F (h).
vefificando:
(i) Para todo f ∈ HomC se tiene dom(F (f )) = F (cod(f )) y cod(F (f )) = F (dom(f )).
20
1.2.2. Matrices con coeficientes en K
Antes de desarrollar el tema de las transformaciones lineales, revisitemos nuestro conocimiento
acerca de las matrices con coeficientes en K.Consideramos Mat(m×n, K) el conjunto de las matrices
m × n con coeficientes en K. En el curso de álgebra lineal definimos la suma de matrices,
K × Mat(m × n, K) → Mat(m × n, K)
a11 . . . a1n λa11 . . . λa1n
λ ... .. .. = .. .. ..
,
. . . . .
am1 . . . amn λam1 . . . λamn
Lo que hace que Mat(m × n, K) sea también un espacio vectorial. Pero además las matrices tienen
una estructura multiplicativa, tenemos el producto de matrices,
21
(ii) Si fijamos n, entonces Mat(n × n, K) es un anillo (no-conmutativo si n > 1) con unidad. Este
anillo Mat(n×n, K) contiene a K como subanillo, si identificamos cada escalar λ con la matriz
diagonal λIn ,
K ,→ Mat(n × n, K), λ 7→ λIn ,
y por tanto es lo que se denomina una K-álgebra.
Hay dos mapas destacados, el determinante y la traza,
det, tr : Mat(n × n, K) → K,
X n
X
det(A) = (−1)σ a1σ(1) · · · anσ(n) , tr(A) = aii .
σ∈Sn i=1
cuyas propiedades básicas fueron estudiadas en el curso de álgebra lineal. Cabe destacar,
Además el grupo multiplicativo de los elementos invertibles de Mat(n × n, K), que denotamos por
GL(n, K) esta constituido por las matrices cuyo determinante es distinto de cero, pues:
1
A−1 = (A0 )T
det(A)
columnas de A.
22
Ejemplo 1.30 Sean V1 y V2 dos subespacios suplementarios en V . Entonces, todo elementos v ∈ V
puede descomponerse de forma única como suma v = v1 + v2 con v1 ∈ V1 y v2 ∈ V2 . La función
π1 : V → V1 que asigna a cada vector v su componente v1 es una transformación lineal sobreyectiva.
Lo mismo para π2 : V → V2 . De la descomposición única tenemos que la transformación,
(π1 , π2 ) : V = V1 ⊕ V2 → V1 × V2 , v = v1 + v2 7→ (v1 , v2 )
es un isomorfismo de espacios vectoriales.
Ejemplo 1.31 Sea B una base de E, entonces para cada elemento b ∈ B podemos considerar la
función b∗ : E → K que asigna a cada e ∈ E el coeficiente de b en la descomposición única de e
como combinación lineal de elementos de la base B.
En el ejemplo anterior hay que observar que existe un abuso de lenguaje. El elemento b ∈ B no
define por si solo la función b∗ . Esta depende también de los otros elementos de la base B.
Ejemplo 1.32 La función de paso al cociente,
E → E/S, e 7→ e + S,
es una transformación lineal sobreyectiva y la inmersión canónica de un subespacio,
S ,→ E, v 7→ v,
es una transformación lineal inyectiva.
Ejemplo 1.33 Fijemos una matriz A ∈ Mat(m × n). Entonces, multiplicar por A por la derecha o
por la izquierda son transformaciones K-lineales.
Mat(n × `, K) → Mat(m × `, K), Z → AZ.
Mat(` × m, K) → Mat(` × n, K), Y → ZA.
Recordemos que hemos convenido identificar el espacio vectorial Kn con el de los vectores columna
Mat(n×1, K). Entonces, como caso particular del ejemplo anterior, la multiplicación por la izquierda
por la matriz A es una transformación lineal:
A : Kn → Km , v 7→ Av,
y no solo eso, sino que además toda transformación lineal de Kn en Km está dada por una matriz6 .
Tenemos una identificación LinK (Kn , Km ) ' Mat(m × n, K).
LinK (E, V ) está en si mismo dotado de una estructura de K-espacio vectorial. Puede definirse
la suma y el producto por escalares de transformaciones lineales,
(ϕ + ψ)(v) = ϕ(v) + ψ(v), (λϕ)(v) = λ(ϕ(v)).
Observemos que entre dos espacios vectoriales siempre hay una transformación lineal nula, que es la
que envı́a a todos los vectores de su dominio al vector cero de su codominio. Es también elemental
que una transformación lineal ϕ : E → V es la transformación lineal nula si y solo si se anula sobre
un sistema de generadores de E.
6 Como se vió en el curso de álgebra lineal, f : Kn → Kn y tomamos e , . . . , e la base canónica de Kn , entonces
1 n
podemos construir la matriz de f como A = [f (e1 ), . . . , f (en )]. Por definición A es una matriz m × n. Por linealidad
se comprueba que para todo v en Kn se tiene Av = f (v).
23
Ejemplo 1.34 La identificación entre LinK (Kn , Km ) y Mat(m × n, K) no es solo una biyección
sino también un isomorfismo. Es decir, las matrices se suman y multiplican por escalares de la
misma manera si se interpretan como matrices o como transformaciones lineales.
Una utilidad del espacio libre generado por un conjunto es que nos permite definir transforma-
ciones lineales.
Proposición 1.35 Sea X un conjunto y E un K-espacio vectorial. Hay un isomorfismo natural,
Corolario 1.36 Sean E y V espacios vectoriales y B una base de E. Hay un isomorfismo natural,
i : LinK (E, V ) → V B
Es decir, una transformación lineal está completamente determinada por las imágenes de los
elementos de una base, y recı́procamente, pueden fijarse arbitrariamente estas imágenes para obtener
una transformación lineal.
(i) La composición de transformaciones lineales, es ası́ mismo lineal. Más aún, la operación “com-
poner”
◦ : LinK (V, W ) × LinK (E, V ) → LinK (E, W ), (ϕ, ψ) 7→ ϕ ◦ ψ
es lineal en cada factor (es decir: bilineal).
(ii) Si una transformación lineal es invertible (como mapa) su inversa es una transformación lineal.
(iii) La identidad IdE en E es una transformación lineal.
Esto implica que el conjunto de las transformaciones lineales de E en si mismo EndK (E) es
de nuevo un anillo (no-conmutativo) con unidad que contiene7 una copia de K (es decir, una K-
álgebra). El grupo multiplicativo AutK (E) de los elementos invertibles de EndK (E) se denomina el
grupo lineal de E.
Ejemplo 1.37 La asociatividad del producto de matrices nos muestra que la identificación que
hemos hecho entre matrices y transformaciones lineales, en el caso de las matrices cuadradas
Mat(n × n, K) ' Lin(Kn , Kn ) no es solamente un isomorfismo de espacios vectoriales, sino de
anillos, pues A ◦ B = AB. La matriz identidad In×n es la identidad en Kn .
7 La forma de incluir a K como sub-anillo de End (E) es interpretar a los escalares λ ∈ K como múltiplos de la
K
identidad K ,→ EndK (E), λ 7→ λIdE .
24
La noción de dependencia e independencia lineal también puede revisarse a la luz de las trans-
formaciones lineales. El siguiente resultado es evidente a partir de las definiciones.
Entonces:
(a) S es L.I. si y solo si vS es inyectivo.
(b) S es un sistema de generadores si y solo si vS es sobreyectivo.
Ejemplo 1.39 Sea E de dimensión finita n y sea b̄ = (b1 , . . . , bn ) una n-tupla de vectores tal que
{b1 , . . . , bn } es una base de E. La n-tupla de funciones coordenadas b̄∗ = (b∗1 , . . . , b∗n )
n λ1
λj bj 7→ ... .
X
b̄∗ : E → Kn ,
j=1 λn
es un isomorfismo de E con Kn .
Γϕ = {(e, ϕ(e)) ∈ E × V | e ∈ E}
A : Kn → Km , x → Ax.
8 De hecho, para los teóricos de los conjuntos no existe ninguna diferencia entre función y gráfica. Una función es
su gráfica.
25
De la misma manera, supongamos ahora que ϕ : E → V es una transformación lineal entre espa-
cios de dimensiones n y m respectivamente. Podemos fijar una base {e1 , . . . , en } de E y {v1 , . . . , vm }
de V . Tenemos entonces descomposiciones en coordenadas,
m
X
ϕ(ei ) = aji vj .
j=1
E
ϕ
/V
ē∗ v̄ ∗
[ϕ]ē,v̄
Kn / Km
que asigna a cada ϕ su matriz en las bases {ei }, {vj } es una transformación lineal. Esta asignación
es también compatible con la composición si se fijan bases en los espacios. Si W es un tercer espacio
con {w1 , . . . , w` } una base de W y w̄ = (w1 , . . . , w` ) entonces para todo ψ : V → W tenemos,
Además si en E consideramos una base alternativa {e01 , . . . , e0n } y en V consideramos una base
alternativa {v10 , . . . , vn0 } entonces tenemos matrices B y C de cambio de base,
n
X m
X
e0i = bji ej , vj0 = cji vj ,
j=1 j=1
ē∗
[ϕ]ē,v̄
K /K
Si ahora nos centramos en el caso de los endomorfismos E, observamos que solo es necesario
fijar la base ē de E. Por tanto cada endomorfismo ϕ : E → E tiene una matriz [ϕ]ē . La signación
26
es, de hecho, un isomorfismo de anillos unitarios. Las matrices de los endomorfismos cambian de
base por con conjugación, es decir,
[ϕ]ē0 = B −1 [ϕ]ē B,
lo que puede verse como un caso particular del diagrama anterior tomando E = V , ē = v̄ y ē0 = v̄ 0 .
La fórmula anterior nos garantiza que podemos definir el determinante det(ϕ) de un endomor-
fismo ϕ como el determinante de su matriz en cualquier base. El determinante tiene las propiedades
esperadas:
(a) det(IdE ) = 1.
(b) det(ϕ ◦ ψ) = det(ϕ) det(ψ).
(c) ϕ es un automorfismo si y solo si det(ϕ) 6= 0
Los automorfismos de determinante 1 se llaman automorfismos especiales y constituyen el grupo
especial lineal SL(E) ⊂ AutK (E). En el caso particular de Rn tenemos el grupo de las matrices
especiales:
SL(n, K) = {A ∈ GL(n, K) | det(A) = 1}.
ker(ϕ) = {e ∈ E | ϕ(e) = 0}
es un subespacio de E y su imagen,
rank(ϕ) = dim(im(ϕ)).
No es dificil ver que si v ∈ im(ϕ) no es vacı́o, entonces ϕ−1 (v) = e0 + ker(ϕ). Es decir, las fibras
de las transformaciones lineales son subvariedades lineales afines de espacio director ker(ϕ). De ahı́
ϕ es inyectiva si y solo si ker(ϕ) = {0}.
27
Fijemos además b = (b1 , . . . , bm ) ∈ Km . Considere el sistema de m ecuaciones lineales no ho-
mogéneas:
Ax = b.
(c) Exprese la noción de si el sistema es compatible o incompatible utilizando el lenguaje de
transformaciones lineales.
E
ϕ
/V
O
q i
E/ ker(ϕ)
ϕ̄
/ im(ϕ)
Los otros teoremas de isomorfismo de la teorı́a de grupos son también válidos en el contexto de
los espacios vectoriales.
Ejercicio 21 Detalle las pruebas de los teoremas de isomorfismo, en el contexto de los espacios
vectoriales.
28
(b) ϕ es sobreyectivo si y solo si transforma sitemas de generadores en sistemas de generadores.
(c) ϕ es un isomorfismo si y solo si transforma bases en bases.
Un resultado un poco más fuerte, que no es cierto en general para grupos abelianos pero sı́ para
espacios vectoriales.
Prueba. Vamos a definir primero una función f1 : p(E) → W que verifique las hipótesis del enuncia-
do. Entonces debe ser necesariamente f1 (p(e)) = f (e) para todo e ∈ E. La fórmula anterior define
unı́vocamente una función en p(E) si y solo si f es constante a lo largo de la fibra p−1 ({p(e)}). Esto
es cierto si y solo si p−1 ({p(e)}) = e + ker(p) ⊆ e + ker(f ). Por tanto si y solo si ker(p) ⊆ ker(f )
entonces f1 (p(e)) = f (e) está bien definida en p(E).
Para ver que f˜ puede definirse a lo largo de todo V razonemos de la siguiente manera. Consi-
deremos un suplementario S de p(E) en V de manera que V = p(E) ⊕ S. Ahora, cada elemento
v ∈ V se descompone de forma única como v1 +v2 con v1 ∈ p(E) y v2 ∈ S. Definimos f˜(v) = f1 (v1 ).
E/E 0
ϕ̃
/ V /V 0
29
Ejercicio 25 Considere la función:
d
: K[[x]] → K[[x]], p(x) 7→ p0 (x).
dx
¿Es una transformación lineal?¿Cuál es su imagen?¿Cuál es su núcleo? (Pista: la respuesta depende
de la caracterı́stica de K)
una secuencia de transformaciones lineales. Decimos que es exacta en el k-ésimo término si im(ϕk−1 ) =
ker(ϕk ). Una secuencia de transformaciones lineales es exacta si es exacta en todos sus términos.
El teorema de Factorización nos indica como incluir cualquier transformación lineal dentro de
una secuencia exacta, puesto que si ϕ : E → V es una transformación lineal entonces,
i ϕ q
0→
− ker(ϕ) →
− E−
→V −
→ V /im(ϕ) →
− 0
es una secuencia exacta. Por la situación en la que se encuentra en la secuencia (que tendra sus
consecuencias en la teorı́a de la dualidad) el espacio cociente V /im(ϕ) recibe también el nombre de
conúcleo de ϕ. Se denota V /im(ϕ) = coker(ϕ).
Ejercicio 27 Consideremos
0 → E 0 → E → E 00 → 0
una sucesión exacta corta de 3 términos no necesariamente nulos. Demuestre que
Teorema 1.44 Consideremos una secuencia exacta que empieza y termina por 0,
ϕ0 ϕ1 ϕ2 ϕm−1 ϕm
0 −→ E1 −→ E2 −→ . . . −−−−→ Em −−→ 0
Pm k
Entonces k=1 (−1) dimK (Ek ) = 0.
Prueba. La prueba se realiza por inducción finita sobre la longitud de la secuencia. Por la particu-
laridad del argumento inductivo que vamos a realizar, es necesario considerar como casos iniciales
m = 1, 2, 3.
Si m = 1 entonces necesariamente E1 = {0} y el teorema es cierto. Si m = 2 entonces ϕ1 es
necesariamente un isomorfismo, y el teorema también es cierto. Si m = 3 entonces se trata del
Ejercicio 27.
30
Realicemos ahora el paso inductivo. Supongamos m > 3 y asumamos que el teorema es cierto
para toda secuencia exacta de longitud menor a m. Si substituimos Em−1 por el núcleo de ϕm−1
obtenemos dos secuencias.
ϕ0 ϕ1 ϕ2 ϕm−2 ϕm−1
0 −→ E1 −→ E2 −→ . . . −−−−→ ker(ϕm−1 ) −−−−→ 0
i ϕm−1 ϕm
0−
→ ker(ϕm−1 ) −→ Em−1 −−−−→ Em −−→ 0.
Supongamos, por hipótesis de inducción, que el teorema es cierto para estas secuencias más cortas.
Tenemos entonces:
m−2
X
(−1)m dim(Ek ) + (−1)m−1 dim(ker(ϕm−1 )) = 0
k=1
dim(ker(ϕm−1 )) − dim(Em−1 ) + dim(Em ) = 0.
Sumando o restando estas expresiones, según m sea par o impar, obtenemos el resultado del teore-
ma.
Ejercicio 28 ¿Puede diseñar una secuencia exacta, tal que al aplicarle el Teorema 1.44 se obtenga
la fórmula de la dimensión?
Las secuencias exactas de la forma,
i q
0 → E0 → → E 00 → 0.
− E−
reciben el nombre de secuencias exactas cortas. En este caso siempre i es inyectivo y q es sobreyec-
tivo. Notemos que i(E 0 ) es ker(q) y que q factoriza a un isomorfismo entre E/i(E 0 ) y E 00 .
Un inverso por la izquierda de i, es decir ρ : E → E 0 tal que ρ ◦ i = IdE 0 recibe el nombre dee
retracto de i. Un inverso por la derecha de q, es decir σ : E 00 → E tal que q ◦ σ = IdE 00 recibe el
nombre de sección de q.
Proposición 1.45 Si ρ es un retracto de i entonces ker(ρ) es un suplementario de i(E 0 ) en E.
Si σ es una sección de q entonces im(σ) es un suplementario de i(E 0 ) en E. Estas asignaciones
establecen correspondencias biyectivas naturales entre los conjuntos de:
(a) Retractos de i.
(b) Secciones de q.
(c) Subespacios suplementarios de i(E 0 ) en E.
Prueba. Elemental.
31
1.3. Espacio dual
Definición 1.46 Llamamos espacio dual de E a E ∗ = LinK (E, K). Los elementos de E ∗ se llaman
formas lineal o covectores en E.
Ejemplo 1.47 Sea B una base de E. Como antes habı́amos observado, cada elemento b ∈ B se de-
fine una función b∗ : E → K que asigna a cada elemento de e el coeficiente de b en su descomposición
sobre la base B. Este elemento b∗ es una forma lineal en E.
vx : KX → K, f 7→ vx (f ) = f (x).
Esto se conoce como la dualidad punto-función. Las funciones se aplican a los puntos, pero ası́
mismo los puntos pueden verse como funciones cuyo dominio es el conjunto de las funciones. Es
contumbre escribir simplemente x en lugar de vx , es decir x(f ) = f (x).
Cuando B = {b1 , . . . , bn } es una base finita, las formas b∗j están determinadas por las ecuaciones
b∗j (bi )
= δji , donde δji representa la función delta de Kronecker. Observemos que hay un cierto
abuso de lenguaje en la notación b∗ , pues la construcción de la forma b∗ depende no solamente del
elemento b ∈ B sino de los otros elementos de la base. Es decir, un vector b puede formar parte de
diferentes bases, y en ese caso darı́a lugar a diferentes covectores b∗ .
Ejemplo 1.49 Desde el comienzo hemos identificado el espacio Kn de las n-tuplas con los vectores
columna. Es decir, Kn = Mat(n × 1, K). Por otro lado, cada vector fila F ∈ Mat(1 × n, K) puede
multiplicarse por vectores columna, obteniendose un escalar, es decir:
F : Kn → K, v 7→ F v
Teorema 1.50 (de la base dual) Suponga que B = {b1 , . . . , bn } es una base del espacio E de
dimensión finita. Entonces el conjunto de covectores B ∗ = {b∗1 , . . . , b∗n } es una base de E ∗ .
Pn
Prueba. Sea ω una forma lineal en E. Consideremos ω 0 = j=1 ω(bj )b∗j . Automaticamente tenemos
ω − ω 0 se anula sobre todos los elementos de la base, y por tanto ω = ω 0 . Es decir, ω es combinación
lineal de B ∗ . Por otro lado, es muy sencillo probar que si existe una combinación lineal nula,
n
X
λj b∗j = 0
j=1
entonces aplicando ambos términos de la igualdad a los elementos de la base obtenemos la nulidad
de todos los coeficientes.
Ejemplo 1.51 Se deduce facilmente de todo lo anterior que si identificamos Kn con el espacio
Mat(n × 1, K) de los vectores columna, entonces (Kn )∗ es el espacio Mat(1 × n, K) de los vecores
fila, que se aplican a los vectores columna mediante el producto de matrices.
32
Veamos que si E no tiene dimensión finita y B es una base de E entonces los covectores B ∗ no
son un sistema de generadores de E ∗ . Consideremos la forma
X X
ω: λi bi 7→ λi .
finita finita
∗
Es claro que ω ∈ E . Supongamos,
Pm razonando por reducción al absurdo que ω puede escribirse como
una combinación lineal ω = j=1 µj b∗j donde b∗1 , . . . , b∗m ∈ B ∗ . Consideremos entonces un b ∈ B
tal que b∗ no aparece en dicha combinación lineal. Aplicando ambos términos de la igualdad a b
obtenemos 1 = 0, contradicción.
Prueba. Sea B una base de E. El teorema de la base dual nos dice que (B ∗ )∗ = B y por tanto
E ∗∗ está generado por B.
Veamos como cambian de base las coordenadas en el espacio dual. Sea E un espacio vectorial
de dimensión finita n y sea {e1 , . . . , en } una base de E, y sea {e1 , . . . , en } su correspondiente base
dual. Consideremos {u1 , . . . , un } otra base de E, con base dual {u1 , . . . , un } de manera que tenemos
una matriz de cambio de base,
n
X
ei = aji uj
j=1
33
1.3.2. El espacio incidente o anulador
Consideremos un subconjunto S ⊂ E y tomemos,
Es fácil mostrar que ann(S) es un subespacio de E ∗ al que nos referiremos como el incidente o
anulador de S.
ann(ann(S)) ∩ E ⊆ S.
E
q
/ Ē = E/(S ∩ S 0 )
ω̄
ω
&
K
34
el teorema de la base, es posible extender S̄ 0 a un suplementario S̄ 00 de S̄ en E. Tenemos por tanto
una descomposición,
Ē = S̄ ⊕ S̄ 00
Consideremos la secuencia exacta,
0 → S̄ → Ē → Ē/S̄ → 0
y sea ahora ρ : Ē → S̄ el retracto de dicha secuencia cuyo núcleo es S̄ 00 . Entonces tomamos ᾱ = ω̄ ◦ρ
y β̄ = ω̄ − ᾱ, obteniendo la descomposición deseada. Finalmente, definimos α = ᾱ ◦ q y β = β̄ ◦ q.
Se tiene α ∈ ann(S), β ∈ ann(S 0 ) y ω = α + β.
35
lo que se conoce como ecuaciones implı́citas de V .
¿Como se realiza el tránsito de un tipo de ecuaciones al otro? Existen varios procedimientos.
De manera que el espacio V queda descrito como el espacio de soluciones de una ecuación
escrita en forma matricial
V = {x ∈ Kn | Ax = 0}
donde A es la matriz r × n de coeficientes aij . Procedemos a reducir la matriz A a su forma
escalonada reducida, obteniendo un sistema equivalente de ecuaciones,
donde x1i , . . . , xir son las variables pivote, y xj1 ,. . .,xjk las variables libres. Substituyendo
en los términos de la derecha las variables libres por parámetros λ1 ,. . .,λs , y añadiendo las
ecuaciones xj` = λ` obtenemos la expresión general para un vector de V :
x1 c11 ck1
x2 c12 ck2
.. = λ1 .. + . . . + λk ..
. . .
xn c1n xkn
y por tanto,
* c11 ck1 +
c12 ck2
V = ,..., .
.. ..
. .
c1n xkn K
36
Las componentes de x se pueden interpretar como las funciones coordenadas en Kn , y por
tanto son elementos de (Kn )∗ . Entonces [v1 , . . . , vk , x] es una matriz n × (k + 1). Es claro que
si ahora le damos al vector x un valor en Kn tenemos que x ∈ V si y solo si el rango de dicha
matriz es k y no k + 1. Es decir,
V = {x ∈ Kn | rank[v1 , . . . , vk , x] = k}
ahora, para que la matriz [v1 , . . . , vk , x] tenga rango k deben anularse los menores de tamaño
(k + 1). Cada uno de los menores de tamaño (k + 1) es una combinación lineal con coeficientes
en K de las funciones coordenadas x1 , . . . , xn . Concluimos:
Estos métodos se adaptan al caso de las subvariedades lineales afines. Supongamos que tene-
mos una subvariedad lineal afı́n S = v0 + V . Entonces, dada una base de {v1 , . . . , vk } de S
tenemos las ecuaciones paramétricas para S,
k
X
x = v0 + λ j vj λj ∈ K
j=1
y dada una base {ω1 , . . . , ωr } de ann(V ) entonces tenemos unas ecuaciones implı́citas de V ,
ω1 (x) = ω1 (v0 )
..
.
ωr (x) = ωr (v0 ).
Ejercicio 30 Calcule unas ecuaciones implı́citas para el plano de K3 que pasa por (1, 0, 3) y su
espacio director está generado por (2, 3, 1) y (1, −2, 1).
Ejercicio 31 Calcule unas ecuaciones implı́citas para el plano de K4 que pasa por (1, 0, 3, 1) y su
espacio director está generado por (2, 3, 1, 0) y (0, 1, −2, 1).
nulo de tamaño k en [v1 , . . . , vk ] y considerar en v1 , . . . , vk , x] los r menores diferentes de orden (k + 1) que contienen
a dicho menor de tamaño k. Los otros serán linealmente dependientes de estos.
37
Pn
Prueba. Es claro que hay una combinación lineal no trivial nula i=1 λi ωi = 0, si y solo si la
imagen de ω̄ está contenida en el hiperplano de ecuación λ1 x1 + . . . + λn xn = 0.
Nota 1.56 El resultado anterior es falso si se toma un conjunto infinito de formas lineales. Por
ejemplo, consideremos E = K[x] y las formas lineales,
ai : K[x] → K, p = a0 + a1 x + . . . + an xn 7→ ai ,
v1 : K[x] → K, p = a0 + a1 x + . . . + an xn 7→ p(1) = a0 + a1 + . . . + an .
En este caso {v1 , a0 , a1 , a2 , . . . , } es L.I. pero el mapa,
ϕT : V ∗ → E ∗ , ω 7→ ϕt (ω) = ω ◦ ϕ.
Nos referimos a ϕT como la transformación transpuesta. Esto tiene un significado muy concreto
cuando E y V son de dimensión finita: si la matriz de ϕ en una pareja de bases es A, entonces la
matriz de ϕT en las correspondientes bases duales es AT . La transposición, por definición, invierte
el orden de la composición (ϕ ◦ ψ)T = ψ T ◦ ϕT . Cuando E y V tienen dimensión finita, la función
“transposición”
∼
→ LinK (V ∗ , E ∗ ), ϕ 7→ ϕT
LinK (E, V ) −
es un isomorfismo de espacios vectoriales.
Dual de un subespacio
Cuando i : S ⊂ E es la inmersión canónica de un subespacio S de E entonces la transformación
transpuesta iT es la restricción,
iT : E ∗ → S ∗ , ω 7→ iT (ω) = ω|S .
38
Dual de un cociente
Cuando q : E → E/S es la función de paso al cociente tiene por transpuesta una inmersión
q T : (E/S)∗ ,→ E ∗
que identifica a (E/S)∗ con el subespacio de las formas lineales en E que se anulan a lo largo de
S, im(q T ) = ann(S). Es decir, el dual de un cociente se identifica con un subespacio del dual y
tenemos (E/S)∗ ' ann(S).
Proposición 1.57 Si E tiene dimensión finita dimK E = dimK S + dimK (ann(S))
Prueba. Basta considerar la secuencia exacta:
0 → ann(S) → E ∗ → S ∗ → 0.
39
1.4. Sumas, productos, lı́mites directos e inversos
1.4.1. Producto directo
Sea {Ei }i∈I una familia de K-espacios vectoriales. Uno puede considerar el producto directo (o
cartesiano) de la familia, Y
E= Ei .
i∈I
40
L
Por otro lado un covector
Q cualquiera ω en i∈I Ei puede descomponerse como (ω ◦ ρi )i∈I y por
tanto es un elemento de i∈I (Ei∗ );
!∗
M Y
Ei = Ei∗ .
i∈I i∈I
donde Γ es el subespacio vectorial generado por todas los elementos de la forma e − fij (e). Es decir,
en el lı́mite dirigido cada elemento e se identifica con sus imágenes a lo largo de todo el sistema.
El limite dirigido está construido ad hoc para satisfacer la siguiente propiedad universal. Dado
un espacio vectorial cualquiera Z una familia de transformaciones lineales compatible con el sistema
dirigido es una familia {ϕi : Ei → Z}i∈I de transformaciones tal que para cada fij : Ei → Ej se
tiene ϕj ◦ fij = ϕi .
Proposición 1.60 Sea ({Ei }i∈I , {fij }i<j ) un sistema dirigido de espacios vectoriales, y sea Z un
espacio vectorial cualquiera. Entonces cada familia compatibles {ϕi : Ei → Z} de transformaciones
lineales induce una transformación lineal ϕ : lı́m→ Ei → Z mediante la fórmula,
!
X X
ϕ ei = ϕi (ei ).
finita finita
Esta asignación establece una correspondencia biyectiva entre el conjunto de las familias compatibles
y LinK (lı́m→ Ei , Z)
Prueba. Por la propiedad L universal de la suma directa, las familias {ϕi : Z → Ei } inducen trans-
formaciones lineales ϕ : i∈I → Z. Ahora, una familia es compatible si y solo si se anula sobre
todos los elementos de la forma e − fij (e), es decir, si se anula sobre el espacio Γ. Por el teorema
de extensión obtenemos la correspondencia biyectiva del enunciado.
41
De forma dual al limite dirigido, el lı́mite proyectivo está construido ad hoc para satisfacer
una propiedad universal. Dado un espacio vectorial cualquiera Z una familia de transformaciones
lineales compatible con el sistema proyectivo es una familia {ϕi : Z → Ei }i∈I de transformaciones
tal que para cada fij : Ei → Ej se tiene fij ◦ ϕi = ϕj .
Proposición 1.61 Sea ({Ei }i∈I , {fij }i<j ) un sistema proyectivo de espacios vectoriales, y sea Z
un espacio vectorial cualquiera. Entonces cada familia de transformaciones lineales compatibles
{ϕi : Ei → Z} de transformaciones lineales induce una transformación lineal ϕ : lı́m← Ei → Z
mediante la fórmula,
ϕ((ei )i∈I ) = (ϕi (ei ))i∈I .
Esta asignación establece una correspondencia biyectiva entre el conjunto de las familias compatibles
y LinK (lı́m← Ei , Z)
obtenemos,
(lı́m Ei )∗ = lı́m Ei∗ .
→ ←
Sin embargo, las dimensiones de S y ϕ(S) no siempre están relacionadas de la misma manera y
la imagen directa ϕ∗ no envı́a necesariamente unas variedades Grassmanianas en otras. un cálculo
sencillo nos dice,
dimK ϕ(S) = dimK (S) − dimK (ker(ϕ|S )).
42
Es decir, la dimensión de ϕ(S) depende, no solo de la dimensión de S simo también de su situación
relativa con respecto al núcleo. La condición para que ϕ preserve la dimensión de S es que S corte
solamente en {0} a ker ϕ. Definimos entonces la Grassmaniana localizada a ϕ como,
Gr(k, E)ϕ = {S ∈ Gr(k, E) | S ∩ ker(ϕ) = {0}}.
En la Grassmaniana localizada está definida la función inducida,
ϕ∗ : Gr(k, E)ϕ → Gr(k, V ), S 7→ ϕ(S).
La imagen ϕ∗ (Gr(k, E)ϕ ) es el conjunto de los subespacios vectoriales k-dimensionales de V que
están contenidos en la imagen de ϕ. Esto es, ϕ(Gr(k, E)ϕ ) = Gr(k, im(ϕ)).
Caso inyectivo
Si i : E 0 → E es una transformación lineal inyectiva, entonces para cada subespacio k-dimensional
S de E 0 tenemos que i(S) es un subespacio k-dimensional de E. También, por la inyectividad, es-
pacios diferentes deben tener imágenes diferentes. Por tanto tenemos una función inyectiva,
i∗ : Gr(k, E 0 ) ,→ Gr(k, E), S 7→ I(S).
que identifica Gr(k, E 0 ) con Gr(k, i(E 0 )) ⊆ Gr(k, E).
43
1.5.2. Espacio proyectivo
La primera variedad Grassmaniana Gr(1, E) recibe también el nombre de espacio proyectivo
asociado a E y se denota por P(E). El espacio proyectivo puede también construirse de la siguiente
manera. Cada vector v 6= 0 genera una recta vectorial [v] = hviK , y toda recta vectorial es generada
por un vector. Luego el mapa,
[ ] : (E − {0}) → P(E), v 7→ [v]
es claramente sobreyectivo. Por tanto P(E) se identifica con el conjunto cociente (E −{0})/ ∼ donde
∼ es la relación de equivalencia “generar la misma recta”. Dos vectores no nulos e, v ∈ E − {0}
generan la misma recta si y solo sı́ hay un elemento no nulo en λ ∈ (K − {0}) tal que e = λv.
Podemos por tanto considerar la acción del grupo multiplicativo (K − {0}) en (E − {0}) dada por
la multiplicación por escalares.
(K − {0}) × (E − {0}) → (E − {0}), (λ, e) 7→ λe.
Es claro que [e] = [v] si y solo si e y v están en la misma órbita bajo la acción del grupo y por
tanto, P(E) puede verse como el espacio de órbitas (E − {0})/(K − {0}).
44
Las funciones xij reciben el nombre de coordenadas afines en KPn . Nos interesa describir el sub-
conjunto de KPn en el que x10 , . . . , xn0 toman valores en K. Dentro de Kn+1 podemos considerar el
hiperplano H0 definido por la ecuación t0 = 0. Entonces, P(H0 ) es una región de KPn que consiste
en aquellos puntos cuya coordenada homogénea t0 se anula. Dado H0 ' Kn se tiene que P(H0 ) es
un espacio proyectivo de dimensión (n − 1). Designemos por U0 al complementario de P(H0 ) en
KPn . Si p = [t0 : . . . : tn ] ∈ U0 entonces es claro que t0 6= 0. Por tanto las funciones coordenadas
afines x10 , . . . , xn0 en U0 toman valores en K.13
Teorema 1.62 Las funciones afines x01 , . . . , x0n definen una biyección entre U0 y Kn ,
∼ t1 tn
→ Kn , p = [t0 : . . . : tn ] → x10 (p) = , . . . , xn0 (p) =
U0 − .
t0 t0
De esta manera KPn = U0 ∪ P(H0 ). Es decir, el espacio proyectivo KPn puede descomponerse
en dos regiones:
(a) La región finita afı́n U0 ' Kn , que está en correspondencia biyectiva con el espacio n-
dimensional sobre K mediante las coordenadas afines.
(b) La región del infinito P(H0 ) ' KPn−1 que es un espacio proyectivo de dimensiı́on n − 1.
De forma absolutamente análoga, se pueden tomar diferenties regiones afines U1 ,. . .,Un , cada
una de ellas de ecuación ti 6= 0, de manera que cubren la totalidad del espacio proyectivo KPn .
Cada una de estas regiones Ui está coordenada por las n coordenadas afines xji con j 6= i. Adeḿas
en las intersecciones los cambios de coordenadas están dados por,
xik
xij = ,
xjk
en los casos particulares K = R y K = C esto dota al espacio proyectivo de un atlas con cambios
de cartas analı́ticos, y por tanto de una estructura de variedad suave y analı́tica.
Es especialmente notable el caso de dimensión 1 en el cual la región del infinito se reduce a un
solo punto. Por eso la recta proyectiva KP1 puede verse como la completación de la recta afı́n K.
De esta manera, cada punto [t0 : t1 ] ∈ KP1 tiene una coordenada afı́n x = tt10 ∈ K excepto el punto
del infinito [0 : 1], para el cual convenimos precisamente x = ∞.
∼ t1
KP1 −
→ K ∪ {∞}, [t0 : t1 ] 7→ x = .
t0
Nota 1.63 En el caso complejo la recta proyectiva CP1 se conoce también como la esfera de Rie-
mann, ya que sus puntos pueden ponerse en biyección con los de una esfera que es proyectada
estereográficamente sobre el plano complejo C desde el punto del infinito.
13 Esta construcción es completamente generalizable a un espacio vectorial abstracto. Sean θ, ω ∈ E ∗ dos formas
θ
lineales en E. Entonces el cociente ω entre las dos formas,
θ
: P(E) → K ∪ {∞, ?}
ω
θ(v)
ω(v)
si ω(v) 6= 0,
θ
([v]) = ∞ si ω(v) = 0 y θ(v) 6= 0,
ω
? si ω(v) = θ(v) = 0.
45
Nota 1.64 Otro caso notable es el de dimensión 2 real. Si consideramos la superficie esférica
S 2 = {(x, y, z) ∈ R3 | x2 + y 2 + z 2 = 1}
vemos que cada elemento de RP2 está representado por exactamente dos puntos de la esfera. Tene-
mos por tanto un mapa sobreyectivo,
π : S 2 → RP2 ,
donde la fibra de cada punto [v] consiste en sus dos representantes unitarios, v/kvk y −v/kvk. En
este caso S 2 es el espacio recubridor universal de RP2 .
46
Subvariedades lineales proyectivas de dimensión k de KPn que no están contenidas en la región
del infinito P(H0 )
Subvariedades lineales afines de dimensión k de H.
Lo que permite observar la geometrı́a afı́n como una parte de la geometrı́a proyectiva. Por ejemplo,
dos subvariedades lineales afines en H son paralelas si vistas como variedades lineales proyectivas
se cortan en en infinito.
47
1.5.7. Fórmula de la dimensión
Consideremos dos subvariedades lineales R, S ⊆ KPn . Puede considerarse:
La ventaja del estudio de la geometrı́a de las variedades lineales proyectivas en KPn sobre la de
las variedades lineales afines en la región finita U0 ' Kn es que, al considerar también la región del
infinito, se satisface la fórmula de la dimensión.
que es una consecuencia inmediata de la fórmula de la dimensión para la suma de espacios vecto-
riales.
S → π2 ◦ (π1 |S )−1 .
Llamemos U{1,2,...,k} al subconjunto de Gr(Kk+n , k) formado por los subespacios S tales que π1 |S
es un isomorfismo. Las componentes de la función que acabamos de definir,
U = [u1 , . . . , uk ]
48
que es una matriz (n + k) × k. Si S ∈ U{1,...,k} entonces la matriz U1,2,...,k compuesta por las k
primeras filas de U es invertible. Tenemos entonces,
1 0 ... 0
0 1 ... 0
.. .. ..
..
. . . .
−1
U U1,2,...,k = 0
... ... 1
b11 b12 . . . b1k
. .. .. ..
.. . . .
bn1 bn2 ... bnk
ΛI : UI → Mat(n × k, K).
En este caso ΛI (S) se calcula tomando las filas correspondientes a los ı́ndices que no aparecen en I
de U Ui−1
1 ,...,ik
donde Ui1 ,...,ik es la matriz k × k que se obtiene al elegir las filas i1 , . . . , ik de I.
Todo espacio k-dimensional debe estár en alguno de los UI . En la intesección UI ∩ UJ , el paso
de unas coordenadas Pluckerianas puede expresarse mediante funciones racionales. Entonces en los
casos K = C y K = C las coordenadas Pluckerianas definen un atlas en la variedad Grassmaniana
que la dota de estructura de variedad suave y analı́tica.
49
Teorema 1.65 La dualidad invierte el sentido de la intesección y la suma. Para subvariedades
lineales proyectivas R y S de KPn o de KP∗n se tiene:
(a) R◦◦ = R
(b) (R + S)◦ = R◦ ∩ S ◦
(c) (R ∩ S)◦ = R◦ ∩ S ◦
(d) R ⊆ S ⇔ S ◦ ⊆ R◦ .
(e) dimR◦ + dimR = n − 1
Esto implica que cualquier enunciado acerca de subvariedades lineales proyectivas que involucre
unicamente dimensiones, inclusiones, sumas e intersecciones, puede traducirse a otro enunciado
dual que tiene el mismo valor de verdad. Por ejemplo, es tán valido decir por toda pareja de puntos
diferentes en KP3 pasa una única recta como toda pareja de planos diferentes de KP∗3 se cortan en
una recta.
Una utilidad de la dualidad es la siguiente. Fijemos R una subvariedad lineal proyectiva de
dimensión k en P(E) y fijemos m > k. Podemos estar interesados en considerar la radiación de
m-planos de R, el conjunto de variedades lineales m-dimensionales que contienen a R. Mediante
dualidad, esto es lo mismo que considerar el conjunto de variedades (n − 1 − m)-dimensionales
contenidas en R◦ , que es una variedad Grassmaniana. En particular, la radiación de hiperplanos de
R es un espacio proyectivo de dimensión n − m − 1.
(f,f0 ) f (f,f0 ) f
A×E /A (f (p), f0 (e)) / f (p) + f0 (e)
50
Una consecuencia del diagrama es que f0 verifica, pra cualesquiera e, e0 ∈ E
f0 (e + e0 ) = f0 (e) + f0 (e0 ).
Esto implica que f0 es una transformación lineal sobre el cuerpo primo contenido en K. Si además
f es K-lineal diremos que f es una transformación afı́n de A con variedad lineal afı́n definida sobre
K.
Si elegimos un punto inicial p0 ∈ A de manera que A = p0 + E, entonces podemos ver que toda
transformación afin f está completamente determinada por f (p0 ) y la parte lineal f0 pues,
Ejemplo 1.66 Consideremos Kn como variedad lineal afı́n. Las transformaciones afines de Kn son
aquellas de la forma,
x 7→ Ax + b
donde A es una matriz n × n invertible y b es un elemento fijo de Kn .
Es facil ver que la composición de transformaciones afines es afı́n y que la inversa de las trans-
formaciones afines es afı́n. Por tanto, el conjunto de las transformaciones afines de A es un grupo
que denominamos Aff K (A). La función que asigna a cada transformación afı́n su parte lineal es un
morfismo de grupos y por tanto tenemos,
En el caso en el que A = E, es decir, consideramos a E como variedad lineal afı́n, tenemos que todo
automorfismo lineal de E es en particular una transformación afı́n y por tantop tenemos,
que es un morfismo epiyectivo. Las más sencillas de las transformaciones afı́nes son aquellas cuya
parte lineal es la identidad en E y se llaman translaciones. Una translación está determinada por
un vector fijo e ∈ E que se denomina la dirección de la translación. La translación en la dirección
de e es:
te : A → A, p 7→ te (p) = p + e
También es claro que te ◦ tv = te+v y por tanto las translaciones forman un subgrupo de Aff K (A)
isomorfo a (E, +). Obtenemos por tanto una secuencia exacta,
En el caso particular en el que A = E, tenemos una escisión canónica de dicha secuencia y por
tanto una descomposición,
Aff K (E) = E n AutK (E).
En la geometrı́a afı́n, las nociones claves son las de paralelismo y proporción. Tiene sentido
medir proporciones entre segmentos que están sobre la misma recta. Por ejemplo, sean p0 , p1 , p2
tres puntos que están en la misma recta afı́n, supongamos p0 6= p1 . Entonces −
p−→
0 p1 es un generador
51
del espacio director de la recta, y por tanto hay un escalar λ tal que − p− → −−→
0 p2 = λp0 p1 . Este escalar se
denota por [p0 , p1 ; p2 ] y se llama la razón afı́n de los puntos alineados p0 , p1 , p2 .
p0 p1
[p0 , p1 ; p2 ] =
p0 p2
corresponde a la noción clásica de proporción entre segmentos y es invariante por transformaciones
afines. Es decir,
[p0 , p1 ; p2 ] = [f (p0 ), f (p1 ); f (p2 )].
52
Es decir, que actúa sobre los puntos de U0 en coordenadas afines como:
x1 a01 a11 . . . a1n x1
.. . . .. .. ..
. 7→ .. + .. . . .
xn a0n an1 . . . ann xn
Es decir, uno tiene que las transformaciones proyectivas de P(E) que respetan la descomposición
P(E) = U0 ∪ P(H0 ) son las transformaciones afines de U0 . El grupo afı́n Aff K (U0 ) se identifica
entonces con el grupo de las transformaciones proyectivas que envı́an la región del infinito sobre si
misma, es decir, clases de automorfismos lineales de E que envı́an el hiperplano H0 spbre si mismo.
En este sentido es que se dice que la geometrı́a afı́n puede verse como una parte de la geometrı́a
proyectiva. A nivel práctico es equivalente hablar de una variedad lineal afı́n de dimensión n o de
un espacio proyectivo de dimensión n dotado de un hiperplano al que denominamos hiperplano del
infinito.
Tiene especial importancia el grupo PGL(2, K) de las transformaciones proyectivas de la recta
proyectiva PK1 = K ∩ {∞}. Tales transformaciones reciben el nombre de transformaciones de
Möbius u homografı́as. En la coordenada afı́n z = t1 /t0 se esciben como,
a + bz
z 7→ , ad − bc 6= 0.
c + dz
En el caso en el que K es cerrado por raices cuadradas, es decir, que todo elemento de K tenga
sus dos raı́ces cuadradas en K, entonces cualquier transformación de Möebius puede representarse
por exactamente 2 matrices con determinante 1. En tal caso se tiene una secuencia exacta,
(z3 − z1 )(z4 − z2 )
[z1 , z2 ; z3 , z4 ] = .
(z3 − z2 )(z4 − z1 )
53
La razón cruzada es invariante por transformaciones proyectivas. Es decir, que si f es una trans-
formación de Möbius entonces:
54
Capı́tulo 2
Multilinealidad en espacios
vectoriales
f: E×V →W
f (λe1 + µe2 , v) = λf (e1 , v) + µf (e2 , v), f (e, λv1 + µv2 ) = λf (e, v1 ) + µf (e, v2 ).
Por el momento hemos encontrado (en este y otros cursos) varias transformaciones bilineales, por
ejemplo:
Mat(m × n, K) × Mat(n × k, K) → Mat(m × k, K), (A, B) 7→ AB,
E ∗ × E → K, (ω, e) 7→ ω(e)
n n
K × K → K, (v, w) 7→ v · w = v T w.
~k
~ı ~
K3 × K3 → K3 , (v, w) 7→ v × w = det v1 v2 v3
w1 w2 w3
El conjunto de funciones bilineales de E × V en W se denota por BilK (E, V ; W ) y es un subespacio
vectorial de W E×V . Nótese que si E y V son diferentes de cero entonces una transformación bilineal
no nula nunca es lineal.
55
Proposición 2.2 (Adjunción) La contracción interior define un isomorfismo de espacios vecto-
riales,
∼
ι : BilK (E, V ; W ) −
→ LinK (E, LinK (V, W )), f 7→ ιf, donde (ιf )(e) = ιe f.
Prueba. Definimos la inversa j de ι, mediante la fórmula,
j(ϕ)(e, v) = ϕ(e)(v).
f11 ... f1m µ1
.. .. .. ..
f (λ1 e1 + . . . , λn en , µ1 v1 + . . . + µm vm ) = [λ1 , . . . , λn ] . . . .
fn1 ... fnm µm
56
Prueba. Basta definir las proyecciones sobre los factores,
1 1
sym(g)(u, v) =(g(u, v) + g(v, u)), alt(g)(u, v) = (g(u, v) − g(v, u))
2 2
(lo cual puede hacerse por ser 2 invertible en K) y comprobar que producen la descomposición
deseada
g = sym(g) + alt(g).
a1n . . . ann
en este casi A es la matriz transpuesta de la matriz de cambio de base: [ v ]ē = AT [ v ]ū .
57
Ortogonalidad
Definición 2.5 Sea g un tensor métrico simétrico o alternado en un espacio vectorial E. Se dice
que,
(a) Los vectores e, v son ortogonales con respecto a g si g(e, v) = 0. Escribimos e ⊥g v
(b) Dado un subespacio V ⊆ E llamamos espacio ortogonal a V respecto a g, denotado V ⊥g al
conjunto de los vectores ortogonales a todos los vectores de V . De otra manera V ⊥g = ann(ιg(V )).
(c) Un vector e se dice isótropo respecto a g si v ⊥g v.
(d) Un subespacio V se dice isótropo respecto a g si V ⊆ V ⊥g .
(e) El conjunto de los vectores isótropos,
cono(g) = {v ∈ E | g(v, v) = 0}
con dicha definición g ∗ = ιg∗ (g) un tensor métrico en E ∗ también simétrico o alternado, al que
denominamos dualizado de g. Note que ι(g ∗ ) = ι(g −1 ) y g ∗∗ = g.
Cuádricas
Fijemos ahora g simétrico. Notemos que si v es isótropo para g entonces todos sus múltiplos
también lo son, y por tanto [v] ∈ P(E) es un punto del espacio proyectivo cuyos representantes son
todos isótropos. La cuádrica definida por g es:
O de otra manera, dado v 6= 0, [v] ∈ cuad(g) si y solo si v ∈ cono(g). Las cuádricas en KP2 se
llaman curvas cónicas las cúadricas en KP3 se llaman superficies cuádricas.
Teorema 2.6 Sea C = cuad(g) una cuádrica en P(E). Entonces, toda recta r ⊂ KPn está en una
de las siguientes situaciones:
(a) r está contenida en C.
58
Prueba. Basta ver que para calcular la intersección de r y C hay que resolver una ecuación de
segundo grado.
∀e ∈ E e 6= 0 ⇐⇒ g(e, e) > 0,
se llama un producto escalar euclı́deo. El ejemplo tı́pico es el producto punto en Rn definido por
u · v = uT v.
Un espacio vectorial euclı́deo es un espacio vectorial real (E, g) dotado de un producto vectorial
eucı́deo. En él pueden definirse norma,1 ángulos y distancias.
p −1 g(e, v)
kek = (g(e, x)), dist(e, v) = ke − vk, ang(e, v) = cos
kekkvk
59
Las isometrı́as respetan distancias, normas y ángulos, y son necesariamente inyectivas. Todo espacio
vectorial euclı́deo de dimensión finita es isométrico a (Rn , ·) para n igual a su dimensión.
Si E tiene dimesión finita entonces toda isometrı́a de (E, g) en si mismo es un automorfismo.
Las isometrı́as de (E, g) forman un grupo O(E, g) ⊂ AutK (E) que se denomina el grupo ortogonal
de (E, g). Las transformaciones ortogonales de determinante uno se llaman transformaciones orto-
gonales especiales y forman un subgrupo SO(E, g) ⊂ AutK (E) que se denomina el grupo especial
ortogonal de (E, S).
En particular, si tomamos (Rn , ·) tenemos los grupos ortogonal y especial ortogonal clásicos,
e ⊗ v : E ∗ × V ∗ → K, (e ⊗ v)(ω, θ) = ω(e)θ(v).
E ⊗K V = he ⊗ v | e ∈ E, v ∈ V iK .
Proposición 2.8 La función i : E × V → E ⊗K V que asigna a cada pareja (e, v) el tensor simple
e ⊗ v es bilineal.
B ⊗ B 0 = {e ⊗ v | e ∈ B, v ∈ B 0 } ⊂ E ⊗K V
es también L.I.
60
Corolario 2.10 Sean B y B 0 bases de E y V como K-espacios vectoriales. Entonces B ⊗ B 0 es
una base de E ⊗K V . En particular dimK (E ⊗K V ) = dimK (E) × dimK (V ).
Prueba. Supongamos que es falso. Rápidamente, agrupando terminos en una combinación lineal
nula minimal, se llega a la conclusión de que hay un tensor simple e ⊗ v que puede escribirse como
combinación lineal
Xn
e⊗v = e i ⊗ vi
j=1
donde e 6∈ span{e1 , . . . , en }. Pero entonces hay una forma ω ∈ E ∗ tal que ω(e) = 1 y que se anula
sobre todos los ei . Tomando cualquier forma α ∈ V ∗ con α(v) = 1 tenemos (e ⊗ v)(ω, α) = 1 en
contradicción con que ω se anula sobre todos los ei .
El producto tensorial se ha construido adhoc para que verifique la siguiente propiedad universal
Prueba. Cosideremos B una base de E y B 0 una base de V . Definimos f˜(e ⊗ v) = f (e, v) para
cada e ⊗ v ∈ B ⊗ B 0 . Esta f˜ está bien definida como transformación lineal, dado que B ⊗ B 0 es una
base. Se comprueba con facilidad que cumple lo establecido en el enunciado.
Nota 2.12 En este sentido se dice que en la cateogı́a de K-espacios vectoriales los functores ⊗K V
y LinK (V, ) por la izquierda y derecha respectivamente.
(c) (E ⊗K V ) ⊗K W ' E ⊗K (V ⊗K W ).
Prueba. Los isomorfismos (a), (b) y (c) son elementales y su construcción se deja al lector.
En el caso de los espacios vectoriales de dimensión finita, el teorema de reflexividad tiene algunas
consecuencias que se reflejan en la relación entre el producto tensorial y la dualidad.
Prueba. Uno es subespacio del otro, pero además tienen la misma dimensión.
61
Proposición 2.15 Sean E y V K-espacios vectoriales. Hay una inmersión canónica
E ∗ ⊗K V ∗ ,→ (E ⊗K V )∗ , (ω ⊗ θ)(e ⊗ v) = ω(e)θ(v).
Prueba. Basta observar que E ∗ ⊗K V es el subespacio de las transformaciones lineales cuya imagen
tiene dimensión finita.
π : E ⊗F V → E ⊗K V, e ⊗F v 7→ e ⊗K v.
Este mapa es, de necesidad, sobreyectivo, pues su imagen contiene a los tensores simples, que son
un sistema de generadores. Podemos entonces afirmar que E ⊗K V es, como F-espacio vectorial, un
cociente de E ⊗F V .
62
Supongamos ahora K ⊂ L una extensión de K y sea E un K-espacio vectorial. En el producto
tensorial L ⊗K E puede definirse una estructura de L-espacio vectorial, tomando:
!
X X
λ ai ⊗ ei = λai ⊗ ei
i i
para cada λ ∈ L.
Proposición 2.17 Sea B una base de E como K-espacio vectorial. Entonces 1⊗B = {1⊗b | b ∈ B}
es una base de L ⊗K E como L-espacio vectorial. Por tanto:
dimL (L ⊗K E) = dimK E.
Prueba. Sea C una base de L como K-espacio vectorial. Entonces C ⊗ B es una base de L ⊗K E
como K espacio vectorial. A fortiori C ⊗ B es un sistema de generadores de L ⊗K E como L-espacio
vectorial. Por otro lado para c ∈ C y b ∈ B tenemos,
c ⊗ b = c(1 ⊗ b)
Luego c ⊗ b ∈ h1 ⊗ BiL . De ahı́ tenemos C ⊗ B ⊂ h1 × BiL . Dado que h1 ⊗ BiL contiene un sistema
de generadores, podemos asegurar que es el total.
Veamos ahora la independencia lineal de 1 ⊗ B. Si tenemos una combinación lineal nula,
X
λi (1 ⊗ bi ) = 0, λj ∈ L
finita
podemos ahora descomponer cada uno de los coeficientes λi en función de los elmentos de la base
C de L. X
λi = µij cj , µij ∈ K.
finita
Sin perdida de generalidad, tomando algunos µij nulos, podemos suponer que todos los sumatorios
son sobre los mı́smos elementos ci de C. Ahora tenemos,
X
µij (cj ⊗ bi ).
finita
Por ser C⊗B linealmente independiente sobre K, deducimos que todos los coeficientes P µij son nu-
los, y por tanto todos los λi también lo son, es decir, la combinación lineal nula λi (1 ⊗ bi ) es
necesariamente trivial.
63
Proposición 2.18 Sean f : E → E1 y g : V → V1 dos transformaciones lineales. Entonces,
(a) ker(f ⊗ g) = ker(f ) ⊗ V + E ⊗ ker(g).
(b) im(f ⊗ g) = im(f ) ⊗ im(g).
Prueba. Tomemos B una base de ker(f ) y extendamosla a una base B ∪ B 0 de E, de manera que
B ∩ B 0 = ∅. Tenemos entonces que f (B 0 ) es una base de im(f ). De manera análoga tomamos una
base C de ker(g) y la extendemos a una base C ∪ C 0 de V de manera que C ∩ c0 = ∅. Por tanto
g(C 0 ) es una base de im(g). La base inducida de E ⊗K V descompone como unión disjunta:
(B ∪ B 0 ) ⊗ (C ∪ C 0 ) = (B ⊗ C) ∪ (B 0 ⊗ C) ∪ (B ⊗ C 0 ) ∪ (B 0 ⊗ C 0 ).
Es claro que f ⊗ g aniquila a todos los elementos de la base, excepto a los del último conjunto
B 0 ⊗ C 0 . De ahı́ tenemos:
es exacta.
f : E1 × . . . × En → W,
64
Ejemplo 2.20 Un ejemplo ya bien conocido por nosotros es,
det : Kn × . . . × Kn → K, v1 , . . . , vn 7→ det[v1 , . . . , vn ].
MultK (E1 , . . . , En ; W ) ' LinK (E1 , MultK (E2 , . . . , En ; W )) ' BilK (E1 , E2 ; MultK (E3 , . . . , En ; W )) '
' . . . ' MultK (E1 , . . . , En−2 , BilK (En−1 , En ; W )) ' MultK (E1 , . . . , En−1 , LinK (En ; W ))
Dado el isomorfismo canónico (E1 ⊗K E2 ) ⊗K E3 ' E1 ⊗K (E2 ⊗K E3 ), y eligiendo por convención
eliminar los paréntesis de las expresions e1 ⊗ e2 ⊗ . . . ⊗ en podemos realizar el producto tensorial
de varios espacios vectoriales simultaneamente. Hay una transformación multilineal,
i : E1 × E2 × . . . × En → E1 ⊗K E2 ⊗K . . . ⊗K En , (e1 , e2 . . . , en ) 7→ e1 ⊗ e2 ⊗ . . . ⊗ en .
B1 ⊗ B2 . . . ⊗ Bn = {b1 ⊗ . . . ⊗ bn | b1 ∈ B1 , . . . , bn ∈ Bn }
Definición 2.23 Un tensor de tipo (p, q) o p-veces contravariante y q-veces covariante es una forma
(p + q)-multilineal definida en (E ∗ )p × E q .
El espacio de los tensores de tipo (p, q) en E es por tanto un espacio vectorial, de dimensión
np+q que denotamos por Tqp E. Si uno de los ı́ndices (p, q) es cero, lo podemos omitir.
(a) T00 E = K.
65
(b) T 1 E = E.
(c) T1 E = E ∗ .
(d) T11 E = E ⊗K E ∗ = BilK (E ∗ , E; K) ' LinK (E, E) ' LinK (E ∗ , E ∗ ).
(e) T 2 E = E ⊗K E = BilK (E ∗ , E ∗ ; K) ' LinK (E ∗ , E).
Hay que observar que, por acoplamiento de formas lineales y vectores, tenemos:
donde
66
Entonces,
i ,...,i
X X
Θ= λj11 ,...jqp ei1 ⊗ . . . ⊗ eip ⊗ ej1 ⊗ . . . ⊗ ejq =
i1 ,...,ip j1 ,...,jq
k j i ,...,i
X X X X
= aki11 · · · aipp ãj`11 · · · ã`qq λj11 ,...jqp uk1 ⊗ . . . ⊗ ukp ⊗ u`1 ⊗ . . . ⊗ u`q
k1 ,...,kp `1 ,...,`q i1 ,...,ip j1 ,...,jq
k ,...,k
Es decir, que si µ`11,...,`qp son las coordenadas tensoriales de Θ en la base {u1 , . . . , un } entonces,
k ,...,k k j i ,...,i
X X
µ`11,...,`qp = aki11 · · · aipp ãj`11 · · · ã`qq λj11 ,...jqp
i1 ,...,ip j1 ,...,jq
En fı́sica matemática, es usual fijar la base del espacio vectorial e identificar al tensor Θ con sus
coordenadas tensoriales, que se denotan con la misma letra, de manera que el tensor Θ se interpreta
i ,...,i
como una matriz multidimensional de escalares Θj11 ,...jqp relativa a una base {e1 , . . . , en } y que se
comporta ante un cambios de base de la manera que acabamos de explicar.
int3,1
2,3 e ⊗ v ⊗ w ⊗ θ ⊗ β ⊗ γ = β(w)γ(e)(w ⊗ θ).
Nota 2.24 La contracción de ı́ndices es un dolor de cabeza para cualquiera, pero desafortunada-
mente, es inevitable. Son numerosas las ecuaciones de la fı́sica matemática y de la geometrı́a dife-
rencial que dependen de este proceso (p. ej. ecuación de Einstein, identidad de Ricci, identidades
de Bianchi ...). Un método práctico e ingenioso para lidiar con estas contracciones es la notación
gráfica de Penrose. La búsqueda “Penrose graphical notation” la dejo en manos de la curiosidad del
lector.
67
2.2.3. Álgebra tensorial covariante y contravariante
Si Θ es un tensor de tipo (p, q) y Ξ es un tensor de tipo (p0 , r0 ) definimos el producto tensorial,
Θ ⊗ Ξ como el (p + p0 , q + q 0 )-tensor que hace:
Observemos que esta definición del producto tensorial requiere un reordenamiento, pues:
= u1 ⊗ . . . ⊗ up ⊗ v1 ⊗ . . . ⊗ vp0 ⊗ θ1 ⊗ . . . ⊗ θq ⊗ α1 ⊗ . . . ⊗ αq0
es decir, siempre se colocan en primer lugar los vectores y en último lugar los covectores.
Ejemplo 2.25 (Métrica de la traza) Sea ϕ ∈ EndK (E) un endomorfismo, y por tanto un (1, 1)-
tensor. La contracción interior int11 (ϕ) es un (0, 0)-tensor, es decir un elemento de K, que recibe el
nombre de traza de ϕ
tr(ϕ) = int11 ϕ.
Se comprueba con facilidad que la traza de ϕ coincide con la traza de la matriz de ϕ en cualquier
base. El producto tensorial de 2 endomorfismos ϕ y ψ es un (2, 2)-tensor. La composición puede
expresarse en función del producto tensorial y la contracción de ı́ndices,
int21 (ϕ ⊗ ψ) = ϕ ◦ ψ.
Esto permite definir en EndK (E) un tensor métrico simétrico no degenerado que se denomina la
métrica de la traza,
gtr : EndK (E) × EndK (E) → K, (ϕ, ψ) 7→ gtr (ϕ, ψ) = tr(ϕ ◦ ψ) = int1,2
2,1 (ϕ ⊗ ψ).
dotado de su estructura como espacio vectorial, y de la operación producto tensorial recibe el nombre
de álgebra tensorial mixta sobre E.
Tqp E ⊂ T E
de elementos de los espacios Tqp E, a los que llamamos componentes homogéneas de Θ, que pueden
tener distintos grados de covarianza y contravarianza.
68
(a) El grado de covarianza de Θ es el grado de covarianza más alto de alguna de sus componentes
homogéneas.
(b) El grado de contravarianza de Θ es el grado de contravarianza más alto de alguna de sus
componentes homogéneas.
(c) El grado total de Θ es el grado de total más alto de alguna de sus componentes homogéneas.
El álgebra tensorial mixta tiene dos subálgebras graduadas destacadas el álgebra tensorial con-
travariante
M∞
T •E = T p E,
p=0
Notemos que hay una inmersión canónica E ,→ T E como la parte homogénea de grado 1. El álgebra
tensorial contravariante está caracterizado por la siguiente propiedad universal:
es una biyección.
Es decir, toda transformación lineal de E en una K-álgebra A con unidad levanta a un morfismo
de K-álgebras de T • E en A.
69
∼
Si f : E −
→ V es un isomorfismo entonces es posible definir el push-forward de tensores de tipo
mixto, tomando:
f∗ (Θp ⊗ Ξq ) = f∗ (Θp ) ⊗ f ∗−1 (Ξq )
para Θp contravariante y Ξq covariante.
De esta manera, el grupo AutK (E) actúa en el algebra tensorial.
Decimos que dos tensores son conjugados si están en la misma órbita de la acción. La des-
composición de T00 E, T 1 E y T1 E en clases de conjugación es elemental. La despomposición de
T11 E ' EndK (E) en órbitas es la teorı́a de las formas canónicas (de Jordan y racional) de los
endomorfismos. La descomposición de T2 E el problema de clasificación de métricas.
El espacio Tp E de los tensores q-covariantes está dotado de una acción natural por la derecha 2 de
Sp barajando los ı́ndices en los argumentos:
70
Una combinación lineal de tensores simétricos (alternados) es también simétrica (alternada).
Por tanto, los tensores simétricos y alternados definen subespacios vectoriales de Tp P .
(a) Denotamos Sp E el espacio de los tensores simétricos p-covariantes. Los elementos de Sp E
reciben también el nombre de formas simétricas homogéneas de grado p en E.
(b) Denotamos S p E el espacio de los tensores simétricos p-contravariantes. El espacio S p E se
denomina la potencia simétrica p-ésima de E. Consecuentemente, Sp E es la potencia simétrica
p-ésima de E ∗ .
(c) Denotamos Ap E el espacio de los tensores alternados p-covariantes. Los elementos de Ap
reciben el nombre de p-formas exteriores o formas exteriores homogéneas de grado p en E.
Lema 2.30 Supongamos char(K) 6= 2. Sea ω una p-forma exterior en E. Para cualesquiera u1 ,. . .,up
en E, se verifica:
(a) Si hay i 6= j tales que ui = uj entonces ω(up , . . . , up ) = 0.
(b) Si {u1 , . . . , up } es L.D. entonces ω(up , . . . , up ) 6= 0.
Prueba. (a) Supongamos que hay ı́ndices distintos i 6= j con ui = uj . Considermemos la transpo-
sición (i, j). Por la alternancia ω(u1 , . . . , un ) = (−1)(i,j) ω(u1 , . . . , un ). Es decir 2ω(u1 , . . . , un ) = 0.
(b) Supongamos que {u1 , . . . , up } es L.D., entonces uno de sus miembros es combinación lineal de
los demás. Aplicando multilinealidad y el apartado anterior concluimos.
71
(a) El tensor Θ es simétrico si y solo sus coordenadas tensoriales verifican el sistema de ecuaciones
lineales,
λi1 ,...,ip = λiσ(1) ,...,iσ(p) σ ∈ Sp .
λi1 ,...,ip i1 ≤ . . . ≤ ip .
(a) Para el cálculo de la dimensión de los espacios de tensores alternados, asumamos char(K) 6= 2.
El tensor Θ es alternado si y solo sus coordenadas tensoriales verifican el sistema de ecuaciones
lineales,
λi1 ,...,ip = (−1)σ λiσ(1) ,...,iσ(p) σ ∈ Sp .
En particular si hay algún indice repetido il = i` entonces
2λi1 ,...,ip = 0
f ∗ : Sp V → Sp E, f∗ : S p E → Sp V,
f ∗ : Ap V → Ap E, f∗ : Ap E → Ap V,
que son la restricción a dichos espacios del pull-back y el push-forward de tensores. En particular,
si f es un isomorfismo entonces las transformaciones inducidas son todas también isomorfismos.
Por lo que el grupo AutK (E) actúa en los espacios de Sp E, Ap E, S p E, Ap E. Estas acciones son
simplementee la restricción a dichos subespacios de las acciónes de AutK (E) en Tp E y T p E.
72
2.3.2. Operador de alternancia (char(K) = 0)
Supongamos, en este apartado, char(K) = 0. Esto permite definir el operador de alternancia
con generalidad. Hemos definido Ap E y Ap E como subespacios de Tp E y T p E. Queremos encon-
trar espacios suplementarios. Definimos el operador de alternancia altp : Tp E → Ap E mediante la
fórmula:
1 X
altp (θ1 ⊗ . . . ⊗ θn ) = (−1)σ θσ(1) ⊗ . . . ⊗ θσ(p)
p!
σ∈Sp
para cualesquiera formas lineales θ1 . . . θp y extendiendo por linealidad. Otra definición equivalente
es tomar para cualquier tensor p-covariante Θ:
1 X
altp (Θ)(v1 , . . . , vp ) = (−1)σ Θ(vσ(1) , . . . , vσ(p) ). (2.1)
p!
σ∈Sp
altp : T p E → Ap E.
Prueba. Trivial.
H p E = hv1 ⊗ . . . ⊗ vp | ∃i 6= j vi = vj iK ⊂ T p E.
Hp E = hθ1 ⊗ . . . ⊗ θq | ∃i 6= j θi = θj iK ⊂ Tp E.
con el acoplamiento de formas y vectores estos espacios fungen como duales el uno del otro.
Proposición 2.32 La condición necesaria y suficiente para que Θ ∈ Tp E sea un tensor alternado
es que Θ se anule sobre la diagonal ampliada, Θ|H p E = 0. Es decir,
Θ(v1 , . . . , vq ) = 0
siempre que haya algún argumento vi = vj con i 6= j repetido. Dicho de otra manera,
Prueba. La necesidad consecuencia inmediata del apartado (a) del Lema 2.30. Veamos la suficien-
cia. Sea ω ∈ ann(H p E) y sean e1 , . . . , ep elementos cualesquiera de E. Entonces:
Esto prueba que ω ? (1, 2) = (−1)(1,2) ω. El mismo argumento sirve para cualquier transposición
(i, j) y por tanto ω ? (i, j) = (−1)(i,j) ω. Como toda permutación descompone como producto de
transposiciones, obtenemos el resultado deseado.
73
Proposición 2.33 El núcleo del operador de alternancia altp es Hp E.
Prueba. Los elementos generadores de Hp E son todos ellos invariantes por una transposición (i, j).
Esto permite separar el sumatorio que define altp en dos partes con signos opuestos que se cancelan.
Luego Hp E ⊆ ker(altp ). Las dimensión de Hp E coincide con la de ker(altp ) por la Proposición 2.32.
Por tanto Hp E = ker(altp )
Tp E = Ap E ⊕ Hp E.
es una base de Ap E.
1 X
symp (θ1 ⊗ . . . ⊗ θn ) = θσ(1) ⊗ . . . ⊗ θσ(p)
p!
σ∈Sp
para cualesquiera formas lineales θ1 . . . θp y extendiendo por linealidad. Otra definición equivalente
es tomar para cualquier tensor p-covariante Θ:
1 X
symp (Θ)(v1 , . . . , vp ) = Θ(vσ(1) , . . . , vσ(p) ). (2.2)
p!
σ∈Sp
symp : T p E → S p E.
Prueba. Trivial.
74
Procedamos ahora al cálculo del núcleo del operador de simetrización. Considerar los espacios,
K p E = hΘp − Θp ? σ | σ ∈ Sp , Θp ∈ T p EiK ⊆ T p E
Kp E = hΘp − Θp ? σ | σ ∈ Sp , Θ ∈ Tp EiK ⊆ Tp E.
En realidad, basta considerar tensores simples y transposiciones para generar tales espacios. Pode-
mos probar resultados análogos a los que obtuvimos para el operador de alternancia.
Tp E = Sp E ⊕ Kp E
T2 E = S2 E ⊕ A2 E,
75
(a) Exigimos que el producto cuña sea asociativo:
(ω ∧ θ) ∧ α = ω ∧ (θ ∧ α).
(ii) Lema 2.36 Sea {θ1 , . . . , θn } una base de E. Entonces, para cada p ≥ 1
es una base de Ap E.
Prueba. Basta observar que son linealmente independientes, lo que dejamos como ejer-
cicio al lector. Entonces concluimos, pues la dimensión de Ap E es np .
(c) Exigimos que el producto cuña Ap E × Aq E → Ap+q E sea unitario y K-bilineal. Esto es
equivalente a exigir:
(i) Si λ ∈ K es un escalar y ωp una p-forma exterior entonces:
λ ∧ ωp = ωp ∧ λ = λωp
ω ∧ (θ + α) = ω ∧ θ + ω ∧ α, (ω + θ) ∧ α = ω ∧ α + θ ∧ α.
Dado que, por el Lema 2.36, toda forma exterior puede escribirse como combinación lineal de
productos cuña de 1-formas, las condiciones (a), (b) y (c) definen el producto cuña en todo A• E.
El espacio A• E dotado del producto cuña recibe el nombre de álgebra exterior covariante de E.
De forma análoga se define el producto cuña en A• E que se llama simplemente el algebra exterior
generada por E. Ambas tienen estructura de K-álgebras unitarias, graduadas, no conmutativas
(salvo en el caso dim E = 1).
Los espacios A• E y A• E son duales el uno del otro. Sea {e1 , . . . , en } es una base de E. Notemos
que:
X X X
(e1 ∧. . .∧ep )(e1 ∧. . .∧ep ) = (−1)σ (−1)τ eσ(1) (eτ (1) ) . . . eσ(p) (eτ (p) ) = (−1)σ (−1)τ = p!.
σ∈Sp τ ∈Sp σ=τ
76
Entonces
1
ei ∧ . . . ∧ eip | i1 < . . . < ip {ei1 ∧ . . . ∧ eip | i1 < . . . < ip }
p! 1
son bases duales de Ap E y Ap E respectivamente.
El producto cuña satisface las siguiente propiedades:
(a) Si ap y bq son fomas exteriores homogéneas de grados p y q respectivamente,
ap ∧ bq = (−1)pq bq ∧ aq ;
por esta propiedad se dice que el producto cuña es anti-conmutativo graduado.
(b) Si los a1 , . . . an son formas lineales y y σ ∈ Sn ,
a1 ∧ . . . ∧ an = (−1)σ aσ(1) ∧ . . . ∧ aσ(n) .
que es el ideal bilátero de T• E generado por todos los elementos de la forma θ ⊗ θ con θ ∈ E ∗ .
Prueba. Es elemental ver que es ideal bilátero. Para ver que los elementos θ ⊗ θ generan hay que
ver que α ⊗ Ξ ⊗ α para cualquier 1-forma α y cualquier tensor covariante homogéneo Ξ puede
describirse mediante elementos de ese tipo.
ˆ Para
Por tanto, el producto tensorial en T• E define un producto en A• E que denotamos “⊗”.
ˆ
dos tensores alternados α y β se tiene entonces, α⊗β = alt(α ⊗ β).
Proposición 2.38 Para formas exteriores homogéneas αp y βq de grado p y q respectivamente:
(p + q)!
α p ∧ βq = ˆ q
αp ⊗β
p!q!
Prueba. Basta comprobar la fórmula para tensores simples.
77
Contracción interior
Dado un tensor antisimétrico homogéneo αp ∈ Ap E y un vector e ∈ E. Recordemos que la
contracción interior ιe αp está definida por la fórmula:
para cualesquiera u1 , . . . , up en E.
Se comprueba con facilidad que la contracción interior define una transformación lineal de grado
(−1) –es decir, baja el grado en uno–
ιe : A• E → A• E,
(c) (Leibniz) ιe (αp ∧ βq ) = (ιe αp ) ∧ βq + (−1)p αp ∧ (ιe βq ) para αp forma exterior homogénea de
grado q.
(d) Para α1 , . . . , αp formas lineales en E y e ∈ E,
ie (α1 ∧. . .∧αp ) = α1 (e)∧α2 ∧. . .∧αp −α1 ∧α2 (e)∧. . .∧αp +. . .+(−1)p−1 α1 ∧. . .∧αp−1 ∧αp (e).
A consecuencia de la identidad de Leibniz (c) decimos que ιe es una derivación de grado (−1) del
álgebra exterior covariante.
Determinante de un endomorfismo
Los elementos de An E se llaman formas de volumen en E. Observemos que An E tiene dimensión
uno. Por tanto, todo endomorfismo de An E es una dilatación. Hay un isomorfismo canónico,
ϕ∗ (ωn ) = det(ϕ)ωn .
78
Bi-álgebra
El producto cuña ∧ es un mapa bilineal y por tanto, puede linealizarse a través del producto
tensorial. De ahı́,
∧ : Ap E ⊗K Ap E → Ap E,
pasando al dual, tenemos
∧T : Ap E → Ap ⊗K Ap ,
La inmersión canónica de K ⊂ Ap E como la componente homogénea de grado 0 también pasa al
dual y nos da,
iT : Ap E → K
la proyección sobre la componente homogénea de grado cero. En general, el espacio dual de un
álgebra, está dotado de estas operaciones, llamadas co-multiplicación (∧T ) y co-unidad (iT ) que dan
al dual de un álgebra una estructura que se denomina co-álgebra. En el caso particular del álgebra
exterior, se tiene simultáneamente estructura de álgebra y co-álgebra. En ese sentido decimos que
A• E y A• E son bi-álgebras.
sym : T• E → S• E,
de manera que sym(Θp ) = symp (Θp ) para cada tensor covariante homogéneo de grado p.
Prueba.
Por tanto, el producto tensorial en T• E define un producto en S• E que denotamos como producto
simétrico “·”. Para dos formas simétricas α y β se tiene entonces α · β = sym(α ⊗ β).
79
Definición 2.42 El espacio S• E dotado del producto cuña recibe el nombre de álgebra de formas
simétricas en E. De forma análoga, S • E está dotado de un producto simétrico y recibe el nombre
de álgebra simétrica generada por E.
eα = eα αn p
1 · · · en ∈ S E
1
y análogamente para la base dual. Vamos a calcular: (e∗ )α (eα ). Consideremos la p-tupla:
(β1 , . . . , βp ) = (1, . . . , 1, 2, . . . , 2, . . . , n, . . . , n)
Los sumandos dan 1 si y solo siσ(β) = τ (β) componente a componente, en otro caso son nulos. Es
decir, si y τ = σ ◦ h donde h es una permutación que estabiliza beta. La cantidad de permutaciones
que estabilizan β es el multifactorial α! = α1 ! · · · αp !. Tenemos por tanto,
1 X X 1 α!
(e∗ )α (eα ) = 1= p!α! = .
p!2 p!2 p!
σ∈Sp h∈Est(β)
es una biyección.
Prueba.
Es decir, toda transformación lineal de E en una K-álgebra conmutativa A con unidad levanta
a un único morfismo de K-álgebras de S • E en A.
80
2.3.6. Algebra exterior y simétrica (caso general y char(K) > 0)
Los espacios A• E, A• E, S• E, S • E, H• E, H • E, K• E, K • E, se definen de la misma manera que
en el caso de caracterı́stica 0. También, el mismo argumento prueba que los espacios S • E, H• E,
H • E, K• E, K • E son ideales biláteros de las correspondientes algebras tensoriales.
Si char(K) 6= 2 el producto cuña puede definirse en A• E y A• E de la misma forma que se hace
en la Sección 2.3.4. Dotando a estos espacios de estructura de álgebra. No ocurre lo mismo con el
producto simétrico, ya que su definición necesita del operador de simetrización.
El mismo argumento de la Proposiciones 2.32 y 2.35.(a) prueba:
Proposición 2.44 Si char(K) > p entonces los operadores de alternacia altp y simetrización symp
son retractos de las inmersiones Ap E ⊆ Tp E y Sp E ⊆ Tp E. Sus núcleos están dados por Hp E y
Kp E respectivamente, y tenemos por tanto descomposiciones
Tp E = Ap E ⊕ Hp E = Sp E ⊕ Kp E
T p E = Ap E ⊕ Hp E = S p E ⊕ Kp E
donde los operadores de alternancia y simetrización son las proyecciones sobre el primer factor.
Consecuentemente Ap E,Ap E y S p E,Sp E son parejas de espacios duales.
Sin embargo, si p ≥ char(K) estas descomposiciones en suma directa ya no se dan. Por ejemplo:
(e1 ∧ e2 ∧ e3 )(e1 ∧ e2 ∧ e3 ) = 1 + 1 + 1 = 0.
81
Definición 2.45 Se llama algebra exterior generada por E a la K-álgebra cociente,
ΛE = T • E/H • E.
Λp E = T p E/H p E.
Las propiedades satisfechas por el producto cuña en ΛE son las mismas que las del producto
cuña en A• E. Por definición, dado que H p E = ann(Ap E) tenemos Λp E = (Ap E)∗ . En el caso de
caracterı́stica 0 tenı́amos (Ap E)∗ = Ap E y por tanto ΛE = A• E, donde la relación entre el producto
cuña de ΛE y el de A• E está dado por la Proposición 2.38. Sin embargo, si char(K) > dimK (E)
tenemos (Ap E)∗ 6= Ap E para todo y se pierde por tanto el isomorfismos entre ΛE y Ap E.
En cualquier caso, de forma independiente de la caracterı́stica del cuerpo, si {e1 , . . . , en } es una
base de E entonces,
son bases duales de Λp E y Ap E respectivamente. El algebra exterior ha sido construida para verificar
la siguiente propiedad universal.
Proposición 2.46 Sea ϕ : E → B una transformación lineal de A en una K-álgebra unitaria tal
que para todo e ∈ E se tiene ϕ(e)2 = 0. Entonces, existe un único morfismo de K-álgebras,
ϕ̃ : ΛE → B
Prueba.
Para rizar más el rizo, si es posible. ¡El álgebra exterior ΛE y Ap E son finalmente isomorfas!
Eso es por la propiedad universal, aplicada a la inclusión de E en Ap E como componente de grado
1.
K[E] = T • E/K • E.
82
Si {e1 , . . . , en } es una base de E entonces K[E] es el anillo K[e1 , . . . , en ] de polinomios generado
por las variables libres e1 , . . . , en .
Por definición, dado que K p E = ann(Sp E) tenemos K[E]p = (Sp E)∗ . En el caso de caracterı́stica
0 tenı́amos (Sp E)∗ = S p E y por tanto K[E] = S • E. Sin embargo en el caso de caracterı́stica positiva
esta igualdad se pierde.
ϕ̃ : ΛE → B
Prueba.
El mapa ∆∗p es K-lineal. La imagen de ∆∗p se llama el espacio de funciones polinomiales homogéneas
de grado p en E, FPolp (E). Una función polinomial homogénea de grado p, f : E → K es una
función homogénea de grado p en el sentido de que verifica:
f (λe) = λp f (e),
∆∗ : T• E → KE .
Recordemos que KE tiene una estructura de K-álgebra, son la suma y producto de funciones.
Resulta entonces que ∆∗ es un morfismo de K-álgebras. La imagen de ∆∗p se llama el álgebra de
funciones polinomiales en E, FPol(E).
Es claro que el idea K• E está incluido en el núcleo de ∆∗ . Esto puede verse tanto aplicando
directamente la definición de K• E como la propiedad universal del cociente K[E ∗ ] = T• E/K• E.
Por otro lado, podemos construir ejemplos de formas simétricas no nulas que inducen funciones
polinomiales nulas, y polinomios no nulos que inducen funciones polinomiales nulas.
83
(a) La condición necesaria y suficiente para que ker(∆∗ ) = K• E es |K| = ∞. En tal caso ∆∗
establece un isomorfismo entre el álgebra de polinomios K[E ∗ ] engendrada por E ∗ y el álgebra
FPol(E) de funciones polinomiales en E.
(b) La condición necesaria y suficiente para que ∆∗ |S• E : S• E → FPol(E) sea un isomorfismo
es que char(K) = 0. En tal caso es un isomorfismo de K-álgebras entre el álgebra de formas
simétricas en E y funciones polinomiales en E.
(b) Si K tiene infinitos elementos y char(K) > p entonces ∆∗ induce un isomorfismo natural entre
Sp E y el espacio de funciones polinomiales homogéneas de grado p FPolp (E).
Nota 2.50 La hipotésis |K| = ∞ puede asumirse en cualquier caso, si es necesario reemplazando
K por su cierre algebraico.
Prueba. (a) es obvio tomando coordenadas, (b) es consecuencia de (a) y un resultado anterior. El
mismo argumento que prueba (b) prueba (c).
Un argumento similar sirve para funciones polinomiales de cualquier grado. Las funciones poli-
nomiales homogéneas de grado 3 reciben el nombre de formas cúbicas. Si f : E → K es una forma
cúbica entonces necesariamente f = ∆∗ (Θ) donde Θ es una forma simétrica 3-covariante. Se tiene,
84
2.4.2. Subvariedades proyectivas
La situación de las cuádricas puede generalizarse a cualquier grado. Si f es una función polino-
mial homogénea de grado k en E entonces define un lugar geométrico,
Estos conjuntos se llaman subvariedades proyectivas y son uno de los objetos fundamentales de
estudio de la geometrı́a algebraica.
85
Capı́tulo 3
(c) Las funciones s, t : G de tal manera que cada morfismo g ∈ G es un morfismo dg : s(g) → t(g).
Por abuso de notación, usualmente en vez de referirnos al grupoide como la terna (M, G, (s, t))
nos referiremos simplemente al grupoide G. Dados dos objetos x, y ∈ M denotamos por G(x, y) al
conjunto de los isomorfismos de x en y. Cabe observar las siguientes propiedades:
86
(b) G(x, y) o bien es vacı́o, o bien es un conjunto donde G(x, x) y G(y, y) actuan libre y transiti-
vamente por la izquierda y por la derecha respectivamente. En tal caso G(x, x) y G(y, y) son
grupos isomorfos.
El espacio cociente, de las clases de objetos isomorfos en M se denota por M/G. Hay una
aplicación natural de paso al cociente:
π : M → M/G, x 7→ [x],
Definición 3.2 Sea X una clase, un invariante con valores en X es una función F : M → X de
manera que si x ' y entonces F (x) = F (y).
Una familia {Fi }i∈I de invariantes, Fi : M → Xi se dice suficiente, si para cualesquiera objetos
x y y tales que para todo i ∈ I se tiene Fi (x) = Fi (y) necesariamente se tiene x ' y. Una familia
suficiente de invariantes permite sumergir la clase cociente,
Y
M/G → Xi , x 7→ (Fi (x))i∈I
i∈I
Q
lo cual puede dotar a M/G de alguna estructura
Q adicional, como subclase de i∈I Xi . Resulta
especialmente importante en caso en el que i∈I Xi es un conjunto.
Definición 3.3 Una forma canónica es una sección s del paso al cociente π : M → M/S.
Ejemplo 3.4 Consideremos E la clase de todos los K-espacios vectoriales de dimensión finita.
Entonces,
dim : E → N
es un invariante suficiente, pues dos espacios vectoriales son isomorfos si solo tienen la misma
dimensión. Este invariante identifica N con la clase cociente, y:
s : N → E, n 7→ Kn
G × M → M, (g, x) 7→ gx
87
una acción de G en M . Se define la relación de equivalencia x ∼ y si y solo si hay un elemento
g ∈ G tal que gx = y. El espacio de órbitas, cuyos elementos son las clases de equivalencia bajo la
acción del grupo, se denota M/G.
Veamos que esta situación puede verse como un caso particular de la anterior. Para cada pareja
de (x, y) de elementos de M definimos
a
G(x, y) = {g ∈ G | gx = y}, G = G(x, y).
(x,y)∈M×M
Puede probarse con facilidad que dos matrices A y B son equivalentes si y solo si tienen el mismo
espacio nulo nul(A) = nul(B). Por tanto la función:
es un invariante suficiente. También sabemos que dos matrices equivalentes tienen la misma forma
escalonada por filas. Por tanto,
que asigna a cada clase de matrices su forma escalonada reducida por filas es una forma canónica
para dicha acción.
Problema 3.6 Desarrolle una teorı́a similar para la acción de GL(m, K) en GL(n, K) dada por
A ? B = BA−1 .
88
polinomios p(x) y q(x) es siempre posible encontrar únicos d(x) y r(x) con grad(r(x)) < grad(q(x))
tales que,
p(x) = q(x)d(x) + r(x).
Se llama a d(x) y r(x) el cociente y el resto de la división entera de p(x) entre q(x). Cuando el
resto es nulo, decimos que q(x) divide a p(x) y escribimos q(x)|p(x). En el anillo de polinomios hay
noción de máximo común divisor de una pareja, o de un número finito de polinomios.
El coeficiente de la potencia de x de mayor exponente en p(x) se llama el coeficiente dominante
de p(x). Un polinomio es mónico si su coeficiente dominante es 1.
El máximo común divisor de p1 (x), . . . , pr (x) es el polinomio mónico q(x) de mayor grado tal
que q(x)|p1 (x), . . ., q(x)|pr (x). Escribimos q(x) = mcd(p1 (x), . . . , pr (x)). Además existen polinomios
α1 (x),. . .,αr (x) tales que:
mcd(p1 (x), . . . , pr (x)) = α1 (x)p1 (x) + . . . + αr (x)pr (x).
Decimos que los polinomios p1 (x), . . . , pr (x) son coprimos si su máximo común divisor es 1. El
mı́nimo común múltiplo de p1 (x), . . . , pr (x) es el polinomio mónico q(x) de menor grado tal que
p1 (x)|q(x), . . ., pr (x)|q(x). Escribimos q(x) = mcm(p1 (x), . . . , pr (x)).
Un polinomio no constante p(x) es irreducible o primo si no tiene divisores mónicos, excepto 1 y
p(x). Un polinomio factoriza de forma única, salvo el orden, como producto de irreducibles mónicos
y una constante:
q(x) = ap1 (x) · · · pr (x),
la constante a es el coeficiente dominante de q(x). Se puede asegurar que dos polinomios son
coprimos si no comparten ningún factor en su descomposición en irreducibles. Los mcd y mcm
pueden calcularse a partir de la descomposición en irreducible de la forma usual.
Una raı́z de p(x) un polinomio es λ ∈ K si p(λ) = 0 o equivalentemente x − λ|p(x). La multiplici-
dad de λ en p es el mayor r tal que (x − λ)r |p(x). Se tiene que λ es una raiz de p(x) de multiplicidad
r si y solo si p(x) = (x − λ)r q(x) con q(λ) 6= 0.
Decimos que K es algebraicamente cerrado cuando todo polinomio no constante tiene una raı́z
en K. En este caso puede decirse que los polinomios p1 (x), . . . , pr (x) son coprimos si no hay ninguna
raı́z común a todos ellos. También en este contexto los polinomios mónicos irreducibles son todos
de la forma x − λ con λ ∈ K y todo polimomio no constante q(x) factoriza como
q(x) = a(x − λ1 )m1 · · · (x − λr )mr ,
donde a es el coeficiente dominante de q(x), los elementos λj son las distintas raices de p(x), cada
una de ellas de multiplicidad mj , y m1 + . . . + mr = grad(p(x)).
E
f
/ E0
ϕ ϕ0
E
f
/ E0
89
donde f es un isomorfismo de espacios vectoriales. Tenemos en tal caso ϕ0 = f ◦ ϕ ◦ f −1 , y decimos
que el isomorfismo f conjuga ϕ y ϕ0 . Decimos (E, ϕ) ' (E 0 , ϕ0 ). Si E = E 0 entonces f es un
automorfismo de E y decimos que ϕ y ϕ0 son endomorfismos conjugados de E, lo que denotamos
ϕ ∼ ϕ0 .
Este problema de clasificación es equivalente a otro que tiene un planteamiento más sencillo. En
el conjunto Mat(n × n, K) de las matrices n × n consideramos la acción por conjugación del grupo
lineal GL(n, K) de las matrices no degeneradas.
GL(n, K) × Mat(n × n, K) → Mat(n × n, K), (B, A) 7→ BAB −1 .
Dos matrices A y B se dicen conjugadas si están en la misma órbita de la acción. Escribimos A ∼ B.
Tomando bases {e1 , . . . , en } de E y {e01 , . . . , e0n } de E 0 obenemos un diagrama
B
ē∗ ē0∗ %
Kn o / E0 / Kn
f
E
[ϕ]ē ϕ ϕ0 [ϕ]ē0
∗ 0∗
Kn o / E0 / Kn
ē f ē
E 9
B
de tal manera que [ϕ]ē0 = B[ϕ]ē B −1 . Es decir (E, ϕ) ' (E 0 , ϕ0 ) si y solo si [ϕ]ē ∼ [ϕ0 ]ē0 en alguna
(y por tanto en todas) pareja de bases. En este sentido, la clasificación de espacios vectoriales de
dimensión finita dotados de endomorfismos es equivalente a la clasificación de matrices cuadradas
por conjugación.
90
Nota 3.8 Sea f : E → E 0 un isomorfismo de espacios vectoriales que conjuga ϕ y ϕ0 , es decir
ϕ0 = f ◦ ϕ ◦ f −1 . Entonces para todo polinomio p(x) se tiene p(ϕ0 ) = f ◦ p(ϕ) ◦ f −1
El espacio EndK (E) tiene dimensión finita n2 . Por tanto los elementos de la secuencia IdE , ϕ, ϕ2 ,
ϕ , . . . no pueden ser todos L.I. consideremos el menor m tal que el conjunto {IdE , ϕ, ϕ2 , ϕ3 , . . . , ϕm }
3
es L.D. o bien haya una repetición ϕm = ϕk con k < m, lo primero que ocurra. Entonces, necesa-
riamente ϕm es combinación lineal de las potencias anteriores de ϕ.
m−1
X
ϕm = bk ϕk .
k=0
Pm−1
Tomamos entonces anϕ (x) = xm − k=0 bk xk . Se tiene por definición anϕ (ϕ) = 0 y para cualquier
polinomio no nulo q(x) de grado < m, q(ϕ) 6= 0.
Definición 3.9 Llamamos polinomio anulador de ϕ al polinomio mónico de menor grado anϕ (x)
tal que anϕ (ϕ) = 0.
Por la división entera, tenemos que si p(x) es un polinomio tal que p(ϕ) = 0 entonces annϕ (x)|p(x).
Es decir p(x) es un múltiplo1 del polinomio anulador.
ϕ + ϕ0 : E ⊕ E 0 → E ⊕ E 0 , e + e0 7→ ϕ(e) + ϕ0 (e0 ).
De manera que si se construye una base de kj=1 Ej mediante la concatenación de bases de los espacios Ej , entonces
L
Pk
la matriz de j=1 ϕk es una matriz diagonal por bloques, cuyos bloques diagonales son las matrices de ϕ1 ,. . .,ϕk .
91
Prueba. (a) Elemental, cálculo del determinante de matrices diagonales por bloques.
(b)Basta observar que (ϕ + ϕ0 )k (e + e0 ) = ϕk (e) + ϕ0k (e0 ). Luego para que un polinomio anule
ϕ + ϕ0 basta con que anule simultáneamente ϕ y ϕ0 . Por tanto anϕ+ϕ0 (x) debe ser un múltiplo de
ambos anuladores. El mcm(anϕ (x), anϕ0 (x)) es el polinomio mónico de menor con esta propiedad,
y por tanto es el anulador requerido.
Prueba. Elemental.
E = V1 ⊕ . . . ⊕ Vk
entonces, se tiene,
ϕ = ϕ|V1 + . . . + ϕ|Vk
y por tanto
(E, ϕ) = (V1 , ϕ|V1 ) ⊕ . . . ⊕ (Vk , ϕ|Vk ).
92
Decimos que heiϕ es el subespacio cı́clico generado por e. Es también claro que heiϕ es el menor
subespacio ϕ-invariante que contiene a e,
Sea (E, ϕ) un espacio cı́clico y e un vector cı́clico. Si el polinomio anulador de ϕ tiene grado
n entonces {e, ϕ(e), . . . , ϕn−1 (e)} es una base de E. Por tanto la dimensión de un espacio cı́clico
coindice con el grado de su polinomio anulador. Más aún, los polinomios anuladores caracterizan
los espacios cı́clicos.
Proposición 3.15 Sean (E, ϕ) y (V, ψ) dos espacios cı́clicos. Entonces (E, ϕ) ' (V, ψ) si y solo si
anϕ (x) = anψ (x).
Prueba. Suponga que son isomorfos. Entonces el isomorfismo envı́a un vector cı́clico a un vector
cı́clico. Las relaciones de dependencia lineal entre sus transformados son las mismas, luego el polino-
mio anulador también. Recı́procamente fijamos vectores cı́clicos e ∈ E y v ∈ V . podemos encontar
un unico isomorfismo que envı́a e a v.
Por tanto,
0 0 ... 0 −a1
1 0 ... 0 −a2
[ϕ]ē =
0 1 ... 0 −a3
.. .. .. .. ..
. . . . .
0 ... 0 1 −an−1
La matriz [ϕ]ē recibe el nombre de matriz compañera del polinomio xn + an+1 xn−1 + . . . a0 . Por el
Lema 3.15 sabemos que cualquier otro espacio con endomorfismo (ψ, V ) es conjugado con (E, ϕ) si
y solo si hay una base {v1 , . . . , vn } de V tal que la matrix [ψ]v̄ es igual a [ϕ]ē . Por tanto [ϕ]ē es una
forma canónica para (E, ϕ) que recibe el nombre de forma canónica racional de Frobenius. De esta
manera hemos definido la forma canónica racional de Frobenius para los endomorfismos cı́clicos,
más adelante veremos como definirla para endomorfismos cualesquiera.
93
Definición 3.16 Para cada polinomio p(x) denotamos Eϕ,p(x) ⊂ E al subespacio:
Eϕ,p(x) = ker(p(ϕ)),
que recibe el nombre de subespacio propio generalizado de polinomio p(x).
Por ejemplo, Eϕ,x−λ es el espacio propio de ϕ de valor λ,
E(ϕ, x − λ) = {e ∈ E | ϕ(e) = λe};
sus elementos se llaman vectores propios de valor propio λ.
Lema 3.17 Los espacios propios generalizados verifican las siguiente propiedades:
(a) Para todo polinomio p(x) el Eϕ,p(x) = ker(p(ϕ)) es un subespacio ϕ-invariante.
(b) Si p(x)|q(x) entonces Eϕ,q(x) ⊆ Eϕ,p(x) .
(c) Eϕ,p(x) = Eϕ,mcd(anϕ (x),p(x)) .
(d) heiϕ ⊆ Eϕ,p(x) ⇐⇒ anϕ,e (x)|p(x).
(e) Para cualquier espacio ϕ-invariante V se tiene V ⊆ Eϕ,p(x) ⇐⇒ anϕ|V (x)|p(x).
Prueba. (a) Sea e ∈ ker(p(ϕ) entonces p(ϕ)(ϕ(e)) = (p(ϕ) ◦ ϕ)(e) = ϕ(p(ϕ)(e)) = 0. Lue-
go ϕ(e) ∈ ker(p(ϕ)). (b) Basta aplicar la definición. (c) Sea q(x) el mcd. La descomposición,
q(x) = a(x)p(x) + b(x)anϕ (x) prueba una inclusión, la otra es por el apartado (b). (e) Basta
aplicar la definición. (d) es un caso particular de (e).
Por tanto (E, ϕ) está organizado como un retı́culo de un número finito espacios propios genera-
lizados. Cada espacio propio corresponde a ún divisor de annϕ (E).
94
Corolario 3.19 (Primer teorema de descomposición) Sea
la descomposición de anϕ (x) es factores irreducibles diferentes en K[x]. Entonces hay una descom-
posión única de E es subespacios ϕ-invariantes,
de tal manera que para cada j el polinomio anϕj (x) es una potencia de pj (x). Entonces para j =
1, . . . , r,
f (Eϕ,pj (x)mj ) = Ej .
Prueba. La existencia de la descomposición se sigue del lema, por inducción. Veamos la unicidad.
Como el polinomio anulador de ϕj divide al polinomio anulador de ϕ tenemos que es una potencia
pj (x)`j con `j ≤ mj . Por tanto f −1 (Ej ) ⊆ Eϕ,pj (x)`j ⊆ Eϕ,pj (x)mj . Para que las dimensiones de
los espacios Ej sumen la dimnsión de E es necesario que las inclusiónes anteriores sean igualdades
para cada j = 1, . . . , r.
Lema 3.20 Supongamos (E, ϕ) un espacio cı́clico anϕ (x) = p(x)m con p(x) irreducible en K[x].
Entonces para todo k = 0, . . . , m se tiene im(p(ϕ)k ) = ker(p(ϕ)m−k ).
Prueba. Sea e un vector cı́clico de E. Sea n el grado de p(x). Consideramos los vectores:
como todos ellos se obtienen aplicando a e polinomios de grados diferentes, y menores que el
grado del anulador nm, deben ser linealmente independientes y por tanto una base de E. En dicha
base, ordenada de la siguiente manera ē = (e00 , e01 , . . . , e0,n−1 , e11 , e12 , . . . , em−1,0 , . . . , em−1,n−1 la
matriz de p(ϕ) toma la siguiente forma:
0n×n 0n×n ... . . . 0n×n
.. .. ..
In×n 0n×n
. . .
[p(ϕ)]ē = 0n×n In×n 0n×n
. .. ..
.
. .. .. ..
..
. . . 0n×n
0 . . . 0n×n In×n 0n×n
95
ker(p(ϕ)2 ) = hek,j | m − 2 ≤ k ≤ m − 1, 0 ≤ j ≤ n − 1iK = im(p(ϕ)m−1 )
..
.
ker(p(ϕ)m−1 ) = hek,j | 1 ≤ k ≤ m − 1, 0 ≤ j ≤ n − 1imathbbK = im(p(ϕ)1 )
ker(p(ϕ)m ) = E = im(p(ϕ)0 )
que finaliza la demostración.
Teorema 3.21 (Segundo teorema de descomposición) Supongamos anϕ (x) = p(x)m con p(x)
irreducible en K[x]. Entonces E descompone como suma directa de espacios cı́clicos:
k
M
E= hej iϕ .
j=1
Prueba. Por inducción sobre la dimensión de E. Para todo e ∈ E el anulador de (ϕ, e) es una
potencia de p(x) de exponente r ≤ m. Sea r el exponente más alto que se alcanza. Entonces
p(ϕ)r = 0 y por tanto r ≥ m. Luego r = m y existe un elemento e1 tal que anϕ,e1 (x) = p(x)m .
Como he1 iϕ es ϕ-invariante entonces el morfismo ϕ pasa al cociente e induce un endomorfismo
ϕ̄ que hace al siguiente diagrama conmutativo:
he1 iϕ /E / E/he1 iϕ
ϕ ϕ̄
he1 iϕ /E / E/he1 iϕ
v̄ = v + he1 iϕ
Dado que p(ϕ̄)r (v̄) = 0 tenemos p(ϕ)r (v) ∈ he1 iϕ . Además pm−r (ϕ)(p(ϕ)r (v)) = 0, y por el Lema
3.20 entonces p(ϕ)r (v) está en la imagen de p(ϕ)r |he1 iϕ . Eso significa que hay un elemento q(ϕ)(e1 )
tal que p(ϕ)r (v) = p(ϕ)r q(ϕ)(e1 ) Tomemos ahora el nuevo representante v 0 = v − q(ϕ)e1 . Resulta
entonces p(ϕ)r (v 0 ) = 0, y por tanto el subespacio cı́clico he02 iϕ se proyecta isomorficamente sobre
hv̄iϕ̄ y está en suma directa con he1 iϕ .
Apliquemos ahora la hipótesis de inducción. Tenemos que hay vectores ē2 , . . . ēk en E/he1 iϕ
Lk
de manera que E/he1 iϕ = j=2 hēj iϕ . Por la discusión anterior podemos encontrar representantes
Lk
e2 , . . . , ek de ē1 , . . . ēk de manera que j=2 hej iϕ es un suplementario en E de he1 iϕ . Esto concluye
la demostración.
96
3.2.8. Divisores elementales y factores invariantes
Entonces, dado ϕ un endomorfismo de E, con
primero se descompone, por el primer teorema, en los espacios propios generalizados correspondien-
tes a los polinomios pj (x)mj y luego cada uno de estos Eϕ,pj (x)mj se descompone, por el segundo
teorema, en espacios cı́clicos con polinomios anuladoes pj (x)mj,1 , . . . , pj (x)mj,`(j) ; con mj = mj,1 ≥
mj2 ≥ . . . ≥ mj,`(j) . Estos polinomios,
se llaman los divisores elementales de (E, ϕ). Queda demostrado el siguiente resultado.
Teorema 3.22 Todo espacio dotado de endomorfismo (E, ϕ) descompone como suma de espacios
cı́clicos,
(E, ϕ) = (E1 , ϕ1 ) ⊕ . . . ⊕ (Ek , ϕk )
donde los anuladores qj (x) = anϕj (x) son los divisores elementales de (E, ϕ). La tupla no ordenada
de divisores elementales (p1 (x), . . . , pk (x)) es un invariante suficiente de (E, ϕ).
Prueba. Basta observar que el polinomio anulador el producto de los divisores elementales con
exponentes mayores, es decir, la primera columna de (3.1), mientras que el polinomio caracterı́stico
es el producto de todos los divisores elementales.
En en diagrama (3.1) hay que observar que cada fila puede tener una longitud diferente. Vamos
a definir otro invariante suficiente, reescribiendo los divisores elementales. Sea ` = máx{`(j) | j =
1, . . . r}. Para convertir al diagrama (3.1) en una matriz r × ` completamos por pj (x)0 = 1 todos
los espacios, es decir, si ` ≥ k > `(j) tomamos mj,k = 0. Entonces definimos los polinomios:
r
Y
Φ1 (x) = pj (x)mj,`
j=1
r
Y
Φ2 (x) = pj (x)mj,`−1
j=1
97
..
.
r
Y
Φ` (x) = pj (x)mj,1
j=1
Es decir Φ1 (x) es el producto de los elementos de la última columna de (3.1), y ası́ hasta Φ` (x)
que es el producto de los elementos de la primera columna (3.1). Estos polinomios se llaman los
factores invariantes de (E, ϕ). Los divisores elementales pueden recuperarse de la descomposición
en irreducibles de los factores invariantes. Por tanto los factores invariantes son también un sistema
suficiente de invariantes: dos endomorfismos son conjugados si y solo si tienen los mismos factores
invariantes.
Los factores invariantes se han construido de manera que cada uno divide al siguiente,
Φ1 (x)|Φ2 (x)| . . . |Φ` (x).
El producto de todos ellos es el polinomio caracterı́stico y el último de ellos el polinomio anulador.
Una consecuencia inmediata de la definición de los factores invariantes y el teorema chino de los
restos es.
Corolario 3.25 Un endomorfismo es cı́clico si y solo si su polinomio anulador coindice con su
polinomio caracterı́stico.
Consideremos ahora (E, ϕ). Dado que cada factor invariante,
r
Y
Φk (x) = pj (x)mj,`−k
j=1
se ha construido como producto de divisores elementales coprimos, aplicando el teorema chino de los
restos, obtenemos que la suma directa de los cı́clicos correspondientes a los divisores {pj (x)mj,`−k |
j = 1, . . . , r} es un cı́clico cuyo anulador es Φk (x). Queda por tanto demostrado el teorema.
98
Teorema 3.26 (Descomposición minimal) Sean Φ1 (x), . . . Φ` (x) los factores invariantes de (E, ϕ);
el espacio E descompone como suma directa de ` espacios ϕ-invariantes cı́clicos,
E = E1 ⊕ . . . ⊕ E`
Definición 3.27 Sea (E, ϕ) un endomorfismo y sean Φ1 ,. . .,Φ` sus divisores elementales. La forma
canónica racional de Frobenius es la matriz diagonal por bloques, cuyos bloques diagonales son las
matrices compañeras de Φ` ,. . .,Φ1 4 .
Dado que la forma racional de Frobenius contiene todos los coeficientes de los factores inva-
riantes, es claro que la forma canónica racional de Frobenius de un endomorfismo es un invariante
suficiente. Dado un endomorfismo ϕ de E. ¿Como encontrar una base tal que la matriz de ϕ en dicha
base sea su forma racional de Frobenius, y en consecuencia hallar también los divisores invariantes?
Puede seguirse el siguiente procedimiento:
Para cada divisor intermedio q(x), p1 (x) · · · pr (x)|q(x)|charϕ (x) evalúe q(ϕ). El polinomio
anulador es el menor de ellos para el cual q(ϕ) = 0.
(3.) Busque un vector e1 de polinomio anulador anϕ (x) Esto puede hacerlo al azar, basta con que
e no caiga en un espacio propio generalizado. Entonces e1 ,ϕ(e1 ), . . .,ϕk−1 (e1 ) (donde k es el
grado del anulador) son los elementos de la base correspondientes al ultimo bloque.
(4.) Sea E0 ⊂ E el espacio generado por los elementos de la base que ya calculó. Calcule el
endomorfismo inducido por ϕ en el cociente E/E0 ; su polinomio anulador es el penúltimo
factor invariante Φ`−1 (x).
(5.) Busque un vector e2 en el espacio propio generalizado Eϕ,Φ`−1 (x) que tenga polinomio anulador
Φ`−1 (x). e2 y sus transformados (hasta el grado de Φ`−1 (x) menos 1) forman los siguientes
vectores de la base.
(6.) Pase al cociente por el espacio generado por los vectores de la base que ya calculó, para
calcular el factor invariante anterior, y repita el proceso hasta que complete una base de E.
99
Definición 3.28 Sea (E, ϕ) un espacio con endomorfismo cı́clico cuyo polinomio anulador es de
la forma p(x)r con p(x) irreducible de grado m en K[x]. Una base de Jordan para (E, ϕ) es una
base de la forma {ei,j | 0 ≤ i < r, 0 ≤ j ≤ m} con ei,j = p(ϕ)i ϕj (e) para e un vector ϕ-cı́clico.
y sea anϕ = xm + am−1 xm−1 + . . . + a0 . Notemos que entonces, por la propia definición de la base
de Jordan:
ϕ
e01 −−→ e02
ϕ
e02 −−→ e03
..
.
ϕ
e0,m−1 −−→ −a0 e00 − a1 e01 − . . . am−1 e0,m−1 + e10
ϕ
e01 −−→ e02
..
.
ϕ
e1,m−1 −−→ −a0 e10 − a1 e11 − . . . am−1 e1,m−1 + e20
..
.
ϕ
er−1,m−1 −−→ −a0 er−1,0 − a1 er−1,1 − . . . am−1 er−1,m−1
0 0 ... −a1
1 0 ... −a2
.. . . ..
.
. .
0 . . . 1 −an−1
1 0 0 ... −a1
1 0 ... −a2
.. ..
..
[ϕ]ē =
. . .
0 ... 1 −an−1
..
1 .
1 0 0 ... −a1
1 0 ... −a2
.. .. ..
. . .
0 ... 1 −an−1
100
de Jordan para uno de los subespacios cı́clicos. En una base de Jordan e = (e1 , . . . , en ) la matriz
de ϕ se escribe:
J1
J2
..
[ϕ]ē =
.
. ..
Jm
donde las matrices Jm son los bloques de Jordan correspondientes a los divisores elementales de ϕ.
Esta matriz recibe el nombre de forma canónica de Jordan y está definida salvo por el orden de los
bloques.
Merece especial atención el caso en el que K es algebraicamente cerrado. En ese caso, los divisores
elementales son necesariamente de la forma (x − λ)r , y corresponden por tanto a valores propios de
ϕ. El bloque de Jordan correspondiente al polinomio (x − λ)r es la matriz r × r:
λ 0 ... ... 0
.
1 λ . . . . . . ..
.. ..
0 1
λ . .
. .
.. .. ... ... 0
0 ... 0 1 λ
y por tanto, cuando K es algebraicamente cerrado la forma canónica de Jordan de ϕ es una matriz
que en la diagonal tiene los valores propios de ϕ repetidos tantas veces según su multiplicidad en
charϕ y por debajo de la diagonal elementos 1 o 0.
Veamos como es el cálculo de una base de Jordan, una forma canónica de Jordan, y por tanto
de los divisores elementales, cuando el cuerpos K es algebraicamente cerrado.
debe estabilizar para algún ` ≤ r. Entonces ` es el exponente del divisor elemental (x − λ)`
con mayor exponente. Podemos deducir varias cosas:
(i) La dimensión de Eϕ,x−λ es el número total de bloques de Jordan con valor propio λ que
aparecen en la forma canónica de ϕ.
(ii) La codimensión de Eϕ,(x−λ)k−1 en Eϕ,(x−λ)k es la cantidad de bloques que hay de tamaño
≥ k. Con esta información puede calcular la cantidad y tamaño de los bloques.
101
(iii) La cantidad de bloques y es cantidad de divisores elementales correspondientes al valor
propio λ. Los tamaños de los bloques, son los exponentes. Se calculan por tanto los
divisores elementales (x − λ)s1 ,. . .,(x − λ)sn . Debe ser s1 = `, s1 ≥ s2 ≥ . . . ≥ sn y
s1 + . . . + sn = r.
(4.) Para cada sk , por orden de mayor a menor, debe buscar generador de un cı́clico de dimensión
sk . Puede tomar cualquier ek que esté en Eϕ,(x−λ)sk y no esté Eϕ,(x−λ)sk −1 .
(i) En cada caso debe comprobar que el nuevo vector ek que toma no está en la suma
de los espacios cı́clicos generados por los vectores cı́clicos e1 ,. . .,ek−1 que haya tomado
anteriormente.
(ii) Los vectores de la base de Jordan correspondientes al bloque de tamaño sk correspondien-
te al subespacio cı́clico generado por ek son ek ,(ϕ−λ)(ek ),(ϕ−λ)2 (ek ),. . .,(ϕ−λ)sk −1 (ek ).
T2 E = S2 E ⊕ A2 E.
ϕ∗ : T2 E → T2 F
donde (ϕ∗ g)(e, v) = g(ϕ(e), ϕ(v)). En particular el grupo de automorfismos AutK (E) actúa en T2 E
por la izquierda tomando σ ? g := (σ ∗ )−1 (g). Esta acción conserva los subespacios S2 E y A2 E.
(E, g) ⊥ (E 0 , g 0 ) = (E ⊕ E 0 , g + g 0 )
donde el tensor métrico g + g 0 está definido por la fórmula: (g + g 0 )(e + e0 , v + v 0 ) = g(e, v) + g 0 (e0 , v 0 ).
La suma ortogonal es claramente asociativa.
102
Dos subespacios S y S 0 de E son ortogonales respecto al tensor métrico g si g(S, S 0 ) = g(S 0 , S) =
{0}. Para descomponer un espacio dotado de tensor métrico (E, g) como suma ortogonal, necesita-
mos encontrar espacios suplementarios que además sean ortogonales con respecto a g. Decimos que
S y S 0 son suplementarios ortogonales en (E, g) si son suplementarios en E y además g(S × S 0 ) = 0.
Lema 3.29 Si S y S 0 son suplementarios ortogonales en (E, g) entonces:
Prueba. Elemental.
Lema 3.30 Sea g un tensor métrico simétrico (alternado) en E. Sea S cualquier espacio vectorial
suplementario a rad(E). Considere la proyección π : E → E/rad(g). Entonces hay una único tensor
métrico simétrico (alternado) ḡ en E/rad(g) tal que π ∗ (ḡ) = g. Además se tiene:
(S, g|S ) ' (E/rad(g), ḡ), (E, g) ' (S, g|S ) ⊥ (rad(g), 0)
Lema 3.32 Sea P ⊂ E un plano y Ω una métrica alternante no nula en P . Entonces hay una base
{e1 , e2 } de P tal que (Ω(e1 , e2 ) = 1. Es decir, en la base dual {θ1 , θ2 ) se tiene Ω = θ1 ∧ θ2 .
Prueba. Dado que Ω es distinto de cero, debe haber dos vectores v1 , v2 tales que Ω(v1 , v2 ) 6= 0. Da-
do que Ω es alternante, v1 , y v2 son L.I. Basta entonces tomar v1 como e1 y Ω(v1 , v2 )−1 v2 como e2 .
Se sigue que solo hay dos clases de isomorfismo de planos dotados de métricas alternantes. Las
métricas nulas, y las de rango 2, que en alguna base se ecriben como θ1 ∧ θ2 .
Lema 3.33 Sea Ω un tensor métrico alternado no nula en E. Entonces existe un plano P ⊂ E,
tal que Ω|P 6= 0 y un suplementario H ortogonal a P de manera que:
103
Prueba. Sea e un vector tal que ιe Ω 6= 0 que debe existir pues Ω no es nula. Entonces debe haver
un segundo vector tal que (ιe Ω)(v) 6= 0. De nuevo, por ser Ω alternante, e y v son L.I.. Tomemos
P el plano generado por e y v. Tomemos H el espacio definido:
Este teorema ya da una clasificación completa. Dos espacios (E, Ω) y (E 0 , Ω0 ) dotados de métricas
alternantes son isomorfos si y solo si dim(E) = dim(E 0 ) y rk(Ω) = rk(Ω0 ), siendo este último rango
par. El conjunto de las clases de isomorfı́a se identifica con:
{(n, 2r) : 2r ≤ n} ⊆ N × 2N
Notemos que, como los espacios vectoriales están clasificados por la dimensión, es equivalente
clasificar los objetos de la categorı́a de los espacio vectoriales dotados de métricas, que clasificar las
métricas en el espacio Kn para cada dimensión n.
104
Una transformación ϕ es simpléctica si y solo si su matriz Aen una base simpléctica verifica:
T 0n×n In×n 0n×n In×n
A A= .
−In×n 0n×n −In×n 0n×n
Definimo por tanto el grupo simpléctico
T 0n×n In×n 0n×n In×n
Sp(2n, K) = A ∈ GL(2n, K) | A A=
−In×n 0n×n −In×n 0n×n
cuyos elementos se denominan matrices simplécticas.
Entonces, todas las rectas ortogonales que aparecen en la descomposición del teorema de Gram-
Schmidt son isomorfas y tenemos:
Teorema 3.39 Sea E un espacio vectorial de dimensión finita sobre un cuerpos K cerrado por
raı́ces cuadradas y g una métrica simétrica no nula de sango r. Entonces hay una base {e1 , . . . , en }
de E tal que: (
δij si i ≤ r
g(ei , ej ) =
0 en otro caso
es decir, en la base dual {θ1 , . . . , θn },
g = θ1 ⊗ θ1 + . . . θr ⊗ θr .
105
Problema 3.40 Una pareja de vectores u, v se llama un par hiperbólico si Ω(u, u) = Ω(v, v) = 0 y
Ω(u, v) = 1. Muestre que si Ω es una métrica simétrica no degenerada en un espacio E de dimensión
para entonces hay una base de E formada por parejas hiperbólicas, de tal manera que los planos
que generan son mutuamente ortogonales.
Problema 3.42 En dos problemas anteriores, hemos clasificado bajo la acciones A ? B = ABAT
las matrices simétricas y antisimétricas. La misma acción podrı́a considerarse en el espacio de todas
las matrices, sin embargo: ¿Podemos resolver este problema de clasificación en función de los dos
anteriores?
Lema 3.43 Sea E un espacio vectorial real de dimensión 1 y sea g una métrica simétrica no nula.
Entonces se verifica una y solo una de las siguientes:
(a) Hay un vector e ∈ E tal que g(e, e) = 1, es decir, si {θ} es la base dual de E entonces g = θ⊗θ.
(b) Hay un vector e ∈ E tal que g(e, e) = −1, es decir, si {θ} es la base dual de E entonces
g = −θ ⊗ θ.
v
Prueba. Sea v cualquier vector no nulo. Basta tomar e = √ .
|g(v,v)|
Teorema 3.44 Sea E un espacio vectorial de dimensión finita sobre K algebraicamente cerrado y
g una métrica simétrica no nula. Entonces hay un 0 ≤ s ≤ r y una base {e1 , . . . , en } de E tal que:
δij
si 0 ≤ i ≤ s
g(ei , ej ) = −δij si s < i ≤ r
0 en otro caso
g = θ1 ⊗ θ1 + . . . θs ⊗ θs − θs+1 ⊗ θs+1 − . . . − θr ⊗ θr .
106
(a) s = número de 1’s,
(b) r − s = número de −1’s,
(c) n − r = número de0’s,
que aparecen en la matriz de la métrica g en la base dada por el teorema anterior se llama la
signatura de la métrica g. Notese que si (a, b, c) es la signatura de (E, g) entonces a + b + c es la
dimensión de E y c es la dimensión del radical de g.
Las métricas de signatura (n, 0, 0) se llaman productos escalares euclı́deos. Un espacio vectorial
euclı́deo es un espacio vectorial dotado de un producto escalar euclideo, por ejemplo Rn con el
producto punto “·” usual. Todos los espacios vectoriales euclı́deos de la misma dimensión son
isomorfos. Un tensor métrico simétrico g en E es un producto escalar euclı́deo si y solo si:
∀e ∈ E e 6= 0 =⇒ g(e, e) > 0
Problema 3.46 Encuentre todas las bases posibles en las cuales Ω se encuentra en forma canónica
para un plano de signatura (1, 1, 0) y un espacio (2, 1, 0).
Problema 3.47 Muestre que la signatura es una función aditiva en el sentido de que si (E1 , g1 )
tiene signatura (a1 , b1 , c1 ) y (E2 , g2 ) tiene signatura (a2 , b2 , c2 ) entonces (E1 , g1 ) ⊥ (E2 , g2 ) tiene
signatura (a1 + a2 , b1 , +b2 , c1 + c2 ).
107
Para las métricas simétricas, además de con bases ortonormales, también se puede trabajar con
bases hiperbólicas. Una pareja hiperbólica es una pareja de vectores e, v linealmente independientes
tales que g(e, e) = g(v, v) = 0 y g(e, v) = 1.
Problema 3.48 Muestre que si (E, g) tiene signatura (r, r, 0) entonces hay una base de E com-
puesta por parejas hiperbólicas, de manera que el plano generado por cada pareja es ortogonal al
espacio generado por todas las demás. Escriba la matriz de g en dicha base.
(a + bi)e = ae + bJ(e).
Recı́procamente, todo espacio vectorial complejo es un espacio vectorial real. Además la multipli-
cación por la unidad imaginaria:
E → E, e → 7 ie
es una estructura compleja en E. Además, una transformación R-lineal ϕ : E → V entre dos espaciso
vectoriales complejos es C-lineal si y solamente si verifica ϕ(ie) = iϕ(e). Es decir, si es un morfismo
de espacios vectoriales reales con estructura compleja. Queda demostrado:
Teorema 3.50 La categorı́a de espacios vectoriales reales dotados de estructura compleja es equi-
valente a la categorı́a de espacios vectoriales complejos.
En el caso del espacio Cn se toma la identinficación Cn ' R2n separando cada coordenada
compleja zj en parte real e imaginaria zj = xi + yj . Entonces,
∼
Cn −−→ R2n , (z1 , . . . , zn ) 7→ (x1 , . . . , xn , y1 , . . . , yn ).
108
Una matriz real 2n × 2n corresponde con una transformación C-lineal si y solo si conmuta con la
estructura compleja J. Tenemos entonces,
C → C, z = a + bi 7→ z̄ = a − bi.
es decir toda funcón R-lineal de E en C descompone de forma única como la suma de una forma
lineal y una antilineal.
109
Prueba. Sea θ una forma R-lineal con valores en C. Definimos η(e) = θ(e) − iθ(ie) y χ(e) =
θ(e) + i(θ(ie)). Se comprueba con facilidad que θ = η + χ, η es C-lineal y χ es antilineal. También, si
una forma θ es lineal y antilineal a la vez, debe ser nula pues verificarı́a 2iθ(e) = 0 para todo e ∈ E.
Ejemplo 3.52 Consideramos en Cn las coordenadas z1 , . . . , zn . Por definición, son lineales y for-
man una base de E ∗ . Sus funciones conjugadas z̄1 , . . . , z̄n son antilineales y forman una base de
E cj∗ . Escribamos,
zj = xj + iyj .
Las funciones x1 , y1 , . . . , xn , yn son R-lineales y forman una base de LinR (E, C). Ahora:
1 1
xj = (zj + z̄j ), yj = (zj + z̄j ).
2 2i
Y de ahı́, las funciones z1 , z̄1 , . . . , zn , z̄n también forman una base de LinR (E, C).
Las matrices de las formas sesquilineales cambian de base de una forma parecida a la de las formas
bilineales, pero debe tenerse en cuenta la conjugación compleja.
Definición 3.53 Sea B una matriz n × n compleja. Su matriz adjunta B ∗ es la matriz cuyos
elementos son los números complejos conjugados de la matriz transpuesta B T .
Entonces,
P si tenemos otra base {v1 , . . . , vn } y tenemos la matriz de cambio de base B dada por
vk = bjk ej entonces,
[κ]v̄ = B[κ]ē B ∗ .
Se comprueba con facilidad que la contracción interior ικ de una forma sesquilineal es una
transformación lineal
ικ : E → E cj∗ , e 7→ ιe κ, ιe κ(v) = κ(e, v).
De la misma forma que los tensores métricos simétricos están determinados por una forma
cudrática, también las formas sesquilineales están determinadas por la restricción a la identidad.
110
Lema 3.54 (Identidad de polarización) Sea κ : E × E → C una forma sesquilineal que para
cualesquiera e, v en E verifica κ(v, e) = κ(e, v). Entonces,
3
1X k
κ(e, v) = i κ(e + ik v, e + ik v).
4
k=0
Notemos que la segunda condición tiene sentido a causa de la primera κ(e, e) es un número real.
Por las propiedades anteriores la descomposición en parte real e imaginaria puede hacerse:
κ(e, v) + κ(v, e) κ(e, v) − κ(v, e)
g(e, v) = , ω(e, v) =
2 2i
Se tiene:
(a) La parte real de un producto hermitiano es un producto escalar euclı́deo (real).
(b) La parte imaginaria de un producto hermitiano es una métrica simpléctica real.
La parte real g y la parte imaginaria ω se determinan mútuamente, pues g(e, iv) = ω(e, v).
El producto unitario define en E una norma, que es la misma definida por su parte real.
Esta norma tiene además compatibilidad con el producto por escalares complejos, y no sólo reales,
en el sentido que que,
∀λ ∈ C, e ∈ E, kλek = |λ|kek,
y en ese sentido decimos que es una norma compleja.
Definición 3.55 Un espacio unitario (E, κ) es un C-espacio vectorial dotado de un producto her-
mitiano.
∀e1 , e01 ∈ E1 e2 , e02 ∈ E2 (κ1 + κ2 )(e1 + e2 , e01 + e02 ) = κ1 (e1 , e01 ) + κ2 (e2 , e02 ).
111
Ejemplo 3.56 En el espacio Cn consideremos el producto interno,
Decimos que dos espacios hermitianos (E1 , κ1 ) y (E2 , κ2 ) son isomorfos (como espacios hermi-
tianos) si hay un isomorfismo C-lineal f : E1 → E2 tal que,
Una base unitaria de E es una base {e1 , . . . , en } tal que κ(ek , ej ) = δkj . En los espacios unitarios
también funciona el algoritmo de Gram-Schmidt y por tanto, existen bases unitarias. La transfor-
mación lineal que envı́a una base unitaria de E1 en una base unitaria de E2 es un isomorfismo de
espacios unitarios. Por tanto, tenemos el siguiente resultado de clasificación.
Proposición 3.57 Los espacios hermitianos están clasificados por la dimensión. Es decir, si (E1 , κ1 )
y (E2 , κ2 ) son espacios unitarios de la misma dimensión, entonces existe un isomorfismo f : E1 →
E2 tal que
∀e, v ∈ E κ1 (e, v) = κ2 (f (e), f (v)).
V ⊥κ = {e ∈ E | ∀v ∈ V κ(v, e) = 0}.
E = V ⊕ V ⊥κ ,
es decir,
(E, κ) = (V κ|V ) ⊥ (V ⊥κ , κ|V ⊥κ ).
De esta manera, dado un subsespacio V ⊆ E tenemos una tranformación lineal canónica que es
la proyección sobre el primer factor de la descomposición E = V ⊕ V ⊥κ . Esta transformación se
llama la proyección ortogonal sobre V , πV : E → V .
112
3.4.6. El grupo unitario
Sea (E, κ) un espacio unitario. Una transformación lineal ϕ : E → E es unitaria si ϕ∗ (κ) = κ,
es decir,
κ(e, v) = κ(ϕ(e), ϕ(v)).
Esto implica que ϕ es inyectiva y por tanto un automorfismo. El grupo U(E, κ) ⊂ AutC (E) se dice
el grupo unitario de E.
Ejemplo 3.58 Una matriz U ∈ GL(n, C) es una transformación unitaria de Cn si y solo si verifica
U U ∗ = In×n .
En tal caso decimos que es una matriz unitaria. El grupo de las matrices unitarias n × n se llama
el grupo unitario U(n). Son equivalentes:
(a) U es una matriz unitaria n × n.
(b) Las columnas de U forman una base unitaria de Cn .
Es claro que una transformación lineal ϕ de un espacio unitario (E, κ) es unitaria, si y solo si,
en bases unitarias la matriz de ϕ es unitaria.
(a) | det(ϕ)| = 1.
(b) Spec(ϕ) ⊂ {z ∈ C | z z̄ = 1} si λ es un valor propio de ϕ entonces |λ| = 1.
(c) Si e y v son vectores propios de ϕ correspondientes a diferentes valores propios entonces
κ(e, v) = 0.
Prueba. Pendiente.
Teorema 3.60 (Teorema 2 de 3) Sea (E, κ) un espacio unitario. Denotemos por J la estructura
compleja de E, y κ = g + iω. Entonces el grupo U(E, κ) es la intersección de 2 cualesquiera de los
tres grupos AutR (E, J), Sp(E, ω), O(E, g).
113
3.4.7. Operadores auto-adjuntos
Sea (E, κ) un espacio unitario. Denotemos,
κ(e, v) = he, vi
(a) e = v.
(b) ∀w ∈ E he, wi = hv, wi.
(c) ∀w ∈ E hw, ei = hw, ei.
Prueba. Notemos que (b) significa exactamente (ικ)(e) = (ικ)(v) y ικ es un isomorfismo luego (a)
y (b) son equivalentes. De forma similar, cambiando el orden de los argumentos en κ, (c) significa
σ ◦ ((ικ)(e)) = σ ◦ ((ικ)(v)) y por tanto donde σ representa la conjugación compleja. Componiendo
de nuevo con σ tenemos (ικ)(e) = (ικ)(v).
Por otro lado, toda transformación lineal ψ : E → E define una transformación lineal transpuesta
en el espacio de formas antilineales ψ T : E cj∗ → E cj∗ θ 7→ ψ T (θ) = θ ◦ ψ. Definimos entonces la
transformación adjunta de ψ como,
ψT
E cj∗ / E cj∗ ψ ∗ = (ικ)−1 ◦ ψ T ◦ ικ.
O O
ικ ικ
ψ∗
E /E
La transformación adjunta se ha definido de tal modo que para todo e ∈ E se tiene ιe κ ◦ ψ = ιψ∗ e κ.
Es decir, para todos e, v ∈ E
hψ ∗ (e), vi = he, ψ(v)i,
invirtiendo el orden de los argumentos de κ y conjugando, esto es equivalente a decir que para todos
e, v ∈ E
hψ(v), ei = hv, ψ ∗ (e)i.
Del Lema 3.61 se extrae que ψ ∗ es la única transformación lineal que verifica alguna de las anteriores
identidades.
Ejemplo 3.62 En el caso de las matrices n × n complejas, el operador adjunto se corresponde con
la matriz adjunta. Por tanto un operador auto-adjunto en Cn es una matriz A tal que A = A∗ .
114
(b) Es una involución ψ ∗∗ = ψ.
Decimos que transformación lineal ψ es un operador auto-adjunto si ψ = ψ ∗ . Veamos algunas
de las propiedades elementales de los operadores auto-adjuntos:
Prueba. (a) es consecuencia de (b), por tanto probemos (b). Sean λ un valor propio de ψ, consi-
deremos e un vector propio no nulo de valor λ. Entonces
por tanto λ = λ̄ y λ ∈ R.
(c) Supongamos ψ(e) = λe y ψ(v) = µv con λ 6= µ. Entonces,
115
Prueba. (a) y (b) son inmediatos en una base unitaria.
Probemos (c). Sea V el espacio propio de valor λ de ψ. Como ψ ∗◦ψ = ψ ◦ψ ∗ se tiene que ψ ∗ (V ) ⊆ V
pues para cada e ∈ V se tiene ψ(ψ ∗ (e)) = ψ ∗ (λe) = λψ ∗ (e). Para todo e en V tenemos,
Definimos la forma ψ̃ : V × V → E, que hace ψ̃(e, v) = he, ψ ∗ (v)i. Es una forma sesquilineal. Por
la identidad de polarización (Lemma 3.54) aplicada a ψ̃ y luego a κ|V tenemos, para cualesquiera
e, v ∈ V
3 3
1X k λX k
he, ψ ∗ (v)i = ψ̃(e, v) = i ψ̃(e + ik v, e + ik v) = i κ(e + ik v, e + ik v) = λhe, vi = he, λ̄vi.
4 4
k=0 k=0
E = V1 ⊥ . . . ⊥ Vk ,
ψ = λ1 π1 + . . . + λk πk
Prueba. Si existe la descomposición, es inmediato comprobar que ψ es normal, puesto que los πj
conmutan con los π` y (λj πj )∗ = λ̄j πj .
En la otra dirección, procedemos por inducción sobre la dimensión de E. Si la dimensión de E es 1
el teorema es evidente. Sea (E, κ) de dimensión n y ψ normal. Supongamos que el teorema es cierto
para espacios de dimensión < n. Toda transformación lineal tiene al menos una recta de vectores
propios. Sea por tanto e un vector propio no nulo, y sea λ su valor propio. Consideramos,
V0 = heiC . V = hei⊥
C .
κ
Entonces (V, κ|V ) es un espacio unitario de dimensión (n − 1). Además para todo v ∈ V ,
116
Es decir ψ(V ) ⊆ V . Por tanto ψ|V es una transformación lineal de V . Es inmediato comprobar que
(ψ|V )∗ = ψ ∗ |V . Por hipótesis de inducción,
V = V1 ⊥ . . . ⊥ Vk
ψ = λπ0 + π0 λ1 π1 + . . . + λk πk .
ψ = λ1 π10 + . . . λk πk
es la descomposición espectral. Finalmente la descomposición es única porque los Vj son los espacios
propios ψ.
(d) Una matriz cuadrada compleja V es unitaria si y solo si existe otra matriz unitaria U tal que
U V U ∗ es una matriz unitaria diagonal.
Prueba. (a), (b) y (d): para formar U basta tomar una base cuyas columnas sean bases unitarias de
los espacios propios de A. (c) es el caso particular en el que se parte de una matriz autoadjunta real.
117
Capı́tulo 4
118
Es claro que A = Aop si y solo si A es conmutativo.
Un ideal izquierdo es un subgrupo aditivo I ⊂ A que tiene la propiedad de absorción por la
derecha AI ⊆ I. Es decir,
∀a ∈ A b, c ∈ I ab ∈ I b + c ∈ I.
Dado un elemento b ∈ A denotamos por Ab al conjunto, Ab = {ab ∈ A|a ∈ A}, que es claramente
el menor ideal izquierdo que contiene a b, y se llama el ideal izquierdo principal generado por b.
Análogamente un ideal derecho es un subgrupo aditivo J ⊂ A que tiene la propiedad de absorción
por la izquierda JA ⊆ J. Es decir,
∀a ∈ A b, c ∈ J ba ∈ I b + c ∈ J.
Dado un elemento b ∈ A denotamos por bA al conjunto, Ab = {ba ∈ A|a ∈ A}, que es claramente
el menor ideal derecho que contiene a b, y se llama el ideal derecho principal generado por b.
Un ideal bilátero L ⊂ A es un subgrupo aditivo que es simultáneamente ideal por la derecha y
por la izquierda ALA ⊆ L.
Si L ( A es un ideal bilátero, entonces en el conjunto de clases,
A/L = {a + L| | a ∈ A}, a + L = {a + ` | ` ∈ L}
(a + L) + (b + L) = (a + b) + L, (a + L)(b + L) = ab + L
119
Si A y B son anillos entonces en el producto cartesiano A × B hay una estructura natural de
anillo tomando (a, b)(a0 , b0 ) = (aa0 , bb0 ) las proyecciones A × B → A y A × B → B sobre los factores
son morfismos de anillos.
Si L ( A es un ideal bilátero, la función de paso al cociente q : A → A/L, a 7→ a + L es un
morfimo de anillos sobreyectivo.
Dados dos ideales biláteros I y J de A tanto la intersección I ∩ J como la suma I + J son ideales
biláteros de A. Se tiene además el ideal producto:
( )
X
IJ = ai bi | ai ∈ I, bi ∈ J
finitas
IJ ⊆ I ∩ J ⊆ I + J.
Teorema 4.1 (chino de los restos) Supongamos que I y J son ideales biláteros de A tales que
I + J = A. Entonces IJ = I ∩ J y la función:
es un isomorfismo de anillos.
A
f
/B f = i ◦ f¯ ◦ q.
O
q i
f¯
A/L / Im(f )
El ejemplo tı́pico de anillo no conmutativo EndK (E) para un espacio vectorial E. En el caso
particular E = Kn este es el anillo Mat(n × n, K) de las matrices cuadradas n × n con coeficientes
en K.
4 También llamado tercer teorema de isomorfismo
120
Endomorfismos de un grupo aditivo
Sea M un grupo abeliano con la operación suma. Denotamos por EndZ (M ) al conjunto de los
endomorfismos de grupo abeliano de M en M . Puede definirse la suma de endomorfismos,
σ + τ : m 7→ σ(m) + τ (m).
Proposición 4.2 Toda K-álgebra de dimensión finita n es isomorfa a una K-algebra matricial.
A × M → M, (a, m) → am
Las nociones de combinación lineal y combinación lineal formal, de las que hemos hecho uso,
tienen perfecto sentido con coeficientes en el anillo A. Por tanto tiene tambı́en sentido hablar de
conjunto L.I. o L.D. sobre A en un A-módulo izquierdo, si bien esta noción no es tan útil como en
el contexto de los espacios vectoriales.
121
2. Dado un conjunto X consideramos:
( )
X
FreeA (X) = ai {xi } | Ai ∈ A, xi ∈ X
finita
122
T
La intersección i∈I Ni de cualquier familia arbitraria {Ni }i∈I de submódulos izquierdos de M
es también un submódulo izquierdo. Definimos también el módulo suma
* +
X [
Ni = Ni ,
i∈I i∈I A
que es el menor submódulo izquierdo que cotiene a los Ni . De nuevo, cuando tenemos N1 y N2
tales que N1 ∩ N2 = 0 y N1 + N2 = M entonces todo elemento de M descompone de forma única
como la suma de un elemento de N1 y un elemento de N2 . Decimos que N1 y N2 son A-módulos
izquierdos suplementarios y escribimos,
M = N1 ⊕ N2 .
M/N = {m + N | m ∈ M }, m + N = {m + n | n ∈ n},
(a + I)(m + IM ) = am + IM.
123
Demotamos por HomA (M, N ) al conjunto de homomorfismos de A-módulos izquierdos de M en
N . Este conjunto tiene una estructura natural de grupo abeliano8 definiendo la suma f + g de dos
homomorfismos f y g como:
Dualidad
Sea f : M → N un morfismo de A-módulos izquierdos. Para cada A-módulo izquierdo Z tenemos
un morfismo inducido por composición.
MO
f
/N f∗
HomA (Z, M ) −−→ HomA (Z, N ).
>
g
f ◦g=f∗ (g)
Z
De aquı́ podemos también asegurar que f es inyectiva si y solo si f∗ es inyectiva para todo Z.
Para que un morfismo h : Z → N esté en la imagen de f∗ es una condición necesaria que la
imagen de h esté contenida en la imagen de f . Pero no es una condición suficiente. Por tanto,
podemos decir,
im(f∗ ) ⊆ HomA (Z, im(f )) ⊆ HomA (Z, N )
pero no podemos decir si la primera inclusión es o no una igualdad. Por eso f puede ser sobreyectiva
sin que lo sea f∗ .
Podemos hacer preguntas similares invirtiendo las flechas. Entonces, para cada AB-bimódulo Z
tenemos un morfismos inducido por composición.
f∗
M
f
/N HomA (N, z) −−→ HomAB−mi (M, Z).
g
g◦f =f ∗ (g)
Z
¿Que podemos decir del núcleo y la imagen de f ∗ en función del núcleo y la imagen de f ? De
nuevo ocurre algo similar. Podemos describir de forma general, pero no la imagen. La condición
8 En el caso general no es aún posible definir una estructura de módulo en el módulo de los homomorfismos. Esto
124
necesaria y suficiente para que f ∗ (g) = 0 es que g se anule a lo largo de la imagen de f . Eso describe
un subgrupo de Homgr (N, Z).
Por ejemplo si f sobreyectiva, podemos asegurar que f es inyectiva. Ahora, ¿cuál es la condición
para que h ∈ Homgr (M, Z) esté en la imagen de f ∗ ? Una condición necesaria es que h se anule a lo
largo del núcleo de f , pero esta condición no es suficiente. Tenemos una inclusión,
Secuencias exactas
Vamos a examinar la cuestión de las secuencias exactas de A-módulos izquierdos. Decimos que
una secuencia de morfismos de A-módulos izquierdos,
fk−2 fk−1 fk fk+1
. . . −−−→ Mk−1 −−−→ Mk −−→ Mk+1 −−−→ . . .
donde definimos K = ker(f ) y C = coker(f ) := N/im(f ). Para cada AB-bimódulo Z tenemos dos
secuencias inducı́das,
∗ i f∗ q∗
0−
→ HomA (Z, K) −−→ HomA (Z, M ) −−→ HomA (Z, N ) −−→ HomA (Z, C)(−
→ 0) (4.2)
i∗ f∗ q∗
(0 ←−)HomAB−bm (K, Z) ←−− HomAB−bm (M, Z) ←−− HomAB−bm (N, Z) ←−− HomAB−bm (C, Z) ← −0
(4.3)
De la discusión anterior se desprende que las secuencias (4.2) y (4.3) son exactas en todos
los términos excepto en el último (señalado entre paréntesis). Puede probarse, de forma bastante
natural:
(a) La condición necesaria y suficiente para que (4.2) sea una secuencia exacta para todo Z es
que q admita una sección σ (inverso por la derecha q ◦ σ = IdC ).
125
(b) La condición necesaria y suficiente para que (4.3) sea una secuencia exacta para todo Z es
que i admita un retracto ρ (inverso por la izquierda ρ ◦ i = IdK ).
Otra cuestión es que A-módulos izquierdos Z tienen la propiedad de producir siempre la secuen-
cias exactas en todos los términos. Esto nos lleva a la teorı́a de módulos proyectivos e inyectivos,
que tiene respuestas diferentes para cada anillo.
Decimos que un A-módulo izquierdo Z es proyectivo si para toda secuencia exacta (4.1) la
secuencia de homomorfimos (4.2) es exacta en todos sus términos.
Decimos que un A-módulo izquierdo Z es inyectivo si para toda secuencia exacta (4.1) la
secuencia de homomorfimos (4.3) es exacta en todos sus términos.
Por ejemplo, por el teorema de factorización, los K-espacios vectoriales (K-módulos) son tanto
inyectivos como proyectivos. Los grupos abelianos (Z-módulos) inyectivos son los grupos divisibles.
Los objetos de la suma directa son sumas finitas de elementos de los A-módulos izquierdos de la
familia, mientras que los elementos del producto son secciónes del mapa canónico:
a
Mi → I, m 7→ i tal que m ∈ Mi .
i∈I
Que interpretamos como tuplas correspondientes a una elección de un elemento en cada miembro
de la familia. Tanto en la suma directa como en el producto directo se tiene una estructura de
B-modulo izquierdo tomando para a ∈ A,
!
X X
a mi = ami a(mi )i∈I = (ami )i∈I
finita finita
La suma directa puede verse como un A-módulo izquierdo del producto directo si consideramos las
sumas finitas como tuplas que toman el valor cero en casi todos sus términos.
M Y
Mi ⊆ Mi
i∈I i∈I
Se tiene la igualdad si y solo si la familia I es finita o todos los {Mi } son cero excepto un número
finito.
126
Para cada indice i ∈ I se tiene la inclusión y la proyección canónicas, que son morfismos de
AB-bimódulos. M Y
ρi : Mi → Mj , πi : Mj → M i .
j∈I j∈I
De la misma manera que haciamos con espacios vectoriales tiene completo sentido calcular limites
inductivos (colı́mites) y proyectivos de familias dirigidas de A-módulos izquierdos. Emplazamos al
lector a revisar las Secciones 1.4.3 y 1.4.4 reemplazando la nocion de espacio vectorial por la de
A-módulo izquierdo.
Definición 4.4 Decimos que un A-módulo izquierdo es M libre si es isomorfo a una suma directa
de copias de A.
La definición de base de un espacio vectorial puede adaptarse a los módulos izquierdos. Decimos
que S subset M es una base si S es un sistema de generadores de M linealmente independiente
sobre A. Puede mostrarse con facilidad que un módulo es libre si y solo si tiene una base, pues:
X X
Free(S) → M, ai {si } → ai si ,
finita finita
Proposición 4.5 Sea X una base de un A-módulo izquierdo libre L. Entonces, para cada módulo
M y cada función f : X → M hay un único morfismo de módulos f˜: L → M tal que f˜|X = f . Es
decir,
HomA (L, M ) ' M X .
127
Prueba. Elemental.
El teorema de la dimensión no se verifica para módulos izquierdos libre y puede haber bases con
distintas cardinalidades (incluso finitas). Llamamos rango libre rankf (M ) de un módulo libre M al
mı́nimo cardinal de una base de M .
Consideremos un módulo libre M de rango finito n. Para cada base ordenada m1 , . . . , mn tene-
mos un isomorfismo:
∼
X
M− → An , ai mi 7→ (a1 , . . . , an ).
Si A es no conmutativo, es conveniente identificar An con el conjunto de vectores fila Mat(1 ×
n, A). Se muestra con facilidad que todo morfismo de A-módulos izquierdos de An en Am corres-
ponde a la multiplicación a la derecha por una matriz. Es decir, si ϕ es un morfismo,
ϕ : An → Am
π : An → M, (a1 , . . . , an ) 7→ a1 m1 + . . . an mn .
Cuando el núcleo de π es también finito generado, entonces podemos escribirlo también como
cociente de un libre Ar y tenemos una morfismo de A-módulos izquierdos f : Ar → An cuya imagen
es el núcleo de π. Por tanto M ' coker(f ) = An /im(f ). Decimos que f es una presentación finita. Si
consideramos en Ar la base canónica y f (ei ) = ai1 e1 + . . . ain en para i = 1, . . . r entonces utilizamos
la notación:
M ' hm1 , . . . , mn | ai1 m1 + . . . ain mn = 0, i = 1, . . . , ri
Para expresar que M es el A-módulo izquierdo generado por los elementos m1 , . . . , mn que satisfacen
las relaciones de dependencia lineal,
ai1 m1 + . . . + ain mn = 0, i = 1, . . . , r.
En general decimos que M es un A-módulo izquierdo de presentación finita si admite una presen-
tación finita, es decir, si es isomofo al conúcleo de un morfismo entre dos módulos libres de rango
finito.
9 Sin embargo, si en lugar de con módulos izquierdos trabajamos con módulos derechos, entonces podemos operar
de la misma manera que hacı́amos con los espacios vectoriales, representando a los elementos de An por vectores
columna y con los morfismos como matrices operando por el lado izquierdo.
128
4.2.5. Anillos y módulos noetherianos
Definición 4.6 Un A-módulo izquierdo M es noetheriano si tiene cualquiera de las dos propiedades
equivalentes:
(a) Toda cadena ascendente de sumbódulos,
M0 ⊆ M1 ⊆ . . . ⊆ Mn ⊆ . . .
annA (m) = {a ∈ A | am = 0}
se comprueba con facilidad que annA (m) es un ideal izquierdo de A, excepto si m = 0, en tal caso
annA (m) = A.
De la misma forma que definimos el ideal de un elemento, definimos el ideal anulador de un
subconjunto cualquiera N ⊆ M ,
\
annA (N ) = annA (n).
n∈N
129
un submódulo T (M ) que denominamos torsión de M . El cociente, M/T (M ) es libre de torsión. En
general,
annA (A) 6= {0} =⇒ M de torsión.
Pero el recı́proco no es cierto en general, pero sı́ para módulos izquierdos finitamente generados.
Un módulo M = hmiA generado por un solo elemento m, se llama un módulo cı́clico. Si M es
un módulo cı́clico generado por m entonces annA (M ) = annA (m). Tenemos una secuencia exacta,
π
0 → annA (m) −
→A→M →0
Cuando M es libre, se tiene por construcción rankf (M ) ≥ rank(M ), pero no se tiene necesaria-
mente la igualdad. Cuando la longitud es finita, puede probarse (Teorema de Jordan-Hölder, sirve
la misma prueba de teorı́a de grupos) que todas las series de composición tienen la misma longitud.
El un espacio vectorial, las tres nociones, longitud, rango y rango libre coinciden con la dimensión.
A → EndZ (M ).
M × A → M, (m, b) → mb
Una estructura de A-módulo derecho es una estructura de Aop -módulo izquierdo, y viceversa. Toda
la teorı́a desarrollada para los módulos izquierdos aplica para los módulos derechos, basta substituir
el anillo A por Aop . En particular, si M y N son A-módulos derechos,
es un grupo abeliano.
130
Sea M un A-módulo derecho, N un A-módulo izquierdo y W un grupo abeliano aditivo. Una
función,
f: M ×N →W
es A-balanceada si verifica
para cualesquiera a, ∈ A, m, m0 ∈ M, n ∈ n0 ∈ N .
La suma de funciones A-balanceadas es balanceada y por eso el conjunto BalB (M, N ; W ) de
las funciones A-balanceadas es un grupo abeliano aditivo. Si f es una función A-balanceada y
m es un elemento d M entonces podemos definir la contracción interior ιm f : N → W como
(ιm f )(n) = f (m, n) para todo n ∈ N . Entonces ιm f es un morfismo de grupos abelianos.
Notemos ahora que el grupo abeliano Homgr (N, W ) tiene una estructura natural de A-módulo
derecho donde se toma, para cada a ∈ A y ϕ : N → W , (ϕa)(n) = ϕ(an). Si consideramos ιf
la función de M en Homgr (N, W ) que asigna m 7→ ιm f obtenemos un morfismo de A-módulos
derechos:
ιf : M → Homgr (N, W ), m 7→ ιm f.
Finalmente tenemos ι(f + g) = ιf + ιg y de ahı́ obtenemos un morfismo de grupos abelianos:
∼
ι : BalA (M, N ; W ) −−→ Hom−A (M, Homgr (N, W ))
Ahora consideramos el subgrupo Relb(M, N ) ⊆ Lib(M × N ) generado por todas las relaciones de
balanceo. Es decir RelB(M, N ) está generado por todos los elementos de la forma,
para m, m0 ∈ M , n, n0 ∈ N , a ∈ A.
Definimos entonce M ⊗A N = Lib(M × N )/RelB(M, N ). Como consecuencia directa de esta
definición:
131
P
1. Los elementos del producto tensorial M ⊗B N son sumas finitas finita mi ⊗ ni donde los mi
están en M y los ni están en n.
2. En el producto tensorial se verifican las identidades:
(m + m0 ) ⊗ n = (m ⊗ n) + (m0 ⊗ n) m ⊗ (n + n0 ) = (m ⊗ n) + (m ⊗ n0 ) mb ⊗ n = m ⊗ bn
para cualesquiera m, m0 ∈ M , n, n0 ∈ N , b ∈ B.
3. La función i : M × N → M ⊗A N que asigna (m, n) 7→ m ⊗ n es balanceada.
4. Para cualquier morfismo de grupos abelianos ϕ : M ⊗A N → W la composición ϕ◦i : M ×N →
W es una función balanceada.
5. Para cualquier función balanceada f : M × N → W la función inducida, f˜: M ⊗A N definida
mediante la fórmula: !
X X
f˜ m i ⊗ ni = f (mi , ni )
finita finita
es un morfismo de grupos abelianos.
Podemos concluir:
Teorema 4.8 (Propiedad universal del producto tensorial) Para todo grupo abeliano W la
restricción por i produce una biyección entre el conjunto de morfismos de grupos abelianos de M ⊗A
N en W y el conjunto de funciones A-balanceadas de M × N en W .
La propiedad universal permite tambien probar la unicidad de M ⊗A N salvo isomorfismos de
grupos abelianos. Supongamos que hubiera otro AC-ḿodulo T dotado de una función balanceada
j : M × N → T y que verifica la propiedad universal. Entonces, por aplicación dos veces de la
propiedad universal, tendrı́amos un isomorfismo de grupos abelianos,
j̃ : M ⊗B N → T.
La propiedad universal junto al isomorfismo de adjunción producen la fórmula de adjunción.
Homgr (M ⊗A N, W ) ' Hom−A (M, Homgr (N, W ))
f˜ ∼ ιf.
Cabe observar que cambiando A por Aop tenemos que estas propiedades también se verifican si
invertimos los papeles de M y N .
132
4.2.9. Producto tensorial y secuencias exactas
Sean M , M 0 A-módulos derechos y N , N 0 A-módulos izquierdos. Dados dos morfismos f : M →
M y N → N 0 es posible construir un morfismo de grupos abelianos,
0
Definición 4.10 Decimos que un A-módulo izquierdo N es plano si para cualquier morfismo de
A-módulos derechos f : M → M 0 se tiene ker(f ⊗ IdM ) = ker f ⊗ IdM .
podemos tensorizar todos estos morfismos por IdN , obteniendo una secuencia,
fk−2 ⊗IdN fk−1 ⊗IdN fk ⊗IdN fk+1 ⊗IdN
. . . −−−−−−−→ Mk−1 ⊗B N −−−−−−−→ Mk ⊗B N −−−−−→ Mk+1 ⊗B N −−−−−−−→ . . .
grupos abelianos,
Hom−A (M, M 0 ) ⊗Z HomA (N, N 0 ) → Homgr (M ⊗A N, M 0 ⊗A N ).
133
4.3. Bimódulos
En la teorı́a de módulos, sobre anillos no necesariamente conmutativos, la multilinealidad so-
lamente tiene sentido cuando se consideran simultáneamente estructuras de módulo por el lado
izquierdo y derecho.
Ahora que despondemos de la estructura de módulo por ambos lados podemos definir bimódulos.
Una estructura de AB-bimódulo en M consiste de estructuras de A-modulo izquierdo y B-módulo
derecho compatibles en el sentido de que (am)b = a(mb) para todos a ∈ A, m ∈ M , b ∈ B. Los
morfismos de AB-bimódulos son los morfismos compatibles con ambas estructuras:
Los AB-sub-bimódulos son aquiellos que simultaneamente son submódulos izquierdos y derechos.
Los cocientes por sub-bimódulos son a su vez bimódulos. Si A es un anillo, entonces, con la multipli-
cación, es un AA-bimódulo. Los ideales izquierdos de A son sus submódulos izquierdos, los ideales
derechos de A son sus submódulos derechos y los ideales biláteros de A son sus sub-bimódulos. Los
núcleos, conúcleos11 , imágenes y coimágenes12 de los morfismos de AB-bimódulos son AB-bimódu-
los.
Ejemplos:
Las sumas directas, productos directos, lı́mites y colı́mites de familias de AB-bimódulos son
AB-bimódulos.
Sea E un espacio vectorial complejo. Entonces podemos ver E como CC-bimódulo de una
forma diferente a la del ejemplo anterior definiendo eλ = λ̄e. Entonces, la estructura por la
izquierda es la de E, la estructura por la derecha es la de E cj , ambas son compatibles pero
diferentes.
Todo grupo abeliano (M, +) admite únicas estructuras de Z-módulo izquierdo, Z-módulo de-
recho y ZZ-bimódulo. Basta definir,
nx = x + . . . x + n veces,
xn = x + . . . x + n veces,
134
Todo A-modulo izquierdo puede interpretarse de una sola forma como AZ-bimódulo.
Todo B-modulo derecho puede interpretarse de una sola forma como ZB-bimódulo.
Sean E y F espacios vectoriales sobre K, sea A = EndK (F ), B = EndK (F ), entonces
LinK (E, F ) es un AB-bimódulo con la composición.
En resumen:
Si M es un BC-bimódulo y N es un AC-bimódulo entonces Hom−C (M, N ) es un AB-bimódu-
lo.
Dualidad en bimódulos
En esta sección fijemos A, B anillos. Las consideraciones realizadas acerca de los morfismos
inducidos para módulos izquierdos aplican sin diferencia al caso de los bimódulos. De hecho, los
casos de módulos izquierdos o derechos pueden verse como casos particulares de bimódulos tomado
B = Z o A = Z.
Sea f : M → N un morfismo de AB-bimódulos. Para cada AB-bimódulo Z tenemos los morfis-
mos de grupos abelianos inducidos por composición.
f∗ f∗
HomAB (Z, M ) −−→ HomAB (Z, N ), HomAB (Z, M ) ←−− HomAB (Z, N )
¿Que podemos decir del núcleo y la imagen de f∗ y f ∗ en función del núcleo y la imagen de f ?
Obtenemos respuesta similares a las de la sección anterior.
135
Para que un morfismo g verifique f∗ (g) = 0 es necesario y suficiente que g tome valores en el
núcleo de f . Por tanto:
∗ i f∗ q∗
0−
→ HomAB (Z, K) −−→ HomAB (Z, M ) −−→ HomAB (Z, N ) −−→ HomAB (Z, C)(−
→ 0) (4.5)
i∗ f∗ q∗
(0 ←
−)HomAB (K, Z) ←−− HomAB (M, Z) ←−− HomAB (N, Z) ←−− HomAB (C, Z) ←
−0 (4.6)
Tal y como ocurrı́a para A-módulos izquierdos, las secuencias (4.5) y (4.6) son exactas en todos los
términos excepto en el último (señalado entre paréntesis). También ocurre:
(a) La condición necesaria y suficiente para que (4.5) sea una secuencia exacta para todo Z es
que q admita una sección σ (inverso por la derecha q ◦ σ = IdC ).
(b) La condición necesaria y suficiente para que (4.6) sea una secuencia exacta para todo Z es
que i admita un retracto ρ (inverso por la izquierda ρ ◦ i = IdK ).
136
4.3.1. Producto tensorial de bimódulos
La noción de función balanceada se generaliza, si permitiendo linealidad con respecto a los
coeficientes en los extremos.Sea M un AB-bimódulo, N un BC-bimódulo y W un AC-módulo. Una
función,
f: M ×N →W
es ABC-balanceada si verifica
f (am+a0 m0 , n) = af (m, n)+a0 f (m0 , n), f (mb, n) = f (m, bn), f (m, nc+n0 c0 ) = f (m, n)c+f (m, n0 )c0 ,
para cualesquiera a, a0 ∈ A, b ∈ B, c, c0 ∈ C, m, m0 ∈ M, n ∈ n0 ∈ N .
La suma de funciones ABC-balanceadas es ABC-balanceada y por eso el conjunto BalABC (M, N ; W )
de las funciones ABC-balanceadas es un grupo abeliano aditivo.13
Dada las estructura adicional que tiene los grupos de morfismos de bimódulos, la contracción
interior tendrá también una estructura adicional. Si f es una función ABC-balanceada y m es un
elemento d M entonces la contracción interior ιm f : N → W es un morfismo de C-módulos derechos.
La función ιf de M en HomC−md (N, W ) que asigna m 7→ ιm f es un morfismo de AB-bimódulos:
ιf : M → Hom−C (N, W ), m 7→ ιm f.
Por lo tanto, tenemos un isomorfismo de adjunción, que es una restricción del que ya conocı́amos:
∼
ι : BalABC (M, N ; W ) −−→ HomAB (M, Hom−C (N, W )).
es un morfismo de AC-bimódulos.
13 Las
funciones B-balanceadas son las funciones ZBZ-balanceadas. De esta manera, el producto tensorial de un
B-módulo derecho y un B-módulo izquierdo se puede ver como un caso particular de producto tensorial de bimódulos.
137
Podemos concluir que el producto tensorial, considerado en el contexto de los bimódulos, tiene
la propiedad universal siguiente. Para todo AC-bimódulo W la rescricción por i produce una
biyección entre el conjunto de morfismos de AC-bimódulos de M ⊗B N en W y el conjunto de
funciones ABC-balanceadas de M × N en W .
La propiedad universal junto al isomorfismo de adjunción producen la fórmula de adjunción en
el contexto de los bimódulos.
HomAC (M ⊗B N, W ) ' HomAB (M, Hom−C (N, W ))
f˜ ∼ ιf.
En el contexto de los bimódulos ya tiene sentido hablar de la asociatividad del producto tensorial.
Para cualesquiera A,B,C,D, anillos, AB-bı́módulo M , BC-bimódulo N , y CD-bimódulo P se tiene
un isomorfismo canónico de AD-bimódulos,
M ⊗B (N ⊗C P ) ' (M ⊗B N ) ⊗C P, (m ⊗ n) ⊗ p 7→ m ⊗ (n ⊗ p).
Identificando estos objetos escribimos simplemente M ⊗B N ⊗C P y a sus elementos los denotamos
por m ⊗ n ⊗ p.
138
4.3.3. Producto tensorial de A-algebras
Cuando el anillo A que opera por la derecha y por la izquierda es el mismo, escribimos A-
bimódulo en lugar de AA-bimódulo.
Recordemos que una A-álgebra es un anillo B dotado de un morfismo de anillos ψ : A → B. Las
A-álgebras son un primer ejemplo de A-bimódulos, puesto que están dotadas de las operaciones por
la izquierda y derecha,
ab = φ(a)b, ba = bφ(a), ∀a ∈ A, b ∈ B.
Recordemos que un morfismo de A-álgebras ϕ : B → C es un morfismo de anillos que hace conmutar
al diagrama:
B_
ϕ
/C.
?
A
Todo morfirmo de A-álgebras es, en particular, de A-bimódulos. Por tanto las A-álgebras junto con
sus morfismos forman una categorı́a embebida dentro de la categorı́a de A-bimódulos.
φB φC
Dadas A −−→ B y A −−→ C dos A-álgebras, el producto tensorial B ⊗A C es, a priori, un
A-módulo. No obstante, puede definirse una estructura de A-álgebra en B ⊗ C tomando
iB : B → B ⊗A C, b 7→ b ⊗ 1
iC : C → B ⊗A C, c 7→ 1 ⊗ c
Con esta definición, la operación producto tensorial verifica una propiedad que se asemeja a la de
la suma directa, cuando se consideran solamente morfismos con valores en A-algebras conmutativas.
φB φC
Proposición 4.11 A −−→ B y A −−→ C dos A-álgebras. Para cualquier A-álgebra Z conmutativa
y cualquier pareja de morfismos de A-álgebras ψ1 : B → Z, ψ2 : C → Z hay un único morfismo de
A-álgebras ψ : B ⊗ C → Z tal que ψ ◦ iB = ψ1 y ψ ◦ iC = ψ2 . Por tanto, la composición con iB e
iC induce una biyección:
Prueba. Basta definir ψ(a ⊗ b) = ψ1 (a)ψ2 (b). Se comprueba que respeta las relaciones de balanceo,
por tanto está bien definida. La conmutatividad de Z permite demostrar que es un morfismo de
A-álgebras.
M ⊗n = M ⊗A M ⊗A . . . ⊗A M n veces.
139
por convención M ⊗0 = A. El producto tensorial de elementos está definido entonces como una
función A-balanceada:
Tk M × Tr M → Tk+r M,
((m1 ⊗ . . . ⊗ mk ), (m01 ⊗ . . . ⊗ m0r )) 7→ m1 ⊗ . . . ⊗ mk ⊗ m01 ⊗ . . . ⊗ m0r .
Las potencias tensoriales de M son A-bimódulos y tiene sentido entonces definir el algebra
tensorial de M ,
M∞
T• M = M ⊗n .
n=0
El álgebra tensorial de M es, por definición, una A-álgebra, dotado de la inmersión A ⊂ T• A que
identifica A con la componente de grado cero de Tbullet A. También debe interpretarse M ⊂ T• M
como un A-sub-bimódulo, la componente de grado uno.
El álgebra tensorial está caracterizada por la propiedad universal:
Reducible si existen b, c ∈ A ninguno de ellos invertible, tal que a = bc. En otro caso se dice
que a es irreducible.
Divisor de b ∈ A si existe c ∈ A tal que ac = b, escribimos a|b.
14 recordamos que los anillos de este curso son siempre unitarios.
140
Recordamos que el anillo A es un cuerpo si todo elemento distinto de cero es una unidad, un
anillo integro si no contiene divisores de cero, y un anillo reducido si no contiene nilpotentes.
Dado que A es conmutativo no hay distinción entre los conceptos de ideal izquierdo, ideal derecho
o ideal bilátero. Por tanto nos referiremos a estos objetos como ideales. Dado un subconjunto
cualquiera de S ⊂ A denotamos por hSiA al ideal generado por S,
( )
X
hSi = ai bi | ai ∈ A, bi ∈ S
finita
∀a, b ∈ A (a 6∈ p y b 6∈ p) =⇒ ab 6∈ p
y esto ocurre si y solo si A/p es integro. Decimos que un elemento a ∈ A es primo si el ideal
haiA es primo. Los elementos primos están muy relacionados con los irreducibles. Es fácil
mostrar que en un anillo ı́ntegro todo elemento primo es irreducible.
Maximal si no está contenido en ningún otro ideal propio de A, y esto ocurre si y solo si A/I
es un cuerpo. Dado que todo cuerpo es un anillo ı́ntegro, tenemos que todo ideal maximal es
primo. Decimos que el anillo A es un anillo local si tiene un único ideal maximal m. En tal
caso, el cuerpo A/m se denomina cuerpo residual de A.
Radical si es intersección ideales primos. Es decir,
\
I= p.
I⊆p primo
Dado un ideal J ( A definimos el radical de J como el menor ideal radical que contiene a J.
Es decir, la intersección de todos los ideales primos que contienen a J.
\
rad(J) = p.
J⊆p primo
Denotemos por Ids(A) al conjunto de todos los ideales de A. Tiene mas relevancia el conjunto
de los ideales primos de A, que recibe el nombre de espectro primo de A y se denota por Spec(A).
El conjunto de los ideales maximales de A recibe el nombre de espectro maximal y se denota por
Specmx (A).
Specmx (A) ⊆ Spec(A) ⊆ Ids(A).
Se tiene, \
rad(A) = p.
p∈Spec(A)
141
Es decir, un elemento es nilpotente si y solo si está en todos los ideales primos. Como consecuencia
se tiene que un ideal I es radical si y solo si A/I es un anillo reducido. La intersección de todos los
ideales maximales de A recibe el nombre de radical de Jacobson.
\
J(A) = m.
m∈Specmx (A)
Teorema 4.13 Sea A un anillo conmutativo y L un A-módulo libre. Entonces todas las bases de
L tienen la misma cardinalidad.
142
Proposición 4.14 (Lema de Nakayama) Sea A es un anillo local de ideal maximal m. Sea M
un A-módulo finito generado. Entonces:
M =0 ⇐⇒ M = mM.
Prueba. Tomado del libro de Carlos y Pedro Sancho. Sea m1 , . . . , mr unP sistema generador de M
r
con el mı́nimo número posible de elementos.Pr Si mM = M entonces, m1 = i=1 ai mi con elementos
a1 , . . . , ar en m. Entonces (1 − a1 )n1 = i=2 ai mi . Como 1 − a1 es necesariamente una unidad,
tomando b1 = (1 − a1 )−1 ai para i = 2, . . . , r obtenemos:
r
X
m1 = bi mi
i=2
Localización
Fijamos A un anillo conmutativo y M un A-módulo. Recordemos que a cada elemento m de
A se le asigna un ideal annA (m). De forma dual, a cada elemento a ∈ A se le puede asignar el
conjunto,
annM (a) = {m ∈ M | am = 0}.
Puede comprobarse con facilidad que annM (a) es un A-submódulo de M .
143
de fracciones, que además del clásico “producto de medios igual al producto de extremos” incluye
esta última posibilidad:
m m0
= 0 ⇐⇒ ∃s00 ∈ S s00 (s0 m − sm0 ) = 0.
s s
Para formalizar esta idea, consideramos en el conjunto M × S la relación de equivalencia:
Propiedades de la localización
La función `S : M → S −1 M , m 7→ m 1 se llama el morfismo de localización. Al ser S un sistema
multiplicativo se tiene que la unión de los ceros de los elementos de S es un submódulo.
[
ker(`S ) = annM (s).
s∈S
Si tomamos
S0 = {a ∈ A | a no es un divisor de 0}
el anillo AS0 recibe el nombre de anillo de fracciones totales de A, frac(A). El morfismo de
localización A → frac(A) es inyectivo.
Si A es un anillo ı́ntegro16 entonces frac(A) es un cuerpo y recibe el nombre de cuerpo de
fracciones de A.
Si S y T son sistemas multiplicativos compatibles en el sentido de que S ∪ T es un sistema
multiplicativo, entonces la localización puede hacerse por etapas y se tiene (AS )`S (T ) ' AS∩T .
16 Sin divisores de cero.
144
La localización conmuta con el paso al cociente. Si S es un sistema multiplicativo y N ⊂ M
es un A-submódulo entonces MS /NS ' (M/N )S .
Notemos que para un ideal p ( A la diferencia A − p es un sistema multiplicativo si y solo si p
es un ideal primo. Para cada módulo M denotamos Mp a la localización de M por dicho sistema
multiplicativo: nm o
Mp = M(A−p) = | m ∈ M, s 6∈ p .
s
En particular, para la localización de un anillo en un ideal primo se tiene.
Localización de morfismos
Si f : M → N es un morfismo de A-módulos, para cada sistema multiplicativo S ⊂ A podemos
definir la localización de f ,
m f (m)
fS : S −1 M → S −1 N, 7→
s s
de tal manera que fS es un morfismo de AS -módulos.
Proposición 4.16 La localización de morfismos es compatible con núcleos e imágenes. Es decir,
para todo morfismo f de A-módulos ker(fS ) = (ker(f ))S y im(fS ) = (im(f )S .
Prueba. Veamos el caso del núcleo, el de la imagen lo dejamos como ejercicio al lector. Sea m
s ∈
f (m) 0 −1 0 0
ker(locS (f)). Entonces s = 1 en S N . Luego hay un elemento s ∈ S tal que s f (m) = 0 en N .
m s0 m
s0 f (m) = 0 =⇒ s0 m ∈ ker(f ) =⇒ = 0 ∈ S −1 ker(f ).
s ss
Corolario 4.17 Si
fk−2 fk−1 fk fk+1
. . . −−−→ Mk−1 −−−→ Mk −−→ Mk+1 −−−→ . . .
es una secuencia exacta de A-módulos, entonces para todo sistema multiplicativo S,
(fk−2 )S (fk−1 )S (fk )S (fk+1 )S
. . . −−−−−→ (Mk−1 )S −−−−−→ (Mk )S −−−→ (Mk+1 )S −−−−−→ . . .
es una secuencia exacta de S −1 A-módulos.
De ahı́ tenemos:
(M ∩ N )S ' MS ∩ NS
(M + N )S ' MS + NS
Lema 4.18 Sea M un A-módulo. condición necesaria y suficiente para que MS = {0} es que para
todo elemento m ∈ M , S ∩ annA (m) 6= ∅.
Prueba. Es consecuencia directa de la definición.
145
Lema 4.19 Sea M un A-módulo. condición necesaria y suficiente para que MS = {0} es que para
todo ideal propio I ( A exista un sistema multiplicativo S ⊂ A tal que I ∩ S = ∅ y S −1 M = 0.
Prueba. Hay que probar la suficiencia. Sea m ∈ M , hay que ver que m es necesariamente el elemen-
to cero. Razonemos como sigue. Para cada ideal propio I ( A tenemos un sistema multiplicativo
−1
S tal que m1 = 0 en S M . Por tanto hay un s ∈ S tal que sm = 0. Se sigue annA (m) 6⊂ I. Se
deduce que annA (m) no está contenido en ningún ideal propio de A, es decir annA (m) = A. Por
tanto m = 1m = 0.
Lema 4.20 Sean N1 y N2 dos A-submódulos de M . La condición necesaria y suficiente para que
N1 = N2 es que para todo ideal propio I ( A exista un sistema multiplicativo S ⊂ A tal que
I ∩ S = ∅ y S −1 N1 = S −1 N2 .
Prueba. Es consecuencia directa del Lemma 4.20 aplicado a los núcleos e imágenes de los morfis-
mos.
a(m ⊗ n) = am ⊗ n = m ⊗ an.
además de todas las relaciones de balanceo anteriormente consideradas. En este sentido, la fórmula
de adjunción:
HomA (M ⊗A N, W ) ' HomA (M, HomA (N, W ))
no es solamente un morfismo de grupos abelianos sino también de A-módulos.
Otra propiedad destacada del producto tensorial de A-módulos (sobre anillos conmutativos) es
la compatibilidad entre el producto tensorial, la localización y el paso al cociente.
146
Teorema 4.22 Sean I un ideal de A, S un sistema multiplicativo en A y M un A-módulo. Los
morfismos,
∼
i : A/I ⊗A M −−→ M/IM, (a + I) ⊗ m 7→ am + IM
∼ a am
j : AS ⊗A M −−→ MS , ⊗ m 7→
s s
son isomorfismos.
Prueba. Pendiente
ΛM = T• M/H
donde K es el ideal bilátero de T• M generado por los elementos de la forma m ⊗ m. La operación
producto en ΛM , inducida por el producto tensorial, se denomina producto cuña ∧.
Dado que el ideal K es homogéneo,
∞
M
K= Hr , Hr = H ∩ Tr M,
r=0
∧ : Λr M × Λs M → Λr+s M.
ap ∧ bq = (−1)pq bq ∧ aq ;
(d) Si a es un elemento de M .
a ∧ a = 0.
147
Proposición 4.23 Sea ϕ : M → B un morfismo de A-módulos de M en una A-álgebra tal que para
todo m ∈ M se tiene ϕ(m)2 = 0. Entonces, existe un único morfismo de A-álgebras,
ϕ̃ : ΛM → B
Prueba.
A[M ] = T• M/K
donde K es el ideal bilátero de T• M generado por los elementos de la forma α ⊗ β − β ⊗ α. La
operación producto en ΛM , inducida por el producto tensorial, se denomina producto simétrico.
El álgebra simétrica es, por definición, un álgebra conmutativa y graduada. Además, si M es
el módulo libre generado por elementos x1 , . . . , xn entonces A[M ] = A[x1 , . . . , xn ]. En ese sentido
podemos decir que A[M ] es el anillo de polinomios con coeficientes en A y variables en M .
ϕ̃ : A[M ] → B
Prueba.
148
En los anillos euclı́deos puede realizarse el algoritmo de Euclides y por tanto son dominios de
factorización única. Un dominio de ideales principales es un anillo ı́ntegro donde todo ideal es
principal. Los dominios de factorización única son dominios de ideales principales. Los dominios de
ideales principales son, evidentemente, noetherianos.
En un dominio A de ideales principales, cada ideal tiene un generador que es único, salvo
multiplicación por unidades en A× . Dados dos elementos a, b ∈ A llamamos máximo común divisor
mcd(a, b) a cualquier generador de ha, biA . y mı́nimo común múltiplo al generador de haiA ∩ hbiA .
El máximo común divisor y el minimo común múltiplo están definidos salvo multiplicación por una
unidad.
Proposición 4.25 En un dominio de ideales principales todo elemento irreducible es primo. Además,
para todo irreducible p el ideal hpiA es maximal.
Prueba. Sea p un elemento irreducible. Es sencillo comprobar que el ideal hpiA es maximal, luego
primo. Por tanto p es primo.
Por tanto, los ideales primos de A son h0iA , que es un primo minimal, y los generados por los
elementos irreducibles hpiA , que son ideales primos y maximales.
Lema 4.27 Si M es un módulo finito generado libre de torsión, entonces M es libre y su rango
libre coincide con su rango.
Prueba. Hungerford, T6.5 pág 221.
149
De esta manera, clasificar los módulos de presentación finita de rango n es equivalente a clasificar
los endomorfismos de An por la acción de AutA (An ) × AutA (An ), y esto es escoger una forma
canónica para cada presentación.
Si nos restrigimos a isomorfismos elementales de An , esto es, que corresponden a
(i) Intercambiar dos componentes.
(ii) Agregar a una componente un múltiplo de otra.
vemos que estos afectan a la matriz [fij ] mediante las operaciones elementales de matriz por filas o
por columnas:
(a) Intercambiar dos filas.
(c) Agregar a una fila un múltiplo de otra.
Donde φ1 es un divisor de todos los f˜ij . Reiterando el proceso, obtenemos una matriz, que se
denomina la forma canónica de Smith de [fij ].
φ1 0 . . . 0
0 φ2 . . . 0
Φ= .
.. . . ..
..
. . .
0 0 ... φn
Donde φ1 |φ2 | . . . |φn y el módulo M descompone como suma de módulos cı́clicos:
M = A/hφ1 iA ⊕ . . . ⊕ A/hφn iA .
Los elementos φ1 |φ2 | . . . |φn , están definidos salvo unidades de A, y reciben el nombre de factores
invariantes. Es claro que dos módulos M y N son isomorfos si y solo si les corresponden los mismos
factores invariantes.
150
Bibliografı́a
[1] Thomas W. Hungerford. Algebra. Graduate Texts in Mathematics 73. Springer Verlag, 1974.
[2] Serge Lang. Algebra. Graduate Texts in Mathematics 211. Springer Verlag, 2002.
[3] Alexei I. Kostrikin y Yu I. Manin. Linear Algebra and geometry. Gordon and Breach science
publishers, 1997.
[4] Carlos Sancho y Pedro Sancho. Algebra Conmutativa. Colección Manuales UEX, 2013.
[5] Igor R. Shafarevich y Alexey O. Remizov. Linear Algebra and geometry. Springer Verlag, 2013.
[6] Regino Martı́nez-Chavanz. Álgebra multilineal. Editorial UdeA, 2006.
151