Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ALGEBRA
No. 4
Algebra lineal
Oswaldo Lezama
Departamento de Matematicas
Facultad de Ciencias
Universidad Nacional de Colombia
Sede de Bogota
Mayo 30 de 2012
ii
Cuaderno dedicado a To nita, mi madre.
Contenido
Pr ologo v
1. Matrices 1
1.1. Estructuras algebraicas basicas . . . . . . . . . . . . . . . . . . . . . 1
1.2. Matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Inversa de una matriz y cambio de base . . . . . . . . . . . . . . . . . 13
1.4. Matrices y operaciones elementales . . . . . . . . . . . . . . . . . . . 17
1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2. Determinantes y sistemas de ecuaciones lineales 22
2.1. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2. Determinantes y funciones multilineales . . . . . . . . . . . . . . . . . 27
2.3. Menores y cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4. Ideales, rango y sistemas de ecuaciones . . . . . . . . . . . . . . . . . 35
2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3. Producto tensorial 50
3.1. Producto tensorial de espacios vectoriales . . . . . . . . . . . . . . . . 50
3.2. Producto tensorial de transformaciones y matrices . . . . . . . . . . . 54
3.3. Funciones multilineales y tensores . . . . . . . . . . . . . . . . . . . . 58
3.4. Tensores simetricos, antisimetricos y alternados . . . . . . . . . . . . 63
3.5.
Algebras y producto tensorial . . . . . . . . . . . . . . . . . . . . . . 66
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4. Formas can onicas 75
4.1. Polinomios mnimo y caracterstico . . . . . . . . . . . . . . . . . . . 75
4.2. Forma canonica clasica . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3. Forma canonica racional . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.4. Forma canonica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 90
4.5. Forma canonica diagonal: valores y vectores propios . . . . . . . . . . 95
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
iii
iv CONTENIDO
5. Grupos de matrices 107
5.1. Grupos de matrices sobre cuerpos . . . . . . . . . . . . . . . . . . . . 107
5.1.1. El grupo lineal y algunos subgrupos destacados . . . . . . . . 107
5.1.2. Grupos clasicos . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.2. Grupos de matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . 115
5.3. El grupo elemental sobre anillos conmutativos . . . . . . . . . . . . . 117
5.3.1. Teorema de normalizacion de Suslin . . . . . . . . . . . . . . . 117
5.3.2. Teorema de estabilidad de Suslin . . . . . . . . . . . . . . . . 120
5.4. Grupos clasicos sobre anillos . . . . . . . . . . . . . . . . . . . . . . . 125
5.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Bibliografa 134
Pr ologo
La coleccion Cuadernos de algebra consta de 10 publicaciones sobre los principales
temas de esta rama de las matematicas y pretende servir de material para preparar
los examenes de admision y de candidatura de los programas colombianos de doc-
torado en matematicas. Los primeros cinco cuadernos cubren el material basico de
los cursos de estructuras algebraicas y algebra lineal de los programas de maestra;
los cinco cuadernos siguientes contienen algunos de los principales temas de los
examenes de candidatura, a saber: anillos y modulos, categoras, algebra homologi-
ca, algebra conmutativa y geometra algebraica. Cada cuaderno es fruto de las clases
dictadas por el autor en la Universidad Nacional de Colombia en los ultimos 20 a nos,
y estan basados en las fuentes bibliogracas consignadas en cada uno de ellos, como
tambien en el libro Anillos, Modulos y Categoras, publicado por la Facultad de
Ciencias de la Universidad Nacional de Colombia, y cuya edicion esta totalmente
agotada (vease [7]). Un material similar al presentado en estas diez publicaciones es
el libro de Serge Lang, Algebra, cuya tercera edicion revisada ha sido publicada por
Springer en el 2004 (vease [8]). Posiblemente el valor de los Cuadernos de algebra sea
su presentacion mas ordenada y didactica, as como la inclusion de muchas pruebas
omitidas en la literatura y sucientes ejemplos que ilustran la teora. Los cuadernos
son:
1. Grupos 6. Anillos y modulos
2. Anillos 7. Categoras
3. Modulos 8.
Algebra homologica
4.
Algebra lineal 9.
Algebra conmutativa
5. Cuerpos 10. Geometra algebraica
Los cuadernos estan dividido en captulos, los cuales a su vez se dividen en
secciones. Para cada captulo se a nade al nal una lista de ejercicios que debera ser
complementada por los lectores con las amplias listas de problemas que inluyen las
principales monografas relacionadas con el respectivo tema.
Cuaderno de algebra lineal. El presente cuaderno esta dedicado al estudio
del algebra lineal generalizada, es decir, al estudio de los espacios vectoriales, los
operadores lineales, las matrices y las formas, pero consideradas sobre anillos di-
mensionales arbitratrarios, es decir, anillos para los cuales un espacio libre de bases
v
vi PR
OLOGO
nitas tiene dimension. El algebra lineal sobre anillos ha sido tratada tambien por
otros autores, veanse por ejemplo las monografas [1] y [9] en las cuales se estudia
en algebra lineal sobre anillos conmutativos.
Para aprovechar mejor el material del presente cuaderno es conveniente que el
lector haya estudiado previamente un curso elemental de algebra lineal clasica, es
decir, de algebra lineal sobre cuerpos, y un curso basico de anillos y modulos (veanse
por ejemplo [5] y [6]).
El autor desea expresar su agradecimiento a Claudia Milena Gallego Joya, discpu-
la y amiga, por la digitalizacion del material del presente cuaderno.
Oswaldo Lezama
Departamento de Matematicas
Universidad Nacional de Colombia
Bogota, Colombia
jolezamas@unal.edu.co
Captulo 1
Matrices
El estudio de los espacios vectoriales sobre anillos, desde la perspectiva matricial,
tensorial y de las formas canonicas y sesquilineales que estudiaremos en el presente
cuaderno, constituye la denominada algebra lineal generalizada, o tambien llamada
algebra lineal sobre anillos. Esta area por supuesto se puede considerar como una
rama de la teora de modulos (vease [6]). La teora que desarrollaremos se hara sobre
anillos arbitrarios (principalmente conmutativos), sin embargo, los ejemplos estaran
centrados en los siguientes anillos particulares: un cuerpo cualquiera K, el anillo Z
de los n umeros enteros, el anillo Z
n
de los enteros modulo n 2, y el anillo K[x] de
los polinomios en una indeterminada con coecientes en el cuerpo K.
1.1. Estructuras algebraicas basicas
La primera seccion de este captulo es de caracter introductorio y permite repasar
algunos conceptos de anillos y modulos, sin embargo, invitamos al lector a recordar
la teora basica de los cuadernos 2 y 3, la cual usaremos libremente durante todos
los desarrollos del presente cuaderno (veanse [5] y [6]).
Denici on 1.1.1. Sea G un conjunto no vaco. Una operacion binaria interna
en G es una funcion con dominio el producto cartesiano GG y codominio G
GG
G
(a, b) a b.
Si la operacion es asociativa en el sentido que
(a b) c = a (b c)
para cualesquiera elementos a, b, c G, entonces se dice que (G, ) es un semi-
grupo. Si en el conjunto G del semigrupo (G, ) existe un elemento e tal que
1
2 CAP
ITULO 1. MATRICES
e a = a = a e
para cada a G, se dice que (G, ) es un monoide con elemento neutro e. Si
(G, ) es un monoide y cada elemento a G tiene un inverso, es decir, existe a
G
tal que
a a
= e = a
a
entonces se dice que (G, , e) es un grupo. Si ademas la operacion es conmutativa,
es decir,
a b = b a
para cualesquiera elementos a, b G, entonces se dice que el grupo (G, , e) es
conmutativo (tambien llamado abeliano).
Los semigrupos, monoides y grupos se acostumbran a denotar simplemente por
su conjunto de elementos, de tal manera que por ejemplo el grupo (G, , e) se deno-
tara por G.
Ejemplo 1.1.2. El conjunto N = 0, 1, 2, . . . de los n umeros naturales es un
monoide conmutativo respecto de la adicion usual y tiene como elemento neutro al
natural 0. De igual manera, el conjunto Z = . . . , 2, 1, 0, 1, 2, . . . de los n umeros
enteros es un grupo abeliano con la adicion usual.
Proposici on 1.1.3. En cualquier grupo el elemento neutro y el inverso de un ele-
mento son unicos.
Demostracion. La prueba es una consecuencia directa de las deniciones.
Notemos que el conjunto Z posee dos operaciones, la adicion y el producto, de tal
forma que respecto de la primera es un grupo abeliano, mientras que con la segunda
es un monoide. Conjuntos con tal condicion conforman los llamados anillos.
Denici on 1.1.4. Un anillo es un conjunto A con dos operaciones + y . llamadas
adicion y producto, tal que
(i) A es un grupo conmutativo respecto de la adicion.
(ii) A es un monoide respecto del producto.
(iii) El producto se distribuye sobre la adicion, es decir,
a (b +c) = a b +a c
(a +b) c = a c +b c.
1.1. ESTRUCTURAS ALGEBRAICAS B
ASICAS 3
(iv) El anillo A es conmutativo si el producto es conmutativo.
(v) Un elemento a A es invertible si tiene inverso respecto del producto.
Observaci on 1.1.5. Todos los anillos tendran elemento neutro respecto del produc-
to, este elemento sera denotado por 1. El neutro respecto de la adicion sera denotado
por 0. Si a A, entonces el inverso de a respecto de la adicion se denominara en
adelante el opuesto de a, y se denotara por a. El producto a b sera simbolizado
simplemente como ab, es decir, omitiremos el punto para el producto de dos elemen-
tos del anillo A. Si a A es invertible, entonces el inverso de a es unico y se denota
por a
1
.
Ejemplo 1.1.6. El conjunto Z de los n umeros enteros es un anillo conmutativo
respecto de las operaciones usuales de adicion y producto. El neutro aditivo es 0
y el neutro del producto es 1. De igual manera, si restringimos el conjunto de los
enteros a los 8 primeros enteros no negativos, es decir, Z
8
= 0, 1, 2, 3, 4, 5, 6, 7
y realizamos las operaciones tomando resduos respecto de 8 obtenemos el llamado
anillo de enteros modulo 8 (vease [8]). El neutro aditivo es nuevamente el 0 y el neutro
multiplicativo es 1. Este ejemplo por supuesto se puede generalizar a cualquier entero
positivo n 2 (veanse [5] y [7]). De otra parte, el conjunto de todos los polinomios en
la variable x y con coecientes reales constituyen otro ejemplo de anillo conmutativo,
el cual se acostumbra denotar por R[x]. El neutro aditivo es el polinomio nulo y el
neutro multiplicativo es el polinomio constante 1 (veanse [5], [7] y [8]).
Ejemplo 1.1.7. Es posible que el lector este familiarizado con el conjunto de las
matrices cuadradas reales de tama no 2 2, M
2
(R) (veanse [5], [7] y [8]). Estas
matrices conforman un anillo no conmutativo respecto de la adicion y multiplicacion
habituales, el neutro aditivo es la matriz nula y el neutro multiplicativo es la matriz
identica. Notemos que
_
1 0
0 0
_ _
0 1
0 0
_
,=
_
0 1
0 0
_ _
1 0
0 0
_
.
En la denicion de anillo no se exige que cada elemento no nulo tenga inverso
respecto del producto. As por ejemplo, Z es un anillo en el cual no existe entero
x tal que 2x = 1. Sin embargo, existen anillos en los cuales este tipo de ecuaciones
tiene solucion, tal es el caso de anillo de los n umeros racionales Q con las operaciones
habituales. Esta observacion permite denir el siguiente tipo de anillo.
Denici on 1.1.8. Un anillo A es de division si cada elemento no nulo es in-
vertible. Si ademas A es conmutativo, entonces se dice que A es un cuerpo.
Proposici on 1.1.9. Sea A un anillo, el conjunto A
ITULO 1. MATRICES
Demostracion. Ejercicio para el lector.
Seg un la proposicion anterior, A es un anillo de division si, y solo si, A
= A0.
Ejemplo 1.1.10. Los n umeros racionales Q, los n umeros reales R y los n umeros
complejos C, con sus operaciones habituales, son cuerpos. Notemos adicionalmente
que Z
consta de las
matrices invertibles, es decir, aquellas que tienen determinante no nulo. Este grupo
se denomina grupo lineal general de orde 2 sobre R y se denota por GL
2
(R).
Sobre estos grupos de matrices invertibles volveremos mas adelante.
Un tipo de estructura mas compleja que las denidas anteriormente la consti-
tuyen los llamados espacios vectoriales, tambien denominados modulos, los cuales
conforman los objetos en se basa el algebra lineal generalizada.
Denici on 1.1.11. Un espacio vectorial es una tripla conformada por
(a) Un grupo abeliano V cuyos elementos llamaremos vectores.
(b) Un anillo A cuyos elementos llamaremos escalares.
(c) Una operacion externa entre escalares y vectores
V A V
(v, a) v a
que satisface las siguientes condiciones:
(i) (v +u) a = v a +u a
(ii) v (a +b) = v a +v b
(iii) v (ab) = (v a) b
(iv) v 1 = v
para cualesquiera elementos a, b A, v, u V .
Si no hay lugar a confusion, el espacio vectorial (V, A, .) sera denotado sim-
plemente por V y se dira que V es un espacio vectorial sobre A, o que V es un
A-espacio. Cuando los escalares operan al lado izquierdo se dice que V es un A-
espacio a izquierda, sin embargo, es necesario aclarar que la teora de algebra lineal
desarrollada a izquierda es completamente equivalente a la desarrollada a derecha. Si
no se advierte lo contrario, todos los espacios vectoriales del presente cuaderno son
espacios vectoriales a derecha. Los espacios vectoriales sobre anillos se les denomina
tambien modulos (vease [6]). As pues, en teora de anillos y modulos se dira que
V es un A-modulo a derecha.
1.1. ESTRUCTURAS ALGEBRAICAS B
ASICAS 5
Observaci on 1.1.12. Es importante se nalar que si A es un anillo no conmutativo
y V es un espacio vectorial izquierdo, entonces no basta con cambiar de lado los
escalares, pero manteniendo la asignacion del literal (c) de la dencion anterior,
para obtener un espacio vectorial a derecha. En efecto, si V es un A-espacio a
izquierda y denimos v a := a.v, entonces notemos que (v a) b = b.(a.v) pero
v (ab) = (ab) v = a (b v) y los dos resultados anteriores pueden ser distintos
(veanse [6] y [7]). Claramente para anillos conmutativos los escalares pueden ser
dispuestos indistintamente a derecha o izquierda, seg un resulte mas conveniente.
En adelante, salvo que sea necesario algo distinto, los escalares para modulos sobre
anillos conmutativos seran dispuestos los el lado izquierdo.
Ejemplo 1.1.13. Sean Aun anillo y n 1 un entero, el conjunto A
n
conformado por
todos los vectores columna de n componentes (a
1
, . . . , a
n
)
T
, a
i
A, 1 i n, cons-
tituye un espacio vectorial sobre el anillo A respecto de las siguientes operaciones:
[a
1
, . . . , a
n
]
T
+ [b
1
, . . . , b
n
]
T
= [a
1
+b
1
, . . . , a
n
+b
n
]
T
[a
1
, . . . , a
n
]
T
c = [a
1
c, . . . , a
n
c]
T
,
con c A. A
n
se conoce como el n-espacio vectorial canonico sobre el anillo
A. Dos casos particulares destacados son el n-espacio vectorial canonico real R
n
y
el n-espacio vectorial canonico entero Z
n
. Tomando n = 1, es decir, A
1
= A, se
obtiene que el anillo A tiene estructura de espacio vectorial sobre si mismo: la suma
de vectores es la suma en el anillo A y el producto entre vectores y escalares es el
producto del anillo A.
Observaci on 1.1.14. El conjunto de vectores la de n componentes se acostumbra
a denotar por A
1n
y usualmente se le da estructura de A-espacio a izquierda:
c (a
1
, . . . , a
n
) := (ca
1
, . . . , ca
n
). Sin embargo, con el proposito de ahorrar espacio y
simplicar la notacion, en adelante, a menudo escribiremos los elementos del espacio
A
n
como vectores la, siempre y cuando esto no represente confusion.
Como anotamos al principio, toda la teora de espacios vectoriales y transfor-
maciones lineales sobre anillos desarrollada en [6] sera usada en adelante. No sobra
resaltar algunos resultados, deniciones y observaciones.
Teorema 1.1.15. Todo espacio vectorial sobre un anillo de division es libre, es
decir, posee una base. En particular, todo espacio vectorial sobre un cuerpo es libre.
Demostracion. Sea V un espacio vectorial sobre un anillo de division A y sea L la
coleccion de subconjuntos de V que son linealmente independientes (l.i.); L es no
vaco y es ordenado respecto de la inclusion de conjuntos. Sea ( un subconjunto no
vaco de L totalemente ordenado y sea C la reunion de los conjuntos que conforman
a (. Vamos a demostrar que C L. Sea x
1
, . . . , x
n
un subconjunto nito de C,
6 CAP
ITULO 1. MATRICES
existen entonces C
1
, . . . , C
n
( tales que x
i
C
i
, 1 i n. Como ( es totalmente
ordenado podemos suponer que x
i
C
n
para cada 1 i n, luego x
1
, . . . , x
n
es l.i ya que C
n
es l.i. Esto muestra que C es l.i. C es pues una cota superior
para ( en L; aplicamos entonces el lema de Zorn y encontramos en L un elemento
maximal X. Basta entonces demostrar que X) = V . Sea v V , si v X entonces
v X), sea v / X, entonces por la maximalidad de X se tiene que X v es l.d.
y existen escalares no todos nulos a, a
1
, . . . , a
n
A y vectores x
1
, . . . , x
n
X tales
que v a +x
1
a
1
+ +x
n
a
n
= 0. No es posible que a = 0, de lo contrario X sera
l.d. Por lo tanto, v = (x
1
a
1
a
1
+ +x
n
a
n
a
1
) X).
Denici on 1.1.16. Sean V y W dos espacios vectoriales sobre un anillo A. Una
transformacion lineal (t.l.) de V en W es una funcion f : V W que satisfece
las siguientes condiciones:
(i) f(u +v) = f(u) +f(v)
(ii) f(v a) = f(v) a
para cualesquiera vectores u, v V y cualquier escalar a A. Se dice tambien que
f es un operador lineal o un A-homomorsmo.
Ejemplo 1.1.17. La funcion
A
n
A
m
(a
1
, . . . , a
n
) (b
1
a
1
+c
1
a
n
, b
2
a
1
+c
2
a
n
, . . . , b
m
a
1
+c
m
a
n
)
donde b
1
, c
1
. . . b
m
, c
m
son escalares de A, es una transformacion lineal de A
n
en A
m
.
Ejemplo 1.1.18. La transformacion lineal nula denotada por 0 se dene por
V
0
W
v 0
De igual manera, la transformacion lineal identica de V se denota por i
V
y se dene
por
V
i
V
V
v v
En algebra lineal, como en cualquier rama del algebra, es de vital importancia
el concepto de isomorsmo.
Denici on 1.1.19. Dos espacios vectoriales V y W se dicen isomorfos si existe
una transformacion lineal biyectiva entre ellos, denominada isomorsmo. En tal caso
se escribe V
= W. Una transformacion lineal f : V W es invertible si existe una
funcion g : W V tal que fg = i
W
y gf = i
V
.
1.1. ESTRUCTURAS ALGEBRAICAS B
ASICAS 7
Es facil vericar que la funcion g de la denicion anterior es tambien una t.l. y
que f es un isomorsmo si, y solo si, f es invertible.
Pasamos ahora a recordar la estructura algebraica del conjunto de todas las t.l.
de un espacio V en otro W.
Denici on 1.1.20. Sean V y W dos A-espacios. Se denen
Hom
A
(V, W) := f : V W[f es una t.l.,
End
A
(V ) : = Hom
A
(V, V ).
Proposici on 1.1.21. Sea A un anillo y sean V, W dos A-espacios. Entonces,
(i) Hom
A
(V, W) es un grupo abeliano.
(ii) End
A
(V ) es un anillo.
(iii) Si R es un anillo conmutativo, entonces Hom
R
(V, W) es un R-espacio.
Demostracion. Vease [6].
Notemos que en general el anillo End
A
(V ) no es conmutativo, basta por ejemplo
tener en cuenta el caso particular End
R
(R
2
). El grupo de elementos invertibles del
anillo End
A
(V ) juega un papel muy importante en el algebra lineal generalizada, en
particular, cuando V es de dimension nita.
Denici on 1.1.22. Sea V un A-espacio. Aut
A
(V ) := End
A
(V )
es el grupo lineal
general sobre A.
Notemos tambien que si R es conmutativo, End
R
(V ) posee dos estructuras: es
un anillo y es un R-espacio. Este tipo de estructuras se conoce como R-algebras, en
el sentido de la siguiente denicion.
Denici on 1.1.23. Sea R un anillo conmutativo y sea A un conjunto no vaco. Se
dice que A es una R-algebra si
(i) A es un anillo.
(ii) A es un R-espacio respecto de la adicion denida en A.
(iii) (ab) r = a(b r) = (a r)b, para cualesquiera a, b A y cada r R.
A es en algebra conmutativa si A es un anillo conmutativo.
Ejemplo 1.1.24. Si R es un anillo conmutativo y V es un R-espacio, entonces
End
R
(V ) es una R-algebra no necesariamente conmutativa.
Ejemplo 1.1.25. Si R es un anillo conmutativo entonces el conjunto R[x] de todos
los polinomios con coecientes en R es una R-algebra conmutativa.
8 CAP
ITULO 1. MATRICES
1.2. Matrices sobre anillos
Denici on 1.2.1. Sea A un anillo y sean m, n enteros positivos; una matriz de
tama no m n es una tabla ordenada de m las y n columnas conformada por
elementos de A en la forma
B =
_
_
b
11
b
1n
.
.
.
.
.
.
b
m1
b
mn
_
_
.
Los elementos b
11
, . . . , b
mn
se denominan las componentes o entradas de B. La
entrada que esta en la interseccion de la i-esima la con la j-esima columna se
denota por b
ij
, y la matriz B tambien se simboliza por B = [b
ij
]. La i-esima la de
B se denota por B
i
:= [b
i1
, . . . , b
in
], la j-esima columna se denota por
B
(j)
:=
_
_
b
1j
.
.
.
b
mj
_
_
.
La matriz B
T
= [b
ij
] de tama no n m denida por b
ij
:= b
ji
, para cada i y cada j,
se denomina la traspuesta de B. La matriz B se dice cuadrada si m = n.
Proposici on 1.2.2. El conjunto M
mn
(A) de todas las matrices de tama no mn
con entradas en el anillo A es un A-espacio vectorial respecto de las siguientes
operaciones: si B = [b
ij
], C = [c
ij
] M
mn
(A) y a A, entonces
B +C := [b
ij
+c
ij
], B a := [b
ij
a].
M
mn
(A) es libre con base canonica E
ij
m,n
i=1,j=1
, donde
E
ij
:=
_
_
0
.
.
. 0
1
0
.
.
. 0
_
_
, (1.2.1)
es decir, en la matriz E
ij
la unica entrada no nula corresponde a la interseccion de
la i-esima la con la j-esima columna en donde esta ubicado el elemento 1. Ademas,
estas matrices satisfacen la siguiente regla para el producto:
E
ij
E
pq
=
_
E
iq
, j = p
0, j ,= p.
Demostracion. Dejamos los detalles de la prueba al lector. Indiquemos solamente la
notacion para la matriz nula y la representacion de cualquier matriz B de M
mn
(A)
en terminos de la base canonica:
1.2. MATRICES SOBRE ANILLOS 9
0 =
_
_
0 0
.
.
.
.
.
.
0 0
_
_
, B =
i,j
E
ij
b
ij
.
Denici on 1.2.3. Sean B = [b
ij
] M
mn
(A), C = [c
ij
] M
np
(A), se dene el
producto
BC := D = [d
ij
], d
ij
:=
n
i=1
b
ik
c
kj
, 1 i m, 1 j p.
Notemos que el producto de matrices se dene con la siguiente condicion de
compatibilidad: el n umero de columnas del primer factor coincide con el n umero de
las del segundo factor.
Proposici on 1.2.4. Sean B, C, D matrices compatibles para las operaciones indi-
cadas. Entonces
(i) (BC)D = B(CD).
(ii) B(C +D) = BC +BD; (B +C)D = BD +CD.
(iii) Si R es un anillo conmutativo y B, C son matrices con entradas en R, entonces
para cada r R se tiene que (B r)C = (BC) r = B(C r).
(iv) Sean B, C y D matrices como en la denicion 1.2.3. Entonces,
BC = [BC
(1)
BC
(p)
],
BC = [B
1
C B
m
C]
T
(v) Para cada 1 se dene la matriz identica de tama no n n sobre el anillo
A por
E = [e
ij
] :=
_
_
1 0
.
.
.
0 1
_
_
, e
ij
:=
_
1, i = j
0, i ,= j
Entonces, para cada matriz B M
mn
(A) se tiene que
EB = B, BE = B.
10 CAP
ITULO 1. MATRICES
(vi) Para cada n 1, M
n
(A) es un anillo. Si R es un anillo conmutativo, entonces
M
n
(R) es una R-algebra.
Demostracion. Todas las armaciones de esta proposicion son consecuencia directa
de las deniciones; dejamos su prueba la lector.
Las matrices constituyen un lenguaje computacional para el algebra lineal tal
como lo ilustra el siguiente teorema en el cual mostraremos la representacion de
transformaciones lineales por medio de matrices. Para el teorema necesitamos las
siguientes nociones (veanse [4], [5] y [6]).
Denici on 1.2.5. Sean G, H dos grupos, se dice que G es isomorfo a H, lo
cual se denota por G
= H, si existe una funcion biyectiva f : G H tal que
f(g g
) = f(g) f(g
) = f(a) + f(a
), f(aa
) = f(a)f(a
) para
cualesquiera elementos a, a
) = f(k) +f(k
),
f(k r) = f(k) r, f(kk
) = f(k)f(k
K, r R,
y ademas f(1) = 1.
Teorema 1.2.6. Sea A un anillo arbitrario.
(i) Si V es un A-espacio libre con una base de n 1 elementos y W es un
A-espacio libre con una base de m elementos, entonces
Hom
A
(V, W)
= M
mn
(A) (isomorsmo de grupos).
Si A = R es un anillo conmutativo entonces el isomorsmo anterior es de
espacios vectoriales.
(ii) End
A
(V )
= M
n
(A) (isomorsmo de anillos).
(iii) Si R es un anillo conmutativo, entonces End
R
(V )
= M
n
(R) (isomorsmo de
algebras).
Demostracion. La idea central de la prueba del teorema es asignar a cada transfor-
macion lineal una matriz y, recprocamente, denir con cada matriz una transfor-
macion lineal.
Matriz asociada a una transformacion lineal : sea X = x
1
, . . . , x
n
una
base de V y sea Y = y
1
, . . . , y
m
una base de W; sea f : V W una t.l., entonces
1.2. MATRICES SOBRE ANILLOS 11
f determina una unica matriz m
X,Y
(f) := F := [f
ij
] M
mn
(A), llamada la matriz
de la tranformacion f en las bases X, Y , y denida por
f(x
j
) :=
m
i=1
y
i
.f
ij
, 1 j n. (1.2.2)
Transformacion lineal denida por una matriz: cada matriz F = [f
ij
]
M
mn
(A) determina una unica t.l. f : V W denida como en (1.2.2). Si en
particular V = A
n
y W = A
m
, entonces f se puede presentar matricialmente en la
siguiente forma:
f : A
n
A
m
a := [a
1
, . . . , a
n
]
T
Fa = F[a
1
, . . . , a
n
]
T
= F
(1)
a
1
+ +F
(n)
a
n
. (1.2.3)
(i) Por lo anterior es claro que la funcion
Hom
A
(V, W)
m
X,Y
M
mn
(A)
f m
X,Y
(f)
es un isomorsmo de grupos. Si A = R es un anillo conmutativo, la funcion m
X,Y
es un isomorsmo de espacios vectoriales.
(ii) Sea U un A-espacio libre con una base Z = z
1
, . . . , z
p
de p elementos y sea
g : W U otra t.l., veamos entonces que
m
X,Z
(gf) = m
Y,Z
(g)m
X,Y
(f). (1.2.4)
Sean F = m
X,Y
(f), G = m
Y,Z
(g) y H = m
X,Z
(gf); se tiene que
(gf)(x
j
) =
p
k=1
z
k
h
kj
= g(f(x
j
)) = g(
m
l=1
y
l
f
lj
)
=
m
l=1
(
p
k=1
z
k
g
kl
) f
lj
=
p
k=1
z
k
(
m
l=1
g
kl
f
lj
),
luego h
kj
=
m
l=1
g
kl
f
lj
, es decir, H = GF.
Tomando V = W = U y X = Y = Z en (1.2.4) y considerando lo probado en (i)
se obtiene que End
A
(V ) y M
n
(A) son anillos isomorfos. Notemos que m
X,X
(i
V
) :=
m
X
(i
V
) = E.
(iii) Esto es consecuencia directa de (i) y (ii).
12 CAP
ITULO 1. MATRICES
Observaci on 1.2.7. (i) Al considerar espacios vectoriales a izquierda algunos au-
tores acostumbran a disponer por las los coecientes de la expansion a traves
de una base. En forma mas precisa, sea X = x
1
, . . . , x
n
una base de V y sea
Y = y
1
, . . . , y
m
una base de W; sea f : V W una t.l., entonces f determina
una unica matriz m
X,Y
(f) := [f
ij
] M
nm
(A), denominada tambien la matriz de
la tranformacion f en las bases X, Y , y denida por
f(x
i
) :=
m
j=1
f
ij
y
j
, 1 i n. (1.2.5)
La identidad (1.2.4) se convierte en
m
X,Z
(gf) = m
X,Y
(f)m
Y,Z
(g). (1.2.6)
En efecto, usando la notacion de la demostracion del toerema 1.2.6 tenemos que
g(y
j
) =
p
k=1
g
jk
z
k
, 1 j m, m
Y,Z
(g) := [g
ij
] M
mp
(A), luego
(gf)(x
i
) =
m
j=1
f
ij
g(y
j
) =
m
j=1
p
k=1
f
ij
g
jk
z
k
.
Si utilizaramos tambien notacion izquierda para funciones, es decir, en lugar de
f(x) escribieramos xf, entonces la compuesta V
f
W
g
U debera denotarse fg,
en cuyo caso se tendra la relacion m
X,Z
(fg) = m
X,Y
(f)m
Y,Z
(g). Con esta notacion
tendramos en particular el isomorsmo de anillos End
A
(
A
V )
= M
n
(A). Sin em-
bargo, la notacion a izquierda para funciones es muy poco usada, esto trae como
consecuencia que en el teorema 1.2.6 los anillos End
A
(
A
V ) y M
n
(A) sean anti-
isomorfos. Pero si consideramos el anillo opuesto de M
n
(A) (vease [6]), entonces
tendremos el isomorsmo de anillos End
A
(
A
V )
= M
n
(A)
op
. Notemos adicionalmente
que una matriz F := [f
ij
] M
nm
(A) dene una t.l. dada por
A
1n
f
A
1m
(a
1
, . . . , a
n
) (a
1
, . . . , a
n
)F (1.2.7)
y la matriz de f en las bases canonicas coincide con F.
(ii) Otra alternativa para los espacios a izquierda es disponer nuevamente los
coecientes de la expansion por columnas y mantener la notacion usual de funciones
a derecha, en tal caso resulta
(gf)(x
j
) = g(
m
i=1
f
ij
y
i
) =
m
i=1
p
k=1
f
ij
g
ki
z
k
;
1.3. INVERSA DE UNA MATRIZ Y CAMBIO DE BASE 13
si cambiamos el anillo A por su anillo opuesto A
op
, entonces tendramos m
X,Z
(gf) =
m
Y,Z
(g)m
X,Y
(f), y en consecuencia el isomorsmo End
A
(
A
V )
= M
n
(A
op
). Otra
variante de esta alternativa es no usar el anillo opuesto, pero entonces la identidad
anterior dice que
m
X,Z
(gf) = (m
X,Y
(f)
T
m
Y,Z
(g)
T
)
T
. (1.2.8)
La matriz F M
rs
(S) dene un homomorsmo
S
s
f
S
r
a (a
T
F
T
)
T
(1.2.9)
y su matriz en las bases canonicas coincide con F. As pues, f : S
r
S
r
es un
isomorsmo si, y solo si, F
T
GL
r
(S). Finalmente, sea C M
r
(S); las columnas
de C constituyen una base de S
r
si, y solo si, C
T
GL
r
(S) (vease el corolario 1.3.5
mas adelante).
(iii) Notemos de todos modos que los valores asignados por la funcion f en
cada una de las dos opciones anteriores coinciden ya que la matriz F en (1.2.7) es
precisamente F
T
en (1.2.9).
(iv) Finalmente, si Aes un anillo conmutativo entonces la relacion (1.2.8) coincide
con (1.2.4) y tambien se tiene que (a
T
F
T
)
T
= Fa.
1.3. Inversa de una matriz y cambio de base
Denici on 1.3.1. Sea B M
nm
(A) una matriz; se dice que B es semi-invertible
si existe otra matriz B
M
mn
(A) tal que BB
= E y B
B = E. En tal caso se
dice que B
.
Corolario 1.3.2. Sea V un A-espacio libre con una base de n 1 elementos.
Entonces,
Aut
A
(V )
= GL
n
(A) (isomorsmo de grupos).
Demostracion. Esto es consecuencia del teorema anterior y los detalles de la prueba
los dejamos al lector.
El grupo GL
n
(A) y varios de sus subgrupos mas destacados seran estudiados
en forma detallada en el ultimo captulo del presente cuaderno. Pasamos ahora a
estudiar los cambios de bases en los espacios libres y a entender su efecto en las
representaciones matriciales de las transformaciones lineales.
14 CAP
ITULO 1. MATRICES
Proposici on 1.3.3. Sea V un espacio libre con base X = x
1
, . . . , x
n
y sea B =
[b
ij
] M
nm
(A). Entonces el conjunto
Y := y
j
=
n
i=1
x
i
.b
ij
[1 j m (1.3.1)
es una base de V si, y solo si, B es semi-invertible.
Demostracion. Para simplicar la prueba utilizaremos notacion matricial de tal for-
ma que la igualdad (1.3.1) la escribiremos como
[Y ] = [X]B
con [Y ] := [y
1
, . . . , y
m
].
) Si Y es una base de V cada elemento de X es combinacion lineal de los
elementos de Y , resulta entonces una matriz B
M
mn
(A) tal que [X] = [Y ]B
.
Por lo tanto , [Y ] = [X]B = [Y ]B
= E.
) [X] = [X]E = [X]BB
= [Y ]B
, luego V = X) Y ) y entonces V = Y ).
Sean a
1
, . . . , a
m
A tales que y
1
a
1
+ +y
m
a
m
= 0; se tiene entonces que [Y ]F = 0,
donde F M
m
(A) es una matriz en la cual cada la es el vector [a
1
, . . . , a
m
]. Resulta
entonces [X]BF = 0, pero como X es l.i. entonces BF = 0, luego B
BF = 0, es
decir, F = 0, con lo cual a
1
= = a
m
= 0.
Denici on 1.3.4. La matriz B de la proposicion 1.3.3 es la matriz de cambio
de la base X a la base Y .
La matriz B
es semi-invertible.
Esta situacion se presenta solamente en los anillos no dimensionales (vease [5] y la
observacion 1.3.10 mas adelante). Para anillos dimensionales n = m y la matriz de
cambio B es invertible.
Corolario 1.3.5. Sea B M
nm
(A); B es semi-invertible si, y solo si, las columnas
de B constituyen una base de A
m
. Si m = n, B es invertible si, y solo si, las columnas
de B constituyen una base de A
n
.
Demostracion. Basta tomar V = A
n
y X la base canonica de A
n
en la prueba de la
proposicion 1.3.3.
Ejemplo 1.3.6. La sola independencia la columnas de una matriz no garantiza que
sea semi-invertible. Consideremos por ejemplo la matriz cuadrada
B =
_
1 2
3 4
_
M
2
(Z),
1.3. INVERSA DE UNA MATRIZ Y CAMBIO DE BASE 15
notemos que B no es invertible como matriz entera ya que su inversa como matriz
real es
B
1
=
_
2 1
3
2
1
2
_
M
2
(Z);
notemos ademas que las columnas de B son l.i.
Denici on 1.3.7. Dos matrices P M
pq
(A) y Q M
mn
(A) son semi-equi-
valentes si existen matrices semi-invertibles D M
pm
(A) y C M
qn
(A) tales
que
Q = D
PC.
Si p = m y q = n se dice que P y Q son equivalentes si existen matrices invertibles
D GL
m
(A) y C GL
n
(A) tales que Q = D
1
PC, lo cual denotaremos por P Q.
Si p = m = q = n se dice que P y Q son similares si existe una matriz invertible
C GL
n
(A) tal que Q = C
1
PC, lo cual se denota por P Q.
Todas las relaciones de la denicion anterior son de equivalencia.
Proposici on 1.3.8. Sea f : V W una t.l, donde V es libre con bases X =
x
1
, . . . , x
n
, X
= x
1
, . . . , x
q
y W es libre con bases Y = y
1
, . . . , y
m
, Y
=
y
1
, . . . , y
p
. Sean P = m
X,Y
(f), Q = m
X
,Y
(f), C la matriz de cambio de X a X
y D la matriz de cambio de Y a Y
. Entonces,
Q = D
PC.
Si q = n y p = m entonces Q = D
1
PC. Si V = W, Y = X, Y
= X
, entonces
Q = C
1
PC.
Demostracion. Tenemos que
f(x
j
) =
m
k=1
y
k
.p
kj
, 1 j n
f(x
t
) =
p
r=1
y
r
.q
rt
, 1 t q
x
t
=
n
j=1
x
j
.c
jt
y
r
=
m
k=1
y
k
.d
kr
, 1 r p,
luego
16 CAP
ITULO 1. MATRICES
f(x
t
) =
n
j=1
f(x
j
).c
jt
=
n
j=1
(
m
k=1
y
k
.p
kj
).c
jt
=
m
k=1
y
k
.(
n
j=1
p
kj
c
jt
);
f(x
t
) =
p
r=1
(
m
k=1
y
k
.d
kr
).q
rt
=
m
k=1
y
k
.(
p
r=1
d
kr
q
rt
),
y puesto que Y es l.i, entonces PC = DQ, es decir, Q = D
PC.
Proposici on 1.3.9. Dos matrices P M
pq
(A) y Q M
mn
(A) son semiequi-
valentes si, y solo si, representan la misma transformacion lineal. Si q = n y p =
m, entonces P, Q M
mn
(A) son equivalentes si, y solo si, representan la misma
transformacion lineal. Si q = n = p = m, entonces P, Q M
n
(A) son similares si,
y solo si, representan la misma transformacion lineal.
Demostracion. ): sea Q = D
PC con D M
pm
(A) y C M
qn
(A) semi-
invertibles; P representa una t.l. A
q
f
A
p
en las bases canonicas X de A
q
y Y
de A
p
. Sea [Y
es tambien una
base de A
p
(notemos que Y
] := [X]C, y X
, Y
,Y
(g) = Q, de donde m
X
,Y
(f) = D
m
X,Y
(f)C = D
PC = Q = m
X
,Y
(g), y
por lo tanto, f = g.
): esta parte corresponde la la proposicion 1.3.8.
Observaci on 1.3.10. (i) Un punto donde el algebra lineal sobre anillos se aparta del
algebra lineal clasica es en la existencia y tama no de las bases. En [6] se demuestra
que el Z-espacio de los n umeros racionales Q no es libre. En cuanto a la unicidad
de las bases, en general, podemos armar que en un espacio vectorial libre existen
innitas bases. Por ejemplo, en R
n
el conjunto X
a
= e
1
.a, . . . , e
n
, con a R0,
es una base. En Z
2
se tienen las siguientes bases,
(1, 0), (0, 1), (1, 0), (0, 1), (1, 0), (0, 1), (1, 0), (0, 1), (1, 1), (1, 2).
En el siguiente captulo veremos que (a, b), (c, d) es una base de Z
2
si, y solo si,
ad bc = 1. El problema de la unicidad entonces es mejor plantearlo en terminos
del tama no de las bases. En [6] se prueba que todo espacio vectorial libre nitamente
generado (f.g.) posee una base nita, y tambien que, en un espacio vectorial libre
todas las bases son nitas o bien todas son innitas. Ademas, para espacios de bases
innitas no hay problema con el tama no de las bases, todas tinen la misma cantidad
de elementos. Sin embargo, existen anillos A para los cuales se tiene la siguiente
propiedad: si V es un A-espacio de bases nitas, no necesariamente todas las bases
de V tienen el mismo n umero de elementos. Un ejemplo puede ser consultado en [6].
(ii) Sea V un A-espacio libre. Se dice que V es dimensional si todas las bases de
V tienen el mismo n umero de elementos. Este n umero se denomina la dimension
1.4. MATRICES Y OPERACIONES ELEMENTALES 17
de V y se denota por dim
A
(V ). Se dice que A es un anillo dimensional si todos
sus A-espacios libres son dimensionales (en ingles IBN, invariant basis number). La
mayora de los anillos estudiados en algebra son dimensionales (vease [2] y [4]). Por
ejemplo, los anillos de division y los anillos conmutativos son dimensionales (esto lo
probaremos mas adelante).
(iii) Notemos que un anillo A es dimensional si, y solo si, las unicas matrices
semi-invertibles sobre A son las matrices cuadradas (en cuyo caso son invertibles).
Esto hace que si A es un anillo dimensional, entonces todos los A-espacios vectoriales
libres izquierdos son dimensionales, es decir, A es dimensional a derecha si, y solo
si, A es dimensional a izquierda (vease [4]). Ademas, en anillos dimensionales, semi-
invertible = invertible y semi-equivalente = equivalente.
(iv) En adelante en el presente cuaderno asumiremos que A es un anillo dimen-
sional.
1.4. Matrices y operaciones elementales
En el grupo GL
n
(A) se tienen tres tipos importantes de matrices que permiten
realizar cambios sobre las las y/o columnas de una matriz. Denimos en esta seccion
estas matrices invertibles especiales.
Denici on 1.4.1. Sea n 2. Se denen los siguientes tipos de matrices elemen-
tales.
(i) Matrices propiamente elementales:
T
ij
(a) := E +E
ij
a =
_
_
1
.
.
. a
.
.
.
.
.
.
1
_
_
, a A, i ,= j.
(ii) Permutaciones:
P
ij
:= E E
ii
E
jj
+E
ij
+E
ji
.
(iii) Diagonales:
D
i
(a) := E +E
ii
(a 1), a A
.
Proposici on 1.4.2. Las matrices elementales son invertibles,
18 CAP
ITULO 1. MATRICES
T
ij
(a)
1
= T
ij
(a), P
1
ij
= P
ij
, D
i
(a)
1
= D
i
(a
1
).
Demostracion. Ejercicio para el lector.
Denici on 1.4.3. El subgrupo de GL
n
(A) generado por todas las matrices propia-
mente elementales se denomina grupo elemental, y se denota por E
n
(A).
Las matrices elementales inducen las llamadas operaciones elementales sobre
las las y columnas de una matriz F M
mn
(A), m, n 2:
(i) El efecto de multiplicar F a la derecha por T
ij
(a) GL
n
(A) es sumar a la
j-esima columna de F la i-esima columna multiplicada a derecha por a. El
efecto de multiplicar F a la izquierda por T
ij
(a) GL
m
(A) es sumar a la
i-esima la la j-esima multiplicada a izquierda por a.
(ii) El producto FP
ij
, con P
ij
GL
n
(A) intercambia las columnas i-esima y j-
esima de F. P
ij
F, con P
ij
GL
m
(A), efect ua el correspondiente intercambio
de las.
(iii) La matriz FD
i
(a), con D
i
(a) GL
n
(A), se obtiene de F multiplicando la
i-esima columna de F a la derecha por a. D
i
(a)F, con D
i
(a) GL
m
(A), se
obtiene de F multiplicando la i-esima la de F por a a la izquierda.
Teniendo en cuenta que el producto de matrices invertibles es invertible, obtenemos
inmediatamente el siguiente resultado.
Corolario 1.4.4. Si la matriz G M
mn
(A) se obtuvo de F M
mn
(A) por
medio de operaciones elementales sobre las la y/o columnas de F, entonces G es
equivalente a F.
1.5. Ejercicios
1. Determine 10 bases diferentes en Z
2
distintas de la base canonica.
2. Determine 10 conjuntos diferentes en Z
2
cada uno de 2 elementos y l.d.
3. Sea K un cuerpo y sea V un K-espacio. Si x
1
, . . . , x
n
son vectores l.i. de V ,
demuestre que cada conjunto de n + 1 vectores de x
1
, . . . , x
n
) es l.d.
4. Demuestre que todo cuerpo K es un anillo dimensional.
5. Sea n 1 entero y sea R
n
[x] el conjunto de polinomios reales de grado menor
o igual a n. Demuestre que R
n
[x] es un R-espacio de dimension n + 1.
1.5. EJERCICIOS 19
6. Con la notacion del ejercicio anterior, sea X un subconjunto de R
n
[x] que
contiene para cada k = 0, 1, . . . , n un unico polinomio de grado k. Demuestre
que X es una base de R
n
[x].
7. Demuestre la armacion del ejemplo 1.1.17.
8. Sea f : V W una t.l. para la cual existe una funcion g : W V tal que
fg = i
W
y gf = i
V
. Demuestre que g es una t.l.
9. Compruebe que End
R
(R
2
) no es un anillo conmutativo.
10. Demuestre que M
2
(R) es una R-algebra no conmutativa.
11. Sea R un anillo conmutativo y R[x
1
, . . . , x
n
] el conjunto de polinomios en
n indeterminadas con coecientes en R. Demuestre que R[x
1
, . . . , x
n
] es una
R-algebra conmutativa.
12. Demuestre el corolario 1.3.2.
13. Demuestre que las columnas de la matriz B del ejemplo 1.3.6 son l.i.
14. Demuestre que las relaciones de la denicion 1.3.7 son de equivalencia.
15. (vease [1], pag. 17) Sea A un anillo; un subconjunto no vaco I de A es un
ideal derecho de A si x + y I y xa I para cada x I y cada a A.
De manera similar se denen los ideales izquierdos de A. Demuestre que para
cada 1 r n 1, el conjunto
I =
_
0
A
_
conformado por todas las matrices en las cuales las primeras r las son nulas
es un ideal derecho de M
n
(A). De igual manera, demuestre que el conjunto
de matrices de M
n
(A) conformado por todas las matrices en las cuales las
primeras r columnas son nulas es un ideal izquierdo de M
n
(A).
16. Sea V un A-espacio y sea v V ; se dene
Ann
A
(v) := a A[v.a = 0.
Demuestre que Ann
A
(v) es un ideal derecho de A. Ademas, si
Ann
A
(V ) := a A[v.a = 0 para cada v V ,
20 CAP
ITULO 1. MATRICES
entonces Ann
A
(V ) es un ideal bilatero de A, es decir, Ann
A
(V ) es un ideal
izquierdo y derecho de A que cumple
Ann
A
(V ) =
vV
Ann
A
(v).
17. Sean V
1
, V
2
dos subespacios de un A-espacio V . Demuestre que
V
1
+V
2
:= v
i
+v
2
[v
1
V
1
, v
2
V
2
= M
n
(A
1
) M
n
(A
n
),
GL
n
(A
1
A
n
)
= GL
n
(A
1
) GL
n
(A
n
).
23. Sea R un anillo conmutativo y sea B = [b
ij
] M
n
(R). Se dene la traza de B
por Tr(B) := b
11
+ +b
nn
. Demuestre las siguientes propiedades:
(i) Tr(BC) = Tr(CB).
(ii) Tr(B +C) = Tr(B) +Tr(C).
1.5. EJERCICIOS 21
(iii) Tr(B.r) = Tr(B)r, r R.
(iv) La traza es una t.l. sobreyectiva de M
n
(R) en R.
(v) ker(Tr) = X), donde X = E
ij
[i ,= j E
11
E
ii
[i ,= 1.
(vi) Tr(B
T
) = Tr(B).
(vii) Tr(P
1
BP) = Tr(B), para cada P GL
n
(R).
(viii) ker(Tr) = Y ), con Y = BC CB[B, C M
n
(R).
Captulo 2
Determinantes y sistemas de
ecuaciones lineales
En este captulo presentaremos la teora de determinantes sobre anillos conmutativos
arbitrarios y la usaremos para estudiar sistemas de ecuaciones lineales sobre estos
anillos. Si no se advierte lo contrario R denotara un anillo conmutativo.
2.1. Determinantes
El enfoque que daremos a la funcion determinante utiliza el grupo de permutaciones
de un conjunto nito, el cual trataremos a continuacion.
Denici on 2.1.1. Para cada n 1 sea S
n
el conjunto de todas las funciones biyec-
tivas del conjunto I
n
:= 1, 2, . . . , n. Cada una de tales funciones se denomina
permutacion del conjunto I
n
. Bajo la operacion de composicion de funciones , S
n
es claramente un grupo, y se le denomina grupo simetrico de grado n. Una per-
mutacion S
n
se llama ciclo de longitud m, 1 m n, si existen m elementos
diferentes
1
, . . . ,
m
I
n
tales que (
i
) =
i+1
para 1 i m 1, (
m
) =
1
y () = para cada I
n
1
, . . . ,
m
. Un ciclo de longitud 2 se denomina
trasposicion. Dos ciclos = (
1
m
) y = (
1
r
) se dicen disyuntos, si
1
m
1
r
= .
Enunciamos a continuacion algunas de las propiedades mas importantes del
grupo S
n
y de sus ciclos. La demostracion de estas puede ser consultada en [8]
y [4].
(i) Los ciclos disjuntos conmutan.
(ii) Cada permutacion de S
n
es el producto de ciclos disjuntos. La representacion
es unica salvo el orden.
22
2.1. DETERMINANTES 23
(iii) Cada permutacion en S
n
es producto de trasposiciones.
(iv) Si una permutacion S
n
tiene dos descomposiciones en productos de r y s
trasposiciones, entonces r es par si, y solo si, s es par.
(v) Una permutacion S
n
se denomina par, si se descompone en un n umero
par de trasposiciones. El conjunto A
n
de las trasposiciones pares de S
n
tiene
las siguientes propiedades: el producto de permutaciones para es par; la per-
mutacion identica es par; la inversa de una permutacion par es par. En otras
palabras, A
n
bajo la composicion es un grupo, llamado el grupo alternante
de grado n.
(vi) S
n
tiene n! elementos, mientras que A
n
posee
n!
2
.
Denici on 2.1.2. Sea n 1. Para cada B = [b
ij
] M
n
(R) se dene su determi-
nante como el elemento de R dado por
det B :=
Sn
(1)
b
1(1)
b
n(n)
, (2.1.1)
donde (1)
Sn
(1)
c
1(1)
c
i(i)
c
n(n)
=
Sn
(1)
b
1(1)
ab
i(i)
b
n(n)
= a det B.
Notese la aplicacion de la propiedad conmutativa.
24 CAP
_
b
11
b
1n
b
i1
+a
1
b
in
+a
n
b
n1
b
nn
_
_
= det B + det
_
_
b
11
b
1n
a
1
a
n
b
n1
b
nn
_
_
.
Demostracion. Sea C = [c
ij
] M
n
con
c
rs
=
_
b
rs
, r ,= i
b
is
+a
s
, r = i.
Entonces,
det C =
Sn
(1)
b
1(1)
(b
i(i)
+a
(i)
) b
n(n)
= det B + det
_
_
b
11
b
1n
a
1
a
n
b
n1
b
nn
_
_
.
Proposici on 2.1.5. Si dos las de una matriz son iguales entonces su determinante
es nulo.
Demostracion. Sea B = [b
ij
] M
n
(R) tal que B
r
= B
s
con r ,= s. Sea =
(rs) S
n
y A
n
el grupo de permutaciones pares. Sea A
n
:= [ A
n
.
Notese que [A
n
[ =
n!
2
y que cada permutaci on de A
n
es impar. resulta entonces
S
n
= A
n
A
n
, con lo cual podemos desarrollar el determinante de B de la siguiente
manera:
det B =
An
(1)
b
1(1)
b
n(n)
+
An
(1)
b
1(1)
b
n(n)
=
An
[(1)
b
1(1)
b
n(n)
+ (1)
b
1(1)
b
n(n)
].
Observemos con mayor detalle cada termino de la anterior suma:
(1)
b
1(1)
b
r(r)
b
s(s)
b
n(n)
+ (1)
b
1(1)
b
r(r)
b
s(s)
b
n(n)
(2.1.2)
Para i ,= r, s, b
i(i)
= b
i(i)
; b
r(r)
= b
s(r)
= b
s(s)
; b
s(s)
= b
r(s)
= b
r(r)
; (1)
y (1)
det B.
Demostracion. Consecuencia directa de 2.1.6.
Proposici on 2.1.8. Sea B M
n
(R). Entonces
det[B
1
, . . . , B
r
+aB
s
, . . . , B
s
, . . . , B
n
]
T
= det B, con a R, r ,= s.
En consecuencia, si una la es nula el determinante es nulo.
Demostracion. Consecuencia de las proposiciones 2.1.3, 2.1.4 y 2.1.5.
De la denicion y de las propiedades establecidas se obtienen los siguientes re-
sultados:
(i) det E = 1.
(ii) det D
i
(a) = a, a R.
(iii) det P
ij
= 1 para i ,= j.
(iv) det T
ij
(a) = 1, a R.
Teorema 2.1.9. Para B, C M
n
(R) se cumple que
det(BC) = (det B)(det C). (2.1.3)
26 CAP
j=1
b
ij
det[C
j
, b
21
C
1
+ +b
2n
C
n
, . . . , b
n1
C
1
+ +b
nn
C
n
]
T
Procediendo de manera analoga con las demas las resulta
det D =
j
1
,...,jn
b
1j
1
b
2j
2
b
njn
det[C
j
1
, . . . , C
jn
]
T
, (2.1.4)
donde j
1
, . . . , j
n
recorren independientemente los valores de 1 a n. Para valores
iguales de dos ndices el determinante det[C
j
1
, . . . , C
jn
] es nulo. As pues, en (2.1.4)
podemos suponer que los subndices j
1
, . . . , j
n
son diferentes. Esto hace que tengamos
una correspondencia biyectiva entre S
n
las n-plas (j
1
, . . . , j
n
) de entradas diferentes
entre s. Resulta entonces
det D =
Sn
b
1(1)
b
n(n)
det[C
(1)
, . . . , C
(n)
]
T
,
aplicando el corolario 2.1.7 resulta
det D =
Sn
(1)
b
1(1)
b
n(n)
det[C
1
, . . . , C
n
]
T
, es decir,
det D = (det B)(det C).
De este teorema se desprenden algunas conclusiones importantes.
Corolario 2.1.10. (i) Si B GL
n
(R), entonces det B R
y ademas det B
1
=
(det B)
1
.
(ii) Matrices similares tienen el mismo determinante.
(iii) Los anillos conmutativos son dimensionales.
Demostracion. Las dos primeras armaciones son evidentes.
(iii) Sea V un R-espacio libre con bases X = x
1
, . . . , x
n
y Y = y
1
, . . . , y
m
.
Supongase que m ,= n; por ejemplo m > n. Sea B M
nm
(R) la matriz de cambio
de X a Y . Por 1.3.3, existe B
M
mn
(R) tal que B
M
m
(R) las matrices obtenidas de B y B
det
B = 0 ya
que
B tiene las nulas.
2.2. DETERMINANTES Y FUNCIONES MULTILINEALES 27
El punto (ii) del corolario anterior induce la siguiente denicion.
Denici on 2.1.11. Si f : V V es una transformacion lineal de un espacio de
dimension nita, entonces se dene el determinante de f como el determinante
de la matriz de f en cualquier base.
La funcion determinante ha sido introducida a traves de las las de las matrices.
Para mostrar que el tratamiento por columnas es analogo, basta probar que para
cada B M
n
(R) se tiene que
det B = det B
T
. (2.1.5)
En efecto, sea B
T
= [b
ij
] con b
ij
= b
ij
. Notese que S
n
es par s, y solo si,
1
S
n
lo es; ademas, cuando recorre S
n
,
1
tambien lo hace. Por tanto,
det B =
Sn
(1)
b
1(1)
b
n(n)
=
Sn
(1)
(1)1
b
(n)n
.
Sea (i
1
) = 1, (i
2
) = 2,. . . , (i
n
) = n, reordenando el producto b
(1)1
b
(n)n
se
tiene que
det B =
Sn
(1)
(i
1
)i
1
b
(in)in
=
Sn
(1)
1
1
(1)
b
n
1
(n)
=
1
Sn
(1)
1
1
(1)
b
n
1
(n)
.
En total,
det B =
Sn
(1)
1(1)
b
n(n)
= det B
T
2.2. Determinantes y funciones multilineales
Consideramos en seguida la caracterizacion de los determinantes a traves de
cuatro propiedades basicas.
28 CAP
i
, . . . , v
n
) = T(v
1
, . . . , v
i
, . . . , v
n
) + T(v
1
, . . . , v
i
, . . . , v
n
), para
cada 1 i n.
(ii) T(v
1
, . . . , v
i
a, . . . , v
n
) = T(v
1
, . . . , v
i
, . . . , v
n
)a, a R, para cada 1 i n.
La funcion se dice alternada si
(iii) T(v
1
, . . . , v
i
, v
i+1
, . . . , v
n
) = 0, para v
i
= v
i+1
y cada 1 i n 1;
y antisimetrica, si
(iv) T(v
1
, . . . , v
i
, v
i+1
, . . . , v
n
) = T(v
1
, . . . , v
i+1
, v
i
, . . . , v
n
), para cada 1 i n.
Proposici on 2.2.2. Toda funcion multilineal alternada es antisimetrica. Si 2 :=
1 + 1 R
T(B).
Antes de emprender la prueba propiamente, notese que si la matriz B tiene dos las
iguales, entonces T(B) = 0: si las las son consecutivas no hay algo por mostrar.
De no ser as, aplicamos una permutacion adecuada para que lo sean, y entonces
usamos lo probado hace un momento.
Sea B = [b
ij
] M
n
(R) y e
i
= (0, . . . , 1, . . . , 0) para 1 i n. B puede ser
considerado como una elemento de R
n
R
n
notando que B = [
n
j=1
b
1j
e
j
, . . . ,
n
j=1
b
nj
e
j
]. De esto se sigue que
T(B) =T[
n
j=1
b
1j
e
j
, . . . ,
n
j=1
b
nj
e
j
]
=
n
j=1
b
1j
T[e
j
, . . . ,
n
j=1
b
nj
e
j
]
= =
=
j
1
,...,jn
b
1j
1
bnj
n
T[e
j
1
, . . . , e
jn
],
donde j
1
, . . . , j
n
recorren independientemente valores de 1 a n. El resto de la prueba
es similar a la demostracion del teorema 2.1.9.
La proposicion 2.2.3 y el teorema 2.2.4 garantizan la existencia y unicidad de
una funcion determinante.
Presentaremos a continuacion un resultado antiguo relativo a determinantes pero
con aplicaciones recientes. Sea A M
mn
(R) y A
_
i
1
, . . . , i
k
j
1
, . . . , j
k
_
la submatriz de A de
orden k k, conformada por las las i
1
, . . . , i
k
y las columnas j
1
, . . . , j
k
. Se tiene
entonces la siguiente formula.
Proposici on 2.2.5 (F ormula de Cauchy-Binet). Sean A M
mn
(R), B
M
mp
(R) matrices sobre R y C M
mp
(R) su producto. Entonces,
det C
_
i
1
, . . . , i
k
j
1
, . . . , j
k
_
=
det A
_
i
1
, . . . , i
k
r
1
, . . . , r
k
_
det B
_
r
1
, . . . , r
k
j
1
, . . . , j
k
_
,
30 CAP
i=1
(1)
i+1
b
i1
M
i1
. (2.3.1)
2.3. MENORES Y COFACTORES 31
Se dice que la funcion T se ha denido por medio de los menores de la primera
columna.
Proposici on 2.3.2. La funcion T de la denicion 2.3.1 es multilineal y alternada
de sus las. Ademas T(E) = 1.
Demostracion. La prueba de las cuatro propiedades requeridas se hace por induccion
sobre n. Los casos n = 1, 2 se demuestran directamente a partir de las deniciones
de T
1
y T
2
. Supongase entonces que T
n1
satisface las cuatro propiedades. Sea
E = (e
ij
) la identica de orden n. Puesto que e
ij
= 0 para i ,= 1, de (2.3.1) resulta
T(E) = e
11
M
11
. Pero M
11
= T
n1
(E
n1
) donde E
n1
denota la identica de tama no
n 1. Por induccion T(E) = 1.
Sea B = [b
ij
] M
n
(R), v = (a
1
, . . . , a
n
) R
n
y C = [c
ij
] = (B
1
, . . . , B
r
+
v, . . . , B
n
)
T
. Por (2.3.1), T(C) =
n
i=1
(1)
i+1
c
i1
M
i1
, donde M
i1
es el menor de
c
i1
. Podemos escribir entonces
T(C) =
n
i=1
i=r
(1)
i+1
c
i1
M
i1
+ (1)
r+1
(b
r1
+a
1
)M
r1
=
n
i=1
i=r
(1)
i+1
b
i1
[M
i1
+T
n1
(F)] + (1)
r+1
(b
r1
+a
1
)M
r1
,
donde F es la matriz obtenida de C suprimiendo la primera columna y la i-esima
la. Resulta entonces
T(C) = T(B) +T[B
1
, . . . , v, . . . , B
n
].
Sean ahora B = [b
ij
] M
n
(R) y C = [c
ij
] = [B
1
, . . . , aB
r
, . . . , B
n
]
T
, a R. Entonces
T(C) =
n
i=1
(1)
i+1
c
i1
M
i1
=
n
i=1
i=r
(1)
i+1
b
i1
aM
i1
+ (1)
r+1
b
r1
aM
r1
=aT(B).
Sean por ultimo B = [b
ij
] M
n
(R) tal que B = [B
1
, . . . , B
r
, B
r
, . . . , B
n
]
T
. Entonces
T(B) =
n
i=1
i=r,r+1
(1)
i+1
b
i1
M
i1
+ (1)
r+1
b
r1
M
r1
+ (1)
r+2
M
r+1,1
=0 + (1)
r+1
[b
r1
M
r1
b
r1
M
r1
],
dado que M
r1
= M
r+1,r
. De esta manera, T(B) = 0.
32 CAP
i=1
(1)
i+j
b
ij
M
ij
, 1 j n (2.3.2)
det B =
n
j=1
(1)
j+i
b
ij
M
ij
, 1 i n (2.3.3)
Denici on 2.3.3. Sea B = [b
ij
] M
n
(R). El elemento B
ij
denido mediante
B
ij
:= (1)
i+j
M
ij
,
se denomina el complemento algebraico de b
ij
. La matriz Cof(B) de los com-
plementos algebraicos
Cof(B) = [B
ij
],
se denomina matriz cofactor de B. La transpuesta Cof(B)
T
de la matriz cofactor
de denomina la adjunta de B, y se denota por Adj(B).
Teorema 2.3.4. Sea B M
n
(R). Entonces,
(i) BAdj(B) = Adj(B)B = det(B)E.
(ii) B GL
n
(R) si, y solo si, det(B) R
. En tal caso
B
1
= (det B)
1
Adj(B).
Demostracion. (i) Probaremos inicialmente las siguientes formulas:
b
i1
B
j1
+ +b
in
B
jn
=
_
0, i ,= j,
det B, i = j.
(2.3.4)
b
1j
B
1i
+ +b
nj
B
ni
=
_
0, i ,= j,
det B, i = j.
(2.3.5)
Las pruebas en ambos casos son analogas, por ello solo analizaremos (2.3.4). El caso
i = j corresponde a (2.3.3). Sea pues i ,= j y considerese la matriz C = [c
ij
] obtenida
2.3. MENORES Y COFACTORES 33
de B reemplazando la j-esima la de B por la i-esima. Entonces calculando det C
por la j-esima la tenemos
0 = det C =
n
k=1
(1)
k+j
b
jk
M
jk
=
n
k=1
b
ik
B
jk
.
Sea ahora C = [c
ij
] = BAdj(B). Entonces,
c
ij
=
n
k=1
b
ik
B
jk
_
0, i ,= j,
det B, i = j
,
de donde BAdj(B) = det(B)E. De (2.3.5) resulta tambien det(B)E = Adj(B)B.
(ii) Es consecuencia de (i) y del corolario 2.1.10
Del teorema anterior se desprenden algunas consecuencias interesantes. Sean
B, C M
n
(R) tales que BC = E. entonces det B R
, con lo cual B GL
n
(R) y
CB = E.
La funcion
det : GL
n
(R) R
B det B
es un homomorsmo sobreyectivo de grupos (o equivalentemente, un isomorsmo
no necesariamente inyectivo).
Denici on 2.3.5. El conjunto de matrices de GL
n
(R) cuyo determinante es 1,
es decir, el n ucleo del homomorsmo det es un subgrupo normal de GL
n
(R), de-
nominado el grupo especial lineal de dimension n sobre R, y se denota por
SL
n
(R).
SL
n
(R) constituye otro de los grupos de matrices que estudiaremos en el ultimo
captulo. Se tienen ademas las siguientes propiedades:
E
n
(R) SL
n
(R) GL
n
(R), GL
n
(R)/SL
n
(R)
= R
, (2.3.6)
donde E
n
(R) es el grupo elemental generado por todas las transvecciones (vease
la denicion 1.4.3). Se puede probar que para n 3, E
n
(R) SL
n
(R). Ademas,
existen clases importantes de anillos conmutativos para los cuales el grupo especial
y el elemental coinciden. Sobre esto volveremos en el ultimo captulo (vease tambien
[12]). Por ahora veamos las siguientes propiedades para cuerpos.
Proposici on 2.3.6. Sea K un cuerpo. Entonces,
(i) GL
n
(K) = T
ij
(a), D
n
(b), 1 i, j n, i ,= j, a K, b K
).
34 CAP
c d
_
, b
= b +
(1a)d
c
,
_
1 0
c 1
_ _
1 b
c d
_
=
_
1 b
0 d
_
, d
= b
c +d,
_
1 b
0 d
_ _
1 b
0 1
_
=
_
1 0
0 d
_
,
de donde,
_
a b
c d
_
=
_
1
a1
c
0 1
_ _
1 0
c 1
_ _
1 0
0 d
_ _
1 b
0 1
_
;
notese que d
,= 0, pues de lo contrario d = b
c =
bc+dab
c
c y as bc ad = 0, esto
ultimo implica que b =
d
c
a, y como d =
d
c
c tenemos que las columnas de la matriz son
l.d. contradiciendo nuestra hipotesis inicial. Sea D =
_
_
d
11
d
1n
d
n1
d
nn
_
_
GL
n
(K);
existe 1 j n tal que d
j1
,= 0; entonces
T
1j
(
1 d
11
d
j1
)D =
_
_
1 d
12
d
1n
d
21
d
22
d
2n
d
n1
d
n2
d
nn
_
_
,
mediante operaciones elementales del tipo T
ij
reducimos esta ultima matriz a una
de la forma
_
1 0
0 D
_
donde D
GL
n1
(K); mediante induccion y despejando como
hicimos en el caso n = 2 completamos la prueba (notese que en la factorizacion
de de D solo aparece una matriz diagonal). Por otra parte, si c = 0 pero a ,= 0,
realizamos la siguiente operacion elemental previamente:
_
1 0
1 1
_ _
a b
0 d
_
=
_
a b
a b +d
_
con a ,= 0.
(ii) Esto se obtiene de (i) y (2.3.6).
Otras consecuencias de la teora de determinantes son las siguientes.
Teorema 2.3.7. Sea V un R-espacio libre de dimension nita n 1. Tenemos,
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 35
(i) Si X es un sistema de generadores de V con n elementos, entonces X es una
base de V .
(ii) Un conjunto X de generadores de V con r 1 elementos es minimal si V
no se puede generar con menos de R elementos. Si X es minimal, entonces X
es una base de V y [X[ = n. En particular, V no se puede generar con menos
de n elementos, es decir, dimV = minimal de generadores de V .
Demostracion. (i) Vimos en el ejemplo 1.3.6 que aunque X sea l.i. con [X[ = n,
no necesariamente X resulta ser una base de V . Veremos ahora que si V = X) y
[X[ = n, entonces X es una base de V . En efecto, sean Y = y
1
, . . . , y
n
un base
de V , y r
1
. . . , r
n
R tales que x
1
r
1
+ + x
n
r
n
= 0, entonces [X][r]
T
= 0;
sin embargo, [X] = [Y ]B y [Y ] = [X]C para ciertas matrices B, C M
n
(R).
De esta forma, [Y ]B[r]
T
= 0 de donde B[r]
T
= 0; ademas, [Y ] = [Y ]BC y en
consecuencia BC = E, con lo que det(B) det(C) = 1, es decir, det(B) R
y por
tanto B GL
n
(R); as, CB = E y CB[r]
T
= 0, de donde se concluye que [r]
T
= 0.
(ii) Como r es minimal necesariamente r n. Supongamos que r < n; como en (i),
sea Y = y
1
, . . . , y
n
una base de V , entonces [X] = [Y ]B para alguna B M
nr
(R)
y [Y ] = [X]C para cierta matrice C M
rn
(R); as [Y ] = [Y ]BC, y por tanto,
BC = E. Sean B
0
:= [B [ 0] M
n
(R) y C
0
:= [
C
0
] M
n
(R), entonces B
0
C
0
= E
y, en consecuencia, det(B
0
) det(C
0
) = 1; pero det(C
0
) = 0 lo que es claramente una
contradiccion, y as necesariamente r = n. De (i) se sigue que X es una base.
Teorema 2.3.8. Sea R un anillo conmutativo cualquiera y sea f : R
n
R
n
un
homomorsmo sobreyectivo. Entonces f es biyectivo.
Demostracion. Sea X = e
1
, . . . , e
n
la base canonica de R
n
; entonces existen
a
1
, . . . , a
n
R
n
tales que f(a
i
) = e
i
para 1 i n. Sea g : R
n
R
n
el homomors-
mo dado por g(e
i
) = a
i
para 1 i n, entonces fg = i
R
n; as m
X
(fg) = FG = E,
de modo que det(F) R
X = B
X = B
n
k=1
(1)
k+1
M
k1
b
k
.
.
.
n
k=1
(1)
k+n
M
kn
b
k
_
_
.
Entonces,
det(A)x
j
=
n
k=1
(1)
k+j
M
kj
b
k
,
es decir,
det(A)x
j
= det
_
_
a
11
a
1,j1
b
1
a
1,j+1
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n,j1
b
n
a
n,j+1
a
nn
_
_
(2.4.3)
para cada 1 j n, es decir, det(A)x
j
= det[A
1
A
j1
BA
j+1
A
n
]. Notese que
si det(A) R
= B con A
=
_
_
X
x
n+1
.
.
.
x
m
_
_
es solucion de A
= B. Ademas,
I
k
(A) = I
k
(A
) e I
k
(A [ B) = I
k
(A
) = I
k
(A
_
a
i
1
j
1
a
i
1
j
k1
b
i
1
a
i
2
j
1
a
i
2
j
k1
b
i
2
.
.
.
.
.
.
.
.
.
.
.
.
a
i
k
j
1
a
i
k
j
k1
b
i
k
_
_
.
38 CAP
_
a
i
1
j
1
a
i
1
j
k1
a
i
1
1
.
.
.
.
.
.
.
.
.
.
.
.
a
i
k
j
1
a
i
k
j
k1
a
i
k
1
_
_
+ +
x
n
det
_
_
a
i
1
j
1
a
i
1
j
k1
a
i
1
n
.
.
.
.
.
.
.
.
.
.
.
.
a
i
k
j
1
a
i
k
j
k1
a
i
k
n
_
_
.
De esta forma s resulta ser una combinacion lineal de subdeterminantes de A de
tama no k k (algunos de ellos pueden ser nulos). En consecuencia, s I
k
(A).
La condicion de la proposicion 2.4.3 no es suciente para garantizar la solubilidad
del sistema AX = B. Es posible presentar un ejemplo donde los ideales determi-
nantes de A y (A [ B) coincidan, sin que el sistema AX = B tenga solucion (vease
[1], pag. 59, ejemplo 5.24).
Denici on 2.4.4. Sea A M
mn
(R), con m, n enteros positivos arbitrarios. El
rank(A) de la matriz A se dene como el mayor entero no negativo k tal que
I
k
(A) ,= 0. Notese que 0 rank(A) mnm, n. El rango de A seg un McCoy,
denotado por Mrank(A), es el mayor entero no negativo tal que Ann
R
(I
k
(A)) = 0,
donde
Ann
R
(I
k
(A)) := r R [ I
k
(A)r = 0,
es decir, Ann
R
(I
k
(A)) es el conjunto de elementos r R que anulan a cada elemento
de I
k
(A).
Se tienen las siguientes propiedades del rango.
Proposici on 2.4.5. Sea A M
mn
(R). Entonces,
(i) rank(A) = rank(A
T
),
Mrank(A) = Mrank(A
T
).
(ii) Para cada Q GL
m
(R) y P GL
n
(R),
rank(QAP) = rank(A),
Mrank(QAP) = Mrank(A).
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 39
(iii) 0 Mrank(A) rank(A) mnm, n.
Demostracion. (i) Veamos primero que I
k
(A) = I
k
(A
T
), para todo k Z. Para
k 0 tenemos que I
k
(A) = R e I
k
(A
T
) = R; para k > mnm, n tenemos que
I
k
(A) = 0 = I
k
(A
T
). Supongamos ahora que 1 k mnm, n y sea s un
generador de I
k
(A), entonces existe una submatriz A
_
_
i
1
i
k
j
1
j
k
_
_
de A tal que s =
det A
_
_
i
1
i
k
j
1
j
k
_
_
= det A
T
_
_
i
1
i
k
j
1
j
k
_
_
; de esto ultimo se sigue que s I
k
(A
T
).
De manera analoga se muestra la otra contenencia, de modo que I
k
(A) = I
k
(A
T
);
as rank(A) coincide con el mayor entero positivo k tal que I
k
(A) ,= 0, que es
precisamente el mayor entero positivo k para el que I
k
(A
T
) ,= 0, es decir, es igual al
rank(A
T
). De la misma manera tenemos que Mrank(A) = Mrank(A
T
).
(ii) Comenzamos probando la siguiente propiedad general (vease [1], pag. 43, lema
4.5): si B M
mp
(R) y C M
pn
(R) entonces
I
k
(BC) I
k
(B) I
k
(C), para todo k Z. (2.4.4)
En efecto, para k 0 tenemos que I
k
(BC) = R, I
k
(B) = R = I
k
(C); de forma
similar, si k > mnm, n entonces I
k
(BC) = 0, pero en este caso k > m o k > n
lo cual implica que k > mnm, p o k > mnp, n, luego I
k
(B) = 0 o I
k
(C) = 0.
Por tanto, podemos asumir 1 k mnm, n. Para terminar la demostracion de
(2.4.4) probemos tres propiedades preliminares:
I
k
(BC) I
k
(C): sea C = [C
1
C
n
], entonces BC = [BC
1
BC
n
]. Sea
s un generador de I
k
(BC), es decir, s es el determinante de una submatriz
de BC de orden k k tomando las las i
1
< < i
k
y las columnas j
1
<
< j
k
de BC, entonces (BC)
j
1
= BC
j
1
, . . . , (BC)
j
k
= BC
j
k
, de modo que
s I
k
([(BC)
j
1
(BC)
j
k
]) = I
k
([BC
j
1
BC
j
k
]) = I
k
(B[C
j
1
C
j
k
]). Clara-
mente I
k
([C
j
1
C
j
k
]) I
k
(C), luego basta probar que I
k
(B[C
j
1
C
j
k
])
I
k
([C
j
1
C
j
k
]). As pues, estamos en la situacion inical pero con dos matri-
ces B M
mp
(R), F M
pk
(R) con 1 k mnm, k, esto es, k m.
Tenemos BF =
_
_
B
1
F
.
.
.
B
m
F
_
_
, luego para cada 1 i m
(BF)
i
=B
i
F = [b
i1
b
ip
]
_
_
f
11
f
ik
f
p1
f
pk
_
_
=[b
i1
f
11
+ +b
ip
f
p1
b
i1
f
1k
+ +b
ip
f
pk
]
=b
i1
F
1
+ +b
ip
F
p
,
40 CAP
p
l=1
b
il
F
l
. Sea u un generador de I
k
(BF), entonces
u =det(BF
_
_
i
1
i
k
1 k
_
_
) = det
_
_
(BF)
i
1
.
.
.
(BF)
i
k
_
_
=det
_
p
l=1
b
i
1
l
F
l
.
.
.
p
l=1
b
i
k
l
F
l
_
_
=
p
l=1
b
i
1
l
det
_
_
F
l
p
l=1
b
i
2
l
F
l
.
.
.
p
l=1
b
i
k
l
F
l
_
_
= =
l
1
,...,l
k
b
i
1
l
1
b
i
k
l
k
det
_
_
F
l
1
.
.
.
F
l
k
_
_
,
pero det
_
_
F
l
1
.
.
.
F
l
k
_
_
= 0 si hay las repetidas, y en los de mas casos det
_
_
F
l
1
.
.
.
F
l
k
_
_
I
k
(F). Por lo tanto, u I
k
(F).
I
k
(BC) I
k
(B): por (i) I
k
(BC) = I
k
((BC)
T
) = I
k
(C
T
B
T
) I
k
(B
T
) =
I
k
(B). Con esto hemos completado la prueba de 2.4.4.
De (2.4.4) resulta I
k
(PAQ) = I
k
(A) para todo k Z, P GL
m
(R) y Q GL
n
(R):
en efecto, I
k
(PA) I
k
(A) = I
k
(P
1
(PA)) I
k
(PA), entonces I
k
(PA) = I
A
;
I
k
(PAQ) = I
k
(AQ) I
k
(A) = I
k
((AQ)Q
1
) I
k
(AQ) = I
k
(PAQ), y as, I
k
(PAQ)
= I
k
(A). En consecuencia, rank(PAQ) = rank(A) y Mrank(PAQ) = Mrank(A).
(iii) Es claro que rank(A) mnm, n, tambien por denicion Mrank(A) 0; sea
l = Mrank(A) y supongamos que l > rank(A), entonces I
l
(A) = 0 y en consecuencia
An
R
(I
l
(A)) = R, lo que claramente es una contradiccion.
Sea ahora A M
mn
(R) con m n y supongase que Mrank(A) = m. Sea
I
m
(A [ B) el ideal generado por los determinantes de todas las submatrices de orden
mm de (A [ B) que no son completamente submatrices de A, es decir, la columna
B va incluida.
Proposici on 2.4.6. Sea A M
mn
con m n, y sea Mrank(A) = m. Si existe
un ideal J de R y un elemento s R rm(que no sea divisor de cero), tales que
JI
m
(A [ B) s) JI
m
(A),
entonces AX = B es soluble.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 41
Demostracion. Antes de probar la proposicion, recordemos algunos hechos elemen-
tales relacionados con divisores de cero e ideales. Un elemento s R se dice que
no es divisor de cero en R si s ,= 0 y para cada a R tal que sa = 0 se tiene
que a = 0. De otra parte, siendo I, J ideales de un anillo R se dene su producto
IJ como el ideal generado por el conjunto de todos los productos de la forma ab,
con a I y b J. Notese entonces que cada elemento de IJ es una suma nita
a
1
b
1
+ +a
t
b
t
, con a
i
I, b
i
J, 1 i t.
Como Mrank(A) = 0, entonces Ann
R
(I
m
(A)) = 0 y por tanto, I
m
(A) ,= 0. Existe
entonces al menos una submatriz A
=
_
_
a
11
a
1m
a
m1
a
mm
_
_
, r
1
:= det(A
) ,= 0.
Entonces,
_
_
det(A
) 0
.
.
.
0 det(A
)
_
_
_
_
b
1
.
.
.
b
m
_
_
= A
Adj(A
)
_
_
b
1
.
.
.
b
m
_
_
,
y por tanto,
_
_
r
1
0
.
.
.
0 r
1
_
_
_
_
b
1
.
.
.
b
m
_
_
=A
_
_
(1)
1+1
M
11
(1)
m+1
M
m1
(1)
1+m
M
1m
(1)
m+m
M
mm
_
_
_
_
b
1
.
.
.
b
m
_
_
=A
_
_
(1)
1+1
b
1
M
11
+ + (1)
m+1
b
m
M
m1
(1)
1+m
b
1
M
1m
+ + (1)
m+m
b
m
M
mm
_
_
=A
_
x
1
1
.
.
.
x
1
m
_
_
,
con x
1
j
I
m
(A [ B), luego r
1
b
i
=
m
j=1
a
ij
x
1
j
para 1 i m. Tomando x
1
m+1
=
= x
1
n
= 0 obtenemos
r
1
b
i
n
j=1
a
ij
x
1
j
, 1 i m.
Sean r
1
, . . . , r
k
los generadores de I
m
(A). De manera analoga a como lo hicimos hace
un momento tenemos
r
t
b
i
=
n
j=1
a
ij
x
t
j
, 1 i m, 1 t k,
42 CAP
m
(A [ B). Por hipotesis existen q
1
, . . . , q
k
J tales que
s =
k
t=1
q
t
r
t
.
Entonces
sb
i
=
k
t=1
q
t
r
t
b
i
=
k
t=1
n
j=1
q
t
a
ij
x
t
j
=
n
j=1
a
ij
(
k
t=1
q
t
x
t
j
).
Pero
k
t=1
q
t
x
t
j
JI
m
(A [ B) s). Por lo tanto,
sb
i
=
n
j=1
a
ij
s x
j
, x
j
R, 1 i m,
y como s no es divisor de cero tenemos que
b
i
=
n
j=1
a
ij
x
j
.
Corolario 2.4.7. Sea A M
mn
(R) con m n. Si I
m
(A) = R, entonces AX = B
es soluble.
Demostracion. I
m
(A) = R implica que Mrank(A) = m. Tomando J = R y s = 1
en la proposicion 2.4.6, el corolario se sigue de inmediato.
Evidentemente el recproco no es siempre cierto, Basta considerar el sistema
homogeneo sobre el anillo Z de enteros
_
1 0
0 0
_ _
x
y
_
=
_
0
0
_
.
Denici on 2.4.8. Sea A M
mn
(R); se dice que A es unimodular si I
mn{m,n}
(A)
= R.
Corolario 2.4.9. Sea A M
mn
(R).
(i) Sea m n. Entonces, A es unimodular si, y solo si, A tiene inversa a derecha.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 43
(ii) Sea n m. Entonces, A es unimodular si, y solo si, A tiene inversa a izquier-
da.
Demostracion. (i)) Como m n entonces mnm, n = m, as I
m
(A) = R y
por el corolario 2.4.9 tenemos que AX =
_
_
1
0
.
.
.
0
_
_
, . . . , AX =
_
_
0
0
.
.
.
1
_
_
son solubles, luego
existen C
1
=
_
_
c
11
.
.
.
c
n1
_
_
, . . . , C
m
=
_
_
c
1m
.
.
.
c
nm
_
_
R
n
tales que A[C
1
C
m
] = E, es decir,
si C = [C
1
C
m
], entonces C es una inversa derecha de A.
) Si AC = E para alguna C M
nm
(R), entonces I
m
(AC) = I
m
(E) = R
I
m
(A) I
m
(C), y por tanto, I
m
(A) = R, es decir, A es unimodular dado que
mnm, n = m.
(ii) Sea n m; como A M
mn
(R) entonces A
T
M
nm
(R); as, A
T
tiene in-
versa a derecha si, y solo si, I
n
(A
T
) = R, es decir, si existe D M
mn
(R) tal que
A
T
D = E. Esto ultimo se tiene si, y solo si I
n
(A) = R dado que I
n
(A) = I
n
(A
T
).
Por lo tanto, D
T
A = E si, y solo si, A es unimodular.
Observaci on 2.4.10. (i) Sea A M
mn
(R) con m n. Entonces A no puede tener
inversa a izquierda: si existe C M
nm
(R) tal que CA = E, entonces [C [ 0][
A
0
] = E
y tomando determinantes obtenemos que 0 = 1.
(ii) Sea A M
mn
(R) con n m. Entonces A no puede tener inversa a derecha:
si existe C M
mn
(R) tal que CA = E, entonces [A [ 0][
C
0
] = E y tomando
determinantes obtenemos que 0 = 1.
Estudiaremos ahora los sistemas homogeneos AX = 0 con A M
mn
(R). Notese
en primer lugar que tales sistemas son solubles y que el conjunto de soluciones
conforman un subespacio de M
n1
(R)
= R
n
.
Teorema 2.4.11. Sea A M
mn
(R). AX = 0 tiene solucion no trivial X =
[x
1
, . . . , x
n
]
T
si, y solo si, Mrank(A) < n. En particular si m < n, entonces el
sistema AX = 0 tiene solucion no trivial.
Demostracion. ) Sea X = [x
1
. . . , x
n
]
T
una solucion no trivial del sistema AX = 0,
luego x
j
,= 0 para alg un subndice j, 1 j n. Si m < n, tenemos que Mrank(A)
m < n y no hay algo por probar. Sea entonces m n; de este modo
A
_
x
1
.
.
.
x
n
_
_
= 0, con A
=
_
_
a
11
a
1n
a
n1
a
nn
_
_
.
44 CAP
) obtenemos
det(A
)x
j
= 0. (2.4.5)
Notese que si A
_
_
a
11
a
1t
a
t1
a
tt
_
_
, y(det(A
)) ,= 0.
Sea A
la matriz
A
:=
_
_
a
11
a
1,t+1
a
t+1,1
a
t+1,t+1
_
_
,
(si t = m, tomamos a
t+1,1
= = a
t+1,t+1
= 0). Sea d
j
el determinante de la
submatriz de A
X :=[ x
1
, . . . , x
n
]
T
.
Notese que
X ,= 0 dado que x
t+1
= y det(A
X =
_
t+1
j=1
a
1j
x
j
.
.
.
t+1
j=1
a
mj
x
j
_
_
.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 45
Pero para 1 i m,
t+1
j=1
a
ij
x
j
=(
t+1
j=1
a
ij
h
j
)y
=(
t+1
j=1
a
ij
(1)
j+(t+1)
d
j
)y
=(
t+1
j=1
a
ij
A
t+1,j
)y.
Para i ,= t + 1 la suma en el ultimo parentesis es nula; para i = t + 1 esta suma
corresponde al determinante de una submatriz de A de tama no (t + 1) (t + 1), es
decir, es un generador de I
t+1
(A). Como y Ann
R
(I
t+1
(A)) entonces A
X = 0 y el
sistema tiene una solucion no trivial.
Corolario 2.4.12. Sea A M
n
(R). AX = 0 tiene solucion no trivial si, y solo si,
det(A) es un divisor de cero en R.
Demostracion. det(A) es un divisor de cero en R si, y solo si, Ann
R
(I
n
(A)) ,= 0 si,
y solo si, Mrank(A) < n.
Corolario 2.4.13. Sea V un R-espacio libre de dimension m 1. Entonces todo
conjunto de n > m vectores de V es l.d.
Demostracion. Sean Y := y
1
, . . . , y
m
una base de V , v
1
, . . . , v
n
V y b
1
, . . . , b
n
R tales que v
1
b
1
+ + v
n
b
n
= 0. Entonces, existen escalares a
ij
R tales que
(a
11
y
1
+ +a
m1
y
m
)b
1
+ +(a
1n
y
1
+ +a
mn
y
m
)b
n
= 0. De la independencia
lineal de los vectores de Y resulta el sistema AB = 0, con A M
mn
(R) y B :=
[b
1
, . . . , b
n
]
T
. Seg un el teorema 2.4.11, alg un b
j
es no nulo.
Ejemplo 2.4.14. Calculemos rank(A) y Mrank(A) para
A =
_
2 2
0 2
_
, B =
_
2 0
0 3
_
, C =
_
1 2
3 5
_
M
2
(Z
6
).
rank(A): I
0
(A) = Z
6
, I
1
(A) = 2), I
2
(A) = a); as rank(A) = 2.
Mrank(A): Ann(I
0
(A)) = 0, Ann(I
1
(A)) = 0, 3 = 3), Ann(I
2
(A)) = 3);
as Mrank(A) = 0.
rank(B): I
0
(B) = Z
6
, I
1
(B) = 2, 3) = Z
6
dado que 3 2 = 1 I
1
(B) e
I
2
(B) = 0; entonces rank(B) = 1.
Mrank(B): Ann(I
0
(B)) = 0, Ann(I
1
(B)) = 0, Ann(I
2
(B)) = Z
6
; por lo tanto
Mrank(B) = 1.
rank(C), Mrank(C): I
0
(C) = Z
6
, I
1
(C) = 1, 2, 3, 5) = Z
6
, I
2
(C) = 1) =
1) = Z
6
. Entonces rank(C) = 2 = Mrank(C).
46 CAP
1j
1
x
j
1
+a
1j
2
x
j
2
+a
1j
3
x
j
3
+ +a
1n
x
n
= b
1
a
2j
2
x
j
2
+a
2j
3
x
j
3
+ +a
2n
x
n
= b
2
a
rjr
x
jr
+ +a
rn
x
n
= b
r
0 = b
r+1
0 = b
m
,
(2.4.6)
donde a
1j
1
, . . . , a
rjr
,= 0, 1 j
1
< j
2
< < j
r
. AX = B es soluble si, y solo
si, en el sistema escalonado anterior no se presentan ecuaciones de la forma
b
t
= 0, t r, con b
t
un elemento no nulo de K. En tal caso, dando valores ar-
bitrarios de K a las indeterminadas libres x
jr+1
, . . . , x
n
obtenemos valores
determinados para las indeterminadas principales x
j
1
, . . . , x
jr
.
(c) Sea AX = B un sistema lineal de orden m n. En el corolario 2.4.7 se
demostro que si m n con I
m
(A) = K, entonces el sistema AX = B es
soluble. Pero la condicion I
m
(A) = K es equivalente a que Mrank(A) = m =
Rank(A). De este modo, si Rank(A) = m, el sistema AX = B es soluble.
(d) Respecto a los ideales determinantes de A y de la matriz ampliada [A [ B] se
tiene que la coincidencia de estos ultimos implica la solubilidad del sistema
AX = B: en efecto, si los ideales determinantes de A y [A [ B] coinciden,
entonces sus rangos son iguales. De esta forma la envolvente lineal de las
columnas de [A [ B] coincide con la envolvente lineal de las columnas de A, es
decir, B es una combinacion lineal de las columnas de A
_
_
b
1
.
.
.
b
m
_
_
=
_
_
a
11
.
.
.
a
m1
_
_
x
1
+ +
_
_
a
1n
.
.
.
a
mn
_
_
x
n
,
de donde B = AX y X = [x
1
, . . . , x
n
]
T
es solucion. En resumen tenemos que
AX = B es soluble si, y solo si, Rank(A) = Rank[A [ B].
(e) Si A M
mn
(K), vimos en el teorema 2.4.11 que AX = 0 tiene solucion no
trivial si, y solo si, Rank(A) < n. En particular, si m < n entonces Rank(A)
m < n y el sistema AX = 0 tiene solucion no trivial. Para el caso cuadrado la
condicion det(A) es divisor de cero (vease el corolario 2.4.12) es equivalente a
que det(A) = 0.
2.5. EJERCICIOS 49
2.5. Ejercicios
1. Sea A
0
la coleccion de elementos de A que son divisores de cero. Si K es un
cuerpo demuestre que
M
n
(K)
0
= B M
n
(K)[ det(B) = 0.
2. Sean B M
mp
(R) y C M
pn
(R). Demuestre que
(i) Mrank(BC) mnMrank(B), Mrank(C).
(ii) rank(BC) mnrank(B), rank(C).
3. Sean A M
n
(R) y B R
n
. Sea X
0
una solucion de AX = B. Demuestre que
X
0
es la unica solucion si, y solo si, Mrank(A) = n.
Captulo 3
Producto tensorial
En este captulo estudiamos el producto tensorial de espacios, transformaciones y
matrices sobre anillos conmutativos. Deniremos los tensores y estableceremos su
relacion con las funciones multilineales. El producto tensorial de tensores tambien
sera considerado. Salvo que se advierta lo contrario, R denotara un anillo conmuta-
tivo arbitrario. Para los espacios vectoriales utilizaremos la notacion por la izquierda
para los escalares de R.
3.1. Producto tensorial de espacios vectoriales
Sea V un R-espacio vectorial libre con base X, recordemos que cada funcion t :
X W, con W un R-espacio arbitrario, se puede extender de manera unica a
una transformacion lineal T : V W de tal forma que T(x) = t(x), para cada
x X. De otra parte, si X es un conjunto no vaco cualquiera, entonces R
(X)
denota el R-espacio libre con base canonica X
:=
x
(1)
xX
, donde
x
: R R
(X)
es la inyeccion canonica de la suma directa externa (vease [6]) de tal forma que
x
(1) := (r
z
)
zX
y r
z
:= 0 si z ,= x y r
x
:= 1.
Podemos ya emprender la construccion del producto tensorial de dos espacios
vectoriales arbitrarios.
Sean U, V dos espacios vectoriales sobre R, sea X el producto cartesiano de los
conjuntos U y V , es decir, X := U V . Notemos que en el conjunto X hemos
olvidado las estructuras de R-espacio que tienen U y V , a estos ultimos los estamos
tomando simplemente como conjuntos no vacos. Consideremos entonces el R-espacio
vectorial R
(X)
con base canonica X
=
x
(1)
xX
. Notemos que los elementos de
X son parejas, es decir, un elemento x X es de la forma x = (u, v). En otras
palabras,
x
(1) =
(u,v)
(1) denota el arreglo que tiene solamente una entrada no
nula, la ubicada en la posicion (u, v), en la cual colocamos el escalar 1 R. Un
50
3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 51
elemento de R
(X)
es una combinacion lineal nita en la forma
r
1
(u
1
,v
1
)
(1) + +r
t
(ut,vt)
(1).
Observemos que el elemento anterior es un arreglo nito que tiene ubicados en la
posicion (u
1
, v
1
) al escalar r
1
, en la posicion (u
2
, v
2
) al escalar r
2
y, por ultimo, en
la posicion (u
t
, v
t
) al escalar r
t
, en todas las demas posiciones al escalar cero. Esta
notacion puede ser simplicada de la siguiente manera: representemos el elemento
(u,v)
(1) de la base canonica X simplemente por (u, v) de tal forma que veamos a
U V como la base canonica de R
(X)
y a las parejas (u, v) como los elementos de
esta base. As pues, podemos pensar en R
(UV )
y considerar que la base canonica
es U V . Con esta notacion podemos decir que un elemento de R
(UV )
es una
combinacion lineal nita en la forma
r
1
(u
1
, v
1
) + +r
t
(u
t
, v
t
) ,
donde r
1
, . . . , r
t
R.
Sea S el subespacio de R
(UV )
generado por todos los elementos de la siguiente
forma
(u +u
, v) (u, v) (u
, v) , (3.1.1)
(u, v +v
) (u, v) (u, v
) , (3.1.2)
r (u, v) (r u, v) , (3.1.3)
r (u, v) (u, r v) , (3.1.4)
con r R. Sea U V el R-espacio vectorial cociente correspondiente, es decir,
U V := R
(UV )
/S (3.1.5)
Denotemos por uv la clase de equivalencia (u, v) en el cociente UV = R
(UV )
/S.
Entonces en U V se tienen las siguientes propiedades fundamentales.
Proposici on 3.1.1. Para cualesquiera elementos u, u
U, v, v
V y r R se
tiene que:
(i) (u +u
) v = u v +u
v
(ii) u (v +v
) = u v +u v
(iii) r (u v) = r u v
(iv) r (u v) = u r v
Demostracion. Esto resulta en forma directa de las relaciones (3.1.1) - (3.1.4).
52 CAP
, v) = t(u, v) +t(u
+v)
(ii) t(u, v +v
) = t(u, v) +t(u, v
)
(iii) t(r u, v) = r t(u, v)
(iv) t(u, r v) = r t(u, v),
para cualesquiera u, u
U, v, v
V y r R.
Demostracion. Consecuencia directa de la proposicion anterior.
Denici on 3.1.3. El espacio vectorial U V se denomina producto tensorial de
U con V .
Sea z un elemento de U V , con z R
(UV )
, entonces z es de la forma z =
r
1
(u
1
, v
1
) + + r
t
(u
t
, v
t
), por tanto en el cociente U V = R
(UV )
/S se tiene
que
z = (r
1
u
1
) v
1
+ + (r
t
u
t
) v
t
,
pero como r
1
u
1
, . . . , r
t
u
t
U, entonces podemos siempre asumir que z es de la
forma
u
1
v
1
+ +u
t
v
t
.
El producto tensorial tiene la siguiente propiedad universal.
Teorema 3.1.4. Sea W un R-espacio y sea f : U V W una funcion bilineal.
Entonces, existe una unica transformacion lineal F : U V W tal que Ft = f:
U V U V
W
c
f
E
t
p
p
p
p
p
p
p
p
p
p
p
C
F
La tranformacion lineal F se dene por
F (u v) := f (u, v) .
3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 53
Demostracion. La funcion f denida sobre la base canonica UV de R
(UV )
induce
una unica transformacion lineal F
: R
(UV )
W dada por F
(z), donde z R
(UV )
. En particular, si
z = (u, v) es un basico, entonces F (u v) = F
, v) (u, v) (u
, v), entonces
F
(z
1
z
2
) = F
[(u +u
, v) (u, v) (u
, v)]
= f (u +u
, v) f (u, v) f (u
, v)
= 0, ya que f es bilineal.
De igual manera se establecen los otros tres casos. Esto muestra que F
(z
1
) = F
(z
2
),
y F esta bien denida.
De otra parte, como F
n,m
i=1,j=1
a
i
b
j
(x
i
y
j
), entonces del teorema
3.1.5 resulta u v ,= 0 ya que a
i
0
b
j
0
,= 0.
3.2. Producto tensorial de transformaciones y ma-
trices
Sean T : U U
y F : V V
u v T (u) F (v) .
La transformacion T F se conoce como el producto tensorial de T con F. Se
tiene entonces la siguiente propiedad.
3.2. PRODUCTO TENSORIAL DE TRANSFORMACIONES Y MATRICES 55
Teorema 3.2.1. Sean X = x
1
, . . . , x
n
una base de U, X
= x
1
, . . . , x
p
una
base de U
, Y = y
1
, . . . , y
m
una base de V y Y
= y
1
, . . . , y
q
una base de V
.
Entonces,
m
XY,X
Y
(T F) =
_
_
a
11
B a
1n
B
.
.
.
.
.
.
a
p1
B a
pn
B
_
_
,
donde A = [a
ij
] := m
X,X
(T) y B = [b
ij
] := m
Y,Y
(F). La matriz de T F se
conoce como el producto tensorial de las matrices A y B, y se denota por AB.
As pues,
A B :=
_
_
a
11
B a
1n
B
.
.
.
.
.
.
a
p1
B a
pn
B
_
_
.
A B es de orden pq nm.
Demostracion. Basta aplicar T F a los vectores de la base X Y y expresar los
resultados a traves de la base X
.
Ejemplo 3.2.2. Sean T : R
3
R
2
y F : R
2
R
4
las transformaciones lineales
denidas por
T (x, y, z) = (2x + 3y, 3x + 4z) ,
F (x, y) = (x, x +y, y, y x) .
Determinemos la matriz de T F en las bases canonicas: Basta calcular las matrices
A y B de las transformaciones T y F en las bases canonicas:
A = m(T) =
_
2 3 0
3 0 4
_
,
B = m(F) =
_
_
1 0
1 1
0 1
1 1
_
_
,
m(T F) = A B =
_
2B 3B 0B
3B 0B 4B
_
,
m(T F) =
_
_
2 0 3 0 0 0
2 2 3 3 0 0
0 2 0 3 0 0
2 2 3 3 0 0
3 0 0 0 4 0
3 3 0 0 4 4
0 3 0 0 0 4
3 3 0 0 4 4
_
_
.
56 CAP
y F : V V
, entonces existe
u U y v V tales que T (u) = u
, F (v) = v
. Por lo tanto, (T F) (u v) =
T (u) F (v) = u
.
(ii) Sean T : U U
y F : V V
(U V ) /W
c
h
E
t
p
p
p
p
p
p
p
p
p
p
p
C
H
donde h(T (u) , F (v)) := J (u v). Veamos que f esta bien denida. Sean T (u
1
) =
T (u) y F (v
1
) = F (v), entonces u
1
u := u
2
ker (T) y v
1
v := v
2
ker (F),
luego
u
1
v
1
= (u +u
2
) (v +v
2
)
= u v +u v
2
+u
2
v +u
2
v
2
= u v + (u v
2
+u
2
v +u
2
v
2
) ,
donde u v
2
+u
2
v +u
2
v
2
U ker (F) +ker (T) V = W, esto muestra que
u
1
v
1
u v W,
luego J (u v) = J (u
1
v
1
). Notemos que h es bilineal, por tanto induce la trans-
formacion lineal H dada por
H (T (u) F (v)) := h(T (u) , F (v)) = J (u v) ,
de donde H (T F) = J. Sea z ker (T F), entonces H (T F) (z) = H (0) =
0 = J (z) = z, lo cual indica que z W.
3.2. PRODUCTO TENSORIAL DE TRANSFORMACIONES Y MATRICES 57
(iii) Sean T
1
: U U
, T
2
: U
y F
1
: V V
, F
2
: V
transforma-
ciones lineales, entonces
(T
2
T
1
) (F
2
F
1
) = (T
2
F
2
) (T
1
F
1
) .
En forma matricial,
A
2
A
1
B
2
B
1
= (A
2
B
2
) (A
1
B
1
) .
(iv) Si i
U
: U U es la identica de U e i
V
: V V , es la identica de V , entonces
i
U
i
V
= i
UV
.
En forma matricial,
E
n
E
m
= E
nm
.
(v) Sean T : U U
y F : V V
y F : V V
M
n
(K) y B, B
M
m
(K), entonces
A A
, B B
A B A
; A A
, B B
A B A
.
58 CAP
. Para cuando V es
libre de dimension nita se tiene la siguiente propiedad.
Proposici on 3.3.1. Sea V un R-espacio de dimension nita n 1 con base X :=
x
1
, . . . , x
n
. Entonces, X
:= x
1
, . . . , x
n
es una base de V
, denominada la base
dual de X, con x
i
(x
j
) :=
ij
, donde
ij
es el smbolo de Kronecker. Ademas, para
cada f V
n
k=1
f(x
k
) x
k
y v =
n
k=1
x
k
(v) x
k
.
Demostracion. Este es un sencillo ejercicio para el lector.
Denici on 3.3.2. Sean V
1
, . . . , V
n
, W espacios vectoriales sobre el anillo conmuta-
tivo R; una funcion
V
1
V
n
f
W
es multilineal si es lineal en cada argumento, es decir, para 1 i n y r R
f(x
1
, . . . , x
i
+x
i
, . . . , x
n
) = f(x
1
, . . . , x
i
, . . . , x
n
) +f(x
1
, . . . , x
i
, . . . , x
n
),
f(x
1
, . . . , r x
i
, . . . , x
n
) = r f(x
1
, . . . , x
i
, . . . , x
n
).
Proposici on 3.3.3. La coleccion /(V
1
, . . . , V
n
; W) de todas las funciones multi-
lineales de V
1
V
n
en W es un R-espacio vectorial respecto de las siguientes
operaciones:
(f +g)(x
1
, . . . , x
n
) := f(x
1
, . . . , x
n
) +g(x
1
, . . . , x
n
),
(r f)(x
1
, . . . , x
n
) := r f(x
1
, . . . , x
n
).
Demostracion. Ejercicio para el lector.
El producto tensorial de tres o mas espacios V
1
, . . . , V
n
se puede construir en forma
inductiva deniendo V
1
V
n
:= (V
1
V
n1
) V
n
, o tambien, mediante
las funciones multilineales, como veremos a continuacion: consideremos el cociente
del R-espacio libre R
(V
1
Vn)
por el subespacio S generado por todos los vectores
de la forma
(x
1
, . . . , x
i
+x
i
, . . . , x
n
) (x
1
, . . . , x
i
, . . . , x
n
) (x
1
, . . . , x
i
, . . . , x
n
),
r (x
1
, . . . , x
i
, . . . , x
n
) (x
1
, . . . , r x
i
, . . . , x
n
),
3.3. FUNCIONES MULTILINEALES Y TENSORES 59
con 1 i n y r R. Este espacio cociente se denota por V
1
V
n
y se
denomina producto tensorial de V
1
, . . . , V
n
. La clase del vector (x
1
, . . . , x
n
) se
denota por x
1
x
n
, y cada elemento de V
1
V
n
es una suma nita de
elementos de esta forma. La funcion canonica denida por
t : V
1
V
n
V
1
V
n
(x
1
, . . . , x
n
) x
1
x
n
es multilineal. Esto en particular quiere decir que x
1
(x
i
+ x
i
) x
n
=
x
1
x
i
x
n
+x
1
x
i
x
n
y r(x
1
x
i
x
n
) = x
1
r
x
i
x
n
. El producto tensorial V
1
V
n
tiene la siguiente propiedad universal
(vease el teorema 3.1.4): sea W un R-espacio y sea f : V
1
V
n
W una funcion
multilineal. Entonces, existe una unica transformacion lineal F : V
1
V
n
W
tal que Ft = f:
V
1
V
n
V
1
V
n
W
c
f
E
t
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
%
F
La tranformacion lineal F se dene por
F (x
1
x
n
) := f (x
1
, . . . , x
n
) .
El teorema 3.1.5 tiene tambien lugar en este caso general, es decir, el producto
tensorial de espacios libres de dimension nita es libre y la dimension es el producto
de las dimensiones. De manera mas precisa, si X
j
es una base de V
j
entonces
X := X
1
X
n
:= x
j
1
x
jn
[x
j
i
X
i
, 1 i n
es una base de V
1
V
n
. Utilizando la notacion precedente tenemos el siguiente
resultado general valido para espacios arbitrarios.
Teorema 3.3.4. /(V
1
, . . . , V
n
; W)
= Hom
R
(V
1
V
n
, W).
Demostracion. Seg un acabamos de ver, dada f /(V
1
, . . . , V
n
; W) existe una
unica F Hom
R
(V
1
V
n
, W) tal que Ft = f, denimos entonces :
/(V
1
, . . . , V
n
; W) Hom
R
(V
1
V
n
, W) por (f) := F. Observemos que
es una transformacion lineal inyectiva. Ademas, dada F Hom
R
(V
1
V
n
, W)
denimos f /(V
1
, . . . , V
n
; W) por f (x
1
, . . . , x
n
) := F (x
1
x
n
); es claro
entonces que f /(V
1
, . . . , V
n
; W) y (f) = F.
60 CAP
= Hom
R
(V
1
V
n
, R) := (V
1
V
n
)
.
Si V
1
, . . . , V
n
son libres de dimension nita, entonces
(V
1
V
n
)
= V
1
V
n
. (3.3.1)
Demostracion. La primera armacion es consecuencia directa del teorema anterior
tomando W := R.
Sea f
i
V
i
, 1 i n. Denimos la funcion
f : V
1
V
n
R
f (v
1
, . . . , v
n
) := f
1
(v
1
) f
n
(v
n
) .
Notemos que f es multilineal, luego induce una unica transformacion lineal
F : V
1
V
n
R
F (v
1
v
n
) := f (v
1
, . . . , v
n
) = f
1
(v
1
) f
n
(v
n
) .
Esto indica que F (V
1
V
n
)
f : V
1
V
n
(V
1
V )
(f
1
, . . . , f
n
)
f(f
1
, . . . , f
n
) := F.
Notemos que
f es multilineal, y por lo tanto, induce una transformacion lineal
F : V
1
V
n
(V
1
V
n
)
F (f
1
f
n
) :=
f(f
1
, . . . , f
n
) = F
F (f
1
f
n
) (v
1
v
n
) = F (v
1
v
n
) = f
1
(v
1
) f
n
(v
n
) .
Sea X
i
:= x
i1
, . . . , x
ik
i
un base de V
i
y sea X
i
= x
i1
, . . . , x
ik
i
la base dual.
Entonces,
F
_
x
1j
1
x
njn
_
(x
1r
1
x
nrn
) = x
1j
1
(x
1r
1
) x
njn
(x
nrn
)
= 1 si (j
1
, . . . , j
n
) = (r
1
, . . . , r
n
)
= 0, en otro caso.
Sabemos que x
1j
1
x
njn
[ 1 j
i
k
i
, 1 i n es una base de V
1
V
n
,
y por lo anterior,
F
_
x
1j
1
x
njn
_
= (x
1j
1
x
njn
)
, 1 j
i
k
i
, 1 i n.
Es decir,
F es una transformacion lineal que enva una base en una base, por tanto,
F es biyectiva.
3.3. FUNCIONES MULTILINEALES Y TENSORES 61
Sea V un R-espacio arbitrario y denotemos por
/
n
(V ; R) := /(V, . . . , V
. .
n-veces
; R)
= (V V
. .
n-veces
)
(3.3.2)
el R-espacio de funciones multilineales sobre V de n argumentos (vease la denicion
2.2.1). Para el caso particular en el cual V es de dimension nita se tiene la siguiente
nocion de tensor.
Denici on 3.3.6. Sea V un R-espacio vectorial libre de dimension nita k 1.
Los elementos del R-espacio
T
n
(V ) := /
n
(V ; R)
= (V V
. .
n-veces
)
= V
. .
n-veces
se denominan n-tensores sobre V .
Notemos que V
j
1
x
jn
[ 1 j
i
k, 1 i n es una base de T
n
(V ). Ademas,
si f T
n
(V ), entonces
f =
k
j
1
,...,jn
f(x
j
1
, . . . , x
jn
) (x
j
1
x
jn
). (3.3.3)
Demostracion. Las primeras dos armaciones son consecuencia directa de la prueba
del corolario 3.3.5. Veamos la prueba de la segunda armacion: sea (v
1
, . . . , v
n
)
V
n
= V V , si v
i
= a
i1
x
1
+ +a
ik
x
k
, entonces
f(v
1
, . . . , v
n
) =
k
j
1
,...,jn
a
1j
1
a
2j
2
a
njn
f(x
j
1
, . . . , x
jn
),
y por otro lado
[
k
j
1
,...,jn
f(x
j
1
, . . . , x
jn
) (x
j
1
x
jn
)](v
1
, . . . , v
n
)
=
k
j
1
,...,jn
f(x
j
1
, . . . , x
jn
)x
j
1
(v
1
) x
jn
(v
n
)
=
k
j
1
,...,jn
f(x
j
1
, . . . , x
jn
)a
1j
1
a
2j
2
a
njn
.
62 CAP
= y
1
, . . . , y
k
la base dual
correspondiente. Entonces,
f =
k
i
1
,...,in
f(y
i
1
, . . . , y
in
) (y
i
1
y
in
). (3.3.4)
Puesto que y
i
1
y
in
[ 1 j
i
k es una base de T
n
(V ) y x
j
1
x
jn
T
n
(V ),
entonces
x
j
1
x
jn
=
k
i
1
,...,in
(x
j
1
x
jn
)(y
i
1
, . . . , y
in
) (y
i
1
y
in
)
=
k
i
1
,...,in
x
j
1
(y
i
1
) x
jn
(y
in
) (y
i
1
y
in
)
=
k
i
1
,...,in
x
j
1
(
k
v=1
c
vi
1
x
v
) x
jn
(
k
v=1
c
vin
x
v
) (y
i
1
y
in
)
=
k
i
1
,...,in
c
j
1
i
1
c
jnin
(y
i
1
y
in
).
Reemplazando en (3.3.3) resulta
f =
k
j
1
,...,jn
k
i
1
,...,in
c
j
1
i
1
c
jnin
f(x
j
1
, . . . , x
jn
) (y
i
1
y
in
).
De (3.3.4) se obtiene entonces que
f(y
i
1
, . . . , y
in
) =
k
j
1
,...,jn
c
j
1
i
1
c
jnin
f(x
j
1
, . . . , x
jn
), (3.3.5)
donde C := [c
rs
] es la matriz de cambio de la base X a la base Y .
Concluimos esta seccion con la denicion del producto tensorial de tensores. Para
esto comencemos con una construccion un poco mas general. Existe una transfor-
macion lineal
/
n
(V ; R) /
m
(V ; R)
F
/
n+m
(V ; R).
3.4. TENSORES SIM
ETRICOS, ANTISIM
ETRICOS Y ALTERNADOS 63
En efecto, consideremos el siguiente diagrama
/
n
(V ; R) /
m
(V ; R) /
n
(V ; R) /
m
(V ; R)
/
n+m
(V ; R)
c
f
E
t
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
%
F
donde t(h, g) := h g y f(h, g) := f
h,g
, con
f
h,g
(v
1
, . . . , v
n
; v
n+1
, . . . , v
n+m
) := h(v
1
, . . . , v
n
)g(v
n+1
, . . . , v
n+m
).
Observemos que efectivamente f
h,g
/
n+m
(V ; R) y f es bilineal, luego F existe y
es una transformacion lineal denida por F(h g) := f
h,g
, es decir,
F(h g)(v
1
, . . . , v
n
; v
n+1
, . . . , v
n+m
) := h(v
1
, . . . , v
n
)g(v
n+1
, . . . , v
n+m
). (3.3.6)
As pues, dadas dos funciones multilineales h /
n
(V ; R) y g /
m
(V ; R) se dene
su producto tensorial por
(h g)(v
1
, . . . , v
n
; v
n+1
, . . . , v
n+m
) := h(v
1
, . . . , v
n
)g(v
n+1
, . . . , v
n+m
). (3.3.7)
En particular, si V es de dimension nita, entonces h T
n
(V ), g T
m
(V ) y la
relacion anterior dene el producto tensorial de tensores.
Proposici on 3.3.8. Sea V un R-espacio vectorial libre de dimension nita k 1.
Entonces, T
n
(V ) T
m
(V )
= T
n+m
(V ).
Demostracion. Basta observar que la transformacion lineal F denida en (3.3.6)
envia una base de T
n
(V )T
m
(V ) en una base de T
n+m
(V ), luego F es un isomorsmo.
3.4. Tensores simetricos, antisimetricos y alterna-
dos
En el captulo 2 denimos las funciones multilineales antisimetricas y alternadas
de n argumentos sobre un R-espacio arbitrario V . Demostramos que que si 2
R
f(v
1
, . . . , v
n
).
F es alternado si f(v
1
, . . . , v
n
) = 0, cuando v
i
= v
j
con i ,= j.
De esta denicion se obtienen de manera directa los siguientes resultados.
Proposici on 3.4.2. Sean o
n
(V ), /
n
(V ) y /L
n
(V ) las colecciones de n-tensores
simetricos, antismetricos y alternados, respectivamente, sobre el espacio V . En-
tonces, o
n
(V ), /
n
(V ) y /L
n
(V ) son R-espacios. Ademas, /L
n
(V ) /
n
(V ) y
si 2 R
, entonces /
n
(V ) = /L
n
(V ).
Demostracion. Ejercicio para el lector.
Para los tensores alternados se tienen ademas las siguientes propiedades.
Proposici on 3.4.3. Sean v
1
, . . . , v
n
V vectores tales que para alg un i, v
i
v
1
, . . . , v
i1
, v
i+1
, . . . , v
n
). Entonces, para cada f /L
n
(V ), f(v
1
, . . . , v
n
) = 0.
Ademas, si R es un DI y v
1
, . . . , v
n
V son linealmente dependientes, entonces
para cada f /L
n
(V ), f(v
1
, . . . , v
n
) = 0.
Demostracion. Sea v
i
= r
1
v
1
+ +r
i1
v
i1
+r
i+1
v
i+1
+ +r
n
v
n
, entonces
f(v
1
, . . . , v
i1
, r
1
v
1
+ +r
i1
v
i1
+r
i+1
v
i+1
+ +r
n
v
n
, v
i+1
, . . . , v
n
) =
r
1
f(v
1
, . . . , v
i1
, v
1
, v
i+1
, . . . , v
n
) + +r
i1
f(v
1
, . . . , v
i1
, v
i1
, v
i+1
, . . . , v
n
) +
r
i+1
f(v
1
, . . . , v
i1
, v
i+1
, v
i+1
, . . . , v
n
) + +r
n
f(v
1
, . . . , v
i1
, v
n
, v
i+1
, . . . , v
n
) = 0.
Para la segunda armacion, existen r
1
, . . . , r
n
R no todos nulos, digamos r
i
,= 0,
tales que r
1
v
1
+ +r
i
v
i
+ +r
n
v
n
= 0. Resulta,
0 = f(v
1
, . . . , v
i1
, 0, v
i+1
, . . . , v
n
) = r
i
f(v
1
, . . . , v
i1
, v
i
, v
i+1
, . . . , v
n
),
pero como R es un DI y r
i
,= 0, entonces f(v
1
, . . . , v
n
) = 0.
Corolario 3.4.4. Sea R un DI y sea V un R-espacio libre de dimension nita
k 1. Entonces, para cada n > k, /L
n
(V ) = 0.
Demostracion. Consecuencia directa del corolario 2.4.13 y de la proposicion anterior.
Si R = K es un cuerpo de caractersitica cero, a cada tensor f T
n
(V ) se pueden
asociar un tensor simetrico y uno alternado ( = antisimetrico). En efecto, denimos
3.4. TENSORES SIM
ETRICOS, ANTISIM
ETRICOS Y ALTERNADOS 65
S
f
(v
1
, . . . , v
n
) :=
1
n!
Sn
f((v
1
), . . . , (v
n
)),
Al
f
(v
1
, . . . , v
n
) :=
1
n!
Sn
(1)
f((v
1
), . . . , (v
n
)).
Sea S
n
, entonces := recorre tambien el grupo S
n
y se obtiene
S
f
((v
1
), . . . , (v
n
)) :=
1
n!
Sn
f((v
1
), . . . , (v
n
))
=
1
n!
Sn
f((v
1
), . . . , (v
n
))
= S
f
(v
1
, . . . , v
n
).
As pues, S
f
o
n
(V ). De manera similar, =
1
y (1)
= (1)
(1)
1
, pero
(1)
1
= (1)
, luego
Al
f
((v
1
), . . . , (v
n
)) :=
1
n!
Sn
(1)
f((v
1
), . . . , (v
n
))
=
1
n!
Sn
(1)
(1)
f((v
1
), . . . , (v
n
))
= (1)
Al
f
(v
1
, . . . , v
n
).
Proposici on 3.4.5. Sean K un cuerpo, con char(K) = 0, y V un K-espacio de
dimension k 1. Entonces, las funciones S : T
n
(V ) o
n
(V ) y Al : T
n
(V )
/L
n
(V ) denidas por S(f) := S
f
y Al(f) := Al
f
son transformaciones lineales.
Ademas, si f es simetrico (alternado), entonces S
f
= f (Al
f
= f).
Demostracion. Ejercicio para el lector.
Proposici on 3.4.6. Sea K un cuerpo, con char(K) = 0, y sea V un K-espacio de
dimension nita k 1. Entonces,
T
2
(V ) = o
2
(V ) /L
2
(V ).
Demostracion. Considerando que un 2-tensor sobre V es una funcion bilineal sobre
V , entonces el resultado es inmediato si se tiene en cuenta que toda forma bili-
neal se puede expresar en forma unica como suma de una forma simetrica y una
antisimetrica:
f(u, v) =
1
2
[f(u, v) +f(v, u)] +
1
2
[f(u, v) f(v, u)].
Concluimos esta seccion deniendo el producto exterior entre tensores alternados.
66 CAP
, b
) := aba
y f es denida
por f(a, b, a
, b
) := aa
bb
bb
) := aa
bb
)) := aa
bb
f
A B,
la cual permite denir la multiplicacion en A B:
f(a b, a
) := F((a b) (a
)) = aa
bb
;
as pues, como
f es bilineal entonces el producto queda bien denido por
(a b)(a
) :=
f(a b, a
) = aa
bb
. (3.5.1)
La bilinealidad de
f garantiza que este produto es distributivo. La asociatividad
es consecuencia asociatividad en A y B. El uno de esta algebra es 1 1. A B se
conoce como el producto tensorial de A y B. Si A y B son algebras conmutativas,
entonces A B es conmutativa.
Consideremos ahora un R-espacio V , denimos
T(V ) :=
i0
T
i
(V ), T
0
(V ) := R, T
i
(V ) := V V
. .
iveces
, i 1. (3.5.2)
Notemos que cada elemento z T(V ) es de la forma z = (z
i
)
i0
, con z
i
T
i
(V )
y z
i
= 0 para casi todo i. En otras palabras, si
i
: T
i
(V ) T(V ) es la inyeccion
canonica de la suma directa externa (vease [6]), entonces z se puede escribir en la
forma z =
iCz
i
(z
i
), donde (
z
:= i[z
i
,= 0 es el soporte de z (nito). T(V ) es
pues un R-espacio. Si identicamos a T
i
(V ) con su imagen a traves de la inyeccion
canonica
i
, es decir, si consideramos a T
i
(V ) como subespacio del R-espacio T(V ),
entonces T(V ) es suma directa interna de los subespacios T
i
(V ):
T(V ) =
i0
T
i
(V ) = R V (V V )
As pues, cada elemento z T(V ) tiene una representacion unica en la forma z =
z
0
+ z
1
+ + z
i
, con z
j
T
j
(V ), 0 j i. T(V ) tiene estructura de R-algebra
con el producto denido mediante distributividad y el R-isomorsmo
T
i
(V ) T
j
(V )
= T
i+j
(V ). (3.5.3)
En T(V ) tenemos entonces que
(v
1
v
i
)(v
i+1
v
i+j
) := v
1
v
i+j
, (3.5.4)
r(v
1
v
i
) := r (v
1
v
i
) =: (v
1
v
i
)r. (3.5.5)
68 CAP
V se tiene
que vv
= v v
,= v
v = v
v.
El producto tensorial tiene la siguiente propiedad universal.
Teorema 3.5.1. Para cada R-algebra B y cada transformacion lineal f : V B,
existe un unico homomorsmo de R-algebras F : T(V ) B tal que F = f:
V
T(V )
B
c
f
E
p
p
p
p
p
p
p
p
p
F
F se dene por
F(v) := f(v), v V, F(r) := r 1, r R. (3.5.6)
Demostracion. Para i 2, sea f
i
es la transformacion lineal inducida por la funcion
multilineal
f
i
: V V B, f
i
(v
1
, . . . , v
i
) := f(v
1
) f(v
i
),
f
i
(v
1
v
i
) = f(v
1
) f(v
i
);
ademas, sean f
1
:= f, f
0
(r) = r 1. Denimos F por
F(z
0
+z
1
+ +z
i
) := f
0
(z
0
) +f
1
(z
1
) + +f
i
(z
i
), con z
j
T
j
(V ), 0 j i.
3.5.
ALGEBRAS Y PRODUCTO TENSORIAL 69
As, F es una transformacion lineal bien denida y satisface F(v
1
v
i
) =
f
i
(v
1
v
i
) = f(v
1
) f(v
i
) para i 2, F(v) = f
1
(v) = f(v) para cada v V y
F(r) = f
0
(r) = r 1 para cada r R. Notemos que F = f. F es un homomorsmo
de R-algebras ya que
F(v
1
v
i
)F(v
i+1
v
i+j
) = F(v
1
v
i
)F(v
i+1
v
i+j
) =
f(v
1
) f(v
i
)f(v
i+1
) f(v
i+j
) = F(v
1
v
i+j
) = F(v
1
v
i+j
) =
F((v
1
v
i
)(v
i+1
v
i+j
)),
y ademas F(1) = 1. Si G es otro homomorsmo de R-algebras tal que G = f,
entonces para cada v V , G(v) = G(v) = f(v) = F(v), ademas, G(r) = G(r 1) =
r G(1) = r 1 = F(r) para cada r R, es decir, G = F.
Pasamos ahora a construir el algebra exterior de V . En T(V ) consideremos el
ideal bilatero J (vease [5]) generado por los elementos de la forma v
2
, v V , es
decir,
J := v
2
[v V );
ademas, denimos
J
0
:= 0 =: J
1
, J
i
:= J T
i
(V ) para i 2.
Notese que J
i
coincide con el R-subespacio S
i
de T
i
(V ) generado por los elementos
de la forma v
1
v
i
, con v
r
= v
s
para alg un par de ndices 1 r ,= s i. En efecto,
es claro que J
i
S
i
; para la inclusion recproca basta observar que cada elemen-
to v
1
v
r
v
s
v
i
, con v
r
= v
s
, pertenece a J
i
. Ilustremos con dos situaciones
particulares la prueba inductiva requerida: consideremos v
1
v
2
v
1
,
(v
1
+v
2
)(v
1
+v
2
)v
1
= v
1
(v
1
+v
2
)v
1
+v
2
(v
1
+v
2
)v
1
= v
1
v
1
v
1
+v
1
v
2
v
1
+v
2
v
1
v
1
+v
2
v
2
v
1
,
luego v
1
v
2
v
1
J
3
. Consideremos tambien el caso v
1
v
2
v
3
v
1
:
(v
1
+v
2
)(v
1
+v
2
)v
3
v
1
= v
1
v
1
v
3
v
1
+v
1
v
2
v
3
v
1
+v
2
v
1
v
3
v
1
+v
2
v
2
v
3
v
1
,
notemos que los sumandos v
1
v
1
v
3
v
1
, v
2
v
1
v
3
v
1
estan en J
4
tal como vimos en el caso
particular anteriormente analizado. Por lo tanto, v
1
v
2
v
3
v
1
J
4
. Los dos casos ante-
riores muestran que la prueba en el caso general v
1
v
r
v
s
v
i
, con v
r
= v
s
, se
establece por induccion sobre s r.
Notemos que
J =
i0
J
i
.
En efecto, es claro que J
i
J para cada i 0, luego
i0
J
i
J; ademas, la
suma es directa ya que J
i
T
i
(V ). Veamos que J
i0
J
i
. Sea z J, entonces
existen z
j
, z
j
T(V ) y v
j
V , 1 j t, tales que z = z
1
v
2
1
z
1
+ + z
t
v
2
t
z
t
, pero
70 CAP
j
a traves de su expansion en T(V ) =
i0
T
i
(V ),
encontramos que cada uno de los sumandos de z
j
v
2
j
z
j
pertenece a alg un J
i
, luego la
inclusion se nalada es cierta.
Se dene entonces el algebra cociente
(V ) := T(V )/J, (3.5.7)
y se conoce como el algebra exterior de V .
Proposici on 3.5.2. Sea V un R-espacio. Entonces, se tiene el R-isomorsmo de
espacios
(V )
i0
i
(V ), (3.5.8)
donde
0
(V ) := T
0
(V )/J
0
= R,
1
(V ) := T
1
(V )/J
1
= V ,
i
(V ) := T
i
(V )/J
i
, i 2.
Demostracion. La propiedad universal de
i0
i
(V ) permite denir una transfor-
macion lineal F seg un el siguiente diagrama:
(V )
i
(V )
i0
i
(V )
i
E
i
p
p
p
p
p
p
p
p
p
p
p
p
T
F
donde
i
es la inyeccion canonica y
i
viene dada por
T
i
(V )/J
i
=
i
(V )
i
(V ) = T(V )/J,
i
(z
i
) := z
i
,
con z
i
:= z
i
+J
i
, z
i
T
i
(V ), z
i
:= z
i
+J. Notese que
i
es una transformacion lineal
bien denida: en efecto, si z
i
= z
i
, entonces z
i
z
i
J
i
J, luego z
i
=
z
i
.
F se dene por F((z
i
)) :=
iC
i
(z
i
) =
iC
z
i
, donde ( es el soporte de
(z
i
) ,= 0 y F(0) := 0. Notemos que existe k de tal forma que completando con
sumandos nulos podemos escribir
F((z
i
)) =
iC
z
i
= z
0
+ + z
k
, con z
j
T
j
(V ), 1 j k.
Por otro lado, sea G
: T(V )
i0
i
(V ) denida por G
(z
0
+ + z
i
) :=
0
(z
0
)+ +
i
(z
i
), con z
j
T
j
(V ), 0 j i. G
i0
i
(V ), G( z) := G
(z), con
z T(V ). G esta bien denida ya que si z =
z
, entonces z z
J =
i0
J
i
,
3.5.
ALGEBRAS Y PRODUCTO TENSORIAL 71
de donde z z
= z
0
+ + z
i
, con z
j
J
j
, luego G
(z z
) = 0. G es claramente
una transformacion lineal. Finalmente, GF((z
i
)) = G( z
0
) + + G( z
k
) = G
(z
0
) +
+ G
(z
k
) = G
(z
0
+ + z
k
) =
0
(z
0
) + +
i
(z
k
) = (z
i
), es decir, GF es
la identica de
i0
i
(V ). Tambien, si z := z
0
+ + z
i
T(V ), con z
i
T
j
(V ),
1 j i, entonces FG( z) = FG
(z) = FG
(z
0
+ +z
i
) = F
0
(z
0
)+ +F
i
(z
i
) =
0
(z
0
) + +
i
(z
i
) = z
0
+ + z
i
= z. Esto muestra que FG = i
(V )
.
Si identicamos a
i
(V ) con su imagen a traves de la inyeccion canonica
i
, es
decir, si consideramos a
i
(V ) como subespacio del R-espacio (V ), entonces (V )
es suma directa interna de los subespacios
i
(V ):
(V ) =
i0
i
(V ) = R V
2
(V )
Cada elemento z (V ) tiene una representacion unica en la forma z = z
0
+ z
1
+
+ z
i
, con z
j
j
(V ), 0 j i. Para los elementos de
i
(V ) se usa la siguiente
notacion:
v
1
v
i
:= v
1
v
i
+J
i
i
(V ), (3.5.9)
El isomorsmo (3.5.8) permite reinterpretar el producto en el anillo (V ) ya que
a traves del isomorsmo F se tiene que
(v
1
v
i
)(v
i+1
v
i+j
) = v
1
v
i+j
. (3.5.10)
Lo anterior demuestra que en (V ) se cumple la siguiente propiedad:
i
(V )
j
(V )
i+j
(V ). (3.5.11)
La transformacion lineal canonica de inclusion
: V (V )
satisface (v)
2
= 0 para cada v V . En efecto, en (V ) tiene lugar la identidad
v v = v
2
+J
2
= 0. (3.5.12)
El algebra exterior esta caracterizada con la siguiente propiedad universal.
Teorema 3.5.3. Para cada R-algebra B y cada transformacion lineal f : V B
tal que f(v)
2
= 0, con v V , existe un unico homomorsmo de R-algebras F :
(M) B tal que F = f:
V
(V )
B
c
f
E
p
p
p
p
p
p
p
p
p
F
72 CAP
:
T(V ) B tal que F
= f. Denimos F( z) := F
, entonces z z
J y existen z
j
, z
j
T(V ) y v
j
V , 1
j t, tales que zz
= z
1
v
2
1
z
1
+ +z
t
v
2
t
z
t
, luego F
(zz
) = F
(z
1
)F
(v
1
)
2
F
(z
1
)+
+ F
(z
t
)F
(v
t
)
2
F
(z
t
) = F
(z
1
)f(v
1
)
2
F
(z
1
) + + F
(z
t
)f(v
t
)
2
F
(z
t
) = 0. F es
un homomorsmo de R-algebras ya que F
(v) = F
i
(f).
(vi) Sea R
f
S un homomorsmo de anillos. Entonces se tienen los siguientes
isomorsmos:
S (V )
= (S V ) (isomorsmo de R-algebras),
S
i
(V )
=
i
(S V ), i 0 (isomorsmo de R-espacios).
3.6. EJERCICIOS 73
(vii) Sea V = V
1
V
2
, entonces se tienen los siguientes isomorsmos:
(V )
= (V
1
) (V
2
) (isomorsmo de R-algebras),
i
(V )
j+k=i
j
(V
1
)
k
(V
2
), i 0 (isomorsmo de R-espacios).
(viii) Si V es libre con base X := x
1
, . . . , x
n
, entonces para 1 i n,
i
(V ) es
libre con base x
j
1
x
j
i
[1 j
1
< < j
i
n. Ademas, dim
i
(V ) =
_
n
i
_
y dim(V ) = 2
n
.
(ix) Si V es un espacio proyectivo nitamente geenerado , es decir, V es sumando
directo de un espacio libre de dimension nita, entonces (V ) y
i
(V ) son
espacios proyectivos nitamente generados, para cada i 0.
3.6. Ejercicios
1. Demuestre la proposicion 3.3.3.
2. Sean U, V, W R-espacios. Demuestre que (U V ) W
= U (V W) y
U V
= V U.
3. Demuestre las propiedades (iii)-(ix) y (xi) de la seccion 3.2.
4. Demuestre que el producto tensorial de dos matrices cuadradas simetricas es
una matriz simetrica.
5. Sean V
1
, . . . , V
n
R-espacios y sea S
n
una permutacion. Demuestre que
V
1
V
n
= V
(1)
V
(n)
.
6. Determine en cada caso si f T
2
(R
2
), donde
a) f : R
2
R
2
R, f((c
1
, c
2
), (d
1
, d
2
)) := c
1
d
2
+c
2
d
1
.
b) f : R
2
R
2
R, f((c
1
, c
2
), (d
1
, d
2
)) := c
1
d
2
c
2
d
1
.
c) f : R
2
R
2
R, f((c
1
, c
2
), (d
1
, d
2
)) := c
1
+d
2
.
7. Para los tensores f del ejercicio anterior calcule S
f
y Al
f
.
8. Sean T : R
3
R
2
y F : R
2
R
4
transformaciones lineales denidas por
T (x, y, z) = (2x + 3y, 3x + 4z) ,
F (x, y) = (x, x +y, y, y x) .
Entonces, dim(ker(T F)) = 2 ?.
74 CAP
= M
nmnm
(R).
R[x] R[y]
= R[x, y].
14. Demuestre el teorema 3.5.1.
15. Demuestre los numerales (v)-(ix) de la seccion 5.5.
16. Sea K un cuerpo y sean A M
n
(K), B M
m
(K) matrices diagonalizables,
entonces A B es diagonalizable ?.
17. La funcion f denida por
f : R
2
R
2
R, f((c
1
, c
2
), (d
1
, d
2
)) := c
1
d
2
c
2
d
1
es un tensor?.
18. Sean f, g /L
2
(R
2
) dos tensores antisimetricos. Entonces, f g es anti-
simetrico ?.
19. Demuestre las propiedades (v)-(xi) de la seccion 3.5.
Captulo 4
Formas can onicas
Aplicamos en este captulo la teora de los modulos nitamente generados sobre
dominios de ideales principales (vease [6]) para el estudio de las formas canonicas
clasica, racional y de Jordan de una transformacion lineal T : V V , con V un K-
espacio no nulo de dimension nita y K un cuerpo. En la ultima seccion estudiaremos
la forma canonica diagonal y la diagonalizacion de matrices mediante similaridad.
4.1. Polinomios mnimo y caracterstico
Sea End
K
(V ) la K-algebra de transformaciones lineales de V , T : V V un elemen-
to que jamos en End
K
(V ), y sea K[x] la K-algebra de polinomios con coecientes
en K.
Proposici on 4.1.1. La funcion
f : K[x] End
K
(V )
a(x) = a
0
+a
1
x + +a
n
x
n
a
0
i
V
+a
1
T + +a
n
T
n
=: a(T)
(4.1.1)
es un homomorsmo de K-algebras, donde i
V
es la funcion identica de V .
Demostracion. Sean a(x) = a
0
+ a
1
x + + a
n
x
n
, b(x) = b
0
+ b
1
x + + b
m
x
m
i=j+l
a
j
b
l
, 1
i 2n, pero utilizando la distributividad del anillo End
K
(V ) se verica facilmente
que (a
0
i
V
+a
1
T+ +a
n
T
n
)(b
0
i
V
+b
1
T+ +b
n
T
n
) = c
0
I+c
1
T+ +c
2n
T
2n
,
es decir, f(c(x)) = f(a(x))f(b(x)). Finalmente resulta evidente que f(k a(x)) =
k f(a(x)) y f(1) = i
V
.
75
76 CAP
ONICAS
Corolario 4.1.2. Sea a(x) como en la proposicion 4.1.1 y v V . El producto
a(x) v :=(a
0
i
V
+a
1
T + +a
n
T
n
)(v)
=a
0
v +a
1
T(v) + +a
n
T
n
(v) = a(T)(v)
dota a V una estructura de K[x]-espacio izquierdo. Esta estructura se denota por
V
T
.
Demostracion. Notese que V tiene estructura de End
K
(V )-modulo izquierdo con el
producto H v := H(v), H End
K
(V ), v V . La armacion es ahora evidente ya
que f en (4.1.1) es un homomorsmo de anillos.
Proposici on 4.1.3. V
T
es un K[x]-espacio nitamente generado y de torsion.
Demostracion. Sea X = x
1
, . . . , x
t
una base de V
K
. De la inclusion natural
l : K K[x]
k k
concluimos que V
T
=
K[x]
x
1
, . . . , x
t
). De otra parte se tiene el isomorsmo de K-
algebras End
K
(V ) = M
t
(K). Por lo tanto, dim
K
(End
K
(V )) = t
2
, esto ultimo im-
plica que f en (4.1.1) no puede ser inyectiva ya que de lo contrario f(1), f(x),
f(x
2
), . . . sera un subconjunto innito linealmente independiente de End
K
(V ), en
contradiccion con lo ya establecido. As, ker(f) ,= 0; dado que K[x] es un DIP se
tiene
ker(f) = q
T
(x)), (4.1.2)
con 0 ,= q
T
(x) K[x]. Sin perdida de generalidad podemos tomar q
T
(x) monico.
Resulta entonces que q
T
(x) v = 0 para cada v V
T
, con lo cual V
T
es de torsion.
Notese nalmente que
Ann
K[x]
(V
T
) = q
T
(x)). (4.1.3)
De acuerdo con este resultado podemos aplicar a V
T
la teora de los espacios
nitamente generados de torsion sobre un DIP.
Denici on 4.1.4. El polinomio q
T
(x) denido en (4.1.3) se denomina polinomio
mnimo de T.
Seg un (4.1.3), q
T
(x) no depende de la base X elegida en V .
Proposici on 4.1.5. Se tienen las siguientes propiedades para el polinomio mnimo
q
T
(x):
4.1. POLINOMIOS M
INIMO Y CARACTER
ISTICO 77
(i) Si q(x) K[x] es tal que
q(x) v = 0 para cada v V
T
, (4.1.4)
es decir, si q(T) = 0, entonces q
T
(x) [ q(x).
(ii) q
T
(x) es el polinomio monico de menor grado tal que satisface (4.1.4) y es
unico para T.
Demostracion. (i) Sea q(x) K[x] como en (4.1.4). Entonces q(x) Ann
K[x]
(V
T
) =
q
T
(x)), con lo que q
T
(x) [ q(x).
(ii) Sea p(x) monico de K[x] que satisface (4.1.4). Por (i), gr(q
T
(x)) gr(p(x)).
Ahora, si p(x) es de grado mnimo entre los que cumplen (4.1.4), tenemos que
gr(q
T
(x)) = gr(p(x)), por (i) y como q
T
(x) y p(x) son monicos, necesariamente
q
T
(x) = p(x).
Sea A M
t
(K) una matriz, A dene una unica transformacion lineal T : V V
en la base X. Notemos que q
T
(A) = 0. En efecto, q
T
(m
X
(T)) = m
X
(q
T
(T)) =
m
X
(0) = 0. Tenemos pues que existe al menos un polinomio monico que se anula en
A; consideremos la coleccion I de todos los polinomios de K[x] que se anulan en A,
este conjunto es claramente un ideal de K[x], luego I = q
A
(x)) y el polinomio q
A
(x)
se puede tomar monico. Notese que q
A
(x) es el polinomio monico de menor grado tal
que q
A
(A) = 0. En efecto, sea p(x) un polinomio monico de grado mnimo tal que
p(A) = 0, entonces p(x) I, luego q
A
(x)[p(x), pero como p(x) es monico y de grado
mnimo, entonces p(x) = q
A
(x). Se dene el polinomio mnimo de la matriz A
por q
A
(x). Notese que q
A
(x) = q
T
(x). En efecto, ya sabemos que q
T
(A) = 0, luego
q
A
(x)[q
T
(x); pero tambien q
A
(T) = 0 ya que m
X
(q
A
(T)) = q
A
(m
X
(T)) = q
A
(A) = 0
y m
X
es inyectiva. Resulta, q
T
(x)[q
A
(x), con lo cual q
T
(x) = q
A
(x).
Denici on 4.1.6. (i) Sea A = [a
ij
] M
t
(K) una matriz cuadrada; se denomina
polinomio caracterstico de A al determinante de la matriz caracterstica
xE A :=
_
_
x a
11
a
12
a
1t
a
21
x a
22
a
2t
.
.
.
.
.
.
.
.
.
.
.
.
a
t1
a
t2
x a
tt
_
_
(4.1.5)
y se denota por p
A
(x).
(ii) Sean K, V , T, X, t como en el corolario 4.1.3. Sea A = [a
ij
] = m
X
(T)
la matriz de T en la base X. Se dene el polinomio caracterstico de T por
p
T
(x) := p
A
(x).
78 CAP
ONICAS
Notese que gr(p
T
(x)) = t = dim
K
(V ); ademas, p
T
(x) es monico y no depende de
la base X elegida en V . En efecto, si Y es otra base de V y B := m
Y
(T), entonces
det(xE B) = det(xE C
1
AC) = det(C
1
(xE A)C) = det(xE A), donde C
es la matriz de cambio de la base X a la base Y .
Observemos que matrices similares tienen el mismo polinomio mnimo ya que
representan la misma transformacion lineal. Lo mismo se tiene para el polinomio
caracterstico. Las armaciones recprocas no son siempre ciertas, tal como lo ilustran
las matrices
_
1 1
0 1
_
y
_
1 0
0 1
_
.
Proposici on 4.1.7. Sea V = V
1
V
r
una descomposicion de V en suma de
subespacios T-invariantes no triviales, es decir, T(V
j
) V
j
. Sea T
j
la restriccion
de T a V
j
, 1 j r. Entonces
(i) Existe una base X en V tal que la matriz de T en la base X es diagonal por
bloques.
(ii) det(T) = det(T
1
) det(T
r
).
(iii) p
T
(x) = p
T
1
(x) p
Tr
(x).
(iv) q
T
(x) = m.c.m.q
T
1
(x), . . . , q
Tr
(x)
Demostracion. (i) Si juntamos las bases de V
1
, . . . , V
r
obtenemos una base de V y
en esta base la matriz de T es diagonal por bloques.
Teniendo en cuenta que el determinante, el polinomio caracterstico y el poli-
nomio mnimo de una transformacion lineal coinciden con los de su matriz en
cualquier base, entonces basta probar las armaciones en el caso matricial. Pero
el determinante de una matriz diagonal en bloques es el producto de los determi-
nantes de sus bloques, luego las partes (ii)-(iii) ya estan probadas.
Resta demostrar la parte (iv). Sea
A :=
_
_
A
1
0
.
.
.
.
.
.
.
.
.
0 A
r
_
_
y q
A
(x) el polinomio mnimo de A. Hagamos m(x) := m.c.mq
A
1
(x), . . . , q
Ar
(x).
Existen polinomios m
i
(x), 1 i r, tales que m(x) = q
A
i
(x)m
i
(x). Se debe entonces
demostrar que q
A
(x) = m(x). Teniendo en cuenta que tanto q
A
(x) como m(x) son
monicos, entonces basta demostrar que q
A
(x) [ m(x) y m(x) [ q
A
(x). Sea m(x) =
m
0
+m
1
x + +m
l
x
l
, entonces
4.1. POLINOMIOS M
INIMO Y CARACTER
ISTICO 79
m(A) = m
0
E +m
1
A + +m
l
A
l
=
_
_
m
0
E +m
1
A
1
+ +m
l
A
l
1
0
.
.
.
.
.
.
.
.
.
0 m
0
E +m
1
A
r
+ +m
l
A
l
r
_
_
=
_
_
m(A
1
) 0
.
.
.
.
.
.
.
.
.
0 m(A
r
)
_
_
=
_
_
q
A
1
(A
1
)m
1
(A
1
) 0
.
.
.
.
.
.
.
.
.
0 q
Ar
(A
r
)m
r
(A
r
)
_
_
= 0.
Esto garantiza que q
A
(x) [ m(x).
Para demostrar la segunda parte basta mostrar que q
A
(x) es m ultiplo de cada
q
A
i
(x). Sea q
A
(x) = q
0
+q
1
x+ +q
t
x
t
, entonces q
A
(A) = 0 luego q
0
E+q
1
A+ +
q
t
A
t
= 0 y
q
0
I +
_
_
q
1
A
1
0
.
.
.
.
.
.
.
.
.
0 q
1
A
r
_
_
+ +
_
_
q
t
A
t
1
0
.
.
.
.
.
.
.
.
.
0 q
t
A
t
r
_
_
=
_
_
q
A
(A
1
) 0
.
.
.
.
.
.
.
.
.
0 q
A
(A
r
)
_
_
= 0,
luego q
A
(A
i
) = 0 para cada i, y esto indica que q
A
(x) es m ultiplo de cada q
A
i
(x).
Proposici on 4.1.8. Sea V
T
un K[x]-espacio cclico con generador v
0
. Sean q
T
(x) =
q
0
+ q
1
x + + q
n1
x
n1
+ x
n
el polinomio mnimo de T y p
T
(x) su polinomio
caracterstico. Entonces,
(i) X := v
0
, T(v
0
), . . . , T
n1
(v
0
) es una K-base de V .
(ii) m
X
(T) =
_
_
0 0 0 q
0
1 0 0 q
1
0 1 0 q
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 q
n1
_
_
,
denominada la matriz compa nera del polinomio q
T
(x).
(iii) p
T
(x) = q
T
(x).
Demostracion. (i) Dado que V
T
es cclico, tenemos
V
T
= K[x]/Ann
K[x]
(V ) (K[x]-isomorsmo).
De acuerdo con (4.1.3), Ann
K[x]
(V
T
) = q
T
(x)) (notese que q
T
(x) ,= 0 pues de lo
contrario V no sera de dimension nita sobre K). La inclusion natural K K[x]
80 CAP
ONICAS
convierte a K[x]/q
T
(x)) en un K-espacio vectorial con base 1, x, . . . , x
n1
, x
i
=
x
i
+q
T
(x)).
Sea v V
T
, entonces v = q(x) v
0
, q(x) K[x]; dado que K[x] es un dominio
euclideano, v = q
T
(x)t(x) v
0
+ r(x) v
0
, con r(x) = 0 o gr(r(x)) < n; resulta
entonces v = r(x) v
0
v
0
, T(v
0
), . . . , T
n1
(v
0
)), es decir, V = X). Sean ahora
a
0
, . . . , a
n1
K tales que
a
0
v
0
+a
1
T(v
0
) + +a
n1
T
n1
(v
0
) = 0,
entonces
(a
0
+a
1
x + +a
n1
x
n1
) v
0
= 0,
y as
a
0
+a
1
x + +a
n1
x
n1
Ann
K[x]
(V ) = q
T
(x)).
Por lo tanto, a
0
+a
1
x + +a
n1
x
n1
= 0, de donde a
0
= a
1
= = a
n1
= 0.
(ii) La armacion de esta parte se sigue de (i) y del hecho que
q
T
(x) v
0
= 0 = q
0
v
0
+q
1
T(v
0
) + +q
n1
T
n1
(v
0
) +T
n
(v
0
).
(iii) Dado que al mutilplicar una matriz por una propiamente elemental su determi-
nante no vara, se tiene
p
T
(x) =det
_
_
x 0 0 q
0
1 x 0 q
1
0 1 0 q
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 x +q
n1
_
_
= det
_
_
0 x
2
0 q
0
+q
1
x
1 x 0 q
1
0 1 0 q
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 x +q
n1
_
_
=det
_
_
0 0 0 q
0
+q
1
x +q
2
x
2
1 0 0 q
1
+q
2
x
0 1 0 q
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 x +q
n1
_
_
= =
=det
_
_
0 0 0 q
0
+q
1
x + +q
n1
x
n1
+x
n
1 0 0 q
1
+q
2
x + +x
n1
0 1 0 q
2
+q
3
x + +n
n2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 q
n2
+q
n1
x +x
2
0 0 1 x +q
n1
_
_
=q
T
(x).
4.1. POLINOMIOS M
INIMO Y CARACTER
ISTICO 81
Regresamos al estudio de las componentes primarias de V
T
.
Proposici on 4.1.9. Sea p(x) un polinomio monico irreducible de K[x]. La compo-
nente p(x)-primaria de V
T
es no nula si, y solo si, p(x) [ q
T
(x).
Demostracion. ) Supongase que V
(p(x))
T
,= 0 y sea 0 ,= v V
(p(x))
T
. Entonces,
Ann
K[x]
(v) = p(x)
l
), l 1 (vease [6]). Puesto que q
T
(x) v = 0 entonces p(x)
l
[
q
T
(x), y por lo tanto p(x) [ q
T
(x).
) Sea q
T
(x) = p(x)q(x) con q(x) K[x] monico. Notese que gr(q(x)) <
gr(q
T
(x)), as que por la proposicion 4.1.5, existe v ,= 0 en V
T
tal que q(x) v ,= 0,
pero entonces p(x) (q(x) v) = q
T
(x) v = 0, es decir , V
(p(x))
T
,= 0.
De la armacion anterior resulta inmediatamente la siguiente descomposicion de
V
T
en suma directa de sus componentes primarias.
Corolario 4.1.10. Sea
q
T
(x) = q
1
(x)
k
1
q
r
(x)
kr
(4.1.6)
la descomposicion del polinomio mnimo de T en producto de monicos irreducibles.
Entonces la descomposicion de V
T
en suma de sus componentes primarias esta dada
por
V
T
= (V
T
)
(q
1
(x))
(V
T
)
(qr(x))
. (4.1.7)
Se puede ahora descomponer cada componente primaria en suma directa de
K[x]-espacios cclicos (vease [6]). Para simplicar un poco la notacion escribimos
(V
T
)
(q
j
(x))
=: V
j
, (4.1.8)
para 1 j r.
Lema 4.1.11. Con la notacion anterior se tiene que:
(i) V
j
es un K-subespacio T-invariante de V y entonces T
j
:= T [
V
j
es un K-
endomorsmo de V
j
.
(ii) Sea q
T
j
(x) el polinomio mnimo de T
j
. Entonces
q
T
j
(x) = q
j
(x)
k
j
y V
j
= ker(q
j
(T)
k
j
).
(iii) Si s
j1
s
jl
j
1 son los divisores elementales de V
j
, escritos en orden
decreciente, entonces
s
j1
= k
j
.
82 CAP
ONICAS
(iv) Sea p
T
j
(x) el polinomio caracterstico de T
j
. Entonces,
p
T
j
(x) = q
j
(x)
s
j1
++s
jl
j
.
(v) q
T
j
(x)[p
T
j
(x).
(vi) dim
K
(V
j
) = (s
j1
+ +s
jl
j
)gr(q
j
(x)).
Demostracion. (i) Dado que V
j
en un K[x]-subespacio de V
T
, este tambien resulta
ser K-subespacio de V . Ademas, V
j
es T-invariante. En efecto, T(V
j
) = x V
j
V
j
.
(ii) Por (4.1.6), q
T
(x) = q
j
(x)
k
j
z
j
(x), con
z
j
(x) := q
k
1
1
(x) q
k
j1
j1
(x)q
k
j+1
j+1
(x) q
kr
r
(x).
Sea v
j
V
j
, entonces existe n 1 tal que q
n
j
(x) v
j
= 0. Como m.c.d.(q
n
j
(x), z
j
(x))
= 1, existen w(x), l(x) K[x] tales que 1 = w(x)q
n
j
(x) + l(x)z
j
(x), luego v
j
=
w(x)q
n
j
(x) v
j
+l(x)z
j
(x) v
j
= l(x)z
j
(x) v
j
, de donde q
k
j
j
(x) v
j
= l(x)q
T
(x) v
j
= 0.
Entonces, hemos demostrado que para cada j, q
T
j
(x) [ q
k
j
j
(x).
Por otra parte, de acuerdo con (4.1.7), cada elemento v V se puede expresar
en la forma
v = v
1
+ +v
j
+ +v
r
, v
j
V
j
.
Entonces,
q
T
j
(x)z
j
(x) v = q
T
j
(x)q
k
1
1
(x) q
k
j1
j1
(x)q
k
j
+1
j+1
(x) q
kr
r
(x) v = 0.
Resulta q
T
(x) [ q
T
j
(x)z
j
(x), con lo que q
k
j
j
(x) [ q
T
j
(x).
Notemos que si v V
j
, entonces q
j
(T
j
)
k
j
(v) = 0, es decir, q
j
(T)
k
j
(v) = 0, luego
v ker(q
j
(T)
k
j
). Recprocamente, si v ker(q
j
(T)
k
j
), entonces q
j
(T)
k
j
(v) = 0, luego
q
j
(x)
k
j
v = 0, es decir, v V
j
.
(iii) Se tiene el K[x]-isomorsmo
V
j
= K[x]/q
s
j1
j
(x)) K[x]/q
s
jl
j
j
(x)), (4.1.9)
y Ann
K[x]
(V
j
) = q
s
j1
j
(x)) = q
T
j
(x)), vease (4.1.3), de modo que seg un (ii), s
j1
= k
j
.
(iv) En (4.1.9) cada sumando es un K[x]-subespacio, luego tambien un K-
subespacio de V
j
; notemos que cada uno estos sumandos es T
j
-invariante: en efecto,
sea W
i
:= K[x]/q
s
ji
j
(x)), 1 i l
j
, entonces V
j
= W
1
W
l
j
; sea w W
i
,
luego x w W
i
, es decir, T(w) W
i
, luego T
j
(W
i
) W
i
.
Tenemos entonces que cada W
i
es un K[x]- espacio cclico T
j
-invariante, podemos
entonces aplicar las proposiciones 4.1.8 y 4.1.7 para obtener (iv).
(v) Consecuancia directa de (ii), (iii) y (iv).
(vi) Como el grado del polinomio caracterstico p
T
j
(x) de T
j
coincide con la
dimension de V
j
, entonces (v) es consecuencia de (iv).
4.2. FORMA CAN
ONICA CL
ASICA 83
Denici on 4.1.12. Sea V
T
descompuesto como en (4.1.7). Los divisores elementales
de V
T
se denominan divisores elementales de T.
De los resultados obtenidos podemos deducir uno de los teoremas basicos y mas
importantes del algebra lineal.
Teorema 4.1.13 (Hamilton-Cayley). Sea V un K-espacio de dimension nita y
T : V V una transformacion lineal de V . Entonces
q
T
(x) [ p
T
(x).
Demostracion. Por la parte (v) del lema 4.1.11, para cada 1 j r se tiene
que q
T
j
(x) [ p
T
j
(x), pero de la proposicion 4.1.7 y la descomposicion (4.1.7) resulta
q
T
1
(x) q
Tr
(x) = q
k
1
1
(x) q
kr
r
(x) = q
T
(x) [ p
T
(x).
4.2. Forma can onica clasica
Aplicamos ahora los resultados anteriores al estudio de las llamadas formas canonicas
de una transformacion lineal, o equivalentemente, de una matriz. Comenzamos con
la forma canonica clasica.
Seg un (4.1.7), podemos elegir en cada V
j
una base X
j
de tal manera que X :=
r
j=1
X
j
es una base de V y la matriz de T en dicha base toma la forma
m
X
(T) =
_
_
m
X
1
(T
1
) 0
.
.
.
.
.
.
.
.
.
0 m
Xr
(T
r
)
_
_
. (4.2.1)
Pero de acuerdo con (4.1.9), podemos elegir la base X
j
de V
j
de tal manera que la
matriz de T
j
en dicha base es diagonal en bloques:
m
X
j
(T
j
) =
_
_
A
j1
0
.
.
.
.
.
.
.
.
.
0 A
jl
j
_
_
. (4.2.2)
Por la proposicion 4.1.8, el bloque A
ji
es la matriz compa nera del polinomio q
j
(x)
s
ji
de (4.1.9). Queremos ahora descomponer cada bloque de (4.2.2) de tal manera que
aparezca la matriz compa nera de q
j
(x).
Proposici on 4.2.1. Sea V un K[x]-espacio cclico con generador v
0
y supongase
que el polinomio mnimo de T (vease la proposicion 4.1.8) es de la forma q(x)
s
,
84 CAP
ONICAS
donde q(x) := q
0
+ q
1
x + + q
n1
x
n1
+ x
n
es irreducible, s 1. Entonces existe
una base X en V tal que la matriz T en dicha base es de la forma
m
X
(T) =
_
_
C 0 0
1 C 0
0 1 0
.
.
.
.
.
.
0 1 C
_
_
, (4.2.3)
con s bloques C, donde C es la matriz compa nera de q(x) y los 1 van dispuestos en
las entradas (n + 1, n), (2n + 1, 2n) . . . , ((s 1)n + 1, (s 1)n).
Demostracion. Seg un la proposicion 4.1.8, una K-base de V es
X
= v
0
, Tv
0
, T
2
v
0
, . . . , T
ns1
v
0
.
Notese que
X := v
0
, Tv
0
, . . . , T
n1
v
0
;
q(T)v
0
, Tq(T)v
0
, . . . , T
n1
q(T)v
0
;
q(T)
2
v
0
, Tq(T)
2
v
0
, . . . , T
n1
q(T)
2
v
0
;
. . . ; q(T)
s1
v
0
, Tq(T)
s1
v
0
, . . . , T
n1
q(T)
s1
v
0
ONICA CL
ASICA 85
del polinomio mnimo q
T
(x). Para calcular la matriz canonica clasica de T es nece-
sario conocer el sistema de divisores elementales de T, es decir, de V
T
. Si A es una
matriz cuadrada, entonces A determina una unica transformacion lineal T, y se de-
nen los divisores elementales de A como el sistema de divisores elementales de
T.
Corolario 4.2.2. (i) Sea T : V V una transformacion lineal de un K-espacio
V de dimension nita. Entonces, existe una base X en V tal que la matriz de
T en la base X es una matriz canonica clasica.
(ii) Toda matriz A M
n
(K) es similar a una unica matriz canonica clasica.
(iii) Dos matrices cuadradas son similares si, y solo si, tienen el mismo sistema de
divisores elementales.
Demostracion. Las dos primeras armaciones fueron probadas en el desarrollo de
la presente seccion. La tercera se tiene ya que matrices similares representan la
misma transformacion lineal y, si dos matrices tienen el mismo sistema de divisores
elementales, entonces son similares a la misma matriz canonica clasica, y por lo
tanto son similares.
Ejemplo 4.2.3. Ilustramos a continuacion el calculo de las componentes primarias
del V
T
, donde T es una transformacion lineal denida por medio de una matriz.
Tambien calcularemos la base X que permite obtener la forma diagonal en bloques
dada en (4.2.1). Consideremos la transformacion lineal T : R
4
R
4
denida por la
matriz
A =
_
_
1 1 0 1
0 3 1 0
2 1 2 1
3 2 0 4
_
_
.
Mediante calculo manual o usando alg un paquete de computo (por ejemplo el SWP,
Scientic WorkPlace) encontramos que
p
A
(x) = q
A
(x) = 36 60x + 37x
2
10x
3
+x
4
= (x 2)
2
(x 3)
2
;
debemos entonces calcular las componentes primarias de V := R
4
inducidas por A,
V
1
= ker((A 2E)
2
), V
2
= ker((A 3E)
2
). Tenemos
(A 2E)
2
=
_
_
2 2 1 1
2 2 1 1
1 1 1 0
3 3 2 1
_
_
, (A 3E)
2
=
_
_
1 0 1 1
2 1 1 1
3 1 2 2
3 1 2 2
_
_
y calculamos las bases de sus n ucleos:
86 CAP
ONICAS
ker(A 2E)
2
=
_
_
_
_
1
0
1
1
_
_
,
_
_
1
1
0
0
_
_
_
_
, ker(A 3E)
2
=
_
_
_
_
1
1
1
0
_
_
,
_
_
1
1
0
1
_
_
_
_
.
La base buscada X es la union de los cuatro vectores anteriores. Construimos la
matriz de cambio
C =
_
_
1 1 1 1
0 1 1 1
1 0 1 0
1 0 0 1
_
_
, C
1
=
_
_
0 1 1 1
1 1 0 0
1 1 1 0
1 1 0 1
_
_
,
y nalmente encontramos que
_
_
0 1 1 1
1 1 0 0
1 1 1 0
1 1 0 1
_
_
_
_
1 1 0 1
0 3 1 0
2 1 2 1
3 2 0 4
_
_
_
_
1 1 1 1
0 1 1 1
1 0 1 0
1 0 0 1
_
_
=
_
_
3 1 0 0
1 1 0 0
0 0 3 0
0 0 1 3
_
_
.
Ejemplo 4.2.4. Para la matriz A del ejemplo anterior podemos calcular su forma
canonica clasica: tenemos p
A
(x) = q
A
(x) = q
1
(x)
2
q
2
(x)
2
, con q
1
(x) = x2 y q
2
(x) =
x 3, luego la forma buscada es
_
_
2 0 0 0
1 2 0 0
0 0 3 0
0 0 1 3
_
_
.
4.3. Forma can onica racional
La segunda forma canonica destacada es la racional, tambien denominada forma
canonica de Frobenius, en la cual intervienen los factores invariantes de V
T
. Del
corolario 4.1.10 y del teorema de estructura de los modulos f.g. sobre DIPs (vease
[6]) resulta
V
T
= K[x]/q
1
(x)) K[x]/q
m
(x)), (4.3.1)
4.3. FORMA CAN
ONICA RACIONAL 87
donde q
i
(x) [ q
j
(x) para i j (cada q
i
(x) se puede tomar monico). Existe entonces
una base X en V tal que
R := m
X
(T) =
_
_
C
1
0
.
.
.
.
.
.
.
.
.
0 C
m
_
_
, (4.3.2)
donde C
j
es la matriz compa nera de q
j
(x). Notese que
p
T
(x) = q
1
(x) q
m
(x),
q
m
(x)) = Ann
K[x]
(V
T
), q
T
(x) = q
m
(x),
(4.3.3)
resultando otra demostracion del teorema 4.1.13. Esta forma canonica consta de
ceros, unos y los coecientes de los factores invariantes.
Denici on 4.3.1. La matriz R en (4.3.2) se denomina racional o de Frobenius.
Los polinomios q
1
(x), . . . , q
m
(x) en (4.3.1) se denominan los factores invariantes
de la matriz R. Una transformacion lineal T : V V es racionalizable si existe
una base X en V tal que m
X
(T) es racional. Los factores invariantes de m
X
(T)
se denominan factores invariantes de T. Una matriz A M
n
(K) es racio-
nalizable si A es similar a una matriz racional R, y los factores invariantes R se
conocen como los factores invariantes de A.
Corolario 4.3.2. Sea T : V V una transformacion lineal sobre un K-espacio V
de dimension nita. Entonces, para cada base Y de V se cumple: T es racionalizable
si, y solo si, m
Y
(T) es racionalizable.
Demostracion. Esto es consecuencia del hecho que matrices similares representan la
misma transformacion lineal.
Corolario 4.3.3. (i) Toda transformacion lineal T : V V de un K-espacio V de
dimension nita es racionalizable.
(ii) Toda matriz A M
n
(K) es similar a una unica matriz racional R.
(iii) Dos matrices cuadradas son similares si, y solo si, tienen los mismos factores
invariantes.
Demostracion. La primera armacion se tiene tal como vimos en (4.3.2); la segunda
en consecuencia de que una matriz representa una transformacion lineal, la unicidad
se obtiene de la unicidad de los factores invariantes de V
T
. La tercera resulta de
que matrices similares representan la misma transformacion lineal y, si dos matrices
tienen los mismos facores invariantes, entonces son similares a la misma matriz
racional, y por lo tanto son similares.
En la proposicion 4.1.8 vimos que si V
T
es un K[x]-espacio cclico, entonces
p
T
(x) = q
T
(x). Veamos ahora la armacion recproca.
88 CAP
ONICAS
Corolario 4.3.4. Sea T : V V una transformacion lineal de un K-espacio de
dimension nita. V
T
es cclico si, y solo si, p
T
(x) = q
T
(x).
Demostracion. La condicion necesaria la vimos en la proposicion 4.1.8. Supongamos
entonces que p
T
(x) = q
T
(x). Seg un (4.3.3), V
T
tiene un solo factor invariante, luego
por (4.3.1) V
T
es cclico.
Ejemplo 4.3.5. En este ejemplo mostramos un procedimiento manual sencillo para
calcular los factores invariantes de una matriz, y en consecuencia, su forma canonica
racional. El metodo sin embargo no es eciente para matrices de dimensiones supe-
riores. Calculemos entonces los factores invariantes de la matriz
A =
_
_
3 4 4
1 3 2
2 4 3
_
_
.
Notemos en primer lugar que si q(x) = q
0
+ q
1
x + + q
n1
x
n1
+ x
n
y A es la
matriz compa nera de p(x) entonces
(xE A)
_
_
q(x) 0
1
.
.
.
0 1
_
_
.
En efecto, vimos en la prueba de la proposicion 4.1.8 que
(xE A)
_
_
0 0 0 q
0
+q
1
x + +q
n1
x
n1
+x
n
1 0 0 q
1
+q
2
x + +x
n1
0 1 0 q
2
+q
3
x + +n
n2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 q
n2
+q
n1
x +x
2
0 0 1 x +q
n1
_
_
,
luego
(xE A)
_
_
0 0 0 q(x)
1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
_
_
q(x) 0
1
.
.
.
0 1
_
_
.
4.3. FORMA CAN
ONICA RACIONAL 89
Por otra parte, si q
1
(x), . . . , q
m
(x) son los factores invariantes de A, entonces
(xE A)
_
_
q
1
(x) 0
.
.
.
q
m
(x)
1
.
.
.
0 1
_
_
.
En efecto, dado que toda matriz es racionalizable, existe una matrix invertible C tal
que
C
1
AC =
_
_
A
1
0
.
.
.
0 A
m
_
_
,
donde A
i
es la compa nera de q
i
(x), 1 i m. Entonces,
C
1
(xE A)C =
_
_
xE A
1
0
.
.
.
0 xE A
m
_
_
,
pero por lo que acabamos de ver, (xE A
i
)
_
_
q
i
(x) 0
1
.
.
.
0 1
_
_
, de modo que
(xE A)
_
_
q
1
(x) 0
.
.
.
q
m
(x)
1
.
.
.
0 1
_
_
.
90 CAP
ONICAS
Con el soporte teorico anterior podemos resolver el ejercicio planteado:
(xE A) =
_
_
x 3 4 4
1 x 3 2
2 4 x + 3
_
_
_
_
1 x 3 2
x 3 4 4
2 4 x + 3
_
_
_
_
1 x 3 2
0 (x 5)(x 1) 2(x 1)
0 2(x 1) x 1
_
_
_
_
1 0 0
0 (x 5)(x 1) 2(x 1)
0 2(x 1) x 1
_
_
_
_
1 0 0
0 (x 1)
2
0
0 2(x 1) x 1
_
_
_
_
1 0 0
0 (x 1)
2
0
0 0 x 1
_
_
_
_
x 1 0 0
0 (x 1)
2
0
0 0 1
_
_
,
entonces p
A
(x) = (x 1)
3
, q
A
(x) = (x 1)
2
y los factores invariantes de A son
x 1,(x 1)
2
. Finalmente podemos calcular la forma racional de A:
_
_
1 0 0
0 0 1
0 1 2
_
_
.
4.4. Forma can onica de Jordan
Presentamos en esta seccion otra forma canonica importante para transformaciones
lineales y matrices.
Denici on 4.4.1. Sea a K, la matriz cuadrada de orden k 1
J
a,k
:=
_
_
a 0 0 0
1 a 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
_
_
se denomina bloque elemental de Jordan de orden k perteneciente a a. La
matriz diagonal de m 1 bloques
J
a
:=
_
_
J
1
0
.
.
.
0 J
m
_
_
,
donde cada J
j
es un bloque elemental de Jordan perteneciente a a y tal que
4.4. FORMA CAN
ONICA DE JORDAN 91
orden J
1
orden J
2
orden J
m
se denomina bloque de Jordan perteneciente a a.
Sean a
1
, . . . , a
r
elementos diferentes de K. La matriz diagonal de r bloques de Jor-
dan, r 1,
J :=
_
_
J
a
1
0
.
.
.
0 J
ar
_
_
,
con J
a
i
perteneciente a a
i
se denomina matriz diagonal en bloques de Jordan
pertenecientes a a
1
, . . . , a
r
. Una transformacion lineal T : V V de un K-
espacio de dimension nita se dice diagonalizable en bloques de Jordan si
existe una base X en V tal que m
X
(T) es una matriz diagonal en bloques de Jordan.
Una matriz cuadrada se dice diagonalizable en bloques de Jordan si es similar
a una matriz diagonal en bloques de Jordan.
Corolario 4.4.2. Sea T : V V una transformacion lineal sobre un K-espacio V
de dimension nita. Entonces, para cada base X de V se cumple: T es diagonalizable
en bloques de Jordan si, y solo si, m
X
(T) es diagonalizable en bloques de Jordan.
Demostracion. Dado que matrices similares representan la misma transformacion
lineal se tiene entonces la armacion de la proposicion.
Ya se demostro que toda transformacion T de un espacio vectorial nito dimen-
sional es reducible a la forma canonica clasica, o equivalentemente, que toda matriz
cuadrada es similar a una matriz canonica clasica. Se probaron resultados analogos
para la forma canonica racional. Mostraremos en seguida que para cuerpos alge-
braicamente cerrados, toda transformacion lineal (= toda matriz cuadrada) sobre
un espacio nito dimensional es diagonalizable en bloques de Jordan.
Denici on 4.4.3. Una transformacion lineal T es nilpotente si existe s 1 tal
que T
s
= 0. El menor natural s con esta propiedad se llama ndice de nilpotencia
de T.
Proposici on 4.4.4. Sea T : V V una transformacion nilpotente de un K-espacio
V de dimension nita n 1 con ndice de nilpotencia s 1. Entonces existe una
base Y en V tal que
m
Y
(T) =
_
_
C
1
0
.
.
.
0 C
m
_
_
,
92 CAP
ONICAS
con
C
j
:=
_
_
0 0 0 0
1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
_
_
, de tama no s
j
s
j
, (4.4.1)
s
1
+ + s
m
= n, 1 s
1
s
2
s
m
, s
m
= s, q
T
(x) = x
s
, m = n umero de
factores invariantes de T y ademas m = dim(ker(T)).
Demostracion. Sean q
1
(x), . . . , q
m
(x) los factores invariantes de T. Seg un (4.3.3),
q
T
(x) = q
m
(x); sea s := ndice de nilpotencia de T, entonces q
m
(x) = x
s
, de donde
q
j
(x) = x
s
j
con 1 s
1
s
2
s
m
= s. Notese que la matriz compa nera
de q
j
(x) es efectivamente (4.4.1). Seg un (4.3.3), n = gr(p
T
(x)) = s
1
+ + s
m
.
Aplicamos entonces (4.3.2).
Veamos la prueba de la ultima armacion de la proposicion, es decir,
m = dim(ker(T).
Seg un (4.3.1), V
T
tiene la descomposicion en suma de K[x]-subespacios cclicos
V
T
= w
1
) w
m
), con w
j
)
= K[x]/x
s
j
).
La idea es probar que T
s
1
1
(w
1
), . . . , T
sm1
(w
m
) es una base de ker(T). Si w
ker(T), entonces w = u
1
+ + u
m
, donde u
j
es un elemento de w
j
), 1 j m.
Entonces,
w = g
1
(T)(w
1
) + +g
m
(T)(w
m
),
donde el grado de g
j
(x) se puede tomar inferior a s
j
. Se tiene que T(w) = 0, pero
como la suma directa, se concluye que g
j
(T)T(w
j
) = 0. Esto implica que x
s
j
divide a
g
j
(x)x, pero por la escogencia del grado de g
j
(x) se tiene que g
j
(x)x = b
j
x
s
j
, b
j
K.
Por lo tanto, g
j
(x) = b
j
x
s
j
1
, y en consecuencia,
w = b
1
T
s
1
1
(w
1
) + +b
t
T
st1
(w
m
).
La independencia lineal se obtiene de la suma directa y de que x
s
j
) = Ann
K[x]
(w
j
).
Teorema 4.4.5. Sea T : V V una transformacion lineal de un K-espacio de
dimension nita n 1. Supongase que p
T
(x) se descompone completamente en K[x]
en producto de factores lineales (esto ocurre por ejemplo si K es algebraicamente
cerrado). Entonces, T es diagonalizable en bloques de Jordan de manera unica, salvo
el orden de disposicion de los bloques.
4.4. FORMA CAN
ONICA DE JORDAN 93
Demostracion. Sea
p
T
(x) := (x a
1
)
n
1
(x a
r
)
nr
,
con a
1
, . . . , a
r
elementos diferentes de K, 1 n
j
n, 1 j r. Seg un (4.3.3),
p
T
(x) y q
T
(x) tienen los mismos factores irreducibles (aunque no necesariamente con
la misma multiplicidad). Entonces
q
T
(x) = (x a
1
)
k
1
(x a
r
)
kr
, 1 k
j
n
j
.
Sean V
j
y T
j
como se denieron en (4.1.8) y en el lema 4.1.11. Para cada 1 j r
consideremos la transformacion lineal
T
j
:= T
j
a
j
i
V
j
: V
j
V
j
.
Por el lema 4.1.11, el polinomio mnimo de T
j
es (x a
j
)
k
j
, luego T
j
es nilpotente
de ndice k
j
. De acuerdo con la proposicion 4.4.4, para cada 1 j r existe una
base Y
j
en V
j
tal que
m
Y
j
(T
j
) =
_
_
C
j1
0
.
.
.
0 C
jm
j
_
_
,
con cada bloque como en (4.4.1) y de orden s
ji
. Notese que s
jm
j
= k
j
, m
j
= n umero
de factores invariantes de T
j
, y tal como vimos en la la proposicion 4.4.4,
m
j
= dim(ker(T
j
)) = dim(ker(T
j
a
j
i
V
j
)) = dim(ker(T a
j
i
V
)). (4.4.2)
En efecto, la ultima igualdad se tiene ya que ker(T
j
a
j
i
V
j
) = ker(T a
j
i
V
) (vease
el lema 4.1.11, parte (ii)). Ademas, 1 s
j1
s
j2
s
jm
j
, s
j1
+ +s
jm
j
= n
j
.
Seg un (4.1.7), si Y :=
Y
j
entonces
m
Y
(T) =
_
_
m
Y
1
(T
1
) 0
.
.
.
0 m
Yr
(T
r
)
_
_
.
Pero m
Y
j
(T
j
) = m
Y
j
(T
j
) + m
Y
j
(a
j
i
V
j
) y as m
Y
j
(T
j
) es un bloque de Jordan perte-
neciente a a
j
:
m
Y
j
(T
j
) =
_
_
_
_
a
j
1
.
.
.
1 a
j
_
_
bloque elemental de orden s
j1
.
.
.
bloque elemental de orden s
jm
j
_
_
a
j
1
.
.
.
1 a
j
_
_
_
_
.
94 CAP
ONICAS
Notese que en la forma canonica de Jordan aparecen solo ceros, unos y las races del
polinomio caracterstico. La unicidad de estas ultimas, la unicidad de las compo-
nentes primarias en (4.1.7) y la unicidad de los factores invariantes, determinan la
unicidad de la estructura de los bloques de Jordan, salvo el orden de disposicion.
Corolario 4.4.6. Sea K un cuerpo algebraicamente cerrado. Dos matrices cuadra-
das son similares si, y solo si, tienen la misma forma canonica de Jordan.
Demostracion. Sean A, B M
n
(K) similares, A J
1
y B J
2
con J
1
y J
2
matrices diagonales en bloques de Jordan. Por transitividad J
1
J
2
. Puesto que
matrices similares representan la misma transformacion lineal, se sigue, por la uni-
cidad expuesta en el teorema 4.4.5 que J
1
= J
2
(salvo el orden de los bloques).
Recprocamente, si A J B entonces A B.
Ejemplo 4.4.7. En este ejemplo mostramos una matriz invertible C tal que C
1
AC
es una matriz de Jordan, con
A =
_
_
4 1 1 1
1 2 1 1
6 1 1 1
6 1 4 2
_
_
.
Consideramos a la matriz A como una transformacion lineal de R
4
en R
4
en la
base canonica. Determinemos en primer lugar el polinomio caracterstico y el poli-
nomio mnimo de A : p
A
(x) = (x + 2)(x 3)
3
, q
A
(x) = (x + 2)(x 3)
2
. De
acuerdo con la prueba del teorema 4.4.5, el n umero de bloques de Jordan es 2,
uno correspondiente al valor 2 y otro correspondiente a 3 Ademas se tiene que
R
4
= V
1
V
2
, con V
1
= ker(A + 2E) = (0, 0, 1, 1)) y V
2
= ker[(A 3E)
2
] =
(1, 0, 1, 0) , (0, 1, 0, 0) , (0, 0, 0, 1)). Seg un la proposicion 4.4.4, el n umero de bloques
elementales de Jordan correspondiente a 2 viene dado por dim(ker(A + 2E)) y el
n umero correspondiente a 3 es dim(ker(A3E)). Pero ker(A+2E) = (0, 0, 1, 1)) y
ker(A3E) = (0, 1, 0, 1) , (1, 2, 1, 0)), luego dim(ker(A+2E)) = 1 y dim(ker(A
3E)) = 2. Para el valor 3 se tiene que el tama no del segundo bloque elemental de
Jordan viene dado por la multiplicidad de 3 en el polinomio mnimo, que en este
caso es 2. Ya podemos entonces mostrar la forma de Jordan de la matriz A:
J =
_
_
2 0 0 0
0 3 0 0
0 0 3 0
0 0 1 3
_
_
.
Para calcular la matriz C debemos encontrar bases X
1
en V
1
y X
2
en V
2
de tal
forma que C es la matriz de cambio de la base can onica de R
4
a la base X =
X
1
X
2
. Consideremos las transformaciones A
1
:= A + 2E : V
1
V
1
y A
2
:=
4.5. FORMA CAN
1
es nilpotente de ndice 1 y A
2
es nilpotente
de ndice 2. Seg un la prueba de la proposicion 4.4.4, debemos descomponer V
1
y
V
2
en suma directa de subespacios cclicos. Tal como vimos arriba, el n umero de
sumandos cclicos de V
1
es 1 = dim(ker(A + 2E)) y coincide con el n umero de
factores invariantes de A
1
; de igual manera, el n umero de sumandos cclicos de V
2
es
2 = dim(ker(A3E)) y coincide con el n umero de factores invariantes de A
2
. Pero
V
1
= (0, 0, 1, 1)), entonces la descomposicion cclica de V
1
es trivial: V
1
= v
1
)
con v
1
:= (0, 0, 1, 1), y en consecuencia, X
1
= (0, 0, 1, 1). Para V
2
los factores
invariantes de A
2
son x y x
2
. Necesitamos dos vectores v
2
, v
3
V
2
de tal forma que
V
2
= v
2
) v
3
), donde el polinomio anulador de v
2
es x y el polinomio anulador
de v
2
sea x
2
. La base buscada en V
2
es pues X
2
= v
2
, v
3
, A
2
v
3
. Resulta entonces
que x v
2
= 0, es decir, A
2
v
2
= 0, con lo cual v
2
ker(A
2
) = ker(A 3E), luego
podemos tomar por ejemplo v
2
= (0, 1, 0, 1). Notese que en calidad de v
3
podemos
tomar a (0, 0, 0, 1) de tal forma que A
2
(v
3
) = (1, 1, 1, 1). Se tiene entonces que
X
2
:= (0, 1, 0, 1) , (0, 0, 0, 1) , (1, 1, 1, 1) es una base de V
2
. La matriz C es
pues
C =
_
_
0 0 0 1
0 1 0 1
1 0 0 1
1 1 1 1
_
_
, C
1
=
_
_
1 0 1 0
1 1 0 0
1 1 1 1
1 0 0 0
_
_
,
C
1
AC =
_
_
2 0 0 0
0 3 0 0
0 0 3 0
0 0 1 3
_
_
.
4.5. Forma can onica diagonal: valores y vectores
propios
Estudiaremos ahora la forma canonica mas sencilla, pero a su vez muy exigente,
para una transformacion lineal o matriz: la forma diagonal. Al igual que en la for-
ma canonica de Jordan, la diagonalizacion requiere que el polinomio mnimo tenga
un aspecto especial, razon por la cual no todo operador lineal (matriz) ha de ser
diagonalizable.
Denici on 4.5.1. Sea T : V V una transformacion lineal de un espacio V de
dimension nita n 1. Se dice que T es diagonalizable si existe una base X en
V tal que m
X
(T) es una matriz diagonal. Una matriz A de orden n 1 se dice que
es diagonalizable si A es similar a una matriz diagonal.
96 CAP
ONICAS
Corolario 4.5.2. Sea T : V V una transformacion lineal de un espacio V de
dimension nita n 1 y sea X una base cualquiera de V . Entonces, T es diagona-
lizable si, y solo si, m
X
(T) es diagonalizable.
Demostracion. Teniendo en cuenta que matrices que representen la misma transfor-
macion lineal son similares, se tiene el resultado.
Teorema 4.5.3. Sea T : V V una transformacion lineal de un espacio V de
dimension nita n 1. T es diagonalizable si, y solo si, el polinomio mnimo de T
es de la forma
q
T
(x) = (x a
1
) (x a
r
), a
j
K, 1 j r. (4.5.1)
Demostracion. ): sea X una base de V tal que la matriz de T es diagonal, digamos,
m
X
(T) =
_
_
a
1
0
.
.
.
.
.
.
.
.
.
0 a
n
_
_
.
Notese que m
X
(T) es la forma canonica de Jordan de T; ademas, el polinomio
caracterstico de T es p
T
(x) = (x a
1
)
n
1
(x a
r
)
nr
, con a
1
, . . . , a
r
los diferentes
escalares en la diagonal de m
X
(T) y n
j
la multiplicidad de a
j
, 1 j r. Luego el
polinomio mnimo de T es de la forma q
T
(x) = (xa
1
)
k
1
(xa
r
)
kr
, con k
j
1. Si
para lag un j, k
j
2, entonces en la forma de Jordan de T apareceran unos debajo
de la diagonal, por lo tanto k
j
= 1 para cada j.
): si q
T
(x) es como en (4.5.1), entonces la notacion y demostracion del teorema
4.4.5 indican que cada s
jm
j
= 1, pero esto signica que la matriz de Jordan de T es
diagonal, es decir, T es diaginalizable.
En la seccion anterior nos encontramos con el calculo del n ucleo de operadores
de la forma T a i
V
, con T : V V una transformacion lineal y a K un escalar,
as pues, los elementos de este n ucleo son vectores v V tales que T(v) = a v.
Tales vectores ocupan un lugar destacado en algebra lineal clasica y los deniremos a
continuacion. A traves de los valores y vectores propios podemos tambien presentar
otros criterios de diagonalizacion de operadores lineales.
Denici on 4.5.4. Sea T : V V una transformacion de un K-espacio V ; un
escalar a K se dice que es un valor propio de T si existe un vector no nulo
v V tal que T(v) = a v. En tal caso se dice que v es un vector propio de T
perteneciente al valor propio a.
Notese que un vector propio solo puede pertenecer a un solo valor propio.
Ejemplo 4.5.5. Para la transformacion lineal T : R
2
R
2
denida por T[x, y]
T
:=
[2x, 3y]
T
, a = 2 es un valor propio con vector propio [6, 0]
T
; a = 3 es tambien un
valor propio de T con vector propio [0, 2]
T
.
4.5. FORMA CAN
ONICAS
Ejemplo 4.5.10. Sea K[x] el conjunto de polinomios con coecientes en el cuerpo
K, y sea T : V V una transformacion lineal. Entonces para cada polinomio p(x)
K[x] se tiene que si a K es un valor propio de T con vector propio v, entonces
p(a) es un valor propio de p(T) con vector propio v. En tal caso, E(a) ker(p(T))
si a es raz de p(x), y E(a) Im(p(T)) si a no es raz de p(x).
El polinomio caracterstico es un instrumento para determinar los valores propios
de una transformacion lineal.
Proposici on 4.5.11. Sea T : V V una transformacion lineal de un espacio V
de dimension nita n 1 y sea a K. Entonces, a es un valor propio de T si, y
solo si, p
T
(a) = 0.
Demostracion. ) Sea v un vector propio de a, entonces, T(v) = a v, luego (T
a i
V
)(v) = 0, es decir, T a i
V
no es una transformacion inyectiva. Esto implica
que si X es una base cualquiera que jamos en V , entonces m
X
(T a i
V
) tiene
determinante igual a cero, es decir, det(AaE) = 0, donde A es la matriz de T en
la base X. Por lo tanto, p
A
(a) = 0, es decir, a es raz del polinomio caracterstico
de A, o sea del polinomio caracterstico de T.
) Si a es raz de p
T
(x), entonces a es raz de p
A
(x). Por lo tanto, det(A
aE) = 0, luego m
X
(T a i
V
) no es invertible. Esto garantiza que T a i
V
no es
invertible, y en consencuencia no es inyectiva, es decir, existe v no nulo en V tal que
(T a i
V
)(v) = 0, es decir, T(v) = a v. Esto quiere decir que v es vector propio
con valor propia a.
Este resultado es valido para valores a K, podra ocurrir que las races del
polinomio caracterstico no pertenezcan al cuerpo K, por ejemplo, en el caso en
que K sea el cuerpo de n umeros reales y todas las races de p
T
(x) sean complejas,
entonces no tendramos valores propios. Esta situacion no se presenta por supuesto
en cuerpos algebraicamente cerrados.
Corolario 4.5.12. Sea K un cuerpo algebraicamente cerrado y sea T : V V
una transformacion lineal de un K-espacio V de dimension nita n 1, Entonces,
T tiene n valores propios (no necesariamente diferentes) correspondientes a las n
races de su polinomio caracterstico.
No sobra reformular las nociones de valores y vectores propios para matrices. Sea
A una matriz cuadrada de orden n 1, un elemento a K se dice que es un valor
propio de A si existe una matriz columna no nula u = (u
1
, . . . , u
n
)
T
K
n
tal que
Au = a.u . La teora de valores y vectores propios para matrices esta relacionada de
manera obvia con la correspondiente teora para transformaciones lineales.
4.5. FORMA CAN
_
d
1
0
.
.
.
0 d
n
_
_
Esto indica que T(x
1
) = d
1
x
1
, . . . , T(x
n
) = d
n
x
n
. Puesto que los vectores x
1
, . . . , x
n
son no nulos, entonces estos vectores son propios.
) Sea X = x
1
, . . . , x
n
una base de vectores propios. Entonces, existen es-
calares d
1
, . . . , d
n
en K tales que T(x
1
) = d
1
x
1
, . . . , T(x
n
) = d
n
x
n
. Notese que
entonces la matriz de T es la base X es diagonal, y sus elementos diagonales son
precisamente d
1
, . . . , d
n
.
Sea A M
n
(K) una matriz diagonalizable. Entonces existe una matriz invertible
C tal que C
1
AC = D, donde D es una matriz diagonal. La demostracion del
teorema anterior nos da una manera de encontrar la matriz diagonalizante C. En
efecto, sea Y la base canonica de K
n
, entonces sabemos que A es la matriz de una
transformacion T : K
n
K
n
, A = m
Y
(T). Como A es diagonalizable entonces
T es diagonalizable. Seg un la demostracion del teorema anterior, existe una base
X = x
1
, . . . , x
n
en K
n
de vectores propios de T de tal forma que m
X
(T) = D,
donde D es una matriz diagonal. Entonces, D = m
X
(T) = C
1
m
Y
(T)C, donde C
es la matriz de cambio de la base Y a la base X. Es decir, la i-esima columna de C
son los coecientes de la expansion del i-esimo vector x
i
a traves de la base canonica
Y , es decir, las coordenadas del vector columna x
i
. En otras palabras, las columnas
100 CAP
ONICAS
de C son los vectores columna x
1
, . . . , x
n
(notese que seg un el corolario 4.5.14, cada
vector columna x
i
es un vector propio de A).
Corolario 4.5.16. Sea A una matriz cuadrada de orden n 1. Entonces,
(i) A es diagonalizable si y solo si, A tiene n vectores propios l.i.
(ii) Si A tiene n valores propios diferentes, entonces A es diagonalizable.
Demostracion. Consecuencia inmediata de los resultados precedentes.
Proposici on 4.5.17. Sea T : V V una transformacion lineal de un espacio V
de dimension nita n 1. Sean a
1
, . . . , a
r
los valores propios diferentes para T,
1 r n, y E(a
1
), . . . , E(a
r
) los subespacios propios correspondientes. Entonces,
la suma E(a
1
) + +E(a
r
) es directa. En consecuencia,
dim(E(a
1
) E(a
r
)) = dim(E(a
1
)) + + dim(E(a
r
)).
Demostracion. Sean u
1
E(a
1
), . . . , u
r
E(a
r
) tales que u
1
+ + u
r
= 0,
supongase que alguno de estos sumandos es no nulo, y entre ellos sean u
1
, . . . , u
s
, 1
s r los no nulos. Como u
1
, . . . , u
s
son vectores propios correspondientes a valores
propios diferentes, entonces son l.i, pero esto contradice la condicion u
1
+ +u
s
= 0.
Por lo tanto, u
i
= 0, para cada 1 i r.
Podemos probar ahora un criterio de diagonalizacion en terminos del polinomio
caracterstico y de los espacios propios.
Teorema 4.5.18. Sea T : V V una transformacion lineal de un espacio V
de dimension nita n 1. Sean a
1
, . . . , a
r
los valores propios diferentes para T,
1 r n, y E(a
1
), . . . , E(a
r
) los subespacios propios correspondientes. Entonces,
las siguientes condiciones son equivalentes:
(i) T es diagonalizable.
(ii) El polinomio caracterstico de T es de la forma
p
T
(x) = (x a
1
)
n
1
. . . (x a
r
)
nr
,
donde n
i
= dim(E(a
i
)), 1 i r.
(iii) dim(V ) = dim(E(a
1
)) +. . . + dim(E(a
r
)).
(iv) V = E(a
1
) . . . E(a
r
).
4.5. FORMA CAN
constituida por vectores propios. Se ordena esta base de tal manera que los primeros
n
1
vectores correspondan al valor propio a
1
, los siguientes n
2
vectores correspondan
al valor a
2
y as sucesivamente. Entonces claramente la matriz de T en esta base
toma la forma
m
X
(T) =
_
_
a
1
E 0
.
.
.
.
.
.
.
.
.
0 a
r
E
_
_
,
donde a
i
E es una matriz diagonal de orden n
i
,
a
i
E =
_
_
a
i
0
.
.
.
.
.
.
.
.
.
0 a
i
_
_
,
1 i r. El polinomio caracterstico de T es p
T
(x) = (x a
1
)
n
1
(x a
r
)
nr
.
Se vera ahora que n
i
= dim(E(a
i
)). Puesto que gr(p
T
(x)) = n, entonces n =
n
1
+ +n
r
. Por la forma como se ha organizado la base X, se tiene que V = X)
E(a
1
) + + E(a
r
), es decir, V = E(a
1
) + + E(a
r
), luego por la proposicion
4.5.17, n = dim(E(a
1
)) + +dim(E(a
r
)). Se sabe que n
i
dim(E(a
i
)), para cada
1 i r, supongase que existe i tal que n
i
< dim(E(a
i
)), entonces
n = n
1
+ +n
r
< dim(E(a
1
)) + + dim(E(a
r
)) = n.
Esto indica que n
i
= dim(E(a
i
)) para cada 1 i r.
(ii) (iii): dim(V ) = n = n
1
+ +n
r
= dim(E(a
1
)) + + dim(E(a
r
)).
(iii) (iv): dim(V ) = dim(E(a
1
))+ +dim(E(a
r
)) = dim(E(a
1
)+ +E(a
r
)),
de donde , V = E(a
1
) + + (E(a
r
), ademas, por la proposicion 4.5.17, la suma es
directa, es decir, V = E(a
1
) E(a
r
).
d) a) Al reunir las bases de E(a
1
), . . . , E(a
r
) se obtiene una base de V
constituida por vectores propios, lo cual, de acuerdo con el teorema 4.5.15, garantiza
que T es diagonalizable.
Ejemplo 4.5.19. (i) Sea K un cuerpo y sean T : U U, F : V V transforma-
ciones lineales de espacios vectoriales no nulos de dimension nita. Sea a un valor
propio de T con vector propio u y sea b un valor propio de F con vector propio
v. Entonces, ab es un valor propio de T F con vector propio u v. En efecto,
(T F)(u v) = T(u) F(v) = (a u) (b v) = ab (u v). Seg un el corolario
3.1.6, u v es no nulo.
En forma matricial, sean A M
n
(K), B M
m
(K) matrices, a un valor propio
de A con vector columna propio u y b un valor propio de B con vector columna
propio v. Entonces, u v es un vector propio de A B con valor propio ab.
102 CAP
ONICAS
(ii) Sean A M
n
(K), B M
m
(K) matrices diagonalizables, entonces AB es
diagonalizable.
Ejemplo 4.5.20. En este ejemplo mostraremos una aplicacion del producto tenso-
rial de matrices y de la forma canonica de Jordan. Sean A, B y C matrices complejas
de tama nos n n, mm y n m respectivamente. Supongase que para cada valor
propio de A y cada valor propio de B se cumple que + ,= 0. Demostremos
entonces que la ecuacion matricial AX +XB = C tiene solucion unica.
Solucion. Consideremos el C-espacio de matrices rectangulares M
nm
(C), de-
namos la funcion T por
T : M
nm
(C) M
nm
(C)
X AX +XB.
Notemos que T es una transformacion lineal. Para resolver el problema mostraremos
que T es biyectiva, con esto, dada C M
nm
(C) existe una unica X M
nm
(C)
tal que AX +XB = C.
La prueba de la biyectividad de T la haremos a traves de su matriz en la base
canonica A := E
11
, . . . , E
1m
; . . . ; E
n1
, . . . , E
nm
de M
nm
(C), es decir, probaremos
que m
X
(T) es invertible. Notemos entonces que
m
X
(T) =
_
_
a
11
E
m
a
1n
E
m
.
.
.
.
.
.
.
.
.
a
n1
E
m
a
nn
E
m
_
_
+
_
_
B
T
0
.
.
.
.
.
.
.
.
.
0 B
T
_
_
donde E
m
es la identica de orden m y B
T
es la transpuesta de B. Pero,
_
_
a
11
E
m
a
1n
E
m
.
.
.
.
.
.
.
.
.
a
n1
E
m
a
nn
E
m
_
_
= A E
m
,
_
_
B
T
0
.
.
.
.
.
.
.
.
.
0 B
T
_
_
= E
n
B
T
.
De esta forma
m
X
(T) = A E
m
+E
n
B
T
.
Puesto que C es algebraicamente cerrado, existen matrices invertibles F y G de
tama nos n n y mm, respectivamente, tales que F
1
AF = J
1
y G
1
B
T
G = J
2
son matrices de Jordan. Notemos que en la diagonal de J
1
y J
2
estan localizados
4.6. EJERCICIOS 103
los valores propios de A y de B
T
, respectivamente (observemos que los valores
propios de B
T
son los mismos de B). Tenemos
J
1
E
m
=
_
F
1
AF
_
E
m
=
_
F
1
E
m
_
(A E
m
) (F E
m
) ,
E
n
J
2
= E
n
_
G
1
B
T
G
_
=
_
E
n
G
1
_ _
E
n
B
T
_
(E
n
G) ,
donde ademas
_
F
1
E
m
_
= (F E
m
)
1
_
E
n
G
1
_
= (E
n
G)
1
.
De esta forma se tiene que
J
1
E
m
= (F E
m
)
1
(A E
m
) (F E
m
) ,
E
n
J
2
= (E
n
G)
1
_
E
n
B
T
_
(E
n
G) .
Resulta entonces que
(F E
m
)
1
m
X
(T) (F E
m
) = (F E
m
)
1
(A E
m
) (F E
m
)
+(F E
m
)
1
_
E
n
B
T
_
(F E
m
) =
(J
1
E
m
) + (F
1
E
m
)
_
E
n
B
T
_
(F E
m
) =
(J
1
E
m
) +
_
E
n
B
T
_
.
Ahora, (E
n
G)
1
(F E
m
)
1
m
X
(T) (F E
m
) (E
n
G) =
(E
n
G)
1
(J
1
E
m
) (E
n
G) + (E
n
G)
1
_
E
n
B
T
_
(E
n
G) =
(J
1
E
m
) + (E
n
J
2
). En total,
(E
n
G)
1
(F E
m
)
1
m
X
(T) (F E
m
) (E
n
G) = (J
1
E
m
) + (E
n
J
2
) ,
es decir,
(F G)
1
m
X
(T) (F G) = (J
1
E
m
) + (E
n
J
2
) .
Notemos que la matriz (J
1
E
m
) +(E
n
J
2
) es triangular inferior y en su diagonal
estan las sumas de la forma + , las cuales por hipotesis son no nulas, es decir,
esta matriz es invertible, o sea que, m
X
(T) es tambien invertible, y la prueba ha
terminado.
4.6. Ejercicios
1. Sea T : V V una transformacion lineal de un espacio K-espacio V de
dimension nita n 1. Demuestre que T es invertible si, y solo si, el termino
independiente q
0
del polinomio mnimo q
T
(x) es no nulo.
2. Determine la forma canonica de Jordan de la matriz:
104 CAP
ONICAS
_
_
0 0 1 0
0 0 0 1
1 0 0 0
0 1 0 0
_
_
.
3. Calcule la forma de Jordan de la matriz
_
_
5 10 10 5 1
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
_
_
.
4. Sean T
1
, T
2
: V V transformaciones diagonalizables de un espacio V de
dimension nita n 1 tales que T
1
T
2
= T
2
T
1
. Demuestre que existe una base
X en V tal que m
X
(T
1
) y m
X
(T
2
) son diagonales.
5. Sea T : V V una transformacion lineal de un espacio K-espacio V de
dimension nita n 1 tal que T tiene n valores propios diferentes. Calcule el
n umero de subespacios invariantes de T.
6. Sea A = [a
ij
] una matriz cuadrada de orden n 1 tal que su n umero de
entradas nulas es superior a n
2
n. Demuestre que el determinante de A es
igual a cero.
7. Sea A = [a
ij
] una matriz cuadrada invertible de orden n 1. Demuestre que
p
A
1(x) = (x)
n
(det(A))
1
p
A
(x
1
),
donde p
A
(x) denota el polinomio caracterstico de la matriz A.
8. Sea T : V V una transformacion lineal de un K-espacio de dimension
nita n. Suponga que T es diagonalizable y que
1
, . . .
k
son los distintos
valores propios de T, 1 k n. Demuestre que existen transformaciones
lineales T
1
, . . . , T
k
de V tales que:
(i) T =
1
T
1
+ +
k
T
k
(ii) I
V
= T
1
+ +T
k
(iii) T
i
T
j
= 0, para i ,= j
(iv) T
2
i
= T
i
(v) T
i
(V ) = E(
i
), 1 i k.
4.6. EJERCICIOS 105
Demuestre tambien el recproco de esta armacion, es decir, si existen k es-
calares distintos
1
, . . .
k
y k transformaciones lineales T
1
, . . . , T
k
de V , con
k n, que satisfacen (i)-(iii), entonces T es diagonalizable,
1
, . . .
k
son los
valores propios distintos de T y (iv)-(v) tambien se cumplen.
9. Demuestre que cada matriz cuadrada compleja A es similar a su transpuesta
A
T
.
10. Sea A una matriz cuadrada compleja de orden n 1 tal que existe un n umero
natural m para el cual se tiene que A
m
= E. Demuestre que A es diagonalizable
(E denota la matriz identica de tama no n).
11. Sean S, T : V V transformaciones tales que ST = TS. Demuestre que
ker(S) e Im(S) son subespacios T-invariantes.
12. Sea T : V V una transformacion lineal de un espacio V de dimension nita.
Demuestre que existe un entero k tal que:
(a) Para j k se cumple que Im(T
j
) = Im(T
k
) y ker(T
j
) = ker(T
k
).
(b) Im(T
k
) y ker(T
k
) son subespacios T-invariantes y ademas V = Im(T
k
)
N(T
k
).
13. Calcule, usando los resultados del presente captulo, una matriz invertible C
tal que C
1
BC sea una matriz de Jordan, donde
_
_
7 1 2 2
1 4 1 1
2 1 5 1
1 1 2 8
_
_
.
14. Sea T : C
2
C
2
una transformacion lineal con un solo valor propio . De-
muestre que T I es nilpotente.
15. Sea T : V V una transformacion lineal invertible en un espacio V complejo
de dimension nita. Demuestre que existe una transformacion S : V V tal
que S
2
= T (sugerencia: use la forma canonica de Jordan). Se dice que S es la
raz cuadradade T.
16. Encuentre la raz cuadrada de la siguiente matriz
_
_
2 1 1
1 2 1
1 1 2
_
_
.
106 CAP
ONICAS
17. Calcule la forma canonica racional de la transformacion T : R
3
R
3
denida
por T (x, y, z) = (4z, y x + 2z, 3x z).
18. Para la matriz real
A =
_
_
1 1 0 8
1 1 0 4
0 1 0 5
0 0 1 4
_
_
determine:
(a) A es diagonalizable?. En caso armativo, calcule una matriz diagonalizante.
(b) A es diagonalizable en bloques?. En caso armativo calcule una matriz que
la convierta en matriz diagonal en bloques.
(c) La forma racional de A y una matriz racionalizante.
(d) A es diagonalizable en bloques de Jordan?. En caso armativo calcule una
matriz que la diagonalice en bloques de Jordan.
(f) Resuelva (a)-(e) pero considerando A como matriz compleja.
19. Sea A M
n
(K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demuestre que la forma racional de A es la compa nera del polinomio mnimo
de A (en consecuencia, la forma racional de A tiene un solo bloque racional).
20. Sea A M
n
(K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demuestre que A no es diagonalizable en bloques.
21. Determine si las siguientes matrices son diagonalizables. En caso armativo
calcule una matriz que diagonalice:
A =
_
_
0 1 0
0 0 1
1 3 3
_
_
, B =
_
_
1 1 2 3
0 2 2 4
0 0 1 2
0 0 0 2
_
_
.
22. Determine los valores y vectores propios del operador derivacion sobre el es-
pacio R
n
[x]. Es este operador diagonalizable?
23. Sea A una matriz de orden n 1 y p(x) un polinomio cualquiera. Demuestre
que si A es diagonalizable, entonces p(A) es diagonalizable.
24. Sea A = [a
ij
] una matriz de orden n 1 tal que
n
j=1
a
ij
= 1 para cada
1 i n. Demuestre que 1 es un valor propio de A.
Captulo 5
Grupos de matrices
Este captulo esta dedicado a estudiar grupos de matrices sobre anillos. Se asume
que el lector conoce la teora clasica de formas bilineales y formas cuadraticas so-
bre cuerpos ya que aqu construiremos los llamados grupos clasicos sobre anillos,
generalizando dichas formas para anillos no conmutativos con involucion. Ademas,
estudiaremos dos teoremas de Suslin relativos al grupo elemental sobre anillos con-
mutativos.
5.1. Grupos de matrices sobre cuerpos
En esta seccion se enuncian las deniciones y algunas propiedades relativas a grupos
de matrices sobre cuerpos. Aunque algunos de estos grupos y resultados ya haban
sido presentados en captulos anteriores los repertiremos para darle completez al
tema (vease tambien [4]).
5.1.1. El grupo lineal y algunos subgrupos destacados
Si V es un espacio vectorial sobre un cuerpo K, el conjunto de transformaciones
lineales biyectivas de V es un grupo con la composicion de funciones, denominado
grupo lineal general , y se denota por GL(V ). Cuando la dimension del espacio
es nita, dim(V ) = n 1, V se puede identicar con K
n
y el grupo lineal depende
unicamente del cuerpo y la dimension; en este caso GL(V )
= GL
n
(K). As pues,
GL
n
(K) := M
n
(K)
es sobreyectivo y K
_
diag(d
1
, . . . , d
n
) :=
_
_
d
1
0
.
.
.
0 d
n
_
_
M
n
(K) [ d
1
d
n
,= 0
_
_
.
Entonces, D
n
(K) GL
n
(K) y se conoce como el grupo de matrices dia-
gonales de orden n sobre K.
(iii) Sea
T
n
(K) :=
_
_
_
_
f
11
f
1n
.
.
.
.
.
.
0 f
nn
_
_
M
n
(K) [ f
11
f
nn
,= 0, f
ij
= 0 si i > j
_
_
.
Entonces, T
n
(K) GL
n
(K) y se denomina el grupo de matrices triangu-
lares superiores de orden n sobre K. Ademas, D
n
(K) T
n
(K).
(iv) Sea
UT
n
(K) := F T
n
(K) [ f
ii
= 1, 1 i n.
Entonces, UT
n
(K) T
n
(K) SL
n
(K) y se denomina el grupo de matrices
unitriangulares superiores de orden n sobre K.
(iv) Para 1 m n sea UT
m
n
(K) el conjunto de matrices unitriangulares F =
[f
ij
] UT
n
(K) tales que f
ij
= 0 para i < j < i + m, es decir, las primeras
m 1 diagonales consecutivas por encima de la diagonal principal de F son
nulas. Entonces, UT
m
n
(K) UT
n
(K), y ademas
UT
n
(K) = UT
1
n
(K) UT
2
n
(K) UT
n
n
(K) = E.
Usando la notacion de la seccion 1.4 se tienen las siguientes propiedades, donde
E
n
(K) representa el grupo elemental de orden n sobre K denido como el sub-
grupo de GL
n
(K) generado por todas las matrices propiamente elementales, es decir,
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 109
E
n
(K) := T
ij
(a)[1 i, j n, i ,= j, a K).
Proposici on 5.1.1. Sea K un cuerpo. Entonces,
(i) GL
n
(K) se puede generar por matrices propiamente elementales y matrices
diagonales. En forma mas precisa,
GL
n
(K) = T
ij
(a), D
n
(d)[1 i, j n, i ,= j, a K, 0 ,= d K),
GL
n
(K) = SL
n
(K)D
n
(K).
(ii) SL
n
(K) = E
n
(K).
(iii) D
n
(K) = D
i
(d
i
)[0 ,= d
i
K, 1 i n).
(iv) T
n
(K) = T
ij
(a), D
i
(d
i
)[j > i, a K, 0 ,= d
i
, 1 i, j n).
(iv) UT
n
(K) = T
ij
(a)[j > i, a K, 1 i, j n).
(v) UT
m
n
(K) = T
ij
(a)[j i m, a K, 1 i, j n).
(vi)
Z(GL
n
(K)) = a E [ a K
,
Z(SL
n
(K)) = a E [ a K, a
n
= 1.
(vii)
Z(D
n
(K)) = D
n
(K),
Z(T
n
(K)) = C
GLn(K)
=
_
Z(GL
n
(K)), si [K[ 3,
E, T
1n
(1)
= Z
2
, si [K[ = 2.
.
(viii)
[GL
n
(K), GL
n
(K)] = SL
n
(K) si n 3 o n = 2 y [K[ 3,
[GL
2
(Z
2
), GL
2
(Z
2
)]
= Z
3
.
[SL
n
(K), SL
n
(K)] = SL
n
(K) si n 3 o n = 2 y [K[ 4,
[SL
2
(Z
2
), SL
2
(Z
2
)]
= Z
3
, [SL
2
(Z
3
), SL
2
(Z
3
)]
= Q
8
.
(ix)
110 CAP
n1
j=0
(q
n
q
j
), [SL
n
(K)[ =
1
q1
n1
j=0
(q
n
q
j
).
(xi) Si [K[ 3, D
n
(K) GL
n
(K) y D
n
(K) T
n
(K).
(xii) T
n
(K), UT
n
(K) GL
n
(K); UT
n
(K) SL
n
(K).
(xiii) Para 1 m n 1, UT
m
n
(K) GL
n
(K).
(xiv) Para 1 m n, UT
m
n
(K) T
n
(K) y ademas,
E = UT
n
n
(K) UT
n1
n
(K) UT
1
n
(K) = UT
n
(K) T
n
(K).
(xv) GL
n
(K)/SL
n
(K)
= K
.
(xvi) T
n
(K)/UT
n
(K)
= D
n
(K)
= K
. .
n-veces
.
(xvii) UT
m
(K)/UT
m+1
(K)
= K
. .
n m-veces
, 1 m n 1.
(xviii) Para n 3, SL
n
(K) y GL
n
(K) no son solubles. Para n = 2 y [K[ 4,
SL
2
(K) y GL
2
(K) no son solubles.
(xix) SL
2
(Z
3
), SL
2
(Z
2
), GL
2
(Z
3
) y GL
2
(Z
2
) son solubles.
(xx) D
n
(K), T
n
(K) y UT
m
n
(K) son solubles, 1 m n.
Demostracion. Ejercicio para el lector.
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 111
5.1.2. Grupos clasicos
Los llamados grupos clasicos surgen al estudiar formas bilineales y sesquilineales
sobre un espacio vectorial. Nos ocuparemos en esta seccion de estos grupos. Se asume
que el lector conoce la teora clasica de formas bilineales y formas cuadraticas sobre
cuerpos, sin embargo, algunas deniciones y resultados basicos seran recordados.
Si V es un espacio vectorial sobre un cuerpo K, una forma bilineal sobre
V es una funcion f : V V K lineal en ambos argumentos, es decir, f(u
1
+
u
2
, v) = f(u
1
, v) +f(u
2
, v), f(a u, v) = af(u, v), f(u, v
1
+v
2
) = f(u, v
1
) +f(u, v
2
),
f(u, a v) = af(u, v), para cualesquiera u
1
, u
2
, u, v
1
, v
2
, v V , a K. Una forma
bilineal f permite denir la ortogonalidad: si u, v V , u es ortogonal a v (u
v) si, y solo si, f(u, v) = 0. La forma f es simetrica si f(u, v) = f(v, u) para
cualesquiera vectores u, v V ; f se dice antisimetrica si f(u, v) = f(v, u), y f
es alternada si f(u, u) = 0 para cada u V . Notemos que toda forma alternada
es antisimetrica y si char(K) ,= 2, entonces toda forma antisimetrica es alternada.
Si dim(V ) = n y X = x
1
, . . . , x
n
es una base del espacio V , la matriz de la forma
f en la base X es la matriz B := [b
ij
], donde b
ij
:= f(x
i
, x
j
); si u y v se expresan
como u = u
1
x
1
+ +u
n
x
n
y v = v
1
x
1
+ +v
n
x
n
, entonces
f(u, v) = [u
1
u
n
]B[v
1
v
n
]
T
.
Una forma bilineal f es no degenerada si para 0 ,= u V , existe v V tal
que f(u, v) ,= 0, es decir, ning un vector no nulo es ortogonal a todo el espacio (para
u, v V , se dice que u es ortogonal a v, lo cual se denota por u v, si f(u, v) = 0).
Equivalentemente, f es no degenarada si, y solo si, det(B) ,= 0, con B la matriz de
f en cualquier base. Una transformacion T de V preserva f si para cada u, v V ,
f(T(u), T(v)) = f(u, v).
Proposici on 5.1.2. Si dim(V ) = n y f es no degenerada, el conjunto de las trans-
formaciones lineales que preservan f es un grupo con la composicion.
Demostracion. Si S, T preservan f, para cada u, v V se tiene f(ST(u), ST(v)) =
f(T(u), T(v)) = f(u, v) y ST preserva f; obviamente el producto es asociativo y
la transformacion identica preserva cualquier forma. Finalmente, si T preserva f y
u V es tal que T(u) = 0, entonces para cada v V f(u, v) = f(T(u), T(v)) =
f(0, T(v)) = 0 y en consecuencia u = 0 por ser f no degenerada. Por lo tanto, T es
inyectiva, y como la dimension de V es nita, T es invertible y f(T
1
(u), T
1
(v)) =
f(TT
1
(u), TT
1
(v)) = f(u, v), es decir, T
1
tambien preserva f.
La armacion anterior se puede traducir tambien en terminos de matrices, pues
si F es la matriz de T en la base de X, entonces
[u
1
u
n
]B[v
1
v
n
]
T
= f(u, v) = f(T(u), T(v)) = [u
1
u
n
]F
T
BF[v
1
v
n
]
T
;
112 CAP
B :=
_
_
_
0 1
1 0
_
0
_
0 1
1 0
_
.
.
.
0
_
0 1
1 0
_
_
_
.
Notese que la dimension n de V es entonces siempre par. Se tiene pues que
Sp
n
(K) := F GL
n
(K)[F
T
BF =
B.
114 CAP
= B, con B
:= (B)
T
:= [b
ij
]
T
, denominada la
trasjugada de B (las matrices complejas que coinciden con su trasjugada se de-
nominan hermitianas). El grupo de transformaciones que preservan f se denomina
grupo unitario y se denota por U(V, f). Al igual que en el caso ortogonal, este
grupos se pueden tambien describir matricialmente: si F es la matriz de T U(V, f)
en la base de X, entonces
[u
1
u
n
]B[v
1
v
n
]
T
= f(u, v) = f(T(u), T(v)) = [u
1
u
n
]F
BF[v
1
v
n
]
T
;
consecuentemente T preserva f si, y solo si, B = F
BF. As pues,
U(V, f) = F GL
n
(K)[F
BF = B.
Adicionalmente, notemos que como f es no degenerada, det(B) ,= 0 de manera que
det(F) = 1, i.
Si en particular B = E, entonces se tiene el grupo unitario de orden n sobre
C, denotado U
n
(C), y conformado por las matrices unitarias, es decir,
5.2. GRUPOS DE MATRICES SOBRE ANILLOS 115
U
n
(C) := F GL
n
(C)[F
F = E.
Notemos que O
n
(R) = U
n
(R).
Observaci on 5.1.7. Notemos que si B M
n
(C) es una matriz cualquiera, no
necesariamente invertible, entonces tambien se pueden denir subgrupos de GL
n
(C)
de la siguiente manera:
U(B) := F GL
n
(C)[F
BF = B.
5.2. Grupos de matrices sobre anillos
Sea A un anillo arbitrario, el grupo lineal general de orden n sobre A fue presentado
en la denicion 1.3.1 y esta constituido por las matrices invertibles del anillo M
n
(A),
es decir, recordemos que
GL
n
(A) := F M
n
(A)[A es invertible = M
n
(A)
.
Los subgrupos E
n
(A), D
n
(A), T
n
(A), UT
n
(A) y UT
m
n
(A) se denen en forma analoga
a como vimos antes para cuerpos; en los casos de D
n
(A) y T
n
(A) se debe asumir
que d
1
, . . . , d
n
, f
11
, . . . , f
nn
A
= Z(A)
E.
Demostracion. Es evidente que aE con a Z(A)
:
(i) T
ij
(a)T
ij
(b) = T
ij
(a +b).
(ii) Para i ,= l y k ,= j, T
ij
(a)T
kl
(b) = T
kl
(b)T
ij
(a).
(iii) [T
ik
(a), T
kj
(b)] = T
ij
(ab). Ademas, si i ,= l y k ,= j, [T
ij
(a), T
kl
(b)] = E.
(iv) D
i
(u)D
j
(v) = D
j
(v)D
i
(u) si i ,= j, y D
i
(u)D
i
(v) = D
i
(uv).
(v) D
i
(u)T
ij
(a) = T
ij
(ua)D
i
(u), D
i
(u)T
ji
(a) = T
ji
(au
1
)D
i
(u). Ademas, para j ,=
i y k ,= i, D
i
(u)T
jk
(a) = T
jk
(a)D
i
(u).
Demostracion. (i) T
ij
(a)T
ij
(b) = (E + a E
ij
)(E + b E
ij
) = E + a E
ij
+ b E
ij
=
E + (a +b) E
ij
= T
ij
(a +b).
(ii) T
ij
(a)T
kl
(b) = (E +a E
ij
)(E +b E
kl
) = E +a E
ij
+b E
kl
y T
kl
(b)T
ij
(a) =
(E +b E
kl
)(E +a E
ij
) = E +b E
kl
+a E
ij
.
(iii) [T
ik
(a), T
kj
(b)] = (E + a E
ik
)(E + b E
kj
)(E a E
ik
)(E b E
kj
) =
(E + a E
ik
+ b E
kj
+ ab E
ij
)(E a E
ik
b E
kj
+ ab E
ij
) = E a E
ik
b
E
kj
+ab E
ij
+a E
ik
ab E
ij
+b E
kj
+ab E
ij
= E +ab E
ij
= T
ij
(ab).
Usando (ii) y (i) se tiene que
[T
ij
(a), T
kl
(b)] = T
ij
(a)T
kl
(b)T
ij
(a)T
kl
(b) = T
kl
(b)T
ij
(a)T
ij
(a)T
kl
(b) =
T
kl
(b)T
kl
(b) = E.
(iv) D
i
(u)D
j
(v) = (E+(u1) E
ii
)(E+(v 1) E
jj
) = E+(u1) E
ii
+(v 1) E
jj
y D
j
(v)D
i
(u) = (E+(v 1) E
jj
)(E+(u1) E
ii
) = E+(v 1) E
jj
+(u1) E
ii
.
D
i
(u)D
i
(v) = (E+(u1)E
ii
)(E+(v1)E
ii
) = E+(u1+v1+uvvu+1)E
ii
=
E + (uv 1) E
ii
= D
i
(uv).
(v) D
i
(u)T
ij
(a) = (E+(u1) E
ii
)(E+a E
ij
) = E+a E
ij
+(u1) E
ii
+(u
1)a E
ij
= E+(u1) E
ii
+ua E
ij
y T
ij
(ua)D
i
(u) = (E+ua E
ij
)(E+(u1) E
ii
) =
E + (u 1) E
ii
+ua E
ij
.
D
i
(u)T
ji
(a) = (E + (u 1) E
ii
)(E + a E
ji
) = E + (u 1) E
ii
+ a E
ji
y
T
ji
(au
1
)D
i
(u) = (E +au
1
E
ji
)(E +(u1) E
ii
) = E +(u1) E
ii
+au
1
E
ji
+
(a au
1
) E
ji
= E + (u 1) E
ii
+a E
ji
.
D
i
(u)T
jk
(a) = (E + (u 1) E
ii
)(E + a E
jk
) = E + (u 1) E
ii
+ a E
jk
, y
T
jk
(a)D
i
(u) = (E +a E
jk
)(E + (u 1) E
ii
) = E + (u 1) E
ii
+a E
jk
.
Corolario 5.2.3. Si n 3,
[E
n
(A), E
n
(A)] = E
n
(A).
Demostracion. [E
n
(A), E
n
(A)] E
n
(A); recprocamente, si T
ij
(a) E
n
(A), como
n 3, sea k ,= i, k ,= j entonces T
ij
(a) = T
ij
(a1) = [T
ik
(a), T
kj
(1)] [E
n
(A), E
n
(A)].
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 117
5.3. El grupo elemental sobre anillos conmuta-
tivos
Sea R un anillo conmutativo, vimos en (2.3.6) que E
n
(R) SL
n
(R) GL
n
(R).
Surgen entonces dos preguntas de manera natural: E
n
(R) GL
n
(R)? y E
n
(R) =
SL
n
(R)? En esta seccion vamos a estudiar estas dos preguntas.
5.3.1. Teorema de normalizaci on de Suslin
Para n 3 la primera pregunta planteada anteriormente tiene respuesta positiva y
el resultado fue demostrado por A. A. Suslin, el cual es conocido como el teorema
de normalizacion de Suslin (vease [12]). La prueba constructiva de este teorema
presentada a continuacion ha sido adaptada de [10], vease tambien [11].
Denici on 5.3.1. Sean R un anillo conmutativo y n 2. Una matriz de Cohn
es una matriz de la forma
E +av(v
j
e
i
v
i
e
j
),
donde i < j, i, j 1, . . . , n, a R y
v := [v
1
v
n
]
T
R
n
.
Proposici on 5.3.2 (Mennicke). Para n 3, cualquier matriz de Cohn se puede
factorizar en un producto nito de matrices elementales.
Demostracion. Primero consideremos el caso i = 1, j = 2, entonces
B = E +a
_
_
v
1
.
.
.
v
n
_
_
_
v
2
, v
1
, 0, . . . , 0
=
_
_
1 +av
1
v
2
av
2
1
0 0
av
2
2
1 av
1
v
2
0 0
av
3
v
2
av
3
v
1
.
.
.
.
.
. E
n2
av
n
v
2
av
n
v
1
_
_
=
_
_
1 +av
1
v
2
av
2
1
0 0
av
2
2
1 av
1
v
2
0 0
0 0
. .
. . E
n2
. .
0 0
_
_
n
l=3
T
l1
(av
l
v
2
)T
l2
(av
l
v
1
).
118 CAP
_
_
1 +av
1
v
2
av
2
1
v
1
av
2
2
1 av
1
v
2
v
2
0 0 1
_
_
C
1
C
1
av
2
C
3
_
_
1 av
2
1
v
1
0 1 av
1
v
2
v
2
av
2
0 1
_
_
C
2
C
2
+av
1
C
3
_
_
1 0 v
1
0 1 v
2
av
2
av
1
1
_
_
F
3
F
3
+av
2
F
1
_
_
1 0 v
1
0 1 v
2
0 av
1
1 +av
1
v
2
_
_
C
3
C
3
v
1
C
1
_
_
1 0 0
0 1 v
2
0 av
1
1 +av
1
v
2
_
_
F
3
F
3
av
1
F
2
_
_
1 0 0
0 1 v
2
0 0 1
_
_
F
2
F
2
v
2
F
3
_
_
1 0 0
0 1 0
0 0 1
_
_
Escribiendo las operaciones elementales anteriores, tenemos
A = T
13
(v
1
)T
23
(v
2
)T
31
(av
2
)T
32
(av
1
)T
13
(v
1
)T
23
(v
2
)T
31
(av
2
)T
32
(av
1
).
En general, para i < j arbitrarios
B = E +a
_
_
v
1
.
.
.
v
n
_
_
_
0, . . . , v
j
, 0, . . . , v
i
, 0, . . . , 0
_
1 . . . av
1
v
j
. . . av
1
v
i
. . . 0
.
.
.
.
.
.
.
.
. 0
1 +av
i
v
j
av
2
i
.
.
.
.
.
.
av
2
j
1 av
i
v
j
.
.
.
.
.
.
av
n
v
j
av
n
v
i
1
_
_
=
_
_
1 . . . 0 . . . 0 . . . 0
.
.
.
.
.
.
.
.
. 0
1 +av
i
v
j
av
2
i
.
.
.
.
.
.
av
2
j
1 av
i
v
j
.
.
.
.
.
.
0 0 1
_
1ln
l=i,j
T
li
(av
l
v
j
)T
lj
(av
l
v
i
)
= T
it
(v
i
)T
jt
(v
j
)T
ti
(av
j
)T
tj
(av
i
)T
it
(v
i
)T
jt
(v
j
)T
ti
(av
j
)T
tj
(av
i
)
1ln
l=i,j
T
li
(av
l
v
j
)T
lj
(av
l
v
i
),
donde t es cualquier ndice que cumpla t 1, . . . , n i, j.
Denici on 5.3.3. Sean R un anillo conmutativo y n 1; v = [v
1
, , v
n
]
T
R
n
es un vector columna unimodular si sus componentes generan a R, es decir,
existen u
1
, . . . , u
n
tales que v
1
u
1
+ +v
n
u
n
= 1. Un vector la unimodular se
dene de manera similar.
Lema 5.3.4. Sean R un anillo conmutativo y A GL
n
(R), con n 3. Supongase
que A se puede escribir en la forma A = E+vw, con v un vector columna unimodular
y w un vector la sobre R tales que wv = 0. Entonces, A E
n
(R).
Demostracion. Sea v := [v
1
v
n
]
T
unimodular, existen g
1
, . . . , g
n
R tales que
v
1
g
1
+ +v
n
g
n
= 1; esto combinado con wv = w
1
v
1
+ +w
n
v
n
= 0 proporciona
una nueva expresion para w,
w =
i<j
a
ij
(v
j
e
i
v
i
e
j
),
120 CAP
i<j
a
ij
(v
j
e
i
v
i
e
j
))
= E +
i<j
va
ij
(v
j
e
i
v
i
e
j
)
=
i<j
(E +va
ij
(v
j
e
i
v
i
e
j
)).
Cada factor del lado derecho de la ultima ecuacion en una matriz de Cohn, luego se
pueden escribir como un producto de matrices elementales, con lo cual A tambien
es un producto de matrices elementales.
Lema 5.3.5. Sean R un anillo conmutativo y n 3. BT
ij
(a)B
1
E
n
(R), para
cada a R y B GL
n
(R).
Demostracion. Para una matriz A, denotemos por A
(i)
su la i y por A
(j)
su columna
j, entonces
BT
ij
(a)B
1
= E +B
(i)
a(B
1
)
(j)
.
Sea v := B
(i)
y w := a(B
1
)
(j)
, entonces (B
1
)
(i)
v = 1, luego v es unimodular,
ademas wv = 0 ya que i ,= j. Por lo tanto, BT
ij
(a)B
1
= E + vw satisface la
condicion del lema 5.3.4, as que se puede escribir como un producto de matrices
elementales.
Teorema 5.3.6 (Suslin). Sea R un anillo conmutativo. Para n 3, E
n
(R)
GL
n
(R). En particular, E
n
(R) SL
n
(R).
Demostracion. Sea A GL
n
(R) y F E
n
(R). Entonces el lemma 5.3.5 da un
procedimiento para encontrar matrices propiamente elementales T
1
, . . . , T
t
tales que
AFA
1
= T
1
T
t
.
5.3.2. Teorema de estabilidad de Suslin
Estudiaremos ahora la segunda pregunta planteada al inicio de la presente seccion.
Desafortunadamente existen anillos conmutativos en los que E
n
(R) ,= SL
n
(R). En
[10] se prueba que si K un cuerpo, la matriz
A :=
_
1 +xy x
2
y
2
1 xy
_
SL
2
(K[x, y])
no se puede factorizar como un producto de matrices elementales (vease tambien
[11]). No obstante, existen diversos anillos conmutativos en los que la igualdad se
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 121
tiene, por ejemplo en el anillo de polinomios con m indeterminadas K[x
1
, . . . , x
m
]
sobre el cuerpo K; en el anillo de funciones reales continuas; en los dominios eucli-
dianos (por ejemplo Z y los polinomios K[x] sobre un cuerpo K); en los anillos con
rango estable uno (anillos locales y semilocales).
A continuacion se presenta detalladamente la demostracion de la igualdad en los
dos ultimos casos mencionados. Cabe anotar que dichas demostraciones son cons-
tructivas. Iniciamos con la siguiente proposicion de caracter general.
Proposici on 5.3.7. Sea A un anillo arbitrario y n 2. Si toda matriz de GL
n
(A)
se puede expresar como producto de matrices elementales y diagonales, entonces
GL
n
(A) = E
n
(A)GL
n1
(A). Si ademas A = R es conmutativo, entonces E
n
(R) =
SL
n
(R).
Observaci on 5.3.8. Aqu se considera GL
n1
(A) como un subgrupo de GL
n
(A)
mediante la inclusion natural M
_
1 0
0 M
_
.
Demostracion. (i) Claramente E
n
(A)GL
n1
(A) GL
n
(A). Sea pues M GL
n
(A);
por hipotesis M se puede expresar como producto de matrices elementales T
ij
(a),
i ,= j, a A, y diagonales D
i
(u), u A
_
d
1
0
.
.
.
0 d
n
_
_
=
diag(d
1
, . . . , d
n
), donde cada d
i
A
, 1 i n. Sea u A
y consideremos las
siguientes operaciones sobre las y columnas:
_
u
1
0
0 u
T
21
(1)
_
u
1
0
u
1
u
T
12
(1)
_
0 u
u
1
u
T
21
(1)
_
0 u
u
1
0
T
12
(u)
_
1 u
u
1
0
T
12
(u)
_
1 0
u
1
1
.
As,
_
u
1
0
0 u
= T
21
(1)T
12
(1)T
21
(1)T
12
(u)T
21
(u
1
)T
12
(u) y, por lo tanto,
diag(d
1
1
, d
1
, 1, . . . , 1) = T
2
es producto de elementales. Pero diag(d
1
1
, d
1
, 1, . . . , 1)D = diag(1, d
1
d
2
, d
3
. . . , d
n
),
luego D = T
1
2
diag(1, d
1
d
2
, d
3
, . . . , d
n
); en consecuencia,
M = T
1
D = T
1
T
1
2
diag(1, d
1
d
2
, d
3
, . . . , d
n
) = T
3
diag(1, d
1
d
2
, . . . , d
n
)
con T
3
= T
1
T
1
2
E
n
(A) y diag(1, d
1
d
2
, d
3
, . . . , d
n
) GL
n1
(A) (con inversa
diag(1, d
1
2
d
1
1
, d
1
3
, . . . , d
1
n
)). Tenemos entonces que GL
n
(A) E
n
(A)GL
n1
(A).
122 CAP
diag(1, 1, . . . , 1, d
1
d
2
d
n
)). Sea N SL
n
(R), entonces
N GL
n
(R) = E
n
(R)GL
n1
(R), es decir, N = Tdiag(1, 1, . . . , 1, u) = TD
n
(u) con
u R
y T E
n
(R). De este modo det(N) = u, y como N SL
n
(R), necesari-
amente u = 1, D
n
(u) = E y N = T es producto de elementales. Por lo tanto,
E
n
(R) = SL
n
(R).
Lema 5.3.9. Sea R un dominio euclidiano con funcion euclidiana y sea n
2. Si :=
_
a
1
a
2
a
n
R
n
, entonces existe T E
n
(R) tal que T =
_
a 0 0
para cierto a R.
Demostracion. Si = 0, basta tomar a = 0 y T = E. Supongase ,= 0; entonces
(a
k
) [ a
k
,= 0 es un subconjunto no vaco de N. Sea m() := mn(a
k
) [ a
k
,= 0
y sea i el menor de los ndices tales que m() = (a
i
). Si j ,= i es tal que a
j
,= 0, exis-
ten q
j
, r
j
R tales que a
j
= a
i
q
j
+r
j
, donde r
j
= 0 o (r
j
) < (a
i
). As, T
ij
(q
j
) =
_
a
1
a
i
a
j
a
i
q
j
a
n
=
_
a
1
a
i
r
j
a
n
. Repitien-
do esta operacion para cada j ,= i con a
j
,= 0 se obtiene
:= T
1
=
_
a
1
a
donde a
i
= a
i
, y para j ,= i, a
j
= a
j
si a
j
= 0 y a
j
= r
j
si a
j
,= 0. Si a
j
= 0 para
cada j ,= i, hemos terminado: en efecto, si i = 1, T
1
=
=
_
a
1
0 0
; si
i ,= 1 tenemos
T
i1
(1)T
1i
(1) =
_
a
i
0 0
= T
1
T
i1
(1)T
1i
(1). Ahora, si para
alg un j ,= i se tiene a
j
,= 0, entonces m(
) (a
j
) = (r
j
) < (a
i
), de donde resulta
m(
, en un n umero nito
de pasos obtenemos que todos los residuos son nulos, y por lo tanto el resultado
buscado.
Proposici on 5.3.10. Si R es un dominio euclidiano y n 2, toda matriz de
GL
n
(R) se puede expresar como producto de matrices elementales y diagonales.
Demostracion. (i) Sea M GL
n
(R), n 2. Por el lema 5.3.9, existe T E
n
(R) tal
que
MT =
_
_
m 0 0
m
2
.
.
.
M
m
n
_
_
,
donde
M M
n1
(R). Pero M es invertible, luego det(M) R
y como det(M) =
det(MT) = mdet(
M) R
y por tanto,
M GL
n1
(R).
As,
MTD
1
(m
1
) =
_
_
1 0 0
m
2
.
.
.
M
m
n
_
_
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 123
y,
T
n1
(m
n
) T
21
(m
2
)MTD
1
(m
1
) =
_
_
1 0 0
0
.
.
.
M
0
_
_
.
(ii) Probaremos ahora la armacion por induccion sobre n.
(a) Si n = 2, por (i) se tiene T
21
(m
2
)MTD
1
(m
1
) =
_
1 0
0 m
_
= D
2
( m), dado que
m = det(
M) R
, y entonces M = T
21
(m
2
)D
2
( m)D
1
(m)T
1
es un producto
de matrices elementales y diagonales.
(b) Supongase que la armacion es valida para n = k 1, k 3, y sea M
GL
k
(R). Nuevamente por (i),
M = T
21
(m
2
) T
k1,1
(m
k1
)
_
1 0
0
M
_
D
1
(m)T
1
,
con
M GL
k1
(R). Por hipotesis de induccion,
M se puede expresar como
producto de matrices elementales y diagonales de orden k 1; pero dichas
matrices pueden considerarse como elementales y diagonales de orden k y de
ello se sigue la armacion.
Corolario 5.3.11. Si R es un dominio euclidiano y n 2, entonces E
n
(R) =
SL
n
(R).
Demostracion. Consecuencia directa de las proposiciones 5.3.10 y 5.3.7.
Denici on 5.3.12. Sea A un anillo. Se dice que A tiene rango estable uno si
para cada a, b A tales que a, b) = A existe c A tal que a +cb A
.
Proposici on 5.3.13. Si A es un anillo con rango estable uno, toda matriz de
GL
n
(A), n 2, se puede expresar como producto de matrices elementales y dia-
gonales.
Demostracion. (i) Sea M := [m
ij
] GL
n
(A), n 2. Como M
1
M = E, existen
r
1
, . . . , r
n
A tales que r
1
m
11
+ + r
n
m
n1
= 1; as, para cada a A tenemos
a = (ar
1
)m
11
+ a(r
2
m
21
+ + r
n
m
n1
), es decir, A = m
11
, r
2
m
21
+ + r
n
m
n1
).
124 CAP
. Ahora,
M
1
:= T
12
(cr
2
)T
13
(cr
3
) T
1n
(cr
n
)M =
_
_
u m
12
m
1n
m
21
m
22
m
2n
.
.
.
.
.
.
.
.
.
m
n1
m
n2
m
nn
_
_
;
pero u A
, luego
M
2
:= T
n1
(m
n1
u
1
) T
31
(m
31
u
1
)T
21
(m
21
u
1
)M
1
=
_
_
u m
12
m
1n
0 m
22
m
2n
.
.
.
.
.
.
.
.
.
0 m
n2
m
nn
_
_
,
y,
M
3
: = M
2
T
12
(m
12
u
1
)T
13
(m
13
u
1
) T
1n
(m
1n
u
1
)M
=
_
_
u 0 0
0 m
22
m
2n
.
.
.
.
.
.
.
.
.
0 m
n2
m
nn
_
_
=
_
1 0
0
M
_
D
1
(u),
donde
M M
n1
(A). De este modo obtenemos M = T
1
_
1 0
0
M
_
D
1
(u)T
2
con
T
1
:= T
1n
(cr
n
) T
12
(cr
2
)T
21
(m
21
u
1
) T
n1
(m
n1
u
1
) E
n
(A)
y,
T
2
:= T
1n
(m
1n
u
1
) T
12
(m
12
u
1
) E
n
(A).
Como M, T
1
, D
1
(u) y T
2
son elementos de GL
n
(A), necesariamente
_
1 0
0
M
_
es in-
vertible y por lo tanto
M GL
n1
(A).
(ii) Demostraremos ahora la armacion haciendo induccion sobre n.
(a) Si n = 2, por (i) se tiene M = T
1
_
1 0
0 m
D
1
(u)T
2
= T
1
D
2
( m)D
1
(u)T
2
, dado que
m A
.
(b) Supongase el resultado valido para n = k 1, k 3, y sea M GL
k
(A).
Por (i), M = T
1
_
1 0
0
M
_
D
1
(u)T
2
, donde
M GL
k1
(A); por hipotesis de
induccion,
M es producto de matrices elementales y diagonales de orden k
1 que pueden considerarse de orden k; en consecuencia, M es producto de
matrices elementales y diagonales.
5.4. GRUPOS CL
= a
+b
(ii) (ab)
= b
(iii) (a
= a
para cada a, b A.
Los ejemplos mas conocidos de involuciones son la trasposicion en M
n
(A) y la
conjugacion en C.
Proposici on 5.4.2. La identidad es una involucion en A si, y solo si, A es un
anillo conmutativo.
Demostracion. La identidad siempre satisface (i) y (iii), y satisface (ii) si, y solo si,
A es conmutativo.
Proposici on 5.4.3. Sea una involucion en el anillo A.
(i) 0
= 0 y 1
= 1.
(ii) Para cada a A, (a)
= a
; y si a A
, (a
1
)
= (a
)
1
.
(iii) Si a
= a, entonces (a)
= a; y si a A
, (a
1
)
= a
1
.
(iv) Si a Z(A), tambien a
Z(A).
126 CAP
= (0 + 0)
= 0
+ 0
, luego 0
1 =
1
(1
= (1
1)
= (1
= 1 de donde 1
= 1.
(ii) (a)
+ a
= (a + a)
= 0
= 0, luego (a)
= a
. Analogamente,
(a
1
)
= (aa
1
)
= 1
= 1 y a
(a
1
)
= (a
1
a)
= 1
= 1, de manera que a
con inverso (a
1
)
.
(iii) Seg un (ii), (a)
= a
y (a
1
)
= (a
)
1
.
(iv) Sea b A; entonces a
b = a
(b
= (b
a)
= (ab
= (b
= ba
, luego
a
Z(A).
Denici on 5.4.4. Sean A un anillo y una involucion en A. Dada una matriz
F := [f
ij
] M
mn
(A), la matriz trasjugada de F respecto a es F
:= [f
ji
]
M
nm
(A).
Es decir, F
= F
T
.
Proposici on 5.4.5. Sea una involucion en el anillo A. Si F := [f
ij
] M
lm
(A),
G := [g
ij
] M
np
(A) y a A, entonces
(i) (F +G)
= F
+G
siempre que l = n y m = p.
(ii) (GF)
= G
siempre que m = n.
(iii) (F
= F.
(iv) (a F)
= F
.
(v) (F
1
)
= (F
)
1
siempre que l = m y F sea invertible
Demostracion. (i) Evidente.
(ii) Sea FG := [b
ij
], entonces b
ij
=
n
k=1
f
ik
g
kj
, y la entrada (i, j) de (FG)
es
(b
ji
)
= (
n
k=1
f
jk
g
ki
)
n
k=1
g
ki
f
jk
. Por otro lado, si G
= [c
ij
] y F
= d
ij
(de
manera que c
ij
= g
ji
y d
ij
= f
ji
), entonces la entrada (i, j) de G
es
n
k=1
c
ik
d
kj
=
n
k=1
g
ki
f
jk
y as (FG)
= G
.
(iii) Evidente.
(iv) La entrada (i, j) de (a F)
es (af
ji
)
= f
ji
a
.
(v) F
(F
1
)
= (F
1
F)
= E
= E. Analogamente, (F
1
)
= (FF
1
)
=
E
= E, de modo que F
)
1
= (F
1
)
.
Denici on 5.4.6. Sea A un anillo con unidad, una involucion en A y Z(A)
tal que
= 1.
(i) F M
n
(A) es alternada si existe F
1
M
n
(A) tal que F = F
1
F
1
5.4. GRUPOS CL
.
(iii) F M
n
(A) es antihermitiana si F = F
.
La alternancia depende de y de la involucion; notese que por lo menos = 1 y
= 1 satisfacen
1
; entonces F
= (F
1
1
)
= (F
1
F
1
) = (F
F
1
) = F
1
+
F
1
= F
1
F
1
= F.
As, F = F
y F es antihermitiana.
Proposici on 5.4.8. Sea A un anillo tal que 2A = A.
(i) F M
n
(A) es alternada si, y solo si, es antihermitiana.
(ii) Si F M
n
(A) es hermitiana y antihermitiana, entonces F = 0.
Demostracion. 2A = A signica que 1 + 1 A
. Si 2 = 1 + 1,
2
= (1 + 1)
= 1
+ 1
= 1 + 1 = 2; por hipotesis 2 A
, luego (2
1
)
= 2
1
y as F = 2
1
[(1 + 1) F] = 2
1
(F F
) = (2
1
F) (2
1
F
) =
(2
1
F) (F 2
1
)
= (2
1
F) (2
1
F)
ya que 2
1
Z(A). Como
F = (2
1
F) (2
1
F)
, entonces F es alternada.
(ii) Dado que F es antihermitiana, F
F
T
1
)X
T
= XF
1
X
T
XF
T
1
X
T
= XF
1
X
T
(XF
1
X
T
)
T
, pero XF
1
X
T
M
1
(A) es
igual a su traspuesta luego XFX
T
= 0.
): sea F := [f
ij
] M
n
(A) tal que XFX
T
= 0 para cada X M
1n
(A). Sea X
i
la matriz la con 1 en la entrada i-esima y 0 en las demas; entonces X
i
FX
T
i
= f
ii
= 0
para 1 i n. Para i ,= j, sea X
ij
la matriz la con 1 en las entradas i, j y 0
en las restantes; tenemos X
ij
FX
T
ij
= f
ij
+ f
ii
+ f
ji
+ f
jj
= f
ij
+ f
ji
y f
ji
= f
ij
(1 i ,= j n), de manera que F es antisimetrica. Finalmente, F
1
:= [b
ij
] se dene
de la siguiente forma: b
ij
:= 0 para i j y b
ij
:= f
ij
para i > j; as, F = F
1
F
T
1
ya que F
1
es la mitad inferior de F, y de esta manera F es alternada.
128 CAP
FM = F es un subgrupo de GL
n
(A).
(ii) M GL
n
(A) [ r
M
Z(A)
, M
FM = r
M
F es un subgrupo de GL
n
(A).
Demostracion. (i) Como E
= E GL
n
(A) y E
FE = EFE = E, el conjunto no
es vaco. Si M, N satisfacen M
FM = F y N
FN = F entonces
(MN)
F(MN) = N
(M
FM)N = N
FN = F,
(M
1
)
FM
1
= (M
1
)
(M
FM)M
1
= (MM
1
)
F(MM
1
) = E
FE = F,
por lo tanto el conjunto resulta ser un subgrupo de GL
n
(A).
(ii) E pertenece al conjunto, considerando en este caso r
E
= 1. Si M, N son
tales que M
FM = r
M
F y N
FN = r
N
F con r
M
, r
N
elementos invertibles
del centro de A, entonces (MN)
F(MN) = N
(M
FM)N = N
(r
M
F)N =
r
M
N
FN = r
M
(r
N
F) = r
M
r
N
F con r
M
r
N
Z(A)
, y (M
1
)
FM
1
=
(M
1
)
[r
1
M
M
FM]M
1
= r
1
M
(M
1
)
FMM
1
= r
1
M
F con r
1
M
Z(A)
.
Denici on 5.4.11. Sean una involucion en A y F M
n
(A).
(i) El grupo unitario correspondiente a F es
U(F) := M GL
n
(A) [ M
FM = F.
(ii) El grupo de similitudes correspondiente a F es
GU(F) := M GL
n
(A) [ (r
M
Z(A)
, M
FM = r
M
F;
r
M
se denomina multiplicador de M GU(F).
Por consiguiente, U(F) es el subgrupo de GU(F) constituido por las matrices de
multiplicador 1.
Proposici on 5.4.12. Sea una involucion en A, Z(A) tal que
= 1 y
Q M
n
(A). Entonces X := M GL
n
(A) [ M
QM Q es alternada es un
subgrupo de GL
n
(A).
Demostracion. Como la matriz nula es alternada (0 = 0 0
) E X y X ,= .
Si M, N X, entonces M
QM Q = M
1
M
1
y N
QN Q = N
1
N
1
para ciertas M
1
, N
1
M
n
(A). Ahora, (MN)
Q(MN) Q = N
(M
QM)N Q =
N
(Q + M
1
M
1
)N Q = N
QN Q + N
(M
1
M
1
)N = N
1
N
1
+N
M
1
N N
1
N = (N
1
+N
M
1
N) (N
1
+N
M
1
N)
es alternada, de
modo que MN X. Por otro lado, QM (M
1
)
Q = (M
1
)
M
1
(M
1
)
1
,
luego Q(M
1
)
QM
1
= (M
1
)
M
1
M
1
(M
1
)
1
M
1
, y en consecuencia
(M
1
)
QM
1
Q = [(M
1
)
1
M
1
][(M
1
)
1
M
1
]
, luego M
1
X.
5.4. GRUPOS CL
= 1. Si
Q M
n
(A), el grupo ortogonal correspondiente a Q es
O(Q) := M GL
n
(A) [ M
QM Q es alternada .
En el caso particular de los anillos conmutativos se tienen otros dos grupos
clasicos.
Denici on 5.4.14. Sean R un anillo conmutativo y una involucion en R.
(i) Sea F M
n
(R). El grupo unitario especial correspondiente a F es
SU(F) := U(F) SL
n
(R).
(ii) Sea Q M
n
(R). El grupo ortogonal especial correspondiente a Q es
SO(Q) := O(Q) SL
n
(R).
Proposici on 5.4.15. En las condiciones de la anterior denicion se tiene:
(i) SU(F) U(F).
(ii) SO(Q) O(Q).
Demostracion. Sean M SU(F) (respectivamente SO(Q)) y N U(F) (respecti-
vamente O(Q)); entonces det(N
1
MN) = det(M) = 1.
Para terminar veamos que los grupos clasicos introducidos en esta seccion corres-
ponden a aquellos que vimos para cuerpos en la subseccion 5.1.2. Sea K un cuerpo,
para los grupos ortogonales se toma la identidad como involucion y Q simetrica,
de manera que para cada matriz M se tiene que M
= M
T
y si M O(Q),
entonces (M
T
QM Q)
T
= M
T
Q
T
M Q
T
= M
T
QM Q, es decir, M
T
QM Q
es simetrica, pero por denicion de O(Q) esta matriz tambien es alternada, por
lo tanto antisimetrica. En consecuencia, si 1 + 1 ,= 0 en K, se tiene M
T
QM
Q = 0 (proposicion 5.4.8) luego O(Q) = M GL
n
(K)[M
T
QM = Q = U(Q),
y este grupo coincide con el grupo ortogonal denido en la subseccion 5.1.2. Si
ademas se toma Q invertible, det(M) = 1 y SU(Q) es el subgrupo de matrices
de determinante positivo, de ah que en algunas ocasiones se utilice la notacion
U
+
(Q). Si F es antihermitiana (antisimetrica), entonces el grupo U(F) es el grupo
grupo simplicial. El grupo de similitudes es entonces
GU(F) = M GL
n
(K) [ r
M
K, M
FM = r
M
F.
En el caso particular K = R, tomando la identidad como involucion, y dado que E
es simetrica, tenemos que O(E) = U(E) = M M
n
(R) [ M
T
M = E = O
n
(R)
que es el grupo ortogonal tradicional; el grupo unitario tradicional resulta al
tomar K = C, F = E y la conjugacion como involucion, pues entonces U(E) =
M M
n
(C)[M
M = E = U
n
(C).
130 CAP
= 1.
a) Una forma sesquilineal en V es una funcion F : V V A que
satisface:
(i) F(u
1
+u
2
, v) = F(u
1
, v) +F(u
2
, v), F(u a, v) = a
F(u, v);
(ii) F(u, v
1
+v
2
) = F(u, v
1
) +F(u, v
2
), F(u, v a) = F(u, v)a,
para cada u, u
1
, u
2
, v, v
1
, v
2
V y cada a A.
Demuestre que si F y G son formas sesquilineales en V , la funcion F +G
denida por (F + G)(u, v) = F(u, v) + G(u, v), para todo u, v V , es
una forma sesquilineal en V .
b) Demuestre que el conjunto de las formas sesquilineales en V es un grupo
abeliano con la adicion denida como antes.
5.5. EJERCICIOS 131
c) Si A es conmutativo, el conjunto de las formas sesquilineales en V es una
A-espacio.
d) Sea es un subgrupo aditivo del anillo A que satisface:
(i) Para cada y a A, se tiene a
a .
(ii)
:= a a
[ a A esta contenido en :
.
(iii)
:= a A [ a = a
contiene a :
.
Demuestre que
= 0.
(iii) Si = A entonces A es conmutativo, es la identidad y = 1.
(iv) Si 2A = A entonces
= .
f ) Sea F una forma sesquilineal en V .
(i) F es hermitiana si F(u, v) = F
.
g) F una forma sesquilineal en V . Demuestre que:
(i) Si F se puede expresar como F(u, v) = F
1
(u, v) + F
1
(v, u), para
cada u, v V , siendo F
1
una forma sesquilineal en V , entonces F es
-alternada.
(ii) Cuando 2A = A, el recproco de (i) es cierto.
h) Demuestre que el conjunto F
. Es decir, si
Q es una forma sesquilineal, entonces Q q si, y solo si, QF es una forma
-alternada. Notese que q depende de A, , , y F.
132 CAP
(v, u).
a) Demuestre que la distancia y el producto escalar no dependen de la forma
Q q elegida.
b) Sea q una forma cuadratica. Demuestre que:
(i) El producto escalar seg un q es una forma sesquilineal hermitiana.
(ii) Para cada v V , (v, v)
q
= a +a
con a [v[
q
arbitrario.
(iii) Para cada u, v V , [u +v[
q
= [u[
q
+[v[
q
+ (u, v)
q
.
(iv) Para cada b A, v V se tiene [v b[
q
= b
ab + , con a [v[
q
arbitrario.
c) Sea q una forma cuadratica. Demuestre que:
(i) La distancia y el producto escalar determinan unvocamente a q.
(ii) Si =
= 1.
a) Sea F una forma sesquilineal hermitiana o antihermitiana en V . De-
muestre que el conjunto
X := Aut
A
(V ) [ F((u), (v)) = F(u, v) para cada u, v V
es un subgrupo de Aut
A
(V ).
5.5. EJERCICIOS 133
b) Si F es una forma sesquilineal hermitiana o antihermitiana en V , el grupo
unitario correspondiente a F es
U(F) := Aut
A
(V ) [ F((u), (v)) = F(u, v) para cada u, v V .
Si Q es una forma sesquilineal en V y Aut
A
(V ), demuestre que la
funcion R
Q
denida como R
Q
(u, v) = Q((u), (v)), para cada u, v V ,
es una forma sesquilineal en V .
c) Sea q una forma cuadratica.
(i) Aut
A
(V ) preserva q, si para cada Q q, la forma sesquilineal
R
Q
Q es -alternada.
(ii) Aut
A
(V ) preserva la distancia [ [
q
si [(v)[
q
= [v[
q
para cada
v V .
(iii) Aut
A
(V ) preserva el producto escalar (, )
q
si ((u), (v))
q
=
(u, v)
q
para cada u, v V .
As pues, preserva q si la forma sesquilineal denida por Q((u), (v))
Q(u, v) es -alternada. Como la distancia y el producto escalar determi-
nan q y recprocamente, demuestre que: Aut
A
(V ) preserva q si, y solo
si, preserva la distancia [ [
q
y el prodcuto escalar (, )
q
.
d) Sea q una forma cuadratica. Demuestre que el conjunto O(q) :=
Aut
A
(V ) [ preserva q es un subgrupo de Aut
A
(V ) y se denomina el
grupo ortogonal correspondiente a q.
e) Sea q una forma cuadratica y F la forma sesquilineal hermitiana F = (, )
q
.
Demuestre que
(i) O(q) U(F).
(ii) Cuando =
, O(q) = U(F).
f ) Cuando = A, o cuando = 0 y 2A = A, demuestre qu O(q) = U(F).
Bibliografa
[1] Brown, W., Matrices over Commutative Rings, Marcel Dekker, 1993. vi, 19,
38, 39
[2] Cohn, P., Free Rings and their Relations, Academic Press, 1985. 17
[3] Lezama, O., Anillos dimensionales, Bol. de Mat., Vol. XIX, No. 3, 1985, 194-
220.
[4] Lezama, O., Cuadernos de
Algebra, No. 1: Grupos, Departamento
de Matematicas, Universidad Nacional de Colombia, sede de Bogota,
www.matematicas.unal.edu.co/sac2 10, 17, 22, 107
[5] Lezama, O., Cuadernos de
Algebra, No. 2: Anillos, SAC
2
, Departamen-
to de Matematicas, Universidad Nacional de Colombia, sede de Bogota,
www.matematicas.unal.edu.co/sac2 vi, 1, 3, 10, 14, 69
[6] Lezama, O., Cuadernos de
Algebra, No. 3: Modulos, SAC
2
, Departamen-
to de Matematicas, Universidad Nacional de Colombia, sede de Bogota,
www.matematicas.unal.edu.co/sac2 vi, 1, 4, 5, 7, 10, 12, 16, 50, 67, 75, 81,
86, 130, 131, 132
[7] Lezama, O & Villamarn G., Anillos, Modulos y Categoras, Universidad
Nacional de Colombia, 1994. v, 3, 5
[8] Lang S., Algebra, Springer, 2002. v, 3, 22
[9] MacDonald, B., Linear Algebra over Commutative Rings, Marcel Dekker, 1984.
vi
[10] Park, H. and Woodburn, C., An algorithmic proof of Suslins stability the-
orem for polynomial rings, J. Algebra, 178, 1995, 277-298. 117, 120
[11] Pinto, M., Una Prueba Algortmica para el Teorema de Estabilidad de Suslin
sobre Dominios de Dedekind, Tesis de Maestra, Universidad Nacional de Colom-
bia, Bogota, 2009. 117, 120
134
BIBLIOGRAF
IA 135
[12] Suslin. A, On the structure of the special linear group over polynomial rings,
Math. USSR Izv., 11, 1977, 221 238. 33, 117