Está en la página 1de 214

Álgebra Lineal

Jorge Luis Arocha

versión compilada el
25 de abril de 2011
Jorge Luis Arocha Pérez
Instituto de Matemáticas
Universidad Nacional Autónoma de México
México D.F. 04510

BibTeX:

@textbook{ArochaLA
AUTHOR = {Arocha, Jorge L.}
TITLE = {\’Algebra Lineal}
YEAR = {2011}
NOTE = {Available at combinatoria.matem.unam.mx}
}

Mathematics Subject Classification 2000: 00–01, 12–01, 15–01

c
°2011 Jorge Luis Arocha Pérez
Permitida la reproducción para uso individual y no comercial.
Todos los demás derechos están reservados.
Introducción
Este libro lo escribı́ como texto básico para el curso de “Álgebra Lineal” para estudiantes
de Licenciatura que he impartido por muchos años en la Facultad de Ciencias de la Univer­
sidad Nacional Autónoma de México.
Se presupone que los estudiantes hayan cursado ya las materias de “Álgebra superior” y
“Geometrı́a Analı́tica” o sea tengan ciertos conocimientos sobre matrices, vectores, polino­
mios, números complejos, etc.
El objetivo es desarrollar el álgebra lineal sobre campos arbitrarios pero se hace énfasis
en los reales, los complejos y los residuos módulo un número primo. Después de una intro­
ducción corta a la teorı́a de campos se estudian los espacios vectoriales, las transformaciones
lineales, los determinantes y finalmente los teoremas de descomposición de operadores.
Por ahora, este libro no contiene prácticamente nada de transformaciones bilineales, pro­
ductos escalares, espacios duales, ortogonalidad, tensores etc. En mis planes está escribir
una segunda parte o aumentar este libro con capı́tulos sobre estos temas.
El material que comprende este libro es demasiado para un semestre y usualmente yo
imparto en un semestre de los capı́tulos I—IV aquellas secciones que no están marcadas
como avanzadas. Un segundo semestre podrı́a comenzar con las secciones de polinomios so­
bre campos, continuar con la descomposición de operadores lineales y terminar con aquellos
temas que ya señalé, faltan aquı́. Otras secciones las escribı́ porque me parecieron un buen
material de lectura complementaria para los alumnos curiosos.
Este libro es inusualmente colorido y visualmente agresivo. La razón de esto es que
cuando estaba en el papel de alumno yo preferı́a estudiar por las libretas de notas de mis
compañeras de clase. Se me hacı́a muy fácil memorizar la imagen completa de una página
llena de rayas, ores, corazones etc. y dentro de todo esto, las matemáticas. La idea es que
cada página luzca visualmente diferente. He tratado dentro de lo posible, lograr esto.
Los caracteres de matemáticas están en un color diferente. El texto y las secciones avan­
zadas están marcados con un birrete. Uso unos lentes para marcar aquello que el lector no
debe dejar pasar. Errores comunas que cometen los que no están familiarizados con el mate­
rial están marcados con calaveras. Los teoremas están resaltados visualmente, etc.
Se incluyen más de un centenar de ejercicios. Los ejercicios más notables consisten en
material adicional que un estudiante de matemáticas o fı́sica debe conocer tarde o temprano.
Las soluciones de los ejercicios no rutinarios se dan al final del libro.
He compilado un glosario de términos que es a la vez un ı́ndice del libro y un diccionario
de los conceptos introducidos y/o usados.
Finalmente, incluyo una guı́a de estudio. De esta guı́a yo escojo las preguntas para los
exámenes. Esto representa una ventaja enorme para los estudiantes ya que una de las dificul­
tades más importantes de ser estudiante es comprender que es lo que se espera de ellos.

Jorge Arocha
México D.F. Diciembre de 2010
IV
Capı́tulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos inversos (4).
Distributividad (5). El álgebra “abstracta”(5).
1.2 Números . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (7). Reales (8). Com­
plejos (9).
1.3 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Morfismos de grupos (10). Morfismos de anillos (11). Isomorfismos (12). Composi­
ción de morfismos (13).
1.4 Campos de restos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
El anillo de los enteros módulo n (14). Dominios de integridad (14). El campo de los
enteros módulo p (15).
1.5 Campos primos. Caracterı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Campos primos (16). Caracterı́stica (18).
1.6 Aritmética de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Múltiplos y exponentes enteros (18). Asociatividad general (19). Distributividad gene­
ral (19). Fórmula multinomial (19). La expansión de ΠΣαij (21).
*1.7 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Suma y producto de polinomios (22). División de polinomios (22). Factores y raices
(23). Ideales de polinomios (24). Unicidad de la factorización en irreducibles. (25).
Desarrollo de Taylor (26).
*1.8 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Forma polar. Igualdad de Moivre (27). Continuidad (29). Lı́mite de sucesiones com­
plejas (30). Teorema de Gauss (31).
*1.9 Factorización de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . . . . . 32
Caso Complejo (32). Caso real (33).
*1.10 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Campos de fracciones (34). Funciones racionales (36).
*1.11 Anillos con división . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
Quaterniones (37). Caso finito (38).
Capı́tulo 2 Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1 El plano cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2 Definición y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
El espacio de n­adas Kn (41). El espacio de polinomios K [x] (42). El espacio de
sucesiones KN (42). El espacio de series K [[x]] (42). El espacio de funciones KN
(42). El espacio de N­adas KN (43). El espacio de N­adas con soporte finito K{N }
(43). Subcampos (44). El espacio de N­adas de vectores EN (44). El espacio de NM­
matrices KN M (44). El espacio de tensores (45).
VI Contenido
2.3 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Unión e intersección de subespacios (46). Combinaciones lineales (47). Cerradura li­
neal (48).
2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Conjuntos generadores (49). Conjuntos linealmente independientes (50). Bases (51).
Dimensión (52). Bases canónicas (54).
2.5 Clasificación de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Isomorfismos lineales (55). Coordinatización (57). Clasificación (57). Campos de Ga­
lois (58). Como pensar en espacios vectoriales (58).
2.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Subespacios de R (59). Suma de conjuntos y subespacios (60). La igualdad modular
n

(61). Suma directa (62). Isomorfismo canónico entre la suma y la suma directa. (62).
Subespacios complementarios (63). Espacios vectoriales versus conjuntos (64).
2.7 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Subespacios afines (65). El espacio cociente (66). El isomorfismo con los complemen­
tarios (67).
*2.8 El espacio afı́n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
La regla del paralelogramo (69). Cerradura afı́n (69). Generadores e independencia
(70). Bases afines (70).
*2.9 El caso de dimensión infinita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
El Lema de Zorn (72). Existencia de bases (72). Cardinales (73). Equicardinalidad de
las bases (73).
Capı́tulo 3 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.1 Definición y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Imagenes de subespacios (75). Homotecias (76). Inmersiones (77). Proyecciones (77).
3.2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
El espacio vectorial de las transformaciones lineales (78). Composición de transfor­
maciones lineales (79). El álgebra de operadores lineales (80). El grupo general lineal
(81).
3.3 Extensiones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Extensiones y restricciones (81). El isomorfismo entre FN y Mor (E, F) (82). Un cri­
terio de isomorfismo (83).
3.4 Coordinatización de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 83
El producto escalar canónico (85). El producto de matrices (85). Productos de matri­
ces y vectores (86). La transformación lineal de una matriz (86). La matriz de una
transformación lineal (87). Composición de TLs y producto de matrices (87). Matrices
inversas (88).
3.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Cambios de base en un espacio vectorial (89). Cambios de base en el espacio de trans­
formaciones lineales (90). Cambios de base en el espacio de operadores lineales (91).
La transformación lineal tanspuesta (92).
3.6 El nucleo y la imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . . 93
Definiciones (93). Transformaciones lineales con nucleo trivial (94). Descomposición
de transformaciones lineales (94). La descomposición de la transpuesta (95). Un crite­
rio de isomorfismo (95). Descomposición canónica de transformaciones lineales (96).
Contenido VII

*3.7 Trasformaciones semilineales y coalineaciones . . . . . . . . . . . . . . . . . . . . . . . . . 97


Trasformaciones semilineales reales (97). Propiedades de las transformaciones semili­
neales (98). Automorfismos semilineales. (98). Coalineaciones (99). Estructura de las
coalineaciones (100).
Capı́tulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
El grupo simétrico (105). Ciclos (106). El grupo alternante (107). El signo de una
permutación (108).
4.2 Propiedades básicas de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
Definición de los determinantes (109). Determinantes de matrices pequeñas (109). El
determinante de la identidad (110). Matrices con filas nulas (111). El determinante
de la transpuesta (111). Matrices con filas iguales (111). Permutaciones de columnas y
renglones (112). El determinante del producto (112). Matrices de permutaciones (113).
4.3 Expansión de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
Cambios de ı́ndices (114). Complementos algebraicos (116). La expansión de un de­
terminante por sus renglones (116). La expansión de Laplace en forma gráfica (117).
Multinearidad de los determinantes (118). La inversa de una matriz (119). El determi­
nante de un operador lineal (121).
*4.4 La expansión generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Matrices diagonales y triangulares por bloques (122). La expansión generalizada de
Laplace en forma gráfica (123).
4.5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
Matrices no singulares (125). Espacios de columnas y renglones (125). Lema de au­
mento de matrices no singulares (126). Bases de una matriz (126).
4.6 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Regla de Cramer (128). Existencia de soluciones (129). Eliminación de ecuaciones
dependientes (130). El nucleo y la imagen de una matriz (131). Bases del subespacio
afı́n de soluciones (131).
4.7 Método de eliminación de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
Transformaciones elementales (132). Ejemplo (133). El caso general (133). Solución
de ecuaciones matriciales, matriz inversa (134).
Capı́tulo 5 Descomposición de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
5.1 Suma directa de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
Subespacios invariantes, componentes irreducibles (138). Ejemplos en dimensión 2
(139). Las matrices y los subespacios invariantes (140).
5.2 Polinomios de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
El morfismo de K [x] en End (E) (141). La subálgebra K [h] (142). El polinomio mı́ni­
mo (142). El perı́odo de un vector (143). Anuladores (144). Nucleos de polinomios de
operadores lineales (144). Conjuntos de vectores y polinomios (145).
5.3 Subespacios radicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
Operadores lineales radicales (147). Componentes radicales (148). Existencia de un
vector de perı́odo máximo (149).
5.4 El espacio cociente por un subespacio invariante . . . . . . . . . . . . . . . . . . . . . . . 150
Polinomios y el espacio cociente (151).
VIII Contenido
5.5 Subespacios cı́clicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
Conjuntos h­generadores (153). Conjuntos h­independientes (154). h­bases (155).
5.6 Descomposición en subespacios cı́clicos radicales. . . . . . . . . . . . . . . . . . . . . . 156
5.7 Estructura de los operadores cı́clicos radicales . . . . . . . . . . . . . . . . . . . . . . . . . . 161
Subespacios invariantes (161). Formas canónicas (162). ∇ = 1 (165). ∇ = 2 (165).
Usando la base canónica (167).
5.8 Polinomio caracterı́stico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
Rectas invariantes (168). El polinomio caracterı́stico de un operador lineal (168). El
polinomio caracterı́stico y el polinomio mı́nimo (169).
Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
Guı́a de estudio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
IX

El álgebra es la oferta hecha por el Diablo a los matemáticos.


El Diablo dice:

“Yo te daré a ti esta poderosa maquinaria


que responderá cualquier pregunta que tu quieras.
Todo lo que se necesita que tu hagas es entregarme tu alma:
dame la geometrı́a y tendrás esta maravillosa máquina”

... el daño a nuestra alma está ahı́,


porque cuando usted pasa a hacer cálculos algebraicos,
esencialmente usted deja de pensar ...

Sir Michael Atiyah


X
Capítulo primero
Campos
l objeto del álgebra lineal es el estudio de los espacios vectoriales. Estos espacios son
estructuras algebraicas cuyos objetos son de dos tipos los vectores y los escalares.
Las operaciones definidas en los espacios vectoriales son la suma y resta de vectores,
la suma resta multiplicación y división de escalares y la multiplicación de escalares por
vectores. La mayorı́a de los temas estudiados en este libro no dependen del conjunto de
escalares y el lector puede casi siempre considerar que los escalares son los reales R y que
el espacio vectorial es el espacio “geométrico” común Rn .
Sin embargo, como esta teorı́a no depende (al menos en gran parte) del conjunto de
escalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matemáticas y
las ciencias naturales) es conveniente elevar un paso el nivel de abstracción y pensar que el
conjunto de escalares es un campo arbitrario K .
El primer objetivo de este capı́tulo es dar al lector un conocimiento básico de lo que es
un campo. Esto se pretende lograr por tres medios: dando la definición formal, estudiando
algunas propiedades (como la caracterı́stica) de los mismos, viendo que las reglas usuales de
manipulación de fórmulas en un campo no se diferencian esencialmente de las fórmulas en
los reales y sobre todo, dando los ejemplos fundamentales de campos.
Posteriormente, estudiaremos las principales propiedades de los polinomios con coefi­
cientes en un campo. En particular, los teoremas de descomposición en factores de polino­
mios complejos y reales serán fundamentales para, en un capı́tulo posterior, desarrollar la
descomposición de Jordán de operadores lineales.

1.1 Operaciones binarias

Sea A un conjunto. Una operación binaria es una función del producto cartesiano A×A
en A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A se le hace
corresponder un tercer elemento de A. Demos algunos ejemplos sencillos:
1) a + b suma 5) ab exponenciación
2) a − b resta 6) loga b logaritmo
3) ab producto 7) mcd (a, b) máx común divisor
4) ab división 8) mcm (a, b) mı́n común múltiplo
2 Capı́tulo 1. Campos
Lo primero que observamos de los ejemplos anteriores es que no hemos definido en cual
conjunto está definida la operación. Esto no es correcto formalmente, ası́ por ejemplo la
división es una operación que no está definida en el conjunto de los números enteros. Sin
embargo el lector podrá fácilmente encontrar los conjuntos en los cuales estos ejemplos son
operaciones binarias.

Ejercicio 1 ¿En cuales conjuntos las operaciones 1­8 están correctamente definidas? [173]
Ejercicio 2 ¿Que es una operación unaria? De ejemplos. [173]
Ejercicio 3 Dados tres números reales a, b, c definamos A (a, b, c) como el area del trián­
gulo con lados a, b y c. ¿Es esta una operación ternaria en R? [173]

Lo segundo que debemos de observar, es la variedad de notaciones usadas para represen­


tar las operaciones binarias. Sobre todo, son complicadas las notaciones de la operaciones
4­6. Lo que tienen en común, es que no nos alcanza una lı́nea de sı́mbolos para escribirlas.
Necesitamos subir y/o bajar además de movernos de derecha a izquierda. O sea, necesitamos
dos dimensiones para escribirlas.
Quizá sea más ilustrativo, poner un ejemplo más complejo
de notación dos dimensional. La integral en el recuadro a la π/4 R ¡ ¢
derecha está bien definida para cualesquiera valores reales a, b 0 a sin x + b sin 2 dx
x

y por lo tanto es una operación binaria definida en R.


Más sencillos son los ejemplos de notaciones lineales 1­3,7­8. En realidad, para las no­
taciones lineales solo hay tres posibilidades:
◦ (a, b) notación prefija o funcional
a◦b notación operacional
(a, b) ◦ notación sufija

Las operaciones 1­3 están en notación operacional y las operaciones 7­8 están en nota­
ción prejija. La notación sufija es útil sobre todo en la programación de compiladores para
lenguajes de computadoras (tales como pascal o C++) ya que frecuentemente lo más fácil
es decirle a una computadora “toma el número a” , “toma el número b” ,“súmalos” y no
hacerlo de otra manera.

Ejercicio 4 La notación sufija para a (b + c) /2 es bc + a × 2÷ . ¿Cual será la notación


sufija para la expresión (a + b) (x + y)? [173]

Cualquier intento, de tratar de unificar las notaciones usadas en la comunicación entre


humanos, solo llevarı́a a confusiones mucho peores. Sin embargo, tenemos la libertad de es­
coger una notación unificada para las operaciones binarias abstractas que definamos. De una
vez, postularemos que siempre usaremos la notación operacional para definir operaciones
binarias abstractas.
Sección 1.1 Operaciones binarias 3

Recalquemos que una operación “abstracta” no significa nada más que es una operación
que puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2. Después,
tempranamente en el estudio de las matemáticas, la expresión a+b significa que a un número
a (no se sabe cual) le sumamos un número b (tampoco se sabe cual). Ahora, la expresión a+
b significará que a un objeto a (número, polinomio, matriz , quien sabe que) le “sumamos”
(no se sabe lo que quiere decir “suma”) un objeto b (del que tampoco se sabe mucho).
Conmutatividad
¿Es 3 + 2 igual a 2 + 3? Si. ¿Es 32 igual a 23 ? No. Una operación binaria
∀a, b ∈ A denotada por ◦ y definida en el conjunto A se dice que es conmutativa si
a◦b=b◦a se cumple la propiedad en el recuadro a la izquierda. Ser o no conmutativa
es la propiedad más sencilla que diferencia las operaciones binarias.

Ejercicio 5 ¿Cuales de las operaciones 1­9 son conmutativas? [173]

Asociatividad
¿Que quiere decir 2 + 3 + 5? ¿Acaso debemos sumar 2 + 3 y al resultado sumarle 5? ¿No
será que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ninguna diferencia
entre los dos procedimientos. Este hecho se expresa como (2 + 3) + 5 = 2 + (3 + 5) .
Una operación binaria denotada por ◦ y definida en el con­
junto A se dice que es asociativa si se cumple la propiedad en ∀a, b, c ∈ A
el recuadro de la derecha. a ◦ (b ◦ c) = (a ◦ b) ◦ c
Los estudiantes preuniversitarios se encuentran por primera
vez con la dificultad de una operación no asociativa en el caso de la operación de exponen­
3
ciación. A esta temprana edad es muy necesario insistir que la expresión 22 es ambigua
¡ ¢3
porque 2(2 ) = 256 6= 64 = 22 .
3

Ejercicio 6 ¿Cuales de las operaciones 1­9 son asociativas? [173]

La asociatividad de una operación es una propiedad crucial. Sin esta propiedad, el manejo
algebraico de una operación se complica bastante.
Es más, gracias a ella podemos introducir la notación de la operación “re­
petida”. Si tenemos 11 elementos a1 , a2 , . . . , a11 entonces, para denotar la suma P 11
a
a1 +a2 +· · ·+a11 podemos usar la notación (mucho más cómoda) que se muestra n=1 n
en el recuadro a la derecha. Esta notación no requiere de la conmutatividad de la
operación “suma” gracias a que los ı́ndices tienen un orden y sabemos cual elemento debe ir
primero y cual después.
Si tenemos que la operación es no solamente asociativa sino también conmutativa enton­
ces podemos ser más generosos con esta notación.
4 Capı́tulo 1. Campos

P Supongamos que aρ , a` , aκ , a9 y a∇ son elementos de un conjunto con una suma


an asociativa y conmutativa. Entonces la suma de estos (¡no importa el orden!) la
n∈N
podemos denotar por la expresión en el recuadro a la izquierda, donde N es el
conjunto de ı́ndices {ρ, κ, `, ∇, 9}.
Si la operación binaria definida
P no se llama “suma” sino “producto”,Q entonces es usual,
en lugar de usar la letra griega (sigma mayúscula), usar la letra griega (pi mayúscula).
Podemos, en este caso, usar la primera o segunda notación dependendiendo de si nuestro
producto es conmutativo o no.
Elementos neutros
La suma de números naturales tiene un elemento especial y único: el cero. Su propie­
dad definitoria es que cualquier número sumado con cero da el mismo número. La misma
propiedad la tiene el uno con respecto al producto de números naturales.
Para una operación binaria denotada por ◦ y definida en el con­ ∀a ∈ A
junto A se dice que e ∈ A es un elemento neutro si este cumple la a ◦ e = e ◦ a = a
propiedad en el recuadro.
Una operación binaria no puede tener más de un elemento neutro. Efectivamente, sean
e y e0 elementos neutros. Por ser e neutro, tenemos e ◦ e0 = e0 . Por ser e0 neutro, tenemos
e ◦ e0 = e. De estas dos igualdades obtenemos e = e0 .

Ejercicio 7 ¿Cuales de las operaciones 1­9 tienen neutro? [173]

Los elementos neutros juegan un papel importante en las notaciones para operaciones
repetidas. Supongamos que tenemos un producto asociativo y conmutativo. Sean además N
Q Q Q y M dos conjuntos finitos de ı́ndices disjuntos. Naturalmen­
ai • ai = ai te, de la definición se sigue la propiedad del recuadro a la
i∈N i∈M i∈N∪M
izquierda.
Pero ¿que pasa si alguno de los conjuntos de ı́ndices (digamos M) es vacı́o? Si queremos
que esta propiedad se conserve entonces observamos que
Y Y Y Y
ai • ai = ai = ai
i∈N i∈∅ i∈N∪∅ i∈N
Q
por lo que necesariamente i∈∅ ai tiene que ser el elemento neutro de nuestra operación (si
no hay neutro entonces estamos en problemas).
Es por esto, como el lector seguramente ya sabe, que la suma vacı́a de números es igual
a cero y el producto vacı́o de números es igual a uno.
Elementos inversos
Para cada número entero a hay un único número −a tal que sumado con a da cero. Ge­
neralizemos esta propiedad a operaciones binarias arbitrarias. Sea ◦ una operación binaria en
el conjunto A con elemento neutro. Se dice que a ∈ A tiene elemento
a ◦ b = b ◦ a = e inverso b si se cumple la propiedad en el recuadro a la izquierda.
Sección 1.1 Operaciones binarias 5

Para cualquier operación binaria asociativa el elemento inverso de otro es único. Efecti­
vamente si b y c son inversos de a entonces b = b◦e = b◦(a ◦ c) = (b ◦ a)◦c = e◦c = c
o sea que b y c tienen que ser el mismo.

Ejercicio 8 Describa los inversos en las operaciones 1­9. [174]

Distributividad
Frecuentemente nos encontramos con conjuntos en los cuales hay más de una operación
binaria definida. El ejemplo más sencillo son los naturales en los que sabemos sumar y sabe­
mos multiplicar. Estas dos operaciones están relacionadas con la propiedad de que podemos
sacar factor común o sea ax + ay = a (x + y).
Sean ◦ y ¦ dos operaciones binarias definidas en el ∀a, b, c ∈ A
conjunto A. Se dice que la operación ¦ es distributiva a ¦ (b ◦ c) = (a ¦ b) ◦ (a ¦ c)
respecto a la operación ◦ si se cumple la propiedad en el (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a)
recuadro.
Que ¦ sea distributiva respecto a ◦ no es lo mismo que ◦ sea distributiva respecto a
¦. Por ejemplo, en los naturales el producto es distributivo con respecto a la suma:
a (b + c) = (ab) + (ac) y sin embargo, la suma de naturales no es distributiva
respecto al producto: a + (bc) 6= (a + b) (a + c).

Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivas
una con respecto a la otra. [174]

El álgebra “abstracta”
Filosóficamente, el concepto de “abstracción” es la propiedad, que tiene el pensamiento
humano, de que podemos fijarnos solamente en ciertas propiedades “esenciales” de un objeto
o fenómeno, y olvidarnos de las restantes.
La abstracción es imprescindible para el lenguaje. El concepto “silla” nos permite reco­
nocer una silla, independientemente si esta es de madera, de hierro, plástica, grande, cómoda,
con tres, cuatro o cinco patas etc. Casi cada palabra del español (y de cualquier idioma) re­
presenta un concepto abstracto, sea esta verbo, sustantivo o adjetivo.
La ciencia lleva este nivel de abtracción a un nivel aún mayor. Parte de este conoci­
miento cientı́fico, pasa al conocimiento público. Baste recordar conceptos como: velocidad,
volumen, higiene, ADN, penicilina, electrón, metal, colesterol, triángulo, etc. Algunos de los
mencionados, son muy antiguos, otros surgieron hace muy poco. Sin embargo, la mayorı́a
de estos conocimientos queda solamente en manos de los especialistas en la materia.
Con las matemáticas pasa igual. No hace falta saber que la suma de naturales es una
operación binaria conmutativa para saber que 2 + 3 = 3 + 2. Sin embargo, el concepto de
6 Capı́tulo 1. Campos
“operación” y que estas operaciones pueden cumplir o no ciertas propiedades es relativa­
mente “nuevo”.
En la primera mitad del siglo XX, progresivamente, la comunidad matemática se fué dan­
do cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstrac­
tas. Tanto fué el entusiasmo, que muchos, en un principio, le llamaron a esta forma de pensar
“Algebra moderna”. Otros aún más entusiastas, más frı́volos y con muchas ganas de vender
sus libros le llamaron “Matemática moderna”. En la actualidad este lenguaje es parte in­
trı́nseca e indivisible del pensamiento en matemáticas y cualquier calificación de “moderna”
suena muy tonta.
Otros, por otro lado, prefierieron referirse a esta forma de pensar como “Algebra abstrac­
ta”. Esto, en mi opinión, aunque más moderado, tampoco tiene ningún sentido. Toda álgebra
es abstracta, de hecho, todas las matemáticas son abstractas. Estoy convencido de que, el
tiempo se encargará de acabar con todos estos calificativos.

1.2 Números

En esta sección repasaremos los principales tipos de números que el lector ya conoce:
naturales, enteros, racionales, reales y complejos. Esto nos dará la posibilidad de introducir
las definiciones más básicas del álgebra: grupos, anillos y campos.
Naturales

ab = a Hay una frase famosa que dice “Dios hizo los naturales
| + {z
... + a} = |b + {z
... + b}
y el hombre todo lo demás”. El conjunto de los números
b veces a veces
naturales N = {0, 1, 2, ...} es el conjunto de los cardinales
de los conjuntos finitos. En N hay dos operaciones binarias bien definidas: la suma y el
producto. De hecho, el producto es una operación derivada de la suma y la suma solo se
puede definir en términos de conjuntos. Por ejemplo, a + b es el cardinal de la unión de dos
conjuntos finitos y disjuntos uno de cardinal a y otro de cardinal b.
Como la unión de conjuntos es asociativa también lo es la suma de naturales. De la
definición se obtiene que el producto de naturales también es asociativo. Tanto la suma como
el producto son conmutativos. La suma tiene elemento neutro 0 y el producto tiene elemento
neutro 1. El producto es distributivo respecto a la suma.
Enteros

Ningún elemento de N salvo el cero tiene inverso para


la suma. Para lograr la existencia de inversos inventamos los −b + a = c ⇔ a = b + c
números negativos Z− = {−1, −2, −3, ...} y en el conjunto −b + (−a) = − (a + b)
Z = N ∪ Z− de los números enteros definimos la suma como
la operación conmutativa definida por las propiedades en el
recuadro a la derecha.
Sección 1.2 Números 7

Grupos

Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada elemento
tiene inverso. O sea los enteros dan el primer ejemplo G1) la operación es asociativa
de grupo. A un conjunto no vacı́o con una operación bi­ G2) tiene elemento neutro
naria se le llama grupo si se cumplen los tres axiomas G3) todo elemento tiene inverso
G1­G3. A los grupos cuya operación es
conmutativa se les llama abelianos en honor al matemático noruego Niels
Henrik Abel (1802­1829). Abel fué el que resolvió el problema algebraico
más importante de su época. Demostró, que no existen fórmulas en radicales
para resolver las ecuaciones polinomiales de grado 5 o mayor (a diferencia
de las ecuaciones de grado ≤ 4 para las cuales si hay fórmulas generales).
Al momento de encontrar esta demostración, el problema ya duraba varios
siglos sin resolverse. Abel murió a los 26 años a causa de una neumonı́a.
Anillos

La operación de producto de naturales se extiende fácilmente al


a (−b) = − (ab)
conjunto de los enteros mediante las reglas en el recuadro. Nuevamente
(−a) b = − (ab)
el producto es asociativo,conmutativo y distributivo con respecto a la
(−a) (−b) = ab
suma. O sea los enteros también dan el primer ejemplo de anillo.
Un conjunto A no vacı́o con dos operaciones bi­
A1) (A, +) es un grupo abeliano
narias + y • se le llama anillo si se cumplen los
A2) • es asociativa
axiomas en el recuadro a la izquierda. Si el anillo
A3) • es distributiva con respecto a +
es tal que la operación • es conmutativa entonces
A4) • tiene elemento neutro
se dice que tenemos un anillo conmutativo.
En un anillo al neutro para la suma se le llama cero y se denota por 0. Al neutro para el
producto se le llama uno y se denota por 1. Al inverso de un elemento con respecto a la suma
de un elemento se le llama su opuesto. Al inverso con respecto al producto de un elemento
se le llama inverso multiplicativo o simplemente inverso a secas.
Observemos que si a es un elemento de un anillo entonces a • 0 + a = a • (0 + 1) = a
y debido a la unicidad del 0 obtenemos que a • 0 = 0. De la misma manera vemos que
0 • a = 0. Si 1 = 0 entonces, a = 1 • a = 0 • a = 0 por lo que el anillo consta de un
solo elemento. Para descartar esta trivialidad supondremos siempre que 1 6= 0. De aquı́ se
desprende que 0 no puede tener inverso ya que 0 = a • 0 = 1 es una contradicción.
En cualquier anillo −a denota al opuesto de a y a−1 (si existe) denota al inverso de a.
Como 1 × 1 = 1 tenemos 1−1 = 1. También (−1)−1 = −1 ya que si a = −1 entonces
0 = a (a + 1) = aa + a por lo que aa = −a o sea, (−1) (−1) = 1. Luego, en todo anillo
1 y −1 tienen inversos. En Z ningún elemento salvo 1 y −1 tiene inverso.
Normalmente en la definición de anillo no se pide el axioma A4. En este caso, a los anillos que
tienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de anillo no
unitario es el conjunto de todos los enteros pares. Con el objetivo de simplificar, para nosotros
todos los anillos son unitarios.
8 Capı́tulo 1. Campos
Racionales
Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio­
nes y con ellas el conjunto de números racionales Q. Una fracción es un par ordenado de
a c números enteros denotado por a/b donde b 6= 0. Dos fraccio­
= ⇔ a • d = c • b nes son iguales cuando se cumple la igualdad en el recuadro.
b d
Los números racionales Q son las fracciones con la relación de
igualdad ası́ definida. Los enteros son parte de los racionales por cuanto podemos identificar
cada número entero a ∈ Z con la fracción a/1.
La suma y el producto de números racionales se definen por
las igualdades en el recuadro. Nuevamente los racionales con la a + c = a • d + c • b
suma forman un grupo abeliano y otra vez el producto es aso­ b d b•d
ciativo, conmutativo, tiene elemento neutro y es distributivo con a c a • c
• =
respecto a la suma. La diferencia es que ahora todo elemento di­ b d b • d
ferente de cero tiene inverso multiplicativo. O sea los racionales
nos dan el primer ejemplo de campo.
Un conjunto K no vacı́o con dos operaciones bi­
C1) (K, +) es un grupo abeliano narias + y • se le llama campo si se cumplen los
C2) (K\0, •) es un grupo abeliano tres axiomas C1­C3. En otras palabras un campo
C3) • es distributiva con respecto a + es un anillo conmutativo en la cual todo elemento
diferente de cero tiene inverso multiplicativo.

Ejercicio 10 Si ◦ es una operación en A entonces, en A2 está definida la operación por


coordenadas
¡ 2 ¢ (x, y) ◦ (x0 , y0 ) = (x ◦ x0 , y ◦ y0 ). Pruebe¡ que si (A,
¢ ◦) es un grupo entonces
A , ◦ es un grupo, si (A, +, •) es un anilloentonces, A2 , +, • es también un anillo.
Ejercicio 11 Sea ¡(K, +, •)¢un campo. Como K es un anillo conmutativo entonces, por el
ejercicio anterior, K , +, • también es un anillo conmutativo. ¿Será K un campo? [174]
2 2

Reales
Dicen que cuando Pitágoras (Samos 569­475 A.C.) descubrió que
la longitud de la hipotenusa de un triángulo rectángulo con cate­
tos de longitud uno no es un número racional

quedó horrorizado. A nosotros nos parece esto 2
una exageración. Sin embargo, si nos ponemos 1
en el lugar de Pitágoras comprenderemos que
1
en aquel momento era inconcebible que existan
números que no sean cociente de dos enteros. √ p
2=6
La pintura a la izquierda es un detalle del fres­ q
co de Rafael “La escuela de Atenas” en la cual
supuestamente, se muestra a Pitágoras.
Sección 1.2 Números 9

Sigamos a Pitágoras y probemos que efectivamente 2 no es un racional. Para√esto
denotemos
° 2 por
° kak °2 2el° número de veces que el natural a se divide entre 2. Tenemos 2 =
p
q
⇒ 2q 2 = °p °2 ⇒ 1 + 2 kqk2 = 2 kpk2 lo que es una contradicción ya que un
° °
número impar no puede ser igual a uno par.


Ejercicio 12 Sea n un número natural. Pruebe que n es un natural o no es racional. [174]

Ejercicio 13 Basandose en el anterior de otra prueba de que 2 no es racional. [174]

Esto motiva la construción de los números reales R. La construción de los reales es


un proceso complicado y se han descubierto muchas formas de formalizar esta construción
siendo la más popular la de las cortaduras de Dedekind. Para nuestros propósitos basta una
definición menos formal y más intuitiva: un número real es simplemente un lı́mite de ra­
cionales. Las propiedades de la suma y producto de racionales se traspasan fácilmente a los
reales usando las propiedades del lı́mite de sucesiones. De esta manera obtenemos nuestro
campo principal (R, +, •) . El campo de los reales se destaca porque es ordenado (siempre
podemos decidir si un número real es mayor, menor o igual a cero) y porque es cerrado (el
lı́mite de reales si existe es un real). Por otro lado, no es un factor a despreciar el hecho de
que el espacio en que vivimos es (o al menos nos parece que es) R3 .

Ejercicio 14 Pruebe que la longitud de un segmento de recta es un número real. [174]

Complejos
En 1546 Gerolamo Cardano publicó su libro “Ars Magna” en el cual dió métodos (basa­
dos en parte en el trabajo de otros matemáticos) para el calculo de las raices de los polinomios
de grado 3 y 4. Estos métodos, a veces requerı́an el extraer raices cuadradas de números ne­
gativos, incluso cuando el resultado final era un número real. Rafael Bombelli estudió este
asunto en detalle y es considerado como el descubridor de los números complejos.
Para lograr que todos los
√ polinomios tengan raices inven­
tamos el imaginario i = −1 y definimos que un número (a + bi) + (a0 + b0 i) =
complejo es algo de la forma a + bi donde a, b ∈ R. La
(a + a0 ) + (b + b0 ) i
suma y el producto de complejos se definen por las fórmulas
en los recuadros a la derecha y abajo a la izquierda.
Las propiedades de la suma y el producto se desprenden in­
(a + bi) × (a + b i) =
0 0
mediatamente de sus definiciones y es fácil comprobar que
(C, +, •) es un anillo conmutativo. Para ver que es un cam­
(aa0 − bb0 ) + (ab0 + a0 b) i ¡ ¢−1
po, observamos que (a + bi)−1 = a2 + b2 (a − bi).
La principal propiedad que hace que para muchas cosas el campo C sea el más simple es
que el (a diferencia de R) es algebraicamente cerrado, o sea que todo polinomio de grado
n > 0 con coeficientes en complejos tiene n raices complejas.
10 Capı́tulo 1. Campos
1.3 Morfismos
En esta sección estudiaremos las funciones entre conjuntos con operaciones binarias.
Morfismos de grupos
Sean ◦ y • operaciones binarias definidas en los conjuntos A y B respectivamente. Una
función f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de A se
cumple que f (a1 ◦ a2 ) = f (a1 ) • f (a2 ).

Todo morfismo conserva las propiedades fundamentales de las operaciones


binarias. Más precisamente, si f : (A, ◦) → (B, •) es un morfismo entonces,
1. • es una operación binaria dentro de la imagen de f.
2. Si ◦ es conmutativa entonces • es conmutativa en la imagen de f.
3. Si ◦ es asociativa entonces • es asociativa en la imagen de f.
4. Si e es neutro de ◦ entonces f (e) es neutro de • en la imagen de f.
5. Si a0 es inverso de a en A entonces f (a0 ) es inverso de f (a) en B.

Prueba. Sean b1 , b2 y b3 elementos cualesquiera en la imagen de f. Existen a1 , a2 y a3 en


A tales que f (ai ) = bi para i ∈ {1, 2, 3}. Como f es un morfismo, obtenemos la igualdad
b1 • b2 = f (a1 ) • f (a2 ) = f (a1 ◦ a2 ) (*)
que prueba la primera afirmación. Si ◦ es conmutativa entonces, usando (*) obtenemos
b1 • b2 = f (a1 ◦ a2 ) = f (a2 ◦ a1 ) = b2 • b1
por lo que • es también conmutativa. Si ◦ es asociativa entonces, usando (*) obtenemos
(b1 • b2 ) • b3 = f (a1 ◦ a2 ) • f (a3 ) = f ((a1 ◦ a2 ) ◦ a3 ) =
= f (a1 ◦ (a2 ◦ a3 )) = f (a1 ) • f (a2 ◦ a3 ) = b1 • (b2 • b3 )
y por lo tanto • es asociativa en la imagen de f. Si e es neutro de la operación ◦ entonces,
b1 • f (e) = f (a1 ) • f (e) = f (a1 ◦ e) = f (a1 ) = b1
f (e) • b1 = f (e) • f (a1 ) = f (e ◦ a1 ) = f (a1 ) = b1
por lo que f (e) es el neutro de • en la imagen de f. Sea a0 el inverso de a en A entonces,
f (a) • f (a0 ) = f (a ◦ a0 ) = f (e)
f (a0 ) • f (a) = f (a0 ◦ a) = f (e)
de lo que concluimos que f (a0 ) es el inverso de f (a).

Ejercicio 15 Justifique todas las igualdades utilizadas en la prueba de 1.1.


¿Y porqué siempre dentro de la imagen de f y no en todo B? La respuesta es que lo único
que sabemos de B está dado por el morfismo. Aquellos elementos de B que no tienen pre­
imagen no los podemos enlazar con los de A y por lo tanto no podemos decir nada de ellos.
De aquı́ en lo adelante a la imagen de cualquier función f (y en particular de un morfismo)
la denotaremos por Im f.
Sección 1.3 Morfismos 11

Si (A, ◦) es un grupo entonces (Im f, •) es un grupo.

Prueba. Por 1.1.1 • es una operación binaria en Im f. Por 1.1.3 esta operación es asociativa.
Por 1.1.4 esta operación tiene elemento neutro. Por 1.1.5 cada elemento b = f (a) ∈ Im f
tiene su inverso f (a0 ) donde a0 es el inverso de a en A. Esto completa la prueba de todos los
axiomas de grupo.
Recordemos que si f : A → B es una función entonces al conjunto A se le llama dominio
de f y al conjunto B codominio de f. Si el dominio y el codominio de un morfismo son grupos
entonces se dice que este es un morfismo de grupos.

Ejercicio 16 Construya un morfismo inyectivo de (R, +) en (R, •). ¿Cual es su imagen?

Morfismos de anillos

¿Y que pasa con la distributividad? ¿También se conserva? El primer problema que te­
nemos que resolver es que en la distributividad están involucradas dos operaciones. Sean
(A, +, •) y (B, +, •) dos conjuntos cada uno con dos operaciones binarias. Observese que
estas son cuatro operaciones distintas pero hemos usado estas notaciones porque el trabajar
con cuatro sı́mbolos diferentes ya es demasiada confusión.
Una función f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de
A se cumple que f (a1 + a2 ) = f (a1 ) + f (a2 ) y f (a1 • a2 ) = f (a1 ) • f (a2 ). Recalquemos
que el “y” quiere decir que se tienen que cumplir las dos propiedades. O sea, si hay dos
operaciones entonces, se requiere que la función sea morfismo para cada una de ellas.

Si • es distributiva con + en A entonces,


• es distributiva con + en la imagen de f.

Prueba. Sean x, y, z ∈ A tales que f (x) = a, f (y) = b y f (z) = c. Tenemos


a • (b + c) = f (x) • (f (y) + f (z)) = f (x) • f (y + z) = f (x • (y + z)) =
= f (x • y + x • z) = f (x • y) + f (x • z) = f (x) • f (y) + f (x) • f (z) = a • b + a • c
y esto prueba la tesis.
Si el dominio y el codominio de un morfismo son anillos entonces se dice que este es un
morfismo de anillos. Si el dominio y el codominio de un morfismo son campos entonces se
dice que este es un morfismo de campos.

Ejercicio 17 Demuestre que si (A, +, •) es un anillo y f : A → B es un morfismo entonces,


(Im f, +, •) es un anillo. Demuestre que lo mismo ocurre para los campos.
12 Capı́tulo 1. Campos

Ejercicio 18 Pruebe que si f : A → B es un morfismo de anillos y A es un campo entonces


f es inyectivo. En particular todo morfismo de campos es inyectivo. [174]

Isomorfismos

A los morfismos biyectivos se les llama isomorfismos. Esto se aplica tanto para con­
juntos con una como también con dos operaciones binarias. Ası́ que tenemos isomorfismos
de grupos, de anillos y de campos. Para cada isomorfismo f existe una función inversa f−1 .
¿Cuando será f−1 un morfismo? La respuesta es que siempre.

La inversa de un isomorfismo es un isomorfismo.

Prueba. Sea f : (A, ◦) → (B, •) un isomorfismo. Sean b1 , b2 cualesquiera elementos de B.


Denotemos a1 = f−1 (b1 ) y a2 = f−1 (b2 ). Tenemos
f−1 (b1 • b2 ) = f−1 (f (a1 ) • f (a2 )) = f−1 (f (a1 ◦ a2 )) = a1 ◦ a2 = f−1 (b1 ) ◦ f−1 (b2 )
que es lo que se requerı́a demostrar. Si el isomorfismo involucra dos operaciones binarias
entonces el mismo argumento aplicado a las dos operaciones, nos da la prueba de la tesis.
Ahora podemos aplicar 1.1 en los dos sentidos. Si f : (A, ◦) → (B, •) es un isomorfismo
entonces de que • es conmutativa implica que ◦ es conmutativa y en conclusión ◦ es conmu­
tativa si y solo si • es conmutativa. Lo mismo ocurre con la asociatividad, con la existencia
de neutros e inversos y para el caso de dos operaciones con la distributividad. O sea que ◦
tiene exáctamente las mismas propiedades de •.
Pero no solo son operaciones parecidas sino que son en cierto sentido la misma. Para
convencernos de esto supongamos que conocemos la operación ◦ y conocemos el isomorfis­
mo f pero no sabemos nada de la operación •. ¿Podremos ¡ calcular b1 • b2¢? La respuesta es
si, lo podemos calcular por la identidad b1 • b2 = f f−1 (b1 ) ◦ f−1 (b2 ) . Recı́procamen­
te, ◦ se define de forma única por la operación • y el isomorfismo f mediante la identidad
a1 • a2 = f−1 (f (a1 ) ◦ f (a2 )). En conclusion ambas operaciones se definen una a otra.
Para que el lector comprenda mejor eso de que ◦ y
• son la misma operación veamos un ejemplo. Sea A el ◦ u v • 1 −1
conjunto de letras {u, v} y B el conjunto de los números u u v 1 1 −1
{1, −1}. Definamos las operaciones ◦ y • mediante las v v u −1 −1 1
tablas del recuadro a la derecha.
El lector debe observar que la segunda tabla es la tabla usual de multiplicación de enteros.
Además, para obtener la segunda tabla de la primera lo único que necesitamos es cambiar ◦
por • , u por 1 y v por −1. Esto lo que quiere decir, es que la función u 7→ 1 , v 7→ −1 es
un isomorfismo de (A, ◦) en (B, •). El lector puede ver que ambas tablas son en esencia la
misma, solamente que las notaciones para los elementos y la operación están cambiadas.
Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entonces se
dice que ellos son isomorfos. Etimológicamente, la palabra “isomorfo” significa que “tie­
Sección 1.3 Morfismos 13

nen la misma forma”. En forma intuitiva, que ellos sean isomorfos quiere decir que los dos
son iguales con la salvedad de que podemos cambiar las notaciones de los elementos y las
operaciones.
Ciertos tipos de morfismos tienen nombres especiales. A los morfismos sobreyectivos se
les llama epimorfismos, a los injectivos se les llama monomorfismos. A los morfismos de
un conjunto en si mismo se les llama endomorfismos y a los endomorfismos biyectivos se
les llama automorfismos.
En otras ramas de las matemáticas también se definen morfismos e isomorfismos. Sin embargo no
siempre es suficiente la biyectividad para definir los isomorfismos. Por ejemplo, en topologı́a los
morfismos son las funciones continuas. Pero la inversa de una biyección continua no siempre es
continua. Por esto, un isomorfismo de espacios topológicos hay que definirlo como una biyección continua
cuya inversa es continua.

Composición de morfismos

Sean A, B y C tres conjuntos y f : A → B , g : B → C dos funciones. A la función


g ◦ f : A → C definida por (g ◦ f) (a) = g (f (a)) se le llama la composición de f con g. A
partir de ahora el sı́mbolo ◦ solo lo utilizaremos para denotar la composición de funciones.
Observese el orden en que escribimos las funciones ya que la composición de funciones no
es conmutativa.

La composición de funciones es asociativa.

Prueba. Sean f : A → B , g : B → C y h : C → D tres funciones. Por definición de


composición para cualquier a ∈ A tenemos
(h ◦ (g ◦ f)) (a) = h ((g ◦ f) (a)) = h (g (f (a))) = (h ◦ g) (f (a)) = ((h ◦ g) ◦ f) (a)
que es lo que se querı́a probar
Ahora, supongamos que en A, B y C hay definidas operaciones binarias. Entonces f, g y
g ◦ f pueden ser morfismos o no. Sin embargo, si f y g lo son entonces f ◦ g también lo es.

Las composiciónes de morfismos son morfismos.

Prueba. Denotemos las operaciones en A, B y C con el mismo sı́mbolo •. Como f y g


son morfismos tenemos (g ◦ f) (a • b) = g (f (a • b)) = g (f (a) • f (b)) = g (f (a)) •
g (f (b)) = (g ◦ f) (a) • (g ◦ f) (b) que es lo que se necesitaba probar.

Ejercicio 19 Pruebe que el conjunto de todos los automorfismos de un conjunto con una o
dos operaciones binarias es un grupo con respecto a la composición de funciones.
14 Capı́tulo 1. Campos
1.4 Campos de restos
Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muy
conocidos por el lector. Es imprescindible, para dar una intuición saludable de lo que es un
campo, introducir otros que no sean tan usuales. En esta sección presentaremos ciertos cam­
pos que tienen un número finito de elementos. Para construirlos, usaremos las propiedades
de los morfismos de la sección anterior.
El anillo de los enteros módulo n
Sea n un número natural mayor que 1. Para un entero a la a ¢ b = (a + b) mod n
notación a mod n significa el resto de la división de a entre n. a ¡ b = (ab) mod n
O sea, el menor natural k tal que existe un entero t para los
cuales a = k + tn. Por definición a mod n ∈ Zn = {0, 1, ..., n − 1} por lo que en Zn hay
naturalmente definidas dos operaciónes binarias como se muestra en el recuadro.

Ejercicio 20 Construya las tablas de sumar y multiplicar en Z2 , Z3 y Z4 .

(Zn , ¢, ¡) es un anillo conmutativo.

Prueba. Probemos que la función f : (Z, +, •) → (Zn , ¢, ¡) dada por f (a) = a mod n es
un morfismo de anillos. Observemos que por definición a¢b = f (a + b) y a¡b = f (ab) .
Para cualesquiera x, y ∈ Z por definición de f existen enteros p, q tales que x = f (x) +
qn, y = f (y) + pn y por lo tanto f (x) = f (y) si y solo si x − y es multiplo de n.
Tenemos que f (x) + f (y) = x + y − (q + p) n y por lo tanto (f (x) + f (y)) − (x + y)
es múltiplo de n. Luego, f (x + y) = f (f (x) + f (y)) o lo que es lo mismo, f (x + y) =
f (x) ¢ f (y) y esto prueba que f es morfismo para la suma.
Por otro lado f (x) f (y) = (x − qn) (y − pn) = xy + (nqp − yq − xp) n y por lo
tanto (f (x) f (y)) − (xy) es múltiplo de n. Luego, f (xy) = f (f (x) f (y)) o lo que es lo
mismo, f (xy) = f (x) ¡ f (y) y esto prueba que f es morfismo para el producto.
Como f es sobre, (Z, +, •) es anillo conmutativo y los morfismos preservan las propie­
dades de las operaciones, concluimos que (Zn , ¢, ¡) es también un anillo conmutativo.

Hemos denotado la suma y el producto en Zn con los sı́mbolos extraños ¢ y


¡. El objetivo de esto fué el asegurarnos que en la demostración del resultado
anterior el lector no se confundiera con la suma y el producto habitual de núme­
ros enteros. De ahora en lo adelante no haremos más esto. La suma en Zn se denotará con el
sı́mbolo + y el producto, con la ausencia de sı́mbolo alguno, o a lo más, con un punto. Para
poder hacer esto es necesario que el lector comprenda (muchas veces solo del contexto) en
que sentido estamos utilizando estas notaciones. Ası́ por ejemplo, 2 + 3 = 5 si la suma es la
habitual de enteros o es la de Z11 pero 2 + 3 = 1 si la suma es la de Z4 .
Sección 1.4 Campos de restos 15

Dominios de integridad
Después de saber que (Zn , +, ·) es un anillo conmutativo, lo natural es preguntarnos si
este es un campo, ya que lo único que le falta a un anillo conmutativo para ser campo, es la
existencia de inversos para el producto. Veamos por ejemplo el caso de Z6 . Aquı́ tenemos
2·3 = 0. Que raro, el producto de dos números diferentes de cero es igual a cero. ¿Es posible
eso en un campo? Veremos que no.
Un anillo conmutativo se le llama dominio de integridad si el producto elementos dis­
tintos de cero es siempre diferente de cero. Sabemos que Z, Q, R y C son dominios de
integridad. También, ya vimos que Z6 no es dominio de integridad.

Todo campo es un dominio de integridad.

Prueba. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad por el


inverso multiplicativo de p obtenemos 0 = p−1 0 = p−1 pq = q. Luego, q = 0.
Luego, Z6 no es un campo. Este ejemplo se generaliza fácilmente. Sea n = pq una
descomposición en factores no triviales (ambos diferentes a 1) de n. Sabemos que p y q
están en Zn y que pq = n = 0 mod n. Luego, si n es un número compuesto (no primo)
entonces, Zn no es un dominio de integridad y por lo tanto no es un campo.
El campo de los enteros módulo p
Y ¿que pasa cuando p es primo?

Zp es un dominio de integridad.

Prueba. Sean x, y ∈ {1, . . . , p − 1} . Si xy = 0 en Zp entonces xy = 0 mod p. Luego, en Z


tenemos que xy = kp. Como p es primo entonces, p divide a x o y pero esto no puede ser
ya que ambos son menores que p.
Este resultado no es suficiente para probar que Zp es un campo ya que hay dominios de
integridad que no son campos (por ejemplo Z). Nos hace falta el siguiente resultado.

Todo dominio de integridad finito es un campo.

Prueba. Sea A un dominio de integridad finito. Para ver que A es un campo solo hay que
demostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrario no nulo de
A. Denotemos por fa la función A 3 x 7→ ax ∈ A. Esta función es inyectiva ya que
(ax = ay) ⇒ (a (x − y) = 0) ⇒ (x − y = 0) ⇒ x = y
Como fa es una función inyectiva de un conjunto finito en si mismo es también sobreyectiva.
Luego tiene que existir b tal que fa (b) = ab = 1. Como el producto es conmutativo, esto
demuestra que a tiene inverso.
16 Capı́tulo 1. Campos
Como Zp es finito, concluimos inmediatamente que Zp es un campo si y
solo si p es un número primo. Los campos Zp son los primeros ejemplos de
campos que tienen un número finito de elementos. A los campos finitos se
les lama campos de Galois en honor al matemático francés Evariste Galois
(1811­1832). Al resolver el problema de encontrar cuales ecuaciones poli­
nomiales son solubles en radicales y cuales no, Galois de facto inventó la
Teorı́a de Grupos. Galois murió a los 20 años en un duelo provocado por
asuntos amorosos y/o polı́ticos. El apellido Galois se pronuncia en español como “galuá”

Ejercicio 21 Halle los inversos de los elementos no nulos de Z5 . [174]


Ejercicio 22 Demuestre que todo subgrupo finito con q elementos del grupo multiplicativo
de un campo es isomorfo a (Zq , +) . En particular, (Zp \0, •) es isomorfo a (Zp−1 , +). [175]
Ejercicio 23 Demuestre que Z211 con las operaciones (a, b) + (a0 , b0 ) = (a + a0 , b + b0 ) y
(a, b) (a0 , b0 ) = (aa0 + 7bb0 , ab0 + a0 b) es un campo de 121 elementos. [176]

1.5 Campos primos. Caracterı́stica

Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K que es


campo para las mismas operaciones. Si L es un subcampo de K entonces ∀a, b ∈ L ∀c ∈
L\{0} se tienen que cumplir las siguientes propiedades
1. a + b ∈ L, −a ∈ L, (L es un subgrupo aditivo)
2. ab ∈ L, c−1 ∈ L, (L\{0} es un subgrupo multiplicativo)
Recı́procamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones de suma,
opuesto, producto e inverso están correctamente definidas dentro de L y el tiene que contener
a 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K, con más razón se
cumplen dentro de L. Esto indica que para comprobar si L es un subcampo basta comprobar
las propiedades 1 y 2. El ejemplo más sencillo de esto es Q, que es subcampo R, que a su
vez es subcampo de C.
El concepto de subcampo incluye las operaciones. Si por un lado podemos consi­
derar a Zp = {0, 1, ..., p − 1} como subconjunto de Q, por el otro, Zp NO es un
subcampo de Q (ya que por ejemplo 2 (p − 1) = p − 2 en Zp lo que no es cierto
en Q). De la misma manera, ningún Zp es subcampo de Zq para p 6= q.

Campos primos
Todo campo es subcampo de si mismo. A los campos que no tienen ningún subcampo
distinto de si mismo se les llama campos primos. Los campos primos son los más sencillos
y deduciremos cuales todos ellos.
Sección 1.5 Campos primos. Caracterı́stica 17

Todo campo K contiene un único subcampo primo


que está contenido en cualquier subcampo de K.

Prueba. La intersección de una colección arbitraria de subcampos de K es un subcampo.


Para ver esto observamos que si a y b pertenecen a todos los subcampos de la colección
entonces a + b también. Por lo tanto, a + b está en la intersección de ellos. Lo mismo
ocurre para el producto, para los neutros y los inversos. En particular, si nos fijamos en la
intersección de todos los subcampos de K, vemos que esta es un subcampo que no contiene
subcampos y que está contenida en cualquier subcampo de K.

El campo Q de los números racionales es primo.

Prueba. Sea K un subcampo de Q. Tenemos 1 ∈ K y por lo tanto todas las sumas 1 + ... + 1
y sus opuestos aditivos tienen que estar en K. Luego, todos los enteros están en K. También
los inversos multiplicativos de los números enteros y sus productos tienen que estar todos en
K. Luego, todos los racionales están en K.

Los campos Zp de los restos módulo un número primo son campos primos.

Prueba. Sea K un subcampo de Zp . Tenemos 1 ∈ K y por lo tanto todas las sumas 1+...+1
están en K. Como cualquier elemento de Zp es suma de unos obtenemos que Zp ⊆ K.

Teorema de Clasificación de Campos Primos

Los campos Zp y el campo Q son los únicos campos primos.

n veces
z }| {
Prueba. Sea un K campo primo. Para un número natural n denotemos por n = 1 + ... + 1
donde 1 es el neutro multiplicativo de K. Observese que 0 = 0. Obviamente, n es un ele­
mento del campo. Denotemos por P = {n ∈ K | n ∈ N} . Hay dos posibilidades excluyentes
1. La aplicación n 7→ n es una biyección de en N en P.
2. Existen dos naturales distintos n y m tales que n = m.
En el primer caso K contiene a los naturales. Como K es un campo también tiene que
contener a los opuestos de los naturales, o sea a los enteros. Por la misma razón, K tiene
que contener a los inversos de los enteros con lo que se prueba que los racionales son un
subcampo de K. Como K es primo obtenemos que K = Q.
En el segundo caso, sea p el natural más pequeño para el cual existe n < p tal que n = p.
Tenemos n = p ⇒ p − n = p − n = 0. Si n > 0 entonces, p − n < p y además p − n = 0
lo que contradice la minimalidad de p. Luego, n = 0 y por lo tanto p = 0.
18 Capı́tulo 1. Campos
Sea ahora x > p. Como sabemos dividir los enteros con resto entonces, existen naturales
a, k tales que x = a + kp y a < p. De aquı́
kp veces k veces
z }| { z }| {
x = a + kp = a + kp = a + 1 + ·
| {z }· · + 1 + · · · + 1 + ·
| {z }· · + 1 = a + 0 +···+0 = a
p veces p veces
lo que muestra que P es el anillo Zp de los restos módulo p. Si p no es primo entonces, en
Zp ⊆ K hay dos elementos a, b no cero tales que ab = 0. Como en un campo esto no es
posible entonces, deducimos que p es primo. Luego, Zp es un subcampo de K. Como K es
primo obtenemos que K = Zp .

Caracterı́stica

Por el teorema anterior cualquier campo o contiene a Q o contiene a Zp . Se dice que un


campo es de caracterı́stica 0 si este contiene a Q. Se dice que un campo es de caracterı́stica
p si este contiene a Zp . La caracterı́stica de un campo es un número primo o es cero. La
propiedad fundamental de la caracterı́stica de un campo es la siguiente:

Si K es un campo de caracterı́stica t
entonces, ta = 0 para cualquier a ∈ K.

Prueba. Si t = 0 la afirmación es trivial. Si t es primo entonces, el campo contiene a Zt y


t veces
z }| {
tx = x + ... + x = 1x + ... + 1x = (t1) x
Como 1 ∈ Zt entonces también t1 ∈ Zt . En Zt se tiene que t1 = 0. Luego tx = 0x = 0.

Ejercicio 24 ¿Contradice o no 1.15 que todo campo es un dominio de integridad? [176]


Ejercicio 25 ¿Es cierto o no que en todo campo (a = −a) ⇒ (a = 0)? [176]

1.6 Aritmética de campos

Los campos se comportan en la mayorı́a de las cosas importantes como los números
reales. Por más que tratemos construir un campo raro pero muy raro (lo que es posible) no
lograremos que se dejen de cumplir todas las propiedades de la aritmética las cuales nos
son familiares desde temprana edad. Pasemos a describir en toda su generalidad algunas
consecuencias simples y otras un poco más complicadas de los axiomas de campo lo que nos
convencerá de lo afirmado.
Sección 1.6 Aritmética de campos 19

Múltiplos y exponentes enteros

En todo campo para cualquier número entero n y cualquier elemento del campo a se
usan las siguientes notaciones
⎧ n veces ⎧ n veces
⎪ z }| {
⎨ a + a + ... + a si n > 0 ⎪ z }| {
⎨ aa...a
n
si n > 0
na = 0 si n = 0 a = 1 si n=0

⎩ ⎪

(−n) (−a) si n < 0 1
a− n
si n < 0

y se cumplen las propriedades usuales: (n + m) a = na + ma y an+m = an am .


Asociatividad general

Recordemos nuevamente el uso del sı́mbolo de sumatoria Σ. Si A es un conjunto


X
n
finito de elementos del campo entonces podemos escribir la expresión en el re­
ai cuadro a la izquierda para expresar que queremos sumar todos los elementos del
i=1
conjunto A = {a1 , ..., an }.
La asociatividad de la operación de suma nos dice que esta expresión tiene sentido único
ya que no es necesario explicitar las sumas hay que realizar primero y cuales después.
En realidad incluso esta notación es redundante, más consisa es esta otra nota­ X
ción en el recuadro a la derecha que podemos usar gracias a la conmutatividad de a
la suma. O sea no importa si en la suma a1 está delante de a2 o al revéz. Solo es a∈A
necesario especificar cual es el conjunto A de elementos que se están sumando.
Como tenemos que el producto de elementos de un campo es también
Yn Y asociativo y conmutativo podemos usar las expresiones equivalentes de
ai = a la izquierda para denotar el producto de todos los elementos del conjunto
i=1 a∈A
A = {a1 , ..., an } .
Distributividad general

Mucho más difı́cil es dar una forma general de la ley distributiva. Usando las leyes de
los campos obtenemos (a + b) (c + d) = a (c + d) + Ã !Ã !
b (c + d) = ac + ad + bc + bd y el lector podrá con­ X X XX
vencerse fácilmente haciendo el cálculo para conjuntos a b = ab
pequeños A y B que en general se cumple la fórmula a∈A b∈B a∈A b∈B

de la derecha.
Más general, para muchos factores tenemos
à !à ! à !
X X X XX X
a b ··· c = ... ab · · · c
a∈A b∈B c∈C a∈A b∈B c∈C

A esta igualdad la llamaremos forma general de la ley distributiva y tendremos muchas


ocaciones en que la usaremos.
20 Capı́tulo 1. Campos
Fórmula multinomial

Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos sean
iguales obtenemos la siguiente fórmula:
à !n
X X X
a = ... a1 · · · an (*)
a∈A a 1 ∈A a n ∈A

Esta fórmula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, el pro­
ducto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad tiene
(gracias a la asociatividad y conmutatividad del producto) una manera mucho más sencilla
de expresarse como a4 b3 c3 . Para arreglar este defecto, démosle nombres a los elementos de
A y pongamos A = {x1 , ..., xm }. Ahora si n1 , ..., nm son naturales entonces,P un monomio
n1
x1 · · · xm aparece como sumando a la derecha en la fórmula (*) si y solo si Pni = n (ya
nm

que los sumandos en (*) son productos de n elementos de A). Supongamos que ni = n. Si
todos los ni son uno o cero entonces en (*) hay n! sumandos iguales al monomio xn1 1 · · · xnmm
(ya que podemos ordenarlos de ese número de maneras). Si digamos n7 es mayor que 1 en­
tonces tenemos que dividir por n7 ! ya que al permutar x7 ...x7 no obtenemos nuevos suman­
dos en (*). Lo mismo sucede con los otros ni . Como por definición 0! = 1! = 1, finalmente
obtenemos la siguiente expresión conocida como fórmula multinomial.
à m !n
X X n!
xi = xn1 1 · · · xnmm
i=1
n1 !...nm !

donde la suma aPla derecha de la igualdad recorre todas las soluciones en números naturales
de la ecuación ni = n. En el caso particular m = 2, haciendo el cambio de variable
n1 = k obtenemos

n
X n! n 1 n 2 X
n
n!
(x + y) = x y = xk yn−k
n 1 +n 2 =n
n1 !n2 ! k=0
k! (n − k) !

que es la famosa fórmula del binomio de Newton.


Si bien las fórmulas que hemos demostrado parecen ser complicadas
los argumentos que llevan a ellas son muy sencillos. Es importante
que el estudiante que desee estudiar el álgebra lineal a profundidad
se familiarize bien con estos argumentos ya que las formas multili­
neales y en particular los determinantes son muy parecidos a la parte
derecha de la igualdad (*).
Sir Isaac Newton (Inglaterra 1643­1727). Probablemente el cien­
tı́fico más renombrado de todos los tiempos. Fundador de la mecáni­
ca, la óptica y el cálculo diferencial. Sus tres leyes de la mecánica
fundaron la base de la ingenierı́a que llevó a la revolución industrial.
Sección 1.6 Aritmética de campos 21

Ejercicio 26 Sea K un campo de caracterı́stica p > 0. Demuestre que la función K 3


x 7→ xp ∈ K es un morfismo de campos. Demuestre que si K es un campo finito entonces
esta función es un automorfismo de K. A este automorfismo se le llama automorfismo de
Frobenius. [176]

La expansión de ΠΣαij

Ahora deduciremos otra consecuencia de la forma general de la ley distri­ Y X


butiva que usaremos mucho más adelante. Supongamos que N es un conjunto αij
finito de ı́ndices y que para cada pareja de ı́ndices (i, j) tenemos un elemento i∈N j∈N
del campo K que denotaremos por αij . Nuestro objetivo es usar la ley distri­
butiva para expresar el elemento del campo del recuadro a la derecha como una suma de
productos.
Para esto lo más cómodo es pensar que el conjunto N es {1, . . . , n} y expresar la forma
general de la ley distributiva en nuestro caso de la siguiente manera
à ! à !
X X X X XY
α1j1 · · · αnjn = ... α1j1 · · · α1jn = αiji
j1 ∈N jn ∈N j1 ∈N jn ∈N i∈N
donde la suma más a la derecha en esta igualdad recorre todos los elementos (j1 , . . . , jn )
del producto cartesiano N × · · · × N de n copias de N o sea, Nn . Otra manera de pensar
a (j1 , . . . , jn ) es que tenemos una función f : N = {1, . . . , n} 3 i 7→ ji = f (i) ∈ N y en
nuestra suma tenemos que recorrer todas estas posibles funciones o sea, el conjunto NN de
todas las funciones de N en N. Luego, en estas notaciones finalmente obtenemos
YX XY
αij = αif(i)
i∈N j∈N f∈N N i∈N

que es una fórmula que ya no depende de cual es el conjunto N.


Debemos recalcar una vez más que todo lo dicho en esta sección es válido para cual­
quier campo, sea este R, C, Q, Zp o cualquier otro campo que aún no conoscamos. Esta es
la ventaja intrı́nseca de la abstracción. No tenemos que demostrar el teorema de Pitágoras
para triángulos de acero, madera, etc. Estas propiedades no tienen nada que ver con que el
cuadrado de la hipotenusa sea igual a la suma de los cuadrados de los catetos. De la misma
manera el binomio de Newton no tiene nada que ver con que si los números son reales o
complejos u otros. Solo basta que nuestros números formen un campo.
Un lector atento, podrı́a observar que en las pruebas de todas las fórmulas en ningún momento usa­
mos la existencia de inversos en el campo. Luego, estas son válidas en cualquier anillo conmutativo.
A diferencia de las matemáticas elementales en matemáticas superiores, por aritmética se entiende
el estudio de las propiedades de divisibilidad en anillos. En este sentido, la aritmética de campos es trivial ya
que todo elemento se divide entre cualquier otro no nulo.
22 Capı́tulo 1. Campos
1.7 Polinomios sobre campos

Hay muchas maneras de ver los polinomios. La manera más sencilla de ver­
los es que un polinomio de grado n en la literal x es una expresión formal del X
n

tipo en el recuadro a la derecha donde los coeficientes a0 , ..., an son elementos ai xi


i=0
de cierto campo K y an 6= 0. Al coeficiente an se le llama coeficiente principal
del polinomio.
Suma y producto de polinomios

Aunque el lector seguramente conoce las definiciones de suma y producto de polino­


mios, nos parece apropiado recordar P el porqué de las mismas. Si interpretamos a x como un
elemento del campo K entonces, ai xi también es un P elemento del campo K. Esto quiere
decir que un polinomio define una función K 3 x 7→ ai x ∈ K y en esta interpretación x
i

no es una literal sino una variable. Siendo esta interpretación de los polinomios fundamental,
necesitamos que la suma y producto de polinomios concuerde con la definición de suma y
producto de funciones (f + g) (x) = f (x) + g (x), (fg) (x) = f (x) g (x). Por esto, tenemos
X n Xn Xn
¡ i ¢ X n
i i i
ai x + bi x = ai x + bi x = (ai + bi ) xi
i=0 i=0 i=0 i=0
donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por distri­
butividad. O sea, interpretamos al polinomio como la imagen por la función de evaluación
de la variable x que toma sus valores en el campo. Para el producto, usando la forma general
de la ley distributiva tenemos
à n !à m ! ⎛ ⎞
mı́n(n,k)
X X Xn X m X
n+m X
ai xi bj xj = ai bj xi+j = ⎝ ai bk−i ⎠ xk
i=0 j=0 i=0 j=0 k=0 i=máx(0,k−m)

donde la segunda igualdad se obtiene haciendo el cambio de variable k = i + j y usando aso­


ciatividad, conmutatividad y distributividad. Se puede saber sumar y multiplicar polinomios
sin saberse estas fórmulas. Lo importante es saber aplicar sistemáticamente asociatividad,
conmutatividad y distributividad para obtener el resultado deseado. El conjunto de todos los
polinomios sobre un campo arbitrario K forma un anillo conmutativo (para ser campo solo
le falta la existencia de inversos multiplicativos). A este anillo se lo denota por K [x].

División de polinomios

División con Resto de Polinomios

Sean p y q dos polinomios. Existen polinomios c y r tales que


1. p = cq + r
2. El grado de r es estrictamente menor que el grado de q.
Sección 1.7 Polinomios sobre campos 23
P P
Prueba. Sea p = ai xi un polinomio de grado n y q = bi xi un polinomio de grado
m. Si n < m entonces poniendo c = 0 y r = p terminamos.
Supongamos m ≤ n. Entonces, sacando cuentas nos podemos convencer
xn−m an de que p = c1 q + r1 donde c1 y r1 son los polinomios en los recuadros.
c1 =
bm El grado de r1 es menor que el grado de
p. Si el grado de r1 es menor que el grado P
n−1 P
m−1
r1 = ai xi − c1 bi xi
de q entonces ya terminamos, si no entonces, haciendo los i=0 i=0
mismos cálculos podemos escribir r1 = c2 q + r2 y vamos
disminuyendo el grado de ri hasta que este sea menor que el grado de q.
Luego, hay un i tal que p = (c1 + ... + ci )q + ri y el grado de ri es estrictamente menor
que el grado de q. Al polinomio c = c1 + ... + ci se le llama cociente de p entre q; al
polinomio r = ri se le llama resto de p entre q.

Factores y raices

Sean p y q dos polinomios. Si existe un polinomio c tal que p = cq entonces se dice que
q divide a p, o que q es un divisor de p, o que p es un múltiplo de q. Obviamente, cualquier
polinomio de grado cero divide a cualquier otro polinomio (en un campo hay inversos).
Diremos que q es un factor de p si q divide a p y el grado de q es al menos uno.
P
Sea p (x) = Pni=0 ai xi un polinomio en K [x] . Sea b un elemento arbitrario del cam­
po. Obviamente ni=0 ai bi es también un elemento del campo ya que la suma, la multi­
plicaciónPy las potencias están bien definidas en un campo arbitrario. Es natural denotar
p (b) = ni=0 ai bi . Esto nos da una función K 3 b 7→ p (b) ∈ K llamada la función de
evaluación del polinomio p. Los ceros de esta función son las raices del polinomio p, o sea
son los elementos del campo b tales que p (b) = 0. Al conjunto de todas las raices de p lo
llamaremos nucleo de p y lo denotaremos por ker p (en inglés “nucleo” es “kernel”). Las
raices y los factores de un polinomio están enlazados por el siguiente resultado:

Para que b sea una raı́z de p es necesario


y suficiente que (x − b) sea un factor de p.

Prueba. Dividamos con resto p entre (x − b). Sean c y r tales que p (x) = c (x) (x − b)+r.
Como (x − b) es de grado uno r tiene que ser de grado cero. Evaluando en b obtenemos
p (b) = c (b) (b − b) + r = r. Luego, si b es raı́z entonces, r = 0 y recı́procamente.
Sea b una raı́z del polinomio p. Si n ≥ 1 es el mayor natural tal que (x − b)n es factor
de p entonces a n se le llama multiplicidad de la raı́z b. Es muy incómodo trabajar con el
concepto de multiplicidad. Por ejemplo, tomemos la afirmación: “Si b1 y b2 son dos raices
del polinomio p entonces (x − b1 ) (x − b2 ) es un factor de p”. Esta afirmación es cierta no
solo para cuando b1 6= b2 sino también cuando son iguales pero la raı́z tiene multiplicidad
mayor que 2.
24 Capı́tulo 1. Campos
Es mucho más cómodo pensar que si una raı́z tiene multiplicidad n entonces
hay n “diferentes” raices todas del mismo “valor”. Este abuso del lenguaje
será común en este libro y a partir de ahora no tendremos necesidad de usar
continuamente el concepto de multiplicidad. Le dejamos al lector interesado la desagradable
tarea, de ajustar los hechos expuestos a un lenguaje más riguroso.
Ahora el nucleo de un polinomio no es exactamente un conjunto sino una “colección” de
elementos
¡ del campo en¢la cual puede haber elementos repetidos. Ası́ por ejemplo tenemos
Ker x3 − 6x2 + 9x − 4 = {1, 1, 4}. Ajustada nuestra terminologı́a, podemos establecer una
importante consecuencia del resultado anterior.

Un polinomio de grado n tiene a lo más n raices.

Prueba. Si elQ polinomio p tiene como raices a b1 , . . . , bn+1 entonces p tiene, por 1.18,
como factor a n+1
i=1 (x − bi ) que es un polinomio de grado n + 1. Esto contradice que p
tiene grado n.

Ideales de polinomios

Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propiedades:


¨ Si p, q ∈ I entonces p + q ∈ I.
¨ Si p ∈ I y r ∈ K [x] entonces rp ∈ I.

En otras palabras, la suma es una operación binaria dentro del ideal y cualquier múltiplo
de un elemento del ideal también está en el ideal. Los ideales más sencillos son los que
se forman tomando todos los múltiplos de un polinomio fijo p. Si qp y q0 p son dos tales
múltiplos entonces qp + q0 p = (q + q0 ) p también es un múltiplo de p. Esto demuestra
la propiedad 1. La propiedad 2 se cumple obviamente. Estos ideales se les llama ideales
principales. Lo asombroso es que todo ideal es ası́.

Todo ideal de polinomios es principal.

Prueba. Sea I un ideal. Sea ahora m un polinomio no nulo de grado mı́nimo tal que m ∈ I
y denotemos por el conjunto de todos los múltiplo de m o sea, Im = {αm | α ∈ K [x]}. Por
la propiedad 1 se tiene que Im ⊆ I. Probemos que Im = I. Efectivamente, si g ∈ I entonces
dividiendo g entre m obtenemos polinomios α, r tales que g = αm + r donde el grado de r
es menor que el grado de m o r es nulo. Tenemos r = g − αm y por las propiedades 1 y 2
esto significa que r ∈ I. De la minimalidad del grado de m obtenemos r = 0. y por lo tanto
g ∈ Im . Esto prueba que Im = I o sea, que I es principal.
Observese que facilmente podemos definir los ideales en cualquier anillo conmutativo.
Sin embargo, no siempre cualquier ideal es principal. Este es el caso por ejemplo, para el
anillo de polinomios de dos variables K [x, y].
Sección 1.7 Polinomios sobre campos 25

Una primera consecuencia de 1.19 es el Teorema de Bezout, el cual tendremos muchı́si­


mas oportunidades para utilizarlo.

Teorema de Bezout

Sean p y q dos polinomios sin factores comunes.


Existen polinomios α y β tales que αp + βq = 1.

Prueba. Denotemos por Ipq = {αp + βq | α, β ∈ K [x]}. Probemos que Ipq es un ideal.
Veamos primero que la suma de elementos de Ipq está en Ipq . Efectivamente,
(αp + βq) + (α0 p + β0 q) = (α + α0 ) p + (β + β0 ) q = α00 p + β00 q
donde α00 = (α + α0 ) y β00 = (β + β0 ). Ahora, comprobemos que los múltiplos de los
elementos de Ipq están en Ipq . Tenemos, γ (αp + βq) = γαp + γβq = α0 p + β0 q donde
α0 = γα y β0 = γβ y con esto concluimos que Ipq es un ideal.
Como todo ideal de polinomios es principal, existe m tal que Ipq = {αm | α ∈ K [x]}.
Como p, q ∈ Ipq , existen polinomios α y β tales que p = αm y q = βm. Como p y q no
tienen factores comunes, esto significa que m es de grado cero y por lo tanto Ipq = K [x].
En particular, 1 ∈ Ipq .
Etienne Bezout (Francia, 1730­1783). Famoso en su época sobre todo por
los seis volúmenes de su libro de texto “Cours complet de mathématiques à
l’usage de marine et de l’artillerie” que por muchos años fueron los libros
que estudiaban los que aspiraban a ingresar a la “École Polytechnique”. Su
investigación matemática la dedicó al estudio de los determinantes y de las
soluciones de ecuaciones polinomiales.

Ejercicio 27 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin factores
comunes. Entonces, existen dos enteros α y β tales que αp + βq = 1. [177]

Unicidad de la factorización en irreducibles.


Al descomponer un polinomio en factores causan muchos problemas de escritura los di­
visores que no son factores o sea, los polinomios de grado cero. Por esto es conveniente
introducir la siguiente definición. Un polinomio se le llama mónico si su coeficiente prin­
cipal es 1. La ventaja de trabajar con polinomios mónicos es que cualquier polinomio p
se descompone como αp0 donde α es su coeficiente principal y p0 es mónico. Luego, para
descomponer p en factores, solamente nos tenemos que fijar en los factores mónicos de p0 .
Diremos que un factor q es factor propio del polinomio mónico p, si q es mónico y p 6= q.
Un polinomio se le llama irreducible si este es mónico, tiene grado mayor que 1 y no
tiene factores propios. En otras palabras, cuando no se puede descomponer no trivialmente en
producto de dos factores. Cualquier polinomio p se puede descomponer como αp1 p2 . . . pn
donde α es su coeficiente principal y p1 · · · pn son polinomios irreducibles. La prueba de
26 Capı́tulo 1. Campos
esto es obvia. Si un polinomio no es irreducible puedo descomponerlo en producto de dos
factores. Si estos factores no son irreducibles puedo descomponer en factores cada uno de
ellos y ası́ sucesivamente llegamos a factores irreducibles.

Teorema de Factorización de Polinomios

Cualquier polinomio p se descompone como αp1 p2 . . . pn donde α


es su coeficiente principal y p1 · · · pn son polinomios irreducibles.
Esta descomposición es única salvo el orden de los factores.

Prueba. Solamente debemos probar la unicidad. Además, sacando como factor el coeficien­
te principal podemos suponer que p es mónico. Si p es de grado 1 entonces no hay nada que
probar ya que entonces p es irreducible y la única descomposición de p es el mismo.
Supongamos que el teorema es cierto para cualquier polinomio de grado estrictamente
menor que k. Sea p mónico de grado k que tiene dos descomposiciones en irreducibles
p1 . . . pn = p01 . . . p0m . Como todos los polinomios involucrados son irreducibles tiene que
existir un j tal que p0j = pn . Luego, para p/pn = p/p0j tenemos dos descomposiciones que
por hipótesis de inducción son iguales salvo orden.

Desarrollo de Taylor

Brook Taylor (Inglaterra 1685­1731). Entre las contribuciones de este


matemático, se destacan: La invención de la rama de las matemáticas
que hoy en dı́a se conoce como Cálculo en Diferencias, la invención de
la integración por partes, y la fórmula llamada por su nombre. En 1772
Lagrange proclamó esta fórmula como “el principio básico del cálculo
diferencial”. A esta fórmula, enunciada en la siguiente proposición, se
le llama Desarrollo de Taylor alrededor del punto x0 . Como el lector
sabe de los cursos de cálculo, este desarrollo es mucho más general y
se cumple en cierta clase de funciones. Sin embargo para polinomios, su demostración es
independiente del campo y puramente algebraica (no requiere del concepto de continuidad).

Desarrollo de Taylor

Para cualquier polinomio p (x) y cualquier elemento del campo


x0 existen unos únicos coeficientes α0 , α1 , . . . , αn tales que
p (x) = α0 + α1 (x − x0 ) + · · · + αn (x − x0 )n .

P
Prueba. Sea p (x) = ak xk un polinomio de grado n. Si x0 = 0 entonces, αk = ak .
Sección 1.8 Polinomios complejos. Teorema de Gauss 27

Supongamos que x0 6= 0. Por el binomio de Newton tenemos


j µ ¶
à n µ ¶ !
Xn Xn X j Xn X j
αj (x − x0 )j = αj xk (−x0 )j−k = (−x0 )j−k αj xk
j=0 j=0 k=0
k k=0 j=k
k
y para encontrar nuestros ¡coeficientes
¢ αj tenemos para k ∈ {0, . . . , n} las igualdades ak =
Pn j j−k
j=k bkj αj donde bkjP
= k (−x0 ) . Observese que bkk = 1 por lo que despejando ob­
tenemos αk = ak − nj=k+1 bkj αj por lo que podemos hallar αn = an después αn−1 y
ası́ sucesivamente todos.

Pi ¡ ¢¡ ¢
Ejercicio 28 Demuestre que la expresión j=k(−1)j−k kj ij es igual a la función delta
de Kronecker δik o sea, es cero si i 6= k y es uno si i = k. [177]
Ejercicio
P
29 Demuestre que los coeficientes
Pn ¡i¢ i−j j
α del Desarrollo de Taylor (1.22) del polino­
mio ak x son iguales a βj = i=j j ai x0 . [177]
k

Ejercicio 30 Pruebe que los coeficientes αj del Desarrollo de Taylor (1.22) del polinomio
p (x) son iguales a p(j) (x0 ) /j! donde p(j) (x) denota el polinomio derivado j veces. [177]

1.8 Polinomios complejos. Teorema de Gauss

En esta sección demostraremos que el campo de los números complejos es algebraica­


mente cerrado. Como esta demostración no es algebraica sino analı́tica necesitaremos in­
troducir algunos conceptos básicos de análisis complejo. Para esto, presupondremos que el
lector conoce los correspondientes conceptos de análisis real.
Si bién, el contenido de esta sección no es básico para la com­
prensión del álgebra lineal, por otro lado, si es fundamental que
el lector conosca a la perfección el enunciado del teorema de
Gauss: todo polinomio complejo de grado al menos 1 tiene una
raı́z.
Johann Carl Friedrich Gauss (Alemania 1977­1855) fué el
más grande matemático de su época. Este teorema que lleva su
nombre fué demostrado por primera vez en su tesis doctoral
(1799). Este teorema es también conocido como el “teorema
fundamental del álgebra”. En este libro tendremos ocación de
mencionar otros resultados de Gauss y cualquiera que se de­
dique a estudiar matemáticas, estadı́sticas, fı́sica o astronomı́a
oirá de este cientı́fico en más de una ocasión.
28 Capı́tulo 1. Campos
Forma polar. Igualdad de Moivre

Todo número complejo z se puede representar en la forma polar




z = r (cos ϕ + i sin ϕ) donde r es la longitud del vector 0z en el
plano complejo y ϕ es el ángulo que forma dicho vector con el eje real r
de este plano (vease la figura). Al número r se le llama módulo del r sin ϕ
número complejo y es común que se denote por kzk. Al ángulo ϕ se le ϕ
llama argumento del número complejo. La forma polar hace mucho r cos ϕ
más fácil calcular el producto y las potencias de números complejos.

Para hallar el producto de dos números complejos hay


que multiplicar sus módulos y sumar sus argumentos.

Prueba. Sean r (cos ϕ + i sin ϕ) y ρ (cos ψ + i sin ψ) dos complejos. Tenemos


r (cos ϕ + i sin ϕ) ρ (cos ψ + i sin ψ) =
rρ ((cos ψ cos ϕ − sin ψ sin ϕ) + (cos ψ sin ϕ + cos ϕ sin ψ) i) =
rρ (cos (ϕ + ψ) + i sin (ϕ + ψ))
que es lo que se necesitaba probar.

Aplicando este resultado al caso de la potencia de números


zn = rn (cos nϕ + i sin nϕ)
complejos obtenemos la igualdad mostrada en el recuadro a
la izquierda. Esta igualdad se conoce como la Igualdad de Moivre. Una de sus consecuen­
cias más importantes es el siguiente resultado.

Los polinomios zn − a tienen exactamente n raices complejas.

Prueba. Sea a = rn (cos√nϕ + i sin nϕ). Para k ∈ {0, 1, ..., n − 1} denotemos xk el núme­
ro complejo con módulo
µ
n
r y argumento (ϕ + 2kπ) /n.¶Por la Igualdad de Moivre tenemos
¡ √ ¢n ϕ + 2kπ ϕ + 2kπ
xnk = n r cos n + i sin n = r (cos ϕ + i sin ϕ) = a
n n
que es lo que se necesitaba probar.

Abraham de Moivre (Francia 1667­1754). Uno de los fundadores de la


Geometrı́a Analı́tica y de la Teorı́a de las Probabilidades. A pesar de su
exelencia cientı́fica, nunca tuvo la oportunidad de tener un puesto en alguna
universidad. Sus ingresos provenı́an de dar clases privadas de Matematicas
y murió en la pobreza. Moivre también es famoso por haber predicho el dı́a
de su muerte. Descubrió que dormı́a 15 minutos más cada noche y suman­
do la progresión aritmética calculó que morirı́a en el dı́a que dormirı́a 24
horas. ¡Tuvo razón!
Sección 1.8 Polinomios complejos. Teorema de Gauss 29

Ejercicio 31 Pruebe que el conjunto de raices complejas del polinomio zn − 1 es un grupo


para el producto. ¿Que grupo es este? [177]

Continuidad
Una función f : C → C es continua en el punto z0 si para todo real positivo ε existe otro
real positivo δ tal que se cumple que (kz − z0 k < δ) ⇒ (kf (z) − f (z0 )k < ε). Una función
continua en todo punto del plano complejo se le llama continua.

La función módulo z 7→ kzk es continua.

Prueba. Veamos la desigualdad kz − z0 k ≥ kkzk − kz0 kk. Esta desigualdad es equivalente


a la siguiente: “En un triángulo el valor absoluto de la diferencia de dos de sus lados siempre
es menor o igual que el tercero”. La prueba de esta la dejaremos en calidad de ejercicio.
Por esta desigualdad, tenemos que ∀ε > 0 ∃δ = ε tal que si kz − z0 k < δ entonces,
kkzk − kz0 kk ≤ kz − z0 k < ε y esto prueba nuestra tesis.

Ejercicio 32 Pruebe que en un triángulo el valor absoluto de la diferencia las longitudes de


dos de sus lados siempre es menor o igual que la longitud del tercero. [177]

La suma y el producto de funciones continuas


en un punto z0 son continuas en el punto z0 .

Prueba. Sean f y g funciones continuas en z0 . Con el objetivo de ahorrar espacio denotemos


fz = f (z), f0 = f (z0 ), gz = g (z) y g0 = g (z0 ). Para todo ε > 0 existen δ1 y δ2 tales que
(kz − z0 k < δ1 ) ⇒ (kfz − f0 k < ε)
(kz − z0 k < δ2 ) ⇒ (kgz − g0 k < ε)
y en particular para el mı́nimo (que llamaremos δ) de δ1 y δ2 se cumplen las dos desigualda­
des a la derecha. Sumando y aplicando la desigualdad del triángulo obtenemos:
θ = 2ε > kfz − f0 k + kgz − g0 k ≥ kfz − f0 + gz − g0 k = k(f + g) (z) − (f + g) (z0 )k
Luego, para todo θ > 0 existe δ tal que (|z − z0 | < δ) ⇒ |(f + g) (z) − (f + g) (z0 )| < θ
con lo que se prueba que la suma de continuas es continua.
Por otro lado, por la desigualdad del triángulo y 1.23 tenemos
k(fg) (z) − (fg) (z0 )k = kfz gz − f0 g0 k =
k(fz − f0 ) (gz − g0 ) + (fz − f0 ) g0 + (gz − g0 ) f0 k ≤
kfz − f0 k kgz − g0 k + kfz − f0 k kg0 k + kgz − g0 k kf0 k <
< ε2 + ε |g0 | + ε |f0 | < (1 + |g0 | + |f0 |) ε = cε = θ
donde la última desigualdad se da para ε < 1. Como c es una constante que no depende de z
30 Capı́tulo 1. Campos
obtenemos que para todo θ > 0 existe δ tal que (|z − z0 | < δ) ⇒ |(fg) (z) − (fg) (z0 )| < θ
lo que prueba que el producto de continuas es continua.

Para cualquier polinomio complejo p la función


de evaluación C 3 z 7→ p (z) ∈ C es continua.

Prueba. La función de evaluación de un polinomio se obtiene usando sumas y productos


de funciones constantes y la función identidad f (z) = z. Estas funciones son continuas y de
1.26 obtenemos la prueba.

Sea g una función continua en el punto z0 y f una función continua en el


punto g (z0 ) entonces, la composición f ◦ g es continua en el punto z0 .

Prueba. Por la continuidad de f en g (z0 ) tenemos que ∀ε > 0 ∃δ (kz − g (z0 )k < δ) ⇒
kf (z) − f (g (z0 ))k < ε. Por otro lado, de la continuidad de g en z0 sabemos que ∀δ > 0 ∃δ0
(ky − z0 k < δ0 ) ⇒ kg (y) − g (z0 )k < δ. Componiendo estas dos propiedades obtenemos
∀ε > 0 ∃δ0 (ky − z0 k < δ0 ) ⇒ kf (g (y)) − f (g (z0 ))k < ε que es lo que necesitabamos.

El módulo de un polinomio es una función continua.

Prueba. Por 1.28 y porque los polinomios y el módulo son funciones continuas.

Lı́mite de sucesiones complejas


Una sucesión de números complejos {zj } = {aj + bj i} tiene lı́mite z = a + bi si las
sucesiones reales {aj } y {bj } tienen lı́mites a a y b respectivamente. Esto es equivalente a
que los módulos y los argumentos de la sucesión converjan al módulo y al argumento del
lı́mite. También, esto es equivalente a que ∀ε > 0 ∃N tal que ∀k > N kzk − zk < ε. Una
sucesión es convergente si esta tiene lı́mite. Por una propiedad análoga para las sucesiones
reales se tiene que toda subsucesión de una sucesión convergente es convergente y converge
al mismo lı́mite. Una sucesión {zj } = {aj + bj i} es acotada si ambas sucesiones {aj } y {bj }
son acotadas. Esto es equivalente a que la sucesión real {kzj k} sea acotada. Es claro que
una sucesión no acotada no puede tener lı́mite. También, que toda sucesión acotada tiene
una subsucesión convergente pues esta misma propiedad se cumple para sucesiones reales.
Expongamos otras dos propiedades que son un poco más difı́ciles de probar.

Sea f una función continua en z0 y {zk } una sucesión de números


complejos que converge a z0 . Entonces, lı́m f (zk ) = f (lı́m zk ).
Sección 1.8 Polinomios complejos. Teorema de Gauss 31

Prueba. Como f es continua en z0 , por definición tenemos que ∀ε > 0 ∃δ (kz − z0 k < δ) ⇒
(kf (z) − f (z0 )k < ε). Supongamos que lı́m zk = z0 entonces, ∀δ > 0 ∃N (k > N) ⇒
(kzk − z0 k < δ) .De transitividad de la implicación obtenemos que ∀ε > 0 ∃N (k > N) ⇒
kf (zk ) − f (z0 )k < ε y esto quiere decir que lı́m f (zk ) = f (z0 ).

Si {zk } es no acotada y p es un polinomio de grado al


menos 1 entonces, la sucesión {kp (zk )k} es no acotada.

Prueba. Sea p (z) un polinomio de grado n > 1. Por la desigualdad triangular, tenemos
Xn
° i° X n X
n−1
kp (z)k ≥ ° °
ai z = i n
kai k kzk = kan k kzk + kai k kzki ≥ kan k kzkn
i=0 i=0 i=0
Como {zk } no es acotada, tampoco lo son {kan k kzk kn } y {kp (zk )k}.

Teorema de Gauss

Ya estamos listos para demostrar el Teorema de Gauss pero antes, veamos un resultado
preliminar que hace la mayorı́a del trabajo.

Sea p un polinomio complejo de grado al menos 1. Si z0 no es


una raı́z de p entonces, existe z ∈ C tal que kp (z)k < kp (z0 )k.

Prueba. Hagamos el desarrollo de Taylor de p (z) alrededor del punto z0 . Tenemos


Xn
j
Xn
p (z) = αj (z − z0 ) = p (z0 ) + αj (z − z0 )j
j=0 j=1
ya que α0 = p (z0 ) . Sea αk el primero de los {αj | j > 0} diferente de cero y escojamos
z = z0 + tθ donde θ es una (veéase 1.24) de las raices de la ecuación xk + p (z0 ) /αk = 0 y
t es un real tal que 0 < t < 1 que definiremos despues. Por la definición de θ, z y k tenemos
Xn Xn
k k j j
p (z) − p (z0 ) = αk θ t + k
αj θ t = −p (z0 ) t + αj θj tj
j=k+1 j=k+1
y por lo tanto, de la desigualdad del triángulo obtenemos:
¡ ¢ Xn
° j° j
k
kp (z)k ≤ 1 − t kp (z0 )k + °αj θ ° t = kp (z0 )k + tk q (t)
j=k+1

donde q (t) denota el polinomio (con coeficientes re­ Xn


° j ° j−k
− kp (z )k + °αj θ ° t
ales) del recuadro a la derecha. Observemos que se cum­ 0
j=k+1
ple la desigualdad q (0) = − kp (z0 )k < 0.
Por continuidad (de los polinomios reales) existe un t0 > 0 suficientemente pequeño tal
que q (t0 ) < 0. Luego, kp (z0 + t0 θ)k ≤ kp (z0 )k + tk0 q (t0 ) < kp (z0 )k.
32 Capı́tulo 1. Campos

Ejercicio 33 ¿Donde se usa en la demostración anterior que t < 1? [177]

Teorema de Gauss

Todo polinomio de grado mayor que


cero tiene al menos una raı́z compleja.

Prueba. Sea p un polinomio. Denotemos A = {kp (z)k : z ∈ C}. El conjunto A es un


conjunto de reales acotado inferiormente pues kp (z)k ≥ 0. Luego (por un teorema clásico
de análisis matemático), A tiene un ı́nfimo que denotaremos por µ.
Demostremos que µ es el mı́nimo o sea, que µ ∈ A. Como µ es ı́nfimo hay una sucesión
{aj } de elementos de A que converge a µ y por lo tanto hay una sucesión de complejos
{zj } tales que lı́m kp (zj )k = µ. Si la sucesión {zj } no estuviera acotada entonces, por 1.31 la
sucesión {kp (zj )k} tampoco lo serı́a lo que contradice que esta sucesión converge a µ. Luego,
{zj } es acotada y podemos escoger una subsucesión convergente que podemos suponer la
misma. Denotemos y = lı́m zj . Como el módulo de un polinomio es una función continua
entonces, por 1.30 tenemos µ = lı́m kp (zj )k = kp (lı́m zj )k = kp (y)k. Luego, µ ∈ A.
Si µ 6= 0 entonces, por 1.32 existirı́a un y0 tal que kp (y0 )k < kp (y)k = µ lo que
contradice que µ es el mı́nimo de A. Luego, kp (y)k = 0 y por lo tanto p tiene una raı́z.

1.9 Factorización de polinomios complejos y reales

En esta sección utilizaremos el teorema de Gauss para averiguar cuales son todos los
polinomios irreducibles con coeficientes complejos y los polinomios irreducibles con coefi­
cientes reales. Esto nos dará la posibilidad de encontrar la descomposición en factores (única
salvo orden de los factores) de los polinomios complejos y reales.

Caso Complejo

Clasificación de los polinomios complejos irreducibles

Los polinomios complejos irreducibles son


exactamente los mónicos de grado uno.

Prueba. Al absurdo supongamos que un polinomio irreducible tiene grado mayor que uno.
Por el Teorema de Gauss (1.33) este polinomio tiene una raı́z α. Por 1.17 el polinomio se
divide entre (x − α) y esto contradice que el polinomio es irreducible.
Sección 1.9 Factorización de polinomios complejos y reales 33

Este resultado nos da la posibilidad de factorizar completamente los


Q
k
polinomios complejos. Por el Teorema de Factorización de Polinomios
an (x − αj )n j
j=1 (1.21) cada polinomio complejo p (x) se tiene que descomponer como
en el recuadro a la izquierda. En esta fórmula, an es el coeficiente prin­
cipal del polinomio. Los complejos P αj son las diferentes raices de p (x). El natural nj es la
multiplicidad de la raı́z αj y n = ni es el grado de p (x). Nuevamente, por el Teorema de
Factorización de Polinomios (1.21) esta descomposición es única salvo orden de los factores.
Caso real
Recordemos que si a + bi es un número complejo entonces
su complejo conjugado es a − bi. Denotaremos por zˉ el comple­ 1. z ∈ R ⇒ zˉ = z
jo conjugado del número complejo z. Es fácil comprobar que la 2. z + u = zˉ + uˉ
operación de conjugación cumple las propiedades del recuadro a la 3. zu = zˉ uˉ
derecha.

Ejercicio 34 Demuestre estas propiedades de la conjugación compleja. [177]

Sea p un polinomio con coeficientes reales y α una raı́z


compleja de p. Entonces αˉ es también una raı́z de p.
P
Prueba. Como α es raı́z de p = ai xi y por las propiedades de la conjugación tenemos
X X X
0 = 0ˉ = ai αi = ai αˉ i = ai αˉ i
que es lo que se querı́a probar.

Clasificación de los polinomios reales irreducibles

Si p es un polinomio real irreducible entonces p es de la


forma x − α o es de la forma (x − a)2 + b2 con b 6= 0.

Prueba. Si p es de grado 1 entonces necesariamente es igual a x − α para cierto número


real α. Si p es de grado 2 entonces por el teorema de Gauss este tiene un factor x − α para
cierto α complejo. Si α fuera real esto contradecirı́a que p es irreducible. Luego, α = a + bi
con b 6= 0. Por la proposición anterior a − bi también es una raı́z de p por lo que
p (x) = (x − (a + bi)) (x − (a − bi)) = (x − a)2 + b2
Si p es de grado al menos 3 entonces, por el teorema de Gauss este tiene una raı́z compleja
α. Si α fuera real entonces x − α serı́a un factor de p. Si α = a + bi con b 6= 0 entonces
(x − a)2 + b2 serı́a un factor de p. En ambos casos se contradice la suposición de que p es
irreducible.
Ahora, ya podemos descomponer completamente en factores los polinomios con coefi­
34 Capı́tulo 1. Campos
cientes reales. Cada polinomio real p (x) se tiene que expresar como:
Y
k k ³
Y ´m `
nj 2 2
p (x) = an (x − αj ) (x − a` ) + b`
j=1 `=1

En esta fórmula, an es el coeficiente principal del polinomio. Los números reales αj son las
diferentes raices reales de p (x). El número natural nj es la multiplicidad de la raı́z αj . Los
números complejos (a` + b` i) y (a` − b` i) son las diferentes raices complejas de p (x). El
número natural
P P m` es la multiplicidad de la raı́z compleja (a` + b` i). Obviamente, n =
ni + 2 m` es el grado de p (x). Nuevamente, por el Teorema de Factorización de
Polinomios (1.21) esta descomposición es única salvo orden de los factores.
La diferencia fundamental entre los números reales y los números complejos se expresa
de manera muy evidente en los resultados de esta sección. Esta diferencia hará que poste­
riormente nos sea mucho más fácil clasificar los operadores lineales en un espacio vectorial
complejo que en un espacio vectorial real. En general, todo es más fácil para los campos que
cumplen el Teorema de Gauss o sea, los campos algebraicamente cerrados.

1.10 Campos de fracciones. Funciones racionales

Sea (A, +, ·) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 el


neutro multiplicativo respectivamente . Queremos construir un campo que contenga a A.
Esta es una situación análoga a cuando construimos el campo de los racionales Q para que
contenga al anillo conmutativo Z . ¿Funcionará esta misma construcción en el caso general?
Investiguemos para lograr una respuesta.
Campos de fracciones

Lo primero es definir las fracciones. Consideremos conjun­ ³


a c´
to de todas las fracciones a/b donde a ∈ A y b ∈ A \ {0}. Dos = ⇔ (ad = bc)
b d
fracciones las consideraremos iguales si se cumple la igualdad
en el recuadro a la derecha.

Ejercicio 35 Pruebe que la igualdad de fracciones es una relación de equivalencia. [178]

Ahora, necesitamos definir las operaciones entre fracciones. Primero el pro­


ac ac ducto porque es el más fácil. Definamos el producto por la fórmula en el re­
=
b d bd cuadro a la izquierda. Nos tenemos que convencer primero de que esta defi­
nición es correcta. O sea que si las fracciones son iguales sus productos son iguales. Más
precisamente, necesitamos ver que se cumple lo siguiente:
µ ¶ µ ¶
a a0 c c0 ac a0 c0
= 0 y = 0 ⇒ =
b b d d bd b0 d0
Sección 1.10 Campos de fracciones. Funciones racionales 35

y efectivamente de las hipótesis de esta implicación tenemos ab0 = a0 b , cd0 = c0 d y


multiplicando estas dos igualdades obtenemos acb0 d0 = a0 c0 bd, lo que es equivalente a la
tesis de la implicación.
Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen en los
“numeradores” y en los “denominadores”. La fracción 1/1 es neutro para el producto y cual­
quier fracción a/b donde a 6= 0 tiene inverso multiplicativo b/a ya que ab/ba = 1/1 por
la conmutatividad del producto en A. Todo esto significa que el conjunto de fracciones con
numerador distinto de cero forman un grupo conmutativo.
Definamos ahora la suma de fracciones por la fórmula en el re­ a c ad + cb
cuadro a la derecha. Para convencernos que la definición es correcta + =
b d bd
tenemos que probar que las sumas de fracciones iguales son iguales.
O sea que: µ ¶ µ ¶
a a0 c c0 ad + cb a0 d0 + c0 b0
= 0 y = 0 ⇒ =
b b d d bd b0 d0
y efectivamente haciendo algunos cálculos inteligentes obtenemos
µ ¶ µ ¶ µ ¶
ab0 = a0 b 0 = (ab0 − a0 b) dd0 = (ad + cb) b0 d0 =
⇒ ⇒
cd0 = c0 d = (c0 d − cd0 ) bb0 = 0 = (a0 d0 + c0 b0 ) bd
que era lo que se necesitaba probar.
La comprobación de que esta suma es conmutativa es obvia. La asociatividad se com­
prueba calculando que a c u adv + cbv + ubd
+ + =
b d v bdv
independientemente del orden en que se haga la suma. La fracción 0/1 es neutro para la
suma y cualquier fracción a/b tiene opuesto −a/b (para esto último es necesario observar
que 0/1 = 0/v para todo v 6= 0). Luego, el conjunto de todas las fracciones es un grupo
abeliano respecto a la suma.
Solo nos falta la distributividad para comprobar que las fracciones con las operaciones
definidas forman un campo y esto se comprueba con los siguientes cálculos:
u ³ a c ´ uad + ucb uad ucb ua uc u a u c
+ = = + = + = + .
v b d vbd vbd vbd vb vd vb vd
Por último observemos que si identificamos al elemento a ∈ A con la fracción a/1 podemos
pensar que el anillo A es un subconjunto de las fracciones ya que que la suma y el producto
de estas fracciones coinciden con la suma y el producto dentro de A.
Hemos hecho todas estas pruebas detalladamente para no equivocarnos al afirmar que
esto que hemos demostrado sirve para cualquier anillo conmutativo. El lector deberı́a anali­
zar cuidadosamente cada igualdad en los razonamientos anteriores para convencerse de que
todas ellas se desprenden de los axiomas de anillo conmutativo y de las definiciones de las
operaciones entre fracciones. Al conjunto de todas las fracciones con las operaciones ası́ de­
finidas se le llama el campo de fracciones del anillo conmutativo A.
MENTIRA, no hay tal campo de fracciones para cualquier anillo conmutativo.
¿Puede usted encontrar el error? Si cree que puede regrese arriba y búsquelo,
si no, siga leyendo.
36 Capı́tulo 1. Campos
El problema es el siguiente. Al definir el producto (a/b) (c/d) = (ac/bd) con b y d
distintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. Esto no es
cierto en cualquier anillo conmutativo, por ejemplo en Z6 tenemos 2 × 3 = 0. Si en el anillo
hay tales elementos no podemos definir adecuadamente el producto de fracciones (tampoco
la suma). Ya vimos, que si un anillo conmutativo es tal que para cualesquiera b y d distintos
de cero se tiene que bd es distinto de cero entonces, se dice que este anillo es un dominio de
integridad. Ahora si, todo dominio de integridad tiene su campo de fracciones. El ejemplo
evidente de dominio de integridad es Z. Su campo de fracciones es Q.
Funciones racionales

El ejemplo por el cual hemos escrito esta sección es el siguiente:

Todo anillo de polinomios con coeficientes


en un campo es un dominio de integridad.

Prueba. Tenemos que probar que el producto de dos polinomios diferentes de cero es dife­
rente de cero (recuerdese
P que un polinomio
P es cero cuando todos sus coeficientes son cero).
Sean p (x) = ni=0 ai xi y q (x) = m b x
i=0 i P
i
dos polinomios cualesquiera de grados n
n+m
y m respectivamente. Denotemos p (x) q (x) = i=0 ci xi . Por la fórmula del producto de
polinomios, tenemos cn+m = an bm . Como an 6= 0, bm 6= 0 y todo campo es dominio de
integridad obtenemos cn+m 6= 0 y por lo tanto p (x) q (x) 6= 0.

Observese que en la demostración no se usó el hecho de que en el campo K hay inversos multipli­
cativos. Eso quiere decir que de hecho, hemos demostrado algo mucho más fuerte: Los anillos de
polinomios con coeficientes en un dominio de integridad son dominios de integridad.
Como el anillo de polinomios K [x] es un dominio de integridad este tiene su campo de
fracciones que se denota por K (x) . Nótese la diferencia entre K [x] y K (x). A los elementos
de K (x) se les llama funciones racionales (en la variable x). Las funciones racionales son
fraciones de polinomios p (x) /q (x) que se suman y multiplican mediante las reglas a las
que todos estamos acostumbrados.

Ejercicio 36 ¿Conoce usted un campo infinito de caracterı́stica 2? [178]


Ejercicio 37 ¿Que pasa si construimos el campo de fracciones de un campo? [178]

1.11 Anillos con división

Si en los axiomas de campo eliminamos la condición de que el producto es conmutativo


obtenemos el concepto de anillo con división (también se le llama cuerpo).
Sección 1.11 Anillos con división 37

O sea, un anillo con división es un conjunto D


AD1) (D, +) es un grupo abeliano
con una suma y un producto tal que se cumplen
AD2) (D\0, •) es un grupo
los axiomas del recuadro a la izquierda. En par­
AD3) • es distributivo con respecto a +
ticular, todo campo es anillo con división.

Ejercicio 38 Pruebe que si (D, +, •) es tal que (D, +) es un grupo, (D\ {0} , •) es un grupo
y el producto es distributivo respecto a la suma entonces, la suma es conmutativa. En otras
palabras en los axiomas de anillo con división la conmutatividad de la suma es consecuencia
del resto de los axiomas. [178]

Quaterniones

No es muy fácil construir anillos con división que no sean campos. Para esto, supon­
gamos que en lugar de un solo número imaginario i tenemos tres diferentes imaginarios i,
j y k que cumplen que i2 = j2 = k2 = −1. Un quaternión es un número de la forma
a + bi + cj + dk donde a, b, c, d son números reales. El lector debe observar la analogı́a
con los números complejos. Podemos sumar quaterniones por coordenadas
(a + bi + cj + dk) + (a0 + b0 i + c0 j + d0 k)
= ((a + a0 ) + (b + b0 ) i + (c + c0 ) j + (d + d0 ) k)

y es fácil comprobar que el conjunto de todos los quaterniones H es un grupo abeliano


respecto a la suma.
Para poder mutiplicar quaterniones postulamos que si a es un real y x es un imaginario
entonces ax = xa. También postulamos que si x y y son dos imaginarios distintos entonces
xy = −yx. Esto nos dice que nuestra multiplicación de quaterniones no es conmutativa.
Ahora, si a+bi+cj+dk y a0 +b0 i+c0 j+d0 k son dos quaterniones arbitrarios entonces los
multiplicamos como si fueran polinomios en las variables no conmutativas i, j, k y usando
los postulados obtenemos que su producto es igual a
aa0 − bb0 − cc0 − dd0 +
+ (ab + ba ) i + (ac0 + ca0 ) j + (da0 + ad0 ) k+
0 0

+ (bc0 − cb0 ) ij + (cd0 − dc0 ) jk + (db0 − bd0 ) ki.

Para poder concluir la definición de la multiplicación


a00 = aa0 − bb0 − cc0 − dd0
de quaterniones postulamos que ij = k, jk = i y ki = j.
b00 = ab0 + ba0 + cd0 − dc0
Ası́ definitivamente, obtenemos que el producto de nues­
c00 = ac0 + ca0 + db0 − bd0
tros quaterniones es (a00 + b00 i + c00 j + d00 k) donde los co­
d00 = da0 + ad0 + bc0 − cb0
eficientes a00 , b00 , c00 y d00 son los definidos en el recuadro
a la derecha. O sea, el producto de quaterniones es un quaternion. No es difı́cil (pero si
muy laborioso) probar directamente de la definición que este producto es asociativo tiene
elemento neutro 1 = 1 + 0i + 0j + 0k y que es distributivo respecto a la suma.
38 Capı́tulo 1. Campos
Para comprobar la existencia de inversos multiplicativos definimos para un quaternion no
nulo x = a + bi + cj + dk su quaternión conjugado xˉ = a − bi − cj − dk. De la definición
de producto de quaterniones tenemos que xˉx = xˉ x = a2 + b2 + c2 + d2 es un número real
que tiene inverso multiplicativo. De esto se deduce que xˉ (xˉx)−1 es el inverso multiplicativo
de x. En resumen, el conjunto de los quaterniones H son un anillo con división pero no son
un campo.
Los quaterniones fueron descubiertos en 1843 por el fı́sico, ma­
temático y astrónomo irlandés Sir William Rowan Hamilton (1805
– 1865). De aquı́ la notación H para denotar el anillo de qua­
terniones. Los quaterniones jugaron un papel fundamental en la
matemática y la fı́sica del siglo XIX. Por ejemplo, James Clerk
Maxwell usó los quaterniones para desarrollar sus equaciones del
electromagnetismo. En la actualidad son importantes por ejemplo,
para las aplicaciones en las cuales se requiere describir en forma
eficiente rotaciones espaciales (robótica, control de naves espacia­
les, gráficos por computadoras, etc.).

Ejercicio 39 Muestre que la tabla de multiplicar de los imaginarios i, j, k es consecuencia


de las igualdades de Hamilton i2 = j2 = k2 = ijk = −1. [178]
Ejercicio 40 Muestre que los quaterniones que son raices cuadradas de −1 forman natural­
mente una esfera en R3 . Más precisamente (a + bi + cj + dk)2 = −1 si y solo si se cumple
que b2 + c2 + d2 = 1. [178]
Ejercicio 41 Constraste 1.18 con el hecho de que hay un infinito número de quaterniones
que son raices de −1 (ejercicio 40). ¿Que falla en la prueba de 1.18 para el caso de los
quaterniones?

Caso finito
Los quaterniones son un anillo con división infinito y es natural preguntarse si se pueden
construir anillos con división finitos que no sean campos. El siguiente teorema responde esta
pregunta en forma negativa.

Teorema de Wedderburn

Todo anillo con división finito es un campo.

La prueba de este teorema involucra un análisis del grupo multiplicativo del anillo y usa
técnicas de teorı́a de grupos que se salen fuera de los objetivos de este libro.
Capítulo segundo
Espacios Vectoriales
ste es el objeto central del álgebra lineal. Motivaremos la introducción de este concep­
to en el ejemplo geométrico del plano cartesiano. Daremos las definición de espacio
vectorial complementandola con los ejemplos más fundamentales. Profundizaremos
en la estructura de estos estudiando sus subespacios, sus bases, su dimensión etc. lo que nos
llevará a entender todos los espacios vectoriales (al menos los de dimensión finita). Finaliza­
remos este capı́tulo con el estudio de las operaciones entre subespacios y subespacios afines
lo que nos llevará a entender los espacios cocientes.

2.1 El plano cartesiano

Hubo algún tiempo, en que el álgebra y la geometrı́a eran dos cosas to­
talmente aparte. Los algebristas trabajaban con números, polinomios,
raices, fórmulas, etc. y los geómetras con puntos, lineas, polı́gonos,
etc. René Descartes (Francia 1596­1650) fué el que tuvo la brillante
idea de introducir los ejes de coordenadas. Tomamos dos rectas per­
pendiculares, a la horizontal se le llama “eje
y
de las equis” y a la vertical se le llama “eje
de las yes”. Para cada punto del plano p tra­ p
py
zamos la perpendicular al eje x y al eje y y de esta manera obte­
nemos los puntos px en el eje x y py en el eje y. Por cuanto, el eje
de las x lo podemos identificar (escogiendo una unidad de medida)
con R donde el cero es el origen de coordenadas (la intersección
de los dos ejes) por tanto, px es simplemente un número real. De la px x
misma manera py es otro número real. Ası́, a cada punto del plano
p se le hace corresponder biunı́vocamente una pareja de números
reales (px , py ). Además, es conveniente representar cada punto del plano como el segmento
dirigido desde el origen de coordenadas hasta el punto o sea como vectores. A los elementos
de R (para diferenciarlos de los vectores) los llamaremos escalares.

Desde ahora denotaremos los vectores por letras latinas en negritas. A diferen­
cia de estos, los escalares se denotarán por letras latinas y griegas normales.
40 Capı́tulo 2. Espacios vectoriales
y a + b Si a = (ax , ay ) y b = (bx , by ) son dos vectores la suma de los mismos
a se define como a + b = (ax + bx , ay + by ) . La suma, geométricamen­
te no es nada más que la diagonal del paralelogramo generado por a y
b . Del hecho que (R, +) es un grupo abeliano se desprende fácilmente
b que nuestro plano cartesiano R2 es también un grupo con respecto a la
x suma de vectores.
Si a = (ax , ay ) es un vector y α un escalar el producto αa se define y 2a
como (αax , αay ) . Geométricamente este producto es aumentar (o reducir)
en un factor α el vector a. Si el factor es negativo entonces el resultado a
apunta en la dirección opuesta. Si el factor es cero entonces el vector se
degenera al origen de coordenadas. x
El producto por escalares es distributivo con respecto a la suma
α (a + b) = αa+αb de vectores y también con respecto a la suma de escalares o sea
(α + β) a =αa+βa se cumplen las igualdades en el recuadro. Estas dos leyes distri­
butivas (¡son diferentes!) se cumplen porque son ciertas en cada
coordenada. Además, obviamente tenemos que α (βa) = (αβ) a. Todo esto nos dice que el
plano cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales.

Ejercicio 42 Demuestre geométricamente que la diagonal del paralelogramo generado por


a y b tiene coordenadas (ax + bx , ay + by ). [178]
Ejercicio 43 ¿Es la multiplicación de un escalar por un vector una operación binaria? [178]
Ejercicio 44 ¿Cuantas diferentes operaciones hay en α (βa) y (αβ) a? [179]
Ejercicio 45 ¿Que es la resta de dos vectores? ¿Cual es su interpretación geométrica?

2.2 Definición y ejemplos


La primera definición de espacio vectorial la dio Giuseppe Peano (Italia,
1858 ­1932), en su libro “Cálculo Geométrico” publicado en 1888. Pea­
no es más conocido por su axiomática de los números naturales, o por la
“Curva de Peano” que es una inmersión continua sobreyectiva del inter­
valo en el cuadrado.
Sea K un campo cuyos elementos los llamaremos escalares y (E, +)
un grupo abeliano cuyos elementos los llamaremos vectores. Diremos
que es un espacio vectorial sobre K
si está definida una operación de producto de escalares E1) α (a + b) = αa + αb
por vectores K×E → E que cumple las propiedades E1­ (α + β) a =αa+βa
E3. A los axiomas E1 y E2 se les llama distributividad E2) α (βa) = (αβ) a
y asociatividad respectivamente del producto por escala­ E3) 1a = a
res. El 1 que aparece en el axioma E3 es el 1 del campo.
Sección 2.2 Definición y ejemplos 41

Como (E, +) es un grupo abeliano entonces, tiene que tener un vector neutro que deno­
taremos por 0. El opuesto del vector a se denota por −a. Por otro lado el campo de escalares
tiene un neutro para la suma: el 0, un neutro para el producto: el 1, opuestos para la suma −α
e inversos multiplicativos α−1 . Las relaciones que cumplen estos con respecto al producto
por escalares nos las da el siguiente resultado básico.

En todo espacio vectorial para cualquier vector a y cualquier


escalar α se cumple que 0a = 0, (−1) a = −a y α0 = 0.

Prueba. La demostración se realiza mediante las siguentes tres cadenas de igualdades


E3 E1
0a = 0a + 1a − a = (0 + 1) a − a = a − a = 0
E3 E1
(−1) a = (−1) a + 1a − a = (−1 + 1) a − a = 0a − a = −a
E3 E1 ¡ ¢ ¡ ¢ E2 E3
α0 = α0 + 1 · 0 = α 0 + α−1 0 = α α−1 0 = 1 · 0 = 0
donde signos “=” están marcados con los axiomas por los que son válidos.

Ejercicio 46 Demuestre que αa = 0 ⇒ α = 0 o a = 0. [179]


Ejercicio 47 ¿Cual es el mı́nimo número de elementos que puede tener un espacio vecto­
rial? [179]

Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que el lector
no se pierda en la cantidad de “ejemplos” que sigue. La mayorı́a de ellos son fundamentales
para entender este libro. En particular, introduciremos notaciones básicas que serán usadas
constantemente.
El espacio de n­adas Kn
Consideremos el producto cartesiano de n copias del Kn = {(a , a , ..., a ) | a ∈ K}
1 2 n i
campo K. Este producto se denota por Kn y está forma­
do por todas las n­adas (a1 , a2 , ..., an ). Al escalar ai se le llama la i­ésima coordenada de
la n­ada (a1 , a2 , ..., an ). Luego, una n­ada tiene n coordenadas.
Los vectores serán las n­adas, los escalares serán los elementos
(a1 , ..., an ) de K. En Kn se introduce fácilmente la suma por coordenadas co­
+ (b1 , ..., bn ) mo se muestra en el recuadro a la izquierda. Del hecho de que las
(a1 + b1 , ..., an + bn ) propiedades necesarias se cumplen en cada coordenada se des­
prende que (Kn , +) es un grupo abeliano.
La multiplicación por escalares también se introduce por coor­
denadas. El axioma E1 se reduce en cada coordenada a la distribu­ (a1 , ..., an )
tividad del producto respecto a la suma en el campo K. El axioma × α
E2 a la asociatividad del producto en K. Finalmente, el axioma E3 (αa1 , αa2 , ..., αan )
se reduce en cada coordenada a que 1 es el neutro para el producto
en el campo K. De esta manera obtenemos que Kn es un espacio vectorial sobre K.
42 Capı́tulo 2. Espacios vectoriales
El espacio de polinomios K [x]
Podemos sumar polinomios, esta suma se hace coefi­ ± n ²
ciente por coeficiente. También sabemos multiplicar un X a ∈ K
elemento de K por un polinomio. Es muy conocido que K [x] = ai xi | i
n∈N
todos los axiomas de espacio vectorial se cumplen. En i=0

ciertoPsentido este espacio vectorial es parecido al anterior. Podemos asociar a cada polino­
mio ni=0 ai xi la (n + 1)­ada (a0 , a1 , , ..., an ) y la multiplicación por escalar es la misma
que en Kn+1 . Para la suma podemos tener un problema P si son de grados diferentes pero esto
se resuelve agregando suficientes ceros o sea si m b
i=0 i x i
es otro polinomio con n > m
entonces podemos asociarle la n­ada (b0 , b1 , ..., bn , 0, ..., 0) con suficientes ceros para com­
pletar las n coordenadas y entonces la suma es la misma que en Kn+1 . Aunque sepamos
multiplicar polinomios, esto no tiene ningún papel en el concepto de espacio vectorial.
El espacio de sucesiones KN
Dos sucesiones se suman por coordenadas como se muestra
(a1 , a2 , ..., an , ...) en el recuadro. La mutiplicación un escalar es también por
+ (b1 , b2 , ..., bn , ...) coordenadas. Los axiomas de espacio vectorial se comprue­
ban fácilmente. El lector debe observar que los elementos
(a1 + b1 , , ..., an + bn , ....)
de la sucesión pueden estar en un campo arbitrario y no ne­
cesariamente en R como estamos acostumbrados. La noción de convergencia de sucesiones
no tiene nada que ver con el concepto de espacio vectorial.
El espacio de series K [[x]]
Las series se suman coeficiente por coeficiente. Para ±∞ ²
multiplicar por un escalar se multiplican todos los coefi­ X
cientes por el escalar. Los axiomas de espacio vectorial K [[x]] = ai xi | ai ∈ K
se cumplen porque se cumplen para cada coeficiente. De i=0
P
hecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serie ∞ i=0 ai x se
i

determina unı́vocamente por la sucesión (a0 , a2 , ..., an , ...) de sus coeficientes y no hay di­
ferencia entre sumar series y sumar las correspondientes sucesiones. Lo mismo pasa con la
multiplicación por un escalar. Al igual que con los polinomios, el concepto de producto de
series no juega ningún papel en el hecho de que K [[x]] sea un espacio vectorial.

El espacio de funciones KN
Hay una biyección natural entre las n­adas (a1 , a2 , ..., an ) ∈ Kn y las funciones {1, ..., n} 3
i 7→ ai ∈ K. Igualmente las sucesiones (a0 , a1 , ..., an , ...) se corresponden biunı́vocamen­
te con las funciones N 3 i 7→ ai ∈ K. Ahora, generalicemos estos ejemplos. Si N es un
conjunto arbitrario (no necesitamos de operación alguna en N) entonces el conjunto de to­
das las funciones de N en K se denota por KN . Dadas dos funciones f, g ∈ KA la suma
de ellas se define como es habitual por (f + g) (i) = f (i) + g (i) para cualquier i ∈ N. El
producto por un escalar se define por (λf) (i) = λf (i). Los axiomas de espacio vectorial se
Sección 2.2 Definición y ejemplos 43

comprueban fácilmente. Por ejemplo, la suma de funciones es conmutativa porque para cada
i en N se cumple que f (i) +g (i) = g (i) +f (i) gracias a la conmutatividad de la suma en el
campo. Como hemos visto, el espacio Kn y el espacio de sucesiones son un caso particular
de este ejemplo cuando N es {1, ..., n} y N respectivamente. Además, ya observamos que
K [[x]] = KN .

El espacio de N­adas KN

En lo adelante una función en KN se denotará por αN . Más precisamente, αN


es la función que a cada i ∈ N le hace corresponder el escalar αi . Por ejemplo,
si N = {1, . . . , n}, entonces αN = (α1 , . . . , αn ). La bondad de esta notación
es que podemos pensar los elementos de KN (funciones) como si fueran n­adas. Para poder
seguir pensando en αN como si fuera en una n­ada necesitamos las palabras adecuadas. A
los elementos αN de KN los llamaremos N­adas. Al conjunto N lo llamaremos conjunto
de ı́ndices de αN y a los elementos de N los llamaremos ı́ndices. Si i es un ı́ndice, entonces
diremos que αi es la i­ésima coordenada de αN . En estas notaciones la suma de dos N­adas
es por coordenadas. O sea, la i­ésima coordenada de αN + βN es αi + βi . El producto por
escalares también es por coordenadas. O sea, la i­ésima coordenada de λαN es λαi .
Si el conjunto N es finito y tiene n elementos entonces, la diferencia fundamental entre
una N­ada y una n­ada es que las coordenadas de la N­ada no necesariamente están or­
denadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces, estos no
tienen un orden natural. Para poder identificar una N­ada de estos con una 3­ada, necesita­
mos definir artificialmente cual es el primer vector cual es el segundo y cual es el tercero.
Sin embargo, si al lector le cuesta trabajo pensar en las N­adas cuando N es un conjunto, le
sugiero olvidarse de que N es un conjunto y pensar que N es un número natural.

El espacio de N­adas con soporte finito K{N}

Sea αN ∈ KN una N­ada. El soporte αN es por definición el conjunto de ı́ndices i tales


que αi 6= 0. Si el conjunto de ı́ndices N es finito entonces, cualquier N­ada tiene soporte
finito (porque un subconjunto de un conjunto finito es finito). Sin embargo, si el conjunto de
ı́ndices es infinito entonces habrá N­adas con soporte infinito.
Si sumamos dos N­adas de soporte finito el resultado será una N­ada de soporte finito
(porque 0 + 0 = 0). Si multiplicamos una N­ada de soporte finito por un elemento del
campo el resultado será una N­ada de soporte finito (porque λ0 = 0). Los axiomas de
espacio vectorial se cumplen porque ya sabemos que se cumplen para cualesquiera N­adas.
Al espacio de N­adas con soporte finito se le denota por K{N} .
Como
Pn ejemplo de espacio de N­adas de soporte finito veamos el siguiente. Cada polino­
mio i=0 ai x determina unı́vocamente una N­ada aN donde ai = 0 si i > n. Esta N­ada
i

es de soporte finito. Recı́procamente, si aN es una N­ada de soporte finito entonces, nece­


sariamente, hay un natural n tal P que ai = 0 para cualquier i > n. Ası́, le podemos hacer
corresponder a aN el polinomio ni=0 ai xi . Esta correspondencia es biunı́voca y las opera­
44 Capı́tulo 2. Espacios vectoriales
ciones son las mismas en ambos espacios. Esto nos muestra que, el espacio de polinomios
es el espacio de N­adas con soporte finito. En otras palabras K{N} = K [x].
Un caso importante es cuando N es finito y en este caso K{N} = KN . O sea, cada N­ada
es de soporte finito. En particular, si N = {1, . . . , n} entonces K{N} = KN = Kn .
Subcampos

Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar un ele­


mento de L por uno de K obtenemos un elemento de K. Esto significa que tenemos una
operación binaria en K (la suma) y una multiplicación por escalares L × K → K. En este
caso, los axiomas de espacio vectorial se desprenden directamente de las definiciones de
campo y subcampo y obtenemos que K es un espacio vectorial sobre L. Un caso muy par­
ticular es que todo campo es espacio vectorial sobre si mismo. Otro ejemplo importante es
que R es subcampo de C. Como cada complejo se puede escribir como una pareja (a, b)
con coordenadas en R y la suma de complejos y el producto por un real son las mismas
operaciones que en R2 tenemos que C como espacio vectorial sobre R es lo mismo que R2 .
Otro ejemplo más es que R es un espacio vectorial sobre Q. Este caso es suficientemente
complicado para que no digamos nada sobre él.

El espacio de N­adas de vectores EN

Ahora, nos debemos preguntar, cual es el mı́nimo de condiciones que le debemos pedir
a las coordenadas de una N­ada, para poder definir un espacio vectorial. Ya vimos que, si
las coordenadas están en un campo entonces, obtenemos un espacio vectorial. Pero esto es
pedir mucho. En realidad, solo necesitamos saber sumar las coordenadas y multiplicar cada
coordenada por un escalar, o sea, necesitamos que las coordenadas sean vectores.
Más precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos por EN
el conjunto de todas las N­adas de E. Si aN y bN son dos elementos de EN entonces, la
i­ésima coordenada de aN + bN es ai + bi . Esto lo podemos hacer porque sabemos sumar
los elementos de E. Ahora, si λ es un elemento de K entonces, la i­ésima coordenada de
λaN es λai . Esto lo podemos hacer porque sabemos multiplicar los escalares en K por los
vectores en E. Los axiomas de espacio vectorial se demuestran fácilmente debido a que se
cumplen en cada coordenada.

El espacio de NM­matrices KNM

Un caso particular de N­adas de vectores es cuando estos vectores son M­adas de esca­
¡ ¢N
lares. Este espacio es KM . Para aclarar un poco que sucede en este caso, supongamos
¡ ¢N
que N = {1, 2} y que M = {1, 2, 3}. Entonces, un elemento del espacio KM es una 2­ada
(a1 , a2 ) de vectores y cada uno de ellos es una 3­ada de escalares. Los dos vectores los po­
a1 = (α11 , α12 , α13 ) demos representar como en el recuadro a µ α ¶
11 α12 α13
a2 = (α21 , α22 , α23 ) la izquierda y para simplificar nos queda­ α21 α22 α23
mos con la tabla que vemos a la derecha.
Sección 2.2 Definición y ejemplos 45

Esta tabla es un elemento del espacio de (N × M)­adas KN×M , o sea, los ı́ndices son
¡ ¢N
parejas en el producto cartesiano N × M. Esto nos permite identificar KM con KN×M
y como las operaciones en ambos espacios son las mismas estos espacios son en esencia el
mismo. Cambiando el orden en que ponemos los indices obtenemos las igualdades
¡ M ¢N ¡ ¢M
K = KN×M = KM×N = KN
que el lector debe comparar con (ax )y = axy = ayx = (ay )x para números naturales a, x, y.
Desde ahora, para simplificar la notación, a una (N × M)­ada cualquiera la llamaremos
NM­ada. También, en lugar de usar la notación α(N×M) para denotar una NM­ada concreto,
usaremos la notación αNM . A una coordenada de esta NM­ada la denotaremos αij en lugar
de usar la más complicada α(i,j) . En esta notación, es más cómodo pensar que hay dos con­
juntos de ı́ndices (N y M) en lugar de uno solo (N × M). O sea, una NM­ada es un conjunto
de elementos del campo indexado por dos conjuntos de ı́ndices. Cuando N = {1, . . . , n}
y M = {1, . . . , m} entonces obtenemos una matriz con n renglones y m columnas. En el
ejemplo anterior obtuvimos una matriz con 2 renglones y 3 columnas.
Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jeroglı́ficos chinos), la
diferencia es que no hay un orden preestablecido entre los elementos de los conjuntos de
ı́ndices por lo que no sabrı́amos cual columna o renglón poner primero y cual después. Como
esta diferencia no es tan importante y para no formar confusión en la terminologı́a desde
ahora, a las NM­adas los llamaremos NM­matrices. Escribiremos KNM para denotar el
espacio vectorial de todas las NM­matrices. Como ya sabemos, en este espacio las matrices
se suman por coordenadas y se multiplican por escalares también por coordenadas.
Sea αNM una NM­matriz. Es costumbre llamarle a las coordenadas αij de αNM entra­
das de la matriz. Si i ∈ N entonces la M­ada αiM ∈ KM es el i­ésimo renglón de la matriz
αNM . Si j ∈ M entonces la N­ada αNj ∈ KN es la j­ésima columna. Al conjunto N se
le llama conjunto de ı́ndices de los renglones. Análogamente, al conjunto M se le llama
conjunto de ı́ndices de las columnas.
Si N0 , M0 son subconjuntos no vacı́os de N y M respectivamente entonces a la matriz
αN 0 M 0 se le llama submatriz de αNM . Si |N0 | = |M0 | = 1 entonces la submatriz es una
entrada. Un renglón es una submatriz donde |N0 | = 1 y M0 = M o sea una submatriz del
tipo αiM . Una columna es una submatriz donde |M0 | = 1 y N = N0 o sea una submatriz
del tipo αNj . Una última observación acerca de las matrices, es que toda esta terminologı́a
de “columnas” y “renglones” viene de la manera usual en forma de tabla en que escribimos
una matriz concreta.
El espacio de tensores

Bueno, ¿y si tenemos más de dos conjuntos de ı́ndices? Pues es lo mismo. Una NML­ada
es una (N × M × L)­ada. Al igual que en las matrices denotaremos por αNML a una NML­
ada con tres conjuntos de ı́ndices o sea un tensor de exponente 3. Las matrices son tensores
de exponente 2 y las N­adas son tensores de exponente 1. Los tensores de exponente 0 son
los elementos del campo.
46 Capı́tulo 2. Espacios vectoriales
Si bien podemos pensar un tensor de exponente 1, co­
mo una serie de elementos del campo uno al lado de otro
y pensar los de exponente 2, como una tabla rectangular de
elementos del campo, también podemos pensar los tensores
de exponente 3, como un conjunto de elementos del campo
dispuestos en un arreglo que llenan un cubo en el espacio.
Para cada i ∈ N tenemos que αiML es un tensor de exponen­
te 2 o sea una matriz. Todo αNML nos lo podemos imaginar
como muchas matrices puestas una encima de la otra.
Sin embargo cuando el exponente del tensor es grande ya nuestra imaginación no da
para visualizar geométricamente un arreglo de los elementos del campo dispuestos en un
cubo de dimensión grande. Es mucho más útil el manejo algebraico de estos, que tratar
de visualizarlos. En este contexto, la terminologı́a de “renglones” y “columnas” se hace
inutilizable. Como es lógico, los tensores con conjuntos de ı́ndices fijos forman un espacio
vectorial. La suma se hace por coordenadas y también la multiplicación por un escalar.

2.3 Subespacios
Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vacı́o de vectores
que es un espacio vectorial para las mismas operaciones.

Un conjunto de vectores F no vacı́o es un subespacio si y solo si para


cualesquiera a, b ∈ F y λ ∈ K los vectores a + b y λa están en F.

Prueba. Si F es un subespacio de E entonces, por definición a + b y λa están en F.


Recı́procamente, sea F un conjunto de vectores de E que cumple las hipótesis. Como la
suma de vectores es asociativa y conmutativa en E, también lo es en F. Sea a ∈ F (existe por
ser F no vacı́o). Tenemos 0a = 0 ∈ F. Además ∀b ∈ F (−1) b = −b ∈ F. Con esto se
comprueba que (F, +) es grupo abeliano. Los axiomas de espacio vectorial se cumplen en F
por ser este un subconjunto de E.

Unión e intersección de subespacios


¿Serán la intersección (y la unión) de subespacios un subespacio? La unión de subespa­
cios no es un subespacio. Un ejemplo de esto son el eje x y el eje y en el plano cartesiano
(veremos prontamente que son subespacios) sin embargo, la unión de los mismos no es un
subespacio ya que por ejemplo (0, 1) + (1, 0) = (1, 1) que no pertenece a la unión de los dos
ejes. Por el contrario, la intersección de subespacios si es un subespacio.

La intersección de un conjunto de subespacios es un subespacio.


Sección 2.3 Subespacios 47

Prueba. La intersección de subespacios nunca es vacı́a porque cada subespacio contiene al


0. Si a y b son dos vectores en cada uno de los subespacios de un conjunto entonces, a + b
también está en cada uno de los subespacios del conjunto. Lo mismo sucede para αa.

Combinaciones lineales
Veamos unos ejemplos importantes de subespacios. Sea a un vector
no nulo en R2 . El conjunto hai = {αa | α ∈ R} de todos los múltiplos del a
vector a es un subespacio de R2 ya que αa + βa = (α + β) a, y α (βa) =
(αβ) a. Geométricamente, teniendo en cuenta la identificación de vectores
con los puntos del plano cartesiano, podemos ver que los vectores en este hai
espacio son los puntos de la recta por el origen que pasa por a.
Sean ahora a y b dos vectores en R3 no colineales o sea a 6= βb. Consideremos el
conjunto de vectores {αa + βb | α, β ∈ R}. Este conjunto de vectores se denota por ha, bi
y es un subespacio ya que αa+βb+α0 a+β0 b = (α + α0 ) a+(β + β0 ) by λ (αa + βb) =
λαa+λβb. Geométricamente, vemos que este conjunto contiene a la recta hai que pasa por
a y a la lı́nea hbi que pasa por b.
En R3 hay un solo plano que contiene estas dos rectas. ¿Será es­
te plano el subespacio ha, bi? Pues, claro que si. Para cada
a punto p de este plano dibujemos la paralela a la lı́nea hai que
p
pasa por p obteniendo un punto de intersección con la recta
b hbi el cual es βb para algún β ∈ R. Análogamente, dibujan­
ha, bi do la paralela a hbi obtenemos el punto αa en la recta hai y
vemos que p = αa + βb. Luego, p ∈ ha, bi.
Estos ejemplos nos motivan a la siguiente definición. Sea N un conjunto de X
vectores. Una combinación lineal de N es cualquier vector de la forma que se αi i
muestra en el recuadro a la derecha. A los escalares αi se les llama coeficientes i∈N
de la combinación lineal.
Es posible que no se entienda esta notación. El conjunto de ı́ndices es el conjunto de
vectores N por lo que en la suma hay tantos sumandos como vectores hay en N. Ası́ por
ejemplo si N = {a, b, c, d} entonces una combinaciónP lineal de N es un vector de la forma
αa+βb + γc+δd. En otras palabras, la notación i∈N αi i debe interpretarse ası́: “tómese
los vectores de N, cada uno de ellos multiplı́quese por un escalar y súmese los resultados”.
Todo esto está muy bien si el conjunto N es finito. Si N es infinito tenemos un problema.
¿Que es una suma infinita de vectores? La manera de evitar este problema es que le pedire­
mos a los coeficientes αi que todos salvo un número finito sean cero o sea, que la N­ada αN
cuyas coordenadas son los coeficientes de la combinación lineal es de soporte finito. Como
podemos despreciar los sumandos iguales a cero, tenemos que una combinación lineal es
siempre una suma de un número finito de vectores.

El conjunto de todas las combinaciones lineales de N es un subespacio.


48 Capı́tulo 2. Espacios vectoriales
P P
Prueba. Sean i∈N αi i y i∈N βi i dos combinaciones lineales de N entonces, de la aso­
ciatividad y conmutatividad de la suma de vectores y de la distributividad del producto por
escalares obtenemos: X X X
αi i+ βi i = (αi + βi ) i
i∈N i∈N i∈N
que es una combinación lineal de N ya¡P Pi + βi ) salvo un número finito tienen
que todos¢los (α
que ser cero. Lo mismo ocurre con γ α
i∈N i i = i∈N γαi i.

Cerradura lineal
Denotaremos por hNi al conjunto de todas las combinaciones lineales de N.

Si F es un subespacio que contiene a N entonces, F contiene a hNi.

Prueba. Si F contiene a N entonces, F contiene a todos los múltiplos de los vectores en N


y a todas sus sumas finitas. Luego, cualquier combinación lineal de N está en F.

Los siguientes tres conjuntos de vectores coinciden


1. El conjunto de todas las combinaciones lineales de N.
2. La intersección de todos los subespacios que contienen a N.
3. El subespacio más pequeño que contiene a N.

Prueba. Denotemos por F1 , F2 y F3 a los tres conjuntos del enunciado de la proposición. Por
definición F1 = hNi. Por la proposición 2.3 el conjunto F2 es un subespacio que contiene a
N y de 2.5 obtenemos que F1 ⊆ F2 . Por definición de intersección tenemos que F2 ⊆ F3 .
Por definición, F3 está contenido en cualquier subespacio que contiene a N y en particular
F3 ⊆ F1 . La prueba termina usando la transitividad de la inclusión de conjuntos.
A cualquiera de los tres conjuntos (¡son iguales!) de la proposición anterior se le denota
por hNi y se le llama cerradura lineal de N o también el subespacio generado por N.

Propiedades de la cerradura lineal

La cerradura lineal cumple las siguientes propiedades:


¨ N ⊆ hNi (incremento),
¨ N ⊆ M ⇒ hNi ⊆ hMi (monotonı́a),
¨ hhNii = hNi (idempotencia).

Prueba. El incremento es inmediato de 2.6.3. Supongamos ahora que N ⊆ M. Cualquier


combinación lineal de N es también combinación lineal de M (haciendo cero todos los
coeficientes de los vectores en M\N). Finalmente, por 2.6.3 hhNii es el subespacio más
pequeño que contiene a hNi. Como hNi es un subespacio entonces, hhNii = hNi.
Sección 2.4 Bases 49

En matemáticas las palabras “clausura”, “cerradura” y “envoltura” son sinónimos. Por


esto con el mismo éxito, otros autores le llaman “clausura lineal” o “envoltura lineal” a
nuestro concepto de cerradura lineal. Además, es bueno que el lector encuentre el parecido
entre el concepto de cerradura lineal y el concepto de “cerradura” en análisis (la intersección
de todos los cerrados que contienen a un conjunto).
En general una función que a un conjunto N le hace corresponder otro conjunto hNi y que cumple
las propiedades 1­3 se le llama operador de cerradura (clausura, envoltura). En este caso a los
conjuntos tales que N = hNi se le llaman cerrados. Que se cumplan las propiedades 1­3 es, en
general, equivalente a que el operador de cerradura se defina como la intersección de todos los cerrados que
contienen al conjunto. En todas las ramas de las matemáticas se encuentran operadores de cerradura.

Ejercicio 48 Demuestre que N es un subespacio si y solo si N = hNi.


Ejercicio 49 Demuestre que (x ∈ hN ∪ yi \ hNi) ⇒ (y ∈ hN ∪ xi). [179]

2.4 Bases
X Observemos que la definición de combinación lineal de N de­
K{N} 3 αN 7→ αi i ∈ E termina la función fN del recuadro a la izquierda que a ca­
i∈N
P da N­ada de soporte finito αN le hace corresponder el vector
i∈N αi i. Esta función no tiene porque que ser sobreyectiva ni inyectiva, depende del con­
junto de vectores N. Por ejemplo, sea N = {x, y, z} donde x = (0, 0, 1), y = (0, 1, 0) y
z = (0, 1, 1) son tres vectores en R3 . En este caso fN (2, 2, 0) = fN (0, 0, 2) = (0, 2, 2) por
lo que fN no es inyectiva. Tampoco es sobreyectiva porque (1, 0, 0) no tiene preimagen.
En esta sección estableceremos que en todo espacio vectorial existen conjuntos N para
los cuales la función fN es biyectiva. Este hecho es fundamental, porque en este caso existe la
función inversa f−1
N : E →K
{N}
que nos permitirá introducir coordenadas en cualquier espa­
cio vectorial. Es más, veremos que los conjuntos de vectores para los cuales fN es biyectiva
tienen la misma cantidad de vectores. Esto quiere decir que cada vector de E se define por
un cierto número de elementos del campo (coordenadas) y que este número es independiente
del vector a definir. Solo depende del espacio. Ası́, en R2 nos hacen falta siempre dos reales
para dar un vector y en R7 nos hacen falta siete.
Conjuntos generadores
Primero, lo más fácil. La imagen de la función fN es hNi , la cerradura de N. Diremos
que N es un conjunto generador si hNi es todo el espacio o sea, si fN es sobreyectiva.

Los generadores son un filtro

Todo sobreconjunto de un conjunto generador es generador.


50 Capı́tulo 2. Espacios vectoriales
Prueba. Supongamos M ⊇ N. Por monotonı́a de la cerradura lineal tenemos hNi ⊆ hMi.
Si hNi es todo el espacio entonces, necesariamente hMi también lo es.

Conjuntos linealmente independientes

Ahora, veamos cuando fN es inyectiva. Observese que en un lenguaje más descriptivo,


un fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado.

Teorema de Caracterización de Conjuntos Linealmente Independientes

Sea N un conjunto de vectores. Las siguientes afirmaciones son equivalentes


1. Cualquier subconjunto propio de N genera un subespacio más pequeño
que todo N.
2. Cualquier vector en N no es combinación lineal de los restantes.
3. Si dos combinaciones lineales de N son iguales entonces, todos sus
coeficientes son iguales.
4. Si una combinación lineal de N es cero entonces, todos sus coeficientes
son cero.

Prueba. (1 ⇔ 2) Si 1 no es cierto entonces existe a ∈ N tal que hNi = hN\ai pero


entonces a ∈ hN\ai lo que contradice 2. Recı́procamente, si 2 no es cierto entonces existe
a ∈ N tal que a∈ hN\ai. Por incremento N\a ⊆ hN\ai y como además a ∈ hN\ai
entonces N ⊆ hN\ai. Por monotonı́a
¡P e idempotencia
P ¢ hNi¡P⊆ hN\ai lo que contradice
¢ 1.
(3 ⇔ 4) Observese que i∈N αi i = i∈N βi i ⇔ i∈N (αi − βi ) i = 0 y además
(αi = βi ) ⇔ (αi − βi = 0). Luego, la existencia de combinaciones lineales iguales con al­
gunos coeficientes diferentes es equivalente a la existencia de combinaciones lineales iguales
a cero con algunos coeficientes no cero.
(2 ⇔ 4) Si no se cumple 2 entonces hay un vector a ∈ N que es combinación lineal de
N\a. Pasando todos los sumandos hacia un lado de la igualdad obtenemos una combinación
lineal de N igual a cero con un coeficiente distinto de cero. Esto contradice 4. Recı́proca­
mente, si no se cumple 4 entonces hay un vector a ∈ N y una combinación lineal de N igual
a cero y con αa 6= 0. Despejando a, obtenemos que a ∈ hN\ai. Esto contradice 2.

Ejercicio 50 Busque en la prueba del Teorema de Caracterización de Conjuntos Linealmen­


te Independientes (2.9) donde se usan los inversos nultiplicativos. [179]

Diremos que un conjunto de vectores N es linealmente independiente si se cumple


alguna (y por lo tanto todas) las afirmaciones de la proposición anterior. Los conjuntos de
vectores que no son linealmente independiente se les llama linealmente dependientes.
Sección 2.4 Bases 51
A partir de ahora para no repetir constantemente frases largas a los conjuntos
de vectores linealmente independientes los llamaremos conjuntos LI. Análo­
gamente a los conjuntos de vectores linealmente dependientes los llamaremos
conjuntos LD. Estas notaciones se deben pronunciar “ele i” y “ele de”.

Los independientes son un ideal

Todo subconjunto de un conjunto LI es LI.

Prueba. Sea N ⊆ M tal que M es LI. Cualquier combinación lineal de N es combinación


lineal de M. Luego toda combinación lineal de N igual a cero tiene todos sus coeficientes
iguales a cero
Antes de pasar a la definición de base, demostremos un pequeño resultado que usaremos
repetidamente en lo adelante.

Lema de Aumento de un Conjunto LI

Si N es independiente y N∪ a es dependiente entonces a ∈ hNi.

Prueba. Si N ∪ a es LD entonces, por la caracterización 2.9.4 de los conjuntos LI, hay


una combinación de N ∪ a igual a cero cuyos coeficientes no todos son igual a cero. Si el
coeficiente en a fuera igual a cero obtendrı́amos una contradicción con que N es LI. Luego,
el coeficiente en a es diferente a cero y despejando a obtenemos a ∈ hNi.

Bases
La relación entre los conjuntos generadores y los conjun­ E
tos LI la podemos ver intuitivamente en la figura a la derecha.
Aquı́ están representados los subconjuntos del espacio E que Conjuntos generadores
son generadores o que son LI. Mientras más arriba más gran­
de es el subconjunto. Nuestro interés ahora se va a concentrar
en la franja del centro donde hay subconjuntos que a la vez Conjuntos LI
son generadores y LI. La siguiente proposición nos dice que
“esta franja no puede ser muy ancha”. ∅

Teorema de Caracterización de Bases

Sea N un conjunto de vectores. Las siguientes afirmaciones son equivalentes


1. N es generador y N es LI,
2. N es LI y cualquier sobreconjunto propio de N es LD,
3. N es generador y cualquier subconjunto propio de N no es generador.

Prueba. (1 ⇒ 2) Sea N independiente y generador. Sea a ∈


/ N. Como N es generador
52 Capı́tulo 2. Espacios vectoriales
a ∈ hNi . De la caracterización 2.9.2 de los conjuntos LI se sigue que N ∪ a es LD. Luego
todo sobreconjunto propio de N es LD.
(2 ⇒ 3) Sea N independiente maximal. Por incremento N ⊆ hNi. Si a ∈ / N entonces
N ∪ a es LD. Por el Lema de Aumento de un Conjunto LI (2.11) tenemos a ∈ hNi . Luego,
N es generador. Si algún subconjunto propio de N fuera generador entonces existirı́a a ∈ N
tal que a ∈ hN\ai y por la caracterización 2.9.2 de los conjuntos LI esto contradice la
suposición de que N es LI.
(3 ⇒ 1) Sea N generador minimal. Si N es LD entonces, por la caracterización 2.9.1
de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Como N es
generador entonces M también lo es. Esto contradice la suposición de que N es minimal.
Sea F un subespacio. Un conjunto de vectores que es generador de F y que es LI se le
llama base de F. Las bases de todo el espacio se llaman simplemente bases. El ser base es
equivalente a ser un conjunto LI lo más grande posible o ser un conjunto generador lo más
chico posible. También, el ser base es equivalente a que nuestra función fN del principio de
esta sección sea biyectiva.

Lema de Incomparabilidad de las Bases

Dos bases diferentes no están contenidas una dentro de la otra.

Prueba. Si N ⊆ M son dos bases diferentes entonces N es un subconjunto propio de M y


por el Teorema de Caracterización de Bases (2.12) esto es una contradicción.

Teorema de Existencia de Bases

Sea N un conjunto generador y L ⊆ N un conjunto


LI. Entonces, existe una base M tal que L ⊆ M ⊆ N.

Prueba. Sean L y N como en las hipótesis del teorema. Sea M un conjunto LI tal que
L ⊆ M ⊆ N. Si M es maximal con estas propiedades (∀a ∈ N\M M ∪ a es LD)
entonces, por el Lema de Aumento de un Conjunto LI (2.11) tenemos N ⊆ hMi. Como N
es generador, esto significa que M también lo es y por lo tanto M es una base.
Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es fácil si
el conjunto N es finito. Primero ponemos M igual a L. Si M es maximal terminamos, si no,
entonces existe a ∈ N\M tal que M ∪ a es LI. Agregamos a al conjunto M y repetimos
este proceso. Como N es finito este proceso tiene que terminar.

Ejercicio 51 Pruebe que las siguientes afirmaciones son consecuencia directa del Teorema
de Existencia de Bases (2.14): 1. Todo espacio vectorial tiene base. 2. Cualquier conjunto LI
esta contenido en una base. 3. Cualquier conjunto generador contiene a una base. [179]
Sección 2.4 Bases 53

Dimensión
Ahora lo que queremos ver es que todas las bases tienen el mismo número de vectores.
Para probar esto se necesita ver primero una propiedad clásica de las bases.

Propiedad del Cambio de las Bases

Si M y N son dos bases entonces, para cualquier


a ∈ M existe b ∈ N tal que (M\a) ∪ b es base.

Prueba. Sea a un vector fijo pero arbitrario en M. Para un vector b ∈ N denotemos


Mb = (M\a) ∪ b. Si para todos los b ∈ N\ (M\a) el conjunto Mb fuera LD entonces,
por el Lema de Aumento de un Conjunto LI (2.11) todo b ∈ N serı́a combinación lineal
de M\a. O sea, N ⊂ hM\ai y por monotonı́a e idempotencia tendrı́amos hNi ⊆ hM\ai .
Como hNi es todo el espacio en particular tendrı́amos a ∈ hM\ai lo que no es posible ya
que M es LI.
Hemos demostrado que existe b ∈ N\ (M\a) tal que Mb es LI. Demostremos que Mb
es generador. Sea v un vector arbitrario. Por ser M base tenemos que b y v son combinacio­
nes lineales de M o sea existen escalares
X apropiados tales que X
b = αa a + αx x v = λa a + λx x
x∈M\a x∈M\a
Como Mb es LI entonces, b no es una combinación lineal de M\a y por lo tanto αa 6= 0.
Luego, podemos despejar a de la primera ecuación, substituirla en la segunda y ası́ obtener
que v ∈ hMb i. Esto significa que Mb es generador.

Equicardinalidad de las Bases

Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal.

Prueba. Sean A = {a1 , ..., an } y B dos bases. Por la Propiedad del Cambio de las Bases
(2.15) existe otra base A1 = {b1 , a2 , ..., an } donde b1 ∈ B. Observese que |A1 | = n ya
que en otro caso A1 Ã A lo que contradice el Lema de Incomparabilidad de las Bases
(2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A1 obtenemos otra base
A2 = {b1 , b2 , a3 , ..., an } tal que b2 ∈ B. Observese que |A2 | = n ya que en otro caso
A2 Ã A1 lo que contradice el Lema de Incomparabilidad de las Bases (2.13). Repitiendo
este proceso obtenemos bases A3 , A4 , ..., An todas con n vectores y además An ⊆ B. Como
B es base obtenemos An = B y por lo tanto B también tiene n vectores.
Al cardinal de una base (cualquiera) se le llama dimensión del espacio vectorial. La di­
mensión de un espacio vectorial E se denotará por dim E. Los espacios vectoriales que tienen
una base finita se les llama finito dimensionales o de dimensión finita. Por el contrario, si
sus bases son infinitas entonces, el espacio vectorial es de dimensión infinita. La teorı́a de
los espacios vectoriales de dimensión finita es más sencilla pero más completa que la de los
54 Capı́tulo 2. Espacios vectoriales
espacios de dimensión infinita. Para darnos cuenta de que hay muchas cosas que se cumplen
en el caso finito dimensional pero no en el caso infinito dimensional veamos como ejemplo
el siguiente resultado que tendremos múltiples ocaciones para utilizarlo.

Sea F un espacio vectorial finito dimensional y E un


subespacio de F. Si dim E = dim F entonces E = F.

Prueba. Sea N una base de E. Por el Teorema de Existencia de Bases (2.14) existe una base
M del espacio F que contiene a N. Como M es finita entonces, N también es finita. Como
las dimensiones coinciden, el número de vectores en N es igual al número de vectores en M.
Luego N = M y por lo tanto E = hNi = hMi = F.

Observese que la prueba de Equicardinalidad de las Bases (2.16) la hemos he­


cho solamente para el caso que el espacio tiene una base finita. Nuestra prueba
del Teorema de Existencia de Bases (2.14) es solo para el caso que el con­
junto generador es finito. Finalmente, solo hemos probado que los espacios vectoriales que
tienen un conjunto generador finito tienen base. Es importante que el lector sepa que estas
tres afirmaciones son válidas en general. Sin embargo, las pruebas generales dependen de un
conocimiento más profundo de la Teorı́a de Conjuntos que no presuponemos que lo posea el
lector. A los interesados en esto les recomiendo leer ahora la última sección de este capı́tulo.

Ejercicio 52 Pruebe que si E un subespacio de F entonces dim E ≤ dim F. [179]


Ejercicio 53 Encuentre un ejemplo donde no se cumple 2.17. [179]

Bases canónicas

Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tienen una
base sino muchas. Por esto es conveniente construir bases que son las más “sencillas” para
los ejemplos de espacios vectoriales que construimos en la Sección 2.2.
Comenzemos con R2 . Sean e1 = (1, 0) y e2 = (0, 1). Cualquier vector (a, b) en R2
tiene una manera de expresarse como combinación lineal de N = {e1 , e2 }. Efectivamente,
tenemos la igualdad (a, b) = ae1 + be2 . Esto quiere decir que el conjunto N es generador.
Por otro lado, si αe1 + βe2 = (α, β) = 0 = (0, 0) entonces, necesariamente, α y β son
ambos cero. De aquı́ obtenemos que conjunto N es una base que la llamamos base canónica
de R2 . Los vectores e1 y e2 se pueden visualizar geométricamente como los dos vectores de
longitud 1 en ambos ejes de coordenadas. Luego, la dimensión de R2 es 2.
Pasemos ahora a Kn . Para cada i en el conjunto de ı́ndices {1, . . . , n} denotemos por ei
el vector cuya i­esima coordenada es 1 y todas las demás son cero (recuerde que todo cam­
po tiene uno y cero). Sea N el conjunto de todos esos vectores. Tenemos (α1 , . . . , αn ) =
P n
i=1 αi ei y esto significa que cada vector en K se expresa de forma única como combina­
n
Sección 2.5 Clasificación de espacios vectoriales 55

ción lineal de N. O sea, N es generador y por la caracterización 2.9.3 de los conjuntos LI el


conjunto N es LI. A la base N se le llama base canónica de Kn . ©La dimensiónª de Kn es n.
Veamos el espacio de polinomios K [x]. Sea N el conjunto xi | i ∈ N . Es claro que
todo polinomio se puede escribir de forma única como combinación lineal finita de N. A la
base N se le llama base canónica de K [x]. Luego, K [x] es de dimensión infinita contable.
Desafortunadamente, para el espacio de series no se puede dar explicitamente una base.
Para el espacio K{M} de todas las M­adas de soporte finito ya hicimos casi todo el trabajo
(véase Kn ). Para cada i en el conjunto de ı́ndices M denotemos por ei el vector cuya i­esima
coordenada
P es 1 y las demás son cero. Sea N el conjunto de todos esos vectores. Tenemos
αN = i∈N αi eN donde los coeficientes son distintos de cero solamente en un subconjunto
finito de indices. Luego, N es una base de este espacio la cual es su base canónica. La
dimensión de K{M} es el cardinal de N ya que hay una biyección entre N y M.
Recordemos al lector que lo de soporte finito es no trivial solo para cuando el conjunto
M es infinito. Si el conjunto de ı́ndices es finito entonces estamos hablando de todas las
M­adas o sea de KM . Luego, en el caso de que M es finito K{M} = KM y la base canónica
de KM es la construida en el párrafo anterior. En el caso de que el conjunto M sea infinito
entonces el espacio KM no tiene una base canónica.
El campo de los números complejos como espacio vectorial sobre los reales tienen como
base canónica al conjunto {1, i} y por lo tanto tiene dimensión 2. Los reales como espacio
vectorial sobre los racionales no tienen una base canónica.
Todos los espacios que hemos visto que no tienen base canónica son de dimensión infi­
nita. Sin embargo, no todos los espacios de dimensión finita tienen una base canónica. El
ejemplo más sencillo de esto es tomar un subespacio de un espacio de dimensión finita. Si
este subespacio es suficientemente general, entonces no hay manera de construir una base
canónica del mismo incluso en el caso de que todo el espacio tenga una base canónica.

Ejercicio 54 Demuestre que el conjunto {(x − x0 )i | i ∈ N} es una base de K [x]. [179]


Ejercicio 55 ¿Cual es la base canónica del espacio de las NM­matrices? [179]

2.5 Clasificación de espacios vectoriales


En esta sección veremos que todo espacio vectorial es isomorfo a un espacio de N­
adas de soporte finito. Para el caso finito dimensional esto quiere decir que el único (salvo
isomorfismos) espacio vectorial de dimensión n sobre un campo K que existe es el espacio
de las n­adas Kn .
Isomorfismos lineales
En el Capı́tulo 1 vimos los morfismos de operaciones binarias, grupos, anillos y campos.
Para los espacios vectoriales es igual, la única diferencia es que en ellos hay definida una
56 Capı́tulo 2. Espacios vectoriales
operación que no es interna del espacio: el producto de un escalar por un vector. Sin embargo,
esto no presenta mayores dificultades.
Sean E y F dos espacios vectoriales sobre el mismo campo
f (a + b) = f (a) + f (b) K. Una función f : E → F se le llama morfismo de espacios
f (αa) = αf (a) vectoriales si para cualesquiera a, b ∈ E y cualquier α ∈ K
se cumplen las propiedades del recuadro.
A los morfismos de espacios vectoriales también se les llama transformaciones lineales.
Esta última expresión será la que usemos porque tiene dos importantes ventajas. Primero,
es más corta que la primera. Segundo es mucho más antigua, hay mucha más cantidad de
personas que la conoce y por lo tanto facilita la comunicación con ingenieros y cientı́ficos
de diversas areas.

Ejercicio 56 Demuestre que la composición de morfismos es un morfismo. [179]

El estudio de las transformaciones lineales lo pospondremos hasta el siguiente capı́tulo.


Aquı́ estaremos interesados en los isomorfismos de espacios vectoriales. Una transformación
lineal f : E → F es un isomorfismo de espacios vectoriales o isomorfismo lineal si esta es
biyectiva. Análogamente al caso de operaciones binarias tenemos el siguiente resultado:

La inversa de cualquier isomorfismo lineal es un isomorfismo lineal.

Prueba. Sea α ∈ K y x, y ∈ F. Como f es una biyección existen a, b ∈ E tales que


f (a) = x , f (b) = y. Como f es isomorfismo tenemos
f−1 (x + y) = f−1 (f (a) + f (b)) = f−1 (f (a + b)) = a + b = f−1 (x) + f−1 (y)
f−1 (αx) = f−1 (αf (a)) = f−1 (f (αa)) = αa =αf−1 (x)
que es lo que se querı́a demostrar.
Ya observamos, que los isomorfismos son nada más que un cambio de los nombres de los
elementos y las operaciones. Esto quiere decir que “cualquier propiedad” debe conservarse
al aplicar un isomorfismo. La siguiente proposición es un ejemplo de esta afirmación.

Un isomorfismo transforma conjuntos LI en conjuntos LI, con­


juntos generadores en conjuntos generadores y bases en bases.

Prueba. Sea f : E → F un isomorfismo de espacios vectoriales. Sea M ⊆ E y denotemos


N = f (M) ⊆ F.ÃSean además!x ∈ E
Ã, y = f (x) ∈ F.!ComoÃf es isomorfismo
! tenemos
X X X
αi i = x ⇔ αi f (i) = y ⇔ αj j = y
i∈M i∈M j∈N
donde el conjunto de coeficientes {αi | i ∈ M} es exactamente el mismo que {αj | j ∈ N}.
Si M es generador entonces, para cualquier y ∈ F el vector x = f−1 (y) es combinación
Sección 2.5 Clasificación de espacios vectoriales 57

lineal de M y por la equivalencia anterior el vector y es combinación lineal de N. Luego, si


M es generador entonces N también lo es.
Supongamos que M es LI Ã entonces, poniendo
! Ã x = 0 obtenemos
!
X X
αi i = 0 ⇔ αj j = 0
i∈M j∈N
luego, cualquier combinación lineal de N que es nula también es combinación lineal nula de
M y por lo tanto todos sus coeficientes son cero. Luego, N es LI.

Ejercicio 57 Demuestre que los isomorfismos conmutan con el operador de cerradura lineal
y que trasforman subespacios en subespacios de la misma dimensión.

Coordinatización
Sea N un conjunto de vectores del espacio vectorial F. Al principio de la sección ante­
rior introducimos la función fN que a cada N­ada de soporte finito le hace corresponder la
combinación lineal cuyos coeficientes son dicha N­ada. Esta función es siempre una trans­
formación lineal ya que
X X X
fN (αN + βN ) = (αi + βi ) i = αi i + βi i = fN (αN ) + fN (βN )
i∈N X i∈N X i∈N
fN (λαN ) = (λαi ) i = λ αi i = λfN (αN ) .
i∈N i∈N
Por otro lado, ya vimos que fN es sobreyectiva si y solo si N es generador, que fN es inyectiva
si y solo si N es LI y por lo tanto fN es un isomorfismo si y solo si N es una base. En el caso
de que N sea una base, la función inversa f−1N : F → K
{N}
es un isomorfismo lineal llamado
coordinatización de F mediante la base N. En otras palabras, si N es unaPbase de F, y x es
un vector de F entonces, existe una única N­ada αN ∈ K{N} tal que x = i∈N αi i. En este
caso, a los coeficientes αi se les llama coordenadas de x en la base N.
Clasificación
Se dice que dos espacios son isomorfos si existe una función que es un isomorfismo
entre ellos. No hay ninguna razón (por ahora) para que deseemos distinguir dos espacios
vectoriales que son isomorfos. Si esto sucede, uno es igual a otro salvo los “nombres” de los
vectores y las operaciones. La clave para ver que los espacios vectoriales son isomorfos es
que estos tengan la misma dimensión.

Dos espacios vectoriales sobre el mismo campo son


isomorfos si y solo si tienen la misma dimensión.

Prueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19 un
isomorfismo entre ellos transforma biyectivamente una base de uno en una base del otro por
58 Capı́tulo 2. Espacios vectoriales
lo que tienen la misma dimensión. Recı́procamente, sean N y M bases de E y F respecti­
vamente. Mediante los isomorfismos de coordinatización podemos pensar que E = K{N} y
F = K{M} . Si los dos tienen la misma dimensión entonces, hay una biyección f : M → N.
Sea g : K{N} 3 αN 7→ βM ∈ K{M} la función tal que βi = αf(i) . La función g la po­
demos pensar como la que simplemente le cambia el nombre a los ı́ndices de una N­ada.
Esta es claramente un isomorfismo de espacios vectoriales (ya que la suma de N­adas es por
coordenadas y lo mismo con el producto por un escalar).
Esta proposición nos permite saber como son TODOS los espacios vectoriales. Ya vimos
(mediante la base canónica) que el espacio vectorial de todas las N­adas (funciones) de
soporte finito tiene dimensión |N|. Escogiendo el conjunto N adecuadamente obtenemos
todas las dimensiones posibles. En el caso de que N sea finito con n elementos , este espacio
es Kn por lo que es válido el siguiente teorema.

Teorema de Clasificación de Espacios Vectoriales

Todo espacio vectorial es isomorfo a un espacio de N­adas de soporte


finito. Todo espacio vectorial finito dimensional es isomorfo a Kn .

Campos de Galois

Una aplicación sencilla del Teorema de Clasificación de Espacios Vectoriales (2.21) es


la siguiente. Sea E un espacio vectorial finito dimendional sobre el campo K. Tenemos para
cierto natural n un isomorfismo E ←→ Kn y si el campo K es finito entonces en E hay
exactamente |K|n vectores.

El número de elementos en un campo finito es potencia de un número primo.

Prueba. Ya vimos que siempre que se tenga un subcampo L del campo K entonces, K es un
espacio vectorial sobre L. Esto es en esencia porque podemos sumar vectores (los elementos
de K) y podemos multiplicar escalares (los elementos de L) por vectores.
Si K es finito entonces su caracterı́stica no puede ser 0 y por lo tanto es igual a un número
primo p. Esto quiere decir que K contiene como subcampo Zp . La dimensión de K sobre Zp
tiene que ser finita ya que si no, entonces K serı́a infinito. Luego, K es isomorfo a Znp que
tiene exactamente pn elementos.

Como pensar en espacios vectoriales

A partir de ahora el lector debe siempre tener en mente el Teorema de Clasificación de


Espacios Vectoriales (2.21). Al hablar de un espacio vectorial en primer lugar, se debe pensar
en R2 y R3 . La interpretación geométrica de estos dos espacios como los segmentos dirigidos
con origen en el cero da una intuición saludable acerca de lo que es cierto y lo que no.
Sección 2.6 Suma de subespacios 59

En segundo lugar el lector debe pensar en el ejemplo Rn . Si el lector lo prefiere, el


número n puede ser un número fijo suficientemente grande digamos n = 11. Ya en este caso,
para entender es necesario usar varios métodos: las analogı́as geométricas en dimensiones
pequeñas, el cálculo algebraico con sı́mbolos y los razonamientos lógicos. Casi todo lo que
se puede demostrar para espacios vectoriales finito dimensionales se demuestra en el caso
particular de Rn con la misma complejidad. Las demostraciones de muchos hechos válidos
en Rn se copian tal cual para espacios vectoriales de dimensión finita sobre cualquier campo.
En tercer lugar se debe pensar en Cn . El espacio vectorial Cn es extremadamente impor­
tante dentro de las matemáticas y la fı́sica. Además, el hecho de que C es algebraicamente
cerrado hace que para Cn algunos problemas sean más fáciles que en Rn . Hay una manera
de pensar en Cn que ayuda un poco para tener intuición geométrica. Como ya vimos {1, i}
es una base de C como espacio vectorial sobre R. De la misma manera Cn es un espacio
vectorial sobre R de dimensión 2n o sea, hay una biyección natural entre Cn y R2n (la bi­
yección es (a1 + b1 i, a2 + b2 i, ..., an + bn i) 7→ (a1 , b1 , a2 , b2 , ..., an , bn )). Sin embargo
esta biyección no es un isomorfismo. Si E es un subespacio de Cn sobre R entonces no ne­
cesariamente E es un subespacio de Cn sobre C . Desde este punto de vista podemos pensar
(no rigurosamente) a Cn como un R2n en el que hay menos subespacios.
Los que se interesan en las ciencias de la computación deben también pensar en Znp y
en general en cualquier Kn donde K es un campo finito. Las aplicaciones más relevantes
incluyen la codificación de información con recuperación de errores y la criptografı́a, que es
la ciencia de cifrar mensajes.
Ahora, si el lector no le tiene miedo al concepto de campo (que es uno de los objetivos de
este libro) entonces, lo más fácil es pensar en Kn . Esto tiene una gran ventaja en el sentido
de que no hay que pensar en los detalles particulares que se cumplen en uno u otro campo.
Sin embargo, en el caso infinito dimensional la situación es más fea. Nuestros teoremas
nos garantizan que hay un isomorfismo entre R como espacio vectorial sobre Q y las funcio­
nes de soporte finito de una base de este espacio a Q. El problema es que nadie conoce (ni
conocerá nunca) una base de este espacio, ası́ que realmente, estos teoremas no dicen mucho
para espacios vectoriales de dimensión mayor que el cardinal de los naturales ℵ0 .

2.6 Suma de subespacios


En esta sección introduciremos las operaciones más básicas entre subespacios. Pero an­
tes, es saludable dar una interpretación geométrica de los subespacios para que el lector
pueda comparar el caso general con el caso de los espacios R2 y R3 .
Subespacios de Rn
¿Cuales son todos los subespacios de Rn ? Del Teorema de Clasificación de Espacios
Vectoriales (2.21) sabemos que estos tienen que ser isomorfos a Ri para i ∈ {0, 1, . . . , n}
según sea su dimensión. Si i = 0 entonces todo el subespacio es el vector 0 (el origen de
coordenadas). Si i = n entonces, el subespacio es por 2.17 todo el espacio. Luego, los casos
60 Capı́tulo 2. Espacios vectoriales
interesantes son los que 0 < i < n.
Si i = 1 entonces, el subespacio tiene que ser isomorfo a R y tiene que tener una base
de un vector. O sea, existe un vector a tal que el subespacio es igual a hai. Ya vimos que
hai es la recta que pasa por el origen y por el punto a que es el final del vector a. Luego,
los subespacios de dimensión 1 de Rn son las rectas que pasan por el origen. Para R2 este
análisis termina con todas las posibilidades.
Si i = 2 entonces, el subespacio tiene que ser isomorfo a R2 y tiene que tener una base
{a, b} de dos vectores. La base {a, b} tiene que ser LI y en este caso eso quiere decir que b
no es un múltiplo escalar de a. En otras palabras, los puntos finales de los vectores a, b y
el origen de coordenadas no están alineados. En este caso hay un único plano (R2 ) que pasa
por estos tres puntos y también ya vimos que este plano es ha, bi. Luego, los subespacios de
dimensión 2 de Rn son los planos que pasan por el origen. Para R3 este análisis termina con
todas las posibilidades: sus subespacios son: el origen, las rectas por el origen, los planos por
el origen y todo el espacio.
Ahora tenemos que pensar por lo menos en los subespacios de R4 y ya se nos acaba la
intuición y la terminologı́a geométrica. Por esto, pasemos al caso general. Un subespacio de
dimensión i en Rn esta generado por una base {a1 , . . . , ai } de i vectores LI. Que sean LI
lo que quiere decir es que sus puntos y el origen no están contenidos en un subespacio de
dimensión menor que i. Si este es el caso entonces hay un único Ri que contiene a todos
estos puntos y este es el subespacio ha1 , . . . , ai i.
Suma de conjuntos y subespacios

Sean E y F dos subespacios sobre un campo K. En la proposición 2.3 vimos que E ∩ F es


un subespacio. Por definición de intersección E ∩ F es el subespacio más grande contenido
en E y F. Ya observamos además que E ∪ F no es un subespacio. Sin embargo, hay un
subespacio que es el más pequeño que contiene a los dos y este es hE ∪ Fi. El subespacio
hE ∪ Fi tiene una estructura muy simple:

hE ∪ Fi = {a + b | a ∈ E, b ∈ F}

Prueba. Todo a + b es una combinación lineal de E ∪ F. Recı́pro­ X X


camente, toda combinación lineal de E ∪ F se puede escribir como αx x + βy y
x∈E y∈F
en el recuadro a la derecha. Como E y F son subespacios entonces,
el primero y el segundo sumando son elementos de E y F respectivamente. Esto quiere decir
que todo elemento de hE ∪ Fi es de la forma a + b con a en E y b en F.
Dados dos conjuntos cualesquiera de vectores A y B
A + B = {a + b | a ∈ A, b ∈ B}
definimos la suma de estos como en el recuadro a la
izquierda. Después de esta definición el resultado 2.23 se puede reformular como hE ∪ Fi =
E + F. Es por esto que al subespacio hE ∪ Fi se le llama la suma de los subespacios E y F
y desde ahora se le denotará por E + F.
Sección 2.6 Suma de subespacios 61

La igualdad modular

Sean E y F dos subespacios. Ahora trataremos de calcular la dimensión de E + F. Para


esto necesitaremos primero encontrar bases de E ∩ F y E + F.

Existen E una base de E y F una base de F tales que


E ∩ F es base de E ∩ F y E ∪ F es base de E + F.

Prueba. Sea N una base de E∩F . Como N es LI y está contenida en E entonces, por el Teo­
rema de Existencia de Bases (2.14) existe una base E de E que contiene a N. Análogamente,
existe una base F de F que contiene a N.
Demostremos primero que E ∩ F = N. Efectivamente, por la forma en que contruimos E
y F tenemos N ⊆ E ∩ F. Para la prueba de la otra inclusión sea a ∈ E ∩ F. Como N ∪ a ⊆ E
entonces, tenemos que N ∪ a es LI. Como N es base de E ∩ F y las bases son los conjuntos
LI más grandes, obtenemos que a ∈ N. Luego, E ∩ F ⊆ N.
Solo nos queda probar que E ∪ F es una base de E + F. En primer lugar, cualquier
a + b ∈ E + F es combinación lineal de E ∪ F por lo que E ∪ F es generador de E + F.
Necesitamos probar que E ∪X F es LI. Para
X esto supongamos
X que
X
0= αi i = αi i+ αi i+ αi i
i∈E∪F i∈E\N i∈N i∈F\N
y demostremos que todos los αi son cero. Sean x, y, z el primer, segundo y tercer sumando
respectivamente en la igualdad anterior. Por construcción, tenemos x ∈ E, y ∈ E ∩ F y
z ∈ F. Además, como z = − (y + x) y E es un subespacio, obtenemos z ∈ E ∩ F.P
Como N es una base de E∩F el vector z es combinación lineal de N, o sea z = i∈N λi i
para ciertos coeficientes λi . De aquı́ obtenemos
X que X
0=x+y+z= αi i+ (αi + λi ) i
i∈E\N i∈N
Como E es LI, todos los coeficientes de esta combinación lineal son cero. En particular,
αi = 0 para todo i ∈ E\N y por lo tanto x = 0. Substituyendo x obtenemos
X X
0=y+z= αi i+ αi i
i∈N i∈F\N
y como F es LI deducimos que los restantes coeficientes también son cero.

Igualdad modular

Si E y F son dos subespacios entonces,


dim E + dim F = dim (E + F) + dim (E ∩ F).

Prueba. Por 2.24 existen bases E y F de E y F tales que E ∪ F es base de E + F y E ∩ F


es base de E ∩ F. Luego, la fórmula se reduce a la conocida igualdad entre cardinales de
conjuntos |E| + |F| = |E ∪ F| + |E ∩ F|.
62 Capı́tulo 2. Espacios vectoriales

Ejercicio 58 Use la igualdad modular para cons­ E F (E + F) E F (E + F)


truir ejemplos de subespacios reales E y F tales que 1 1 1 1 2 3
ellos y E + F tienen las dimensiones definidas en la 1 1 2 2 2 3
tabla del recuadro a la derecha. ¿Puede tener E + F 1 2 2 2 2 4
dimensión diferente a las de la tabla?

Suma directa

Para dos espacios vectoriales Ey F (no necesariamente contenidos en otro espacio) sobre
un mismo campo K definiremos la suma directa de ellos como el espacio vectorial

¡ E0 ⊕ 0F¢ = ¡{(a, b) 0| a ∈ E,0 ¢b ∈ F}


(a, b) + a , b = a + a ,b + b
λ (a, b) = (λa, λb)

Observese que como conjunto la suma directa es el producto cartesiano de conjuntos. La


diferencia está en que la suma directa ya trae en su definición las operaciones de suma de
vectores y multiplicación por un escalar. Deberı́amos probar que la suma directa es efectiva­
mente un espacio vectorial, o sea que cumplen todos los axiomas. Nosotros omitiremos esta
prueba por ser trivial y aburrida. Mejor nos concentraremos en algo más interesante.

dim (E ⊕ F) = dim E + dim F.

Prueba. Sea E0 = {(a, 0) | a ∈ E} y F0 = {(0, b) | b ∈ F}. Es claro que los espacios E y E0


son isomorfos y por lo tanto tienen la misma dimensión. Otro tanto ocurre con F y F0 . Por
definición de suma de subespacios tenemos que E0 + F0 = E ⊕ F . De la Igualdad modular
(2.25) obtenemos dim (E0 + F0 ) = dim E0 + dim F0 − dim (E0 ∩ F0 ) = dim E + dim F.

Isomorfismo canónico entre la suma y la suma directa.

De esta última proposición y de la igualdad modular se deduce que si dos subespacios E


y F son tales que E ∩ F = {0} entonces dim (E ⊕ F) = dim (E + F) o sea E ⊕ F es isomorfo
a E + F. A continuación probaremos solo un poquito más. Sin embargo, este poquito nos
llevará a profundas reexiones.

Isomorfismo Canónico entre la Suma y la Suma directa

Si E y F son subespacios tales que E ∩ F = {0} entonces la función


E ⊕ F 3 (a, b) 7→ a + b ∈ E + F
es un isomorfismo de espacios vectoriales.
Sección 2.6 Suma de subespacios 63

Prueba. Sea f la función definida en el enunciado. Tenemos


f (λ (a, b)) = f (λa, λb) = λa + λb = λ (a + b) = λf (a, b)
f ((a, b) + (x, y)) = f (a + x, b + y) = a + x + b + y = f (a, b) + f (x, y)
por lo que solo queda demostrar que f es biyectiva. Por definición de suma de subespacios
f es sobreyectiva. Para probar la inyectividad supongamos que f (a, b) = f (x, y) entonces,
a − x = y − b. Como a, x ∈ E entonces a − x ∈ E. Como b, y ∈ F entonces y − b ∈ F.
Luego a − x = y − b ∈ E ∩ F = {0} por lo que a = x y b = y.
Observemos que el isomorfismo (a, b) 7→ a + b no depende de escoger base alguna
en E ⊕ F. Todos los isomorfismos que construimos antes de esta proposición se construye­
ron escogiendo cierta base en alguno de los espacios. Los isomorfismos que no dependen
de escoger alguna base juegan un papel importante en el álgebra lineal y se les llama iso­
morfismos canónicos. Decimos que dos espacios vectoriales son canónicamente isomorfos
si existe un isomorfismo canónico entre ellos. Ası́ por ejemplo todo espacio vectorial E de
dimensión 3 es isomorfo a K3 pero no es canónicamente isomorfo a K3 porque no se pue­
de construir de cualquier espacio vectorial de dimensión 3 un isomorfismo con K3 que no
dependa de escoger alguna base. Cuando veamos los productos escalares veremos que hay
fuertes razones para que diferenciemos las bases. Los isomorfismos no canónicos no ne­
cesariamente preservan una u otra propiedad de las bases. Por otro lado, los isomorfismos
canónicos si las preservan. Si por un lado, debe haber cierta resistencia a considerar iguales
a dos espacios vectoriales isomorfos por el otro, los espacios canónicamente isomorfos no
se diferencian en nada uno del otro, por lo que se puede pensar que es el mismo espacio.

Ejercicio 59 1. Demuestre que E ⊕ F y F ⊕ E son canónicamente isomorfos.


2. ¿Como se debe llamar esta propiedad de la suma directa de espacios?
3. Demuestre que la suma directa de espacios es asociativa.
4. ¿Tiene la suma directa elemento neutro? [179]

Subespacios complementarios
Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio F es
complementario de E en S si S = E ⊕ F. Esta igualdad por el Isomorfismo Canónico entre
la Suma y la Suma directa (2.27) lo que quiere decir es que S = E + F y E ∩ F = {0}. En
R2 dos rectas por el origen diferentes son complementarias una a otra. En R3 un plano y una
recta no contenida en el plano (ambos por el origen) son complementarios uno a otro.

Todo subespacio tiene complementario.

Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia de


Bases (2.14) hay una base C de S que contiene a A. Sea F el espacio generado por B = C\A.
Como C es generador de S, todo elemento en S es combinación lineal de C y en particular
todo elemento de S se expresa como a + b con a ∈ E y b ∈ F. Luego S = E + F.
64 Capı́tulo 2. Espacios vectoriales
Por otro lado,
à si x ∈ E ∩ F entonces, tienen
! Ãque existir combinaciones !
lineales tales que
X X X X
x= αa a = αa a ⇒ αa a − αa a = 0 .
a∈A a∈B a∈A a∈B
Como C es LI entonces, por la caracterización 2.9.4 de los conjuntos LI la última combina­
ción lineal tiene todos sus coeficientes iguales a cero. Luego, E ∩ F = {0}.

Si E y F son dos subespacios complementarios entonces cada vector x


se expresa de forma única como x = a + b donde a ∈ E y b ∈ F.

Prueba. Si E y F son complementarios entonces E + F es todo el espacio y por lo tanto todo


vector es de la forma a + b. Si a + b = a0 + b0 entonces a − a0 = b0 − b ∈ E ∩ F = {0}
por lo que la descomposición x = a + b es única.

Ejercicio 60 Demuestre el recı́proco de 2.29: Si cada vector se expresa de forma única


como x = a + b con a ∈ E y b ∈ F entonces, los subespacios son complementarios. [180]
Ejercicio 61 Pruebe que E = E1 ⊕ E2 ⊕ · · · ⊕ En si y solo si cualquier vector x ∈ E se
expresa de forma única como x = x1 + · · · + xn con xi ∈ Ei . Sugerencia: Usar 2.29, el
ejercicio anterior y la asociatividad de la suma directa para aplicar inducción en el número
de sumandos n.

Espacios vectoriales versus conjuntos


Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teorı́a
de Conjuntos y siempre es saludable establecer analogı́as con resultados ya conocidos. Para
acentuar más esta similitud hagamos un diccionario de traducción
Conjunto ←→ Espacio vectorial
Subconjunto ←→ Subespacio vectorial
Cardinal ←→ Dimensión
Intersección de subconjuntos ←→ Intersección de subespacios
Unión de subconjuntos ←→ Suma de subespacios
Unión disjunta ←→ Suma directa
Complemento ←→ Subespacio complementario
Biyecciones ←→ Isomorfismos
Si nos fijamos atentamente muchos de los resultados que hemos demostrado para espa­
cios vectoriales tienen su contraparte válida para conjuntos usando el diccionario que hemos
construido. Probablemente, el ejemplo más notable de esto son las igualdades modulares
para conjuntos y para espacios vectoriales.
Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos a los
espacios vectoriales. Por ejemplo, el complemento de un subconjunto es único y no siempre
hay un único subespacio complementario. Otro ejemplo, un poco más substancial, es que la
Sección 2.7 Espacios cocientes 65

intersección de conjuntos distribuye con la unión o sea A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) .


Por otro lado la intersección de subespacios en general no distribuye con la suma o sea, la
igualdad A∩(B + C) = (A ∩ B)+(A ∩ C) no siempre es verdadera. Para ver esto tómese en
R3 los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B = h(1, 0, 0)i y C = h(0, 1, 0)i . Calculamos
A ∩ (B + C) = h(1, 1, 0)i y (A ∩ B) + (A ∩ C) = {(0, 0, 0)} y vemos que son distintos.

Ejercicio 62 Si A y B son dos conjuntos entonces la diferencia simétrica de los mismos es


el conjunto A +2 B = (A ∪ B) \ (A ∩ B). Demuestre que todos los conjuntos finitos de un
conjunto cualquiera U forman un espacio vectorial de dimensión |U| sobre el campo Z2 para
la suma +2 y el producto 1A = A, 0A = ∅. Vea, que los conceptos de nuestro diccionario
de traducción se aplican a este caso en forma directa.

2.7 Espacios cocientes

Ya vimos que para un subespacio E del espacio F, siempre existen subespacios comple­
mentarios a el. Sin embargo hay muchos de estos subespacios complementarios y no hay
una manera canónica de escoger alguno de ellos. En esta sección nos dedicaremos a cons­
truir canónicamente el espacio cociente F/E que es el espacio de todos los subespacios afines
paralelos a E y que es isomorfo a cualquier subespacio complementario de E.
Subespacios afines

Ya vimos que en el plano cartesiano R2 los subespacios son el origen


{0}, todo R2 y las rectas que pasan por el origen. Sin embargo, hay otras 2
rectas en el plano que no pasan por el origen. Para obtener una de estas `0 R
rectas lo que tenemos que hacer es trasladar una recta por el origen `
mediante un vector x (véase la figura). De esta manera, obtenemos la ` x
recta `0 que se obtiene sumandole x a cada vector en la lı́nea `. Observese
que si x 6= 0 entonces las rectas ` y `0 no se intersectan.
Esto nos motiva a la siguiente definición. Sea A un conjunto de vectores y x un vector.
Al conjunto A + x = {a + x | a ∈ A} se le llama la traslación de A con el vector x. El
lector debe observar que la operación de trasladar es un caso particular (cuando uno de los
sumandos solo contiene a un solo vector) de la operación de suma de conjuntos de vectores
introducida en la sección anterior.
Un subespacio afı́n es el trasladado de un subespacio. En otras palabras, un conjunto de
vectores E es un subespacio afı́n si existen un subespacio E y un vector x tales que E = E+x.
Observese que los subespacios son también subespacios afines. Basta trasladar con el vector
cero. Esto causa una confusión linguı́stica: el adjetivo “afı́n” se usa para hacer el concepto
de “subespacio” más general, no más especı́fico. Por esto, cuando se habla de subespacios
afines es común referirse a los subespacios como subespacios vectoriales.
66 Capı́tulo 2. Espacios vectoriales
Las traslaciones de un subespacio cumplen una propiedad muy sencilla pero fundamen­
tal: que es posible trasladar el subespacio vectorial con diferentes vectores y obtener el mis­
mo subespacio afı́n. Más precisamente:

E+x=E+a
Si a ∈ E + x entonces, E + x = E + a. x
a
0 E

Prueba. Probemos primero el caso que x = 0. Tenemos y ∈ E ⇔ y−a ∈ E ⇔ y ∈ E+a.


Ahora por el caso general. Sabemos que, z = a − x ∈ E y del primer caso, E = E + z.
Luego, E + x = E + z + x = E + a.
Ahora observemos, que un trasladado de un subespacio afı́n es a su vez un subespacio
afı́n ya que (E + x) + y = E + (x + y). Dos subespacios afines se le llaman paralelos
si uno es un trasladado del otro. La relación de paralelismo entre subespacios afines es de
equivalencia ya que si E = F + x y G = E + y entonces, G = F + (x + y). Esto significa que
el conjunto de los subespacios afines se parte en clases de paralelismo y dos subespacios
son paralelos si y solo si están en la misma clase de paralelismo.
Ahora veremos que en cada clase de paralelismo hay un solo subespacio afı́n que pasa
por el origen.

Todo subespacio afı́n es paralelo a un solo subespacio vectorial.

Prueba. Si E + x = F + y entonces, E = F + y − x. Como F + y − x contiene al cero


entonces, x − y ∈ F. Como F es un subespacio, y − x ∈ F y 2.30 nos da F = F + y − x.
Este resultado nos permite definir la dimensión de un subespacio afı́n. Cada uno de ellos
es paralelo a un único subespacio y su dimensión es la dimensión de ese subespacio. En
otras palabras, si E = E + x entonces dim E = dim E. Es común utilizar la terminologı́a
geométrica para hablar de los subespacios afines de dimensión pequeña. Ası́, un punto es
un subespacio afı́n de dimensión cero, una recta es un subespacio afı́n de dimensión uno, un
plano es un subespacio afı́n de dimensión dos.

Dos subespacios afines paralelos o son el mismo o no se intersectan.

Prueba. Si y ∈ (E + x) ∩ (E + x0 ) entonces, por 2.30, E + x = E + y = E + x0 .

Es un error común (debido al caso de rectas en el plano) pensar que es equivalente


que dos subespacios sean paralelos a que estos no se intersecten. Para convencerse
de que esto no es cierto, el lector debe pensar en dos rectas no coplanares en R3 .
Sección 2.7 Espacios cocientes 67

El espacio cociente
Sea D un espacio vectorial y E un subespacio vectorial de D. Si
x + x0
E = E+x y F = E+y son dos subespacios afines paralelos entonces R2
E + F = (E + x) + (E + y) = (E + E) + (x + y) = E + (x + y) x
x0
lo que muestra que E + F está en la misma clase de paralelismo y0
que E y F. En otras palabras (véase la figura a la derecha) la suma y + y0
0 y
de cualquier vector en E con cualquier otro en F esta en un mismo
espacio paralelo a E y F.
Denotemos ahora por D/E al conjunto de todos los subespacios afines de D paralelos a
E. Esta observación nos dice que la suma de subespacios afines es una operación binaria
dentro de D/E. Esta suma es asociativa y conmutativa debido a la asociatividad y conmuta­
tividad de la suma de los vectores en D. El subespacio E es el neutro para esta operación y
el opuesto de E + x es E − x. Luego, D/E es un grupo abeliano para la suma.
Para convertir a D/E en un espacio vectorial nos falta el producto por escalares. Sea
λA = {λa | a ∈ A} A un conjunto arbitrario de vectores y λ un escalar. Definiremos λA
como en el recuadro a la izquierda.
Sean E = E + x un subespacio afı́n paralelo a E y λ un escalar. Tenemos
λE = λ (E + x) = λE + λx = E + λx lo que muestra que λE está en la misma R x
2 2x
clase de paralelismo que E. En otras palabras (véase la figura a la derecha) el 2y
producto de un escalar por todos los vectores en E resulta en espacio paralelo 0 y
a E. Este producto convierte a D/E en un espacio vectorial llamado espacio cociente de D
por E.

Ejercicio 63 Compruebe los axiomas de espacio vectorial para el espacio cociente D/E.
Ejercicio 64 ¿Cual es el espacio cociente de R3 por el plano xy?
Ejercicio 65 ¿Que pasa si sumamos dos espacios afines no paralelos? [180]

El isomorfismo con los complementarios

R2
Sea F un subespacio complementario a E.
Entonces, cualquier subespacio afı́n paralelo
a E intersecta a F en un y solo un vector. F E

Prueba. Sea E = E + x cualquier subespacio afı́n paralelo a E. Como D = E ⊕ F existen


unos únicos vectores y ∈ E y z ∈ F tales que x = y+z. Luego por 2.30 E+x = E+y+z =
E + z y por lo tanto z ∈ E + x o sea, z ∈ E ∩ F. Si z0 es otro vector en E ∩ F entonces, existe
a ∈ E tal que z0 = a + x. De aquı́ x = −a + z0 y por la unicidad de la descomposición de
un vector en suma de vectores de espacios complementarios, y = −a y z = z0 .
68 Capı́tulo 2. Espacios vectoriales

Sea F un subespacio complementario a E. Entonces,


f : F 3 x 7→ (E + x) ∈ D/E
es un isomorfismo de espacios vectoriales.

Prueba. Por 2.33 la aplicación f : F 3 x 7→ (E + x) ∈ D/E tiene inversa (que a cada


E + x ∈ D/E le hace corresponder el único vector en (E + x) ∩ F). Luego, f es biyectiva.
Además, f (x + y) = E + (x + y) = (E + x) + (E + y) = f (x) + f (y)
f (λx) = E + (λx) = λ (E + x) = λf (x)
por lo que f es un isomorfismo.
Observese que el isomorfismo f es canónico. Luego, cualquier subespacio complemen­
tario a E es canónicamente isomorfo a D/E. Esta proposición también nos dice que la di­
mensión de D/E es la misma que la de un complementario a E o sea, es dim D − dim E.
Es posible (gracias al isomorfismo con los complementarios) desarrollar toda el álgebra lineal sin
la introducción de los espacios cocientes. Si embargo, es más cómodo hacerlo con ellos. Además
es importante que el lector se familiarize con el concepto, ya que, en el estudio de estructuras
algebraicas más generales, no siempre existen estructuras “complementarias” (por ejemplo en la teorı́a de
grupos). Por otro lado, las estructuras cocientes si se pueden construir. Por ejemplo, todo grupo tiene un cociente
por cualquier subgrupo normal.

2.8 El espacio afı́n

Recordemos de la sección anterior que un subespacio afı́n del espacio vectorial F es el


trasladado E + x de un subespacio vectorial E de F. La dimensión de E + x es por definición
la dimensión de E.
Los subespacios afines de dimensión pequeña reciben nombres especiales según la tradi­
ción geométrica. Los de dimensión 0 se le llaman puntos. Los de dimensión 1 se le llaman
rectas y los de dimensión 2 se le llaman planos.
Un punto es, en otras palabras, un subespacio afı́n E + x donde E es de dimensión cero.
Pero el único subespacio vectorial de dimensión cero es {0} . Luego, un punto es un conjunto
de la forma {0} + x = {x}. Esto nos da una biyección obvia {x} 7→ x entre los puntos del
espacio afı́n y los vectores del espacio vectorial.
Al conjunto de todos los puntos del espacio vectorial F se le llama el espacio afı́n de F.
Pero como, dirá el lector, si la diferencia entre {x} y x es puramente formal entonces, ¿cual
es la diferencia entre el espacio afı́n y el espacio vectorial? La respuesta es ambivalente pues
es la misma pregunta que ¿que diferencia hay entre geometrı́a y álgebra? Antes de Descartes
eran dos cosas completamente distintas, despues de él, son cosas muy parecidas.
Intuitivamente, un espacio afı́n es lo mismo que el espacio vectorial pero sin coordenadas.
El espacio afin de R2 es el plano de Euclides en el que estudiamos la geometrı́a más clásica
y elemental: congruencia de triángulos, teorema de Pitágoras, etc. Los resultados de esta
geometrı́a no dependen de cual es el origen de coordenadas. Dos triángulos son congruentes
Sección 2.8 El espacio afı́n 69

o no independientemente de en que lugar del plano se encuentran.


A un nivel más alto, podemos pensar el espacio afı́n de un espacio vectorial como una
estructura matemática adecuada para poder estudiar las propiedades de los espacios vecto­
riales que son invariantes por traslaciones, o sea, que no cambian al mover un objeto de un
lugar a otro en el espacio.
La regla del paralelogramo

La conocida regla del paralelogramo para la suma de vectores en el plano R2 se generaliza


a todas las dimensiones y sobre cualquier campo.
Postularemos que el conjunto vacı́o es un subespacio afı́n de dimensión −1. Eso nos
evitará muchos problemas en la formulación de nuestros resultados.

La intersección de subespacios afines es un subespacio afı́n.

Prueba. Sea x un punto en la intersección. Cada uno de los subespacios afines, es E+x para
cierto subespacio E del espacio vectorial. Si F es la intersección de todos estos subespacios
entonces F + x es la intersección de los subespacios afines.

Regla del paralelogramo

Si a y b son vectores LI de un espacio vectorial entonces, a + b


es la intersección de los subespacios afines hai + b y hbi + a.

Prueba. Obviamente a+b ∈ (hai + b)∩(hbi + a). Por otro lado, ambos hai+b y hbi+a
tienen dimensión 1 y por lo tanto su intersección tiene dimensión 0 o 1. Si esta dimensión es
cero entonces terminamos. Si esta dimensión es uno entonces hai + b = hbi + a y por lo
tanto a ∈ hai + b. Por 2.30 tenemos que hai + b = hai + a = hai, Por lo tanto b ∈ hai y
esto contradice que {a, b} es LI.

Cerradura afı́n

Para un conjunto A de puntos en el espacio afı́n, la cerradura afı́n de A es la intersección


de todos los subespacios afines que contienen a A. A la cerradura afı́n de A la denotaremos
por [A]. Esto la diferencia claramente de la cerradura lineal hAi.
Para la cerradura afin, tenemos las mismas propiedades que para la cerradura lineal.

[A] es el subespacio afin más pequeño que contiene a A.

Prueba. [A] es un subespacio afin. Si B es un subespacio afı́n que contiene a A entonces


[A] ⊆ B pues para hallar [A] tuvimos que intersectar con B.
70 Capı́tulo 2. Espacios vectoriales

La cerradura afı́n cumple las siguientes propiedades:


1. A ⊆ [A] (incremento)
2. A ⊆ B ⇒ [A] ⊆ [B] (monotonı́a)
3. [[A]] = [A] (idempotencia).

Prueba. La prueba es exactamente la misma que para el caso de la cerradura lineal.

Generadores e independencia
Un conjunto de puntos A es generador afı́n si [A] es todo el espacio afı́n. Los conjuntos
afinmente independientes los definiremos con el siguiente resultado.

Definición de conjuntos afinmente independientes

Sea A un conjunto de puntos. Las siguientes afirmaciones son equivalentes


1. Cualquier subconjunto propio de A genera un subespacio afı́n más pe­
queño que todo A.
2. Cualquier punto en A no está en la cerradura afı́n de los restantes.

Prueba. Es análoga a la prueba (1 ⇔ 2) de la caracterización de conjuntos LI.


Los conjuntos de puntos que no son afinmente independientes los llamaremos afinmente
dependientes.
Nuevamente para evitarnos largas oraciones, a los conjuntos afinmente inde­
pendientes los llamaremos conjuntos AI y a los conjuntos afinmente depen­
dientes los llamaremos conjuntos AD.

Todo sobreconjunto de un generador afin es un generador afin.


Todo subconjunto de un conjunto AI es AI.

Prueba. Sea A un generador afı́n y B ⊇ A. Tenemos [A] ⊆ [B] y como [A] es todo el
espacio afin entonces [B] también lo es.
Sea A que es AI y B ⊆ A. Si B fuera AD entonces existirı́a b ∈ B tal que b ∈ [B\b] ⊆
[A\b] y esto no puede ser pues A es AI.

Bases afines
Una base afin es un conjunto de puntos que es AI y generador afin. Ahora podriamos
seguir por el mismo camino demostrando que las bases afines son los generadores afines
más pequeños o los AI más grandes. Despues, el teorema de existencia de base, el lema del
cambio para las bases afines, la prueba de que dos bases afines tienen el mismo cardinal, etc.
Sección 2.8 El espacio afı́n 71

Este camino aunque se puede realizar, sin embargo, tiene dos desventajas. La primera es
que aún no hemos definido combinaciones afines y estas se necesitan para probar todo esto.
La segunda, y más obvia, es que todo esto es muy largo. Por suerte, hay una sencilla relación
que enlaza las bases afines con las bases del espacio vectorial y esto nos ahorrará mucho
trabajo.

Sea A = {x0 , x1, . . . , xn } un conjunto de puntos. Defina­


mos A0 = {x1 − x0 , . . . , xn − x0 }. Entonces, A es una ba­
se afı́n si y solo si A0 es una base del espacio vectorial.

Prueba. Veamos que [A] = hA0 i + x0 . Efectivamente, hA0 i + x0 es un subespacio afı́n que
contiene a A y por lo tanto [A] ⊆ hA0 i + x0 . Por otro lado [A] − x0 es un subespacio por el
origen que contiene a A0 y por lo tanto [A] − x0 ⊇ hA0 i.
De aquı́ inmediatamente obtenemos que A es generador afı́n si y solo si A0 es un genera­
dor. Luego, podemos suponer por el resto de la prueba que tanto A como A0 son generadores.
Nos queda probar que A es AI si y solo si A0 es LI.
Supongamos que A0 es LD. Sea B0 una base lineal tal que B0 ⊂ A0 . Como al principio
de la prueba B = {x0 }∪(B0 + x0 ) es un generador afı́n del espacio. Como B0 6= A0 entonces,
B 6= A y por lo tanto A es AD.
Supongamos que A es AD. Entonces, hay un subconjunto propio B de A que genera
al espacio. Sea y ∈ B Como al principio de la prueba B0 = {xi − y | xi ∈ B \ {y}} es un
generador lineal del espacio. Luego la dimensión del espacio es estrictamente menor que n
y por lo tanto A0 no puede ser LI.
Ahora podemos traspasar todos los resultados probados para las bases del espacio vecto­
rial a las bases afines. En particular, es cierto que:
1. Las bases afines son los conjuntos generadores afines minimales por inclusión.
2. Las bases afines son los conjuntos AI maximales por inclusión.
3. Si A es un conjunto AI y B es un conjunto generador afı́n tal que A ⊆ B entonces hay
una base afı́n C tal que A ⊆ C ⊆ B.
4. Dos bases afines cualequiera tienen el mismo número de puntos (uno más que la di­
mensión).
Las demostraciones de estos resultados son obvias dada la correspondencia entre las
bases afines y las bases del espacio vectorial.

Ejercicio 66 Formule el lema del cambio para las bases afines.

El siguiente resultado es el análogo del lema Lema de Aumento de un Conjunto LI (2.11)


para el caso afı́n y es consecuencia directa de la correspondencia entre las bases afines y las
bases del espacio vectorial.
72 Capı́tulo 2. Espacios vectoriales

Si A es un conjunto AI entonces A ∪ b es AD si y solo si b ∈ [A].

2.9 El caso de dimensión infinita

En la Sección 2.4 enunciamos el Teorema de Existencia de Bases (2.14) y la Equicar­


dinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espacio tiene
dimensión finita. En esta sección demostramos estos resultados para los casos faltantes. Por­
que siempre aparece un curioso que quiere saber.
Como estas demostraciones dependen de resultados de Teorı́a de Conjuntos y una expo­
sición de esta nos llevarı́a a escribir otro libro, lo haremos todo en forma minimalista: Antes
de cada una de las dos pruebas daremos las definiciones y resultados exclusivamente que
necesitamos. Los resultados complicados de Teorı́a de Conjuntos no los demostraremos.
El Lema de Zorn
Un conjunto ordenado es un conjunto con una relación de orden, o sea una relación
reexiva antisimétrica y transitiva (véase el glosario). Sea P un conjunto ordenado y A un
subconjunto de P. Diremos que x ∈ P es una cota superior de A si para cualquier y ∈ A
se cumple que y ≤ x. Diremos que x ∈ A es elemento maximal de A si para cualquier
y ∈ A se cumple que x ­ y. Se dice que A es una cadena si para cualesquiera x, y ∈ A se
cumple que x ≤ y o que y ≤ x. Diremos que A esta inductivamente ordenado si A 6= ∅ y
cualquier cadena contenida en A tiene una cota superior que está en A. El siguiente resultado
es clásico en teorı́a de conjuntos.

Lema de Zorn

Cualquier conjunto inductivamente ordenado tiene un elemento maximal.

Existencia de bases

Teorema de Existencia de Bases (caso general)

Sea N un conjunto generador y L ⊆ N un conjunto


LI. Entonces, existe una base M tal que L ⊆ M ⊆ N.

Prueba. Sean L y N como en las hipótesis. Denotemos


T = {M | M es linealmente independiente y L ⊆ M ⊆ N} .
El conjunto T está naturalmente ordenado por inclusión. Sea M un elemento maximal de T.
Entonces ∀x ∈ N\M M ∪ x es dependiente y por el Lema de Aumento de un Conjunto LI
Sección 2.9 El caso de dimensión infinita 73

(2.11) tenemos N ⊆ hMi. Como N es generador, esto significa que M también lo es y por
lo tanto M es una base.
Nuestra tarea es encontrar un elemento maximal de T. Probemos que el conjunto T
está inductivamente ordenado. Efectivamente,
S T es no vacı́o ya que L ∈ T. Sea {Bi }i∈I una
cadena arbitraria en T y denotemos B = i∈I Bi . El conjunto B es una cota superior de la
cadena {Bi }i∈I y tenemos que convencernos que B está en T. Como para cualquier i tenemos
Bi ⊆ N entonces, B ⊆ N. Supongamos que B es linealmente dependiente. Entonces, existe
un subconjunto finito B0 de B y una combinación lineal de B0 igual a cero tal que todos sus
coeficientes son no cero, o sea B0 es linealmente dependiente. Como B0 es finito, y {Bi }i∈I es
una cadena entonces, tiene que existir i0 tal que B0 ⊆ Bi0 y esto contradice que todo sub­
conjunto de un conjunto linealmente independiente es linealmente independiente. Luego, T
está inductivamente ordenado y por el Lema de Zorn (2.43) el conjunto T tiene un elemento
maximal.

Cardinales

Dados dos conjuntos A y B denotaremos |A| ≤ |B| si existe una inyección de A en B.


La relación A ∼ B definida como |A| ≤ |B| y |B| ≤ |A| es una relación de equivalencia
entre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se le llama
cardinal del conjunto A y se denota por |A|. Los cardinales están ordenados por la relación
de orden que ya definimos. Los cardinales pueden ser finitos o infinitos. El cardinal infinito
más pequeño es ℵ0 que es el cardinal de los naturales (ℵ es la primera letra del alfabeto
hebreo y se llama “álef”). La suma de cardinales se define como el cardinal de la unión de
dos conjuntos disjuntos. El producto de cardinales se define como el cardinal del producto
cartesiano de conjuntos.
Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es muy
sencillo y daremos una demostración para él.

P
Si ∀i |Ai | ≤ t entonces, i∈I |Ai | ≤ t |I|.

Prueba. Podemos pensar que los Ai son disjuntos.SSea T un conjunto de cardinal t. Por
hipótesis existen inyecciones fi : Ai 7→ T . Sea ϕ : i∈I Ai → T × I definida por ϕ (a) =
(fi (a) , i) si a ∈ Ai . Por definición de ϕ si ϕ (a) = ϕ (b) entonces, a y b están en el
mismo conjunto Ai , fi (a) = fi (b) y por lo tanto a = b. Luego, ϕ es inyectiva.
El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la Teorı́a
de Conjuntos (véase por ejemplo: Kamke E., Theory of sets. Dover, New York, 1950. página
121). Nosotros omitiremos la prueba.

Si |A| es infinito entonces, ℵ0 |A| = |A|.


74 Capı́tulo 2. Espacios vectoriales
Equicardinalidad de las bases

Equicardinalidad de las Bases (caso infinito)

Dos bases cualesquiera tienen el mismo cardinal.

Prueba. Sean A y B dos bases. Ya probamos el caso de que una de las dos bases es finita.
Luego, podemos suponer que A y B son infinitos. Como B es una base y debido a la finitud
de las combinaciones lineales entonces ∀a ∈ A el mı́nimo subconjunto Ba ⊆ B tal que
a ∈ hBa i existe y es finito.
Construyamos la relación R ⊆ A × B de manera que (a, b) ∈ R si y solo si b ∈ Ba .
Tenemos |B| ≤ |R| ya que si hubiera un b0 ∈ B no relacionado con ningún elemento de
A entonces, A ⊆ hB\b0 i y como A es base obtendrı́amos que B\b0 es generador lo que
contradice que B es base.
Por otro lado, como |A| es infinito y |Ba | es finito entonces, usando 2.45 y 2.46 obtenemos
X
|B| ≤ |R| = |Ba | ≤ ℵ0 |A| = |A| .
a∈A
Luego |B| ≤ |A| y por simetrı́a de nuestros razonamientos|A| ≤ |B|.
Capítulo tercero
Transformaciones
Lineales
as transformaciones lineales son uno de los objetos más estudiados y más importan­
tes en las matemáticas. El objetivo de este capı́tulo es familiarizar al lector con el
concepto de transformación lineal y sus propiedades básicas. Introduciremos las ma­
trices y estudiaremos la relación de las mismas con las transformaciones lineales. Veremos
el concepto de nucleo e imagen de una transformación lineal etc...

3.1 Definición y ejemplos


Sean E y F dos espacios vectoriales sobre K. Una función
f : E → F se le llama transformación lineal de E en F si para f (a + b) = f (a) + f (b)
cualesquiera vectores a y b y cualquier escalar λ se cumplen f (λa) = λf (a)
las propiedades del recuadro a la derecha.
Nuevamente, para no reescribir constantemente frases largas, en lugar de decir
que f es una transformación lineal, diremos que f es una TL. En plural escribi­
remos TLs.
Imagenes de subespacios

Toda TL transforma subespacios en subespacios.

Prueba. Sea f : E → F una TL y E0 un subespacio de E. Denotemos F0 = f (E0 ) la imagen


de E0 . Sean a y b vectores en F0 . Por definición existen vectores x,y tales que f (x) = a y
f (y) = b. Tenemos, f (x + y) = a + b por lo que a + b ∈ F0 . Sea ahora λ un escalar.
Tenemos f (λx) = λa por lo que λa ∈ F0 . Luego, F0 es un subespacio de F.

Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni tampoco


conjuntos generadores en conjuntos generadores.
76 Capı́tulo 3. Transformaciones lineales
El recı́proco de la proposición anterior NO es cierto. Hay funciones que transforman subespacios
en subespacios y no son TLs. Un ejemplo sencillo es la función R 3 x 7→ x3 ∈ R. Esta manda el
cero en el cero y a R en R. Sin embargo no es lineal. Para obtener una función contraejemplo en
Rn basta usar coordenadas esféricas, dejar fijos los ángulos y elevar al cubo el módulo del vector.

Homotecias
Veamos el ejemplo más simple de TL. Si a cada vector x de un espacio E le hacemos
corresponder el vector 2x obtenemos la función h2 : E 3 x 7→ 2x ∈ E . Esta función es una
TL ya que h2 (a + b) = 2 (a + b) = 2a + 2b = h2 (a) + h2 (b)
h2 (λa) = 2λa = λ2a = λ = λh2 (a)
Observese que en la segunda recta usamos la conmutatividad del producto de escalares.
Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar α ∈ K obtenien­
do la TL dada por hα : E 3 x 7→ αx ∈ E. A las funciones hα se les llama homotecias.
Hay dos casos particulares de homotecias especialmente importantes. Si α = 1 entonces
obtenemos la función identidad x 7→ x. A esta función se la denotará por Id. Si α = 0
entonces obtenemos la función nula también llamada función constante cero x 7→ 0.
En el caso del campo R las homotecias tienen una interpretación geométrica muy clara. Si
α > 0 entonces cada punto x ∈ Rn se transforma en el punto αx que está en la misma recta
por el origen que x pero a una distancia del origen α veces mayor que x. Esto quiere decir
que hα es la dilatación de razón α. Si 0 < α < 1 entonces hα es realmente una contracción
pero interpretaremos las contracciones como dilataciones con razón más pequeña que 1.
En la figura de la derecha observamos la dilatación x 7→ 2x en el
plano cartesiano R2 . La curva interior (que es la gráfica de la función R2
5 + sin 5θ en coordenadas polares) se transforma en la misma curva
pero del doble de tamaño (10 + 2 sin 5θ).
Si α = −1 entonces a la homotecia h−1 : x 7→ −x se le llama
función antipodal. El nombre viene de la siguiente interpretación. Si
trazamos una recta que pase por el centro de la Tierra intersectaremos la v 7→ 2v
superficie en dos puntos. Estos puntos se dicen que son antı́podas o sea, nuestros antı́podas
son la personas que viven “pies arriba” del “otro lado” de la Tierra. Si coordinatizamos la
Tierra con unos ejes de coordenadas con origen en el centro de la misma, nuestros antı́podas
se obtienen multiplicando por −1.
En la figura de la izquierda está representada la función antı́podal en
R 2 R2 . En ella hay dos curvas cerradas de cinco pétalos. La primera es
la misma que la de la figura anterior (10 + 2 sin 5θ). La segunda es
la antı́poda de la primera (−10 − 2 sin 5θ). La figura es expresamente
complicada para que el lector tenga la oportunidad de pensar un poco
en que punto se va a transformar cada punto. Cualquier homotecia hα
v 7→ −v con α < 0 se puede representar como h−1 (h−α ) por lo que hα se puede
interpretar geométricamente como una dilatación seguida de la función antı́podal. A pesar
de su simplicidad las homotecias juegan un papel fundamental en la comprensión de las TL
y este papel se debe a que ellas son todas las TL en dimensión 1.
Sección 3.1 Definición y ejemplos 77

Si dim E = 1 entonces toda TL de E en E es una homotecia.

Prueba. Sea {a} una base de E y f una TL de E en E. Como {a} es una base tiene que existir
un escalar λ ∈ K tal que f (a) = λa. Sea x = αa un vector arbitrario en E . Como f es
lineal tenemos f (x) = f (αa) = αf (a) = αλa = λαa = λx lo que demuestra que f es
una homotecia.

Inmersiones

Hasta ahora las TL que hemos visto (las homotecias) están definidas de un espacio en
si mismo. Las inmersiones son la TL más simples que están definidas de un espacio en otro
distinto. Sea E un subespacio de F. A la función i : E 3 x 7→ x ∈ F se le llama inmersión
de E en F. Las inmersiones son TLs inyectivas y son las restriciones a subespacios de la
función identidad. No hay mucho que decir de las inmersiones excepto de que hay una para
cada subespacio.
Proyecciones

Ahora supongamos al revés (de las inmersiones) que F es subespacio de E . ¿Habrá algu­
na TL natural de E en F? Lo que podemos hacer es buscarnos un espacio G complementario
de F (existe por 2.28) De esta manera E = F ⊕ G y por 2.29 tenemos que cada vector x ∈ E
se descompone de manera única como a + b donde a es un vector en F y b es un vector en
G . Ası́ para cada x ∈ E tenemos un único a ∈ F y esto nos da una función que denotaremos
por πF y la llamaremos proyección de E en F a lo largo de G . Cualquier proyección πF
restringida a F es la identidad por lo que necesariamente es sobreyectiva.
La notación πF sugiere erroneamente que esta función solo depende del subespa­
cio F . Esto no es cierto, el subespacio F puede tener muchos subespacios comple­
mentarios diferentes y la proyección depende del subespacio complementario que
escojamos.

Las proyecciones son transformaciones lineales.

Prueba. Escojamos un subespacio G complementario de F . De esta manera πF es una


función fija y bien definida.
Si x, y son dos vectores entonces hay descomposiciones únicas x = πF (x) + πG (x) y
y = πF (y) + πG (y) . Luego x + y = (πF (x) + πF (y)) + (πG (x) + πG (y)) . El primer
sumando de la derecha está en F y el segundo en G . Por la unicidad de la descomposición
necesariamente tenemos πF (x + y) = πF (x) + πF (y) .
Sea ahora λ ∈ K. Tenemos λx = λπF (x)+λπG (x) . Nuevamente, el primer sumando de
la derecha está en F y el segundo en G y por la unicidad de la descomposición necesariamente
tenemos πF (λx) = λπF (x) .
78 Capı́tulo 3. Transformaciones lineales
¿Como son geométricamente las proyecciones? En esencia el problema es el siguiente.
Dados dos espacios complementarios F , G y un vector a como hallar un vector en F y otro
en G que sumados den a. Esto ya lo hicimos una vez cuando introducimos las coordenadas
cartesianas en R2 . Dado un vector a trazamos la recta paralela al eje y que pasa por a y
la intersección del eje x con esta recta es un vector πx (a) . De manera análoga obtenemos
πy (a) y sabemos que a = πx (a) + πy (a).
En el caso general es exactamente igual. Esta construc­
ción se ilustra en la figura de la derecha. Tenemos que F
es un subespacio de dimensión k y uno de sus complemen­
tarios G es de dimensión n − k. Hay un solo subespacio
afı́n paralelo a F que pasa por a y este es F + a. La in­
tersección (F + a) ∩ G es un solo punto y este punto es
el vector πG (a) . Análogamente se observa que πF (a) =
(G + a)∩F. Como es lógico, no pudimos dibujar el espacio
Rn ası́ que el lector deberá contentarse con el caso n = 3,
k = 2 y con la prueba general.

Si F y G son complementarios entonces, para cualquier


vector a se cumple a = ((G + a) ∩ F)+((F + a) ∩ G).

Prueba. Como F y G son complementarios (G + a) ∩ F es un solo punto que denotaremos


x. Sea −y ∈ G tal que x = −y + a. Tenemos que F + a = F + x + y = F + y y por lo
tanto y ∈ (F + a) . Luego y = (F + a) ∩ G.

3.2 Operaciones entre transformaciones lineales

Ahora, veremos que operaciones se definen naturalmente entre las TLs.


El espacio vectorial de las transformaciones lineales
Sea f una TL y λ un escalar. Denotaremos por λf a la función a 7→ λf (a). A esta
operación se le llama producto de un escalar por una TL.

El producto de un escalar por una TL es una TL.

Prueba. Efectivamente, tenemos


(λf) (a + b) = λf (a + b) = λ (f (a) + f (b)) = (λf) (a) + (λf) (b)
(λf) (αa) = λf (αa) = λαf (a) = αλf (a) = α (λf) (a)
lo que significa que λf es una TL.
Sean ahora f y g dos transformaciones lineales. Denotaremos por f + g a la función
Sección 3.2 Operaciones entre transformaciones lineales 79

a 7→ f (a) + g (a). A esta operación se le llama suma de TLs.

La suma de dos TLs es una TL.

Prueba. Denotemos h = f + g. Tenemos


h (αa) = f (αa) + g (αa) = α (f (a) + g (a)) = αh (a)
h (a + b) = f (a + b) + g (a + b) = f (a) + g (a) + f (b) + g (b) = h (a) + h (b)
lo que significa que h es una TL.
Luego, podemos sumar transformaciones lineales y multiplicarlas por escalares. Los
axiomas de espacio vectorial se comprueban de manera muy simple usando las definiciones.
Por ejemplo, la prueba de la distributividad del producto por escalares con respecto a la su­
ma es la siguiente: (λ (f + g)) (a) = λ (f (a) + g (a)) = λf (a) + λg (a) = (λf + λg) (a).
Al espacio vectorial de todas las TLs del espacio E en el espacio F lo denotaremos por
Mor (E, F). Esta notación es debido que a las transformaciones lineales también se les llama
morfismos de espacios vectoriales. Debido a todo lo dicho es válido el siguiente resultado:

Mor (E, F) es un espacio vectorial.

Composición de transformaciones lineales

Sean f ∈ Mor (E, F) y g ∈ Mor (F, G) dos TLs. La composición h = g ◦ f se define


como la función E 3 a 7→ g (f (a)) ∈ G. Demostremos que h = g ◦ f ∈ Mor (E, G) o sea,
que h es una TL.

La composición de TLs es una TL.

Prueba. Sea h = g ◦ f la composición de dos TLs. Tenemos


h (a + b) = g (f (a + b)) = g (f (a) + f (b)) = g (f (a)) + g (f (b)) = h (a) + h (b)
h (αa) = g (f (αa)) = g (αf (a)) = αg (f (a)) = αh (a)
que es lo que se querı́a demostrar.

La composición de TLs cumple las siguientes propiedades:


1. f ◦ (g ◦ h) = (f ◦ g) ◦ h (asociatividad)
2. f ◦ (g + h) = f ◦ g + f ◦ h (distributividad a la izquierda)
3. (f + g) ◦ h = f ◦ h + g ◦ h (distributividad a la derecha)
4. f ◦ λg = λf ◦ g = λ (f ◦ g) (conmuta con el producto por escalares)

Prueba. Como (f ◦ (g ◦ h)) (a) = f (g (h (a))) = ((f ◦ g) ◦ h) (a), la composición es


80 Capı́tulo 3. Transformaciones lineales
asociativa. Con (f ◦ (g + h)) (a) = f ((g + h) (a)) = f (g (a) + h (a)) =
= f (g (a)) + f (h (a)) = (f ◦ g) (a) + (f ◦ h) (a) = ((f ◦ g) + (f ◦ h)) (a)
probamos la distributividad a la izquierda. Para la distributividad a la derecha usamos las
igualdades ((f + g) ◦ h) (a) = (f + g) (h (a)) = f (h (a)) + g (h (a)) =
= (f ◦ h) (a) + (g ◦ h) (a) = ((f ◦ h) + (g ◦ h)) (a)
Finalmente para probar que la composición conmuta con el producto por escalares tenemos
(f ◦ λg) (a) = f (λg (a)) = λf (g (a)) = (λ (f ◦ g)) (a) =
= λf (g (a)) = (λf) (g (a)) = (λf ◦ g) (a) .
El lector debe ya debe poder encontrar por si mismo el porqué de la validez de cada una
de las igualdades utilizadas en esta prueba.

El álgebra de operadores lineales

A una TL de un espacio vectorial en si mismo se le llama operador lineal. Nuevamente,


usaremos la abreviatura OL para referirnos a los operadores lineales. Los OLs juegan (como
veremos más adelante) un papel muy importante en el estudio de las TLs y por esto es que
merecen un nombre especial. El conjunto de todos los OLs de E se denotará por End E. Lo
hacemos ası́ porque a los OLs también se les llama endomorfismos de un espacio vectorial.
Por definición tenemos End E = Mor (E, E). La principal diferencia entre las TLs y los OLs
es que la operación de composición es una operación interna en espacio vectorial End E. O
sea, si componemos dos OLs, obtenemos otro OL.
Si un espacio vectorial cualquiera (el
cual ya trae definidos la suma y el pro­ Alg1) ∗ es asociativa
ducto por escalares) tiene otra operación Alg2) ∗ es distributiva con respecto a +
binaria ∗ que cumple los axiomas en el Alg3) ∗ tiene elemento neutro
recuadro a la derecha entonces, se le lla­ Alg4) ∗ conmuta con el producto por escalares
ma álgebra . Observese que los primeros tres axiomas los podemos resumir en uno: la
suma de vectores y ∗ definen un anillo en el espacio vectorial. El cuarto axioma lo que
quiere decir es que para cualquier escalar λ y cualesquiera vectores a y b se cumple que
λa ∗ b = a ∗ λb = λ (a ∗ b).
Ya vimos (3.9 ) que la operación de composición de OLs cumple los axiomas Alg1, Alg2
y Alg4. Para ver que End E es un álgebra solo nos queda comprobar que la composición tiene
elemento neutro. Pero esto es obvio ya que la función identidad cumple que f ◦ I = I ◦ f = f.
O sea, es el neutro para la composición. Hemos demostrado el siguiente resultado

El espacio vectorial End E en un álgebra con respecto a la composición.

Hay otras dos álgebras importantes que deben ser muy conocidas por el lector. Primero,
el conjunto de los polinomios con coeficientes reales R [x] es un espacio vectorial sobre R,
pero además sabemos multiplicar polinomios. Este producto cumple todos los axiomas de
Alg1­Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier campo. El segundo
Sección 3.3 Extensiones lineales 81

ejemplo son los números complejos. Estos son un espacio vectorial de dimensión dos so­
bre los reales pero además sabemos multiplicar números complejos. La multiplicación de
complejos también cumple todos los axiomas Alg1­Alg4.
Un álgebra se le llama conmutativa si el producto de vectores es conmutativo. El álgebra de los
números complejos y el álgebra de polinomios sobre un campo son conmutativas. Las álgebras
End E casi nunca son conmutativas (salvo en dimensión 1). Por ejemplo en el plano cartesiano R2
la rotación f en 45◦ y la reección g en el eje y son (como veremos después) OLs. Sin embargo, (g ◦ f) (1, 0) =
(−1, 1) 6= (−1, −1) = (f ◦ g) (1, 0).

El grupo general lineal


Una función cualquiera es biyectiva si y solo si esta tiene inversa. En el capı́tulo anterior,
cuando vimos los isomorfismos de espacios vectoriales, demostramos que si una TL tiene in­
versa entonces esta inversa también es una TL. En particular, la función inversa de un OL es
un operador lineal. Un operador lineal se le llama singular si este no tiene inverso. En el caso
contrario se le llama no singular. A los OLs no singulares también se les llama automor­
fismos del espacio vectorial. En otras palabras los automorfismos son los endomorfismos
biyectivos.
Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota por
GL (E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, la función
nula cumple que 0 = f − f. Sin embargo, la composición de OLs no singulares es siempre un
OL no singular. Luego, la composición es una operación binaria en GL (E) que ya sabemos
que es asociativa y tiene elemento neutro. Además, cada elemento tiene inverso ya que f ◦
f−1 = f−1 ◦ f = I. Luego, GL (E) es un grupo para la composición al cual se llama grupo
general lineal del espacio vectorial E.

3.3 Extensiones lineales


Estudiaremos en esta sección una manera universal de construir TLs. Pero antes, veamos
algunas consideraciones de tipo general acerca de funciones entre conjuntos arbitrarios.
Extensiones y restricciones
Sean A y B dos conjuntos y A0 un subconjunto de A. Cada vez que se tiene una función
f : A → B también se tiene una función f0 : A0 → B definida por f0 (a) = f (a) para
cualquier a ∈ A0 . A la función f0 se le llama restricción de f a A0 y la denotaremos por fA 0 .
Todas las diferentes restricciones de f se obtienen al tomar diferentes subconjuntos A0 .
Si h y g son dos funciones tales que h es una restricción de g entonces se dice que g
es una extensión de h. Si está dada una función g : A0 → B y A es un sobreconjunto de
A0 entonces, pueden haber muchas extensiones h : A → B de g, ya que podemos escoger
arbitrariamente los valores de h (x) para todos los x ∈ A\A0 .
Es un problema frecuente en matemáticas el encontrar extensiones que cumplan ciertas
propiedades. En nuestro caso, debemos encontrar extensiones que sean TLs. Formulemos
82 Capı́tulo 3. Transformaciones lineales
nuestro problema más precisamente. Sean E y F dos espacios vectoriales sobre K y N un
conjunto de vectores de E. Sea h : E → F una TL. Sabemos que N ⊂ E y por lo tanto
tenemos la restricción hN : N → F. ¿Será posible para cualquier función g : N → F
encontrar una extensión h : E → F de g que sea TL? ¿Será única tal extensión? Veremos
que ambas preguntas tienen respuesta positiva si N es una base.
Para demostrar la existencia de la extensión debemos construirla. Sea N una base de E
y g : N → F una función arbitraria de N P en F. Cualquier x ∈ E se expresa de forma única
como combinación lineal de N o sea x = i∈N αi i. A la función h del X
recuadro a la derecha se le llama extensión lineal de g. Observese que x 7→ αi g (i)
(como debe ser) la restricción de h a N es igual a g ya que si x ∈ N i∈N
entonces, la descomposición de x en la base N tiene coeficientes αi = 0
para i 6= x y αi = 1 para i = x.

Las extensiones lineales son transformaciones lineales.

Prueba. Tenemos X X X
h (x + y) = (αi + βi ) g (i) = αi g (i) + βi g (i) = h (x) + h (y)
i∈N X i∈N X i∈N
h (λx) = λαi g (i) = λ αi g (i) = λh (x)
i∈N i∈N
y esto prueba que h es una TL.
Para demostrar la unicidad de la extensión debemos convencernos de que dos TLs dis­
tintas no pueden coincidir en una base.

Las TLs están predeterminadas por sus valores en una base.

Prueba. Sean f, g : E → F dos TLs y N una base de E. Supongamos que f (i) = g (i) para
cualquier iP∈ N. Cualquier x ∈ E se expresa de forma única como combinación lineal de N
o sea x = i∈N αi i. Luego
à ! à !
X X X X
f (x) = f αi i = αi f (i) = αi g (i) = g αi i = g (x)
i∈N i∈N i∈N i∈N
y por lo tanto las TLs f y g son iguales.

El isomorfismo entre FN y Mor (E, F)

Recordemos ahora de la Sección 2.2 que el conjunto de todas las funciones de N en F es


el conjunto de las N­adas de vectores de F, que este es un espacio vectorial para la suma y
el producto por escalares definidos por coordenadas y que se denota por FN .
Si N es una base de E entonces, hemos construido una correspondencia biunı́voca entre
F y Mor (E, F). A cada N­ada hN ∈ FN le corresponde su extensión lineal h ∈ Mor (E, F)
N
Sección 3.3 Extensiones lineales 83

y a cada TL h ∈ Mor (E, F) le corresponde hN su restricción a N (que es una N­ada).


Queremos ver que esta correspondencia es un isomorfismo de espacios vectoriales.

Si N es una base de E entonces, la biyección


r : Mor (E, F) 3 h 7→ hN ∈ FN
es un isomorfismo de espacios vectoriales.

Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h0 ∈ Mor (E, F) y
λ un escalar. Tenemos
r (h + h0 ) = (h + h0 )N = hN + h0N = r (h) + r (h0 )
r (λh) = (λh)N = λhN = λr (h)
que se cumplen por las definiciones de suma y producto por escalares de las N­adas.

Un criterio de isomorfismo
Al establecer que los espacios Mor (E, F) y FN son isomorfos es natural que esperemos
que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje de las
N­adas de vectores. En este caso queremos hacer la tradución de la propiedad de una TL
de ser o no un isomorfismo de espacios vectoriales. Ya vimos en el capı́tulo anterior que
un isomorfismo transforma una base del dominio en una base del codominio. ¿Será esta
propiedad suficiente para comprobar que una TL es un isomorfismo?. La
(1, 0, 0) 7→ (1, 0)
respuesta es NO. Por ejemplo, la extensión lineal de la función definida
(0, 1, 0) 7→ (0, 1)
en la base canónica de R3 como en el recuadro a la derecha transforma a
(0, 0, 1) 7→ (0, 1)
esta base en la base canónica de R2 y sin embargo no es inyectiva. Nos
falta la propiedad evidentemente necesaria de que la restricción de la TL debe ser inyectiva.

Una TL es un isomorfismo si y solo si su restricción a una


base es inyectiva y la imagen de esta restricción es una base.

Prueba. Ya hemos probado la necesidad. Para la suficiencia sea N una base de E y hN ∈ FN


una N­ada de vectores de F tal que sus coordenadas son todas diferentes (la inyectividad) y
que el conjunto de sus coordenadas (la imagen) es una base M = h (N) de F. Probemos
P que
la extensión
P lineal h : E → F de hN es un isomorfismo. Efectivamente, si x = i∈N i i y
α
y = i∈N βi i son dos vectores cualesquiera en E y h (x) = h (y) entonces,
X X
αi h (i) = βi h (i)
i∈N i∈N
y como todos los h (i) = hi son diferentes, estas son dos combinaciones lineales iguales de
la base M. Por la caracterización 2.9.3 de los conjuntos LI los coeficientes de estas combi­
naciones lineales tienen que coincidir αi = βi y por lo tanto x = y. Luego, h es inyectiva.
Para ver que h es sobreyectiva
P sea z vector en F. Como M es una base P de F existen
coeficientes γi tales que z = i∈N γi h (i) y por lo tanto z = h (v) donde v = i∈N γi i.
84 Capı́tulo 3. Transformaciones lineales
3.4 Coordinatización de transformaciones lineales

Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios entre
los cuales está definida la TL. Sean N y M bases de E y F respectivamente. Tenemos los
isomorfismos de coordinatización E ↔ K{N} y F ↔ K{M} . Para cada f ∈ Mor (E, F) tenemos
f ¡ ¢
la composición g : K{N} → E → F → K{M} que es una TL en Mor K{N} , K{M} .
¡ ¢
Recı́procamente para cada g ∈ Mor K{N} , K{M} tenemos la
g f
composición f : E → K{N} → K{M} → F que es una TL en E −→ F
Mor (E, F). Es fácil ver y es intuitivamente
¡ claro que
¢ esta corres­ l l
pondencia biunı́voca Mor (E, F) ↔ Mor K{N} , K{M} es un isomor­ K{N} −→ K{M}
g
fismo de espacios vectoriales.

Ejercicio 67 Sean E ↔ E0 y F ↔ F0 isomorfismos de espacios vectoriales. Construya un


isomorfismo Mor (E, F) ↔ Mor (E0 , F0 ).

Podemos pensar a N como la base canónica de K{N} . Luego, aplicando 3.13 obtenemos
¡ ¢ ¡ ¢N
el isomorfismo Mor K{N} , K{M} ↔ K{M} = K{M}×N que es el conjunto de las MN
matrices tales que cada columna es de soporte finito. Para el caso que más nos interesa en
¡ ¢N
que N y M son bases finitas obtenemos Mor (E, F) ↔ KM = KMN . Sea f ∈ Mor (E, F).
A la matriz αMN que le corresponde a f mediante el isomorfismo construido se le llama
matriz de la TL f en las bases M y N. Los resultados de la sección anterior nos dicen como
construir αMN dada f. Para
P cada i ∈ N la columna αMi es el vector f (i) coordinatizado en
la base M. O sea f (i) = a∈M αai a.

Pn P
Ejercicio 68 Pruebe que la función K [x] 3 i=0 ai xi 7→ ni=0 ai (x + 1)i ∈ K [x] es un
isomorfismo de espacios vectoriales. Construya algunas columnas de la matriz αNN de esta
TL en la base canónica del espacio de polinomios. Demuestre que las entradas de esta matriz
están definidas por la ecuación recursiva αkn = αk,(n−1) + α(k−1),(n−1) con las condiciones
de frontera αkn = 0 si k > n y αkn = 1 si k = 0 o k = n.
P
La fórmula f (i) = a∈M αai a nos dice también como construir f dada αMN . Las
imagenes de los i ∈ N lasP calculamos por la fórmula y a f la construimos por extensión
lineal. O sea, si E 3 x = i∈N βi i entonces,
à !
X X X X X
F 3 f (x) = βi f (i) = βi αai a = αai βi a
i∈N i∈N a∈M a∈M i∈N
P
La expresión i∈N αai βi es un escalar y hay uno para cada a ∈ M por lo que son las
coordenadas de una M­ada. A esta M­ada se le llama producto de la matriz αMN por el
vector βN y se denota por αMN βN .
Sección 3.4 Coordinatización de transformaciones lineales 85

X Observese que este producto lo podemos escribir como en el re­


αMN βN = αMi βi cuadro a la izquierda. Esto quiere decir que este producto se obtie­
i∈N
ne multiplicando las columnas de αMN por las correspondientes
coordenadas de βN y sumando los resultados. En otras palabras αMN βN es la combinación
lineal de las columnas de αMN cuyos coeficientes son las coordenadas de βN .
En esta sección estudiaremos más sistemáticamente el isomorfismo entre las TLs y las
matrices repitiendo más detalladamente todo lo dicho en esta introducción. Si el lector no
entendió muy bien, le recomiendo seguir adelante y después releer esta introducción.
El producto escalar canónico
Sean αN y βN dos N­adas. El producto escalar de estas N­adas X
αN βN = αi βi
es el escalar del recuadro a la derecha. De esta manera, el producto i∈N
escalar de dos vectores es un elemento del campo.
No se debe confundir el “producto por un escalar” con el “producto escalar”. El
primero es un producto de un escalar por un vector y el segundo es un produc­
to de dos vectores. Más adelante veremos que hay otros productos definidos en
cualquier espacio vectorial. Por esto a este producto lo llamaremos canónico y solamente
está definido en el espacio vectorial de las N­adas para cierto conjunto finito de ı́ndices N.

El producto escalar cumple las siguientes propiedades:


1. xy = yx (conmutatividad)
2. x (y + z) = xy + xz (distributividad a la izquierda)
3. (y + z) x = yx + zx (distributividad a la derecha)
4. x (λy) = (λx) y = λ (xy) (conmuta con el producto por escalares)

Ejercicio 69 Pruebe las principales propiedades del producto de N­adas (3.15).


Ejercicio 70 Busque tres vectores x y z en el plano R2 tales que (xy) z 6= x (yz). [180]
Ejercicio 71 Pruebe que ∀αN ∈ RN se cumple que α2N = αN αN ≥ 0.

El producto de matrices
Sean αMN y βNL dos matrices. Observese que el conjunto de ı́ndices de las columnas
de la primera, coincide con el conjunto de ı́ndices de los renglones de la segunda. Ası́, tanto
un renglón αiN como una columna βNj son vectores del espacio KN de N­adas y podemos
formar su producto αiN βNj . Cuando hacemos esto, para todos los i ∈ M y todos los j ∈ L
obtenemos una ML­matriz formada por todos estos productos. A esta matriz se le llama el
producto de las matrices αMN y βNL y se denotará por αMN βNL . Resumiendo, si γML =
αMN βNL entonces γij = αiN βNj . Por ejemplo, si los conjuntos de ı́ndices son M = {1, 2},
86 Capı́tulo 3. Transformaciones lineales
N = {1, 2, 3} y L = {1, 2} entonces, en forma gráfica tenemos
⎛ ⎞
µ ¶ β11 β12 µ ¶
α11 α12 α13 ⎝ α β α β
β21 β22 ⎠ = 1N N1 1N N2
α21 α22 α23 α2N βN1 α2N βN2
β31 β32
y por definición de producto escalar de vectores tenemos
µ ¶ µ P3 P3 ¶
α1N βN1 α1N βN2 α1i βi1 α1i βi2
= Pi=1 3 Pi=1
3 .
α2N βN1 α2N βN2 i=1 α2i βi1 i=1 α2i βi2

Productos de matrices y vectores


Sean αMN y βNL dos matrices. Si el conjunto de indices L tiene un solo elemento en­
tonces la matriz βNL tiene una sola columna. En este caso podemos escribir βNL = βN1
y diremos que βN1 es un vector columna o una N­ada columna. Obviamente, podemos
pensar que βN1 es una N­ada βN . En este caso podemos hacer el producto de matrices
αMN βN1 = αMN βN y este es el producto de una matriz por un vector definido al princi­
pio de esta sección. Análogamente se define el producto por el otro lado. Si el conjunto de
indices M tiene un solo elemento entonces la matriz αMN tiene un solo renglón. En este caso
podemos escribir αMN = α1N y diremos que α1N es un vector renglón o N­ada renglón.
Obviamente, podemos pensar que α1N es una N­ada αN . En este caso podemos hacer el
producto de matrices α1N βNL = αN βNL y esta es la definición del producto de un vector
por una matriz.
En este libro, no haremos distinciones entre N­adas, N­adas columna y N­adas renglón
o sea α1N = αN1 = αN . Para esto, dimos las definiciones de producto de una matriz por un
vector y al revés. Intuitivamente, el lector debe pensar que cuando aparesca un vector en un
producto de matrices este se convierte en vector fila o columna según sea conveniente.

Claro, este abuso de la notación aunque es muy cómodo puede llevar (si nos pone­
mos pedantes) a contradicciones. Por ejemplo, podemos sumar dos N­adas pero
no podemos sumar una N­ada columna con una N­ada renglón.
Observese que, no solo el producto de matrices por vectores y al revés son casos particu­
lares del producto de matrices, sino también el producto escalar de dos vectores al constatar
que αN βN = α1N βN1 .

Ejercicio 72 Tome dos matrices con entradas enteras y multiplı́quelas. Repita este ejercicio
hasta que usted comprenda muy bien el concepto de producto de matrices.

La transformación lineal de una matriz


Sea αMN una MN­matriz. Esta matriz define una función KN 3 βN → αMN βN ∈ KM .
Esta ¡función es¢una TL como ya vimos al principio de esta sección utilizando el isomorfismo
Mor KN , KM ↔ KMN . Sin embargo, la prueba directa de este hecho es muy sencilla.
Sección 3.4 Coordinatización de transformaciones lineales 87

El multiplicar una matriz fija por N­adas es una TL.

Prueba. Sea αMN una matriz cualquiera pero fija. Por las propiedades del producto de vec­
tores tenemos que para todo i ∈ M se cumple que αiN (βN + γN ) = αiN βN + αiN γN y que
αiN (λβN ) = λ (αiN βN ). Esto significa que son válidas las igualdades αMN (βN + γN ) =
αMN βN + αMN γN y αMN (λβN ) = λ (αMN βN ).

La matriz de una transformación lineal

En la proposición anterior vimos que al mutiplicar MN­matrices por N­adas obtenemos


ejemplos de TLs. Ahora queremos ver que estos son todos los ejemplos posibles, o sea, que
cualquier TL de KN en KM se obtiene multiplicando por una MN­matriz. En¡realidad, ¢esto
ya lo probamos al principio de esta sección al construir el isomorfismo Mor KN , KM ↔
KMN . Sin embargo, aquı́ es más simple ya que tenemos bases canónicas de KN y KM . Sea
E = {ei : i ∈ N} la base canónica de KN . Recordemos que ei es la N­ada con coordenadas
δji = 1 si i = j y δji = 0 si i 6= j. Sea f : KN → KM una TL. Denotemos αMi = f (ei ) ∈
KM . A la matriz αMN cuyas columnas son las imagenes de la base canónica mediante la TL
f la llamaremos matriz de la TL f.

Sea f : KN → KM una TL y αMN su matriz. Entonces, pa­


ra cualquier βN ∈ KN se cumple que f (βN ) = αMN βN .

Prueba. Sea f0 : βN 7→ αMN βN . Sabemos que f y α e = P α δ = α


MN i j∈N Mj ji Mi
f0 son TLs. Si i ∈ N entonces, por definición de la base
canónica y del producto de una matriz por un vector tenemos la igualdad del recuadro. Luego
f y f0 coinciden en la base canónica y por extensión lineal ambas son la misma función.

Ejercicio 73 Halle la matriz de la rotación con ángulo α en R2 . [180]

Composición de TLs y producto de matrices

La matriz de la composición de dos TLs es


igual al producto de las matrices de las TLs.
¡ ¢ ¡ ¢
Prueba. Sean f ∈ Mor KN , KM y g ∈ Mor KM , KL dos TLs. Sean αMN y βLM las
matrices de f y g respectivamente. Para cualquier γN ∈ KN y cualquier i ∈ L tenemos
X X X
βiM (αMN γN ) = βij (αjN γN ) = βij αjk γk =
j∈M j∈M k∈N
88 Capı́tulo 3. Transformaciones lineales
XX X
= βij αjk γk = (βiM αMk ) γk = (βiM αMN ) γN
k∈N j∈M k∈N
y por lo tanto βLM (αMN γN ) = (βLM αMN ) γN . Como γN 7→ βLM (αMN γN ) es la TL g ◦ f
entonces, tenemos (g ◦ f) (γN ) = (βLM αMN ) γN que es lo que se querı́a probar.

El producto de matrices es asociativo, distribuye por ambos lados


con la suma de matrices y conmuta con el producto por un escalar.

Prueba. Sean f, g y h TLs cuyas matrices son αMN , βLM y γKL respectivamente. La
matriz de (h ◦ g) ◦ f es (γKL βLM ) αMN . La matriz de h ◦ (g ◦ f) es γKL (βLM αMN ). Co­
mo la composición de TLs es asociativa tenemos (h ◦ g) ◦ f = h ◦ (g ◦ f) y por lo tanto
(γKL βLM ) αMN = γKL (βLM αMN ). Esto prueba la asociatividad.
Las demás propiedades se prueban exactamente igual o sea, se desprenden de las respec­
tivas propiedades de las TLs y de la proposición 3.18.

Ejercicio 74 Pruebe la asociatividad del producto de matrices directamente de la definición


de producto o sea, sin usar TLs. [180]

El espacio de todas las NN­matrices


¡ ¢
es un álgebra isomorfa a End KN .

Prueba. Ya sabemos que KNN es un espacio vectorial para la suma de matrices y el producto
de una matriz por un escalar. El resultado anterior hace la mayor parte del trabajo necesario
para mostrar que KNN es un álgebra. Solo falta el neutro para el producto que es la matriz
de la identidad en KN . Esta matriz es INN que cumple que Iij = δij (el delta de Kronecker)
y que la llamaremos matriz identidad.
Además, ya sabemos que la aplicación que a un OL en KN le hace corresponder su
matriz es un isomorfismo de espacios vectoriales. La proposición 3.18 completa la tarea de
demostrar que esta aplicación es un isomorfismo de álgebras.
Matrices inversas
¡ ¢
Sea f ∈ Mor KN , KM y αMN¡ la matriz ¢ −1de f. La ¡función
¢ f es biyectiva si y solo si,
existe la TL f tal que f ◦ f = I K y f ◦ f = I K . A la matriz de la TL f se
−1 −1 N M −1

le llama matriz inversa de αMN y se denota por α−1 MN . De la proposición 3.18 obtenemos
que la matriz inversa cumple que αMN αMN = INN y αMN α−1
−1
MN = IMM . Observese que el
conjunto de ı́ndices de las columnas de αMN es M y no N. Análogamente, el conjunto de
−1

MN es N y no M.
ı́ndices de los renglones de α−1
De la definición es inmediato que una matriz tiene inversa si y solo si su TL es un iso­
morfismo de espacios vectoriales. En particular los conjuntos de ı́ndices N y M tienen que
Sección 3.5 Cambios de base 89

tener el mismo cardinal ya que estos cardinales son las dimensiones del dominio y el codo­
minio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nos preocuparemos en traducir
nuestro criterio de isomorfismo 3.14 al lenguaje de matrices.

Una matriz cuadrada αMN tiene inversa si y solo si sus


columnas son todas diferentes y son una base de KM .
¡ ¢
Prueba. Sea αMN una matriz cuadrada y f ∈ Mor KN , KM su TL. La resticción de f
a la base canónica de KN es la N­ada de las columnas de la matriz αMN . Por 3.14 para
que f tenga función inversa es necesario y suficiente que esta restricción sea inyectiva (las
columnas diferentes) y que su imagen (el conjunto de columnas) sea una base de KM .
Es posible probar un criterio análogo al anterior substituyendo las columnas por los ren­
glones. Sin embargo, su prueba aquı́ se nos harı́a innecesariamente complicada. Mejor lo
dejaremos para el próximo capı́tulo donde esto será una fácil consecuencia de un resultado
mucho más importante.

Ejercicio 75 Sean f y g las rotaciones del plano R2 en los ángulos α y β respectivamente.


Use el ejercicio 73 para hallar las matrices en la base canónica de f, g y f ◦ g. Use 3.18 para
hallar fórmulas para el seno y el coseno de la suma de dos ángulos. [180]

3.5 Cambios de base

Es usual en las aplicaciones que sea conveniente realizar ciertos cálculos en un sistema de
coordenadas y después realizar otros cálculos en otro sistema de coordenadas. En el álgebra
lineal estos cambios de coordenadas son lineales o sea, la transformación que lleva unas
coordenadas a otras es una TL.
Cambios de base en un espacio vectorial

Sean V y N dos bases del espacio E. Conocemos los isomorfismos de coordinatización


K ↔ E ↔ KN . Nuestro problema ahora es: dado una V­ada βV que son las coordenadas
V

del vector x en la base V como hallar las coordenadas γN de x en la base N. En este caso las
letras V y N tienen el sentido de que V es la base “vieja” y que N es la base “nueva”.
Sea αNV la matriz cuyas columnas son los vectores de la base V expre­ X
sados en las coordenadas de N. O sea, para cualquier v ∈ V tenemos la v = αiv i
fórmula en el recuadro a la derecha. A la matriz αNV se le llama matriz de i∈N
cambio de base (de V a N). Esta matriz no es otra cosa que la matriz del
isomorfismo KV → E → KN .
90 Capı́tulo 3. Transformaciones lineales

Si βV es la V­ada de las coordenadas de un vector en la base V entonces,


αNV βV es la N­ada de las coordenadas del mismo vector en la base N.

P P
Prueba. Descompongamos xÃ∈ E en las
! dos bases.
à Tenemos, ! x = v∈V βv v = i∈N γi i
y por lo tanto X X X X X
x= βv αiv i = αiv βv i = γi i
v∈V i∈N i∈N v∈V i∈N
De la unicidad de las coordenadas de cualquier vector en la base N obtenemos la igualdad
P
v∈V αiv βv = γi que es la que se necesitaba demostrar.

Ejemplo. Queremos calcular las coordenadas de un vector u = (x, y) ∈ R2 en la base


N = {a1 , a2 } donde a1 = (2, 3) y a2 = (1, 2). Las coordenadas (x, y) son las coordenadas
de u en la base canónica. Luego, V = {e1 , e2 } es la base canónica y para construir la matriz
αNV de cambio de base necesitamos las coordenadas de V en la base N. Estas coordenadas
se pueden hallar resolviendo dos sistemas de ecuaciones lineales pero es más sencillo usar
la siguiente argumentación. Como un cambio de base es un isomorfismo entonces la matriz
αNV tiene inversa que es la matriz de cambio de la base N a la base V. Las columnas de esta
matriz ya las tenemos, son a1 y a2 . Luego, denotando p y q las coordenadas que buscamos,
o sea, u = pa1 + qa2 tenemos:
µ ¶ µ ¶−1 µ ¶ µ ¶µ ¶ µ ¶
p 2 1 x 2 −1 x 2x − y
= = = .
q 3 2 y −3 2 y 2y − 3x
y en estos cálculos lo único que no conoce el lector es como calcular la matriz inversa. Pero,
esto lo pospondremos hasta el próximo capı́tulo.

Cambios de base en el espacio de transformaciones lineales

Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V, N dos
bases del espacio E y W, M dos bases del espacio F. Conocemos los isomorfismos de
coordinatización KWV ↔ Mor (E, F) ↔ KMN . El problema ahora es: dada una WV­matriz
αWV que es la matriz de la TL f : E → F en las bases V y W como hallar la matriz βMN de f
en las bases N y M. Nuevamente, V, W son las bases “viejas” y M, N son las bases nuevas.
Sea γNV la matriz de cambio de base de V a N en E. Sea λMW la X
matriz de cambio de base de W a M en F. O sea, para cualquier v ∈ V v = γiv i
i∈N
X
y cualquier w ∈ W tenemos las fórmulas en el recuadro a la derecha.
Estas matrices no son otra cosa que las matrices de los isomorfismos de w = λjw j
j∈M
coordinatización K → E → K y K → F → K .
V N W M

Si αWV es la matriz de f en las bases V y W entonces,


λMW αWV γ−1NV es la matriz de f en las bases N y M.
Sección 3.5 Cambios de base 91

Prueba. Las columnas de αWV son las imagenes por f de la base X


V expresadas en la base W o sea, ∀v ∈ V se cumple la fórmula f (v) = αwv w
w∈W
del recuadro a la derecha. Denotemos por βMN la matriz de f en las
X bases N, M. Las columnas de βMN son las imagenes por f de la base
f (i) = βji j N expresadas en la base M. O sea, para cualquier i ∈ N se cumple la
j∈M
fórmula del recuadro a la izquierda.
Substituyendo en la fórmula de la derecha Ãlas fórmulas que
! definen las matrices λMW y
γNV obtenemos X X X
γiv f (i) = λjw αwv j
i∈N j∈M w∈W
y en esta igualdad substituimos
à f (i) por!la fórmulaÃde la izquierda
!para obtener
X X X X
βji γiv j = λjw αwv j.
j∈M i∈N j∈M w∈W
De la unicidad de la representación de cualquier
P vector en laP
base M obtenemos que para
cualesquiera j ∈ M y v ∈ V se cumple que i∈N βji γiv = w∈W λjw αwv y por lo tanto
βMN γNV = λMW αWV . Como γNV es la matriz de un isomorfismo entonces, γNV tiene
inversa por lo que podemos despejar βMN .
αWV La proposición anterior la podemos interpretar gráficamen­
KV −→ KW te de la siguiente manera. Las matrices αWV , βMN , γNV , y
γNV ↓ ↓ λMW λMW son las matrices de TLs entre espacios como se muestra
KN −→ KM en el diagrama a la izquierda. Se dice que un diagrama de
βMN
funciones es conmutativo si cualesquiera dos caminos di­
rigidos entre dos cualesquiera conjuntos son funciones iguales. En nuestro caso, el que el
diagrama a la izquierda sea conmutativo lo quiere decir es que βMN γNV = λMW αWV .
Cambios de base en el espacio de operadores lineales
Si f ∈ End (E) = Mor (E, E) es un OL entonces, no tiene sentido escoger bases diferen­
tes para el dominio y el codominio ya que estos son iguales. Sean V, N dos bases de E. El
problema ahora es: dada una VV­matriz αVV que es la matriz del OL f en la base V, hallar la
matriz βNN de f en la base N. Sea γNV la matriz de cambio de αVV
base de V a N en E. En este caso, el diagrama es el de la dere­ KV −→ KV
cha. Ya no hay que probar la conmutatividad de este ya que él, γNV ↓ ↓ γNV
N
es un caso particular del anterior. Luego, βNN γNV = γNV αVV K −→ KN
βNN
y despejando obtenemos que βNN = γNV αVV γ−1 NV .
µ ¶ Ejemplo. Sea f la TL del plano R2 que tiene la matriz del recuadro a
cos α − sin α
la izquierda en la base V = {a1 , a2 } donde a1 = (2, 3) y a2 = (1, 2).
sin α cos α
¿Cual será la matriz de f en la base canónica? La matriz de cambio
de base a la base canónica es la que tiene como columnas a los vectores a1 y a2 . Luego, la
matriz de f en la base canónica es
µ ¶µ ¶µ ¶−1 µ ¶
2 1 cos α − sin α 2 1 cos α + 8 sin α −5 sin α
=
3 2 sin α cos α 3 2 13 sin α cos α − 8 sin α
92 Capı́tulo 3. Transformaciones lineales
y esto es una advertencia de que un operador lineal puede tener en una base una matriz que
es igual a la de la rotación en la base canónica y sin embargo no es una rotación.
La transformación lineal tanspuesta
Las fórmulas de cambios de base nos permiten definir propiedades de las transforma­
ciones lineales que están definidas solo para las matrices. La idea es la siguiente: para una
transformación lineal f se encuentra su matriz A en ciertas bases se define la “propiedad”
para la matriz A y definimos a esta como “propiedad” de f. Finalmente, se prueba que si B
es matriz de f en otras bases entonces, la “propiedad” de la matriz A es también “propiedad”
de la matriz B. Con esto logramos que nuestra definición de “propiedad” de f sea correcta o
sea, no depende de las bases en las cuales se definió. Ahora seguiremos esta idea para definir
la transformación lineal transpuesta.
Sea A = αNM una matriz. A la matriz B = βMN definida por βij = αji se le llama la
matriz transpuesta de A y se denotará por AT . Un ejemplo de matrices transpuestas es el
siguiente ⎛ ⎞
µ ¶T 1 6
1 2 3
=⎝ 2 5 ⎠
6 5 4
3 4
T
o sea, los renglones de A son las columnas de A y viceversa.
Es comodo pensar en la transpuesta como la operación de transposición que a una matriz
le hace corresponder su transpuesta.
¡ ¢T
Las principales propiedades de la transposición son 1) AT = A
las que se muestran en el recuadro a la derecha. 2) (AB)T = BT AT
¡ ¢T ¡ ¢−1
3) A−1 = AT

Prueba. La propiedad 1 es consecuencia trivial de la definición. Para convencernos de la


propiedad 2 sean A = αNM , B = βML y γNL = αNM βML = AB. Denotemos AT = α0MN ,
BT = β0LM y (AB)T = γ0LN . Tenemos que ∀i ∈ N y ∀j ∈ M
X X
γ0ji = αiM βMj = αik βkj = β0jk α0ki = β0jM α0Mi
k∈M k∈M
y esto prueba la propiedad 2. Para probar la propiedad 3 vemos que por la propiedad 2
tenemos ¡ −1 ¢T T ¡ ¢T
A A = AA−1 = IT = I
y la prueba concluye por la unicidad de los inversos.
Ahora, sea f : E → F una TL y A la matriz de f en ciertas bases. Definamos la TL
transpuesta fT : F → E como la TL de la matriz transpuesta AT . Tenemos que comprobar
que esta definición no depende de como escogimos las bases. Si B es la matriz de f en otras
bases entonces existen matrices invertibles C y D tales que B = CAD y por la propiedad
2 tenemos BT = DT AT CT . Por la propiedad 3 las matrices DT y CT son invertibles y esto
significa que BT es la matriz de fT en las nuevas bases.
Sección 3.6 El nucleo y la imagen de una transformación lineal 93

La transpuesta de una inmersión es una proyección y recı́procamente.

Prueba. Sea F un subespacio de E y f : F → E la inmersión ⎛ ⎞


1 ··· 0
correspondiente. Sea A una base de F. Por el Teorema de Existencia ⎜
··· ··· ··· ⎟
de Bases existe una base B de E que contiene a A. El conjunto de ⎜ ⎜ 0 ··· 1 ⎟

vectores C = B\A es una base de cierto subespacio complementario ⎜ ⎜ 0 ··· 0 ⎟

G de tal manera que E = F ⊕ G. Si coordinatizamos a F con la ⎜ ⎝ ··· ··· ··· ⎠

base A y a E con la base B entonces, en estas bases, la matriz de
0 ··· 0
f se ve como en el recuadro a la derecha. O sea, en los renglones
correspondientes a A tenemos la matriz identidad y en los renglones correspondientes a C
tenemos una matriz nula.
Si transponemos esta matriz entonces fT es la TL que a un vector a + b con a ∈ F y
b ∈ G le hace corresponder a. Luego fT es la proyección de E a F a lo largo de G. El
¡ ¢T
“recı́procamente” se obtiene de la propiedad 1 de la transposición ( AT = A).

3.6 El nucleo y la imagen de una transformación lineal

En esta sección queremos ver que para describir todas las transformaciones lineales nos
es suficiente conocer las inmersiones, las proyecciones y los isomorfismos. Después, vere­
mos interesantes consecuencias de este resultado.

Definiciones

Para esto comenzaremos con dos definiciones fundamentales. Sea f : E → F una TL.
Al conjunto {y ∈ F | ∃x ∈ E f (x) = y} se le llama imagen de la TL. La imagen de f se
denotará por Im f. Al conjunto {x ∈ E | f (x) = 0} se le llama nucleo de la TL. El nucleo de
f se denotará por ker f. Esta notación es debido a que en inglés nucleo es “kernel”. Descrip­
tivamente la imagen es el conjunto de los vectores en el codominio que tienen preimagen y
el nucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0.

La imagen y el nucleo de una TL son subespacios.

Prueba. Sean x, y vectores en Im f y λ ∈ K. Por definición existen a, b tales que f (a) =


x, f (b) = y. Como f es lineal tenemos f (a + b) = f (a) + f (b) = x + y y además
f (λa) = λf (a) = λx. Esto quiere decir que Im f es un subespacio.
Sean a, b vectores en ker f y λ ∈ K. Tenemos f (a + b) = f (a) + f (b) = 0 + 0 = 0 y
f (λa) = λf (a) = λ0 = 0. Esto quiere decir que ker f es un subespacio.
94 Capı́tulo 3. Transformaciones lineales
El nucleo y la imagen de una TL son subespacios de espacios diferentes. Si f :
E → F entonces ker f ⊂ E e Im f ⊂ F. Solamente en el caso que la TL es un OL o
sea, cuando E = F el nucleo y la imagen son subespacios del mismo espacio. Sin
embargo, como veremos más adelante, en este caso pasan cosas raras ya que, aunque estos
subespacios tienen dimensiones complementarias ellos NO son complementarios en general.

Transformaciones lineales con nucleo trivial


Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector cero
siempre es un elemento del nucleo. Si el nucleo solo contiene al vector cero se dice que f
tiene nucleo trivial. Cualquier TL lineal inyectiva tiene nucleo trivial ya que en este caso la
preimagen de cualquier vector es única. Lo importante es que el recı́proco también es cierto.

Una TL es inyectiva si y solo si su nucleo es trivial.

Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos
(f (x) = f (y)) ⇔ (f (x) − f (y) = 0) ⇔ (f (x − y) = 0) ⇔ (x − y ∈ ker f)
y por lo tanto el que halla dos vectores diferentes cuyas imagenes sean iguales es equivalente
a la existencia de un vector no nulo en el nucleo de la TL.

Descomposición de transformaciones lineales


Ahora, demostraremos el resultado prometido al principio de la sección. Sea f : E →
F una TL. Sea K un subespacio complementario cualquiera pero fijo del ker f. Sea fK la
restricción de f al subespacio K. Denotemos i : Im f /→ F la inmersión del subespacio Im f
en F. Por último, denotemos πK : E ³ K la proyección de E a K a lo largo del ker f.

Teorema de Descomposición de una TL

f = i ◦ fK ◦ πK y fK es un isomorfismo.

Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.29 (página 64) existen unos
únicos vectores a ∈ K, b ∈ ker f tales que x = a + b. De aquı́ obtenemos
(i ◦ fK ◦ πK ) (x) = i (fK (πK (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x)
y con esto queda probado que f = i ◦ fK ◦ πK .
Para probar que fK es un isomorfismo sea f (x) ∈ Im f. Por 2.29 existen unos únicos
vectores a ∈ K, b ∈ ker f tales que x = a + b. Como fK (a) = f (a) = f (a) + f (b) =
f (x) entonces fK es sobreyectiva. Si fK (a) = fK (b) entonces, fK (a − b) = 0. Como
(a − b) ∈ K ∩ ker f entonces, a − b = 0 o sea a = b. Luego, fK es inyectiva.
Este teorema lo podemos visualizar más fácilmente si observa­ f
mos el diagrama de la derecha. La primera afirmación del Teorema E −→ F
de Descomposición de una TL (3.28) lo que dice es que este dia­ πK ↓ ↑i
grama es conmutativo. K −→ Im f
fK
Sección 3.6 El nucleo y la imagen de una transformación lineal 95

Para cualquier transformación lineal f : E → F,


dim E = dim ker f + dim Im f.

Prueba. Por el teorema anterior Im f es isomorfo a un complementario de ker f.

La descomposición de la transpuesta
Veamos una primera aplicación del Teorema de Descomposición de una TL (3.28). Como
veremos en el próximo capı́tulo, este resultado es clave para poder encontrar el conjunto de
todas las soluciones de un sistema de ecuaciones lineales.

Para cualquier transformación lineal f : E → F se cumple


que dim Im f = dim Im fT y que dim ker f = dim ker fT .

Prueba. Por 3.29 es suficiente demostrar la primera igualdad. Descompongamos f = i◦g◦π


donde i es una inmersión, g un isomorfismo y π una proyección. O sea, f es la composición
π g i
E −→ K −→ Im f −→ F
Por 3.24.2 tenemos que fT = πT ◦ gT ◦ iT . Más detalladamente, fT es la composición
iT gT πT
F −→ Im f −→ K −→ E
De 3.24.3 obtenemos que gT es un isomorfismo y de 3.25 obtenemos que πT es una inmersión
y que iT es una proyección. Como gT ◦ iT es sobreyectiva Im fT = Im πT y como πT es una
inmersión Im πT = K. El hecho de que K y Im f son isomorfos termina nuestra prueba.

Un criterio de isomorfismo
Veamos otra aplicación. Recordemos un sencillo resultado de teorı́a de conjuntos: toda
función inyectiva de un conjunto finito en otro con el mismo número de elementos es biyec­
tiva. De hecho, esto lo usamos en el primer capı́tulo para probar que Zp es un campo para
p primo. El objetivo ahora, es mostrar que “exactamente” el mismo resultado (simple pero
muy útil) se cumple para espacios vectoriales de dimensión finita. Esto es una consecuencia
del Teorema de Descomposición de una TL (3.28).

Sean E y F dos espacios de dimensiones finitas e iguales.


Una TL f : E → F es inyectiva si y solo si es sobreyectiva.

Prueba. Por 3.29 tenemos dim ker f = dim E − dim Im f. Si f es sobreyectiva entonces,
F = Im f. Por hipótesis dim F = dim E. De aquı́, debido a que todas las dimensiones son
finitas, dim ker f = 0 y por lo tanto ker f = {0}. De 3.27 concluimos que f es inyectiva.
Si f es inyectiva entonces, la función f : E → Im f es un isomorfismo y por lo tanto
dim E = dim Im f. Por hipótesis dim F = dim E. Como Im f es un subespacio de F entonces,
96 Capı́tulo 3. Transformaciones lineales
aplicando 2.17 (página 54) obtenemos F = Im f.
Como consecuencia de este resultado probaremos que para comprobar que dos opera­
dores lineales f y g en un espacio de dimensión finita son el inverso uno del otro, solo es
necesario comprobar una de las dos igualdades g ◦ f = I o f ◦ g = I.

Sean f, g : E → E dos OLs de un espacio finito dimen­


sional. Entonces, f ◦ g = I si y solo si g ◦ f = I.

Prueba. La función identidad es sobreyectiva. Luego, si f◦g = I entonces, f es sobreyectiva.


Por 3.31 f es inyectiva y por lo tanto tiene inversa f−1 . Componiendo con f−1 obtenemos
f−1 ◦ f ◦ g = f−1 ◦ I y por lo tanto g = f−1 .

Descomposición canónica de transformaciones lineales


Para aplicar el Teorema de Descomposición de una TL (3.28) necesitamos escoger (ya
que hay muchos) un subespacio complementario K del nucleo de f. Ya vimos (véase 2.34)
que cualquier tal subespacio es isomorfo al cociente E/ ker f. Queremos substituir K por
E/ ker f en el Teorema de Descomposición de una TL (3.28) para ası́ obtener otra versión
del mismo que no dependa de escoger nada, o sea que sea canónico.
En el Teorema de Descomposición de una TL (3.28) están
involucradas tres funciones: la proyección πK (que es sobreyec­ f
E −→ F
tiva), la restricción fK (que es biyectiva) y la inmersión i (que es ?↓ ↑i
inyectiva). Esta última no depende de K y podemos quedarnos E/ ker f ←→ Im f
con ella. Ası́ que todas nuestras incognitas están representadas ?
en el diagrama de la derecha.
¿Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas va­
riantes. El espacio cociente E/ ker f está formado por todos los subespacios afines ker f + x.
El espacio Im f está formado por todas las imagenes f (x). Luego, la
x 7→ ker f + x
única posible respuesta a nuestra pregunta son las funciones definidas
f (x) 7→ ker f + x
en el recuadro a la izquierda.
La primera de estas funciones tiene dominio E, codominio E/ ker f, se le llama función
natural y se denota por “nat”. La función natural es una TL ya que
nat (x + y) = ker f + x + y = ker f + x + ker f + y = nat (x) + nat (y)
nat (λx) = ker f + λx = λ ker f + λx = λ (ker f + x) = λ nat (x)
y además es evidentemente sobreyectiva.
La segunda de estas funciones es nuestra preocupación fundamental ya que tenemos que
probar que es un isomorfismo. Esta función tiene dominio Im f, codominio E/ ker f y la
denotaremos por g. La función g es una TL ya que
g (f (x) + f (y)) = g (f (x + y)) = ker f + x + y = g (f (x)) + g (f (y))
g (λf (x)) = g (f (λx)) = ker f + λx =λ (ker f + x) = λg (f (x))
y es también evidentemente sobreyectiva.
Sección 3.7 Trasformaciones semilineales y coalineaciones 97

¿Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios afines
ker f + x y ker f + y son el mismo entonces, f (x) = f (y). Como para un subespacio afı́n
E paralelo al ker f se cumple que (E = ker f + x) ⇔ (x ∈ E) entonces, la inyectividad de g
es equivalente a que la función f sea constante en cualquier subespacio afı́n paralelo al ker f.
La cadena de equivalencias
(y ∈ ker f + x) ⇔ (∃a ∈ ker f | y = a + x) ⇔ (f (y − x) = 0) ⇔ (f (y) = f (x))
nos convence de que g es inyectiva independientemente de quien sea f.

Los subespacios afines paralelos a ker f son precisamente


los conjuntos de vectores en que la función f es constante.

Luego, g es un isomorfismo y por lo tanto tiene un isomor­


fismo inverso que denotaremos por f0 . El isomorfismo f0 es el f
E −→ F
que a un subespacio afı́n ker f + x le hace corresponder f (x). nat ↓ ↑i
Ası́ completamos nuestro diagrama como en el recuadro a la E/ ker f −→ Im f
derecha. Solo nos falta demostrar que este es conmutativo. Sin f0
embargo esto es muy fácil porque la composición de funciones
nat f0 i
x 7−→ ker f + x 7−→ f (x) 7−→ f (x)
es evidentemente igual a la función f.

3.7 Trasformaciones semilineales y coalineaciones

Una función f : E → F de espacios vectoriales sobre K se


le llama transformación semilineal si existe un automorfismo f(a + b) = f(a) + f(b)
λ 7→ λˉ del campo K tal que para cualesquiera vectores a, b y f (λa) = λf ˉ (a)
cualquier escalar λ se cumplen las propiedades del recuadro.
Observese que las trasformaciones lineales son semilineales usando como automorfismo
del campo la función identidad. Para construir otras trasformaciones semilineales necesita­
mos automorfismos del campo que no sean la identidad. El ejemplo más importante es la
conjugación a + bi 7→ a − bi en el campo de los números complejos (véase el ejercicio 34).

Ejercicio 76 Pruebe que para una transformación semilineal no nula f el correspondiente


automorfismo del campo es único. [180]

Trasformaciones semilineales reales

En el caso del campo de los números reales no hay trasformaciones semilineales que no
sean lineales debido al siguiente resultado:
98 Capı́tulo 3. Transformaciones lineales

El único automorfismo de R es la identidad.



Prueba. Sea f un automorfismo de R. Supongamos que x > 0 y sea y = x entonces,
f (x) = f(y2 ) = f (y)2 > 0. En particular si x = b − a > 0 entonces f (b − a) =
f (b) − f (a) > 0. En otras palabras, f es monótona b > a ⇒ f (b) > f (a). Como f−1
también es monótona entonces, f conmuta con el supremo y el ı́nfimo (véase el ejercicio 77).
Como f (1) = 1 y 1 es generador del grupo aditivo de Z obtenemos que f es la identidad
en Z. Como f (a/b) = f (a) /f (b) obtenemos que f es la identidad en Q. Sea x un irracional
y denotemos por A el conjunto de todos los racionales menores que x. Sabemos que x =
sup A y por lo tanto f (x) = f (sup A) = sup f (A) = sup A = x.

Ejercicio 77 Sea R un conjunto ordenado y f : R → R una isotonı́a (biyección tal que f y


f−1 son monótonas). Pruebe que si sup A existe entonces, f (sup A) = sup f (A). [180]
Ejercicio 78 Sea f 6= I un automorfismo de C. Las siguientes afirmaciones son equivalen­
tes: 1. f es la conjugación compleja. 2. f es continua. 3. f es la identidad en R. [181]

Propiedades de las transformaciones semilineales


Al igual que las TL las transformaciones semilineales preservan subespacios.

Toda trasformación semilineal trans­


forma subespacios en subespacios.

Prueba. Sea f : E → F una trasformación semilineal y F un subespacio de E. Sean a, b ∈ F


y α ∈ K. Tenemos f(a + b) = f(a) + f(b) por lo que f (F) es cerrado para la suma. Sea
λ ∈ K tal que λˉ = α. Tenemos αf (a) = λf ˉ (a) = f (λa) o sea f (E) es cerrado para el
producto por escalares.

Toda trasformación semilineal transforma


subespacios afines en subespacios afines.

Prueba. Sea f : E → F una trasformación semilineal y F un subespacio de E. Si F + x es


un subespacio afı́n entonces, f (F + x) = f (F) + f (x) que es también un subespacio afı́n
puesto que por el resultado anterior f (F) es un subespacio.

Automorfismos semilineales.
A diferencia de las TL las transformaciones semilineales no forman un espacio vectorial.
Esto es debido a que si λ 7→ λ y λ 7→ e
λ son dos automorfismos del campo entonces λ 7→ λ+eλ
Sección 3.7 Trasformaciones semilineales y coalineaciones 99

no necesariamente es un automorfismo. A las transformaciones semilineales f : E → E


biyectivas las llamaremos automorfismos semilineales.

La composición de automorfismos semi­


lineales es un automorfismo semilineal.

Prueba. Sean f y g dos automorfismos semilineales. De la misma manera que para los
operadores lineales se prueba que (f ◦ g) (a + b) = (f ◦ g) (a) + (f ◦ g) (b). Sean λ 7→ λ̃
y λ 7→ λˉ los automorfismos del campo correspondientes a f y g respectivamente. Tenemos
¡ ¢
que (f ◦ g) (λa) = f λa ˉ = eˉ y la prueba termina al observar que λ 7→ e
λa λˉ siendo una
composición de automorfismos del campo es automorfismo del campo.

Ejercicio 79 Sea λ 7→ λˉ un automorfismo del campo K. Pruebe que la transformación Kn 3


(x1 , . . . , xn ) 7→ (x1 , . . . , xn ) ∈ Kn es un automorfismo semilineal. A tales automorfismos
semilineales los llamaremos estandar. Pruebe que toda transformación semilineal de Kn en
Kn es la composición de un automorfismo semilineal estandar con una TL. [181]

La inversa de un automorfismo semi­


lineal es un automorfismo semilineal..

Prueba. Sea f : E → E una automorfismo semilineal. Sean λ ∈ K y x, y ∈ E. Sean


a, b ∈ E tales que f (a) = x , f (b) = y. Tenemos
f−1 (x + y) = f−1¡ (f¢(a) + f¡(b)) =¢f−1 (f (a + b)) = a + b = f−1 (x) + f−1 (y)
−1 ˉ −1 ˉ
f λx = f λf (a) = f−1 (f (λa)) = λa =λf−1 (x)
que es lo que se querı́a demostrar puesto que la función λˉ 7→ λ es un automorfismo de K.

Estos dos últimos resultados significan que el conjunto de todos los automorfismos se­
milineales forman un grupo respecto a la composición de funciones.

Coalineaciones

Una biyección f : E → E en un espacio vectorial sobre un campo le llama coalineación


si la imagen de cualquier subespacio afı́n es un subespacio afı́n y la preimagen de cualquier
subespacio afı́n es un subespacio afı́n de E. En otras palabras, tanto f como f−1 transforman
subespacios afines en subespacios afines. Obviamente, si f es una coalineación entonces f−1
también lo es. El siguiente resultado nos dice que la definición de coalineación es posible
hacerla de diversas maneras.
100 Capı́tulo 3. Transformaciones lineales

Sea f : E → F una biyección entre dos espacios afines. Entonces, las


siguientes afirmaciones son equivalentes:
1. f y f−1 transforman subespacios afines en subespacios afines.
2. f y f−1 transforman generadores afines en generadores afines.
3. f y f−1 transforman bases afines en bases afines.
4. f y f−1 transforman conjuntos AI en conjuntos AI.
5. f y f−1 conmutan con la cerradura afı́n.

Prueba. (1 ⇒ 2) Sea A un conjunto generador afı́n de E y B = f (A). Sea C = f−1 [B]


que es un subespacio afı́n por ser la preimagen de un subespacio. Tenemos, B ⊆ [B] y por
lo tanto A = f−1 (B) ⊆ f−1 [B] = C. Luego E = [A] ⊆ C y por lo tanto C = E. De
aquı́ f (E) = [B] y como f es sobreyectiva tenemos que B es generador. Por simetrı́a, si B es
generador entonces f−1 (B) también lo es.
(2 ⇒ 3) Sea ahora A una base afı́n de E y B = f (A). Sabemos que B es generador afı́n.
Si B no fuera AI entonces existirı́a b tal que B\b es generador y por lo tanto, tendrı́amos
que f−1 (B\b) = A\f−1 (b) es generador afı́n. Esto contradecirı́a que A es una base afı́n.
Por simetrı́a, si B es una base afı́n entonces f−1 (B) también lo es.
(3 ⇒ 4) Sea ahora A un conjunto AI. Sea A0 una base afı́n que lo contiene. Sabemos que
f (A0 ) es una base afı́n. Como f (A) ⊆ f (A0 ) tenemos que f (A) es AI. Por simetrı́a, si B es
AI entonces f−1 (B) también lo es.
(4 ⇒ 1) Sea A una base afı́n del subespacio afı́n [A]. Como A es AI entonces B = f (A)
también lo es. Si b ∈ [A] entonces A∪b es AD y por lo tanto B∪f (b) también lo es. Luego,
por el corolario 2.42, tenemos f (b) ∈ [B] y por lo tanto f [A] ⊆ [B]. Si b ∈ [B] entonces
B ∪ b es AD y por lo tanto A ∪ f−1 (b) también lo es. Luego, por el corolario 2.42, tenemos
f−1 (b) ∈ [A] y por lo tanto [B] ⊆ f [A]. Esto significa que f transforma el subespacio [A]
en el subespacio [B]. Por simetrı́a, f−1 también transforma subespacios en subespacios.
(5 ⇒ 1) Si f [A] = [f (A)] entonces la imagen del subespacio afı́n [A] es el subespa­
cio afı́n [f (A)]. O sea, f trasforma subespacios en subespacios. Por simetrı́a, f−1 también
transforma subespacios en subespacios.
(1 ⇒ 5) Sea f una coalineación. Sea A un conjunto de puntos. Como f transforma subes­
pacios afines en subespacios afines la restricción de f a [A] es una coalineación del espacio
afin [A] en el espacio afin f [A]. Como esta restricción transforma generadores en generado­
res tenemos que f (A) es generador de f [A]. Luego f [A] = [f (A)]. Para probar de que f−1
conmuta con la cerradura afı́n usamos que f−1 es una coalineación.

Ejercicio 80 Sea A un conjunto con un operador de cerradura y f : A → A una biyección.


Si f y f−1 conmutan con el operador de cerradura entonces f es una isotonı́a del conjunto
ordenado de cerrados.
Sección 3.7 Trasformaciones semilineales y coalineaciones 101

Estructura de las coalineaciones


La composición de coalineaciones de un espacio afı́n en si mismo es una coalineación.
Lo mismo sucede con la inversa de una coalineación. Luego el conjunto de todas las coali­
neaciones de un espacio afı́n F es un grupo respecto a la composición de funciones.
Si dim E = 1 entonces cualquier biyección de E en E es una coalineación ya que en este
caso todos los subepacios afines son puntos y la condición de preservar puntos no es ninguna
restricción.
Un importante subgrupo de colineaciones son las traslaciones o sea, las funciones de la
forma ta : F 3 x 7→ x + a ∈ F y de estas hay una para cada vector a en el espacio vectorial
F. Como ta ◦ tb = ta+b observamos que el subgrupo de traslaciones es isomorfo al grupo
aditivo del espacio vectorial F.
Sea f una coalineación en E. Denotemos a = f (0) y ta la traslación x 7→ x + a. Obser­
vemos que la coalineación f0 = t−a ◦ f es tal que f0 (0) = 0. Luego, cualquier coalineación
es la composición f = ta ◦ f0 de una coalineación que preserva 0 seguida de una traslación.
Si f es un automorfismo semilineal entonces f transforma subespacios afines en subes­
pacios afines y por lo tanto es una coalineación que preserva 0.
Ahora, comenzaremos a probar el resultado principal de esta sección: que en dimensión
al menos 2 toda coalineación que preserva 0 es semilineal. En todo lo que sigue, E es un
espacio vectorial de dimensión al menos 2 sobre el campo K.

Toda coalineacion en E preserva el paralelismo de rectas.

Prueba. Sea f una coalineación y `, `0 dos rectas paralelas diferentes. Como f es un au­
tomorfismo del conjunto ordenado de subespacios afines dim [` ∪ `0 ] = dim f [` ∪ `0 ] =
dim [f (`) ∪ f (`0 )] y por lo tanto f (`) y f (`0 ) son coplanares.
También dim [` ∩ `0 ] = dim f [` ∩ `0 ] = dim [f (`) ∩ f (`0 )] y por lo tanto f (`) y f (`0 ) no
se intersectan.

Toda coalineacion en E que preserva 0 es un


automorfismo del grupo aditivo de vectores.

Prueba. Sea f una coalineación de E que preserva 0. Recordemos que para cualquier vector
x el subespacio hxi es la recta por el origen que pasa por x. Y como f preserva 0 tenemos
f hxi = hf (x)i o sea, f también conmuta con la cerradura lineal.
Sean a, b ∈ E dos vectores. Tenemos que probar que f (a + b) = f (a) + f (b). Esto es
trivial si {a, b} contiene a 0 por lo que podemos suponer que a 6= 0 y b 6= 0. Supongamos
primero que {a, b} es LI. Por la regla del paralelogramo sabemos que
a + b = (hai + b) ∩ (hbi + a) ,
f (a) + f (b) = (hf (a)i + f (b)) ∩ (hf (b)i + f (a)) .
102 Capı́tulo 3. Transformaciones lineales
Como f preserva el paralelismo f (hai + b) es una recta paralela a f (hai) = hf (a)i
que pasa por f (b) , o sea f (hai + b) = hf (a)i + f (b). Análogamente, f (hbi + a) =
hf (b)i + f (a). Como f conmuta con la intersección (el ı́nfimo) tenemos
f (a + b) = f (hai + b)∩f (hbi + a) = (hf (a)i + f (b))∩(hf (b)i + f (a)) = f (a)+f (b)
y esto concluye el caso de que {a, b} es LI.
Es claro que si {a, b} es LI entonces, también lo es {a − b, b} y por lo tanto
f (a) = f (a − b + b) = f (a − b) + f (b) .
Luego, si {a, b} es LI entonces, f (a − b) = f (a) − f (b).
Supongamos que {a, b} es LD. Entonces, hai = hbi. Como dim E > 1 existe c ∈ / hai
tal que los conjuntos {a, c}, {b, c} son LI.
Si b 6= −a entonces, {a + c, b − c} es LI y por el caso anterior tenemos que
f (a + b) = f (a + c + b − c) = f (a + c) + f (b − c) = f (a) + f (b)
y en particular cuando b = a obtenemos f (2a) = 2f (a).
Si b = −a entonces, {a + c, b + c} es LI y tenemos que
2f (c) = f (2c) = f (a + c + b + c) = f (a + c) + f (b + c) = f (a) + f (b) + 2f (c)
y por lo tanto f (a) + f (b) = 0 = f (0) = f (a + b).

Ejercicio 81 Complete la demostración del resultado anterior mostrando que si {a, c} es LI,
b = ρa y ρ 6= −1 entonces {a + c, b − c} es un conjunto LI. [181]

Si f es una coalineación en E que preserva 0 entonces, existe un automorfis­


mo λ 7→ λˉ del campo K tal que f (λa) = λf ˉ (a) para todo vector a ∈ E.

Prueba. Sea a ∈ E\0. Como f preserva 0 tenemos que f (hai) = hf (a)i. Sabemos que
αa ∈ hai y por lo tanto f (αa) ∈ hf (a)i. Como en hf (a)i están precisamente los múltiplos
de f (a) existe un escalar que denotaremos αa tal que f (αa) = αa f (a). De esta manera
está definida una función K 3 α 7→ αa ∈ K que es biyectiva pues f es una biyección de hai
en hf (a)i.
Queremos probar que αa no depende de a. O sea que para cualesquiera a, b ∈ E\0
tenemos que αa = αb . Supongamos que {a, b} es LI. Usando 3.41 obtenemos que
αa f (a) + αb f (b) = f (αa) + f (αb) = f (αa + αb) =
= f (α (a + b)) = αa+b f (a + b) = αa+b f (a) + αa+b f (b)
y como {f (a) , f (b)} es LI obtenemos αa = αa+b = αb .
Supongamos que {a, b} es LD entonces, como dim E > 1 existe c tal que {a, c} y {c, b}
son dos conjuntos LI. Por el caso anterior αa = αc = αb .
Como αa no depende de a denotaremos αˉ = αa . Sabemos que para cualquier vector
a ∈ E tenemos f (αa) = αf ˉ (a). Solo falta probar que α 7→ αˉ es un automorfismo de K.
Sección 3.7 Trasformaciones semilineales y coalineaciones 103

Sea a un vector no nulo. Usando 3.41 obtenemos que ¡ ¢


ˉ f (a)
(α + β)f (a) = f ((α + β) a) = f (αa + βa) = f (αa) + f (βa) = αˉ + β
(αβ)f (a) = f (αβa) = αf ˉ (a)
ˉ (βa) = αˉ βf
y como f (a) es no nulo obtenemos α + β = αˉ + βˉ y αβ = αˉ β.
ˉ
Resumiendo los dos últimos resultados obtenemos:

Caracterización de las coalineaciones

Si dim E ≥ 2 entonces, cualquier coalineación en


E que preseva 0 es un automorfismo semilineal.

Combinando esto con 3.34 vemos que el caso de los reales es más sencillo.

Toda coalineación en un espacio vectorial real de dimensión dos


o más es un automorfismo lineal seguido por una traslación.
104
Capítulo cuarto
Determinantes
os determinantes son una función que a cada matriz cuadrada le hace corresponder
un elemento del campo. Todo lo que se digamos acerca de la importancia de los de­
terminantes en las matemáticas es poco. Este es uno de los conceptos sin los cuales
realmente no se puede entender nada en las matemáticas superiores. En este capı́tulo dare­
mos la definición de los determinantes, estudiaremos sus propiedades, métodos de cálculo
y seremos capaces, gracias a ellos, de resolver los sistemas de ecuaciones lineales de forma
general.

4.1 Permutaciones

La definición de determinante de una matriz pasa inevitablemente por la definición del


signo de una permutación. El lector debe entender bien esta sección para poder pasar al
estudio de los determinantes.
El grupo simétrico

Sea N un conjunto finito. Una permutación de N es una biyección de N en N. Al


conjunto de todas las permutaciones de N lo denotaremos por SN . La composición de biyec­
ciones es una biyección y toda biyección tiene inversa, por lo tanto, SN es un grupo respecto
a la composición. Al grupo (SN , ◦) se le llama el grupo simétrico de N. Denotaremos por
IN a la función identidad que es el neutro de SN . Es importante recordar nuestra notación de
la composición (σ ◦ ω) (a) = σ (ω (a)) ya que la composición no es conmutativa.

Si |M| = |N| entonces los grupos SM y SN son isomorfos.

Prueba. Sean M y N son dos conjuntos del mismo cardi­ σ


nal. Si ω : M → N es una biyección entonces fijándonos en M −→ M
el diagrama conmutativo del recuadro a la derecha obtenemos ω ↓ ↑ ω−1
una función ∆ : SM 3 σ 7→ ωσω−1 ∈ SN . Observemos, que N −→ N
−1
ωσω
∆ tiene inversa SN 3 ρ 7→ ω−1 ρω ∈ SM .
Además, ∆ (σθ) = ωσθω−1 = ωσω−1 ωθω−1 = ∆ (σ) ∆ (θ) y por lo tanto, ∆ es un
isomorfismo de los grupos SM y SN .
106 Capı́tulo 4. Determinantes
El lector debe interpretar este resultado como que, en el grupo SM podemos cambiarle el
nombre a los elementos de M mediante la biyección δ : M → N y obteniendo el grupo SN .
En particular, el número de elementos de SN solo depende del número de elementos en N.

El número de permutaciones de un conjunto con n elementos es n!.

Prueba. Para la prueba es más claro encontrar ρ (n) el número de biyecciones f : M → N


donde |M| = |N| = n. Si n = 1 entonces ρ (n) = 1 = 1!. Hagamos inducción en n. Si
i ∈ M entonces, el conjunto de biyecciones lo podemos partir en n partes disjuntas según
cual sea j = f (i). Cada parte tiene tantos elementos como biyecciones f : M\i → N\j y
por hipótesis de inducción este número es (n − 1) !. Luego, ρ (n) = n (n − 1) ! = n!.

Ciclos

Sea M = {x0 , . . . , xn−1 } ⊆ N. A la permutación ¯


xi+1 mod n si y = xi
σ mostrada en el recuadro a la derecha se le llama ci­ σ (y) =
y si y ∈
/M
clo de orden n. A esta permutación se le denotará por
(x0 , . . . , xn−1 ). . Dos ciclos (x0 , . . . , xn−1 ) y (y0 , . . . , ym−1 ) se les llama disjuntos si ningún
xi es igual a algún yj .
Es importante notar que la composición de ciclos disjuntos es conmutativa pero la com­
posición de ciclos en general no lo es. También debemos notar que debido a las propiedades
de la función mod n se tiene que (a, . . . , b, c) es la misma permutación que (c, a, . . . , b) en
otras palabras, siempre podemos escoger el principio del ciclo.

Sea σ ∈ SN una permutación. La relación en N definida


por ∃n ∈ Z tal que a = σn (b) es de equivalencia.

Prueba. Tenemos a = σ1 (a) y por lo tanto es reexiva. Si a = σn (b) y b = σm (c)


entonces a = σn+m (c) y por lo tanto es transitiva. Si a = σn (b) entonces, b = σ−n (a)
por lo que la relación es simétrica.
A las clases de equivalencia de esta relación se le llaman órbitas de la permutación.

La restricción de una permutación a una órbita es un ciclo.

Prueba. Supongamos que M es una órbita. Sea a ∈ M. Tenemos M = {σn (a) | n ∈ Z}. El
conjunto M no puede ser infinito por lo que existe un natural p más pequeño tal que σp (b)
ya apareció antes en la sucesión a, σ (a) , . . .. Observemos que σp (a) = a porque si no,
habrı́a un número k mayor que cero y menor que p tal que σp (a) = σk (a) o sea, σk (a)
tendrı́a dos preimagenes diferentes σk−1 (a) 6= σp−1 (a) y esto no puede ser ya que σ es una
biyección. Dividiendo con resto cualquier entero n entre p tenemos que n = kp + r con
Sección 4.1 Permutaciones 107
¡ ¢
0 ≤ r < p. Luego, σn (a) = σr σkp (a) = ¡ σ (a) y M = p−1
r
{σn (a)¢ | n ∈ Zp }. Esto quiere
decir que la restricción de σ a M es el ciclo a, σ (a) , . . . , σ¡ (a) . ¢
Supongamos que la restricción de σ a M es el ciclo a, σ (a) , . . . σp−1 (a) . Como
σ (M) = M tenemos que σp (a) ∈ M y de la misma manera que antes vemos que σp (a) =
a y que M = {σn (a) | n ∈ Z} es una órbita.

Toda permutación es composición de ciclos disjuntos.

Prueba. Solo tenemos que tomar los ciclos correspondientes a todas las órbitas y compo­
nerlos en cualquier orden.
Observese que la descomposición en ciclos disjuntos de una permutación es única salvo
el orden de la composición.
El grupo alternante

Una permutación se le llama par si en su descomposición en ciclos disjuntos hay un


número par de ciclos de orden par. En otro caso se le llama impar. A los ciclos de orden
2 se les llama transposiciones. Las transposiciones son impares. La inversa de cualquier
transposición es ella misma.

La composición de una permutación con una trans­


posición cambia la paridad de la permutación.

Prueba. Sea σ una permutación y τ = (a, b) una transposición. Distingamos dos casos:
que a y b están en una misma órbita de σ o que no.
Si están en la misma órbita M entonces escogiendo el principio del ciclo en M y renu­
merando los elementos de N podemos lograr que τ = (1, k) con k > 1 y que la restricción
de σ a M es (1, 2, . . . , n) con n ≥ k. Como τ (σ (k − 1)) = 1 y τ (σ (n)) = k, obtenemos
(1, k) ◦ (1, 2, . . . n) = (1, . . . , k − 1) ◦ (k, . . . , n) .
Si n es par entonces, k − 1 y n − k + 1 tienen la misma paridad por lo que la paridad de
σ cambia. Si n es impar entonces k − 1 y n − k + 1 tienen diferente paridad por lo que la
paridad de σ cambia.
Si están en diferentes órbitas M1 y M2 entonces escogiendo los principios de los ciclos
en M1 , M2 y renumerando los elementos de N podemos lograr que τ = (1, k) con k > 1
y que la restricción de σ a M1 es (1, . . . , k − 1) y la restricción de σ a M2 es (k, . . . , n).
Como τ (σ (k − 1)) = k y τ (σ (n)) = 1, obtenemos que
(1, k) ◦ (1, . . . , k − 1) ◦ (k, . . . , n) = (1, 2, . . . n)
y ya vimos que (1, . . . , k − 1) ◦ (k, . . . , n) tiene paridad diferente que (1, 2, . . . n).
Con esto hemos demostrado que la paridad de τ◦σ es diferente a la de σ. La demostración
de que a paridad de σ ◦ τ es diferente a la de σ es análoga.
108 Capı́tulo 4. Determinantes

Toda permutación es composición de transposiciones.

Prueba. Se comprueba fácilmente que (x0 , . . . , xn−1 ) = (xn−1 , x0 )◦. . .◦(x2 , x0 )◦(x1 , x0 ) y
esto demuestra que todo ciclo se descompone en composición de transposiciones. La prueba
se completa porque toda permutación es composición de ciclos.
Una consecuencia directa de 4.6 y 4.7 es que una permutación es par si y solo si es
composición de un número par de transposiciones. Al conjunto de todas las permutaciones
pares de N se le denotará por AN . La composición de dos permutaciones pares es par y la
inversa de una permutación par es también par. Luego AN es un grupo para la composición
y se le llama grupo alternante. Al conjunto de las permutaciones impares lo denotaremos
por A−N y lo llamaremos la clase lateral de las permutaciones impares. Observese que AN
y A−N tienen la misma cantidad de permutaciones e igual a n!/2 ya que el componer con una
transposición fija es una biyección entre AN y A−
N.

El signo de una permutación

En todo campo K hay dos elementos notables, 1 y −1. El primero es el neutro para
el producto y el segundo es el opuesto para la suma del primero. Observese que estos dos
elementos son diferentes si y solo si la caracterı́stica del campo es diferente de 2. El signo
de una permutación es la función sgn : SN → K que es 1 si la permutación es par y es −1 si
la permutación es impar.

¨ sgn (π ◦ ρ) = sgn π sgn ρ


¨ sgn π−1 = sgn π

Prueba. La composición de dos permutaciones de la misma paridad es una permutación


par. La composición de dos permutaciones de diferente paridad es impar. Las órbitas de una
permutación no cambian al tomar la inversa.
La función sgn jugará un papel vital en todo lo que sigue. En particular, en la definición
de determinante de una matriz los signos de los sumandos están definidos precisamente
mediante la función sgn. Por esto, el lector debe familiarizarse muy bien con la definición de
esta función y sus propiedades.

¡ ¢ ¡ ¢ ¡ ¢
Ejercicio 82 Pruebe que sgn π−1 ◦ ρ = sgn π ◦ ρ−1 = sgn ρ−1 ◦ π .

El resultado 4.8 lo que quiere decir es que la función sgn : SN → K es un morfismo del grupo
SN al grupo multiplicativo del campo. Su imágen es {1, −1} y su nucleo es AN si el campo es de
caracterı́stica diferente de dos.
Sección 4.2 Propiedades básicas de los determinantes 109

4.2 Propiedades básicas de los determinantes

¯ Resolvamos el sistema de ecuaciones lineales de la iz­


ax + by = 1
cx + dy = 1 quierda. Denotemos ∆ = ad − bc. Despejando x en x = d − b
la primera ecuación y substituyendo en la segunda ob­ ∆
a−c
tenemos y. Substituyendo este y en alguna de las ecuaciones obtendremos y = ∆
x. Esta solución es la del recuadro a la derecha.
Sean ahora u = (a, b) y v = (c, d) dos vectores en el plano R2
y u + v como se muestra en la figura a la izquierda. Estos dos vectores
v
q definen un paralelogramo cuyos vértices son 0, u, u + v, v. Que­
R2 remos calcular el area de este paralelogramo. Para esto, sea q el
u punto de intersección de la recta u, u + v con la recta paralela al
0 p x eje x que pasa por v. Sea p el punto de intersección de la recta
u, u + v con el eje x. Es fácil ver que el triángulo v, q, u + v es
igual al triángulo 0, p, u. Luego, el paralelogramo 0, u, u + v, v tiene área igual a la del
paralelogramo 0, v, q, p. En la figura a la derecha los triángulos
p, a, u y 0, v,d tienen dos ángulos iguales o sea son congruentes. y v R2 q
De esto, por el Teorema de Tales obtenemos d
(b ÷ (a − p) = d ÷ c) ⇒ (pd = ad − cb)
Sabemos que, pd es el área (base por altura) del paralelogramo b u
0, v, q, p. Luego, hemos demostrado que el area del paralelogra­ 0 c pa x
mo 0, u, u + v, v es igual a ∆ = ad − bc.
Estos dos ejemplos nos dan una idea de la importancia del número ∆ = ad − bc para
la solución de sistemas de dos ecuaciones lineales y para el cálculo de areas en R2 . Los
determinantes son la generalización de este número a dimensiones arbitrarias.

Definición de los determinantes

Sea N un conjunto finito. Recordemos que SN es el conjunto de todas las las permutacio­
nes de N. Si σ ∈ SN e i ∈ N entonces, denotaremos por σi la imagen de i por la permutación
σ, o sea σi es una forma corta de escribir σ (i). Recordemos también que el signo de una
permutación sgn σ es 1 si σ es par y es −1 si σ es impar.
El determinante de una matriz αNN es por definición X Y
el elemento del campo definido por la fórmula en el re­ det αNN = sgn σ αiσ i
cuadro de la derecha. A esta fórmula se la conoce como σ∈ SN i∈N
fórmula de Leibniz.

Recalquemos que los determinantes están definidos solo cuando los conjuntos
de ı́ndices de renglones y columnas coinciden y es un conjunto finito. Por este
motivo en este capı́tulo todos los espacios serán finito dimensionales y todos
los conjuntos de ı́ndices serán finitos.
110 Capı́tulo 4. Determinantes
Determinantes de matrices pequeñas

Interpretemos esta definición para conjuntos N con pocos elementos. Si |N| = 1 entonces
la matriz αNN consta de una sola entrada y su determinante es precisamente esta entrada.
µ ¶ Si, digamos N = {1, 2} entonces tenemos 2 permutaciones de N que son
α11 α12 –
I y (1, 2). A la primera le corresponde el sumando α11 α12 y a la segunda
α21 α22 +
el sumando −α12 α21 . Gráficamente, cuando N = {1, 2} un determinante
es la suma de los dos productos que se muestran en el recuadro a la izquierda.
Pongamos ahora N = {1, 2, 3}. Hay 6 permutaciones de N y estas son I, (1, 2, 3),
(1, 3, 2), (2, 3), (1, 2) y (1, 3). Las tres primeras son de signo positivo y se corresponden con
los tres sumandos α11 α22 α33 , α12 α23 α31 y α13 α21 α32 . Gráficamente, ⎛ ⎞
α11 α12 α13
estos tres sumandos se pueden representar por la diagonal principal ⎝
α21 α22 α23 ⎠
de la matriz y los dos “triángulos” con lados paralelos a esta diagonal
α31 α32 α33
como se muestra en el recuadro de la derecha.
Las otras tres permutaciones tienen signo negativo y se corresponden con los sumandos
⎛ ⎞ −α11 α23 α32 , −α12 α21 α33 y −α13 α22 α31 . Gráficamente, estos tres
α11 α12 α13
⎝α21 α22 α23 ⎠ sumandos se pueden representar por la diagonal alterna de la matriz
y los dos “triángulos” con lados paralelos a esta diagonal como se
α31 α32 α33
muestra en el recuadro de la izquierda.
El número de sumandos en la definición del determinante es SN = |N| !. Este número
crece rápidamente con |N| como se ve en la siguiente tabla
n 1 2 3 4 5 6 7 8 9 10
n! 1 2 6 24 120 720 5040 40 320 362 880 3628 800
Por esto, calcular determinantes con el uso directo de su definición es muy ineficiente para
matrices de más de tres renglones y columnas.
El determinante de la identidad

Ya vimos que el conjunto de matrices αNN es un álgebra respecto al producto y suma


de matrices y multiplicación por elementos del campo. El elemento neutro para el producto
lo llamamos matriz identidad, denotamos INN y es la matriz cu­ ¯
1 si i = j
yas entradas son iguales al delta de Kronecker δij definido en el δij =
0 si i 6= j
recuadro a la derecha. Cuando el conjunto de ı́ndices está ordena­
µ ¶ do, la matriz identidad se puede representar gráficamente como una que tiene
1 0
unos en la diagonal y ceros en todas las demás entradas como se muestra en el
0 1
recuadro a la izquierda para una matriz de dos renglones y columnas.

El determinante de la matriz identidad es 1. det INN = 1

Prueba. Si laQpermutación σ ∈ SN no es la identidad entonces hay un i ∈ N tal que i 6= σi


y por lo tanto i∈N δiσ i = 0. Luego,
Sección 4.2 Propiedades básicas de los determinantes 111
X Y Y
det INN = sgn σ δiσ i = sgn (IN ) δii = 1.
σ∈ SN i∈N i∈N

Matrices con filas nulas

Si una matriz tiene una columna o un ren­


glón nulo entonces, su determinante es cero.
Q
Prueba. Cada sumando de los determinantes i∈N αiσ i contiene como factor una entrada
de cada renglón. Si un renglón es nulo entonces, todos estos sumandos tienen un factor cero
y por lo tanto la suma de todos ellos es cero. Lo mismo ocurre con las columnas.

El determinante de la transpuesta

Recordemos del capı́tulo anterior que dada una matriz


⎛ ⎞
αMN su transpuesta se define como la matriz βNM = α11 α12 α13 α14
αTMN tal que βij = αji . Gráficamente la operación de ⎜α21 α22 α23 α24 ⎟
⎜ ⎟
transponer una matriz es hacer una reexión con respecto ⎝α31 α32 α33 α34 ⎠
a la diagonal de la matriz. Observese que el conjunto de α41 α42 α43 α44
T
ı́ndices de los renglones de la matriz αTNM es M y no N
como se podrı́a pensar de los subı́ndices. La notación es
ası́ porque pensamos la transpuesta como la aplicación de la operación de transposición.

El determinante no se altera al transponer una matriz. det A = det AT

Prueba. Tenemos que demostrar que det αNN = det αTNN . Efectivamente, por la definición
X Y ∙ ¸ X Y
cambio de variable
det αNN =
T
sgn σ ασ i i = = sgn ω αω − 1 (i)i =
ω = σ−1
∙ N
σ∈ S i∈N ¸ X Y
ω∈ SN i∈N
cambio de variable
= = sgn ω αjω j = det αNN .
j = ω−1 (i)
ω∈ SN j∈N

Matrices con filas iguales

Si una matriz tiene dos columnas o dos renglo­


nes iguales entonces su determinante es cero.

Prueba. Supongamos que para αNN se tiene que αjM = αkM o sea, las columnas j y k son
iguales. Todo sumando del determinante depende exactamente de una entrada en la columna
112 Capı́tulo 4. Determinantes
j y de otra en la columna j. Luego, podemos
X escribir Y
det αNN = αjσ j αkσ k sgn σ αiσ i .
σ∈ SN i∈N\{j,k}
Denotemos ρ la transposición (j, k). La función Φ : SN 3 σ 7→ σ ◦ ρ ∈ SN es una biyección
y el sumando correspondiente a σ ◦ ρ es igual a Y
αjσk αkσ j sgn (σ ◦ ρ) αiσ i
i∈N\{j,k}
pero como αjM = αkM entonces, αjσ k αkσ j sgn (σ ◦ ρ) = −αjσ j αkσ k sgn σ. Esto signifi­
ca que Φ es una biyección que transforma a un sumando en su negativo y por lo tanto el
determinante es cero. La prueba para los renglones se obtiene transponiendo la matriz.

Permutaciones de columnas y renglones

Dada una matriz αMN y una permutación ω ∈ SN definimos la operación de permu­


tar las columnas de αMN mediante la permutación ω como la que resulta en la matriz
αMω(N) cuyas columnas son αMω − 1 (i) (¡observese el uso de la permutación inversa ω−1 !).
Gráficamente esta operación resulta en cambiar el orden de las
⎛ ⎞ columnas. Ası́ por ejemplo, el aplicar el ciclo (1, 2, 4) resulta en
α11 α12 α13 α14
⎜α21 α22 α23 α24 ⎟ el intercambio de columnas representado en el recuadro a la iz­
⎜ ⎟
⎝α31 α32 α33 α34 ⎠ quierda. Análogamente se define la operación de permutar los
α41 α42 α43 α44 renglones, para una permutación ρ ∈ SM la matriz αρ(M)N es
aquella cuyos renglones son αρ− 1 (j)N .

Al permutar las columnas o los renglones de det αNω(N) = sgn ω det αNN
una matriz con la permutación ω el determi­
nante se altera por un factor igual a sgn ω.

Prueba. Sea ω ∈ SN una permutación. Hay que demostrar det αNω(N) = sgn ω det αNN .
Efectivamente, por la definición tenemos ∙ ¸
X Y cambio de variable
det αNω(N) = sgn σ αiω − 1 (σi ) = =
ρ = ω−1 ◦ σ
X σ∈ S
YN i∈N X Y
= sgn (ω ◦ ρ) αiρi = sgn ω sgn ρ αiρi = sgn ω det αNN
ρ∈ SN i∈N ρ∈ SN i∈N
Con esto demostramos la proposición para las columnas. La demostración para los renglones
se obtiene transponiendo la matriz.

El determinante del producto


La última propiedad básica de los determinantes es probablemente la más importante
para el álgebra lineal. Como la demostración de esta propiedad es complicada, le recomiendo
al lector omitirla en una primera lectura. La complejidad de esta demostración es el precio
que tenemos que pagar por dar una definición directa del determinante.
Sección 4.2 Propiedades básicas de los determinantes 113

El determinante del producto de dos matrices es igual det AB = det A det B


al producto de los determinantes de las dos matrices.

Prueba. Sean A = αNN y B = βNN . Para el objeto de esta demostración denotemos por
FN el conjunto de todas las funciones de N en N. Claramente SN ⊂ FN . Denotemos además
TN al conjunto FN \ SN que es el de todas las funciones no biyectivas de N en N.
Por la definición de determinante y de producto de matrices tenemos
X YX
det AB = sgn σ αij βjσ i
σ∈ SN i∈N j∈N
Q P P Q
y usando la fórmula i∈N j∈N γij = ω∈ FN i∈N γiω i (Sec. 1.6, pág. 21) obtenemos
X X Y X X Y
det AB = sgn σ αiω i βω i σ i + sgn σ αiω i βω i σ i
σ∈ SN ω∈ TN i∈N σ∈ SN ω∈ SN i∈N

Denotando por ∇ el primer sumando nuestro determinante se convierte en


X X Y ∙ ¸
cambio de variable
=∇+ sgn σ αiω i βω i σ i = =
σ=ρ◦ω
σ∈ SN
X X
ω∈ SN i∈N
Y Y ∙ ¸
cambio de var
=∇+ sgn (ρ ◦ ω) αiω i βω j ρ(ω j ) = =
k = ωj
à N
ρ∈ S ω∈ SN !Ã
i∈N j∈N !
X Y X Y
=∇+ sgn ω αiω i sgn ρ βkρk = ∇ + det A det B
ω∈ SN i∈N ρ∈ SN k∈N

O sea, para completar la demostración tenemos que probar que ∇ = 0. Para esto recordemos
que AN es el subgrupo de las permutaciones pares e A− N es la clase lateral de todas las
permutaciones impares. Si observamos detenidamente la definición de ∇
X X Y
∇= sgn σ αiω i βω i σ i
ω∈ TN σ∈ SN i∈N
vemos que para probar ∇ = 0 es suficiente construir para cada ω ∈ TN una biyección
N tal que si θ = f (σ) entonces,
f : AN → A−
Y Y
αiω i βω i σi = αiω i βω i θi
i∈N i∈N
Esto nos garantizará que cada sumando positivo se cancele con otro negativo.
Sea ω ∈ TN arbitraria pero fija. Como ω no es una biyección existen j, k ∈ N tales que
ω (j) = ω (k) . Sea t ∈ A− N la transposición que intercambia j y k. Sea f : AN 3 σ 7→
σ ◦ t ∈ A−
N . La función f es biyectiva ya que su inversa es θ 7→ θ ◦ t. Además, tenemos
Y Y Y
αiω i βω i (σ◦t)i = αjω j βω j σ k αkω k βω k σ j αiω i βω i σi = αiω i βω i σi
i∈N i∈N\{j,k} i∈N
donde la última igualdad es válida porque ωj = ωk .
114 Capı́tulo 4. Determinantes
Matrices de permutaciones
Ahora queremos ver que 4.13 es un caso particular de 4.14. Esta es una buena disculpa
para introducir las matrices de permutaciones. Sea INω(N) la matriz identidad a la que se le
han permutado las columnas con la permutación ω ∈ SN . A INω(N) se le llama matriz de la
permutación ω. Lo interesante de las matrices de permutaciones es que al multiplicar por
ellas se permutan renglones o columnas.

El resultado del producto αMN INω(N) (de IMω(M) αMN ) es la


matriz αMN a la que se le han permutado las columnas (los
renglones) usando la permutación ω (la permutación ω−1 ).
P
Prueba. Sea γMN = αMN INω(N) . Tenemos γij = k∈N αik δkω − 1 (j) . Cada sumando es
cero a no ser que ω−1 (j) = k. Luego γij = αiω − 1 (j) lo que prueba la proposición para las
columnas. La demostración para los renglones es igual.
Observemos Qque det INω(N) = sgn ω. Efectivamente, en la definición de Q determinante
cada producto i∈N δiω − 1 (σ i ) es cero para cada ω 6= σ. Para ω = σ tenemos i∈N δii = 1
que está multiplicado por sgn ω. De aquı́, 4.14 y 4.15 dan una nueva prueba de 4.13.

Ejercicio 83 Haga la mutiplicación de matrices del µ ⎛


¶ 0 0 1

recuadro a la derecha. ¿La matriz de que permutación es 11 12 13 ⎝
1 0 0 ⎠
la de más a la derecha? ¿Concuerdan o no sus cálculos 21 22 23
0 1 0
con el resultado 4.15?

Denotemos M (ω) = IN ω (N ) . No es difı́cil probar que M (σ ◦ ω) = M (σ) M (ω) y que


¡ cualquier
¢
matriz de permutaciones tiene inversa (igual a su transpuesta). Luego M : SN → GL KN es un
morfismo
¡ ¢de grupos que es inyectivo. Esto significa que las matrices de permutaciones son un
subgrupo de GL KN que es isomorfo a SN . Esto es válido para cualquier campo K.

4.3 Expansión de Laplace


En esta sección encontraremos una descomposición de los determinantes como una com­
binación lineal de determinantes de matrices más pequeñas. Después veremos dos importan­
tes consecuencias de esta expansión: que los determinantes son funcionales multilineales y
que una matriz tiene inversa si y solo si esta tiene determinante diferente de cero.
Cambios de ı́ndices
Sea αMN y φ : N → L una biyección. Podemos construir una matriz βML = αMφ(N)
por la fórmula βij = αiφ − 1 (j) (¡observese el uso de la inversa φ−1 !). A esta operación la
llamaremos cambio de ı́ndices de las columnas de la matriz αMN mediante la biyección
Sección 4.3 Expansión de Laplace 115

φ. De la misma manera se definen los cambios de ı́ndices de los renglones. Observese que
las permutaciones de las columnas y los renglones son un caso particular de los cambios de
ı́ndices ya que una permutación no es más que una biyección de un conjunto en si mismo.
Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas coinci­
den. A este número común se le llama orden de la matriz. Necesitaremos los cambios de
ı́ndices para definir los determinantes de las matrices cuadradas. Ası́, si φ : N → M es una
biyección entonces, podrı́amos definir det αMN = det αMφ(N) . El único “pero” es que, en
principio, esta definición no solo depende de la matriz αNM sino también de la biyección φ.
El cuanto depende esta definición de φ lo responde la siguiente proposición.

Si φ y ϕ son dos biyecciones


¡ de −1
N¢en M enton­
ces, det αMφ(N) = sgn φ ◦ ϕ det αMϕ(N) .

Prueba. Observese que θ = φ ◦ ϕ−1 es una permutación de M y que las matrices αMφ(N) y
αMϕ(N) solo se diferencian en la permutación de las columnas θ. Aplı́quese 4.13.

No podemos poner la conclusión de este resultado como sgn φ det αMφ(N) =


sgn ϕ det αMϕ(N) ya que como φ y ϕ son biyecciones de N en M ninguna de
las dos tiene signo.
Como el signo de cualquier permutación es o 1 o −1 esto quiere decir que el determi­
nante det αNM está definido “salvo signo” o sea, que hay un elemento a ∈ K tal que el
determinante es a o es −a. En un campo de caracterı́stica dos esto es irrelevante ya que en
este caso 1 = −1. Sin embargo en los casos más importantes (R y C) de que el campo sea de
caracterı́stica diferente de dos tenemos una ambigüedad al definir el determinante det αNM .
Esta ambigüedad se resuelve en diferentes casos de varias maneras. En muchos casos no
nos interesa el valor concreto det αMN sino solamente saber si es cierto o no que det αMN =
0. Si este es el caso entonces, en realidad no nos importa que biyección se escogió para
calcular el determinante. Por ejemplo, una matriz cuadrada αMN se le llama singular si
det αMN = 0, en el caso contrario se le llama no singular. Es claro, que el ser singular o no
singular NO depende de la biyección escogida para definir det αMN . Otro ejemplo, es que si
una matriz tiene una columna o renglón nulo entonces su determinante es cero.
En otros casos lo importante no es el valor de algún determinante sino una igualdad entre
estos. Al cambiar los ı́ndices en ambos lados de la igualdad los determinantes cambian en el
mismo signo y la igualdad es cierta independientemente de los cambios de ı́ndices escogidos.
Por ejemplo, las igualdades det αMN = det αTMN y det (αLM βMN ) = det αLM det βMN son
válidas independientemente de los cambios de ı́ndices usados para definir los determinantes.

¡ ¢
Ejercicio 84 Pruebe que det αω(L)M βMθ(N) = det αω(L)M det βMθ(N) ∀ω, θ. [181]

En otros casos hay una biyección natural que nos dice cual debe ser el valor de det αMN .
116 Capı́tulo 4. Determinantes
Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales. En este caso
podemos siempre escoger la única biyección que conserva el orden. Por ejemplo si N =
{2, 3, 7} y M = {1, 4, 5} entonces la biyección adecuada es 2 → 1, 3 → 4, 7 → 5.
¿Y por que no escoger de los dos posibles valores aquel que sea mayor que cero?
Primero, a veces se necesita el valor del signo del determinante y segundo ¿que
quiere decir que 0 < x ∈ Z5 ? La desigualdad 0 < x solo tiene sentido si en el
campo está dada una relación de orden. Este es el caso de R pero no el de Zp ni el de C.
En muchos de los textos de álgebra lineal esta ambigüedad se resuelve postulando que los conjuntos
de ı́ndices siempre tienen que ser conjuntos de naturales. Esto no solamente es innecesario, sino
que también hace la exposición más compleja y conceptualmente menos clara. Por ejemplo, las
matrices de cambio de bases están naturalmente indexadas por conjuntos de vectores que no poseen un orden
natural. Más aún, en algunos textos, las pruebas son incompletas ya que inevitablemente hay que renumerar los
renglones y/o columnas y no se demuestra que los resultados son independientes de la renumeración.

Complementos algebraicos
Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual todo
es más fácil. Sea αNN una matriz y sean i, j ∈ N. La matriz αN\i N\j se obtiene de la
matriz αNN eliminando el renglón i y la columna j. ¿Habrá una manera natural de definir el
determinante de αN\i N\j ?. Veremos que si.
Sea ϕ : N\j → N\i. una biyección cualquiera. Podemos definir ϕ (j) = i y de esta
manera ϕ se convierte en una permutación de N. Definamos el de­
sgn ϕ det αN\i ϕ(N\j)
terminante det αN\i N\j con la expresión del recuadro a la derecha.
Parecerı́a que no hemos hecho nada ya que en principio esta definición depende de ϕ.

La expresión sgn ϕ det αN\i ϕ(N\j) no depende de ϕ.

Prueba. Sea ω otra permutación de N tal que ω (j) = i. Aquı́ hay que tener cuida­
do. Por un lado ω es una biyección de N\j en N\i y por otro es una permutación de N.
Otro tanto ocurre con ϕ. Para evitar confuciones, a las permutaciones de N las denotaremos
en esta
¡ demostración
¢ por ω^ yϕ ^ respectivamente. Por 4.16 tenemos que det αN\i ω(N\j) =
sgn ω ◦ ϕ−1 det αN\i ϕ(N\j) . Observese que ω◦ϕ−1 es una permutación de N\i. ¿Que pasa
con ω◦
^ ϕ^ −1¡? Pues, en¢ todo elemento
¡ de ¢N\i coincide con ω◦ϕ−1 y además ω◦^ ϕ ^ −1 (i) = i.
Luego sgn ω ◦ ϕ−1 = sgn ω ^ ◦ϕ^ −1 y por las propiedades de la función signo se tiene
¡ −1
¢
que sgn ω ^ ◦ϕ ^ = sgn ω ^ Luego det αN\i ω(N\j) = sgn ω
^ sgn ϕ. ^ sgn ϕ
^ det αN\i ϕ(N\j) y
pasando sgn ω ^ al otro lado de la igualdad terminamos la prueba.
Ahora, podemos dar la siguiente definición. Si αij es una entrada de la matriz A = αNN
entonces el complemento algebraico de αij es α∗ij = sgn ω det αN\i ω(N\j) donde ω es
cualquier permutación de N tal que ω (j) = i. A los complementos algebraicos también se
les llama cofactores. La matriz α∗NN cuyas entradas son los complemento algebraicos α∗ij es
la matriz de los complementos algebraicos de αNN o matriz de cofactores de αNN .
Sección 4.3 Expansión de Laplace 117

La expansión de un determinante por sus renglones

Teorema de Expansión de Laplace


X
Sea αiN un renglón arbitrario de la matriz αNN . det αNN = αiN α∗iN = αij α∗ij
El determinante de αNN es igual a la suma de j∈N

las entradas del renglón por sus cofactores.

Prueba. Si i ∈ N entonces tenemos la partición del grupo simétrico en el [


recuadro a la derecha donde Si→jN = {σ ∈ SN | σ (i) = j} . Luego, aplicando la Si→j
N
definición de determinante y sacandoX
factor común
X obtenemosY j∈N
det αNN = αij sgn σ αnσ n
j∈N i→ j n∈N\i
σ∈ SN

Sea ω una permutación de N tal que ω (j) = i. Hagamos el cambio de variable ρ = ω◦σ
en la sumatoria interior. Tenemos ρ (i) = i o sea, ρ ∈ Si→i = SN\i . Luego,
X X Y N X
det αNN = αij sgn ω sgn ρ αnω − 1 (ρn ) = αij α∗ij
j∈N ρ∈ SN \ i n∈N\i j∈N

donde la última igualdad se obtiene por la definición de α∗ij .


Como es natural hay un teorema exactamente igual a este correspondiente a las columnas.
La expansión de Laplace en forma gráfica
El Teorema de expansión de Laplace es la primera herramienta (aparte de la definición)
de que disponemos para calcular determinantes. Este reduce el problema a calcular varios
determinantes de matrices más pequeñas. Es especialmente útil cuando hay renglones (o
columnas) con muchos ceros.
Sin embargo, todavı́a debemos precisar el como calcular los cofactores en forma gráfica.
Si bien, la definición de estos es sencilla necesitamos encontrar una biyección simple de N\i
en N\j que facilite los cálculos cuando N está ordenado o sea N = {1, ..., n}.
Sea por ejemplo i = 2 y j = 7. En este caso la biyec­
1 3 4 5 6 7 8 ... n
ción natural de N\2 en N\7 es la que se muestra en el
↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓
recuadro a la izquierda y la llamaremos ϕ. Tenemos que
1 2 3 4 5 6 8 ... n
definir ϕ (2) = 7 para completar una permutación de N.
Sabemos que ϕ transforma 7 7→ 6 7→ 5 7→ 4 7→ 3 7→ 2 7→ 7 y que deja fijos a todos los
demás elementos de N. Luego, ϕ es un ciclo de longitud j − i + 1 (si i > j entonces es un
ciclo de longitud i − j + 1).
Como todo ciclo de longitud par tiene signo negativo y todo de ⎛ ⎞
i+j + − + −
longitud impar tiene signo positivo obtenemos sgn ϕ = (−1) lo ⎜
− + − + ⎟
que es muy sencillo ya que es la “regla del tablero de ajedrez”. A ⎜ ⎝ + − + − ⎠

la derecha se muestra el sgn ϕ para una matriz con 4 renglones y
− + − +
columnas. Observese el parecido con el tablero.
118 Capı́tulo 4. Determinantes
Con estas permutaciones, los complementos algebraicos tienen una interpretación gráfi­
ca muy sencilla. Si se quiere sacar el complemento algebraico de αij entonces táchese el
⎛ ⎞ renglón i, táchese la columna j, sáquese el determinan­
α11 α12 α13 α14 te de la matriz que queda y finalmente multiplı́quese
⎜ α21 α22 α23 α24 ⎟ por el signo de la regla del tablero de ajedrez. Ası́ por
− det ⎜ ⎟
⎝ α31 α32 α33 α34 ⎠ ejemplo, en el recuadro a la izquierda se muestra una
α41 α42 α43 α44 matriz de orden cuatro en la cual estamos calculando el
complemento algebraico de α23 .
Al matemático y fı́sico Pierre­Simon Laplace (Francia 1749­1827) se le
conoce fundamentalmente por sus trabajos en mecánica celeste, ecuacio­
nes diferenciales y teorı́a de las probabilidades. El publicó la demostración
del Teorema de Expansión de Laplace (4.18) en 1772 en un artı́culo donde
estudiaba las órbitas de los planetas interiores del sistema solar. En este
artı́culo, Laplace analizó el problema de solución de sistemas de ecuacio­
nes lineales mediante el uso de determinantes.

Ejercicio 85 Tóme una matriz y calcule su determinante usando el teorema de descompo­


sición de Laplace. Repita hasta que usted esté satisfecho.
Ejercicio 86 Demuestre que el determinante de la matriz αij = xi−1 j
Y
(xj − xi )
es igual a la expresión en el recuadro a la derecha. A este determinante
1≤i<j≤n
se le conoce como determinante de Vandermonde.
[181]

La expansión de Laplace reduce el cálculo del determinante de una matriz al cálculo de determi­
nantes de matrices más pequeñas. Por esto es también usada para dar la definición de determinante
mediante inducción. En este caso, la fórmula de Leibniz es una consecuencia de esta definición.

Multinearidad de los determinantes

El determinante se puede ver como una función del espacio de matrices en el cam­
µ ¶ po. ¿Será el determinante una TL? ¿Se cumplirá que det (A + B) =
1 0
A= det A+det B? La respuesta es NO. Para probar que no, basta ver un ejem­
µ 0 0 ¶ plo. Consideremos las matrices A y B definidas a la izquierda. Tenemos
0 0
B= det A + det B = 0 6= 1 = det (A + B). Sin embargo, los determinantes
0 1
cumplen una propiedad bastante parecida.
Sea E un espacio vectorial sobre el campo K. A las TL de E en K se le llama funcio­
nales lineales del espacio E. En esta terminologı́a vemos que la propiedad det (A + B) 6=
det A + det B lo que quiere decir es que el determinante NO es un funcional lineal del es­
pacio vectorial de las matrices. Pasemos a considerar una función f con valor en K de dos
variables x, y que toman sus valores en E o sea, f : E2 3 (x, y) 7→ f (x, y) ∈ K. Como
E2 es un espacio vectorial sobre K entonces podrı́a suceder que f sea un funcional lineal.
Sección 4.3 Expansión de Laplace 119

Sin embargo, hay una propiedad un poco más sutil que podrı́a cumplir la función f y es
que sea lineal en la primera variable. En otras palabras, que ∀y ∈ E se cumple que
f (a + b, y) = f (a, y) + f (b, y) y f (λa, y) = λf (a, y). Análogamente, se define la
propiedad de que f sea lineal en la segunda variable. Si f es lineal en las dos variables
entonces, se dice que f es un funcional bilineal (el “bi” es porque son dos variables).
Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo caso
nos referiremos a los funcionales multilineales. Más rigurosamente, sea f : EN → K una
función donde N es un conjunto de variables. Sea i ∈ N una variable. Podemos pensar
a f como una función de dos variables f : EN\i ⊕ E → K. Si ∀y ∈ EN\i la función
E 3 x 7→ f (y, x) ∈ K es un funcional lineal entonces, diremos que f es lineal en la
variable i. Diremos que f es un funcional multilineal si f es lineal en todas sus variables.
Por ejemplo, la función f : R3 3 (x, y, z) 7→ x+y+z ∈ R es un funcional lineal. La función
g : R3 3 (x, y, z) 7→ xyz ∈ R es un funcional multilineal porque (x + x0 ) yz = xyz + x0 yz
y también para las otras variables. Observese que f no es multilineal y que g no es lineal.
Ahora queremos ver que los determinantes son funcionales multilineales. El espacio de
¡ ¢N
matrices KNN es isomorfo a KN . Un isomorfismo de estos es el que a cada matriz le hace
corresponder la N­ada de sus renglones. Luego, podemos pensar el determinante como un
funcional cuyas variables son los renglones y que toma valores en el campo.

El determinante es un funcional multilineal de los renglones.

Prueba. Para probar que un funcional es multilineal hay que probar que es lineal en cada
variable. Sea i ∈ N arbitrario pero fijo en toda esta prueba. Sea A = αNN una matriz tal
que su i­ésimo renglón es la suma de dos N­adas xN y yN . Sea B la misma matriz que A
excepto que su i­ésimo renglón es xN . Sea C la misma matriz que A excepto que su i­ésimo
renglón es yN . Tenemos que probar que det A = det B + det C. (Si el lector no entiende
porqué entonces, debe regresar al principio de esta sección y volver a pensar la definición de
funcional multilineal y el porqué el determinante es un funcional de los renglones.) Usando
la descomposición de Laplace por el renglón i obtenemos
det αNN = αiN α∗iN = (xN + yN ) α∗iN = xN α∗iN + yN α∗iN = det B + det C
donde la última igualdad se cumple porque los cofactores de las matrices B y C de las
entradas del renglón i son los mismos que los de la matriz αNN .
Sea ahora A = αNN una matriz tal que su i­ésimo renglón es λxN . Sea B la misma matriz
que A excepto que su i­ésimo renglón es xN . Usando la descomposición de Laplace por el
renglón i obtenemos det αNN = αiN α∗iN = λxN α∗iN = λ det B.
Por transposición el determinante es también un funcional multilineal de las columnas.
Los determinantes son los únicos funcionales multilineales de los renglones que son iguales a 1
en la matriz identidad y que cambian por un factor de sgn θ cuando se permutan los renglones
con la permutación θ. Esto permite dar una definición alternativa de los determinantes. El primer
problema aquı́ es demostrar la existencia del determinante.
120 Capı́tulo 4. Determinantes
La inversa de una matriz
Recordemos que, dada una matriz αMN decimos que βNM = α−1 MN es la matriz inversa
de αMN si se cumple que αMN αMN = IMM y αMN αMN = INN . Mediante el isomorfismo
−1 −1

de las matrices con las TLs concluimos que αMN y α−1 MN son la matrices de dos TLs una
la inversa de otra y por lo tanto estas TLs son isomorfismos. Luego, si αMN tiene inversa
entonces, ella es cuadrada.
Sea ϕ : N → M cualquier biyección. Es fácil ver usando la definición de cambio de
ı́ndices que βNM = α−1 MN si y solo si βϕ(N)M = αMϕ(N) . O sea, cualquier cambio de ı́ndices
−1

apropiado reduce el cálculo de matrices inversas al caso en que el conjunto de columnas


coincide con el conjunto de renglones. Por esto, nos olvidaremos un poco de los ı́ndices para
poder enunciar más fácilmente nuestros resultados.
La siguiente proposición nos dice que para probar que una matriz es inversa de otra es
suficiente comprobar una de las dos igualdades involucradas en la definición. Aquı́, la clave
es que las matrices son finitas y cuadradas lo que significa que sus TLs son entre espacios de
la misma dimensión finita.

Si AB = I entonces, BA = I.

Prueba. Sea f, g : KM → KM las TLs de las matrices A y B respectivamente. Mediante


el isomorfismo de las matrices con las TLs concluimos que f ◦ g = I. De 3.32 (página 96)
obtenemos que g ◦ f = I y por lo tanto BA = I.

Si una matriz tiene inversa entonces ella es


no singular. Además, det A−1 = (det A)−1 .
¡ ¢
Prueba. Por definición de matriz inversa tenemos 1 = det I = det AA−1 = det A det A−1
y por lo tanto det A 6= 0 y det A−1 = (det A)−1 .
Para probar que el recı́proco de esta afirmación también es cierto, lo que haremos es
construir la matriz inversa en el caso de que el determinante sea diferente de cero.

Si A es una matriz no singular entonces, su A∗T


A−1 =
inversa es la transpuesta de la matriz de sus det A
cofactores dividida por el determinante de A.

Prueba. Para hacer la demostración lo que hay que hacer es multiplicar. Sea αMM = A
y B = βMM = (det A)−1 A∗T . Tenemos βMj = (det A)−1 α∗jM y de la definición de pro­
ducto de matrices obtenemos que la entrada ij de la matriz AB es igual a αiM βMj =
(det A)−1 αiM α∗jM . Si i = j entonces αiM α∗jM es la expansión de Laplace del det A por
el renglón i de lo que obtenemos que αiM βMj = 1.
Sección 4.4 La expansión generalizada de Laplace 121

Solo queda probar que αiM α∗jM = 0 si i 6= j. Si nos fijamos atentamente, vemos que esta
es la expansión de Laplace por el renglón j del determinante de la matriz C obtenida de la
matriz A substituyendo el renglón j por el renglón i. Como la matriz C tiene dos renglones
iguales entonces, su determinante es cero y necesariamente αiM α∗jM = 0.

El determinante de un operador lineal


Sea f ∈ End E un OL. Si escogemos una base de E entonces en esta base el OL f tiene
por coordenadas una matriz A. Podrı́amos definir det f = det A. Sin embargo, no nos queda
claro si esta definición depende o no de como hallamos escogido la base.

Si A y B son las matrices de f ∈ End E


en dos bases entonces, det A = det B.

Prueba. Sean A = αMM y B = βNN las matrices de f en las bases M y N respectivamente.


Por la fórmula del cambio de bases para matrices (3.23) tenemos B = γNM Aγ−1 NM donde
γNM es la matriz de cambio¡ de la base M¢ a la base N. Tenemos
det βNN = det γNM αMM γ−1 NM = det γNM det αMM det γNM = det αMM
−1

ya que por 4.21 la igualdad det γNM (det γNM )−1 = 1 es cierta e independiente del cambio
de ı́ndices que se utilize para definir el determinante de γNM .
Luego, el determinante del OL f es por definición del determinante de su matriz en
alguna base y esto no depende de la base escogida.

4.4 La expansión generalizada de Laplace

Ahora generalizaremos dramáticamente el teorema de expansión de Laplace. Sea αNN


una matriz y I, J subconjuntos de N de la misma cardinalidad. Para ahorrarnos mucha escritu­
ra, denotemos I0 = N\I y J0 = N\J. Además, denotemos por ∇IJ = det αIJ el determinante
de la matriz cuyas columnas son las de J y cuyos renglones son los de I. Claro, este de­
terminante está definido solo salvo signo. De los signos no nos preocuparemos ahora sino
solo más adelante. Por otro lado, denotemos por ∆IJ = det αI0 J0 el determinante de la matriz
cuyas columnas son las que no están en J y cuyos renglones son los que no están en I (no nos
preocupemos por los signos). En estas notaciones, un sumando del Teorema de expansión de
Laplace es de la forma ∇IJ ∆IJ donde I y J son subconjuntos de cardinal 1. Nos gustarı́a tener
un teorema de expansión donde los subconjuntos sean de un cardinal fijo pero arbitrario.
Para esto, ahora si nos tenemos que preocupar por los signos. Sin embargo, la siguiente
proposición nos dice que esto realmente no es un proble­ ¯
φ1 (x) si x ∈ J
ma. Sean φ1 : J → I y φ2 : J → I dos biyecciones. φ (x) =
0 0
φ2 (x) si x ∈ L
Denotemos φ = φ1 ∪ φ2 la permutación de N definida en
el recuadro a la derecha.
122 Capı́tulo 4. Determinantes

La expresión sgn φ det αIφ 1 (J) det αI0 φ 2 (J0 )


no depende de las biyecciones φ1 y φ2 .

Prueba.
¡ Sean ¢ϕ1 y ϕ2 otras dos biyecciones y ϕ ¡ = ϕ1 ∪ϕ ¢2 . Por 4.16 tenemos det αIφ 1 (J) =
sgn φ1 ◦ ϕ−1 1 det αIϕ 1 (J) y det α 0 0
I φ 2 (J ) = sgn φ 2 ◦ ϕ−1
2 det αI0 ϕ 2 (J0 ) . Multiplicando estas
dos igualdades vemos que ¡ solo nos ¢queda¡ probar−1 que
¢ ¡ ¢
sgn φ1 ◦ ϕ1 sgn φ2 ◦ ϕ2 = sgn φ ◦ ϕ−1 .
−1

Para esto, denotemos θ1 = φ1 ◦ ϕ−1 1 , θ2 = φ2 ◦ ϕ2 y θ = φ ◦ ϕ . De las definiciones es


−1 −1

inmediato que θ (y) = θ1 (y) si y ∈ I y θ (y) = θ2 (y) si y ∈ I . Como θ1 ∈ SI , θ2 ∈ SI0 ,


0

θ ∈ SN y los conjuntos I, I0 son complementarios en N entonces, θ = θ1 ◦ θ2 = θ2 ◦ θ1 y


esto implica la igualdad de los signos que necesitabamos.
Ahora, para I, J subconjuntos de N definamos ∇IJ y ∆IJ con ∇ = det α
IJ Iφ(J)
las fórmulas de la derecha donde φ denota una permutación (ar­ ∆ = sgn φ det α 0 0
IJ I φ(J )
bitraria pero la misma para las dos definiciones) tal que φ (J) = I
(y en consecuencia φ (J0 ) = I0 ). Esta definición no es correcta en el sentido de que ambos
∇IJ y ∆IJ dependen de φ. Sin embargo ∇IJ ∆IJ no depende de φ y esto es lo importante.

Expansión Generalizada de Laplace


X
Si I un conjunto dePp renglones de la matriz αNN en­ det αNN = ∇IJ ∆IJ
tonces, det αNN = ∇IJ ∆IJ donde la suma recorre to­ |J|=p
dos los subconjuntos de columnas J de cardinalidad p.

Prueba. Si I ⊆ N y |I| = p entonces, tenemos la partición del grupo simétrico [


a la derecha donde SI→J
N = {σ ∈ SN | σ (I) = J}. Aplicando la definición de SI→J
N
determinante obtenemos X X Y
det αNN = sgn σ αnσ n |J|=p

|J|=p σ∈ SI → J n∈N
N
Sea φ una permutación de N tal que φ (J) = I. Hagamos el cambio de variable ρ = φ ◦ σ.
Entonces, X X Y
det αNN = sgn φ sgn ρ αiφ − 1 (ρn )
|J|=p I→I
ρ∈ SN n∈N

Como ρ (I) = I entonces, ρ (I ) = I . Luego ρ se puede descomponer en la composición de


0 0

dos permutaciones θ ◦ ω donde θ ∈ SI y ω ∈ SI0 . Substituyendo ρ por θ ◦ ω la suma se


convierte en suma doble y si sacamos factores comunes⎛ obtendremos: ⎞
à !
X X Y X Y
det αNN = sgn φ sgn θ αiφ − 1 (θn ) ⎝ sgn ω αiφ − 1 (ω n ) ⎠
|J|=p θ∈ SI n∈I ω∈ SI 0 n∈I0
Lo contenido en el primer paréntesis es det αIφ(J) = ∇IJ . Lo contenido en el segundo
paréntesis es det αI0 φ(J0 ) y este determinante multiplicado por sgn φ es ∆IJ .
Como ya es costumbre tediosa, hagamos la observación de que también es válida la
Expansión Generalizada de Laplace cuando la hacemos por un conjunto de columnas.
Sección 4.4 La expansión generalizada de Laplace 123

Matrices diagonales y triangulares por bloques


Sea αMM una matriz. Supongamos que existe una partición M1 ∪ · · · ∪ Mt = M y que
αij = 0 si i y j pertenecen a bloques diferentes. Entonces decimos que αMM es diagonal
por bloques. Si cada Mi contiene un solo ı́ndice entonces decimos que αMM es diagonal.
Supongamos ahora que, para la partición M1 ∪ · · · ∪ Mt = M se cumple que si i ∈ Mp ,
j ∈ Mq y p < q entonces αij = 0. En este caso, decimos que αMM es triangular por
bloques. Si cada Mi tiene un solo ı́ndice entonces decimos que αMM es triangular. Es
claro de las definiciones que toda matriz diagonal por bloques es triangular por bloques. En
particular, toda matriz diagonal es triangular.

Si αMM es una matriz triangular por bloques entonces,


Q
det αMM = ti=1 det αM i M i .

Prueba. Haremos la prueba por inducción en el número de bloques t. Para t = 1 la propo­


sición es trivial. Denotemos M0 = M\M1 . Aplicando la expansión
P generalizada de Laplace
al conjunto de renglones I = M1 obtenemos det αMM = |J|=|I| ∇IJ ∆IJ .
Si J 6= I entonces, en αIJ hay una columna j ∈ / M1 y por lo tanto j ∈ Mq con 1 < q.
Luego, por definición de matriz triangular, ∀i ∈ I = M1 se tiene que αij = 0. O sea, la
columna j es cero en αIJ e independientemente de la biyección que se escoja para calcu­
lar el deteminante tenemos ∇IJ = 0. Luego, det αMM = ∇II ∆II = det αM 1 M 1 det αM 0 M 0 .
La matriz M0Q es triangular por bloques con un bloque menos y por hipótesis de inducción
det αM 0 M 0 = ti=2 det αM i M i .

Ejercicio 87 ¿Cuales
⎛ de las siguentes
⎞ ⎛matrices son
⎞ triangulares?
⎛⎞
a 0 0 a 1 1 a 1 1
A =⎝ 1 b 0 ⎠B =⎝ 0 b 1 ⎠C =⎝ 0 b 0 ⎠ [182]
1 1 c 0 0 c 0 1 c
Ejercicio 88 Sean M = {1, . . . , 5} y αMM una matriz triangular por los bloques M1 =
{1, 2}, M2 = {3} y M3 = {4, 5}. ¿Cual es el aspecto de αMM en forma gráfica? [182]

La expansión generalizada de Laplace en forma gráfica


Ahora, precisaremos los signos de las biyecciones en la expansión generalizada de La­
place cuando la matriz está dada en forma gráfica. Como esto es útil solo para calcular el
determinante de matrices concretas y hacerlo ası́ es por lo general extremadamente inefi­
ciente y complicado, recomiendo omitir en una primera lectura lo que resta de esta sección.
Si N = {1, . . . , n} entonces, entre dos cualesquiera subconjuntos I, J ⊆ N del mismo
cardinal hay una biyección natural que conserva el orden. Para esto, introduscamos la nota­
ción {m1 , m2 , . . . , mt }< para señalar que ∀p ∈ {2, . . . , t} se tiene que ip−1 < ip . Ahora, si
I = {i1 , . . . , it }< y J = {j1 , . . . , jt }< entonces, la biyección es φ1 : I 3 ip 7→ jp ∈ J. Tam­
124 Capı́tulo 4. Determinantes
bién, tenemos una biyección natural entre los complementos de I y J. Para esto sean K =
N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< y definamos φ2 : K 3 kp 7→ `p ∈ L. Luego,
para cualesquiera subconjuntos I, J ⊆ N del mismo cardinal la permutación φJI = φ1 ∪ φ2
cumple lo necesario para calcular el signo de un sumando de la expansión generalizada de
Laplace, o sea φJI (I) = J y φJI (N\I) = N\J.
Observese, que la biyección φ1 es la natural de renglones a columnas que se obtiene si
en una matriz αNN tachamos todos los renglones con ı́ndices en K y todas las columnas con
ı́ndices en L. De la misma manera φ2 es la biyección de renglones a columnas si tachamos
todos los renglones con ı́ndices en I y todas las columnas con ı́ndices en J.
Calculemos el signo de φJI . Al estudiar la expansión (normal) de Laplace en forma gráfica
vimos que si I = {i} y J = {j} entonces, φJI = φji es (j, j − 1, · · · , i + 1, i) si j > i
el ciclo que se muestra a la derecha y por lo tanto (j, j + 1, · · · , i − 1, i) si j < i
sgn φji = (−1)i+j (la regla del “tablero de ajedrez”).

J\j
sgn φJI = sgn φji11 sgn φI\i11 .

¡ ¢−1 J\j
Prueba. Sea θ = φJI ◦ φI\i11 . Tenemos que demostrar que sgn θ = (−1)i1 +j1 . Para
esto, recordemos que K = N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< . Sea p el menor
ı́ndice tal que i1 < kp y sea q el menor ı́ndice tal que j1 < `q (es admisible que p = s+1 y/o
q = s + 1). Usando la definición de θ calculamos
(kp , kp+1 , · · · , kq−1 , i1 ) si p < q
que esta permutación es igual a la del recuadro a la
(kp−1 , kp−2 , · · · , kq , i1 ) si p > q
izquierda. Luego, θ es siempre un ciclo de longitud
I si p = q
|p − q| + 1 y por lo tanto sgn θ = (−1)p+q .
Como i1 y j1 son los elementos más pequeños de I y J respectivamente entonces, tenemos
que {k1 , . . . , kp−1 , i1 }< = {1, . . . , p − 1, p} y {`1 , . . . , `q−1 , j1 }< = {1, . . . , q − 1, q} y de
aquı́ finalmente, p = i1 y q = j1 .

Iterando este resultado obtenemos sgn φJI = sgn φji11 sgn φji22 · · · sgn φjitt . Observese que
αir jr son las entradas en la diagonal de la submatriz αIJ de αNM . Luego, para hallar sgn φJI lo
que hay que hacer es multiplicar los signos de la regla del tablero de ajedrez P de los elementos
P
en la diagonal de αIJ . También se puede hacer, calculando la paridad de i∈I i + j∈J j.
⎛ ⎞ Ejemplo. Calculemos el determinante de una matriz αNN del recuadro
4 5 1 1
⎜ 1
⎜ 2 3 2 ⎟

a la izquierda haciendo la expansión generalizada de Laplace por el con­
⎝ 4 5 2 3 ⎠ junto I del segundo y cuarto renglones. Tenemos que recorrer todos los
1 2 3 4 subconjuntos J de dos columnas.
Observese, que si la columna 4 no está en J entonces la matriz αIJ tiene dos renglones
iguales por lo que todos los sumandos correspondientes en la expansión serán cero. Además,
para J = {3, 4} la matriz αN\I N\J tiene dos renglones iguales por lo que también el corres­
pondiente sumando es cero.
Sección 4.5 El rango de una matriz 125

Solo nos quedan dos sumandos cuando J = {1, 4} y cuan­


J = {1, 4} J = {2, 4}
do J = {2, 4}. Para ellos podemos extraer del tablero de aje­ µ − + ¶ µ + + ¶
drez las submatrices del recuadro a la derecha y multiplican­ − + + +
{1,4}
do los signos en las diagonales obtenemos sgn φI = −1 y
{2,4}
sgn φI = 1. Luego, por la expansión generalizada de Laplace el determinante de nuestra
matriz es igual a
¯ ¯¯ ¯ ¯ ¯¯ ¯
¯ 2 2 ¯¯ 4 1 ¯ ¯ 1 2 ¯¯ 5 1 ¯
¯ ¯¯ ¯−¯ ¯¯ ¯
¯ 2 4 ¯¯ 4 2 ¯ ¯ 1 4 ¯¯ 5 2 ¯ = 4 × 4 − 2 × 5 = 6
donde usamos las barras verticales para ahorrar espacio al denotar los determinantes.

4.5 El rango de una matriz

En esta sección definiremos las bases de una matriz como las submatrices más grandes
con determinante diferente de cero. Probaremos que las bases de una matriz definen y están
definidas por las bases de los espacios de columnas y renglones. Esto es el fundamento de
los diversos métodos de solucion de los sistemas de ecuaciones lineales.
Matrices no singulares
Agrupemos en un solo resultado lo que hemos probado para las matrices no singulares.

Caracterización de Matrices No Singulares

Para cualquier matriz cuadrada A las


siguientes afirmaciones son equivalentes:
1. A tiene inversa, 3. los renglones de A son LI,
2. A es no singular, 4. las columnas de A son LI.

Prueba. La implicación 1⇒2 es el resultado 4.21. La implicación 2⇒1 es el resultado 4.22.


La equivalencia 1⇔4 es el resultado 3.21 (página 89). De aquı́, 2⇔4 y como los determi­
nantes no cambian por transposición obtenemos 2⇔3.

Espacios de columnas y renglones

Al subespacio de KN generado por los renglones de la matriz αMN se le llama espacio de


renglones de la matriz. Aquı́ tenemos un pequeño problema: es posible que halla renglones
iguales y los conjuntos no distinguen elementos iguales. Por esto, diremos que un conjunto
de renglones es LI si ellos son distintos dos a dos y es LI en el espacio de renglones de
la matriz. Un conjunto de renglones distintos dos a dos que es una base del espacio de
renglones lo llamaremos base de los renglones de αMN . Análogamente se define el espacio
de columnas de una matriz, los conjuntos de columnas LI y las bases de las columnas.
Reformulemos el resultado 3.30 (página 95) en el lenguaje de matrices.
126 Capı́tulo 4. Determinantes

Las dimensiones del espacio de columnas y del


espacio de renglones de una matriz coinciden.

Prueba. Sea αMN una matriz. Observemos que la TL de esta matriz definida por f : KN 3
βN 7→ αMN βN ∈ KM tiene como imagen al espacio de columnas de la matriz αMN ya que
f evaluada en los vectores de la base canónica de KN resulta en las columnas de αMN . Por
lo mismo, la TL transpuesta fT tiene como imagen al espacio de renglones de αMN . Por 3.30
las dimensiones de estos espacios coinciden.
A la dimensión de los espacios de renglones y columnas se le llama rango de la matriz.
Lema de aumento de matrices no singulares
El siguiente lema es parte importante de las demostraciones de los que siguen. Su de­
mostración es clásica e ingeniosa. Este lema es en cierta manera análogo al lema de aumento
de conjuntos LI que vimos en el Capı́tulo 2.

Lema de Aumento de Submatrices No Singulares

Sea αIJ una submatriz cuadrada no singular de αMN . Sea m ∈ M\I


tal que el conjunto de renglones indexado por I ∪ m es LI.
Entonces, existe n ∈ N tal que la matriz αI∪m J∪n es no singular.

Prueba. Denotemos Bn = αI∪m J∪n . Al absurdo, supongamos que ∀n ∈ N\J se cumple


que det Bn = 0.. Si n ∈ J entonces, denotemos por Bn la matriz αI∪m J a la que artifi­
cialmente le agregamos otra columna n. En este caso Bn tiene dos columnas iguales y por
lo tanto también det Bn = 0. Para cualquier n, podemos pensar la matriz Bn gráficamente
como se muestra en el recuadro. Sean Bin los cofactores de las µ ¶
αIJ αIn
entradas de la última columna en la matriz Bn . Observemos que Bn =
αmJ αmn
en la definición de los Bin no están involucradas las entradas de
la última columna. Luego, Bin no depende de n y podemos denotar Bin = βi ∈ K. De la
expansión de Laplace por la última columna
X en la matriz X Bn obtenemos:
0 = det Bn = αin Bin = αin βi .
i∈M i∈M
Como esto es válido ∀n ∈ N concluimos que βM αMN = 0N . Como βm = det αIJ 6= 0 esto
significa que los renglones de αMN están en una combinación lineal nula con coeficientes no
todos nulos. Esto contradice la hipótesis de que sus renglones son LI.

Bases de una matriz


Sea αMN una matriz. Entre las submatrices cuadradas no singulares de αMN tenemos la
relación de contención
(αI0 J0 ⊆ αIJ ) ⇔ (I0 ⊆ I y J0 ⊆ J)
Una base de αMN es una submatriz no singular maximal por contención.
Sección 4.5 El rango de una matriz 127

Caracterización de las Bases de una Matriz

Una submatriz αIJ es una base de una matriz si y solo si el con­


junto de renglones indexado por I es una base de los renglones y el
conjunto de columnas indexado por J es una base de las columnas.

Prueba. Sea αIJ una submatriz de αMN . Es conveniente deno­ µ ¶


αIJ αIY
tar X = M \ I y Y = N \ J y pensar que αMN es de la forma en αMN =
αXJ αXY
el recuadro a la derecha. Supongamos que αIJ es cuadrada y que
es una base de αMN . Entonces, por la Caracterización de Matrices No Singulares (4.28) los
renglones y las columnas de αIJ son LI y con más razón los renglones de αIN y las columnas
de αMJ son LI .
Si estos renglones de αIN no son una base de los renglones de αMN entonces, existe otro
renglón indexado por m ∈ X tal que el conjunto de renglones indexado por I ∪ m es LI y por
el Lema de Aumento de Submatrices No Singulares (4.30) existe n ∈ Y tal que αI∪m J∪n es
no singular y esto contradice la suposición de que αIJ es una base. Luego, los renglones de
αIN son una base de los renglones y por 4.29 las columnas de αMJ son una base del espacio
de columnas.
Recı́procamente, supongamos que los renglones de αIN y las columnas αMJ son bases
de los renglones y las columnas de αMN respectivamente. Por 4.29, la submatriz αIJ es
cuadrada. Sabemos que los renglones de αIN son LI. Las columnas de αMJ es un generador
del espacio de columnas de αMN y con más razón las columnas de αIJ son un generador del
espacio de columnas de αIN . Aplicando 4.29 a la matriz αIN obtenemos que las columnas
de αIJ son un generador con la misma cantidad de vectores que la dimensión del espacio y
por lo tanto son LI. Por la Caracterización de Matrices No Singulares (4.28) la matriz αIJ es
no singular.
Si hubiera una submatriz αI∪m J∪n no singular entonces por la Caracterización de Matri­
ces No Singulares (4.28) sus renglones serı́an LI y con más razón los renglones de αI∪m N
serı́an LI. Esto contradice que los renglones de αIN es una base de los renglones de αMN .
Luego, αIJ es una base de la matriz αMN .

Una consecuencia importante de la Caracterización de las Bases de una Matriz (4.31) es


que todas las bases de una matriz tienen orden igual al rango de la matriz.

Ejercicio 89 Sean E = F ⊕ G espacios vectoriales y xi = (yi , zi ) vectores donde xi ∈ E,


yi ∈ F y zi ∈ G. Pruebe que si los yi son LI entonces los xi son LI. Pruebe que si los
xi son generadores entonces los yi son generadores. Esto es lo que se usa en la prueba de
la Caracterización de las Bases de una Matriz (4.31) cada vez que se usa la frase “con más
razón”.
128 Capı́tulo 4. Determinantes
4.6 Sistemas de ecuaciones lineales

Sea A = αNM una matriz y xM = xM1 una columna. El producto X


de estas matrices es nuevamente una columna αNM xM1 = bN1 = bN . Si αij xj = bi
desarrollamos este producto por la definición de producto de matrices en­ j∈M
tonces obtenemos para cada i ∈ N la igualdad en el recuadro a la derecha.
Como ya es usual podemos interpretar la columna xM como un vector x en el espacio
vectorial KM y a bN como un vector b en el espacio KN y en estas notaciones la igualdad se
escribe en una forma más simple Ax = b. Supongamos que A es una matriz fija. Si hacemos
variar x en KN entonces esta igualdad la podemos pensar como una TL de KM en KN . Como
es lógico, si conocemos x entonces como sabemos multiplicar matrices hallamos b = Ax.
Más difı́cil es el problema inverso, si se conoce b entonces, ¿como hallar x tal que Ax = b?
A una igualdad de la forma Ax = b donde A y b son conocidos y x es incógnita
se le llama sistema de ecuaciones lineales. ¡Oh, gran confusión! ¿porqué sistema? ¿por­
qué ecuaciones en plural si nada más tenemos UNA?. La respuesta a estas preguntas no es
gran misterio, es un problema histórico. Cuando sobre la faz de la Tierra aún no vivı́an las
matrices y los vectores, los humanos
P necesitaban encontrar unos numeritos xj tales que para
cualquier i ∈ N se cumpla que j∈M αij xj = bi . Obsérvese que se necesitan encontrar |M|
numeritos. En el caso de que |N| = 1 se decı́a que tenemos que resolver una ecuación lineal.
Para el caso |N| > 1 los numeritos xj deberı́an de cumplir todas y cada una de las ecuacio­
nes (para cada i ∈ N) y entonces, se decı́a que se necesitaba resolver un sistema (conjunto,
colección, cualquier cosa que signifique que hay muchas) de ecuaciones lineales. De hecho,
para acercarnos más a la verdad, debemos substituir en todo lo dicho los “se decı́a” por “se
dice” en presente. Luego, hay dos formas de ver los sistemas de ecuaciones lineales:
¨ Tenemos que encontrar |M| elementos delPcampo xj tales que
para cualquier i, se cumple la igualdad j∈M αij xj = bi ,
¨ Tenemos que encontrar un vector x ∈ KM tal que Ax = b.

Ambas formas son en esencia la misma ya que encontrar un vector x es lo mismo que
encontrar todas sus coordenadas xj . Sin embargo, la elegancia de la segunda forma hace
que nuestra manera de pensarlo sea mucho más simple y sistemática (a costo de aprender
sobre matrices y vectores). Por ejemplo, si ocurre que la matriz A es no singular entonces
multiplicando por A−1 a la izquierda obtenemos Ax = b ⇒ A−1 Ax = A−1 b ⇒ x = A−1 b
y como ya sabemos encontrar la matriz inversa y sabemos multiplicar matrices la solución
del sistema de ecuaciones lineales está a la mano. Esto no significa que ya sepamos resolver
todos los sistemas de ecuaciones lineales ya que para que una matriz sea no singular se
necesita primero que sea cuadrada y que además el determinante sea diferente de cero.
Regla de Cramer

Sea Ax = b un sistema de ecuaciones lineales. A la matriz A se le llama matriz del


sistema y al vector b lo llamaremos vector de coeficientes libres. Denotaremos por A (j) la
Sección 4.6 Sistemas de ecuaciones lineales 129

matriz obtenida de la matriz del sistema substituyendo la j­ésima columna por el vector de
coeficientes libres. Un ejemplo de esta substitución es el siguiente
µ ¶ µ ¶ µ ¶
1 2 3 7 1 7 3
A= , b= , A (2) = .
4 5 6 8 4 8 6

Regla de Cramer

Si la matriz A es no singular entonces, la j­ésima det A (j)


xj =
coordenada xj del vector x es igual al determi­ det A
nante de A (j) dividido entre el determinante de A.

Prueba. Sea αNM es una matriz no singular. Ya observamos que en este caso necesariamente
x = α−1NM b. Denotemos por βij las entradas de αNM entonces, tenemos xj = βjN bN . Por
−1

4.22 tenemos que βjN = α∗Nj / det αNM y de aquı́ xj det αNM = bN α∗Nj . Para terminar la
demostración basta observar que la expresión a la derecha de la igualdad es la expansión de
Laplace de A (j) por la columna j.

Gabriel Cramer (Suiza 1704­1752) publicó su famosa regla en el artı́cu­


lo “Introducción al análisis de las curvas algebraicas” (1750). Esta sur­
gió del deseo de Cramer de encontrar la ecuación de una curva plana que
pasa por un conjunto de puntos dado. El escribe su regla en un apéndice
del artı́culo y no da prueba alguna para ella. Este es uno de los orı́genes
históricos del concepto de determinante. Es curioso (y educativo) ver con
que palabras Cramer formula su regla:

“Uno encuentra el valor de cada indeterminada formando n


fracciones el común denominador de las cuales tiene tantos términos
como las permutaciones de n cosas.”

Cramer continúa explicando como se calculan estos términos como productos de ciertos
coeficientes de las ecuaciones y como se determina el signo. El también señala como los
numeradores de las fracciones se pueden encontrar substituyendo ciertos coeficientes de los
denominadores por los coeficientes libres del sistema.
Para nosotros, con más de dos siglos de ventaja, es mucho más fácil. Las “n fracciones”
son det A (j) / det A y el “común denominador” es det A (que tiene tantos sumandos como
las permutaciones de n cosas).
La Regla de Cramer (4.32) tiene fundamentalmente un interés histórico por ser uno de
los orı́genes del concepto de determinante. Es necesario recalcar que esta regla solo funciona
para el caso de que la matriz es no singular. O sea, cuando en el sistema se tienen tantas
incognitas como ecuaciones y el determinante de la matriz del sistema no es nulo.
130 Capı́tulo 4. Determinantes
Existencia de soluciones
Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas:
¨ ¿Existe una solución?
¨ ¿Como encontrar una solución en el caso de que exista?
¨ ¿Como encontrar TODAS las soluciones?
La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz no
singular: la solución existe, es única y se halla por la Regla de Cramer. Ahora responderemos
en general la primera pregunta.
Primero, una definición. Si Ax = b es un sistema de ecuaciones lineales entonces la
matriz ampliada del sistema denotada por (A|b) es la matriz que se obtiene de la matriz
del sistema añadiendo el vector columna de coeficientes libres b.

Teorema de Existencia de Soluciones

El sistema Ax = b tiene una solución si y solo si el rango de la


matriz del sistema coincide con el rango de la matriz ampliada.

Prueba. Por definición de rango de una matriz siempre se tiene que rank A ≤ rank (A|b) .
Que coincidan es equivalente por la Caracterización de las Bases de una Matriz (4.31) a que
b sea combinación lineal de las columnas de A. El que b sea combinación lineal de las
columnas de A es equivalente a la existencia de escalares xj tales que αiN xN = bi o sea a
que Ax = b tenga al menos una solución.

Eliminación de ecuaciones dependientes

Lema de Eliminación de Ecuaciones Dependientes

Sea I el conjunto de ı́ndices de una base de renglones de la ma­


triz ampliada (αMN |bM ). Entonces, el conjunto de soluciones de
αMN xN = bM es exactamente el mismo que el de αIN xN = bI .

Prueba. Como αMN xN = bM tiene más ecuaciones que αIN xN = bI entonces cada solu­
ción de αMN xN = bM es solución de αIN xN = bI .
Recı́procamente, sea xN tal que αIN xN = bI y m ∈ M\I. El renglón (αmN |bm ) es com­
binación lineal de los indexados por I. Luego existen escalares λi tales que
αmN = λI αIN
se cumplen las igualdades a la derecha. Multiplicando la primera igualdad
bm = λI bI
por xN y usando la definición de xN obtenemos αmN xN = λI αIN xN =
λI bI = bm y por lo tanto xN satisface todas las ecuaciones del sistema αMN xN .
Otra manera, más algorı́tmica, de ver este lema es que si tenemos un sistema de ecua­
ciones αMN xN = bM y un renglón de este sistema es combinación lineal de los demás
Sección 4.6 Sistemas de ecuaciones lineales 131

entonces, debemos eliminar la ecuación correspondiente a este renglón. El Lema de Eli­


minación de Ecuaciones Dependientes (4.34) nos garantiza que esta operación no altera el
conjunto de soluciones. Repitiendo esta operación una cierta cantidad de veces, obtenemos
una matriz ampliada con renglones LI.
El nucleo y la imagen de una matriz

Sea αMN una MN­matriz. Ella es la matriz de la TL f : KN 3 xN 7→ αMN xN ∈ KM .


Luego, podemos definir la imagen de la matriz αMN como Im αMN = Im f y el nucleo de
la matriz αMN como ker αMN = ker f. Pasemos ahora a analizar la imagen. Por definición
de imagen tenemos Im αMN = {βM | ∃xN αMN xN = βM }. O sea, Im αMN es el conjunto
de vectores βM tales que el sistema
P de ecuaciones lineales αMN xN = βM tiene al menos una
solución. Tenemos αMN xN = i∈N αMi xi que es una combinación lineal de las columnas.
Luego, Im αMN es el subespacio generado por las columnas de la matriz αMN . Además, si
γN es una solución de αMN xN = βM entonces, 3.33 (página 97) nos dice que el conjunto
de todas sus soluciones es el subespacio afı́n γN + ker αMN . Resumamos todo lo dicho en
4.35 para referencias futuras.

¨ El subespacio ker αMN es el conjunto de soluciones de αMN xN = 0M .


¨ El subespacio Im αMN es el generado por las columnas de αMN .
¨ Si γN es una solución de αMN xN = βM entonces, el conjunto de todas
sus soluciones es el subespacio afı́n γN + ker αMN .

Bases del subespacio afı́n de soluciones

Ahora daremos la solución general de los sistemas de ecuaciones lineales. Sea αMN xN =
bM un sistema de ecuaciones. Primero, podemos suponer que la matriz del sistema αMN
tiene el mismo rango que la matriz ampliada [αMN |bM ] porque si no entonces, el conjunto
de soluciones es vacı́o. Segundo, podemos suponer que la matriz ampliada [αMN |bM ] tiene
renglones linealmente independientes porque si no, entonces podemos descartar aquellos que
son combinación lineal de otros.
Luego existe un conjunto de columnas J ⊆ M tal que αMJ es una base de la matriz
ampliada [αMN |bM ]. Denotando por Y al conjunto de columnas que no están en la base po­
αMJ xJ + αMY xY = bM demos representar nuestro sistema de ecuaciones lineales como
se muestra en el recuadro a la izquierda.
Aquı́ las incógnitas xJ y xY son aquellas que se corresponden con las columnas en J y Y
respectivamente. Por ejemplo, en el sistema de ecuaciones
2x1 + 1x2 + 1x3 + 0x4 = 5
3x1 + 2x2 + 0x3 + 1x4 = 5
podemos tomar J al conjunto de las dos primeras columnas y Y al conjunto de la tercera y
132 Capı́tulo 4. Determinantes
cuarta columnas. Luego a este sistema lo podemos escribir como
µ ¶µ ¶ µ ¶µ ¶ µ ¶
2 1 x1 1 0 x3 5
3 2 x
+ 0 1 x
= 5 .
2 4

Ahora, como la matriz αMJ tiene inversa, lo que hacemos es simplemente despejar xJ y
obtenemos xJ = α−1 bM − α−1 αMY xY . En nuestro ejemplo obtenemos
µMJ ¶ µ MJ¶ µ ¶µ ¶ µ ¶
x1 5 2 −1 x3 2x3 − x4 + 5
x
= −5 + −3 2 x
= −3x + 2x − 5
2 4 3 4

Esto describe en forma ¡parámétrica el conjunto de¢todas las soluciones, para cualquier
vector xY hay una solución α−1 MJ bM − αMJ αMY xY , xY del sistema. Otra manera de descri­
−1

bir el conjunto solución es ponerlo en la forma descrita en 4.35. Para encontrar una solución
ponemos xY = 0 y en nuestro ejemplo el vector solución es (5, −5, 0, 0). Para encontrar
el nucleo de la matriz del sistema ponemos bM = 0. Para encontrar una base del nucleo
recorremos con xY a la base canónica de KY . En nuestro ejemplo
(x3 , x4 ) = (1, 0) ⇒ (x1 , x2 ) = (7, −8)
(x3 , x4 ) = (0, 1) ⇒ (x1 , x2 ) = (4, −3)
y finalmente obtenemos que el conjunto de soluciones (x1 , x2 , x3 , x4 ) es el subespacio afı́n
(5, −5, 0, 0) + ρ (1, 0, 7, −8) + τ (0, 1, 4, −3)
donde ρ y τ son escalares cualesquiera.

4.7 Método de eliminación de Gauss


La idea del método de eliminación de Gauss es realizar ciertas transformaciones de las
matrices que no cambian lo que se pretende calcular y que convierte a las matrices en otras
con muchas entradas iguales a cero. Este es el método más universal y eficiente (al menos
manualmente) para calcular los determinantes, el rango, el nucleo, las matrices inversas, etc.
Aquı́, estudiaremos brevemente este método.
Transformaciones elementales
Sea αMN una matriz. Sean αiN , αjN dos renglones de αMN y λ ∈ K un escalar. Deno­
temos βjN = λαiN + αjN y sea βMN la matriz obtenida de αMN reemplazando el renglón
αjN por la N­ada βjN . A la operación que dados αMN , i, j y λ obtenemos βMN se le llama
transformación elemental de los renglones. Otra manera útil de pensar las transformacio­
nes elementales de los renglones es que en la matriz αMN al renglón αjN le sumamos el
renglón αiN multiplicado por λ. De forma análoga, se definen las transformaciones ele­
mentales de las columnas. Una transformación elemental es de renglones o de columnas.

Las transformaciones elementales no cambian los determinantes.

Prueba. Sean αMM , βMM y γMM matrices que se diferencian solo en el renglón indexado
Sección 4.7 Método de eliminación de Gauss 133

por j para el cual se tiene que βjM = λαiM + αjM y γjM = αiM . Como el determinante es
un funcional lineal de los renglones tenemos det βMM = λ det γMM + det αMM y como la
matriz γMM tiene dos renglones iguales entonces, det βMM = det αMM . La prueba termina
al recordar que el determinante no cambia por transposición de la matriz.
Las bases y el rango de una matriz dependen exclusivamente de los determinantes de sus
submatrices y por lo tanto no son afectados por las transformaciones elementales. Sin em­
bargo, las trasformaciones elementales de las columnas cambian los nucleos y el subespacio
afı́n solución de un sistema de ecuaciones lineales. Para las transformaciones elementales de
los renglones la situación es diferente.

Las transformaciones elementales de los renglones de la matriz ampliada no


cambian el subespacio afı́n solución de un sistema de ecuaciones lineales.

Prueba. Sea αMN xN = bM un sistema de ecuaciones lineales. Sea βMN xN = cM otro


sistema que se diferencia solo en la ecuación j para la cual se tiene βjN = λαiN + αjN y
cj = λbi + bj . Si γN es una solución del primer sistema entonces, βjN γN = λαiN γN +
αjN γN = λbi + bj = cj por lo que γN es una solución del segundo sistema. Si γN es una
solución del segundo sistema entonces, αjN γN = βjN γN − λαiN γN = cj − λbi = bj por lo
que γN es una solución del primer sistema.

Ejemplo
El método de Gauss se puede precisar en todo detalle para convertirlo en un algoritmo
programable en una computadora. Pero como tratamos de enseñar a humanos y no a compu­
tadoras la mejor manera no es dar todos los detalles sino dejar a la creatividad individual y a
la imitación de ejemplos el como aplicar las transformaciones elementales.
La matriz ampliada siguiente arriba a la izquierda representa un sistema de ecuaciones
lineales. Despues de las 4 transformaciones elementales de los renglones que se muestran
obtenemos la matriz de abajo a la derecha. La solución del sistema de esta última es obvia.
à ¯ ! à ¯ ! à ¯ !
1 1 0 ¯ 3 1 1 0 ¯ 3 1 1 0 ¯ 3
¯ 2 r 2 :=r 2 −2r 1 ¯ −4 r 3 :=r 3 −3r 1 ¯ −4
2 3 4 ¯ −→ 0 1 4 ¯ −→ 0 1 4 ¯
3 3 1 ¯ 1 3 3 1 ¯ 1 0 0 1 ¯ −8
à ¯ ! à ¯ !
1 1 0 ¯ 3 1 0 0 ¯ −25
r 2 :=r 2 −4r 3 ¯ 28 r 1 :=r 1 −r 2 ¯ 28
−→ 0 1 0 ¯ −→ 0 1 0 ¯
0 0 1 ¯ −8 0 0 1 ¯ −8

Aquı́ las transformaciones elementales realizadas están marcadas en las echas. Por ejemplo,
la primera es r2 := r2 − 2r1 lo que significa que al segundo renglón le sumamos el primero
multiplicado por −2. Observese que después de dos transformaciones ya vemos que el de­
terminante de la matriz del sistema es 1 porque en una matriz triangular el determinante es
el producto de las entradas diagonales.
134 Capı́tulo 4. Determinantes
El caso general
Para el cálculo de los determinantes no hay mucho más que decir. Podemos utilizar trans­
formaciones elementales de columnas y renglones para convertir nuestra matriz cuadrada en
matriz triangular. Si en el proceso nos aparece un renglón o columna cero entonces el deter­
minante es cero.
Para resolver los sistemas de ecuaciones lineales trabajamos con la matriz ampliada y so­
lo podemos realizar transformaciones elementales de los renglones. Podemos además multi­
plicar un renglón por un escalar porque esto no afecta la ecuación correspondiente al renglón.
Si nos aparece un renglón cero podemos descartarlo como combinación lineal de los otros.
Si nos aparece un renglón que es cero en la matriz del sistema pero su coeficiente libre no es
cero entonces el sistema no tiene solución porque el rango de la matriz ampliada es mayor
que el rango de la matriz del sistema. Finalmente, si en algún momento nos aparece una
configuración del tipo
⎛ ¯ ⎞
a ∗ ··· ∗ ∗ ∗ ¯¯ ∗
⎜ 0 b ··· ∗ ∗ ∗ ¯ ∗ ⎟
⎝ ··· ··· ··· ··· ··· ··· ¯ ··· ⎠
¯
0 0 ··· c ∗ ∗ ¯ ∗

donde a, b, . . . , c son diferentes de cero entonces las primeras columnas forman una base de
la matriz y tenemos más incógnitas que ecuaciones. En este caso debemos seguir diagonali­
zando la parte correspondiente a las primeras columnas hasta obtener
⎛ ¯ ⎞
1 0 ··· 0 ∗ ∗ ¯¯ ∗
⎜ 0 1 ··· 0 ∗ ∗ ¯ ∗ ⎟
⎝ ··· ··· ··· ··· ··· ··· ¯ ··· ⎠.
¯
0 0 ··· 1 ∗ ∗ ¯ ∗

Para este sistema procedemos como en la sección anterior y pasamos restando las incógnitas
que sobran como parámetros hacia la parte derecha del sistema de ecuaciones. Tomemos el
mismo ejemplo de la sección anterior
µ ¯ ¶ µ ¯ ¶ µ ¯ ¶
2 1 1 0 ¯ 5 r2 :=3r2 −2r1 2 1 1 0 ¯¯ 5
r −r
r 1 := 1 2 2 1 0 2 −1 ¯¯ 5
¯ −→ −→
3 2 0 1 ¯ 5 0 1 −3 2 ¯ −5 0 1 −3 2 ¯ −5

y por lo tanto la solución de este sistema es x1 = 5 − 2x3 + x4 y x2 = −5 + 3x3 − 2x4 donde


x3 y x4 pueden tomar cualquier valor.
Aquı́ es cuando el lector se preguntará ¿Para qué diagonalizar la primera y segunda co­
lumna si ya la tercera y cuarta están en forma diagonal? Pues tiene toda la razón, simplemente
está escogiendo otra base de la matriz. La solución del sistema se obtiene directamente de
la matriz ampliada original en la forma x3 = 5 − 2x1 − x2 y x4 = 5 − 3x1 − 2x2 donde x1
y x2 pueden tomar cualquier valor. Que es mejor es cuestión de gustos u otras necesidades.
Por ejemplo, si se necesita substituir x1 y x2 en otras fórmulas entonces, la mejor solución
es la primera. Si por el contrario se necesita substituir x3 y x4 en otras fórmulas entonces, la
mejor solución es la segunda.
Sección 4.7 Método de eliminación de Gauss 135

Solución de ecuaciones matriciales, matriz inversa


Si tenemos varios sistemas de ecuaciones lineales αMN xN1 = bM1 , . . . , αMN xN` = bM`
todos con la misma matriz del sistema αMN entonces, podemos denotar L = {1, . . . , `}
y escribirlos todos en la forma αMN xNL = bML . Esta ecuación matricial tiene la matriz
ampliada [αMN |bML ] y podemos aplicarle a esta matriz la eliminación de Gauss para resolver
todos nuestros sistemas al mismo tiempo. Esto lo podremos hacer porque en la eliminación
de Gauss no se reordenan columnas y solo se aplican transformaciones elementales a los
renglones, ası́ que no nos importa cuantas columnas halla después de la barra vertical.
En particular, si M = N entonces, la única solución posible (si existe) a la ecuación
matricial αMM xMM = IMM serı́a xMM = α−1 MM . Esta es la forma en que con el método de
eliminación de Gauss se calculan las matrices inversas. Por ejemplo:
à ¯ ! à ¯ !
¯ 1 0 0
1 1 0 1 1 0 ¯ 1 0 0
¯ 0 1 0 r 2 :=r 2 −2r 1 ¯ −2 1 0 r 2 :=r 2 −4r 3
¯
2 3 4 −→ 0 1 4 ¯ −→
¯ 0 0 1
3 3 1 r 3 :=r 3 −3r 1 0 0 1 ¯ −3 0 1
à ¯ ! à ¯ !
1 1 0 ¯ 1 0 0 1 0 0 ¯ −9 −1 4
¯
0 1 0 ¯ 10 1 −4
r 1 :=r 1 −r 2 ¯ 10 1 −4
−→ 0 1 0 ¯
0 0 1 ¯ −3 0 1 0 0 1 ¯ −3 0 1

y por lo tanto
à !à ! à !
1 1 0 −9 −1 4 1 0 0
2 3 4 10 1 −4 = 0 1 0 .
3 3 1 −3 0 1 0 0 1

Ejercicio 90 Tome un sistema de ecuaciones lineales y resuelvalo por el método de elimi­


nación de Gauss. Repı́ta cuantas veces le sea necesario.

No está de más recalcar aquı́ que el método de eliminación de Gauss funciona en espacios
vectoriales sobre cualquier campo sea este Q, R, C, Zp u otro campo cualquiera. Solo hay
que realizar las operaciones de suma, producto y división como están definidas en el campo
en particular.
136
Capítulo quinto
Descomposición de
Operadores Lineales
ay dos teoremas que son muy conocidos por el lector y que son muy parecidos. El
primero es que todo número natural se descompone de forma única salvo orden de los
factores en producto de números primos. El segundo es que todo polinomio se des­
compone de forma única salvo orden de los factores en producto de polinomios irreducibles.
Para los operadores lineales hay un teorema parecido todo operador lineal se descompone en
suma directa de OLs irreducibles, el “tipo” de tal descomposición es único. En este capı́tulo
daremos la demostración de este teorema y lo que es más importante, encontraremos cuales
son todos los OLs irreducibles de un espacio vectorial de dimensión finita.

5.1 Suma directa de operadores lineales

Recordemos que el acrónimo OL significa para nosotros un operador lineal, o sea una
transformación lineal de un espacio en si mismo. Con otras palabras, un endomorfismo
del espacio. Usaremos sistemáticamente este acrónimo. Sin embargo, al conjunto de todos
los OLs de un espacio vectorial E lo denotaremos por End (E). Ya vimos que el conjunto
End (E) es un álgebra para la suma de funciones, la multiplicación por escalares y la compo­
sición de OLs. El conjunto End (E) contiene el neutro para la suma que es el operador lineal
O que a cualquier vector le hace corresponder el vector 0. También contiene al neutro para
la composición de funciones I que es la identidad I (a) = a.
En este capı́tulo todos los espacios vectoriales serán de dimensión finita. Si f : E → E y
g : F → F son dos OLs entonces, a la función
f ⊕ g : E ⊕ F 3 (a, b) 7→ (f (a) , g (b)) ∈ E ⊕ F
se le llama suma directa de los OLs f y g. Es fácil comprobar que la suma directa de dos
OLs es un OL.

Ejercicio 91 Pruebe que la suma directa de OLs es siempre un OL. [182]


138 Capı́tulo 5. Descomposición de operadores lineales
El lector no debe confundir la suma directa de OLs con la habitual suma de fun­
ciones. Si f : E → E y g : E → E son dos OLs entonces su suma se define como
(f + g) (a) = f (a) + g (a).
Veamos ahora un ejemplo. Sea f : R2 → R2 la rotación en el [f ⊕ g] [a, b, c]
ángulo α en contra de las manecillas del reloj o en otras palabras 2c
(1, 0) 7→ (cos α, sin α) y (0, 1) 7→ (− sin α, cos α). Sea g : R → R
la dilatación de factor 2 o sea z 7→ 2z. El espacio R2 ⊕R lo podemos c f [a, b]
[a, b, c]
pensar como R en el cual el primer sumando es el plano x, y y
3

el segundo es el eje z. Sabemos como transforma f el plano x, y α


(rotando) y como transforma g el eje z (dilatando). Vease la figura [a, b]
a la derecha.
Ahora si (a, b, c) es un vector arbitrario de R3 entonces podemos rotar a (a, b) en el
plano xy obteniendo (a cos α − b sin α, b cos α + a sin α) y dilatar c en el eje z obtenien­
do 2c. De esta manera, obtenemos el OL de todo R3 que a (a, b, c) le hace corresponder
(a cos α − b sin α, b cos α + a sin α, 2c) . Este OL es precisamente f ⊕ g.

Ejercicio 92 Dado f ⊕ g ∈ End (E ⊕ F) podemos definir a f0 = f ⊕ I y g0 = I ⊕ g. Pruebe


que f ⊕ g = f0 ◦ g0 = g0 ◦ f0 . Esto significa que podemos pensar la suma directa como la
composición de dos OLs que conmutan. [182]

Subespacios invariantes, componentes irreducibles

A partir de ahora y en todo este capı́tulo la función h : E → E es un OL del


espacio vectorial finito dimensional E. La dimensión de h es por definición la
dimensión de E.
La simplicidad de la operación de suma directa de OLs nos lleva a querer descomponer
h en suma directa de otros OLs. La pregunta es: ¿Dado h será posible encontrar OLs f y
g tales que h = f ⊕ g?. Detallemos un poco más el problema. Si F y G son subespacios
complementarios de E entonces, por el isomorfismo canónico entre la suma de subespacios
complementarios y la suma directa de subespacios tenemos E = F+G = F⊕G. La pregunta
es ¿cuando existen OLs f : F → F y g : G → G tales que h = f ⊕ g?
Supongamos que efectivamente h = f ⊕ g y sea a un vector en F. Por definición de
f ⊕ g para calcular h (a) tenemos que expresar a como suma de un vector en F y otro
en G. Esta descomposición es única y en este caso es a = a + 0 por lo que h (a) =
f (a) + g (0) = f (a) + 0 = f (a). De aquı́ deducimos que h (a) ∈ F y como esto se hizo
para un vector arbitrario en F obtenemos que h (F) = {h (a) | a ∈ F} ⊆ F. De la misma
manera se demuestra que h (G) ⊆ G.
Esto nos lleva a la siguiente definición. Diremos que F ⊆ E es un subespacio invariante
de h (o que F es h­invariante) si se cumple que h (F) ⊆ F.
Sección 5.1 Suma directa de operadores lineales 139

Un OL se descompone como suma directa de dos OLs si y


solo si él tiene dos subespacios invariantes complementarios.

Prueba. Ya demostramos la necesidad. Demostremos la suficiencia. Para esto supongamos


que h : E → E tiene dos subespacios invariantes complementarios F y G. Tenemos E =
F ⊕ G, h (F) ⊆ F y h (G) ⊆ G. Sean f : F → F y g : G → G las restricciones de la función
h a los subespacios F y G respectivamente. Obviamente f y g son OLs. Sea x un vector
arbitrario en E. Existen unos únicos a ∈ F, b ∈ G tales que x = a + b y por linearidad
tenemos h (x) = h (a + b) = h (a) + h (b) = f (a) + g (b) por lo que h = f ⊕ g.
Acabamos de traducir nuestro problema original al de la existencia de subespacios inva­
riantes complementarios pero hay un caso degenerado que no nos facilita en nada las cosas.
Todo el espacio E es invariante pues obviamente h (E) ⊆ E. Igualmente el subespacio {0}
formado solo por el origen es invariante ya que h (0) = 0. Además, los subespacios {0} y E
son complementarios y en este caso h se descompone como la suma directa de f : 0 7→ 0 y
g = h. Tal descomposición siempre existe pero no nos da nada pues g = h.
Un subespacio se le llama no trivial si el no es todo el espacio y no es el origen. Un OL
se le llama reducible si el tiene dos subespacios invariantes complementarios no triviales
y en otro caso se le llama irreducible. A la restriccion de h a un subespacio invariante
no trivial que tiene un complementario invariante se le llama componente de h. En otras
palabras, f es una componente de h si existe g tal que h = f ⊕ g y esta descomposición
es no trivial. Los OLs irreducibles son exactamente aquellos cuya única descomposición
como suma directa de dos es la trivial o sea, aquellos que no tienen componentes. Si un
OL es reducible entonces, este se descompone como suma directa de dos componentes. Si
alguno de las componentes es reducible entonces podemos descomponerla. Asi, vemos que
cualquier OL es suma directa de componentes irreducibles.
Ejemplos en dimensión 2

Todo OL de dimensión 1 es irreducible pues los únicos subespacios posibles son los
triviales. Veamos el caso de dimensión 2. Supongamos que E es de dimensión 2. Si h es
reducible entonces, E = F ⊕ G y necesariamente F y G son subespacios h­invariantes de
dimensión 1. Por la proposición 3.2 las restricciones f y g de h a F y G respectivamente son
homotecias, o sea, existen escalares α y β tales que f es la multiplicación por α y g es la
multiplicación por β.
µ ¶ Si {x} es una base de F y {y} es una base de G en­ y
α 0 tonces la matriz de h en la base {x, y} es la del re­ R2
0 β cuadro a la izquierda, o sea es diagonal. Hemos de­
mostrado que cualquier operador lineal reducible de x
dimensión 2 cumple que existe una base en la cual su matriz es dia­
gonal. En la figura de la derecha está representada el OL de este x 7→ 3x y 7→ 2y
tipo cuando E = R2 , {x, y} es la base canónica, α = 3 y β = 2.
140 Capı́tulo 5. Descomposición de operadores lineales
Una rotación de R2 en un ángulo α en contra de las manecillas del reloj es obviamente
irreducible para α ∈ / {0◦ , 180◦ } ya que en este caso, ninguna recta por el origen se queda en
su lugar. O sea, las rotaciones no tienen subespacios invariantes no triviales.
Otro ejemplo es el que surge si a un cuadrado le aplicamos µ ¶
R2 y dos fuerzas en sentido contrario a dos de sus lados opues­ λ 1
tos. Más precisamente, al OL que tiene como matriz en la 0 λ
x base canónica de R2 la del recuadro a la derecha la llama­
remos λ­deslizamiento. La figura de la izquierda muestra intuitivamente
como se mueven los puntos de R2 al aplicar un 1­deslizamiento. De esta
figura, se ve que la única recta por el origen que es invariante es el eje x.
Luego un λ­deslizamiento es irreducible (λ 6= 0) ya que el eje x no tiene complementario
invariante.

Las matrices y los subespacios invariantes

Sea F es un subespacio invariante del OL h : E → E. Sea G un subespacio complemen­


tario a F. Escojamos bases A y B de F y G respectivamente. Sabemos que A ∪ B es una base
de todo el espacio. Sea x un vector en la base A. Podemos hallar las coordenadas de h (x)
en la base A ∪ B X X
h (x) = αa a + βb b
a∈A b∈B
y como h (x) ∈ hAi entonces, todas las coordenadas βb son iguales a cero.
µ ¶ Estas coordenadas forman una columna de la matriz de h en la base A ∪ B
M ∗ y por lo tanto despues de ordenar las bases, esta matriz tiene que verse
0 ∗ como en el recuadro a la izquierda. La matriz M es la de la restricción de
h a F. El 0 representa una submatriz con entradas cero con |A| columnas
y |B| renglones. Finalmente, los “*” representan submatrices de las dimensiones apropiadas.
Resumiendo para futuras referencias:

Si F es un subespacio invariante de h y A es una base de todo


el espacio que contiene a una base B de F entonces, la matriz
de h en la base A es triangular por bloques y el bloque superior
izquierdo es la matriz de la restricción de h a F en la base B.

Si además, G es h invariante entonces, el mismo razonamiento nos hace µ ¶


ver que el “*” superior derecho es una submatriz con entradas cero con M 0
|B| columnas y |A| renglones. En este caso la matriz tiene que verse como 0 M0
en el recuadro a la derecha. La matriz M0 es la de la restricción de h a G.
Resumiendo para futuras referencias:
Sección 5.2 Polinomios de operadores lineales 141

Si F y G son un subespacios invariantes complementarios de h


y los conjuntos A y B son bases de F y G respectivamente en­
tonces, la matriz de h en la base A ∪ B es diagonal por bloques
y los bloques diagonales son las matrices de las restricciónes
de h a F en la base A y de h a G en la base B respectivamente.

5.2 Polinomios de operadores lineales

En esta sección introduciremos una herramienta para el cálculo de los subespacios inva­
riantes de un OL a saber, los polinomios de OLs. Se recomienda que el lector lea (o vuelva
a leer) la sección 1.7 en la cual se introducen los ideales de polinomios y se demuestra que
todo ideal de K [x] es principal.
El morfismo de K [x] en End (E)

Para cualquier número natural n el operador hn se ⎧ n veces


define como en el recuadro a la derecha. De aquı́, como ⎨ z }| {
sabemos sumar OLs y multiplicar por escalares a los OLs, hn
= h ◦ ... ◦ h si n > 0
⎩ I si n = 0
vemos que una expresión como por ejemplo h −2h +5I
2 1

es un OL que conocemos si tan solo conocemos a h


Pn
En general si p (x) = i=0 αi x ∈ K [x] es unP
i
polinomio arbitrario con coeficientes
en el campo del espacio vectorial E, entonces ph = ni=0 αi hi es un OL bien definido. Al
proceso de substituir la variable x por el OL h y de esta manera convertir el polinomio p (x)
en el OL ph se le llama evaluación de p en h.
Recordemos de la sección 3.2 que un álgebra es un espacio vectorial con un producto
de vectores asociativo, distributivo, con elemento neutro y que conmuta con el producto por
escalares. Ya vimos, que el espacio vectorial End (E) es un álgebra para la composición de
OL. También vimos que el espacio vectorial de todos los polinomios K [x] es un álgebra para
el producto de polinomios.
Una subalgebra es un subconjunto de una álgebra que es álgebra para las operaciones
inducidas en el subconjunto. Un subconjunto de una algebra es subálgebra cuando es subes­
pacio del espacio vectorial, es cerrado para el producto y contiene el 1.
Una transformación lineal entre dos álgebras es un morfismo de álgebras si esta con­
muta con el producto y preserva el 1.

La función de evaluación de polinomios en un


operador lineal es un morfismo de álgebras.

Prueba. La función de evaluación K [x] 3 p (x) 7→ ph ∈ End (E) es una función cu­
142 Capı́tulo 5. Descomposición de operadores lineales
yo dominio y codominio son álgebras. Sean α0 , ..., αn y β0 , ..., βn los coeficientes de dos
polinomios p y q respectivamente. Tenemos la misma cantidad de coeficientes en ambos
polinomios ya que siempre podemos agregar suficientes ceros. Sea λ un escalar. Tenemos
Pn Pn
(λp)h = λαi hi = λ αi hi = λph
i=0 i=0
P
n
i
P
n P
n
(p + q)h = (αi + βi ) h = αi hi + βi hi = ph + qh
i=0 i=0 i=0
lo que muestra que la evaluación en h es una TL.
Por definiciónÃ
de producto de polinomios,
! tenemos
P
n Pn Pn Pn P
n P
n ¡ ¢
(pq)h = αi βj xi+j = αi βj hi+j = αi βj hi ◦ hj =
i=0 j=0 i=0 j=0 i=0 j=0
h
Pn P n ¡ ¢ Pn P
n
= αi hi ◦ βj hj = αi hi ◦ βj hj = ph ◦ qh
i=0 j=0 i=0 j=0
¡ ¢
y finalmente, con 1h = x0 h = h = I terminamos la prueba.
0

La subálgebra K [h]

El morfismo de evaluación en h tiene como imágen el conjunto de todos los OL que son
la evaluación en h de algún polinomio de K [x]. Este conjunto de OLs se denotará por K [h].
Esto reeja que en la evaluación lo que hacemos es substituir la variable x por el OL h.

K [h] es una subálgebra conmutativa del álgebra de operadores lineales.

Prueba. Como la imágen de una transformación lineal es un subespacio, obtenemos que


K [h] es un subespacio de End (E). Como 1 (h) = I, obtenemos que I ∈ K [h]. Como
ph ◦ qh = (pq)h obtenemos que K [h] es cerrado para la composición. La conmutatividad se
sigue de la conmutatividad del producto de polinomios. Efectivamente, ph ◦ qh = (pq)h =
(qp)h = qh ◦ ph y por lo tanto, los OLs en K [h] conmutan entre ellos.
La conmutatividad de K [h] es un hecho trivial pero muy notable. Los operadores lineales
en general no son conmutativos para la composición. Sin embargo los que están en K [h] si
conmutan entre ellos. Esto va a jugar un papel importante en todo lo que sigue.
Cada vez que se tiene un morfismo de álgebras, la imágen de este morfismo es una subálgebra del
codominio del morfismo. Si el dominio del morfismo es un álgebra conmutativa entonces la imagen
es una subálgebra conmutativa.

El polinomio mı́nimo

El morfismo de evaluación en h (recordemos que este morfismo es una transformación


lineal) tiene como nucleo el conjunto de todos los polinomios p tales que ph = O.
Sección 5.2 Polinomios de operadores lineales 143

El nucleo del morfismo de evaluación en h es un ideal de K [x].

Prueba. El nucleo de una transformación lineal es un subespacio y por lo tanto si ph =


qh = O entonces (p + q)h = O. Sea r (x) cualquier polinomio. Necesitamos mostrar que
(rq)h = O. Para cualquier a ∈ E tenemos
(rq)h (a) = (rh ◦ qh ) (a) = rh (qh (a)) = rh (0) = 0
y esto es todo lo que querı́amos probar.
Por 1.19 todo ideal de K [x] es principal y por lo tanto existe un único polinomio h (nótese
la letra gótica) de coeficiente principal 1 (o sea, mónico) tal que si ph = O entonces, p es
un múltiplo de h. En sı́mbolos matemáticos {p (x) ∈ K [x] | ph = O} = {qh | q ∈ K [x]}. Al
polinomio h se le llama polinomio mı́nimo de h. El polinomio mı́nimo de h es el polinomio
mónico de grado más pequeño que al evaluarlo en h se obtiene el OL nulo O . Por ahora, no
sabemos mucho del polinomio mı́nimo de h, solo sabemos que existe y que es único.
Otra manera más descriptiva de ver el polinomio mı́nimo es la siguiente. Consideremos
la sucesión infinita de operadores I, h, h2 , . . .. Todos los elementos de esta sucesión no
pueden ser LI en el espacio vectorial End (E) porque este espacio es de dimensión finita e
igual a (dim E)2 . Esto quiere decir que hay un primer natural n y unos coeficientes escalares
αi tales que hn = α0 h0 + α1 h1 + · · · + αr−1 hn−1 . Denotando p (x) = xn − αr−1 xn−1 −
· · · − α1 x1 − α0 x0 vemos que ph = O y que este es el único polinomio mónico de grado
más pequeño que cumple esto. Luego, p es el polinomio mı́nimo de h.
El perı́odo de un vector
Si p es un polinomio entonces ph es un OL. Si a es un vector entonces a la imagen por
ph de a se le denotará por ph (a). Luego, ph (a) se obtiene en dos pasos: primero tomamos
el polinomio p lo evaluamos en h y ası́ obtenemos ph ; segundo la función ph la evaluamos
en a y ası́ obtenemos ph (a).

Para cualquier vector a, el conjunto de todos los


polinomios p tales que ph (a) = 0, es un ideal.

Prueba. Si ph (a) = qh (a) = 0 y r es cualquier polinomio entonces


(p + q)h (a) = (ph + qh ) (a) = ph (a) + qh (a) = 0
(rp)h (a) = rh (ph (a)) = rh (0) = 0
y esto es todo lo que se requerı́a probar.
Nuevamente, como todo ideal de polinomios es principal entonces, existe un único poli­
nomio mónico q tal que el conjunto {p ∈ K [x] | ph (a) = 0} es exactamente el conjunto de
todos polinomios que son múltiplos de q. Al polinomio q se le llama el h­perı́odo del vector
a o sencillamente el perı́odo de a si está implı́cito cual es el operador h. En otras palabras,
el perı́odo de a es el polinomio q mónico de grado más pequeño tal que qh (a) = 0.
Más descriptivamente, en la sucesión infinita de vectores a, h (a) , h2 (a) , . . . todos los
144 Capı́tulo 5. Descomposición de operadores lineales
elementos no pueden ser LI porque el espacio E es de dimensión finita. Esto quiere decir
que hay un primer natural n y unos coeficientes escalares αi tales que hn = α0 h0 (a) +
· · · + αr−1 hn−1 (a). Denotando p (x) = xn − αn−1 xn−1 − · · · − α1 x1 − α0 x0 vemos que
ph (a) = 0 y que este es el único polinomio mónico de grado más pequeño que cumple esto.
Luego, p (x) es el perı́odo de a.

Ejercicio 93 Pruebe que el vector 0 es el único vector cuyo perı́odo es de grado cero.
Ejercicio 94 Pruebe que los vectores cuyo perı́odo es el polinomio x son exactamente aque­
llos que están en el nucleo de h.

Anuladores

Sea ahora A ⊆ E un conjunto arbitrario de vectores. El h­anulador de A es el conjunto


de polinomios {p ∈ K [x] | ∀a ∈ A ph (a) = 0}. Previamente ya habı́amos considerado vis­
to dos anuladores. En el caso de que A es todo el espacio entonces el anulador es el ideal
usado para definir el polinomio mı́nimo. En el caso de que A es un solo vector entonces el
anulador es el ideal usado para definir el perı́odo del vector. Análogamente a las pruebas
de 5.6 y 5.7 podemos probar que cualquier anulador es un ideal. Esto nos permite definir
el h­perı́odo de un conjunto de vectores como el polinomio generador de su anulador. El
anulador de un conjunto de vectores es el conjunto de polinomios que son múltiplos de su
perı́odo.

De aquı́ en lo adelante denotaremos por perh (A) al h­perı́odo de un conjunto


de vectores A. Ası́, perh (a) es el perı́odo del vector a y perh (E) es el h­
perı́odo de todo el espacio o sea, el polinomio mı́nimo de h.

monotonı́a del perı́odo

Si A ⊆ B entonces, perh (A) es un divisor de perh (B).

Prueba. Sea A0 el h­anulador de A. Si p es el perı́odo de B entonces ph (b) = 0 para


cualquier b ∈ B y por lo tanto ph (a) = 0 para cualquier a ∈ A. Luego p ∈ A0 y por lo
tanto es un múltiplo del perı́odo de A.

Nucleos de polinomios de operadores lineales

Los nucleos de los polinomios evaluados en un OL son un objeto importante para la


descomposición de ese OL en componentes irreducibles. Su importancia está dada por el
siguiente resultado.
Sección 5.2 Polinomios de operadores lineales 145

invariancia de los nucleos

El nucleo de cualquier operador en


K [h] es un subespacio h­invariante.

Prueba. Sabemos que el nucleo de cualquier OL es un subespacio. Demostremos la inva­


riancia. Sea a ∈ ker ph entonces ph (a) = 0. Por la conmutatividad de los OL en K [h]
tenemos ph (h (a)) = h (ph (a)) = h (0) = 0. O sea, h (a) ∈ ker ph .

monotonı́a de los nucleos

Si p es un divisor de q entonces Ker ph ⊆ Ker qh .

Prueba. Sea q = p0 p. Si x ∈ Ker ph entonces qh (x) = p0h (ph (x)) = p0h (0) = 0 y por lo
tanto x ∈ Ker qh .
Conjuntos de vectores y polinomios
Los conjuntos de vectores están ordenados naturalmente por
Conjuntos de vectores
inclusión, y los polinomios mónicos están ordenados natural­
perh ↓ ↑ ker
mente por divisibilidad. Hemos establecido dos funciones mo­
Polinomios mónicos
nótonas entre estos dos conjuntos ordenados (véase el recuadro
a la derecha). Sin embargo, estas funciones NO son una la inversa de la otra. La relacion
entre ellas es un poco más compleja y está dada por el siguiente resultado.

perh (A) divide a p si y solo si A ⊆ ker ph .

Prueba. Denotemos por q el perı́odo de A. Si q divide p entonces, p está en el anulador de


A y por lo tanto para cualquier vector a en A se cumple que ph (a) = 0. Luego, A ⊆ ker ph .
Recı́procamente, si A ⊆ ker ph entonces p está en el anulador de A y por lo tanto q es un
divisor de p.

perh (ker ph ) divide a p.

Prueba. Pongase A = ker ph en 5.11.

perh (A) es el mı́nimo común múltiplo


de los perı́odos de los vectores en A.

Prueba. Sea p = perh (A) y p0 el mı́nimo común múltiplo de los perı́odos de los vectores
en A. Para cualquier vector a en A tenemos que ph (a) = p0 (a) = 0.
146 Capı́tulo 5. Descomposición de operadores lineales
Como p está en el anulador de todos los vectores en A entonces es un multiplo común
de sus h­perı́odos y por lo tanto p es un múltiplo de p0 . Como p0 está en el anulador de A
entonces p0 es un múltiplo de p.

El polinomio mı́nimo de h es el mı́nimo común


múltiplo de los perı́odos de todos los vectores.

Prueba. Pongase A igual a todo el espacio en 5.13


Sean A y B dos conjuntos ordenados. A una pareja de funciones monótonas f∗ : A → B y f∗ :
B → A se les llama conexión de Galois si (f∗ (a) ≤ b) ⇔ (a ≤ f∗ (b)). El resultado 5.11 nos
muestra que si tomamos f∗ el perı́odo y f∗ el nucleo entonces tenemos una conexión de Galois. En
toda conexión de Galois se tiene que f∗ (f∗ (x)) ≤ x, en nuestro caso, el resultado 5.12. En toda conexión de
Galois se tiene que f∗ preserva los supremos y el resultado 5.13 es un caso particular de esto. Las conexiones
de Galois aparecen muy frecuentemente en las matemáticas.

5.3 Subespacios radicales

En lo que sigue muy frecuentemente nos encontraremos parejas de polinomios sin facto­
res comunes. Necesitamos hacer un aparte para hablar de estas parejas. Primero, les daremos
un nuevo nombre más corto. Dos polinomios p y q se les llama coprimos si cualquier factor
común a ambos es de grado 0. O sea, no tienen factores comunes no triviales. Dos polinomios
p y q son coprimos si y solo si los factores irreducibles de p son diferentes a los factores
irreducibles de q.
El siguiente resultado que usaremos más adelante es fácil consecuencia del teorema de
descomposición de polinomios en factores irreducibles. Si al lector no le parece que este
resultado es obvio entonces, debe hacer un esfuerzo por demostrarlo.

Lema de igualdad de polinomios

Si p, q, p0 y q0 son mónicos
⎫ entonces,
p0 divide a p ⎪
⎪ ¯ 0

q0 divide a q p =p
⇒ .
pq divide a p0 q0 ⎪
⎪ q0 = q

p y q son coprimos

Ejercicio 95 Demuestre Lema de igualdad de polinomios (5.15). [182]

Ahora estamos listos para empezar a descomponer los operadores lineales.


Sección 5.3 Subespacios radicales 147

Lema de Descomposición de Nucleos

Si p y q son polinomios coprimos entonces, ker (pq)h = ker ph ⊕ ker qh .

Prueba. Todos los nucleos involucrados son subespacios. Lo que hay que probar es que
ker ph ∩ ker qh = {0} y que ker (pq)h = ker ph + ker qh . O sea, es una suma directa.
Por el Teorema de Bezout existen polinomios r, s tales que rp + sq = 1.
Sea x ∈ ker ph ∩ ker qh . Tenemos que
x = 1h (x) = (rp + sq)h (x) = rh (ph (x)) + sh (qh (x)) = rh (0) + sh (0) = 0
lo que prueba que ker ph ∩ ker qh = {0}.
Sea x ∈ ker (pq)h y denotemos y = (sq)h (x), z = (rp)h (x). Como rp + sq = 1
tenemos z + y = x. Además, por la conmutatividad tenemos que
ph (y) = (psq)h (x) = sh ((pq)h (x)) = sh (0) = 0
qh (z) = (qrp)h (x) = rh ((pq)h (x)) = rh (0) = 0
o sea, y ∈ ker ph y z ∈ ker qh . Luego ker (pq)h ⊆ ker ph + ker qh .
Para probar la otra inclusión sean a ∈ ker p (h) y b ∈ ker q (h). Tenemos que
(pq)h (a + b) = ph (qh (a + b)) = ph (qh (a) + qh (b)) =
= ph (qh (a)) = qh (ph (a)) = qh (0) = 0
y por lo tanto ker ph + ker qh ⊆ ker (pq)h .

Lema de los Perı́odos de los Nucleos

Si p y q son polinomios mónicos


¯ coprimos entonces,
p = perh (ker ph )
pq = perh (ker (pq)h ) ⇐⇒
q = perh (ker qh )

Prueba. (=⇒) Denotemos por p0 = perh (ker ph ) y q0 = perh (ker qh ). Usando 5.12 obte­
nemos que p0 divide a p y que q0 divide a q.
Por el Lema de Descomposición de Nucleos (5.16) tenemos ker (pq)h = ker ph +ker qh .
Sean a ∈ ker ph y b ∈ ker qh dos vectores. Por conmutatividad tenemos que
(p0 q0 )h (a + b) = q0h (p0h (a)) + p0h (q0h (a)) = 0 + 0 = 0
Luego p0 q0 es un múltiplo común de los perı́odos de todos los vectores en ker ph + ker qh =
ker (pq)h . Como el pq = perh (ker (pq)h ) es el mı́nimo de estos múltiplos comunes obte­
nemos que pq divide a p0 q0 . Usando el Lema de igualdad de polinomios (5.15) obtenemos
p = p0 y q = q0 .
(⇐=) Supongamos que los polinomios mónicos coprimos p y q cumplen que p =
perh (ker ph ) y q = perh (ker qh ). Denotemos r = perh (ker (pq)h ) Usando 5.12 obtene­
mos que r divide a pq. Como ker ph ⊆ ker (pq)h entonces usando la monotonı́a del perı́odo
(5.8) obtenemos que p divide a r. Por la misma razón q divide a r. Como p y q son coprimos
entonces pq divide a r y por lo tanto r = pq
148 Capı́tulo 5. Descomposición de operadores lineales
Operadores lineales radicales

Por la invariancia de los nucleos (5.9) y el Lema de Descomposición de Nucleos (5.16)


si (pq)h = O y p, q son coprimos entonces, h tiene dos subespacios invariantes comple­
mentarios ker ph y ker qh y podrı́amos tener (si la descomposición es no trivial) que h es
reducible. El candidato que tenemos para el polinomio pq es el polinomio mı́nimo de h.
Un polinomio p se descompone en producto de dos factores coprimos si y solo si p tiene
al menos dos factores irreducibles distintos. Esto nos lleva a la siguiente definición. Diremos
que h es radical de tipo p si el polinomio mı́nimo de h tiene un solo factor irreducible e
igual a p. Equivalentemente, h es radical si el perı́odo de cualquier vector es de la forma pm
donde p es un polinomio mónico sin factores no triviales.

Si h es irreducible entonces, es radical.

Prueba. Si h no es radical entonces el polinomio mı́nimo h de h se descompone no trivial­


mente como un producto h = pq donde p y q son coprimos. Por el Lema de Descomposición
de Nucleos (5.16) tenemos E = ker (pq)h = ker ph ⊕ker qh siendo ker ph y ker qh subespa­
cios invariantes de h (por la invariancia de los nucleos (5.9)). Como p es un factor propio de h
que es el mı́nimo común múltiplo de los perı́odos de todos los vectores entonces, ker ph 6= E
y por la misma razón ker qh 6= E. Esto quiere decir que la descomposición ker ph ⊕ ker qh
es no trivial y por lo tanto h es reducible.
Este resultado no alcanza para caracterizar a los operadores lineales irreducibles. Por
ejemplo la identidad en R2 tiene polinomio mı́nimo x − 1 o sea es radical y sin embargo es
evidentemente la suma directa de la identidad en el eje x y la identidad en el eje y, o sea, es
reducible.
Componentes radicales

Un vector se le llama radical de tipo p si su perı́odo es igual a pm y p es irreducible.


Un conjunto de vectores se le llama radical de tipo p si todos sus vectores son radicales de
tipo p o equivalentemente si su perı́odo es igual a pm . Recordemos que la multiplicidad de
un factor es el número de veces que podemos dividir sin resto por dicho factor.

Si p es factor irreducible de multiplicidad m del polinomio mı́nimo de h


entonces, ker pmh es el conjunto de todos los vectores radicales de tipo p.

Prueba. Sea a un vector de perı́odo pk . Si k > m entonces pk = perh (a) no divide al


polinomio mı́nimo y esto no puede ser. Luego k ≤ m. De la monotonı́a de los nucleos (5.10)
obtenemos ker pkh ⊆ ker pmh y por lo tanto a ∈ ker ph . Recı́procamente, si a ∈ ker ph
m m

entonces pm
h (a) = 0 y por lo tanto perh (a) es un divisor de p . Como p es irreducible,
m

necesariamente perh (a) es igual a p para cierto k ≤ m.


k
Sección 5.3 Subespacios radicales 149

Por el teorema de descomposición deQ un polinomio en factores irreducibles el polino­


mio mı́nimo de h es igual a un producto p∈P pm p donde P es el conjunto de sus factores
irreducibles y mp es la multiplicidad del polinomio irreducible p. Por el resultado anterior,
m
los espacios ker ph p son los subespacios radicales maximales de h. De la invariancia de
los nucleos (5.9) sabemos que los subespacios radicales maximales son invariantes. A la
restricción de h a un subespacio radical maximal se le llama componente radical de h.

Teorema de Descomposición en Componentes Radicales

Todo operador lineal es la suma directa de sus componentes radicales.


Q
Prueba. Sea h = p∈P pm p el polinomio mı́nimo de h. Si en P hay un solo polinomio irre­
ducible entonces h es radical y no hay nada que probar. Hagamos inducción en el número de
polinomios irreducibles Qen P. Sea r un polinomio irreducible fijo pero arbitrario en P. Deno­
temos q = r y q = p∈P\r pm p . Tenemos que h = qq0 y que q, q0 son coprimos. Del
mr 0

Lema de Descomposición de Nucleos (5.16) obtenemos la descomposición en subespacios


invariantes complementarios E = F ⊕ G donde F = ker qh y G = ker q0h .
Sean f y g las restricciones de h a F y G respectivamente. Sean f y g los polinomios
mı́nimos de f y g respectivamente. Del Lema de los Perı́odos de los Nucleos (5.17) f = q
y g = q0 . Luego, todas las componentes radicales de g son componentes radicales de h.
Aplicando la hipótesis de inducción g es suma directa de sus componentes radicales. Como
f es una componente radical de h entonces, h = f ⊕ g es suma directa de sus componentes
radicales.
Como la descomposición de un polinomio en polinomios irreducibles es única salvo
orden de los factores entonces, la descomposición de un operador lineal en componentes
radicales es única salvo orden de los sumandos.
Existencia de un vector de perı́odo máximo
La descomposición en componentes radicales nos permite limitarnos a considerar el caso
en que el operador lineal h es radical. Esto simplifica mucho las cosas por la simplicidad
de la relación de divisibilidad entre los divisores de los polinomios tipo pn cuando p es
irreducible. Esta relación orden es total. Por ejemplo, si A es un conjunto de divisores de pn
entonces se cumple que el mı́nimo común multiplo de A es un polinomio en A.

Para cualquier operador lineal h existe un vector tal


que su perı́odo es igual al polinomio mı́nimo de h.

Prueba. Sea h el polinomio mı́nimo de h : E → E. Primero para el caso de que h es radical


o sea cuando h = pk con p irreducible. El polinomio h es el mı́nimo común múltiplo de los
perı́odos de todos los vectores y estos son divisores de pk . Por la observación que precede a
este resultado tiene que ocurrir que uno de esos perı́odos es pk .
150 Capı́tulo 5. Descomposición de operadores lineales
El caso general por inducción en el número de componentes radicales. Descomponga­
mos h = f ⊕ g donde f es una componente radical. Esta descomposición se corresponde
con la descomposición E = F ⊕ G en subespacios invariantes. Los operadores f y g son las
restricciones de h a F y G respectivamente. Los polinomios mı́nimos f y g de f y g respecti­
vamente son coprimos y cumplen que h = fg. Por hipótesis de inducción existen vectores a
y b en F y G respectivamente tales que f = perh (a) y g = perh (b).
Denotemos p = perh (a − b). El polinomio p es un divisor de fg = h al ser este último
un común múltiplo de los perı́odos de todos los vectores.
Tenemos (ph (a − b) = 0) ⇒ (ph (a) = ph (b)). Como F y G son invariantes F 3
ph (a) = ph (b) ∈ G. Como F y G son complementarios ph (a) = ph (b) = 0. Entonces,
p es un multiplo de f = perh (a) y es un múltiplo de g = perh (b). Como f y g son coprimos
entonces, p es un múltiplo de fg = h.

5.4 El espacio cociente por un subespacio invariante

Los λ­deslizamientos nos muestran que no todo subespacio invariante tiene complemen­
tario invariante. Por esto, los espacios cocientes juegan aquı́ un papel fundamental. En reali­
dad, en este capı́tulo no estamos interesados en los espacios cocientes per se. Por el contrario,
solo los necesitamos como una herramienta para probar los resultados en los que si estamos
interesados: la descomposición de OLs. Necesitamos por lo tanto aprender a manejar esta
herramienta.
Sea h : E → E un OL y F un subespacio h­invariante o sea h (F) ⊆ F. El espacio
cociente E/F es el conjunto de todos los subespacios afines paralelos a F. Lo que queremos
ver es que si los vectores a y b están en un mismo subespacio afı́n paralelo a F entonces
h (a) y h (b) cumplen exactamente lo mismo.
Efectivamente, si a y b están en un mismo subespacio afı́n paralelo a F entonces a−b ∈
F. Como F es h­invariante entonces h (a) − h (b) = h (a − b) ∈ F y por lo tanto h (a) y
h (b) están en un mismo subespacio afı́n paralelo a F. Nótese que aquı́ el argumento crucial
es que F es h­invariante.
e en el espacio cociente con la igualdad h
Esto nos permite definir la función h e (a + F) =
h (a) + F. La observación precedente nos dice que esta función está bien definida, o sea si
a + F = b + F entonces, h (a) + F = h (b) + F. Observese que h e es un OL en E/F ya que
e (a + F + b + F) = h
h e (a + b + F) = h (a + b) + F =
= h (a) + F + h (b) + F = h e (a + F) + he (b + F)
y también
e (λ (a + F)) = h
h e (λa + F) = h (λa) + F =λh (a) + F = λ (h (a) + F) = λh
e (a + F) .
Sección 5.4 El espacio cociente por un subespacio invariante 151
e ¿Acaso no se cumple que h (a + F) = h (a) + F? Pues no, esto se cumple
¿Para que definir h?
solo cuando h es biyectiva. Inclusive si arbitrariamente pidieramos que h sea biyectiva esto no nos
darı́a nada pues necesitaremos p
fh y los ph tienen nucleos grandes.
Necesitaremos conocer mejor los OLs del espacio cociente End (E/F).

El conjunto EndF (E) de todos los operadores lineales


que dejan invariante F es una subálgebra de End (E).

Prueba. Sean f y g dos operadores en EndF (E). Sea λ un escalar. Para cualquier vector
a ∈ F tenemos f (a) ∈ F y g (a) ∈ F y por lo tanto
(g + f) (a) = g (a) + f (a) ∈ F ; I (a) ∈ F ;
(g ◦ f) (a) = g (f (a)) ∈ F ; (λf) (a) = λf (a) ∈ F.
Luego, End (E) es una subalgebra.
F

e ∈ End (E/F) es un morfismo de álgebras.


La función EndF (E) 3 h 7→ h

e es morfismo para la composición


Prueba. Probaremos que h 7→ h
fg◦ g (a + F) = (f ◦ g) (a) + F = f (g (a)) + F = e
³ f (g (a)
´ + F) =
= fe(g (a) + F) = fe(e
g (a + F)) = fe ◦ ge (a + F) ;
y para la suma
f]+ g (a + F) = (f + g) (a) + F = f (a) +³F + g´(a) + F =
= fe(a + F) + ge (a + F) = fe + g
e (a + F) ;
y para el producto por escalares
e (a + F) = (λf) (a) + F = f (λa) + F = fe(λa + F) =
λf ³ ´
= fe(λ (a + F)) = λfe (a + F) ;
y que preserva la identidad eI (a + F) = I (a) + F = a + F = I (a + F) .

Ejercicio 96 Muestre que el morfismo h 7→ he es sobreyectivo y su nucleo está formado por


aquellos operadores lineales cuya imagen es F. [182]

Polinomios y el espacio cociente

Sea F ⊆ E un subespacio h­invariante. Ya vimos como se define h e en E/F a saber


e
h (a + F) = h (a) + F y comprobamos que esta definición es correcta debido a la h­
invariancia de F. Para poder definir pfh (a + F) = ph (a) + F necesitamos que F sea ph ­
invariante. Por suerte, esto se cumple automáticamente.
152 Capı́tulo 5. Descomposición de operadores lineales

Sea p un polinomio. Si F es h­invariante entonces también es ph ­invariante.

Prueba. Como el conjunto de los operadores que preservan F es una subálgebra del algebra
de todos los operadores entonces todos los hn estan ahı́, también todas las combinaciones
lineales de estos o sea, todos los polinomios evaluados en h.
Luego, p
fh es un OL bien definido en el espacio cociente. Por otro lado, si evaluamos el
e obtendremos ph que es otro OL bien definido en el espacio
polinomio p en el operador h h
cociente.

fh = phh
p

Prueba. Sea p (x) = Σαi xi . Como la función h 7→ hn es un morfismo de álgebras, tenemos


X^ n Xn Xn Xn ³ ´i
αi hi = αg i
ih = αi hei = e
αi h
i=0 i=0 i=0 i=0
y esto es lo que se necesitaba probar.
Esto es muy cómodo, ya que para calcular perhh (a + F) en el cociente tenemos la fórmula
phh (a + F) = ph (a) + F.

perhh (a + F) es un divisor de perh (a).

Prueba. Si p = perh (a) entonces phh (a + F) = ph (a) + F = 0 + F = F y por lo tanto p


es un múltiplo de perhh (a + F).

e es un divisor del polinomio mı́nimo de h.


El polinomio mı́nimo de h

Prueba. Sean h y e e respectivamente. Para cualquier vector


h los polinomios mı́nimos de h y h
a tenemos que hhh (a + F) = hh (a) + F = 0 + F = F. Luego, h es un múltiplo de e h.

Ejercicio 97 Pruebe que si a es un vector tal que haih ∩ F = {0} y perh (a) es un múltiplo
de perh (F) entonces, perhh (a + F) = perh (a). [183]
Sección 5.5 Subespacios cı́clicos 153

5.5 Subespacios cı́clicos

Sea h : E → E un operador lineal. Sea V = {v1 , . . . , vn } ⊆ E un conjunto de vectores.


Una h­combinación de V es un vector de la forma
ph (v1 ) + qh (v2 ) + · · · + rh (vn )
donde los coeficientes p, q, ..., r son polinomios arbitrarios en K [x].
Le dejamos al lector hacer la definición para el caso de que V es infinito. En este caso
hay que exigir soporte finito, o sea que el conjunto de coeficientes no nulos sea finito.
Las h­combinaciones son combinaciones lineales en el caso de que los coeficientes sean
polinomios de grado cero. Esto se ve de que si λ es un escalar entonces, λh (v) = λh0 (v) =
λI (v) = λv. Recordemos que hVi denota el conjunto de todas las combinaciones lineales de
V. Denotemos hVih el conjunto de todas las h­combinaciónes de V. La observación anterior
significa que hVi ⊆ hVih .

Ejercicio 98 Pruebe que hVi = hVih si y solo si h es una homotecia (h (x) = λx).

Conjuntos h­generadores

El conjunto de todas las h­combinaciones de V es un subespacio invariante.

Prueba. Sea λ un escalar. Sean a = ph (v1 ) + · · · + qh (vn ) y b = rh (v1 ) + · · · + sh (vn )


dos h­combinaciones de V. Entonces,
a + b = p0h (v1 ) + · · · + q0h (vn ) donde p0 = p + r, . . . , q0 = q + s,
λa = p0h (v1 ) + · · · + q0h (vn ) donde p0 = λp, . . . , q0 = λq,
h (a) = p0h (v1 ) + · · · + q0h (vn ) donde p0 (x) = xp (x) , . . . , q0 (x) = xq (x) .
Las dos primeras igualdades prueban que es un subespacio. La tercera muestra que es inva­
riante.
Ya es la tercera vez que nos tropezamos con una situación similar. Las anteriores fueron
la cerradura lineal y la cerradura afı́n. Los siguientes tres resultados muestran que la función
V 7→ hVih es un operador de cerradura que llamaremos h­cerradura.

La intersección de subespacios invariantes es invariante.

hVih es la intersección de todos los sub­


espacios invariantes que contienen a V.
154 Capı́tulo 5. Descomposición de operadores lineales

La h­cerradura cumple las siguientes propiedades:


¨ V ⊆ hVih (incremento),
¨ V 0 ⊆ V ⇒ hV 0 ih ⊆ hVih (monotonı́a),
¨ hhVih ih = hVih (idempotencia).

Ejercicio 99 Pruebe estos tres resultados.

A hVih le llamaremos el subespacio invariante h­generado por V. Si hVih es todo el


espacio diremos que V es un h­generador. Obviamente los sobreconjuntos de h­generadores
y los conjuntos generadores (sin la h) son h­generadores.

perh hVih = perh V.

Prueba. Tenemos V ⊆ hVih y por la monotonı́a del perı́odo (5.8) sabemos que perh V es un
divisor de perh hVih . Denotemos q = perh V. Si x ∈ hVih entonces x es una h­combinación
de V
x = ph (v1 ) + · · · + rh (vn )
donde {v1 , . . . , vn } ⊆ V y por lo tanto
qh (x) = qh (ph (v1 )) + · · · + qh (rh (vn )) = ph (qh (v1 )) + · · · + rh (qh (vn )) = 0.
Luego, q = perh V está en el anulador de hVih y por lo tanto es un múltiplo de perh hVih .
Un subespacio invariante se le llama h­cı́clico si este está h­generado por un solo vector.
Los subespacios cı́clicos son los h­análogos de las rectas por el origen que están generadas
(sin la h) por un solo vector. Al operador h se le llama cı́clico si todo el espacio es h­cı́clico.
Conjuntos h­independientes
Un conjunto de vectores {v1 , . . . , vn } no nulos se le llama h­independiente si
(ph (v1 ) + · · · + qh (vn ) = 0) ⇒ (ph (v1 ) = · · · = qh (vn ) = 0)
Esto es equivalente a que si una h­combinación de ellos es cero entonces, para todo i el
coeficiente de vi es un múltiplo del perı́odo de vi . Al considerar coeficientes de grado ce­
ro vemos que los conjuntos h­independientes siempre son linealmente independientes. En
particular, el número de elementos en un conjunto h­independiente no puede sobrepasar la
dimensión del espacio.

Si V = {v1 , . . . , vn } es h­independiente entonces hVih = hv1 ih ⊕ · · · ⊕ hvn ih .

Prueba. Por inducción en el natural n. Si n = 1 el resultado es obvio. Denotemos V 0 =


{v2 , . . . , vn }. Tenemos que probar que hVih = hv1 ih + hV 0 ih y que hv1 ih ∩ hV 0 ih = 0.
Sección 5.5 Subespacios cı́clicos 155

Si a ∈ hVih entonces existen coeficientes polinomiales tales que a = ph (v1 )+qh (v2 )+
· · · + rh (vn ). Obviamente, a0 = ph (v1 ) ∈ hv1 ih , a00 = qh (v2 ) + · · · + rh (vn ) ∈ hV 0 ih y
a = a0 + a00 . Luego, hVih ⊆ hv1 ih + hV 0 ih . La otra inclusión se demuestra igual.
Supongamos que a ∈ hv1 ih ∩ hV 0 ih . Entonces, existen polinomios tales que
ph (v1 ) = a = qh (v2 ) + · · · + rh (vn )
por lo tanto
ph (v1 ) − qh (v2 ) − · · · − rh (vn ) = 0.
Como V es h­independiente entonces, a = ph (v1 ) = 0.

h­bases

El resultado anterior es formidable. Si solo V además de h­independiente fuera h­gene­


rador, obtendrı́amos una descomposición de todo el espacio en suma directa de subespacios
invariantes h­generados por un solo vector o sea cı́clicos.
Una h­base es un conjunto de vectores que es h­independiente y h­generador. El único
problema es que no sabemos si existen o no las h­bases. Veremos en la siguiente sección que
si existen sin embargo, el problema no es tan sencillo como en el caso de las bases ordinarias
(sin la h). Hay que ir poco a poco.
Si p = xn − αn−1 xn−1 − · · · − α1 x − α0 es un polinomio mónico arbitrario entonces a
la matriz
⎛ ⎞
0 0 ... 0 α0
⎜ 1 0 ... 0 α1 ⎟
⎜ ⎟
⎜ ... ... ... ... ... ⎟
⎜ ⎟
⎝ 0 0 ... 0 αn−2 ⎠
0 0 ... 1 αn−1

se le llama matriz acompañante del polinomio p.

Sea h un OL cı́clico con polinomio©mı́nimo p de grado n. Sea ª a un vector h­


generador. El conjunto de vectores a, h (a) , . . . , hn−1
(a) es una base del
espacio vectorial y la matriz de h en esta base es la matriz acompañante de p.
© ª
Prueba. Denotemos B = a, h (a) , . . . , hn−1 (a) y probaremos que B es una base del
espacio. Si hubiera una combinación lineal
β0 a + β1 h (a) + · · · + βn−1 hn−1 (a) = 0
con no todos sus coeficientes nulos entonces, el polinomio no nulo
q (x) = β0 + β1 x + · · · + βn−1 xn−1
serı́a tal que qh (a) = 0 y esto contradice (q tiene grado menor que el grado de p) que los
polinomios en el anulador de a son los multiplos de p. Luego, A es LI.
Por otro lado, como a es h­generador entonces para cualquier vector x existe un polino­
mio q tal que x = qh (a). Efectuando la división con resto obtenemos q = cp + r donde
156 Capı́tulo 5. Descomposición de operadores lineales
el grado de r es estrictamente menor que el grado de p. Luego, rh (a) es una combinación
lineal de B y rh (a) = (q − cp)h (a) = qh (a) − ch (ph (a)) = qh (a) = x. Esto significa
que A es un conjunto generador y por lo tanto es una base.
Veamos como transforma h a los vectores en la base B. Denotemos vk = hk (a), Luego,
B = {v0 , . . . , vk−1 } Tenemos que para k ∈ {0, . . . , n − 2} se cumple que h (vk ) = vk+1
lo que justifica las n − 1 primeras columnas de la matriz acompañante. Por otro lado si
p = xn − αn−1 xn−1 − · · · − α1 x − α0 es el polinomio mı́nimo de h. entonces
X
n−1 X
n−1
n i
h (vn−1 ) = h (a) = ph (a) + αi h (a) = 0 + αi vi
i=0 i=0
y esto justifica la última columna de la matriz acompañante.

Si A es una h­base entonces, la dimensión del espacio es igual


a la suma de los grados de los h­perı́odos de los vectores en A.

Prueba. Como la dimensión de la suma directa es la suma de las dimensiones de los suman­
dos entonces, usando 5.33 vemos que es suficiente probarlo para cuando A contiene un solo
vector a. Sea p = perh (a) y n el grado de p. Por 5.32 p = perh (haih ). Como haih es por
hipótesis todo el espacio entonces p es el polinomio mı́nimo de h. Usando 5.34 vemos que
la dimensión del espacio es n.

Si A es una h­base entonces, el polinomio mı́nimo de h es igual


al mı́nimo común multiplo de los h­perı́odos de los vectores en A.

Prueba. Sea p el mı́nimo común multiplo de los h­perı́odos de los vectores en A. De 5.13
sabemos que p = perh A. Sea h polinomio mı́nimo de h. Como h es el perı́odo de todo el
espacio E y hAih = E entonces, de 5.32 obtenemos p = perh A = perh hAih = h.

5.6 Descomposición en subespacios cı́clicos radicales.

Entre todos los subespacios h­cı́clicos los más grandes son aquellos que están h­generados
por vectores de perı́odo igual al polinomio mı́nimo. A estos les llamaremos les llamaremos
maximales. Por 5.21 siempre existe algún subespacio h­cı́clico maximal.
La estrategia para deshacernos del problema de que no cualquier subespacio invariante
tiene complementario invariante es limitarnos a los operadores radicales, fijarnos solamente
en los subespacios invariantes maximales y construir un complementario que si es invariante.
El siguiente resultado es la clave para lograr esto.
Sección 5.6 Descomposición en subespacios cı́clicos radicales. 157

Lema del Perı́odo

Sea h ∈ End (E) radical y F un subespacio h­cı́clico maximal. Para cual­


quier v + F ∈ E/F existe b ∈ v + F tal que perh (b) = perhh (v + F).

Prueba. Sea a un h­generador de F. Sea pn (con p irreducible) el polinomio mı́nimo de h.


Por 5.26 el perhh (v + F) es un divisor común a todos los h­perı́odos de los vectores en v + F.
Existe un natural ` tal que p` = perhh (v + F).
Queremos encontar un vector b en v + F tal que perh (b) no solo es múltiplo de p` sino
que es igual a p` . Tenemos p`h (v) ∈ F = haih y por lo tanto existe un polinomio q coprimo
con p y un natural k tales que ¡ ¢
p`h (v) = pk q h (a) .
¡ ¢
Si k ≥ n entonces, p`h (v) = pk q h (a) = 0 por lo que perh (v) es un divisor de p` y
podemos tomar b = v. ¡¡ ¢ ¢
Supongamos que k < n. Como perh (a) = pn , tenemos que perh pk q h (a) = pn−k
y por lo tanto perh (v) = pn−k+` . Como pn es el polinomio mı́nimo entonces
(n − k + ` ≤ n) ⇒ (` ≤ k) .
Denotemos ¡ ¢
b = v − pk−` q h (a)
¡ ¢
Sabemos que pk−` q h (a) ∈ haih = F y por lo tanto b ∈ v + F. Además
¡ ¡ ¢ ¢ ¡ ¢
p`h (b) = p`h v − pk−` q h (a) = p`h (v) − pk q h (a) = 0
por lo que perh (b) es un divisor de p` . Esto significa que perh (b) = perhh (v + F).

Lema del Cociente

Sea h : E → E un operador radical y F = haih un subespacio h­cı́clico


e
maximal. Si {v1 + F , . . . , vm + F} es una h­base del espacio cociente
E/F entonces, existen vectores b1 ∈ v1 + F, . . . , bm ∈ vm + F tales que
{a, b1 , . . . , bm } es una h­base de E.

Prueba. Sea a un h­generador de F. Aplicando el Lema del Perı́odo (5.37) a v1 +F, . . . , vm +


F, obtenemos b1 ∈ v1 + F, . . . , bm ∈ vm + F tales que el h­perı́odo de bi es igual al h­ e
perı́odo de v1 + F, i ∈ {1, . . . , m}. Denotemos B = {a, b1 , . . . , bm }. Observese que
B r a = {b1 + F, . . . , bm + F} = {v1 + F, . . . , vm + F}
e
­es una h­base
® de E/F. Probemos que B es h­generador de E. Si x ∈ E entonces x + F ∈
B r a hh , o sea, existen coeficientes polinomiales tales que
x + F = qhh (b1 + F) + · · · + rhh (bm + F) = qh (b1 ) + · · · + rh (bm ) + F
o lo que es lo mismo x − qh (b1 ) − · · · − rh (bm ) ∈ F = haih . Luego, existe otro polinomio
s tal que x − qh (b1 ) − · · · − rh (bm ) = sh (a) y por lo tanto
x = sh (a) + qh (b1 ) + · · · + rh (bm ) ∈ hBih .
158 Capı́tulo 5. Descomposición de operadores lineales
Para probar que B es h­independiente supongamos que existen polinomios tales que
0 = sh (a) + qh (b1 ) + · · · + rh (bm ) . (*)
Pasando al cociente (sumando F) obtenemos
0 + F = sh (a) + F + qh (b1 ) + F + · · · + rh (bm ) + F =
= qhh (b1 + F) + · · · + rhh (bm + F)
y como B r a es independiente obtenemos que
qhh (b1 + F) = · · · = rhh (bm + F) = 0 + F.
Como el h­perı́odo de bi es igual al de bi + F concluimos que
qh (b1 ) = · · · = rh (bm ) = 0.
Substituyendo esto en la igualdad (*) obtenemos sh (a) = 0.

Ejercicio 100 Compruebe que si eliminamos la condición de que F es máximal entonces el


Lema del Cociente (5.38) no se cumple.

Teorema de Existencia de h­bases

Cualquier operador lineal radical h tiene una h­base.

Prueba. Sea h : E → E un operador radical y F = haih subespacio h­cı́clico maximal.


Hagamos inducción en dim h. Si dim h = 1 entonces F = E y por lo tanto {a} es una h­base.
Supongamos dim h > 1. Si F = E entonces otra vez {a} es una h­base. Si no, entonces
e
E/F es no trivial y dim E/F < dim h. Por hipótesis de inducción E/F tiene una h­base y
por el Lema del Cociente (5.38) existe una h­base de E.

Ejercicio 101 Demuestre la siguente afirmación. Sean h : E → E un OL y E = F ⊕ G


una descomposición de E en subespacios h­invariantes. Si A es una h­base de E y B es una
h­base de G entonces A ∪ B es una h­base de E. [183]
Ejercicio 102 Use el ejercicio anterior, el Teorema de Descomposición en Componentes
Radicales (5.20) y el Teorema de Existencia de h­bases (5.39) para probar todo operador
lineal h tiene una h­base.

Teorema de Descomposición en Componentes Radicales Cı́clicas

Todo operador lineal es suma directa de componentes radicales cı́clicas.

Prueba. Sea h : E → E un OL. Si h es radical entonces E tiene una h­base {a1 , . . . , an }.


Por 5.33 E = ha1 ih ⊕ · · · ⊕ han ih . Por 5.28 todos los ha1 ih son subespacios invariantes.
Denotando por fi la restricción de h a hai ih obtenemos h = f1 ⊕ · · · ⊕ fn . Si h no es
Sección 5.6 Descomposición en subespacios cı́clicos radicales. 159

radical entonces usando el Teorema de Descomposición en Componentes Radicales (5.20)


lo descomponemos en componentes radicales y posteriormente cada componente radical la
descomponemos en componentes cı́clicas.
A diferencia de la descomposición en componentes radicales una descomposición en
componentes radicales cı́clicas no es única. Esto sucede porque h­bases pueden haber mu­
chas. Por ejemplo para la identidad en R2 cualesquiera dos rectas diferentes por el origen
forman una descomposición en subespacios invariantes radicales cı́clicos. Sin embargo, lo
que si es único es el “tipo” de la descomposición.
Si h = f1 ⊕ · · · ⊕ fn es una descomposición entonces, a la sucesión p, q, . . . , r de los
polinomios mı́nimos de las componentes se le llama el tipo de la descomposición. Dos tipos
se consideran iguales si uno se puede obtener del otro reordenando la sucesión.

Teorema de Unicidad del Tipo

Dos descomposiciones cualesquiera en compo­


nentes radicales cı́clicas tienen el mismo tipo.

Prueba. De la definición del tipo y de la unicidad de la descomposición en componentes


radicales queda claro que es suficiente demostrar el teorema para OLs radicales h cuyo
polinomio mı́nimo es una potencia de un polinomio irreducible que denotaremos por p.
Lema 1. El subespacio F = ph (E) es invariante y dim F < dim E.
Para cualquier vector x denotaremos x = ph (x)
Lema 2. Para cualquier vector x se tiene que perh x = p × perh x.
Para cualquier conjunto de vectores X denotaremos X = {x | x ∈ X y x 6= 0}.
Lema 3. Si X es una h­base de E entonces X es una h­base de F = ph (E).
Las pruebas de estos lemas no son difı́ciles y las pospondremos hasta el final para no
perder el hilo de la prueba del teorema.
Sean E = ha1 ih ⊕ · · · ⊕ han ih = hb1 ih ⊕ · · · ⊕ hbm ih dos descomposiciones en
subespacios cı́clicos. Como h es radical los perı́odos de todos sus vectores son potencias de
un polinomio irreducible p. Sean pn i los perı́odos de los ai y pm i los perı́odos de los bi .
Los tipos de estas dos descomposiciones son pn1 , . . . , pnn y pm 1 , . . . , pm m respectivamente.
Reordenando los sumandos podemos suponer que n1 ≥ · · · ≥ nn y que m1 ≥ · · · ≥ mm .
También podemos suponer que n ≥ m. Tenemos que probar que n = m y que los ni son
iguales a los mi .
Hagamos la prueba del teorema por induccción en dim h. Si dim h = 1 entonces, nece­
sariamente n = m = 1 y n1 = m1 .
Los conjuntos A = {a1 , . . . , an } y B = {b1 , . . . , bm } son dos h­bases de E. Por el Lema
3 tenemos que A y B son bases de F = ph (E). Sea k tal que (i > k) ⇒ (ni =©1 o i > n).ª
Análogamente se define ` para los mi . Por el definición A = {a1 , . . . , ak } y B = b1 , . . . , b` .
­ ® ­ ®
Luego, F = ha1 ih ⊕ · · · ⊕ hak ih = b1 h ⊕ · · · ⊕ b` h son dos descomposicio­
nes de F y por el Lema 2 los tipos de estas descomposiciones son pn 1 −1 , . . . , pnk −1 y
160 Capı́tulo 5. Descomposición de operadores lineales
pm 1 −1 , . . . , pm ` −1 . Como por el Lema 1 dim F < dim E, podemos aplicar hipótesis de in­
ducción y ası́ obtenemos que
k = `, n1 − 1 = m1 − 1, · · · , nk − 1 = mk − 1.
O sea, todos los ni son iguales a los mi desde i = 1 hasta k = `.
Sea ∇ el grado de p. De 5.35 obtenemos que
(n1 + · · · + nn ) ∇ = dim E = (m1 + · · · + mm ) ∇
y por lo tanto
nk+1 + · · · + nn = mk+1 + · · · + mm .
Todos los ni y los mi para i > k son iguales a 1 y por lo tanto n = m. Con esto, para todo i
el natural ni es igual a mi y termina la prueba en la suposición que nuestros tres lemas sean
verdaderos.
Prueba del Lema 1. El conjunto de vectores F = ph (E) es un subespacio ya que es la
imagen del OL x 7→ ph (x). Es invariante ya que h (ph (x)) = ph (h (x)). Sea x un vector
no nulo de perı́odo pk (claramente estamos asumiendo que E 6= {0}). Si k = 1 entonces,
x ∈ ker ph . Si k > 1 entonces, el vector no nulo y = pk−1 h (x) es tal que ph (y) = 0. De
aquı́, el OL ph tiene nucleo no trivial y por lo tanto F 6= E. Luego, dim F < dim E. ¥
Prueba del Lema 2. Como p es irreducible, el perı́odo de cualquier vector es un múltiplo
de p. Si qp = perh (x) entonces, los polinomios r en el anulador de x son los múltiplos de
pq y por lo tanto
(rh (x) = 0) = ((r0 qp)h (x) = (r0 q)h (x) = 0) .
Luego, r está en el anulador de x si y solo si r/p está en el anulador de x. Esto quiere decir
que q = perh (x). ¥
Prueba del Lema 3. Sea X = {x1 , . . . , xk } es una h­base de E. Comprobaremos que
X = {x | x ∈ X y x 6= 0} es una h­base de F. Efectivamente, si y ∈ F entonces, existen
coeficientes polinomiales tales que
y = (q1 )h (x1 ) + · · · + (qn )h (xn ) = (q1 )h (x1 ) + · · · + (qn )h (xn ) .
Es claro que en la suma ­ de
® la derecha podemos descartar aquellos sumandos para los cuales
ai = 0. Luego, F ⊆ X h o sea, X es un h­generador de F. Supongamos que para ciertos
polinomios q1 , . . . , qn se tiene que
0 = (q1 )h (x1 ) + · · · + (qn )h (xn ) = (q1 p)h (x1 ) + · · · + (qn p)h (xn ) .
Como X es h­independiente, entonces
0 = (q1 p)h (x1 ) = (q1 )h (x1 ) = · · · = (qn p)h (xn ) = (qn )h (xn )
y por lo tanto X es h­independiente. Luego, X es una h­base de F. ¥
Una consecuencia de estos Teoremas es que ya sabemos cuales son los OLs irreducibles.

Teorema de Caracterización de los OLs irreducibles

Un operador lineal es irreducible si y solo si es cı́clico y radical.

Prueba. Sea h un OL. Si h no es cı́clico radical entonces por el Teorema de Descompo­


sición en Componentes Radicales Cı́clicas (5.40) este se descompone no trivialmente. Si
Sección 5.7 Estructura de los operadores cı́clicos radicales 161

h es cı́clico radical y se descompone no trivialmente entonces habrı́an dos descomposicio­


nes en componentes cı́clicas radicales con tipos diferentes. Esto contradecirı́a el Teorema de
Unicidad del Tipo (5.41).

Ejercicio 103 El tipo de un OL es el tipo de cualquiera de sus descomposiciones en compo­


nentes irreducibles. Se dice que dos OL f y g son conjugados si existe un OL invertible h tal
que f = h ◦ g ◦ h−1 . Demuestre que dos OL tienen el mismo tipo si y solo si son conjugados.
Ejercicio 104 Sean p = perh (a) y q = perh (b) los perı́odos de dos vectores. Demuestre
que si p y q son coprimos entonces haih ∩hbih = {0} y el subespacio haih +hbih es cı́clico.
Ejercicio 105 Use el ejercicio anterior y el Teorema de Descomposición en Componentes
Radicales Cı́clicas (5.40) para probar que para cualquier OL tiene una descomposición en
OL cı́clicos f1 ⊕ · · · ⊕ fn en la cual el polinomio mı́nimo de cada fi divide al polinomio
mı́nimo del siguiente.
Ejercicio 106 Usando el Teorema de Unicidad del Tipo (5.41) demuestre que el tipo de las
descomposiciones introducidas en el ejercicio anterior es único.

5.7 Estructura de los operadores cı́clicos radicales

En esta sección el acrónimo OLCR significará operador lineal cı́clico radical.


Subespacios invariantes

Teniendo en cuenta el Teorema de Descomposición en Componentes Radicales Cı́clicas


(5.40), observamos que todos los subespacios invariantes de cualquier OL están determina­
dos a priori por los subespacios invariantes de sus componentes cı́clico radicales.
Como los OLCR son irreducibles estos no tienen subespacios invariantes complementa­
rios. Sin embargo, si pueden tener subespacios invariantes no triviales. Queremos ver cuales
son todos los subespacios invariantes de los OLCR. Sea h : E → E un OLCR con polinomio
mı́nimo pm . Denotemos por ∇ el grado del polinomio p.

Los espacios Ek = ker pkh tienen las siguientes propiedades


1. {0} = E0 ⊆ E1 ⊆ · · · ⊆ Em = E 2. Ek = ph (Ek+1 )
3. (Ek = hxih ) ⇒ (Ek−1 = hph (x)ih ) 4. dim Ek = k∇
5. son los únicos subespacios invariantes de h.

Prueba. Como h es cı́clico existe un vector a de perı́odo pm tal que E = haih .


Propiedad 1. Las igualdades {0} = E0 y Em = E son obvias. Sea x ∈ Ek entonces pkh (x) =
0 y por lo tanto pk+1
h (x) = ph (0) = 0. Esto muestra que Ek ⊆ Ek+1 .
162 Capı́tulo 5. Descomposición de operadores lineales
Propiedad 2. Sea x ∈ Ek entonces, pk−1 h (ph (x)) = 0 o sea, ph (x) ∈ Ek−1 . Comprobe­
mos que los OLs ∂k : Ek 3 x 7→ ph (x) ∈ Ek−1 son ¢sobreyectivos. Sea qh (a) cualquier
¡ k−1
vector en Ek−1 . Sabemos que ph (qh (a)) = p q h (a) = 0. Como el perh (a) = pm
k−1

entonces, pk−1 q es un múltiplo de pm . Luego, q es un multiplo de pm−k+1 . Como k ≤ m


entonces, p es un factor de q. Sea r un polinomio tal que rp = q. Tenemos pkh (rh (a)) =
pk−1
h (qh (a)) = 0 y por lo tanto rh (a) ∈ Ei+1 . Además ∂i (rh (a)) = ph (rh (a)) = qh (a)
y esto nos dice que ∂k es sobreyectiva.
Propiedad 3. Sea x tal que Ek = hxih . Por la propiedad 2 tenemos que ph (x) ∈ Ek−1 y por
la invariancia de los nucleos (5.9) hph (x)i ⊆ Ek−1 . Sea y ∈ Ek−1 . Por la propiedad 2 existe
z ∈ Ek tal que y = ph (z). Como Ek = hxih obtenemos que existe un polinomio q tal que
z = qh (x) y por conmutatividad y = qh (ph (x)). Luego, hph (x)i = Ek−1 . ­ ®
Propiedad 4. Por la definición de a iterando la propiedad 3 obtenemos Ek = pm−k h (a) h
.
Como el perı́odo¡de ¢a es p entonces el perı́odo de ph (a) es p . Por 5.35 tenemos que
m m−k k

dim Ek = grado pk = k∇.


Propiedad 5. Sea F cualquier subespacio h­invariante de E. Como p es irreducible, entonces
el orden de F es igual a pk con k ≤ m y de aquı́ F ⊆ ker pkh = Ek . Por 5.21 existe un vector
x ∈ F de perı́odo pk . Como F es invariante hxih ⊆ F. Por 5.35 y la propiedad 4 tenemos
que dim hxih = k∇ = dim Ek . Luego, las inclusiones hxih ⊆ F ⊆ Ek son en realidad una
igualdad.

Formas canónicas

Un OL h siempre se descompone en suma directa de sus componentes radicales cı́clicas.


Por lo tanto, existen bases del espacio vectorial en las cuales la matriz de h es diagonal por
bloques. Los bloques son matrices de las componentes de h que son OLCRs. Nuestra tarea
ahora es encontrar bases en las cuales la matriz de un OLCR es lo más “simple” posible.
Sea h un OLCR con polinomio mı́nimo pm y p de grado ∇. No podemos aspirar a
encontrar una base en la cual la matriz de h sea diagonal por bloques ya que h es irreducible.
Lo más que podemos hacer es encontrar una base en la cual la matriz de h sea triangular
por bloques. Por 5.43.5, esta triangulación se tiene que hacer escogiendo en cada conjunto
ker pkh \ ker pk−1
h un conjunto de vectores Ak que sea LI maximal. En este caso el conjunto
Bk = A1 ∪ · · · ∪ Ak es una base de Ek = ker pkh y en particular Bm es una base de todo el
espacio.
Haciendo un razonamiento análogo al de 5.2 vemos que ⎛ ⎞
la matriz de h en la base Bm tiene la forma que se muestra en T11 T12 · · · T1m
⎜ 0 T22 · · · T2m ⎟
el recuadro a la derecha. Observemos que por 5.43.4 se tiene ⎜ ⎝ ··· ··· ··· ···


que |A1 | = |A2 | = · · · = |Am | = ∇ y esto nos simplifica 0 0 0 Tm m
mucho nuestra imágen de la matriz ya que todos los bloques
Tij son cuadrados de orden ∇.
Veamos cuales son los OLs de las matrices Tij Denotemos Fk = hAk i. El subespacio
Fk es complementario a Ek−1 en Ek o sea Ek = Ek−1 ⊕ Fk o globalmente tenemos E =
F1 ⊕ · · · ⊕ Fm . Luego tenemos proyecciones πk : E → Fk . Con ellas definimos τij : Fj → Fi
Sección 5.7 Estructura de los operadores cı́clicos radicales 163

como la restricción a Fj de πi ◦ h. Verbalmente, τij se obtiene tomando un vector en Fj


hallandole su imagen por h y proyectando el resultado a Fi . El bloque Tij es la matriz de τij en
las bases Aj de Fj y Aj de Fj . No tiene sentido dar argumentos a favor de esto. Simplemente
hay que entender bien que es la matriz de una transformación lineal. Observese que si i > i
entonces h (Fj ) ⊆ Ej y πi (Ej ) = {0} y por lo tanto τij es nulo. De aquı́ los ceros debajo de
la diagonal.
Si no le ponemos más restricciones a los Ak entonces no hay nada más que decir. Una
condición que es natural (por 5.43.2) pedirle a los Ak es que estén relacionados por las
igualdades Ak = ph (Ak+1 ). En este caso obtenemos por extensión lineal que las funciones
Fi+k 3 x 7→ pkh (x) ∈ Fi son isomorfismos de espacios vectoriales al transformar uno a uno
¡ ¢−1
la base Ai+k en la base Ai . En este caso se cumple que τi+k,j+k = pkh ◦ τij ◦ pkh . La
prueba de esto la dejaremos en calidad de ejercicio. En el lenguaje de matrices esto quiere
decir que Ti+k,j+k = Tij . Más verbalmente, que los bloques en la diagonal y en cada paralela
a la diagonal coinciden.

¡ ¢
Ejercicio 107 Pruebe que τi+k,j+k = pkh ◦ τij ◦ pkh −1 . [183]
Ejercicio 108 Sean E,E0 ,F y F0 , espacios vectoriales; i, j isomorfismos
de espacios vectoriales y f, g transformaciones lineales que hacen con­ F ←→ F0
i

mutativo el diagrama del recuadro. Pruebe que si A y B son bases de E f↑ ↑g


y F respectivamente y M es la matriz de f en las bases A y B entonces, E ←→ E0
la misma M es la matriz de g en las bases j (A) y i (B). j

Para continuar simplificando nuestra matriz necesitamos hacer un aparte para explorar
una idea acerca de los polinomios. No es difı́cil probar que cualquier sucesión de polinomios
r0 , r1 , . . . , ri , . . . que cumpla que el grado de ri es igual a i forma una base del espacio de
polinomios. En nuestro caso, estamos interesados en la base
1, x, . . . , x∇−1 , p, xp, . . . , x∇−1 p, p2 , xp2 , . . . , x∇−1 p2 , p3 , xp3 , . . .
donde ∇ es el grado de nuestro polinomio irreducible p. Si expresamos un polinomio ar­
bitrario q en esta base entonces, sacando factores comúnes, vemos que existen unos únicos
polinomios r, s, . . . , t de grado menor que ∇ tales que
q = rp0 + sp1 + · · · + tpn .
A esta representación de q la llamaremos expansión de q en potencias de p.
Continuemos con nuestrá construcción de una matriz para el OL h. Recordemos que h
es cı́clico o sea, el espacio tiene un vector a que es h­generador. Luego, nuestro conjunto in­
dependiente Am (que contiene ∇ vectores) lo podemos escribir Am = {rh (a) , . . . , sh (a)}
donde r, . . . , s son ciertos polinomios. Escribamos rh (a) según la expansión de r en poten­
cias de p ¡ ¢ ¡ ¢
rh (a) = r0 p0 h (a) + r1 p1 h (a) + · · · + (rn pn )h (a) .
©¡ ¢ ¡ ¢ ª
Como A1 = pm−1 h (Am ) entonces A1 = rpm−1 h (a) , . . . , spm−1 h (a) y la corres­
164 Capı́tulo 5. Descomposición de operadores lineales
¡ ¢
pondiente expansión de rpm−1 h (a) en potencias de p es
¡ m−1 ¢ ¡ m−1 ¢
rp h
(a) = r0 p h
(a) + (r1 pm )h (a) + · · · + (rn pm+n )h (a) .
Observese que como a tiene h­perı́odo igual a pm entonces, todos ¡ los
¢ sumandos en la ex­
presión anterior excepto el primero son iguales a cero. O sea, rpm−1 h (a) no depende de
cuales son los polinomios son r1 , . . . , rn . Como T11 depende exclusivamente de quien es A1
entonces, si cambiamos algunos de los polinomios r1 , . . . , rn no cambiaremos T11 y por lo
tanto ningun bloque Tii de la diagonal (todos son iguales). Pongamos r1 = . . . = rn = 0.
Esto obviamente cambia nuestra matriz pero no la diagonal. Este razonamiento funciona
exactamente igual para cualquiera de los polinomios r, . . . , s que definen a Am . Por esto,
postularemos que estos polinomios son todos de grado menor que ∇ y esto no afecta a cua­
les pueden ser nuestros bloques en la diagonal. Veamos como esto afecta a los otros bloques.
Los polinomios r, . . . , s, rp, . . . sp son LI porque de
αr + · · · + βs + γrp + · · · + δsp = 0
obtenemos
α (r)h (a) + · · · + β (s)h (a) + γ (rp)h (a) + · · · + δ (sp)h (a) = 0
y como Am ∪ Am−1 es LI, obtenemos que los coeficientes son cero. El espacio vectorial de
todos los polinomios de grado menor que 2∇ tiene dimensión 2∇. Como r, . . . , s, rp, . . . sp
son 2∇ polinomios LI de grado menor que 2∇ entonces, esta es una base de este espacio.
El grado del polinomio xr es ∇ < 2∇. Luego, existen escalares tales que
h (rh (a)) = (xr)h (a) = αrh (a) + · · · + βsh (a) + γ (rp)h (a) + · · · + δ (sp)h (a)
o en otras palabras h (rh (a)) = am + am−1 donde am ∈ hAm i = Fm y am−1 ∈ hAm−1 i =
Fm−1 . Esto quiere decir que la proyección de h (rh (a)) a Fm es am , la proyección de
h (rh (a)) a Fm−1 es am−1 y todas las demás proyecciones son cero.
Este razonamiento funciona exactamente igual para cualquiera de los polinomios r, . . . , s
que definen a Am . Luego, las funciones τim : Fm → Fi son nulas para i ≥ m − 2 y
⎛ ⎞ por lo tanto los bloques T1m , . . . , Tm−2,m y los bloques
P M ··· 0 0 en las paralelas a la diagonal correspondientes son todos
⎜ 0 P · · · 0 0 ⎟
⎜ ⎟ nulos. Esto simplifica mucho la forma de nuestra matriz.
⎜ ··· ··· ··· ··· ··· ⎟
⎜ ⎟ que ahora tiene solamente la diagonal y la paralela más
⎝ 0 0 ··· P M ⎠
0 0 ··· 0 P cercana diferentes de cero. Y en definitiva, se ve ahora
como en el recuadro a la izquierda.
Esta forma nos permite simplificar mucho ciertas cosas. La más obvia es que para calcu­
lar P podemos pensar que nuestro OCLR tiene polinomio mı́nimo p o sea, m = 1. Y para
calcular P y M podemos limitarnos a un OCLR con polinomio mı́nimo p2 o sea, m = 2.
La segunda, menos obvia, es que el cálculo de P y M no depende del operador lineal sino
del polinomio p. Más detalladamente, debemos escoger una base q1 , . . . , q∇ del espacio
de polinomios de grado menor que ∇ y ver como se descompone el polinomio xqi somo
combinación lineal de los polinomios q1 , . . . , q∇ , q1 p, . . . , q∇ p. Los coeficientes de esta
combinación lineal son las entradas de la i­ésima columna de P y M.
Ahora, veremos tres casos particulares: ∇ = 1, p es cuadrático en R [x] y finalmente es­
Sección 5.7 Estructura de los operadores cı́clicos radicales 165

tudiaremos que ocurre cuando tomamos q1 , . . . , q∇ igual a la base canónica 1, x, . . . , x∇−1 .


∇=1
Si ∇ = 1 entonces hay que escoger un polinomio de grado ⎛ ⎞
0. Obviamente escogeremos q = 1. Como p es mónico de grado λ 1 ··· 0
⎜ 0 λ ··· 0 ⎟
1 lo podemos escribir en la forma p = x − λ. Tenemos xq = ⎜ ⎜ ··· ··· ··· ··· ⎟

x = λ + (x − λ) = λq + 1qp. Luego, P = λ y M = 1 y nuestra ⎝ 0 ⎜ ⎟
0 ··· 1 ⎠
matriz se ve como en el recuadro a la derecha. A las matrices de 0 0 ··· λ
este tipo las llamaremos celdas de Jordán.
El caso ∇ = 1 nos parece ya muy sencillo pero es probablamente, el más importante.
Si nuestro campo es el de los números complejos entonces, por el Teorema de Gauss todo
polinomio irreducible es de grado 1. Luego, ∇ = 1 es el caso general si los escalares son los
complejos.
Combinando el Teorema de Descomposición en Componentes Radicales Cı́clicas (5.40)
con las celdas de Jordán obtenemos el siguiente.

Forma normal de Jordán

Si h es un operador lineal en un espacio vectorial finito dimensional sobre


el campo de los números complejos entonces, existe una base del espacio
vectorial en la cual la matriz del operador es diagonal por bloques y los
bloques son celdas de Jordán.

Camille Jordan (Lyon 1838 ­ Parı́s 1922) Matemático e ingeniero. Co­


nocido tanto por su trabajo sobre la teorı́a de los grupos como por su
inuyente libro “Cours d’analyse”. Su libro “Traité des substitutions
et des équations algébriques” publicado en 1870 contiene su descubri­
miento de las ahora conocidas como formas normales de Jordán. Fué el
primer matemático que realmente entendió a Galois despues de la pu­
blicación póstuma de los trabajos de Galois en 1846 y contribuyó nota­
blemente a que la Teorı́a de Grupos y la Teorı́a de Galois fueran parte
de la corriente principal de las matemáticas.
∇=2
Nos interesaremos en los polinomios irreducibles de grado 2 con coefi­ µ ¶
2 a −b
cientes reales. Sabemos que son de la forma (x − a) + b2 con b 6= 0. Una
b a
matriz cuyo polinomio mı́nimo es de esta forma es la del recuadro a la derecha.
Como no hay un candidato más simple para nuestros bloques diagonales aquı́ haremos
µ ¶ las cosas al revez. Buscaremos nuestros polinomios para que P sea igual a esta
y u
matriz y veremos que matriz M podemos obtener. Denotemos las entradas de
z v
la matriz M como se muestra a la izquierda. Denotemos p = (x − a)2 + b2 .
Necesitamos dos polinomios de grado 1 para formar la base q = αx + β y r = γx + δ.
166 Capı́tulo 5. Descomposición de operadores lineales
Nuestra incógnitas α, β, γ, δ, y, z, u y v deben cumplir dos ecuaciones polinomiales
xq = aq + br + ypq + zpr
.
xr = ar − bq + upq + vpr
Igualando los coeficientes en las potencias de x obtenemos 8 ecuaciones. De estas, hay 2
que son combinación lineal de las demás por lo que tenemos 6 ecuaciones y 8 incógnitas.
Por esto, tomaremos α y γ como parámetros. Resolviendo el sistema, obtenemos una única
solución: αγ γ2
β = bγ − aα , y = , u =
b (α2 + γ2 ) b (α2 + γ2 )
2
−α −αγ
−δ = aγ + bα , z = 2 2
, v= .
b (α + γ ) b (α2 + γ2 )

Aquı́ tenemos la libertad de escoger α y γ y para cada una de ellas obtendrı́amos matri­
⎛ ⎞ ces M diferentes. Tomemos α = 0 y γ = 1 y obtenemos q = b,
a −b 0 1/b r = x − a, u = 1/b y las otras tres entradas de M son cero.
⎜ b a 0 0 ⎟
⎜ ⎟ Luego, si h : R4 → R4 es un OLCR con polinomio mı́nimo
⎝ 0 0 a −b ⎠ ³ ´2
0 0 b a (x − a)2 + b2 tal que b 6= 0 entonces hay una base de R4
en la cual su matriz es igual a la del recuadro de la izquierda.
Lo que no nos gusta es el 1/b en la esquina superior derecha. ¿Podemos cambiarlo por
1? La respuesta es si, pero para esto necesitamos cambiar la base de una manera no prevista
en la teorı́a general que desarrollamos. Nuestra base del espacio de polinomios es
b, x − a, bp, (x − a) p
y si la cambiamos por bp p
b, x − a, , (x − a)
b b
todo permanece igual excepto que el 1/b se convierte en 1.
La clave del porqué esto funcionará en general es que en nuestra teorı́a nunca realmente
se usó que p fuera mónico.
Por esto, si cambiamos en la base p por p/b ⎛
a −b 0 1 ··· 0 0

entonces en nuestra matriz todo lo que está por ⎜ b a 0 0 ··· 0 0 ⎟
⎜ ⎟
arriba de los bloques en la diagonal se multipli­ ⎜
⎜ 0 0 a −b ··· 0 0 ⎟

cará por b. ⎜ 0 0 b a ··· 0 0 ⎟
⎜ ⎟
⎜ ··· ··· ··· ··· ··· ··· ··· ⎟
Luego, si h : R2m ³ → R2m es un ´ OLCR ⎜



2
m ⎜ 0 0 0 0 ··· 0 1 ⎟
con polinomio mı́nimo (x − a) + b2 tal ⎜
⎜ 0 0 0 0 ··· 0 0 ⎟

⎝ 0 0 0 0 ··· a −b ⎠
que b 6= 0 entonces hay una base de R2m en
0 0 0 0 ··· b a
la cual su matriz es igual a la del recuadro. A
las matrices de este tipo las llamaremos celdas
cuadráticas.
Como en los reales tenemos polinomios irreducibles de dos tipos: lineales y cuadráticos
entonces la forma normal es un poco más complicada.
Sección 5.7 Estructura de los operadores cı́clicos radicales 167

Forma normal real

Si h es un operador lineal en un espacio vectorial finito dimensional sobre


el campo de los números reales entonces, existe una base del espacio vecto­
rial en la cual la matriz del operador es diagonal por bloques y los bloques
son celdas de Jordán o celdas cuadráticas.

Usando la base canónica

Ahora©regresemos al ªcaso general. Sea p irreducible de grado ∇. El conjunto de po­


linomios 1, x, . . . , x∇−1 es una base del espacio de polinomios de grado menor que ∇.
Denotemos qi = xi a los elementos de esa base.
Para k ≤ ∇ − 2 tenemos que xqi = qi+1 . Si p = x∇ − α∇−1 x∇ − · · · − α1 x − α0
entonces,
xq∇−1 = x∇ = α0 q0 + α1 q1 + · · · + α∇−1 q∇−1 + 1q0 p
lo que quiere decir que nuestra matriz P es la matriz acompañante del polinomio p y nuestra
matriz M es la que tiene un 1 en la esquina superior derecha y todas sus demás entradas son
cero. O sea, nuestro OL (para m = 2) se puede representar con la siguiente matriz
⎛ ⎞
0 ... 0 α0 0 ... 0 1
⎜ 1 ... 0 α1 0 ... 0 0 ⎟
⎜ ⎟
⎜ ... ... ... ... ... ... ... ... ⎟
⎜ ⎟
⎜ 0 ... 1 α∇−1 0 ... 0 0 ⎟
⎜ ⎟
⎜ 0 ... 0 α0 ⎟

0
⎜ ⎟
⎜ 1 ... 0 α1 ⎟
⎜ ⎟
⎝ ... ... ... ... ⎠
0 ... 1 α∇−1

Debe ser claro el tipo de la matriz para m más grandes. A una matriz de este tipo la
llamaremos celda canónica. Observese que las celdas canónicas para ∇ = 1 son celdas de
Jordán. Sin embargo, para ∇ = 2 las celdas canónicas y las celdas cuadráticas son diferentes.
Efectivamente, supongamos m = 2. Como p = (x − a)2 + b2 = x2 − 2ax + c donde
c = a2 + b2 entonces, en la desigualdad
⎛ ⎞ ⎛ ⎞
0 −c 0 1 a −b 0 1
⎜ 1 2a 0 0 ⎟ ⎜ b a 0 0 ⎟
⎝ 0 0 0 −c ⎠ =
6 ⎝ 0 0 a −b ⎠
0 0 1 2a 0 0 b a
la celda canónica es la de la izquierda y la celda cuadrática es la de la derecha. La ventaja de
las celdas cuadráticas es que son más fáciles de intuir geométricamente mediante rotaciones.
La ventaja de las celdas canónicas es que siempre funcionan.
168 Capı́tulo 5. Descomposición de operadores lineales
Forma normal canónica

Si h es un operador lineal en un espacio vectorial finito dimensional sobre


cualquier campo entonces, existe una base en la cual la matriz del operador
es diagonal por bloques y los bloques son celdas canónicas.

5.8 Polinomio caracterı́stico

Rectas invariantes

Los subespacios invariantes no triviales más sencillos que nos podemos imaginar son los
de dimensión 1 o sea las rectas por el origen. Si h : E → E es un OL y F es invariante
de dimensión 1 entonces la restricción de h a F es una homotecia. Sea {a} una base de F.
Entonces, existe un escalar λ (la razón de la homotecia) tal que h (a) = λa.
Recı́procamente, supongamos que existen un escalar λ y un vector no nulo a tales que
h (a) = λa entonces, al vector a se le llama vector propio del operador h y al escalar λ se
le llama valor propio de h. También decimos que λ es el valor propio correspondiente al
vector propio a. Observese que el valor propio correspondiente a un vector es único pues de
λa = λ0 a obtenemos (λ − λ0 ) a = 0 y como a 6= 0 esto implica que λ = λ0 .

La recta hai es h­invariante si y solo si a es un vector propio de h.

Prueba. Ya vimos la parte “solo si”. Supongamos que a es un vector propio. Sea λ su
correspondiente valor propio. Por linearidad de h, para cualquier escalar α se cumple que
h (αa) = αh (a) = α (λa) = (αλ) a y esto significa que hai es h­invariante.

El polinomio caracterı́stico de un operador lineal

Recordemos que el determinante de un OL está bien definido como el determinante de


su matriz en una base arbitraria.
El hecho de que h (a) = λa lo podemos expresar como que el operador λI − h evaluado
en el vector a es cero. O sea el vector está en el nucleo de λI − h. Esto quiere decir que
ker (λI − h) es el conjunto de todos los vectores propios correspondientes a λ. Sabemos que
ker (λI − h) es no vacı́o si y solo si det (λI − h) = 0. Luego, λ es un valor propio de h si y
solo si det (λI − h) = 0.
Ası́ para calcular los valores propios de h podrı́amos probar todos los elementos λ del
campo y comprobar si det (λI − h) = 0. Esta estrategia es imposible de realizar si el campo
K es infinito. Por esto es mejor considerar la función K 3 x 7→ det (xI − h) ∈ K y encontrar
sus raices.
Sección 5.8 Polinomio caracterı́stico 169

det (xI − h) es un polinomio mónico de grado dim h en la variable x.

Prueba. Sabemos que el determinante de un OL no depende de la base en el cual se calcule.


Tomemos una base cualquiera N del espacio vectorial. Tenemos |N| = dim h. Sea αNN la
matriz de h en la base N. La matriz de xI − h en la base N es βNN = xδNN − αNN donde
δNN es el delta de Kronecker (la matriz identidad). Las entradas de βNN son βii = x − αii
y βij = −αij para cualquier j 6= i.
El determinante lo calculamos por la definición
X Y
det βNN = sgn σ βiσ i .
σ∈S N i∈N
Como los βij son polinomios, el producto y la suma de polinomios son polinomios, tenemos
que det βNN es un polinomio. Observemos además que βNN solo contiene la variable x en la
diagonal. Por esto, la potencia más grande de x en det βNN se obtiene cuando la permutación
σ es la identidad, o sea en el producto
Y Y
βii = (x − αii ) .
i∈N i∈N
Aplicando la ley distributiva vemos que es de grado |N| y tiene coeficiente principal 1.

Al polinomio det (xI − h) se le llama polinomio caracteristico de h. De esta manera,


los valores propios de h son las raices del polinomio caracterı́stico. Si αNN es la matriz
de h en la base N entonces, los vectores propios correspondientes a un valor propio λ se
pueden hallar resolviendo el sistema de ecuaciones lineales (λδNN − αNN ) aN = 0N . Este
es un sistema de ecuaciones lineales homogeneo y su conjunto de soluciones es ker (λI − h).
El conjunto ker (λI − h) es un subespacio invariante que se conoce como el subespacio
propio correspondiente al valor propio λ. La restricción de h a un subespacio propio es una
homotecia. De hecho, los subespacios propios son los subespacios invariantes más grandes
en los que h es una homotecia.

Ejercicio 109 Demuestre que el coeficiente en xn−1 del polinomio caracterı́stico multipli­
cado por −1 es la suma de las entradas diagonales de la matriz del operador en cualquier
base. A este escalar se le llama la traza del operador.

El polinomio caracterı́stico y el polinomio mı́nimo

Si h = f ⊕ g entonces, el polinomio caracterı́stico de h es


igual al producto de los polinomios caracterı́sticos de f y g.
170 Capı́tulo 5. Descomposición de operadores lineales
Prueba. Sean F y G los subespacios invariantes en los cuales estan µ ¶
M 0
definidas f y g. Por 5.3, si A es una base de F y B es una base de G
0 M0
entonces, en la base de todo el espacio A ∪ B, la matriz de xI − h es
diagonal por bloques. El determinante de cualquier matriz diagonal por bloques es igual al
producto de los determinantes de los bloques diagonales. El determinante del bloque superior
izquierdo es el de xI − f o sea, el polinomio caracterı́stico de f. El determinante del bloque
inferior derecho es el de xI − g o sea, el polinomio caracterı́stico de g. ¥

Si h es cı́clico entonces, los polinomios


mı́nimo y caracterı́stico de h coinciden.

Prueba. Si h es cı́clico con polinomio mı́nimo ⎛ ⎞


p = x − αn−1 xn−1 − · · · − α1 x − α0 entonces de
n x 0 ... 0 −α0
5.34 sabemos que en cierta base la matriz de h es la ⎜ ⎜ −1 x ... 0 −α1 ⎟ ⎟
matriz acompañante de p que denotaremos por A. Por ⎜ ⎜ ... ... ... ... ... ⎟

definición de matriz acompañante la matriz xI − A es ⎝ 0 0 ... x −αn−2 ⎠
la que se muestra a la derecha. El determinante de esta 0 0 ... −1 x − αn−1
matriz es el polinomio caracterı́stico de h.
Calculémoslo. Triangulando con el método de eliminación de Gauss obtenemos que su
determinante
⎛ es igual al de la matriz ⎞
x 0 ... 0 −α0
⎜ 0 x ... 0 −α1 − α0 x−1 ⎟
⎜ ⎟
⎜ ... ... ... ... ... ⎟.
⎜ ⎟
⎝ 0 0 ... x −αn−2 − αn−3 x−1 − · · · − α1 x−n+3 − α0 x−n+2 ⎠
0 0 ... 0 x − αn−1 − αn−2 x−1 − · · · − α1 x−n+2 − α0 x−n+1
Multiplicando las entradas en la diagonal obtenemos p.

Teorema de Hamilton­Caley­Frobenius
5.51

El polinomio caracterı́stico es un múltiplo del polinomio mı́nimo.


Estos dos polinomios tienen los mismos factores irreducibles.

Prueba. Por el Teorema de Descomposición en Componentes Radicales Cı́clicas (5.40) todo


OL tiene una descomposición en componentes cı́clicas. Por 5.50 los polinomios mı́nimos y
caracterı́sticos coinciden en cada una de las componentes. Por 5.49 el polinomio caracterı́sti­
co es el producto de los de las componentes. Por 5.36 el polinomio mı́nimo es el mı́nimo
común múltiplo de los de las componentes. El mı́nimo común múltiplo es siempre un divi­
sor del producto. El mı́nimo común múltiplo siempre tiene los mismos factores irreducibles
que el producto.
La primera afirmación se conoce en la literatura como Teorema de Hamilton­Caley y
es equivalente por definición de polinomio mı́nimo a que el polinomio caracterı́stico de h
Sección 5.8 Polinomio caracterı́stico 171

evaluado en h es el operador nulo. La segunda se conoce como Teorema de Frobenius. Una


curiosidad histórica es que fué Frobenius el que dió la primera prueba completa del Teorema
de Hamilton­Caley.
Es posible dar muchas diferentes demostraciones del Teorema de Hamilton­Caley que
no pasan por la descomposición de un operador en componentes cı́clicas (que es el resultado
“duro” de esta teorı́a). La idea de una de ellas es tomarse un vector a, observar que en el
subespacio invariante haih los polinomios caracterı́stico y mı́nimo coinciden y por lo tanto el
polinomio caracterı́stico está en el h­anulador de a. Como el vector a es arbitrario entonces
el polinomio caracterı́stico está en el h­anulador de todo el espacio y por lo tanto es un
múltiplo del polinomio mı́nimo.
El Teorema de Frobenius se prueba facilmente sobre los complejos ya que lo esen­
cial aquı́ es saber que si p es un factor irreducible del polinomio caracterı́stico entonces,
ker (ph ) 6= ∅ o sea, existen vectores de perı́odo p. Esto es inmediato en el caso complejo
porque todos los irreducibles son de grado 1 y todo valor propio tiene al menos un vector
propio correspondiente. En el caso general, para que esto funcione, es necesaria la introduc­
ción del campo de descomposición de un polinomio y esto queda fuera de los objetivos de
este libro.
Por otro lado, el saber a priori la veracidad de estos dos teoremas no ayuda en mucho
para la prueba de la existencia de h­bases, o lo que es lo mismo, la existencia de una des­
composición en componentes cı́clicas.

Ejercicio 110 Un OL es diagonalizable si existe una base en la cual su matriz es diagonal.


Pruebe que un OL es diagonalizable si y solo si su polinomio mı́nimo es un producto de
diferentes polinomios de grado 1.
Ejercicio 111 Un OL es triangulable si existe una base ordenada en la cual su matriz es
triangular. Pruebe que un OL es triangulable si y solo si su polinomio caracterı́stico es un
producto de polinomios de grado 1. En particular, todo OL complejo es triangulable.
172
Ejercicio 1 (Sección 1.1 página 2) La suma y el producto están bien definidas en N, Z,
Q, R y C. La resta en Z, Q, R y C. La división en Q, R y C. La exponenciación es más
complicada ya que aunque está bien ´
definida
³ en N no está ´bien definida en Z, Q y R ya
¡ −1 1 ¢ ³ 1/2 √
que 2 = 2 ∈ /Z , 2 = 2∈ / Q y (−1)1/2 = i ∈ / R . Por otro lado, la exponencia­
ción si esta bien definida en √
R+ (los mayores que cero). Para ver esto. usamos las fórmulas
a
(p/q) = p /q , a
a a p/q
= q ap , (lı́mi→∞ ai )b = lı́mi→∞ abi y finalmente si c = lı́m ai
√ i→∞
entonces bc = lı́mi→∞ bai . Con ellas reducimos la prueba a demostrar que n m es un re­
al para cualesquiera (diferentes de cero) naturales n y m. Esto último es equivalente a ver
que la función f (x) = xn − m alcanza el valor cero. Como f (x) es continua, f (1) ≤ 0 y
f (m) ≥ 0 esto necesariamente tiene que ocurrir. No es difı́cil ver, que la función y = ax
es estrictamente creciente en la variable x por lo que esta tiene una función inversa log a y
definida en R+ . Las operaciones máximo común divisor y mı́nimo común múltiplo están
definidas para los naturales (y polinomios).

Ejercicio 2 (Sección 1.1 página 2) Una operación unaria en el conjunto A es una función
de A en A. Por ejemplo para cada entero x hay otro entero −x. De esta manera la operación
x 7→ −x es una operación unaria. Otros ejemplos comunes son el hallar el complemento de
un conjunto o el hallar el complejo conjugado de un número complejo.

Ejercicio 3 (Sección 1.1 página 2) El area del triángulo con lados a, b y c no es una opera­
ción ternaria en R ya que no para cualesquiera a, b y c existe un triángulo con lados de esas
longitudes.

Ejercicio 4 (Sección 1.1 página 2) La fórmula (a + b) (x + y) se expresa en notación sufija


como ab + xy + ×.

Ejercicio 5 (Sección 1.1 página 3) La suma, el producto, el máximo común divisor el mı́ni­
mo común múltiplo y el máximo son operaciones conmutativas. Las demás no lo son.

Ejercicio 6 (Sección 1.1 página 3) Ya vimos en el texto que la exponenciación no es asocia­


tiva. Observemos que 4 = 4 − (2 − 2) 6= (4 − 2) − 2 = 0 por lo que la resta no es asociativa.
Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la división no es asociativa. Tampoco
es asociativa el logaritmo. El resto de las operaciones si son asociativas.

Ejercicio 7 (Sección 1.1 página 4) La resta no tiene elemento neutro ya que de a − e = a


se sigue que e = 0 pero por otro lado 0 − a = −a 6= a. Lo mismo ocurre con la división.
La operación de exponenciación no tiene elemento neutro ya que e1 = 1 ⇒ e = 1 pero
174 Soluciones de ejercicios selectos
12 = 1 6= 2. Lo mismo ocurre con el logaritmo. El neutro de la suma es el cero, el neutro del
producto es el uno. El 1 también es el neutro para el mı́nimo común múltiplo. La operación
de máximo común divisor no tiene neutro.

Ejercicio 8 (Sección 1.1 página 5) Es importante señalar que el inverso tiene sentido solo
si hay neutro. El inverso de a para la suma es −a, para el producto es a1 . Aunque el mı́nimo
común múltiplo tiene neutro 1, esta operación no tiene inversos.

Ejercicio 9 (Sección 1.1 página 5) Fijémonos en un conjunto U y en el conjunto de todos


los subconjuntos de U que denotaremos por 2U . En 2U están bien definidas las operaciones
de unión e intersección de conjuntos. Estas operaciones cumplen las propiedades requeridas
como se puede observar en los dos siguientes diagramas de Venn.

A A
B B

C C
A ∩ (B ∪ C) = A ∪ (B ∩ C) =
= (A ∩ B) ∪ (A ∩ C) = (A ∪ B) ∩ (A ∪ C)

Ejercicio 11 (Sección 1.2 página 8) No porque (1, 0) × (0, 1) = (0, 0) lo que muestra que
K2 no es dominio de integridad y por lo tanto no es un campo.

Ejercicio 12 (Sección 1.2 página 9) Supongamos que n es un√racional. Decomponiendo
su numerador y denominador en factores primos obtenemos que n = pn1 1 pn2 2 . . . pnt t para
ciertos naturales primos p1 p2 . . . pt y ciertos números enteros n1 , n2 , . . . , nt . Pero entonces,
n = p2n 1 2n 2
1 p2 . . . p2n
t
t
y por √
lo tanto ∀i ∈ {1, ..., t} 2ni ≥ 0. Luego, todos los ni son
naturales lo que significa que n es natural.
√ √
Ejercicio 13 (Sección 1.2 página 9) Tenemos 1 < 2 < 2 y por lo tanto 2 no es natural.
Por el ejercicio anterior, no es racional.

Ejercicio 14 (Sección 1.2 página 9) Siempre podemos medir un segmento de recta con
cada vez más precisión (al menos teóricamente). Cada medición nos da un número racional.
Luego, la longitud del segmento es un lı́mite de racionales por lo que es un real.

Ejercicio 18 (Sección 1.3 página 12) Por 1.1.4 sabemos que f (0)¡= 0 y ¢f (1) = 1. Si¡ f (a)
¢=
0 y¡ a no¢ fuera el cero de A entonces tendrı́amos 1 = f (1) = f aa−1 = f (a) f a−1 =
0f a−1 = 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0. Luego, si f (x) = f (y)
entonces, f (x − y) = 0 y por lo tanto x = y.

Ejercicio 21 (Sección 1.4 página 16)


Soluciones de ejercicios selectos 175

La tabla de multiplicar en Z5 es la derecha. Luego el elemento in­


verso de 1 es 1, el elemento inverso de 2 es 3, el elemento inverso • 0 1 2 3 4
de 3 es 2 y el elemento inverso de 4 es 4. Observese que en la tabla 0 0 0 0 0 0
1 0 1 2 3 4
de multiplicar de Z5 \0 en cada columna y en cada renglón nos en­ 2 0 2 4 1 3
contramos con todos los elementos posibles. Esto es una propiedad 3 0 3 1 4 2
de las operaciónes binarias de los grupos. De hecho, un conjunto 4 0 4 3 2 1
con una operación binaria asociativa y con elemento neutro es un
grupo si y solo si su tabla de multiplicar cumple esta propiedad.

Ejercicio 22 (Sección 1.4 página 16) Sea K un campo y G un subgrupo finito de (K \ 0, •).
Si x ∈ G entonces al natural n más pequeño © tal que xn = 1ª lo llamaremos orden de x.
En este caso todos los elementos de hxi = 1, x, x . . . xn−1 son diferentes y la función
2

f : (hxi , •) 3 xi 7→ i ∈ (Zn , +) es un isomorfismo de grupos. Luego, lo que hay que probar


es que en G existe un elemento de orden q = |G|.
1. Sea F un subgrupo de G. Para x ∈ G el conjunto xF = {xf | f ∈ F} se le llama clase
lateral de x. Tenemos que si f ∈¡ F entonces¢ fF ¡= F ya que F¢es un subgrupo. De
−1 −1
(y ∈ xF) ⇒ (y = xf) ⇒ x = yf ⇒ xF = yf F ⇒ (xF = yF)
(y ∈ xF ∩ zF) ⇒ (xF = yF = zF)
obtenemos que las clases laterales forman una partición de G. La función F 3 f 7→
xf ∈ xF es la inversa de xF 3 xf 7→ f ∈ F y por lo tanto cualquier clase lateral tiene la
misma cantidad de elementos que F. Luego |F| es un divisor de |G| y el cociente |G|÷|F|
es el número de clases laterales. Este hecho se conoce como Teorema de Lagrange.
En particular, el orden de cada x ∈ G es un divisor de q = |G|.
2. Sea x de orden n y denotemos ϕ(n) el número de elementos de orden n en hxi.
Como x tiene orden n entonces, ϕ(n) ≥ 1. La función ϕ(n) no depende de x pues
cualesquiera dos x, y de orden n son tales que los grupos hxi y hyi son isomorfos.
Luego, ϕ(n) solo depende del natural n.
Como cualquier z ∈ hxi tiene cierto orden que por el Teorema P de Lagrange es un
divisor de n y el número de elementos en hxi es n entonces, d|n ϕ (d) = n donde
la suma recorre todos los divisores de n. A ϕ se la conoce como Función de Euler.
3. Denotemos por ρ (n) al número de elementos de orden n en nuestro grupo G. Como
cualquier z ∈ G tiene
P cierto orden que por el Teorema de Lagrange es un divisor de
|G| = q entonces, d|q ρ (d) = q donde la suma recorre los divisores de q.
4. Si en G no hay un elemento de orden n entonces ρ (n) = ¡0. Si¢ por el contrario x ∈ G
n
tiene orden n entonces,∀y = xk ∈ hxi tenemos que yn = xk = (xn )k = 1. Luego,
todos los n elementos de hxi son raices del polinomio zn −1. Como el polinomio zn −1
no puede tener más de n raices en el campo K (véase el resultado 1.18) entonces, todos
los elementos de G de orden n están en hxi y por lo tanto ρ (n) = ϕ (n). De aquı́,
para cualquier n se tiene que ϕ (n) − ρ (n) ≥ 0.
176 Soluciones de ejercicios selectos
5. De (2) y (3) tenemos que
X X X
0= ϕ (d) − ρ (d) = (ϕ (d) − ρ (d))
d|q d|q d|q
y como por (4) ϕ (d) − ρ (d) ≥ 0 entonces, para cualquier d divisor de q = |G|
tenemos ϕ (d) = ρ (d). En particular, ρ (q) = ϕ (q) ≥ 1. Esto significa que en G hay
un elemento de orden q = |G|.

Ejercicio 23 (Sección 1.4 página 16) La prueba de que es un anillo conmutativo es direc­
ta de las definiciónes de suma y producto. Para ver que es un campo observamos que el
producto (a, b) (x, y) = (ax + 7by, ay + xb) tiene neutro (1, 0). Para hallar los inversos
multiplicativos resolvemos el sistema de ecuaciones lineales
¯
ax + 7by = 1
ay + xb = 0
que tiene como solución única x = a/∆ , y = −b/∆ donde ∆ = a2 − 7b2 . Nos queda
comprobar que si ∆ = 0 entonces a = b = 0. Efectivamente, observando la siguiente tabla
calculada en Z11
x 1 2 3 4 5 6 7 8 9 10
x2 1 4 9 5 3 3 5 9 4 1
7x2 7 6 8 2 10 10 2 8 6 7
vemos que ningún a puede ser igual a un 7b2 .
2

Ejercicio 24 (Sección 1.5 página 18) No, porque t no es un elemento del campo al contrario,
t es un número natural. Lo que quiere decir tx es x + · · · + x , t veces.

Ejercicio 25 (Sección 1.5 página 18) De que a = −a obtenemos que


0 = a + a = 1a + 1a = (1 + 1) a
Como todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0. Si la
caracterı́stica del campo es diferente de 2 entonces, 1 + 1 6= 0 por lo que la afirmación del
ejercicio es cierta. Si la caracterı́stica del campo es 2 entonces, 1 + 1 = 0 y por lo tanto
a = −a para cualquier elemento del campo.

Ejercicio 26 (Sección 1.6 página 21) En cualquier campo (xy)p = xp yp . Por el binomio
p
p
X p!
de Newton (x + y) = xk yn−k . El coeficiciente binomial p!/k! (p − k) !
k=0
k! (p − k) !
se divide entre p si k ∈ [1, ..., n − 1]. Esto quiere decir (ver 1.15) que en un campo de
caracterı́stica p todos los sumandos del binomio de Newton excepto el primero y el último
son cero. Luego (x + y)p = xp + yp . Esto muestra que x 7→ xp es un morfismo. Como
todo morfismo de campos es inyectivo (ver ejercicio 18) y toda función inyectiva de un
conjunto finito en si mismo es sobreyectiva obtenemos que este morfismo es automorfismo
para campos finitos.

Ejercicio 1.18 (Sección 1.7 página 21) En los quaterniones (x − i) (x + i) = x2 − ix +


Soluciones de ejercicios selectos 177

xi + 1 6= x2 + 1 lo que quiere decir que no es posible definir correctamente el producto de


polinomios.

Ejercicio 27 (Sección 1.7 página 25) Idea: todo lo demostrado para polinomios se traduce
tal cual para los enteros. La única diferencia es que en lugar de usar el concepto de grado de
un polinomio hay que usar el concepto de valor absoluto de un entero.

Ejercicio 28 (Sección 1.7 página 27) Si i < k entonces la suma es vacı́a y por lo tanto es
cero. Si i = k entonces, hay un solo sumando en el cual i = j = k y este sumando es uno.
Supongamos i > k. Haciendo los cambios de variables t = j − k y n = i − k obtenemos
X µ ¶µ ¶ X µ ¶ n µ ¶
n+k X
i n
j−k j i t (n + k) ! t n
(−1) = (−1) = (−1)
j=k
k j t=0
k!t! (t − n) ! k t=0
t
Pn ¡ ¢
y esta última expresión es cero ya que t=0 (−1)t nt es el binomio de Newton de (x − 1)n
evaluado en x = 1.

Ejercicio 29 (Sección 1.7 página 27)P De la prueba del Desarrollo


¡ j ¢ de Taylor (1.22) sabemos
n j−k
que si k ∈ {0, . . . , n} entonces, ak = j=k bkj αj donde bkj = k (−x0 ) . Por el ejercicio
anterior P
tenemos
n Pn Pi j−k ¡ j ¢¡i¢ P
bkj β j = (−1) ai xi−k
0 == ni=k δik ai xi−k
0 = ak
Pn j=k ¡ ¢
i=k j=k k j
Luego, j=k bkj βj − αj = 0. Esto es un sistema de ecuaciones lineales con incogni­
¡ ¢
tas
Pn γ j = βj − α j . Definiendo bkj = 0 para k > j nuestro sistema se escribe como
j=0 bkj γj = 0. La matriz de este sistema es triangular y de determinante 1 ya que bkk = 1.
Luego el sistema tiene solución única βj = αj para j ∈ {0, . . . , n}.

EjercicioP30 (Sección 1.7 páginaP 27) Formalmente (¡y en cualquier campo!)


P la i!derivada de
p (x) = ni=0 ai xi es p(1) (x) = ni=1 iai xi−1 y por lo tanto p(j) (x) = ni=j (i−j)! ai xi−j =
P ¡¢
j! ni=j ij ai xi−j
0 . Del ejercicio anterior obtenemos la prueba.

Ejercicio 31 (Sección 1.8 página 29) Las raices del polinomio zn − 1 son xk = cos k 2π n
+
i sin k 2π
n
para k ∈ {0, . . . , n − 1}. Tenemos
µ ¶ µ ¶
2π 2π 2π 2π
xk xm = cos (k + m) + i sin (k + m) = cos ` + i sin ` = x`
n n n n
donde ` = (k + m) mod n. Para el producto, estas raices forman un grupo isomorfo a Zn .

Ejercicio 32 (Sección 1.8 página 29) Sean a, b y c tres lados de un triángulo. Por simetrı́a
solo tenemos que probar que |a − b| ≤ c. Podemos suponer que a ≥ b. Por la desigualdad
del triángulo b + c ≥ a y de aquı́ c ≥ a − b.
°¡ ¢ ° ¡ ¢
Ejercicio 33 (Sección 1.8 página 32) Para usar ° 1 − tk p (z0 )° = 1 − tk kp (z0 )k.

Ejercicio 34 (Sección 1.9 página 33) La propiedad 1 es inmediata de la definición. Para la


propiedad 2 vemos
178 Soluciones de ejercicios selectos

(a + bi) + (c + di) = (a + c) + (b + d) i =
= (a + c) − (b + d) i = (a − bi) + (c − di) = (a + bi) + (c + di)
Finalmente, para probar la propiedad 3 vemos que
(a + bi) (c + di) = (ac − bd) + (ad + bc) i =
= (ac − bd) − (ad + bc) i = (a − bi) (c − di) = (a + bi) (c + di)

Ejercicio 35 (Sección 1.10 página 34) Tenemos ab = ba por lo que (a, b) ∼ (a, b) lo que
significa que la relación es reexiva. De ad = bc obtenemos cb = da. Esto significa que
si (a, b) ∼ (c, d) entonces (c, d) ∼ (a, b) por lo que la relación es simétrica. Si ad = bc y
cf = de entonces adcf = bcde por lo que af = be. Esto significa que si (a, b) ∼ (c, d) y
(c, d) ∼ (e, f) entonces (a, b) ∼ (e, f) por lo que la relación es transitiva.

Ejercicio 36 (Sección 1.10 página 36) El campo de fracciones Z2 (x) contiene a Z2 y por lo
tanto es de caracterı́stica 2. Este campo tiene evidentemente un número infinito de elementos.

Ejercicio 37 (Sección 1.10 página 36) El campo de fracciones de un campo es el mismo.


¡ ¢ ¡ ¢
Ejercicio 38 (Sección 1.11 página 37) (a + b) = a 1 + a−1 b = a a−1 b + 1 = (b + a) .

Ejercicio 39 (Sección 1.11 página 38) Las seis igualdades necesarias se pueden obtener de
la siguiente manera
(ijk = −1) ⇒ (ijkk = −k) ⇒ (ij = k) ⇒ (ijj = kj) ⇒ (kj = −i)
(ijk = −1) ⇒ (iijk = −i) ⇒ (jk = i) ⇒ (jkk = ik) ⇒ (ik = −j)
(ijk = −1) ⇒ (kijkkj = −kkj) ⇒ (ki = j) ⇒ (kii = ji) ⇒ (ji = −k)

Ejercicio 40 (Sección 1.11 página 38) Por definición de producto de quaterniones


³ ´ µ 2 ¡ 2 ¢ ¶
2 a − b + c2 + d2 = −1
(a + bi + cj + dk) = −1 ⇔ .
ab = ac = ad = 0
Como a es un real b2 + c2 + d2 6= 0 por lo que cualquier solución de estas ecuaciones
requiere que a = 0.

Ejercicio 42 (Sección 2.1 página 40)


El triángulo abc es semejante al triángulo uvw de hecho son con­ u
gruentes porque ac = uw (lados opuestos de un paralelogramo tie­ b c
nen la misma longitud). Luego bc = wv y por lo tanto la coordenada w v
→ es igual a la de −
en x del vector −
au → más bc. La prueba para la otra
aw a
coordenada es igual.

Ejercicio 43 (Sección 2.1 página 40) Técnicamente hablando no ya que en el Capı́tulo 1


definimos una operación binaria como una función A × A → A y la multiplicación de un
escalar por un vector es una función del tipo B × A → A. Pero si es una operación binaria
en el sentido de que tiene dos argumentos.
Soluciones de ejercicios selectos 179

Ejercicio 44 (Sección 2.1 página 40) En la expresión α (βa) se utiliza un solo tipo de
operación (la de un escalar por un vector). En la expresión (αβ) a se utilizan dos operaciones
diferentes primero la del producto de escalares y después la de un escalar por un vector.

Ejercicio 46 (Sección 2.2 página 41) Si α 6= 0 entonces tiene inverso y por lo tanto
αa = 0 ⇒ a = α−1 αa = α−1 0 = 0

Ejercicio 47 (Sección 2.2 página 41) El mı́nimo número de elementos en un espacio vecto­
rial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Y efectivamente
un conjunto formado por un solo elemento es un espacio vectorial sobre cualquier campo
definiendo α0 = 0 para cualquier α en el campo.

Ejercicio 49 (Sección 2.3 página 49) P


Supongamos que x ∈ hN ∪ yi \ hNi. Entonces, existe
una combinación lineal x = αy y + i∈N αi i. Tenemos que αy 6= 0 (ya que x ∈ / hNi).
Luego, despejando y obtenemos que y ∈ hN ∪ xi.

Ejercicio 50 (Sección 2.4 página 50) Solo en la prueba de que 2⇒4 al despejar a.

Ejercicio 51 (Sección 2.4 página 52) 1.­ El conjunto vacı́o es LI y todo el espacio E es
generador. Luego existe N tal que ∅ ⊆ N ⊆ E que es base. 2.­ Si M es LI entonces existe
una base N tal que M ⊆ N ⊆ E. 3.­ Si L es generador entonces existe una base N tal que
∅ ⊆ N ⊆ L.

Ejercicio 52 (Sección 2.4 página 54) Sea A una base de E. Como F es generador y A ⊆ F es
LI entonces por el Teorema de Existencia de Bases (2.14) existe una base B de F que contiene
a A. De aquı́ tenemos dim E = |A| ≤ |B| = dim F. Esta prueba es válida independientemente
de si los cardinales de A y B son finitos o no.
P
Ejercicio 53 (Sección 2.4 página 54) El conjunto de todos los polinomios ai xi tales que
a0 = 0 es un subespacio de K [x] de la misma dimensión que K [x].

Ejercicio 54 (Sección 2.4 página 55) Es consecuencia directa del Desarrollo de Taylor
(1.22) alrededor del punto x0 .

Ejercicio 55 (Sección 2.4 página 55) La diferencia entre el espacio de las (N × M)­adas
y las NM­matrices es solo en las notaciones. Luego, el espacio de las NM­matrices tiene
dimensión |N × M| = |N| |M|. Para cada pareja i, j con i ∈ N y j ∈ M hay una matriz eij
en la base canónica la cual tiene su entrada ij igual a 1 y todas las demás igual a cero.
f g
Ejercicio 56 (Sección 2.5 página 56) Sean E → F → G transformaciones lineales. Tenemos
que f (g (x + y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (λx)) = f (λg (x)) =
λf (g (x)) y esto era todo lo que se querı́a probar.

Ejercicio 59 (Sección 2.6 página 63) 1.­ Es fácil probar que la aplicación E⊕F 3 (a, b) 7→
180 Soluciones de ejercicios selectos
(b, a) ∈ F ⊕ E es un isomorfismo canónico. 2.­ Conmutatividad. 3.­ El isomorfismo canóni­
co es ((a, b) , c) 7→ (a, (b, c)) 7→ (a, b, c). 4.­ Si, la aplicación E ⊕ {0} 3 (a, 0) 7→ a ∈ E
es un isomorfismo canónico. Por esto podemos considerar que E ⊕ {0} = E.

Ejercicio 60 (Sección 2.6 página 64) Denotemos por S a todo el espacio. Como cada vector
se expresa como a + b con a ∈ E y b ∈ F tenemos S = E + F. Supongamos que
a 6= 0 ∈ E ∩ F entonces 0 = 0 + 0 = a − a lo que contradice que la descomposición
de 0 es única. Luego E ∩ F = {0} y por lo tanto S = E ⊕ F.

Ejercicio 65 (Sección 2.7 página 67) Si E = E + x y F = F + y son dos subespacios


paralelos o no entonces E + F es igual a (E + F) + (x + y) o sea, es un espacio afı́n paralelo
a E+F. Si E es paralelo a F entonces, E = F y por lo tanto E+F = E. Si E y F se intersectan
en z entonces z ∈ hE ∪ zi ⊆ hE ∪ Fi = E + F y por lo tanto E + F = E + F.

Ejercicio 70 (Sección 3.4 página 85) Tómese x = (1, 0) , y = (0, 1) y z = (1, 1) . Tenemos
(xy) z = 0 (1, 1) = (0, 0) y x (yz) = (1, 0) 1 = (1, 0) por lo que (xy) z 6= x (yz) .
µ ¶
cos α − sin α
Ejercicio 73 (Sección 3.4 página 87)
sin α cos α

Ejercicio 74 (Sección 3.4 página 88) Para cualesquiera n ∈ N y k ∈ K tenemos


X XX
(αnM βML ) γLk = (αnM · βMl ) γlk = αnm βml γlk =
X X l∈L X l∈L m∈M
αnm βml γlk = αnm (βmL · γLk ) = αnM (βML γLk )
m∈M l∈L m∈M

Ejercicio 75 (Sección 3.4 página 89) Las matrices de f, g y f ◦ g tienen que cumplir:
µ ¶ µ ¶µ ¶
cos (α + β) − sin (α + β) cos α − sin α cos β − sin β
= =
sin (α + β) cos (α + β) sin α cos α sin β cos β
µ ¶
cos α cos β − sin α sin β − cos α sin β − sin α cos β
=
cos α sin β + sin α cos β cos α cos β − sin α sin β
y por lo tanto cos (α + β) = cos α cos β − sin α sin β
sin (α + β) = cos α sin β + sin α cos β

Ejercicio 76 (Sección 3.7 página 97) Sea f semilineal y σ y ρ dos automorfismos del campo
tales que para cualquier escalar λ y cualquier vector a se cumple que f (λa) = σ (λ) f (a) =
ρ (λ) f (a). Podemos escoger a tal que f (a) 6= 0 y por lo tanto ((σ (λ) − ρ (λ)) f (a) = 0) ⇒
(σ (λ) = ρ (λ)).

Ejercicio 77 (Sección 3.7 página 98) Supongamos que sup A existe. Entonces, ∀b ∈ R te­
nemos (∀a ∈ A b ≥ a) ⇒ (b ≥ sup A) . Usando que f es una isotonı́a vemos que ∀f (b) ∈
f (R) = R tenemos (∀f (a) ∈ f (A) f (b) ≥ f (a)) ⇔ (∀a ∈ A b ≥ a) ⇒ (b ≥ sup A) ⇒
(f (b) ≥ f (sup A)) y esto prueba que f (sup A) = sup f (A).
Soluciones de ejercicios selectos 181

Ejercicio 78 (Sección 3.7 página 98) (1 ⇒ 2) La conjugación compleja es continua. (2 ⇒ 3)


Tenemos (véase la prueba de 3.34) que f es la identidad en Q. De que los reales son los lı́mi­
tes de los racionales y f es continua obtenemos que f es la identidad ¡en ¢R. (3 ⇒ 1) Si f es
la identidad en R entonces, f (a + bi) = a + bf (i). Como f (i)2 = f i2 = f (−1) = −1 y
f (i) 6= i entonces, f (i) = −i.
Para ver que hay muchos automorfismos de C que no son la conjugación compleja véase por
ejemplo: Yale, Paul B., Automorphisms of the complex numbers, Mathematics Magazine,
May­June 1966, 135–141.

Ejercicio 79 (Sección 3.7 página 99) La función (x1 , . . . , xn ) 7→ (x1 , . . . , xn ) es biyectiva


ya que λ 7→ λˉ es biyectiva. Además, tenemos
(x1 + y1 , . . . , x¡n + yn ) = (x1¢ + y¡1 , . . . , xn + y¢n ) = (x1 , . . . , xn ) + (y1 , . . . , yn )
ˉ 1 , . . . , λx
λx1 , . . . , λxn = λx ˉ n = λˉ (x1 , . . . , xn )
y esto muestra que la función es un automorfismo semilineal.
Si f es una transformación semilineal arbitraria cuyo automorfismo del campo es σ enton­
ces, su composición con el automorfismo semilineal estandar correspondiente a σ−1 es una
transformación lineal.

Ejercicio 81 (Sección 3.7 página 102) Supongamos que 0 = αa+αc+βb−βc = (α − β) c+


(α + βρ) a. Como {a, c} es LI entonces, α = β y α (1 + ρ) = 0. Como ρ 6= −1 entonces,
0 = α = β.

Ejercicio 84 (Sección 4.3 página 115) Denotemos γMM = αω(L)M y ηMM = βMθ(N) .
Sabemos que det (γMM ηMM ) = det (γMM ) det (ηMM ) y esto es todo lo que se necesitaba
probar.

Ejercicio 86 (Sección 4.3 página 118) Es saludable poner la matriz de Vandermonde en


forma gráfica como se muestra en el recuadro a la derecha. ⎛ ⎞
1 1 ··· 1
Denotemos por v (x1 , x2 , . . . , xn ) al determinante de esta ⎜
⎜ x12 x2 · · · xn ⎟ ⎟
matriz. Denotemos ⎜
Y ⎜ x1 x22 · · · x2n ⎟ ⎟
f (x1 , x2 , . . . , xn ) = (xj − xi ) ⎝ ··· ··· ··· ··· ⎠
1≤i<j≤n xn−1
1 xn−1
2 · · · xn−1
n
Veamos que v (x1 , x2 , . . . , xn ) = f (x1 , x2 , . . . , xn ).
Por inducción en n. Para n = 1 tenemos f (x1 ) = v (x1 ) = 1. Supongamos que está pro­
bado hasta n − 1. Pongamos y = xn . Tenemos que probar que v (x1 , . . . , xn−1 , y) =
f (x1 , . . . , xn−1 , y). Para esto veamos ambos lados de la igualdad como polinomios en la
variable y. Ambos polinomios tienen grado n − 1.
Haciendo la expansión de Laplace por la última columna vemos que el coeficiente principal
de v (x1 , . . . , xn−1 , y) es igual a v (x1 , . . . , xn−1 ). Por otro lado
Y Y
f (x1 , . . . , xn−1 , y) = (xj − xi ) (y − xi )
1≤i<j≤n−1 1≤i≤n−1
que tiene coeficiente principal f (x1 , . . . , xn−1 ). Por hipótesis de induccion v (x1 , . . . , xn−1 ) =
182 Soluciones de ejercicios selectos
f (x1 , . . . , xn−1 ) y por lo tanto nuestros dos polinomios tienen el mismo coeficiente principal.
Además, las raices de v (x1 , . . . , xn−1 , y) son x1 , . . . , xn−1 porque evaluando y en estos valo­
res obtenemos una matriz con dos columnas iguales. Es obvio que x1 , . . . , xn−1 son también
las raices de f (x1 , . . . , xn−1 , y).
Luego, v (x1 , . . . , xn−1 , y) y f (x1 , . . . , xn−1 , y) son dos polinomios del mismo grado, con
los mismos coeficientes principales y las mismas raices y por lo tanto son polinomios iguales.

Ejercicio 87 (Sección 4.4 página 123) Las tres. Para la matriz A los bloques son M1 = {1} ,
M2 = {2} y M3 = {3}. Para la matriz B los bloques son M1 = {3} , M2 = {2} y M3 = {3}.
Para la matriz C los bloques son M1 = {2} , M2 = {3} y M3 = {1} ya que α23 = α21 =
α31 = 0. Los determinantes de las tres matrices son iguales a abc.

Ejercicio 88 (Sección 4.4 página 123)


El aspecto es el del recuadro a la derecha. Aquı́ hemos denotado ∗ ∗ 0 0 0
por ∗ las entradas que pueden ser diferentes de cero. Las entradas ∗ ∗ 0 0 0
con 0 son las que obligatoriamente tienen que ser cero. Además, ∗ ∗ ∗ 0 0
hemos dividido con rectas los tres bloques de la matriz. El de­ ∗ ∗ ∗ ∗ ∗
terminante de una matriz de este tipo es igual al producto de los ∗ ∗ ∗ ∗ ∗
determinantes de sus tres bloques diagonales.

Ejercicio 91 (Sección 5.1 página 137) Sean (a, b), (a0 , b0 ) ∈ E ⊕ F. Tenemos
(f ⊕ g) ((a, b) + (a0 , b0 )) = (f ⊕ g) (a + a0 , b + b0 ) = (f (a + a0 ) , g (b + b0 )) =
= (f (a) + f (a0 ) , g (b) + g (b0 )) = (f (a) +, g (b)) + (f (a0 ) , g (b0 )) =
= (f ⊕ g) (a, b) + (f ⊕ g) (a0 , b0 )
con lo que tenemos la primera propiedad de linearidad. Para la segunda vemos que
(f ⊕ g) (λ (a, b)) = (f ⊕ g) (λa, λb) = λ (f (a) , g (b)) = λ ((f ⊕ g) (a, b)).

Ejercicio 92 (Sección 5.1 página 138)


(f0 ◦ g0 ) (a, b) = f0 (g0 (a, b)) = f0 (a, g (b)) = (f (a) , g (b)) = (f ⊕ g) (a, b).

Ejercicio 95 (Sección 5.3 página 146) Como pq divide a p0 q0 y p0 q0 divide a pq enton­


ces pq = p0 q0 . Sean p = pi11 · · · piaa y q = qj11 · · · qjbb las descomposiciones en factores
irreducibles. Como p y q son coprimos entonces, todos los p` son distintos a los q` y la
descomposición pq = pi11 · · · piaa qj11 · · · qjbb es la descomposición en factores irreducibles de
i0 i0 j0 j0
pq. Como p0 divide a p y q0 divide a q entonces, p0 q0 = p11 · · · paa q11 · · · qbb (donde i0` ≤ i`
y j0` ≤ j` ) es la descomposición en irreducibles de pq. Como p0 q0 = pq, de la unicidad de la
descomposición en irreducibles, obtenemos i0` = i` y j0` = j` o sea, p = p y q = q.

Ejercicio 96 (Sección 5.4 página 151) Sea f un operador lineal en End (E/F) y G un
subespacio complementario a F. Definimos h como la función nula en F, como h (a) =
G ∩ f (a + F) en G y en todo el espacio por extensión lineal. Para ver que h es lineal so­
lo hay que comprobar que es lineal en G. Esto es trivial porque en G la función h cumple
nat
h = nat−1 ◦f ◦ nat donde a 7−→ a + F es el isomorfismo canónico entre el cociente y un
Soluciones de ejercicios selectos 183

e basta comprobarlo para los vectores a que estan en G.


complementario. Para ver que f = h
Pero f (a + F) = h (a) + F ya que f = nat ◦h ◦ nat−1 .
Para calcular el nucleo
³ comprobamos ´ que para cualquier vector a se cumple que
e
h (a) = O (a) ⇔ (h (a) + F = F) ⇔ (h (a) ∈ F).

Ejercicio 97 (Sección 5.4 página 152) Sea p un polinomio cualquiera. Si ph (a) = 0 en­
tonces phh (a + F) = ph (a) + F = F. Si phh (a + F) = F entonces, ph (a) ∈ haih ∩ F y
e
por hipótesis ph (a) = 0. Luego, el h­anulador de a + F es igual al h­anulador de a + F y
por lo tanto perhh (a + F) = perh (a + F). Sea b ∈ F y q un polinomio. Como F y haih son
h­invariantes, tenemos que
(qh (a + b) = 0) ⇔ (qh (a) = −qh (b)) ⇔ (qh (a) = qh (b) = 0) ⇔ (qh (a) = 0) .
La implicacion (qh (a) = 0) ⇒ (qh (a) = qh (b) = 0) es válida porque si qh (a) = 0
entonces q es un multiplo de perh (a) que es múltiplo de perh (F) que a su vez es multiplo
de perh (b) y por lo tanto qh (b) = 0.
Luego, el h­anulador de a coincide con el h­anulador de a + F. Esto quiere decir que
perh (a + F) = perh (a).

Ejercicio 101 (Sección 5.6 página 158) Es fácil ver que hA ∪ Bih ⊇ hAih + hBih = F +
G = E y por lo tanto A ∪ B es h­generador. Comprobemos que A ∪ B es h­independiente.
Observese que A ∩ B = ∅ ya que 0 no está en ningún conjunto h­independiente y A ∩ B ⊆
F ∩ G = {0}. Luego una h­combinación de A ∪ B es de la forma
ph (a1 ) + · · · + qh (an ) + rh (b1 ) + · · · + sh (bn )
donde A = {a1 , . . . , an } y B = {b1 , . . . , bm }. Si esta h­combinación es igual cero entonces
F = hAih 3 ph (a1 ) + · · · + qh (an ) = −rh (b1 ) − · · · − sh (bn ) ∈ hBih = G
y por lo tanto,
ph (a1 ) + · · · + qh (an ) = rh (b1 ) + · · · + sh (bn ) = 0
y como A y B son h­independientes deducimos que
ph (a1 ) = · · · = qh (an ) = rh (b1 ) = · · · = sh (bn ) = 0.

Ejercicio 107 (Sección 5.7 página 163) Queremos ver que el siguiente diagrama de trans­
formaciones lineales es conmutativo:
h πi
Fj −→ E −→ Fi
k k
ph ↑ ↑ ph ↑ pkh
Fj+k −→ E −→ Fi+k
h π i+ k
El cuadrado de la izquierda es conmutativo por la conmutatividad de los polinomios eva­
luados en OL. Para probar la conmutatividad del cuadrado de la derecha comprobemoslo
en la base Bm = A1 ∪ · · · ∪ Am . Si x ∈ Ai+k entonces, pkh (x) ∈ Ai y por lo tanto
πi ◦ pkh = I = pkh ◦ πi+k . Si x ∈ Bm \ Ai+k entonces pkh (x) ∈ Bm \ Ai y por lo tanto
πi ◦ pkh = O = pkh ◦ πi+k . Luego, todo el diagrama es conmutativo y por lo tanto teniendo
en cuenta la definición de τij obtenemos que pkh ◦ τij = τi+k,j+k ◦ pkh . Como en este caso pkh
¡ ¢−1
es biyectiva obtenemos τi+k,j+k = pkh ◦ τij ◦ pkh .
184 Soluciones de ejercicios selectos
Álgebra. Espacio vectorial con un producto Automorfismo semilineal.
de vectores asociativo, distributivo, con ele­ Transformación semilineal biyectiva de un
mento neutro y que conmuta con el producto espacio en si mismo. . . . . . . . . . . . . . . . . . . . . . 98
por escalares. . . . . . . . . . . . . . . . . . . . .80, 88, 110 Base. Conjunto de vectores que es generador y
Álgebra conmutativa. LI. Conjunto generador minimal. Conjunto
Álgebra en la cual el producto de vectores LI maximal . . . . . 52, 56, 61, 72, 82, 89, 125
es conmutativo . . . . . . . . . . . . . . . . . . . . . . 81, 142 Base canónica.
Anillo. Conjunto con El conjunto de N­adas {ei | i ∈ N} donde la
dos operaciones binarias denotadas por + y j­ésima coordenada de ei es el delta de Kro­
• que es grupo abeliano para la suma, que el necker δij . . . . . . . . . . . . . . . . . . . . . . . . . 54, 87, 91
producto es asociativo con elemento neutro Base de las columnas. Conjunto
y distributivo respecto a la suma . . 7, 11, 80 de columnas diferentes que son una base del
Anillo conmutativo. Anillo en el cual el espacio de columnas . . . . . . . . . . . . . . . . . . . . 125
producto es conmutativo . . 7, 14, 21, 22, 34 Base de los renglones. Conjunto
Anulador de un conjunto de vectores. La de renglones diferentes que son una base del
intersección de los anuladores de todos los espacio de renglones . . . . . . . . . . . . . . . . . . . . 125
vectores en el conjunto . . . . . . . . . . . . . . . . . . 144 Base de una matriz. Submatriz no singular
Anulador de un OL. El anulador de todo el maximal por contención. . . . . . . . . . . 126, 132
espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 Binomio de Newton.
Anulador de un vector. El conjunto de Fórmula para expandir (x + y)n . . . . . 20, 27
polinomios p tales que ph (a) = 0 . . . . . 144 Cadena.
Argumento de un complejo. Subconjunto de un conjunto ordenado que


El ángulo que forma el vector 0z con el eje está totalmente ordenado. . . . . . . . . . . . . . *, 72
real del plano complejo . . . . . . . . . . . . . . . . . . 28 Cambio de ı́ndices.
Asociatividad. Propiedad de algunas Biyección mediante la cual los ı́ndices de
operaciones binarias que consiste en que una N­ada (o columnas, o renglones) obtie­
a ◦ (b ◦ c) = (a ◦ b) ◦ c nen nuevos nombres. Es la operación en que
para cualesquiera elementos a, b y c del una biyección ω : N → L se le aplica a las
conjunto en el cual está definida la opera­ columnas de una matriz αMN para obtener
ción . . . . . . . . . . . . . . . . . . . . 3, 13, 19, 22, 79, 88 la matriz βML = αMω(N) que cumple que
Asociatividad del producto por escalares. βij = αiω − 1 (j) . Análogamente se definen
Axioma de espacio vectorial: los cambios de ı́ndices de los renglones . 114
(βa) = (αβ) a . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Campo. Anillo conmutativo en
Automorfismo. Endomorfismo biyectivo . 13 el cual todo elemento diferente de cero tiene
Automorfismo de Frobenius. inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8, 15, 16
La función K 3 x 7→ xp ∈ K donde K es Campo algebraicamente cerrado.
un campo finito de caracterı́stica p > 0. . 21 Campo en el cual todo polinomio de gra­
186 cam – cof
do al menos uno tiene una raı́z. Campo el nal y ceros en las demás entradas. Todo OL
cual los polinomios irreducibles son todos real es diagonalizable por bloques que son
de grado uno . . . . . . . . . . . . . . . . . 10, 27, 34, 59 celdas de Jordán o celdas cuadráticas. . . 166
Campo de fracciones. Entre Celda de Jordán. Matriz cuadrada triangular
las fracciones de un dominio de integridad superior con λ en la diagonal, 1 en la para­
se define la suma y el producto exactamen­ lela inmediatamente superior a la diagonal y
te de la misma manera que se definen estas ceros en las demás entradas. Todo OL com­
operaciones en Q. Para estas operaciones el plejo es diagonalizable por bloques que son
conjunto de fracciones es un campo . . . . . 35 celdas de Jordán. . . . . . . . . . . . . . . . . . . . . . . . . 165
Campo ordenado. Campo con una relación Cerradura lineal. El conjun­
de orden en el cual todo elemento es com­ to de todas las combinaciones lineales de un
parable con el cero. Los elementos mayores conjunto de vectores . . . . . . . . . . . . . 48, 57, 60
que cero se les llama positivos y los menores Ciclo. Permutación
que cero negativos. Los axiomas que debe σ del grupo simétrico de N que cambia un
cumplir la relación de orden son: conjunto {x0 , . . . , xn−1 } ⊆ N según la regla
1. El opuesto de un positivo es negativo, σ (xi ) = xi+1 mod n y deja todos los demás
2. El opuesto de un negativo es positivo, elementos de N fijos . . . .106, 112, 117, 124
3. La suma de positivos es positiva, Ciclos disjuntos. Ciclos tales
4. El producto de positivos es positivo. que los conjuntos de elementos que ellos no
Los campos R y Q están ordenados. Cual­ dejan fijos no se intersectan . . . . . . . . . . . . . 106
quier campo ordenado tiene que ser de ca­ Clases de equivalencia. Si ≈ es una
racterı́stica cero. Además, C no se puede or­ relación de equivalencia en A entonces, las
denar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 9, 116 clases de equivalencia son los subconjuntos
Campo primo. Campo cuyo único subcampo de A para los cuales a ≈ b si y solo si a y
es el mismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 b están en la misma clase . . . . . . . . . *, 66, 73
Caracterı́stica de un campo. Coalineación. Función biyectiva de
Es cero si el campo contiene como sub­ un espacio vectorial en si mismo que tal que
campo a Q. Es igual al número primo p f y f−1 preservan subespacios afines. . . . . 99
si el campo contiene como subcampo a Cociente. Al efectuar la división con resto de
Zp . . . . . . . . . . . . . . . . . . . . . . . . . 18, 36, 108, 115 un elemento p de un anillo conmutativo (Z,
Celda canónica. Matriz cuadrada trian­ K [x]) entre otro q obtenemos la igualdad
gular superior por bloques de orden el grado p = cq + r. Al elemento c se le llama co­
de p, con la matriz acompañante de p en la ciente de la división de p entre q . . . . . . . . 23
diagonal, en la paralela inmediatamente su­ Codominio de una función. Sea
perior a la diagonal matrices nulas salvo la f : A → B una función. Al conjunto B se le
entrada superior derecha en que es 1 y ceros llama codominio de la función f . . . . . 11, 93
en las demás entradas. Todo OL sobre cual­ Coeficiente principal. El coeficiente diferente
quier campo es diagonalizable por bloques de cero de un polinomio que multiplica a la
que son celdas canónicas. . . . . . . . . . . . . . . . 167 potencia más grande de la variable . . . . . . 22
Celda cuadrática. Matriz cuadrada Coeficientes de un polinomio.
triangular
µ superior
¶ por bloques µ de orden ¶ 2 (véase polinomio) . . . . . . . . . . . . . . . . . . . . . . . . 22
con
a −b
en la diagonal,
0 1
en la Cofactor. De la entrada αij es el escalar
b a 0 0 sgn ω det αN\i ω(N\j)
paralela inmediatamente superior a la diago­ donde ω es cualquier permutación de N tal
col – dia 187

que ω (j) = i . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 Conjunto de vectores A tal que ∀a ∈ A se


Columna de una matriz. Dada una matriz cumple que hA\ai 6= hAi. . . . . . . . . . . 50, 125
αNM y j ∈ M a la N­ada αNj (j está fijo, los Conjunto ordenado. Conjunto en el cual
elementos de N varı́an) se le llama j­ésima está definida una relación de orden . . . *, 72
columna de la matriz αNM . . . . . . . . . . 45, 85 Conjunto totalmente ordenado.
CombinaciónPlineal. Los vectores de Conjunto ordenado en el cual dos elementos
la forma i∈N αi i (donde solo un número cualesquiera son comparables . . . . . . . . . . . . *
finito de los ai es diferente de cero) . 47, 60 Conmutatividad. Propiedad de algunas
Complemento algebraico. Cofactor . . . 116 operaciones binarias que consiste en que
Componente radical. Restricción del OL a a◦b=b◦a
un subespacio radical maximal . . . . . . . . . 149 ∀ elementos a y b del conjunto en el cual
Composición de funciones. está definida la operación . . . . . . . . . . . . . . . . . 3
Operación entre dos funciones que consiste Contracción. Homotecia cuyo escalar es un
en aplicar primero una función y después la real mayor que 0 y menor que 1 . . . . . . . . . 76
otra . . . . . . . . . . . . . . . . . . . . . .13, 56, 79, 87, 105 Coordenada. De la n­ada (a1 , a2 , ..., an ) es
Conexión de Galois (antı́tona). Se alguno de los ai . De la N­ada aN es alguno
obtiene de una conexión de Galois monóto­ de los ai para i ∈ N . . . . . . . . . . . . . . . . . . . . . 41
na invirtiendo la relación de orden en uno de Coordinatización.
los conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 DadaPuna base N de F, es el isomorfismo
Conexión de Galois (monótona). Una F 3 i∈N αi i 7→ αN ∈ K{N} . . . . . . . 57, 89
pareja de funciones monótonas f∗ : A → B Cota inferior.
y f∗ : B → A tales que (f∗ (a) ≤ b) ⇔ Una cota inferior de un subconjunto A de un
(a ≤ f∗ (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 conjunto ordenado B es un elemento b de B
Conjunto acotado inferiormente. tal que cualquier elemento de A es mayor o
Conjunto que tiene una cota inferior. . *, 32 igual que B . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 32
Conjunto acotado superiormente. Cota superior. Una cota superior de un sub­
Conjunto que tiene una cota superior . . . . . * conjunto A de un conjunto ordenado B es un
Conjunto generador. Conjunto elemento b de B tal que cualquier elemento
de vectores cuya cerradura lineal es todo el de A es menor o igual que B . . . . . . . . . . *, 72
espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49, 56 Delta de Kronecker.
Conjunto h­independiente. Función δij de dos variables que toma valor
Conjunto de vectores no nulos tales que los 1 si i = j y toma valor 0 si i 6= j .27, 88, 110
sumandos de cualquier h­combinación nula Desarrollo de Taylor.
son nulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 Expresión de una P función como serie de po­
Conjunto inductivamente ordenado. tencias f (x) = ai (x − x0 )i . El coefi­
Conjunto ordenado no vacı́o dentro del cual ciente de la serie ai es la i­ésima derivada
cada cadena tiene cota superior . . . . . . . . . . 72 de f evaluada en el punto x0 . . . . . . . . . 26, 31
Conjunto LD. Acrónimo de conjunto Determinante.
P QEl determinante de αNN es
linealmente dependiente . . . . . . . . . . . . . . . . . 50 σ∈ SN sgn σ i∈N αiσ i . . . . . 109, 20, 132
Conjunto LI. Acrónimo de conjunto Determinante de un OL.
linealmente independiente . . . . . . . . . . . . . . . 50 Determinante de su matriz en una base. No
Conjunto linealmente dependiente. depende de la base escogida . . . . . . . . . . . . 121
Conjunto de vectores que no es LI . . . . . . . 50 Diagrama. Reperesentación
Conjunto linealmente independiente. gráfica de una familia de conjuntos y de fun­
188 dia – for
ciones entre ellos mediante la utilización de matriz X es incógnita. . . . . . . . . . . . . . . . . . . . 135
echas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 Elemento maximal.
Diagrama conmutativo. Diagrama en el cual Elemento tal que cualquier otro no es mayor
cualesquiera dos caminos dirigidos (que si­ que el . . . . . . . . . . . . . . . . . . . . . . . . . *, 51, 72, 126
guen el orden de las echas) de un conjunto Elemento minimal. Elemento tal que
a otro representan dos descomposiciones de cualquier otro no es menor que el. . . . . *, 51
la misma función como composición de las Elementos comparables. Dos elementos a y
funciones de las echas de los caminos . 91 b de un conjunto ordenado para los cuales o
Dilatación. Homotecia cuyo escalar es un real a ¹ b o b ¹ a o los dos . . . . . . . . . . . . . . *, 52
mayor que 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 Endomorfismo. Morfismo cuyo dominio y
Dimensión. codominio coinciden . . . . . . . . . . . . . . . . . . . . . 13
El cardinal de cualquier base 53, 61, 66, 95 Entensión lineal de una función. Extensión
Dimensión de un OL. Dimensión del espacio que es transformación lineal. Si la función
donde está definido el operador . . . . . . . . . 138 tiene como dominio una base, entonces la
Dimensión de un subespacio afı́n. Si E es extensión lineal existe y es única . . . . . . . . 82
una traslación del subespacio E entonces la Entrada de una matriz.
dimensión de E es la dimensión de E . . . . 66 Coordenada de una NM­ada . . . . . . . . . . . . 45
Distributividad. Relación de una operación Epimorfismo. Morfismo sobreyectivo . . . 13
binaria ¦ con respecto a otra ◦ que consiste Escalar. Elemento del cam­
en que las igualdades po (¡la escala!) sobre el cual está definido el
a ¦ (b ◦ c) = (a ¦ b) ¦ (a ¦ c) espacio vectorial . . . . . . . . . . . . . . . . . . . . . 39, 40
(b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a) Espacio cociente. Si
se cumplen para cualesquiera elementos a, E es un subespacio de F entonces, el espa­
b y c del conjunto en el cual está definida la cio cociente F/E es el conjunto de todos los
operación . . . . . . . . . . . . . . . . . . . . . . 5, 19, 79, 88 subespacios afines paralelos a E dotado con
Distributividad del producto por escalares. la suma de subespacios afines y el producto
Axioma de espacio vectorial: α (a + b) = de subespacios afines por escalares . . 67, 96
αa + αb y (α + β) a =αa+βa . . . . . . . 41 Espacio de columnas. El espacio generado
Divisor. Para dos elementos p y por las columnas de una matriz . . . . . . . . . 125
q de un anillo con división se dice que q es Espacio de renglones. El espacio generado
un divisor de p si el resto de la división de p por los renglones de una matriz . . . . . . . . . 125
entre q es cero. . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 Espacio vectorial. Grupo abeliano
Dominio de integridad. con un producto por escalares distributivo,
Anillo conmutativo en el cual el producto de asociativo y con neutro. . . 41, 58, 65, 67, 79
elementos diferentes de cero es diferente de Extensión de una función.
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 18, 36 Si f es una restricción de g entonces g es
Dominio de una función. Sea f : A → B una una extensión de f . . . . . . . . . . . . . . . . . . . . . . . . 81
función. Al conjunto A se le llama dominio Factor de un polinomio. Divisor de grado al
de la función f . . . . . . . . . . . . . . . . . . . . . . . . 11, 93 menos 1 de un polinomio . . . . . . . . . . . . . . . . 23
Ecuación lineal. Ecuación αN xN = βN Factor propio.
donde las N­adas αN y βN son conocidos y Factor mónico diferente al polinomio . . . 25
el vector xN es incógnito . . . . . . . . . . . . . . . 128 Forma polar de un complejo.
Ecuación matricial. Ecuación AX = B Es la expresión r (cos ϕ + i sin ϕ) donde r
donde la matrices A y B son conocidas y la es el módulo de z y ϕ es el argumento de
for – hom 189

z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 en su campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
Fórmula multinomial. Fórmu­ Funcional bilineal.
la para expandir la n­sima potencia de una Funcional lineal en sus dos variables . . . 118
suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Funcional lineal.
Fracción. Pareja de elementos de un dominio Funcional que es una TL . . . . . . . . . . . . . . . . 118
de integridad (por ejemplo K (x) o Z) que se Funcional lineal en una variable.
denota por a/b. Dos fracciones a/b y c/d Función de muchas variables con imagenes
se consideran iguales si ad = bc . . . . . 34, 8 en un campo que para cualesquiera valores
Función. Informalmente es una regla fijos de las demás variables determina un
o procedimiento mediante el cual para cada funcional lineal de la variable que se tra­
elemento de un conjunto a podemos obtener ta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
(calcular) otro único elemento f (a) de otro Funcional multilineal.
conjunto y que llamamos la imagen de a Funcional lineal en todas sus variables . 118
mediante la función f. Formalmente, una Grado de un polinomio. La potencia ma­
función f : A → B es un subconjunto del yor de la variable con coeficiente diferente
producto cartesiano f ⊆ A × B que cumple de cero. Si el grado es cero el polinomio es
que para cualquier a ∈ A existe una única un elemento del campo. No está definido el
pareja (a, b) ∈ f. . . . . . . . . . . . . . . . . . . . . . . . . . . * grado del polinomio cero . . . . . . . . . . . . . . . . 22
Función antipodal. La función x 7→ −x . 76 Grupo. Conjunto con una ope­
Función biyectiva. Función inyectiva. y ración binaria asociativa que tiene elemento
sobreyectiva . . . . . . . . . . . . . . . . . . . . .*, 105, 114 neutro y en el cual todo elemento tiene in­
Función continua. Función continua en todos verso . . . . . . . . . . . . . . 7, 11, 13, 16, 68, 81, 105
los puntos de su dominio. . . . . . . . . . . . . . . . . 29 Grupo abeliano. Grupo en el cual la
Función continua en un punto. La fun­ operación es conmutativa . . . . . . . . . . . . . . . . . 7
ción f es continua en z0 si ∀ε > 0 ∃δ tal que Grupo alternante.
kz − z0 k < δ ⇒ kf (z) − f (z0 )k < ε . . . 29 El subgrupo (del grupo simétrico) de todas
Función de evaluación. las permutaciones pares . . . . . . . . . . . . . . . . . 108
De un polinomio p (x) es la función: Grupo general lineal. El grupo de auto­
p : K 3 b 7→ p (b) ∈ K. . . . . . . 23 morfismos de un espacio vectorial. El grupo
Función identidad. La que a todo elemento de operadores lineales no singulares . . . . . 81
le corresponde el mismo . . . . . . . . . . . . . . . . . 76 Grupo simétrico.
Función inversa. La inversa de una El grupo de todas las permutaciones con la
función f : A → B es una función g tal que operación de composición . . . . . . . . . . . . . . 105
f ◦ g = IB y g ◦ f = IA . Una función tiene h­base. Conjunto h­independiente y
inversa si y solo si esta es biyectiva. . . *, 56 h­generador. Todo OL h tiene h­bases . 155
Función inyectiva. Cada elemento de la h­cerradura. Conjunto de todas las
imagen tiene una única preimagen . . . . *, 94 h­combinaciones . . . . . . . . . . . . . . . . . . . . . . . . 153
Función nula. La que a todo elemento le h­combinación. Vector de
corresponde el cero . . . . . . . . . . . . . . . . . . . . . . 76 la forma ph (v1 ) + qh (v2 ) + · · · + rh (vn )
Función racional. donde p, q, ..., r son polinomios . . . . . . . . 152
Fracción de dos polinomios . . . . . . . . . . . . . . 36 h­generador. Conjunto de vectores que
Función sobreyectiva. Función tal que su h­genera a todo el espacio . . . . . . . . . . . . . . 154
imagen coincide con su codominio . . . *, 95 Homotecia. Transformación
Funcional. Función de un espacio vectorial lineal que consiste en la multiplicación por
190 ide – mat
un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 Lı́mite de una sucesión.
Ideal. Subconjunto I de un anillo A tal que La sucesión {zk } tiene lı́mite z si ∀ε > 0 ∃N
1. ∀p, q ∈ I p + q ∈ I, tal que ∀k > N kzk − zk < ε. . . . . . . . . . . . 30
2. ∀p ∈ I ∀r ∈ A rp ∈ I . . . . . . . . . . . . . 24 Matriz. Es una NM­ada o sea un conjunto
Ideal principal. Ideal formado por todos los indexado por dos conjuntos . . . . . . . . . . . . . . 45
múltiplos de un polinomio . . . . . . . . . . . . . . . 24 Matriz acompañante de un polinomio.
Idempotencia. Propiedad de una función que Matriz cuadrada cuya última columna es el
consiste en que f ◦ f = f2 = f . . . . . . . . . . . 48 vector de coeficientes del polinomio, la pa­
Igualdad de Moivre. Fórmula para calcular ralela inferior a la diagonal contiene unos y
la n­esima potencia de un número complejo todas las demás entradas son cero.. . . . . . 155
en forma polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 Matriz ampliada.
Imagen de un elemento. (véase: Función). * Del sistema Ax = b es la matriz (A|b) . 130
Imagen de una función. El conjunto de los Matriz cuadrada. Matriz con la misma
elementos del codominio que tienen alguna cantidad de columnas y renglones . . 115, 89
preimagen. Se denota por Im f . . . . . . . . *, 93 Matriz de cambio de base.
Imagen de una matriz. Escogidas dos bases V y N de un espacio
La imagen de su transformación lineal. vectorial la matriz αNV cuyas columnas son
Su espacio de columnas . . . . . . . . . . . . . . . . . 131 los coeficientes de las expresiones de la ba­
Ínfimo. se V como combinación lineal de la base N.
El máximo de las cotas superiores . . . . *, 32 O sea,Ppara cualquier v ∈ V se cumple que
Ínfimo de un conjunto de reales. v = i∈N αiv i. Si βV son las coordenadas
El número máximo x tal que x ≤ a para de un vector en la base V entonces αNV βV
cualquier a ∈ A. Para el ı́nfimo x de A son las coordenadas del mismo vector en la
siempre existe una sucesión {ak } de elemen­ base N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
tos de A cuyo lı́mite es x. . . . . . . . . . . . . . . . . 32 Matriz de permutación. La matriz
Inmersión. Restricción de la función que se obtiene al permutar las columnas o
identidad a un subconjunto . . . . . . . . . . 77, 94 los renglones de la matriz identidad. Matriz
Inverso. De un elemento a para la operación que tiene exactamente un 1 en cada renglón
binaria ◦ es un elemento b que cumple que y columna y todas las demás entradas son
a ◦ b = b ◦ a = e para cualquier elemen­ cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
to a del conjunto en el cual está definida la Matriz de una transformación lineal.
operación. Si un elemento tiene inverso en­ Escogidas una base N en el dominio y otra
tonces este es único. En los anillos y campos M en el codominio de una TL f la matriz
es el inverso para el producto . . . . . . . . . . . . . 5 αMN cuyas columnas son los coeficientes
Isomorfismo. Morfismo biyec­ de las expresiones de las imagenes de la ba­
tivo. La inversa de cualquier isomorfismo es se N como combinación lineal de la base M.
también un isomorfismo . . . . . . . . . . . . . 12, 62 O sea, paraP cualquier j ∈ N se cumple que
Isomorfismo canónico. Isomorfismo cu­ f (j) = i∈M αij i . . . . . . . . . . . . . . . 87, 84, 90
ya construcción no depende de escoger algo Matriz del sistema. La matriz A del sistema
(una base, un complementario, etc.) . 62, 68 de ecuaciones lineales Ax = b . . . . . . . . . 129
Isomorfismo de espacios vectoriales. Matriz diagonal. Matriz αMM en la cual si
Transformación lineal biyectiva . . . . . 56, 83 i 6= j entonces, αij = 0 . . . . . . . . . . . . . . . . . 123
Isomorfismo lineal. Matriz diagonal por bloques. Matriz αMM
Isomorfismo de espacios vectoriales . . . . . 56 en la cual hay una partición del conjunto de
mat – nuc 191

ı́ndices M1 ∪ · · · ∪ Mt = M y que αij = 0 consiste en que x ≤ y ⇒ f (x) ≤ f (y) . . 48


si i y j pertenecen a bloques diferentes . 123 Morfismo. Es una función f : A → B que
Matriz identidad. cumple que f (x ◦ y) = f (x) • f (y) donde
La matriz INN cuyas entradas son el delta ◦ es una operación definida en A y • es una
de Kronecker: unos en la diagonal y ceros operación definida en B . . . . . . . . . . . . . . 10, 55
en el resto de las entradas. La matriz de la Morfismo de álgebras. TL que conmuta con
transformación lineal identidad . . . . . 88, 110 el producto y preserva el 1 . . . . . . . . . . . . . . 141
Matriz inversa. La matriz cuadrada αMN Morfismo de anillos.
es la inversa de βNM si βNM αMN = INN Función entre dos anillos que es morfismo
y αMN βNM = IMM . Si ambos N y M son para la suma y para el producto . . . . . . . . . . 11
finitos entonces, basta comprobar una de las Morfismo de campos.
dos igualdades. Una matriz cuadrada tiene Función entre dos campos que es morfismo
inversa si y solo si su determinante es dife­ para la suma y para el producto . . . . . . . . . . 11
rente de cero. . . . . . . . . . . . . . 88, 120, 125, 135 Morfismo de espacios vectoriales.
Matriz singular. Matriz cuadrada con Función f de un espacio vectorial a otro so­
determinante igual a cero . . . . 115, 125, 129 bre el mismo campo que es un morfismo de
Matriz triangular. los grupos abelianos de vectores y que cum­
Matriz triangular por bloques en la cual cada ple f (αa) = αf (a) para cualquier vector
bloque es de cardinalidad 1 . . . . . . . . . . . . . 123 a y cualquier escalar α . . . . . . . . . . . . . . . . . . 56
Matriz triangular inferior. Matriz αMM Morfismo de grupos.
en la cual M = {1, . . . , m} y tal que en su Morfismo cuyo dominio y codominios son
representación gráfica todas las entradas por grupos . . . . . . . . . . . . . . . . . . . . . . . . . 11, 105, 114
encima de la diagonal son cero . . . . . . . . . 123 Multiplicidad de una raı́z. El elemento del
Matriz triangular por bloques. Matriz αMM campo α es una raı́z de multiplicidad n del
en la cual hay una partición del conjunto de polinomio p si n es el mayor natural tal que
ı́ndices M1 ∪ · · · ∪ Mt = M y que αij = 0 p es un múltiplo de (x − α)n . . . . . . . . . . . . 23
si i ∈ Mp , j ∈ Mq y p < q . . . . . . . . . . . . 123 Múltiplo. Para dos elementos p y
Matriz triangular superior. Matriz αMM q de un anillo con división se dice que p es
en la cual M = {1, . . . , m} y tal que en su un múltiplo de q si ∃c tal que p = cq . . . 23
representación gráfica todas las entradas por n­ada. Elemento (a1 , a2 , ..., an ) del
debajo de la diagonal son cero . . . . . . . . . . 123 producto cartesiano An . . . . . . . . . . . . . . . . . . 41
Máximo. El máximo de N­ada. Función en una notación
un subconjunto A de un conjunto ordenado diferente, αN : N 3 i → αi ∈ A. A N se le
B es una cota superior que pertenece a A. Si llama el conjunto de ı́ndices y a las αi se le
existe entonces, el máximo es único . . . . . . * llaman coordenadas . . . . . . . . . . . . . . . . . . 43, 86
Mı́nimo. El mı́nimo de Neutro.
un subconjunto A de un conjunto ordenado De una operación binaria ◦ es un elemento e
B es una cota inferior que pertenece a A. Si que cumple que a ◦ e = e ◦ a = a para cual­
existe entonces, el mı́nimo es único . . *, 32 quier a del conjunto en el cual está definida
Módulo de un complejo. La longitud del la operación. Si una operación tiene neutro


vector 0z en el plano complejo . . . . . . . . . . 28 entonces este es único . . . . . . . . . . . . . . . . . . . . . 4
Monomorfismo. Morfismo inyectivo . . . 13 Nucleo de un morfismo. El el caso
Monotonı́a. Propiedad de una de grupos la preimagen del neutro. Para ani­
función de un conjunto ordenado a otro que llos y espacios vectoriales la preimagen del
192 nuc – pro
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 vectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
Nucleo de un polinomio. Perı́odo de un vector. El polinomio
La colección de sus raices. Cada raı́z apare­ mónico p más pequeño tal que ph (a) = 0.
ce tantas veces como su multiplicidad . . . 23 El generador del anulador del vector . . . 143
Nucleo de una matriz. El nucleo de su Permutación. Biyección de un conjunto finito
transformación lineal. El conjunto solución en si mismo . . . . . . . . . . . . . . . . . . . . . . . 105, 114
de un sistema de ecuaciones con vector de Permutación de las columnas. Es
coeficientes libres igual a cero . . . . . . . . . . 131 la operación en que una permutación ω se
Nucleo de una TL. La preimagen del cero 93 le aplica a las columnas de una matriz αMN
Nucleo trivial. Nucleo igual a {0} . . . . . 94 para obtener la matriz βMN = αMω(N) que
OL. Acrónimo de operador lineal . . . . . 80 cumple que βij = αiω − 1 (j) . . . . . . . . . . . . . 112
Operación binaria. Permutación de los renglones . Es
Función mediante la cual para cualesquiera la operación en que una permutación ω se
dos elementos a y b de un conjunto A po­ le aplica a los renglones de una matriz αMN
demos encontrar otro elemento de A que es para obtener la matriz βMN = αω(M)N que
el resultado de la operación . . . . . . . . . . . . . . . 2 cumple que βij = αω − 1 (i)j . . . . . . . . . . . . . 112
Operador cı́clico. OL h tal que todo el Permutación impar. Permutación
espacio es h­cı́clico . . . . . . . . . . . . . . . . . . . . . 154 que se descompone en la composición de un
Operador diagonalizable. OL número impar de transposiciones . . . . . . . 108
tal que existe una base en la cual su matriz Permutación par. Permutación
es diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 que se descompone en la composición de un
Operador irreducible. OL que no se puede número par de transposiciones . . . . . . . . . . 108
decomponer como suma directa . . . . . . . . 139 Plano.
Operador lineal. Transformación lineal de un Subespacio afı́n de dimensión dos . . . 66, 47
espacio en si mismo . . . . . . . . . . . . . . . . . . . . . . 80 Polinomio.P Expresión
Operador radical. OL cuyo polinomio formal ni=0 ai xi donde los coeficientes ai
mı́nimo (o caracterı́stico) es potencia de un son elementos de un campo . . . . . . . . . . . . . . 22
polinomio irreducible . . . . . . . . . . . . . . . . . . . 148 Polinomio caracterı́stico. El polinomio
Operador singular. OL no biyectivo . . . 81 det (xI − h). Es un múltiplo del polinomio
Operador triangulable. OL mı́nimo y tiene los mismos factores irredu­
tal que existe una base ordenada en la cual cibles que el polinomio mı́nimo . . . . . . . . 169
su matriz es triangular. . . . . . . . . . . . . . . . . . . 171 Polinomio irreducible. Polinomio mónico de
Opuesto. El inverso de un elemento de un grado al menos 1 sin factores propios . . . 25
anillo o campo respecto a la suma . . . . . . . . 7 Polinomio mı́nimo. El polinomio mónico más
Órbita de una permutación. Clase pequeño que anula un OL. El generador del
de equivalencia de la relación (a ∼ b) ⇔ anulador del operador . . . . . . . . . . . . . . . . . . . 143
(a = σn (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 Polinomio mónico. Polinomio cuyo
Orden de un ciclo. El número de elementos coeficiente principal es 1 . . . . . . . . . . . . . . . . . 25
que un ciclo no deja fijos. . . . . . . . . . . . . . . . 106 Preimagen de un elemento.
Orden de una matriz. Sea b un elemento del codominio de f. La
El número de renglones y columnas de una preimagen de b es el conjunto de todos x en
matriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . 115 dominio tales que f (x) = b. . . . . . . . . . . *, 93
Perı́odo de un conjunto de vectores. Producto de matrices.
El generador del anulador del conjunto de Si αMN y βNL son dos matrices entonces
pro – sub 193

γML = αMN βN,L es la matriz cuyas en­ Relación de equivalencia. Relación


tradas son los productos escalares canónicos simétrica, reexiva y transitiva. . . . . . . . *, 66
γij = αiN βNj de los renglones de αMN por Relación de orden. Relación antisimétrica,
las columnas de βNL . . . . . . . . . . . . . . . . 85, 113 reexiva y transitiva . . . . . . . . . . . . . . *, 72, 126
Producto de un escalar por una función. Relación en un conjunto. Subconjunto del
Si en el codominio de f está definido un pro­ producto cartesiano A × A = A2 . . . . . . . . *
ducto por escalares entonces λf es la fun­ Relación reexiva.
ción tal que (λf) (a) = f (λa) . . . . . . . . . . . 78 Para todo a se tiene a ≈ a . . . . . . . . . . . . . . . . *
Producto de un vector por una matriz. Es Relación simétrica. (a ≈ b) ⇒ (b ≈ a) . *
la combinación lineal de los renglones de la Relación transitiva.
matriz cuyos coeficientes son las coordena­ Si a ≈ b y b ≈ c entonces, b ≈ a . . . . . . . *
das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 Renglón de una matriz. Dada una matriz
Producto de una matriz por un vector. Es αNM e i ∈ N a la M­ada αiM (i está fi­
la combinación lineal de las columnas de la jo, los elementos de M varı́an) se le llama
matriz cuyos coeficientes son las coordena­ i­ésimo renglón de la matriz αNM . . 45, 85
das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 Resto. Al efectuar la división con resto
Producto escalar. Producto bilineal de dos de un elemento p de un anillo conmutativo
vectores cuyo resultado es un escalar . . . . 85 (Z, K [x]) entre otro q obtenemos la igual­
Producto escalar canónico. dad p = cq + r. Al elemento r se le llama
Producto escalarP definido en K{N} como: resto de la división de p entre q . . . . . 23, 14
αN βN = i∈N αi βi . . . . . . . . . . . . . . . . . . . . 85 Restricción de una función.
Proyección. Si C = A × B entonces, Una función f : A0 → B se le llama restric­
la función f : c = (a, b) 7→ a se le llama ción de g : A → B si A0 ⊆ A y para cual­
proyección de C a A a lo largo de B. En par­ quier a ∈ A0 se cumple f (a) = g (a) . . . 81
ticular, nosotros la usamos en el caso de que Serie. P Expresión formal del
E = F ⊕ G (¡la suma directa es un producto tipo ∞ i=0 i a x i . A los elementos del campo

cartesiano!). En este caso las proyecciones ai se le llaman coeficientes de la serie. . . 42


son TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77, 94 Signo de una permutación.
Punto. Subespacio afı́n de dimensión cero 66 Función que a cada permutación le hace co­
Raı́z de un polinomio. Elemento del rresponder 1 si esta es par y −1 si esta es
campo en el cual la función de evaluación impar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
del polinomio toma valor cero . . . . . . . . . . . 23 Sistema de ecuaciones lineales.
Rango de una matriz. El orden de sus bases. Ecuación Ax = b donde la matriz A y
La dimensión de su espacio de columnas. el vector b son conocidos y el vector x es
La dimensión de su espacio de renglo­ incógnito . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128, 95
nes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 Soporte. De una función f es
Recta. el conjunto de elementos del dominio cuya
Subespacio afı́n de dimensión uno. . . 66, 47 imagen es diferente de cero. De una N­ada
Regla del tablero de ajedrez. Regla mediante es el conjunto de ı́ndices cuyas coordenadas
la cual se hallan los signos de los cofactores son diferentes de cero. De una combinación
de una matriz en forma gráfica. El signo del lineal es el conjunto de sumandos con coefi­
cofactor de αij es (−1)i+j . . . . . . . . . . . . . . 117 ciente diferente de cero . . . . . . . . . . 43, 47, 58
Relación antisimétrica. Subálgebra. Subespacio vectorial
Si a ≈ b y b ≈ a entonces, a = b . . . . . . . * que contiene al 1 y en el cual el producto es
194 sub – tra
interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 Si A y B son conjuntos y entre sus elemen­
Subanillo. Subconjunto de un anillo que tos hay una operación de suma entonces:
es un anillo para las mismas operaciones del A + B = {a + b | a ∈ A y b ∈ B} . . . . . . 60
anillo más grande . . . . . . . . . . . . . . . . . . . . . . . . 16 Suma de funciones.
Subcampo. Subconjunto de Si en el codominio mutuo de f y g está defi­
un campo que es un campo para las mismas nida una suma entonces f + g es la función
operaciones del campo más grande . . 16, 44 tal que (λ + g) (a) = f (a) + g (a) . . . . . 79
Subespacio. Subconjunto Suma directa de espacios. El produc­
de un espacio vectorial que es a su vez es­ to cartesiano de los subespacios con la suma
pacio vectorial para las mismas operaciones definida por coordenadas y también el pro­
que las de todo el espacio . . . . 46, 59, 63, 93 ducto por escalares. Si la intersección de dos
Subespacio afı́n. subespacios tiene dimensión cero entonces,
Traslación de un subespacio . . . . . 66, 78, 97 la suma directa de ellos es canónicamente
Subespacio generado. Cerradura lineal . . 48 isomorfa a la suma . . . . . . . . . . . . . . . . . . . . . . . 62
Subespacio h­cı́clico. Subespacio h­generado Suma directa de OL. OL
por un solo vector . . . . . . . . . . . . . . . . . . . . . . . 154 definido por coordenadas en la suma directa
Subespacio h­generado. La h­cerradura de de espacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
un conjunto de vectores . . . . . . . . . . . . . . . . . 154 Supremo. El mı́nimo de las cotas inferiores *
Subespacio invariante. Subespacio Tensor de exponente n. Un conjunto
donde está bien definida la restricción de un indexado por n conjuntos de ı́ndices . . . . 45
OL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 Tipo de una descomposición. Si
Subespacio radical. Subespacio invariante en h = f1 ⊕ · · · ⊕ fn es una descomposición de
el cual el operador es radical . . . . . . . . . . . . 149 h entonces, su tipo es la sucesión de los po­
Subespacios afines paralelos. linomios mı́nimos de f1 , . . . , fn . Dos tipos
Dos subespacios afines son paralelos si uno son iguales si uno se puede obtener del otro
es traslación del otro . . . . . . . . . . . . . . . . . . . . . 66 reordenando la sucesión. En el tipo pueden
Subespacios complementarios. haber polinomios iguales . . . . . . . . . . . . . . . 158
Dos subespacios cuya suma es todo el TL. Acrónimo de transformación lineal . . 75
espacio y cuya intersección es el ori­ Transformación elemental. Una trans­
gen. . . . . . . . . . . . . . . . . . . . . . . . 63, 65, 67, 77, 94 formación elemental de los renglones de una
Subgrupo. Subconjunto matriz consiste en sumarle a un reglón otro
de un grupo que es un grupo para la misma multiplicado por un escalar. Análogamente
operación del grupo más grande . . . . . . . . . 16 se definen las transformaciones elementales
Submatriz. Dada una matriz αNM a cualquier de las columnas . . . . . . . . . . . . . . . . . . . . . . . . . 132
matriz αN 0 M 0 tal que N0 ⊆ N y M0 ⊆ M se Transformación lineal. Morfismo de
le llama submatriz de αNM . . . . . . . . . 45, 126 espacios vectoriales . . . . . . . . . . . . . . 56, 75, 82
Sucesión. Elemento (a0 , a1 , ..., an , ...) del Transformación lineal de una matriz.
conjunto AN de funciones f : N → A . . . 42 Dada la matriz αMN es la función:
Sucesión acotada. KN 3 βN → αMN βN ∈ KM . . . . . . . . . . . 86
La sucesión {zk } es acotada si existe un real Transformación semilineal. Función de un
M tal que ∀k kzk k ≤ M . . . . . . . . . . . . . . . . . 30 espacio vectorial a otro que es morfismo pa­
Sucesión convergente. ra la suma y que cumple que f (λx) = λf ˉ (x)
Una sucesión que tiene lı́mite . . . . . . . . . . . . 30 para cierto automorfismo λ 7→ λ del campo ˉ
Suma de conjuntos. de escalares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
tra – vec 195

Transposición. Ciclo de orden dos . . . . 107 Vector. Elemento de un espacio vectorial. En


Transpuesta. Matriz que se obtiene de otra Rn son los segmentos dirigidos del origen a
intercambiando los subı́ndices de sus entra­ un punto del espacio . . . . . . . . . . . . . . . . . 39, 40
das, o sea si A = αNM y AT = B = βMN Vector columna.
entonces αij = βji . . . . . . . . . . . . . . . . . . . . . . 111 Matriz con una sola columna . . . . . . . . . . . . 86
Traslación de un conjunto de vectores. Vector de coeficientes libres. El
Si A es un conjunto de vectores y x otro vec­ vector b del sistema de ecuaciones lineales
tor entonces A + x es la traslación de A con Ax = b. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
el vector x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 Vector propio. Vector a tal que la recta hai
Valor propio. Escalar tal que para cier­ es invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
to vector propio a se tiene que h (a) = λa. Vector renglón.
Raı́z del polinomio caracterı́stico . . . . . . . 168 Matriz con un solo renglón . . . . . . . . . . . . . . 86
196
AN El conjunto de todas las funciones
∀ Para todo. f : N → A. El conjunto de todos
∃ Existe. las N­adas aN donde ∀i ∈ N el
∃! Existe y es único. elemento ai pertenece a A. Si N =
P⇒Q Si P entonces Q. {1, . . . , n} entonces AN = An .
P implica Q.
P es suficiente para Q. 0 El vector cero. El origen de coor­
P ⇐ Q P solo si Q. denadas.
P es necesario para Q. 0 Cero es elemento neutro para la
P ⇔ Q P si y solo si Q. suma de un anillo o campo.
P y Q son equivalentes. 1 Uno es el elemento neutro para el
P es necesario y suficiente para Q. producto de un anillo o campo.
−1 Menos uno es el opuesto de 1 en
b∈B b pertenece a B. un anillo o campo.
B3b B contiene a b. INN Matriz identidad.
A⊆B A es subconjunto de B. I La función identidad. La permuta­
A⊇B A es sobreconjunto de B. ción identidad
AÃB A es subconjunto propio de B. O La función nula. La matriz nula
O sea, A ⊆ B y A 6= B. ℵ0 El cardinal de N.
A ! B A es sobreconjunto propio de B.
O sea, A ⊇ B y A 6= B. K Un campo arbitrario.
A∪B La unión de A y B. Kn El espacio de las n­adas.
A∩B La intersección de A y B. KN El espacio de las N­adas.
A\B La resta de conjuntos. El conjunto K [x] El álgebra de polinomios en la va­
de los elementos de A que no per­ riable x con coeficientes en K.
tenecen a B. K [[x]] El álgebra de series en la variable
A×B El producto cartesiano de dos con­ x con coeficientes en K.
juntos. El conjunto de todas las pa­ K (x) El campo de funciones racionales
rejas (a, b) con a ∈ A y b ∈ B. en x con coeficientes en K.
2A
El conjunto de todos los subcon­
juntos del conjunto A. El conjunto N El conjunto de los naturales.
de todas las funciones Z El anillo de los enteros.
f : A → {0, 1}. Zn El anillo de restos módulo n.
A n
El producto cartesiano de A con­ Para n primo Zn es un campo.
sigo mismo n veces. El conjunto Q El campo de los racionales.
de todos las n­adas (a1 , . . . , an ) R El campo de los reales.
donde todos los ai están en A. C El campo de los complejos.
SN El grupo simétrico de N.
198 Notaciones
AN El grupo alternante de N. tores.
A−
N Las permutaciones impares de N. λA El producto de un escalar por un
conjunto de vectores.
f:A→B A+x El conjunto de vectores A trasla­
Una función que tiene dominio A dado mediante el vector x. Si A es
y codominio B. un subespacio entonces, es un sub­
f : A 3 a 7→ f (a) ∈ B espacio afı́n.
Usada para denotar funciones con­ E⊕F La suma directa de dos espacios.
cretas por ejemplo, Si E y F son subespacios que se
f : R 3 a 7→ a2 ∈ R+ intersectan solo en el origen enton­
es la función con dominio R y co­ ces es canónicamente isomorfa a la
dominio R+ que a cada real le hace suma de E y F.
corresponder su cuadrado.
αMN Una matriz cuyos renglones están
p mod q El resto de la división de p entre indexados por M y cuyas colum­
q. Está bien definido en cualquier nas están indexadas por N.
anillo con división. Por ejemplo, αij La entrada αij de una matriz αMN .
en los números enteros y en los αiN El i­ésimo renglón de la matriz
polinomios con coeficientes en un αNM .
campo. αMj La j­ésima columna de la matriz
n! El factorial del natural n. Se define αNM .
como n! = 1 × 2 × · · · × n. αMω(N) Si ω es una permutación de N,
|A| El cardinal del conjunto A. Puede es la matriz αMN cuyas columnas
ser finito o infinito. están permutadas mediante ω. Si
kzk El módulo del número complejo z. ω : N → L es una biyección, es la
hNi La cerradura lineal de N. El con­ matriz cuyas columnas están inde­
junto de todas las combinaciones xadas por L mediante el cambio de
lineales de N. ı́ndices ω.
lı́m zk El lı́mite de la sucesión {zk }. αω(M)N Lo mismo que el anterior pero pa­
dim E La dimensión de E. ra los renglones
sgn π El signo de la permutación π. α∗ij El cofactor de la entrada αij de una
det A El determinante de la matriz A. matriz cuadrada.
Im f La imágen de la función f. A∗ La matriz de cofactores de A.
ker f El nucleo del morfismo f. AT La matriz transpuesta de A.
A+B La suma de dos conjuntos de vec­ (A|b) La matriz ampliada del sistema
Ax = b.
Notaciones 199

Alfabeto gótico
A B C D E F G H I J K L M
A B C D E F G H I J K L M

N O P Q R S T U V W X Y Z
N O P Q R S T U V W X Y Z

a b c d e f g h i j k l m
a b c d e f g h i j k l m

n o p q r s t u v w x y z
n o p q r s t u v w x y z

Alfabeto caligráfico
A B C D E F G H I J K L M
A B C D E F G H I J K L M

N O P Q R S T U V W X Y Z
N O P Q R S T U V W X Y Z

Alfabeto griego
A B Γ ∆ E Z H Θ I
α β γ δ ²ε ζ η θϑ ι
alfa beta gamma delta épsilon zeta eta zita iota

K Λ M N Ξ O Π P Σ
κκ λ µ ν ξ o π ρ σ
kappa lamda mu nu xi ómicron pi ro sigma

T Υ Φ X Ψ Ω
τ υ φϕ χ ψ ω
tau úpsilon fi chi psi omega
200
21. Los campos Zp son primos.
Capı́tulo 1 22. Teorema de Clasificación de Campos Pri­
mos.
1. Defina los siguientes conceptos:
23. Defina la caracterı́stica de un campo.
• Operación binaria.
24. En un campo de caracterı́stica t para cual­
• Propiedad conmutativa.
quier elemento x se cumple que tx = 0 .
• Propiedad asociativa.
25. Demuestre la fórmula del binomio de New­
• Propiedad distributiva.
ton en base a la fórmula multinomial.
• Elemento neutro.
• Elemento inverso. Capı́tulo 2
2. En cualquier campo 0x = 0.
3. Defina los siguientes conceptos: 1. Definición de espacio vectorial.
• Grupo y grupo abeliano. 2. ¿Que es una n­ada? ¿Que es una N­ada?
• Anillo y anillo conmutativo. ¿Cual es su conjunto de ı́ndices? ¿ Que son
• Campo. sus coordenadas?
4. Defina los morfismos. 3. ¿Que es una NM­matriz? ¿Que es una en­
5. Los morfismos preservan las operaciones bi­ trada, renglón, columna?
narias. 4. Definición de subespacio.
6. Los morfismos preservan la conmutatividad. 5. Los subespacios son los conjuntos cerrados
7. Los morfismos preservan la asociatividad. para la suma y el producto por escalares.
8. Los morfismos preservan el neutro. 6. La unión de subespacios no es un subespa­
9. Los morfismos preservan el inverso. cio.
10. Los morfismos preservan la distributividad. 7. La intersección de subespacios es un subes­
11. La inversa de un isomorfismo es un isomor­ pacio.
fismo. 8. Definición de combinación lineal y sus co­
12. Defina la suma y el producto en Zn . eficientes.
13. (Zn , +, •) es un anillo conmutativo. 9. El conjunto de todas las combinaciones li­
14. Todo campo es un dominio de integridad. neales de un conjunto de vectores es un su­
15. Zn es un dominio de integridad si y solo si bespacio.
n es primo. 10. Los siguientes tres conjuntos de vectores co­
16. Todo dominio de integridad finito es un inciden:
campo. • El conjunto de todas las combinaciones
17. Definición de subcampo. lineales de N.
18. Definición de campo primo • La intersección de todos los subespacios
19. Todo campo K contiene un único subcampo que contienen a N.
primo que está contenido en cualquier sub­ • El subespacio más pequeño que contiene
campo de K. a N.
20. Q es un campo primo. 11. Propiedades básicas de la cerradura lineal:
202 Guı́a de estudio
• incremento, forma única como x = a + b donde a ∈ E
• monotonı́a, y b ∈ F.
• idempotencia. 34. Defina los subespacios afines.
12. Todo sobreconjunto de un conjunto genera­ 35. ¿Que es el paralelismo de subespacios afi­
dor es generador. nes?
13. Teorema de caracterización de conjuntos LI. 36. Todo subespacio afı́n es paralelo a un solo
14. Todo subconjunto de un conjunto LI es LI. subespacio vectorial.
15. Lema de aumento de un conjunto LI. 37. Dos diferentes subespacios afines paralelos
16. Teorema de caracterización de bases. no se intersectan
17. Teorema de existencia de bases. 38. ¿Que es el espacio cociente? ¿Cuales son
18. Propiedad del cambio de las bases. sus operaciones?
19. Dos bases cualesquiera de un espacio vecto­ 39. Cualquier subespacio complementario a E
rial tienen el mismo cardinal. intersecta al subespacio afı́n (E + x) en un
20. Si E es un subespacio de F y dim E = solo punto.
dim F < ∞ entonces, E = F. 40. D/E es canónicamente isomorfo a cualquier
21. Describa las bases canónicas de los espacios complementario de E.
vectoriales K{N} y K [x].
22. La inversa de un isomorfismo lineal es un Capı́tulo 3
isomorfismo lineal.
1. Definición de transformación lineal.
23. Un isomorfismo transforma conjuntos LI en
2. Toda TL transforma subespacios en subes­
conjuntos LI, conjuntos generadores en con­
pacios.
juntos generadores y bases en bases.
3. Toda TL de un espacio de dimensión 1 es
24. Describa el isomorfismo de coordinatiza­
una homotecia.
ción en una base.
4. Definición de proyección. Toda proyección
25. Dos espacios vectoriales sobre un mismo
es una TL.
campo son isomorfos si y solo si tienen la
5. El producto de un escalar por una TL es una
misma dimensión.
TL.
26. Todo espacio vectorial finito dimensional es
6. La suma de dos TLs es una TL.
isomorfo a Kn .
7. La composición de TLs es una TL.
27. El número de elementos en un campo finito
8. Propiedades de la composición de TLs: aso­
es potencia de un número primo.
ciatividad, distributividad y conmutatividad
28. hE ∪ Fi = {a + b | a ∈ E, b ∈ F}
con el producto por escalares.
29. La igualdad modular (incluye la demostra­
9. Definición de Álgebra. De tres ejemplos de
ción del lema).
álgebras. ¿Que es el grupo general lineal?
30. Si E y F son subespacios tales que E ∩ F =
10. Las extensiones lineales son TLs.
{0} entonces la función
11. Las TLs están predeterminadas por sus va­
E ⊕ F 3 (a, b) 7→ a + b ∈ E + F
lores en una base.
es un isomorfismo de espacios vectoriales.
12. Si N es una base de E entonces, la función
31. Que es un isomorfismo canónico. Demues­
que a cada TL h ∈ Hom (E, F) le hace co­
tre que E ⊕ F y F ⊕ E son canónicamente
rresponder su restricción hN ∈ FN es un
isomorfos.
isomorfismo de espacios vectoriales.
32. Todo subespacio tiene complementario.
13. Una TL es un isomorfismo si y solo si su res­
33. Si E y F son dos subespacios complemen­
tricción a una base es inyectiva y la imagen
tarios entonces cada vector x se expresa de
de esta restricción es una base.
Guı́a de estudio 203

14. Propiedades del producto escalar canónico con n elementos es n!.


de N­adas conmutatividad, distributividad y 3. Que son las órbitas de una permutación.
conmutatividad con el producto por escala­ 4. La restricción de una permutación a una
res. órbita es un ciclo.
15. Definición del producto de matrices. 5. Definición de permutaciones pares e impa­
16. ¿Cual es la TL definida por una matriz?. res. Definición del signo.
¿Cual es la matriz de una TL? 6. La composición de una permutación con
17. La matriz de la composición de dos TLs es una transposición cambia la paridad de la
igual al producto de las matrices de las TLs. permutación.
18. Defina las matrices de cambio de base. 7. Toda permutación es composición de trans­
19. La N­ada de las coordenadas de un vector posiciones.
en la base nueva se obtiene multiplicando la 8. Pruebe que sgn (π ◦ ρ) = sgn π sgn ρ y que
matriz de cambio de base por la V­ada de las sgn π−1 = sgn π.
coordenadas del vector en la base vieja. 9. Definición de determinante de una matriz.
20. Sea f : E → F una TL. Sean B y C matrices Regla del triángulo para los determinantes
de cambio de base en E y F respectivamen­ de orden 3.
te. Si A es la matriz de f en las bases viejas 10. El determinante de la matriz identidad es 1.
entonces CAB−1 es la matriz de f en las ba­ 11. Si una matriz tiene una columna o un ren­
ses nuevas. glón nulo entonces, su determinante es cero.
21. Propiedades principales de la transpuesta de 12. El determinante no se altera al transponer
una matriz. una matriz.
22. Defina la transpuesta de una TL. 13. Si una matriz tiene dos columnas iguales en­
23. La transpuesta de una inmersión es una pro­ tonces, su determinante es cero.
yección. 14. Al permutar las columnas o los renglones de
24. Definición de nucleo e imágen de una TL. una matriz con la permutación ω el determi­
25. La imágen y el nucleo son subespacios. nante se altera por un factor igual a sgn ω.
26. Una TL es injectiva si y solo si su nucleo es 15. Si φ y ϕ son dos cambios de ı́ndices de N
trivial. en M entonces, se cumple
¡ la ¢igualdad:
27. Si K es un subespacio complementario a det αMφ(N) = sgn φ ◦ ϕ −1 det αMϕ(N) .
ker f entonces, la restricción de f a K es in­ 16. Definición de matriz no singular.
yectiva. 17. Definición de cofactores de una entrada de
28. Pruebe que dim Im f = dim Im fT y que una matriz. Pruebe que los cofactores no de­
dim ker f = dim ker fT . penden del cambio de ı́ndices usado para
29. Sean E y F dos espacios tales que dim E = calcular el determinante.
dim F < ∞. Una TL de E a F es inyectiva 18. Teorema de expansión de Laplace.
si y solo si es sobreyectiva. 19. Definición de funcional multilineal
30. Los subespacios afines paralelos a ker f son 20. El determinante es un funcional multilineal
precisamente los conjuntos de vectores en de los renglones.
que la TL f es constante. 21. det A−1 = (det A)−1 .
22. A−1 = A∗T / det A.
Capı́tulo 4 23. El determinante de un OL no depende de la
base que se use para calcularlo.
1. Si |M| = |N| entonces, los grupos simétri­
24. Enuncie la expansión generalizada de La­
cos SM y SN son isomorfos.
place
2. El número de permutaciones de un conjunto
204 Guı́a de estudio
25. El determinante de una matriz triangular por 33. Describa el procedimiento general de solu­
bloques es igual al producto de los determi­ ción de los sistemas de ecuaciones lineales.
nantes de sus bloques. 34. Las transformaciones elementales no cam­
26. Enuncie la caracterización de matrices no bian los determinantes.
singulares. 35. Las transformaciones elementales de los
27. Las dimensiones del espacio de columnas y renglones de la matriz ampliada no cambian
del espacio de renglones de una matriz co­ el subespacio afı́n solución de un sistema de
inciden. ecuaciones lineales.
28. Lema de aumento de submatrices no singu­ 36. Resuelva un sistema de ecuaciones lineales
lares. por el método de Gauss.
29. Caracterización de las bases de una matriz 37. Encuentre la inversa de una matriz por el
30. Regla de Cramer. método de eliminación de Gauss
31. Teorema de existencia de soluciones.
32. Lema de eliminación de ecuaciones depen­ Capı́tulo 5
dientes.

También podría gustarte