Está en la página 1de 250

Notas de lgebra lineal

Alfredo Gmez Rodrguez


Instituto de Fsica y Facultad de Ingeniera, U.N.A.M.
Enero de 2011
ii
ndice general
Introduccin XI
I Introduccin al lgebra lineal 1
1. Breve historia del lgebra lineal 5
1.1. Las ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Las matrices y las transformaciones lineales . . . . . . . . . . . . 6
1.4. Independencia lineal, bases y dimensin . . . . . . . . . . . . . . 6
1.5. Los espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . 7
2. Aplicaciones del lgebra lineal 9
2.1. Aplicaciones a otras ramas de las matemticas. . . . . . . . . . . 9
2.2. Aplicaciones a la fsica . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3. Aplicaciones a la ingeniera y a otras ramas del saber. . . . . . . 10
II Matrices y determinantes 11
3. Concepto de Matriz 15
3.1. Operaciones entre matrices. . . . . . . . . . . . . . . . . . . . . . 17
3.1.1. Multiplicacin de una matriz por un nmero. . . . . . . . 17
3.1.2. Suma (o adicin) de matrices. . . . . . . . . . . . . . . . . 17
3.1.3. Negacin de matrices . . . . . . . . . . . . . . . . . . . . . 18
3.1.4. algunas propiedades de la multiplicacin de matrices por
nmeros y de la adicin de matrices . . . . . . . . . . . . 18
3.1.5. Particiones de matrices . . . . . . . . . . . . . . . . . . . 19
3.1.6. Multiplicacin de una matriz por un vector columna. . . . 20
3.1.7. Multiplicacin de dos matrices . . . . . . . . . . . . . . . . 21
3.1.8. Propiedades de la mutiplicacin de matrices . . . . . . . . 22
3.1.9. Potencias de matrices . . . . . . . . . . . . . . . . . . . . 22
3.2. La inversa de una matriz. . . . . . . . . . . . . . . . . . . . . . . 23
3.2.1. algunas propiedades de las inversas . . . . . . . . . . . . . 23
iii
iv NDICE GENERAL
3.2.2. Operaciones elementales. . . . . . . . . . . . . . . . . . . 23
3.2.3. Inversa de una matriz usando la forma escalonada reduci-
da por renglones. . . . . . . . . . . . . . . . . . . . . . . . 24
3.2.4. un ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.5. Matrices elementales. . . . . . . . . . . . . . . . . . . . . 26
3.3. La transpuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4. Traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5. Ecuaciones matriciales . . . . . . . . . . . . . . . . . . . . . . . . 28
3.5.1. Sistemas lineales homogneos e inhomogneos . . . . . . . 29
4. Determinantes 31
4.1. Determinante de una matriz de 1 1 . . . . . . . . . . . . . . . . 31
4.2. Determinante de una matriz de 2 2 . . . . . . . . . . . . . . . . 31
4.3. Determinante de una matriz de : : . . . . . . . . . . . . . . . 32
4.3.1. menores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3.2. cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3.3. Determinante de una matriz de : : . . . . . . . . . . . 32
4.3.4. Expansin de Laplace . . . . . . . . . . . . . . . . . . . . 33
4.3.5. Regla de Sarrus . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3.6. propiedades generales de los determinantes. . . . . . . . . 33
4.3.7. Determinante de una matriz diagonal o triangular. . . . . 34
4.3.8. Clculo de determinantes mediante operaciones elementales. 34
4.4. Propiedades de las matrices triangulares . . . . . . . . . . . . . . 35
4.5. Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.5.1. Clculo de la inversa mediante la adjunta. . . . . . . . . . 36
4.6. Soluciones de ecuaciones homogneas e inhomogneas. . . . . . . 36
III Operaciones y estructuras algebraicas. 37
5. Operaciones binarias 39
5.0.1. un ejemplo interesante . . . . . . . . . . . . . . . . . . . . 42
5.0.2. otro ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.0.3. Operaciones parciales . . . . . . . . . . . . . . . . . . . . 43
6. Semigrupos y monoides 45
7. Grupos 47
7.1. ejemplos de grupos . . . . . . . . . . . . . . . . . . . . . . . . . . 47
7.2. propiedades elementales de los grupos . . . . . . . . . . . . . . . 48
8. Anillos 51
8.1. Ejemplos de anillos . . . . . . . . . . . . . . . . . . . . . . . . . . 52
8.1.1. divisores de cero . . . . . . . . . . . . . . . . . . . . . . . 52
9. Campos 53
9.1. Ejemplos de campos . . . . . . . . . . . . . . . . . . . . . . . . . 54
NDICE GENERAL v
10.lgebras de Boole 55
10.1. Denicin de lgebra de Boole . . . . . . . . . . . . . . . . . . . 55
10.1.1. ejemplos de lgebras de Boole . . . . . . . . . . . . . . . . 55
11.Homomorsmos e isomorsmos. 57
11.0.2. Homomorsmos. . . . . . . . . . . . . . . . . . . . . . . . 57
11.0.3. Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . 57
IV Espacios vectoriales. 59
12.Concepto de espacio vectorial 61
12.1. Algunos ejemplos de espacios vectoriales . . . . . . . . . . . . . . 63
12.1.1. Los espacios R
n
. . . . . . . . . . . . . . . . . . . . . . . . 63
12.1.2. Los espacios C
n
. . . . . . . . . . . . . . . . . . . . . . . . 66
12.1.3. Los espacios 1
n
. . . . . . . . . . . . . . . . . . . . . . . . 67
12.1.4. Los espacios '(:, :) . . . . . . . . . . . . . . . . . . . . 68
12.1.5. Los espacios '
+
(:, :) . . . . . . . . . . . . . . . . . . . . 69
12.2. Algunas propiedades bsicas de los espacios vectoriales. . . . . . 70
12.3. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
12.4. Sistemas de ecuaciones lineales homogneas. . . . . . . . . . . . . 75
12.5. combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 76
12.5.1. Des-sumando y des-multiplicando . . . . . . . . . . . . . . 77
12.6. generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
12.6.1. cmo encontrar un generador para el conjunto solucin de
un sistema lineal homogneo. . . . . . . . . . . . . . . . . 79
12.7. Independencia lineal y dependencia lineal . . . . . . . . . . . . . 80
12.7.1. Cmo determinar la dependencia o independencia? . . . 82
12.8. bases y dimensin . . . . . . . . . . . . . . . . . . . . . . . . . . 85
12.8.1. Algunos resultados adicionales . . . . . . . . . . . . . . . 92
12.9. coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
12.10.cambio de base y matriz de transicin . . . . . . . . . . . . . . . 95
12.10.1.Encontrando la matriz de transicin. . . . . . . . . . . . . 96
12.11.Isomorsmos y el principio del isomorsmo . . . . . . . . . . . . 98
12.11.1.cambio de base de nuevo . . . . . . . . . . . . . . . . . . . 101
12.12.Espacios rengln y columna . . . . . . . . . . . . . . . . . . . . . 101
12.13.La estructura de los sistemas inhomogneos. . . . . . . . . . . . . 106
12.14.Espacios de funciones, Wronskianos . . . . . . . . . . . . . . . . . 107
12.14.1.dependencia e independencia lineal de funciones. . . . . . 108
V Transformaciones lineales 113
13.Transformaciones lineales 117
13.0.2. algunas propiedades de las transformaciones lineales. . . . 118
13.1. algunas transformaciones importantes . . . . . . . . . . . . . . . 119
vi NDICE GENERAL
13.1.1. ejemplos de transformaciones lineales. . . . . . . . . . . . 119
13.2. ncleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
13.2.1. imagen y suprayectividad. . . . . . . . . . . . . . . . . . . 125
13.2.2. Ncleo e inyectividad. . . . . . . . . . . . . . . . . . . . . 125
13.3. teorema de la dimensin. . . . . . . . . . . . . . . . . . . . . . . . 126
13.4. representaciones matriciales. . . . . . . . . . . . . . . . . . . . . . 126
13.4.1. la matriz de transicin de nuevo . . . . . . . . . . . . . . 127
13.4.2. calculando la matriz asociada a una transformacin lineal. 128
14.lgebra de transformaciones 131
14.1. Suma de transformaciones lineales. . . . . . . . . . . . . . . . . . 131
14.2. Producto por nmeros. . . . . . . . . . . . . . . . . . . . . . . . . 132
14.3. La suma de dos transformaciones lineales es lineal . . . . . . . . 132
14.4. Linearidad del producto por un nmero . . . . . . . . . . . . . . 133
14.5. El conjunto de todas las transformaciones lineales de \ en \ es
un espacio vectorial. . . . . . . . . . . . . . . . . . . . . . . . . . 133
14.5.1. hay un zero (elemento idntico) para la suma de trans-
formaciones? . . . . . . . . . . . . . . . . . . . . . . . . . 133
14.5.2. hay un negativo (inverso aditivo) para la suma de trans-
formaciones ? . . . . . . . . . . . . . . . . . . . . . . . . . 134
14.6. Matriz asociada a la suma y producto por nmeros. . . . . . . . 134
14.7. Composicin de transformaciones. . . . . . . . . . . . . . . . . . 136
14.7.1. denicin de composicin. . . . . . . . . . . . . . . . . . . 136
14.7.2. La composicin de dos transformaciones lineales es lineal. 136
14.7.3. Matriz de la composicin de dos transformaciones lineales. 137
14.7.4. Las propiedades ms importantes de estas operaciones . . 137
15.La transformacin inversa. 141
15.1. La inversa de una transformacin. . . . . . . . . . . . . . . . . . 141
15.1.1. la inversa es nica . . . . . . . . . . . . . . . . . . . . . . 141
15.1.2. la inversa de una transformacin lineal es lineal . . . . . . 142
15.1.3. La matriz de la inversa. . . . . . . . . . . . . . . . . . . . 143
15.1.4. Criterios de invertibilidad. . . . . . . . . . . . . . . . . . . 143
15.1.5. La inversa de una composicin. . . . . . . . . . . . . . . . 144
15.1.6. un ejemplo completo . . . . . . . . . . . . . . . . . . . . . 145
15.2. Cambio de base y matrices . . . . . . . . . . . . . . . . . . . . . 147
15.3. Matrices vacas . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
16.Geometra de las transformaciones (I). 151
16.1. Haciendo geometra en R
2
. . . . . . . . . . . . . . . . . . . . . . 151
16.2. Efecto de transformaciones lineales sobre rectas y segmentos . . 151
16.3. Areas de paralelogramos y de imgenes de paralelogramos bajo
transformaciones lineales. . . . . . . . . . . . . . . . . . . . . . . 152
16.4. Quiralidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
16.4.1. ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
NDICE GENERAL vii
17.eigenvalores y eigenvectores 155
17.1. algunas deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . 155
17.1.1. en trminos de las matrices. . . . . . . . . . . . . . . . . . 156
17.2. Hallando los eigenvalores . . . . . . . . . . . . . . . . . . . . . . . 156
17.3. hallando los eigenvectores. . . . . . . . . . . . . . . . . . . . . . 157
17.4. Un ejemplo sencillo. . . . . . . . . . . . . . . . . . . . . . . . . . 157
17.5. Matriz de un operador en una eigenbase. . . . . . . . . . . . . . . 159
17.5.1. independencia de eigenvectores. . . . . . . . . . . . . . . . 159
17.6. Un ejemplo completo . . . . . . . . . . . . . . . . . . . . . . . . . 160
18.Interpretacin geomtrica de las transformaciones lineales (II).165
VI Espacios con producto interior 167
19.Espacios con producto interior 169
19.1. Motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
19.2. Concepto de producto interior . . . . . . . . . . . . . . . . . . . . 169
19.3. Ejemplos de productos interiores . . . . . . . . . . . . . . . . . . 170
19.4. Algunas propiedades de los productos interiores . . . . . . . . . . 173
19.5. La desigualdad de Cauchy-Schwarz . . . . . . . . . . . . . . . . . 174
19.6. Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
19.6.1. motivacin. . . . . . . . . . . . . . . . . . . . . . . . . . . 176
19.6.2. Caso general. . . . . . . . . . . . . . . . . . . . . . . . . . 176
19.7. Distancias (mtricas) . . . . . . . . . . . . . . . . . . . . . . . . . 180
19.8. ngulos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
19.9. Conjuntos ortogonales, normales y ortonormales . . . . . . . . . 181
19.9.1. Los conjuntos ortogonales son independientes . . . . . . . 182
19.9.2. expansin con respecto a una base ortonormal . . . . . . . 183
19.10.Matriz con respecto a una base ortonormal. . . . . . . . . . . . . 183
19.11.Productos y cordenadas . . . . . . . . . . . . . . . . . . . . . . . 184
19.12.complementos ortogonales . . . . . . . . . . . . . . . . . . . . . . 185
19.13.Proyecciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
19.13.1.Motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . 186
19.13.2.Caso general . . . . . . . . . . . . . . . . . . . . . . . . . 187
19.14.Mejor aproximacin. . . . . . . . . . . . . . . . . . . . . . . . . . 188
19.15.Mtodo de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . 189
19.15.1.Formulacin del problema. . . . . . . . . . . . . . . . . . . 189
19.15.2.Idea bsica . . . . . . . . . . . . . . . . . . . . . . . . . . 190
19.15.3.Formulacin explcita . . . . . . . . . . . . . . . . . . . . 190
20.Cuadrados mnimos. 191
20.0.4. motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . 191
20.0.5. Teora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
20.1. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
20.1.1. usando un poco de clculo . . . . . . . . . . . . . . . . . . 195
viii NDICE GENERAL
20.1.2. otros comentarios . . . . . . . . . . . . . . . . . . . . . . . 196
20.1.3. un caso general y tpico . . . . . . . . . . . . . . . . . . . 196
VII Operadores lineales en espacios con producto inte-
rior. 199
21.Espacios duales. 201
21.0.4. ejemplos de funcionales. . . . . . . . . . . . . . . . . . . . 202
21.0.5. una base del espacio dual. . . . . . . . . . . . . . . . . . . 203
21.1. productos interiores y espacios duales . . . . . . . . . . . . . . . 204
22.Operadores adjuntos 207
22.1. Matriz del operador adjunto con respecto a una base ortonormal. 208
22.2. Propiedades del adjunto . . . . . . . . . . . . . . . . . . . . . . . 209
22.3. regla de correspondencia del adjunto . . . . . . . . . . . . . . . . 210
22.4. y si la base no era ortonormal? . . . . . . . . . . . . . . . . . . . 212
22.5. Un ejemplo completo . . . . . . . . . . . . . . . . . . . . . . . . . 213
23.Operadores y matrices Hermiteanos, antihermiteanos, simtri-
cos, antisimtricos, unitarios, ortogonales y normales. 217
23.1. Algunas deniciones bsicas . . . . . . . . . . . . . . . . . . . . . 217
23.2. Algunos teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
23.3. Teorema espectral. . . . . . . . . . . . . . . . . . . . . . . . . . . 222
23.3.1. resolucin espectral . . . . . . . . . . . . . . . . . . . . . . 224
23.3.2. Proyectores de nuevo . . . . . . . . . . . . . . . . . . . . . 227
24.Cudricas. 229
24.1. Introduccin a las ideas principales . . . . . . . . . . . . . . . . . 229
24.2. Teora general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
24.3. diagonalizacin de formas cuadrticas. . . . . . . . . . . . . . . . 232
24.4. cnicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
24.5. supercies cudricas. . . . . . . . . . . . . . . . . . . . . . . . . . 233
Prefacio
Estas son las notas para un curso de lgebra lineal. Estas notas estn en un
proceso de continua revisin, para versiones ms recientes puede Usted consultar
http://www.sica.unam.mx/personales/alfredo/
ix
x PREFACE
Introduccin
El plan 2006 para la asignatura lgebra lineal impartida en la Divisin
de Ciencias Bsicas de la Facultad de Ingeniera de la UNAM nos ha obligado
a revisar nuestras notas de clase. El resultado de dicha revisin es el presente
juego de notas, que no pretenden ser sino eso, notas. El lector indudablemente
notar algunos de los inumerables errores en este texto, y los errores no son
nada ms de ortografa o redaccin. Sin embargo, esta obra es, como toda obra
humana, perfectible y jams perfecta. Agradecer si me informan de los errores
bajo el principio de error detectado, error eliminado.
La revisin 2008 del plan de estudios coloca los temas matrices y determi-
nantes y estructuras algebraicas de nuevo en el curso de lgebra. Sin embargo,
al menos de momento, hemos decidido dejar dichos temas en el presente juego de
notas. Esta revisin indica agregar el tema operadores lineales en espacios con
producto interno que es tratado brevemente en el presente texto. Otro tema
nuevo en la revisin es el de introduccin al lgebra lineal; este tema comprende
los subtemas historia del lgebra lineal y aplicaciones del lgebra lineal a la
ingeniera que tambin se tratan aqu de manera breve.
Uno de los tpicos ms polmicos para el profesor de lgebra lineal es el de
las aplicaciones. Frecuentemente por aplicaciones se entienden aplicaciones a
las matemticas y esto deja frustrados a nuestros estudiantes que quieren ver
las aplicaciones a la ingeniera. Y al hablar de aplicaciones a la ingeniera se
mencionan algunos ejemplos tribilines", es decir, triviales. Llamar aplicaciones
a cualquier ejemplito en el que aparezcan sistemas de ecuaciones, determinantes
o matrices es como llamar humorista a alguien que cuenta un chiste cada veinte
aos. Reto a mis colegas profesores de lgebra lineal a que muestren ejemplos no
triviales de aplicaciones a la ingeniera. El presente autor, siendo fsico, conoce
dos aplicaciones monumentales del lgebra lineal a la fsica: la mecnica cuntica
y la teora de la relatividad. existe algo comparable entre las aplicaciones a la
ingeniera?no sera (como ms de un autor ha sugerido), ms conveniente dar
un curso orientado a las matrices y olvidarnos de espacios vectoriales, productos
interiores, adjuntos, operadores Hermitianos y un largo etc.?
Hemos escrito un segundo folleto dedicado a mostrar algunas aplicaciones,
entre ellas algunas aplicacines simples a la mecnica cuntica y a la relatividad;
pero hemos tratado de no incluir aquellas aplicaciones que el lector encontrar
en muchos de los textos de lgebra lineal disponibles, sobre todo las tribilines.
Hace ya algunos aos los fsicos prometieron darnos computadoras cun-
xi
xii INTRODUCCIN
ticas. Al momento de escribir estas notas aun no cumplen su promesa y, por
desgracia, en otras ocasiones (los cuasicristales, los superconductores) no las han
cumplido. Sin embargo de lograrse la computacin cuntica nuestro modesto
curso se convertira en uno de los ms importantes; sugiero al lector que le eche
un ojo a un texto de informacin cuntica, ver en l lgebra lineal y ms lgebra
lineal.
Parte I
Introduccin al lgebra
lineal
1
3
En esta parte del curso damos un breve paseo por la historia del lgebra
lineal y sealamos algunas de sus aplicaciones a la ingeniera.
4
Captulo 1
Breve historia del lgebra
lineal
Esta resea ser, por necesidad, muy breve y nos contentasremos con mostrar
nicamente los sucesos ms relevantes.
El tratamiento est inspirado por el libro A History of Abstract Algebra
escrito por Israel Kleiner y publicado por la editorial Birkhuser en 2007.
1.1. Las ecuaciones lineales
Alrededor del ao 2000 A.C los Babilonios eran capaces de resolver sis-
temas lineales de dos ecuaciones con dos incgnitas.
Tambin alrededor de 2000 A.C los Chinos podan resolver ecuaciones de
3 3
El estudio moderno de los sistemas de ecuaciones arranca con Leibniz
(1646-1716) en 1693. Leibniz invent el concepto de determinante.
En 1750 Cramer (1704-1752) inventa la regla para resolver sistemas lineales
que lleva su nombre.
Euler (1707-1783) es el primero en notar que los sistemas lineales pueden
carecer de solucin o la solucin puede no ser nica.
Gauss (1777-1855) inventa el mtodo de los cuadrados mnimos en 1811 y
desarrolla la ahora llamada eliminacin Gausiana. Estudi las condiciones
bajo las cuales los sistemas tienen soluciones y son nicas.
1.2. Los determinantes
una de las primeras publicaciones sobre determinantes fue la de Maclaurin
(16981746). Este autor los us para resolver sistemas de 2 2 y 3 3.
5
6 CAPTULO 1. BREVE HISTORIA DEL LGEBRA LINEAL
Vandermonde (1735 1796) estudia en 1772 los determinantes per se y no
en relacin con la solubilidad de sistemas de ecuaciones.
Laplace (1749 1827) muestra en 1772 cmo expandir determinantes por
medio de cofactores.
Cauchy (1789 1857) presenta el primer estudio sistemtico de los deter-
minantes y descubri muchas de sus propiedades (como que det(1) =
det() det(1)).
En 1843 Cayley (18211895) hace geometra analtica en : dimensiones
usando determinantes.
Alrededor de 1870 Dedekind (1831 1916) usa los determinantes para es-
tablecer algunos resultados en teora de los nmeros.
Weierstrass (1815 1897) y Kronecker (1823 -1891) estudiaron los deter-
minantes de manera rigurosa introducindolos de manera axiomtica.
1.3. Las matrices y las transformaciones lineales
Las matrices, en cuanto tablas de nmeros, aparecen en las matemticas
chinas alrededor del ao 200 A.C.
El primer uso serio de las matrices se halla en el estudio por Gauss (1777-
1855) de las formas cuadrticas binarias. En su trabajo se encuentra ya la
multiplicacin de matrices.
En la geometra analtica de los siglos XVII y XVIII se estudiaron trans-
formaciones lineales y sus matrices.
Eisenstein (1823 1852) y Hermite (1822 1901), extendiendo el trabajo
de Gauss, continan con el uso de matrices en formas cuadrticas.
1.4. Independencia lineal, bases y dimensin
Dedekind (1831 1916) y Weber (18421913) llegaron a usar los conceptos
de combinacin lineal y base aunque sin denirlos de la manera moderna.
Las ideas de Dedekind y de Weber fueron llevadas a la perfeccin por
Steinitz (8711928) y Artin (18981962), en el contexto de la teora de los
campos.
Con los cuaternios, Hamilton (18051865) presenta la primera estructura
que es sin lugar a dudas un espacio vectorial.
generalizando las ideas de Hamilton, Cayley (18211895) y Graves (1806
1870) introducen los octoniones.
1.5. LOS ESPACIOS VECTORIALES. 7
Se piensa que el primero en denir el concepto de espacio vectorial es
Pierce (18091880) en su obra Linear associative algebra.
Euler(1707-1783) y Lagrange (17361813) estudian la analoga entre los
sistemas de ecuaciones y las ecuaciones diferenciales.
la relacin entre lgebra y geometra fue estudiada por Descartes (1596
1650) y Fermat (1601-1665) a principios del siglo XVII y Euler continu
en el siglo XVIII extendiendo el estudio a tres dimensiones. La forma
moderna se alcanza con Monge (1746-1818).
1.5. Los espacios vectoriales.
La nocin moderna de espacio vectorial es introducida por Peano (1858
1932) en 1888.
El concepto geomtrico de vector parte de Wessel (1745-1818) y culmina
con Gauss (17771855).
Es Hamilton (18051865) el primero en ver a los nmeros complejos como
parejas ordenadas de nmeros reales.
El lgebra de vectores se da, por una parte con Hamilton y sus cuaternios y
por otra con Gibbs (1839 1903) y Heaviside (1850 1925) quienes estudian
los vectores de la forma en que los conocemos en la actualidad.
La generalizacin a tres o mas dimensiones se debe a Hamilton, Cayley y
Grassmann (8091877).
Podemos decir que el lgebra lineal (como entendemos el trmino ahora)
se debe fundamentalmente a Peano y Grassmann.
Weyl (18851955) aplica estas ideas a la fsica y en particular a la rela-
tividad en el siglo XX.
Con Banach (18921945) se habla ya de espacios vectoriales normados.
El lenguaje moderno ya se aprecia en la obra de Noether (18821935) en
pleno siglo XX.
Una denicin de espacio vectorial reconocible por los lectores del siglo
XXI se presenta en la obra de van der Waerden (1903-1996).
Como podr apreciar el lector, el lgebra lineal que estudiamos en este curso
es algo muy reciente.
8 CAPTULO 1. BREVE HISTORIA DEL LGEBRA LINEAL
Captulo 2
Aplicaciones del lgebra
lineal
A groso modo podemos dividir las aplicaciones del lgebra lineal en tres
grandes porciones:
aplicaciones del lgebra lineal a otras ramas de las matemticas.
aplicaciones a la fsica
aplicaciones a la ingeniera y otras ramas del conocimiento.
2.1. Aplicaciones a otras ramas de las matemti-
cas.
De una manera muy escueta sealaremos algunas aplicaciones:
El concepto de derivada, vista como transformacin lineal, es quiz lo ms
relevante del lgebra lineal en toda la matemtica. En breve, la derivada
es la mejor aproximacin lineal a una funcin en una vecindad de un
punto.
La diagonalizacin de matrices encuentra uso en el anlisis de las formas
cuadrticas y de las conicas que stas representan.
Los productos interiores y la mejor aproximacin dan lugar al mtodo de
los cuadrados mnimos.
2.2. Aplicaciones a la fsica
los productos interiores encuentran aplicacin en cristalografa para de-
scribir cristales y sus propiedades.
9
10 CAPTULO 2. APLICACIONES DEL LGEBRA LINEAL
La mecnica cuntica es la mayor aplicacin existente del lgebra lineal.
Todo en mecnica cuntica ocurre en espacios vectoriales complejos con
producto interior.
La relatividad tambin usa constantemente los conceptos del lgebra lin-
eal. Piense por ejemplo en las transformaciones de Lorentz.
En mecnica de materiales tenemos los tensores de deformacin y de es-
fuerzo; no son mas que transformaciones lineales.
En mecnica tenemos el tensor de inercia. Se trata de la transformacin
lineal que nos da el momento angular en funcin de la velocidad angular.
2.3. Aplicaciones a la ingeniera y a otras ramas
del saber.
En economa se usan mucho las matrices y la programacin lineal. Muchos
modelos son lineales.
En ingeniera de control se necesitan frecuentemente matrices, eigenvalores
y eigenvectores.
En la teora de grcos (grafos) se usan las matrices de adyacencia e
incidencia para caracterizar los grafos. Tambin las relaciones se describen
con matrices.
De hacerse realidad el sueo de la computadoras cunticas, el lgebra
lineal se convertir en la rama de las matemticas con ms aplicaciones.
Por desgracia esto es todava un sueo, y pesadilla para aquellos a quienes
no les agrada el lgebra lineal.
Parte II
Matrices y determinantes
11
13
Pocas herramientas matemticas han resultado tan tiles como las matrices.
El ingeniero debe conocerlas a n de adentrarse, despus, en las aplicaciones
prcticas.
14
Captulo 3
Concepto de Matriz
Una matriz es, informalmente hablando, un arreglo rectangular de nmeros.
Con un poco ms de rigor diremos que una matriz de : por : es una funcin
(regla, receta) que asocia con cualesquiera dos nmeros enteros i (i = 1, 2...:)
y , (, = 1, 2...:) otro nmero (que en general ser real o complejo) denotado
como a
I
o tambin como ()
I
o
I
. Los nmeros a
I
reciben el nombre de
entradas de la matriz . Hemos adoptado la convencin de usar una letra
mayscula ( en este caso) para la matriz y su correspondiente minscula (a
en el presente caso) para denotar sus entradas.
Normalmente escribimos la matriz poniendo los nmeros a
I
en un arreglo
rectangular acomodados en : las(o renglones) y en : columnas
=
_

_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_

_
Esto tambin suele escribirse de manera compacta como
= (a
I
)
En la expresin a
I
el ndice i indica en cul rengln se halla la entrada en
tanto que el ndice , especica la columna.
Cuando : = : se dice que es una matriz cuadrada de orden :, si : ,= :
entonces se llama matriz rectangular. Las posiciones en la matriz para las cuales
i = , reciben el nombre de diagonal (o diagonal principal); las entradas a
II

para i = 1, 2... mn(:, :) estn en la diagonal de . Una matriz cuadrada cuyas


entradas son cero excepto en la diagonal, recibe el nombre de matriz diagonal. Si
las entradas debajo de la diagonal de una matriz son cero (es decir si a
I
= 0
para i , ) la matriz se llama triangular superior. Cuando las entradas arriba
de la diagonal son cero (es decir cuando a
I
= 0 para i < , ) la matriz se llama
triangular inferior.
15
16 CAPTULO 3. CONCEPTO DE MATRIZ
Hay dos casos muy importantes. Cuando : = 1 la matriz es un vector
columna y escribimos
=
_
_
_
_
_
a
1
a
2
.
.
.
a
n
_
_
_
_
_
(note que usamos slo un ndice, no necesitamos ms). Cuando : = 1 la matriz
recibe el nombre de vector rengln y escribimos
=
_
a
1
a
2
... a
n

Por lo anterior resulta claro que podemos pensar a una matriz de ::
como una coleccin de : vectores columna (cada uno con : componentes) o,
alternativamente, como una coleccin de : vectores rengln (cada uno con :
componentes).
Denimos, ms formalmente, los renglones y las columnas de mediante
rc:q|o:
I
() =
_
a
I1
a
I2
... a
In

y
co|n::a

() =
_

_
a
1
a
2
.
.
.
a
n
_

_
y
=
_
co|n::a
1
() co|n::a
2
() ... co|n::a
n
()

o
=
_

_
rc:q|o:
1
()
rc:q|o:
2
()
.
.
.
rc:q|o:
n
()
_

_
Una matriz diagonal de :: en la cual todas las entradas son iguales, recibe
el nombre de matriz escalar. Un caso importante es la llamada matriz identidad,
que es una matriz cuadrada diagonal en la que todas las entradas no nulas son
1.
1
n
=
_

_
1 0 ... 0
0 1 ... 0
0
.
.
.
.
.
. 0
0 0 ... 1
_

_
Otra matriz importante es la matriz cero de : : que es una matriz 0 todas
3.1. OPERACIONES ENTRE MATRICES. 17
cuyas entradas son cero. Esquemticamente
0 =
_

_
0 0 ... 0
0 0 ... 0
.
.
.
.
.
. ...
.
.
.
0 0 ... 0
_

_
Dos matrices = 1 son iguales (es decir, la misma matriz) si:
tienen el mismo nmero de renglones (llame : a este nmero).
tienen el mismo nmero de columnas (llame : a este nmero).
()
I
= (1)i, para toda i = 1, 2...:, , = 1, 2...:.
Por orden (o tamao) de una matriz entenderemos los nmeros : y : que
especican el nmero de renglones y de columnas, respectivamente.
3.1. Operaciones entre matrices.
Hay varias operaciones entre matrices que sern de importancia en nuestro
trabajo.
3.1.1. Multiplicacin de una matriz por un nmero.
Sea c un nmero (real o complejo) y una matriz de ::. El producto de
c y se denota como c y es otra matriz de :: cuyas entradas se obtienen
multiplicando cada entrada de por c. Ms formalmente
(c)
I
= c
I
y explcitamente
c =
_

_
ca
11
ca
12
... ca
1n
ca
21
ca
22
... ca
2n
.
.
.
.
.
.
.
.
.
.
.
.
ca
n1
ca
n2
... ca
nn
_

_
3.1.2. Suma (o adicin) de matrices.
Sean y 1 dos matrices de ::. Denimos la suma de y 1 , denotada
por + 1 como otra matriz, tambin de : : cuyas entradas se obtienen
sumando las correspondientes entradas de las matrices sumandos; o sea
(+1)
I
=
I
+1
I
18 CAPTULO 3. CONCEPTO DE MATRIZ
y, esquemticamente
+1 =
_

_
a
11
+/
11
a
12
+/
12
... a
1n
+/
1n
a
21
+/
21
a
22
+/
22
... a
2n
+/
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
+/
n1
a
n2
+/
n2
... a
nn
+/
nn
_

_
Ntese que la suma de matrices se halla denida slamente entre matrices
del mismo tamao, no se pueden sumar matrices de diferente tamao.
3.1.3. Negacin de matrices
Si es una matriz de :: entonces por entenderemos otra matriz de
:: cuyas entradas son los negativos de las de , es decir
()
I
=
I
3.1.4. algunas propiedades de la multiplicacin de matri-
ces por nmeros y de la adicin de matrices
Se puede vericar, sin mayor esfuerzo, que si , 1 y C son matrices del
mismo tamao y c, , y son nmeros:
+1 = 1 + (propiedad conmutativa)
+ (1 +C) = (+1) +C (propiedad asociativa)
+ 0 = 0 + = donde 0 es la matriz cero del mismo tamao que
(idntico aditivo)
+ () = 0
c(+1) = c+c1 (propiedad distributiva)
(c +,) = c+, (otra propiedad distributiva)
(c,) = c(,) = ,(c)
1 =
y tambin que:
(1) =
0 = 0 (del lado izquierdo 0 es el nmero cero, del lado derecho 0 es la
matriz cero)
c0 = 0 (ambos 0 representan la matriz cero)
3.1. OPERACIONES ENTRE MATRICES. 19
3.1.5. Particiones de matrices
Una submatriz 1 de una matriz es una matriz que se obtiene eliminando
uno o varios renglones y/o una o varias columnas (nada ms tenga cuidado de no
eliminar todos los renglones o todas las columnas, se quedara con una matriz
vaca!).
Por cierto, en algunos contextos resulta til el concepto de matriz vaca, pero
no entraremos en esto ahora.
Una matriz puede verse como la yuxtaposicin de algunas de sus submatrices.
Dada una matriz hay diversas particiones. La mejor manera de visualizar
la particin de una matriz consiste en trazar una serie de lineas punteadas o
contnuas horizontales y verticales. Pero la condicin en estas lineas es que las
lneas horizontales han de cruzar la matriz de izquierda a derecha totalmente
en tanto que las lneas verticales han de cruzar la matriz de arriba a abajo
totalmente.
Considere el ejemplo
=
_

_
1 2 3 4
6 7 8 9
10 11 12 13
14 15 16 17
_

_
una posible particin sera
=
_

_
1 2 3 4
6 7 8 9
10 11 12 13
14 15 16 17
_

_
de modo que est compuesta de las submatrices
1
11
=
_
1 2 3
6 7 8
_
1
12
=
_
4
9
_
1
21
=
_
10 11 12
14 15 16
_
1
22
=
_
13
17
_
y escribiremos esto como
=
_
1
11
1
12
1
21
1
22
_
Exhortamos al lector a fabricar ejemplos como ste practicando diversas
particiones y su notacin.
De las particiones hay dos muy importantes:
20 CAPTULO 3. CONCEPTO DE MATRIZ
Cuando la matriz de : : se parte en una serie de : renglones (con
: elementos cada uno)
Cuando la matriz de :: se parte en una serie de : columnas (cada
una con : elementos)
Entonces podremos escribir
=
_

_
rc:q|o:
1
()
rc:q|o:
2
()
.
.
.
rc:q|o:
n
()
_

_
y tambin (esta ecuacin ya la habamos presentado antes)
=
_
co|n::a
1
() co|n::a
2
() co|n::a
n
()

Frecuentemente nos referiremos a las submatrices que aparecen en las par-
ticiones como bloques.
3.1.6. Multiplicacin de una matriz por un vector colum-
na.
Sea una matriz de : : y un vector columna de : 1. Denimos el
producto como aquel vector columna, de :1 dado por la expresin
=
_

_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_

_
_

2
.
.
.

n
_

_
=
_

_
a
11

1
+a
12

2
+...a
1n

n
a
21

1
+a
22

2
+...a
2n

n
.
.
.
a
n1

1
+a
n2

2
+...a
nn

n
_

_
o, puesto en smbolos
()
I
=
n

=1
a
I

Es muy importante y til convencerse de que esto es equivalente a decir que:


=
1
co|n::a
1
() +
2
co|n::a
2
() +...
n
co|n::a
n
()
Una expresin como la anterior que es la suma de ciertos vectores colum-
na multiplicados por nmeros, se llama combinacin lineal de los vectores; los
nmeros se llaman coecientes de la combinacin lineal.
3.1. OPERACIONES ENTRE MATRICES. 21
3.1.7. Multiplicacin de dos matrices .
productos interiores y exteriores
Sean y 1 matrices de : 1 (vectores columna). El producto

T
1
es una matriz de 1 1 , o sea, un nmero. Decimos que
T
1 es el producto
interior de y 1. Es un caso partiicular de productos que veremos ms adelante.
Note usted que
T
es un vector rengln y que el producto tiene la forma
vector rengln vector columna = nmero
Si es de : 1 y 1 es de :1 el producto
1
T
es una matriz de : : y se conoce como producto exterior de y 1. Note
usted que tiene la forma
vector columna vector rengln = matriz rectangular
primera caracterizacin (rengln-columna).
El producto de con 1 se denota por 1 (o tambin por 1) . Si
es de : : 1 ha de ser de : j (es decir, el nmero de columnas del primer
factor debe de coincidir con el nmero de renglones del segundo factor).
Este producto se dene como
(1)
I
=
n

|=1
()
I|
(1)
|
= rc:q|o:
I
()co|n::a

(1)
donde i = 1, 2...: y , = 1, 2...j. En esta caracterizacin aparecen productos
interiores.
segunda caracterizacin (columna-rengln)
El producto tambin podra escribirse como
1 =
n

|=1
co|n::a
|
()rc:q|o:
|
(1)
que consiste en productos exteriores.
tercera caracterizacin.
Si 1 se particiona como
1 =
_
co|n::a
1
(1) co|n::a
2
(1) ... co|n::a

(1)

entonces
1 =
_
co|n::a
1
(1) co|n::a
2
(1) ... co|n::a

(1)

22 CAPTULO 3. CONCEPTO DE MATRIZ
3.1.8. Propiedades de la mutiplicacin de matrices
Podemos demostrar con facilidad que si y 1 son matrices de :: , 1 y
1 son de : j, y C es j y c es un nmero entonces:
(1 C) = (1) C (asociatividad)
(1 +1) = 1 +1 (distributividad)
(+1) 1 = 1 +1 1 (distributividad)
c(1) = (c) 1 = (c1)
Adems, denotando como 1
nn
la identidad de : :
1
nn
=
1
nn
=
De modo que las matrices identidad se comportan como idnticos multiplica-
tivos.
3.1.9. Potencias de matrices
Sea una matriz de : :, al igual que con los nmeros, denimos:

0
= 1
nn

1
=

n+1
=
n
y

1
= i:() (la inversa se dene ms adelante)

n
= (
n
)
1
De modo que las propiedades habituales de los exponentes se valen para
matrices:

n+n
=
n

nn
= (
n
)
n
etc.
3.2. LA INVERSA DE UNA MATRIZ. 23
3.2. La inversa de una matriz.
Sea una matriz de : : . Se dice que una matriz 1 de : : es una
inversa derecha de si
1 = 1
nn
Similarmente, una matriz 1 de : : es una inversa izquierda de si
1 = 1
nn
Cuando es cuadrada de : :, se dice que 1 es una inversa de (sin
mayores calicativos) si
1 = 1 = 1
nn
Es fcil ver que 1 tiene que ser cuadrada y del mismo tamao que para
que las multiplicaciones tengan sentido. Tambin podemos ver que si tiene
una inversa, entonces sta es nica: si C fuera otra inversa de entonces C =
C = 1
nn
de modo que
1 = 11
nn
= 1(C) = (1)C
= 1
nn
C = C
pero la inversa no siempre existe.
3.2.1. algunas propiedades de las inversas
(1)
1
= 1
1

1
si c es un escalar y c ,= 0 (c)
1
= c
1

1
(
1
)
1
=
Las demostraciones son sencillas e instructivas.
como (1
1

1
)(1) = 1
1
(
1
)1 = 1
1
(1)1 = 1
1
1 = 1 y
adems (1)(1
1

1
) = (11
1
)
1
= (1)
1
=
1
= 1 ten-
emos que (1
1

1
) es LA (por la unicidad) inversa de 1.
como (c
1

1
)(c) = (c
1
c)(
1
) = 1(1) = 1 y (c)(c
1

1
) =
(cc
1
)(
1
) = 11 = 1 tenemos que (c)
1
= c
1

1
como
1
= 1 y
1
= 1
1
es la inversa de y
1
es la inversa
de .
3.2.2. Operaciones elementales.
Recuerde, del curso de lgebra, cuando vio los mtodos de Gauss y Gauss-
Jordan para resolver sistemas de ecuaciones, que las matrices pueden ser trans-
formadas en otras mediante las llamadas operaciones elementales. stas son de
los siguientes tipos:
24 CAPTULO 3. CONCEPTO DE MATRIZ
Intercambiar cualesquiera dos renglones de la matriz
Multiplicar todas las entradas de un rengln cualquiera por un nmero c
diferente de cero.
Agregar a un rengln cualquiera un mltiplo de otro rengln.
Se puede demostrar que, mediante transformaciones elementales, es posible
transformar cualquier matriz en otra en forma escalonada.
Se dice que una matriz est en forma escalonada si se cumplen las siguientes
condiciones:
Si hay renglones que consistan exclusivamente de ceros, estos renglones
estn en la parte inferior de la matriz.
Todos los renglones que no consisten de puros ceros, tienen como primer
elemento no cero (de izquierda a derecha) un uno (1). Este uno se llama
uno principal, uno delantero o pivote.
Cada uno principal, entre ms abajo est, deber estar ms a la derecha.
Se dice que una matriz est en forma escalonada reducida por renglones
cuando:
Est en forma escalonada
En las columnas donde estn los unos delanteros, todos los dems elemen-
tos son cero.
Recuerde que toda matriz puede ser llevada, mediante operaciones elemen-
tales, a una forma escalonada reducida por renglones. Esta forma es nica,
aunque uno puede ir por diversos caminos, el resultado nal es siempre el mis-
mo. Por el contrario, las formas escalonadas no son nicas: cada matriz puede
tener varias formas escalonadas.
3.2.3. Inversa de una matriz usando la forma escalonada
reducida por renglones.
Considere el diagrama
[, 1] [1,
1
]
que debe interpretarse como sigue:
aumente la matriz (que es de ::) con una matriz identidad 1
n
(con
: renglones).
reduzca esto por mtodos Gaussianos, llame al resultado [1,
1
] . Aqu 1
es la forma reducida de , que se supone da una matriz identidad.
El procedimiento Gaussiano da la inversa de .
Si no se reduce a la identidad, entonces no es invertible.
3.2. LA INVERSA DE UNA MATRIZ. 25
3.2.4. un ejemplo
Considere la matriz de siempre
=
_
_
1 2 3
4 5 6
7 8 9
_
_
y forme
1 = [, 1
33
] =
_
_
1 2 3 1 0 0
4 5 6 0 1 0
7 8 9 0 0 1
_
_
y entonces, restando al segundo rengln cuatro veces el primero y al tercer
rengln siete veces el primero resulta que
1 ~
_
_
1 2 3 1 0 0
0 3 6 4 1 0
0 6 12 7 0 1
_
_
y si dividimos todos los elementos del segundo rengln por 3 y los del tercer
rengln por 6 tendremos
1 ~
_
_
1 2 3 1 0 0
0 1 2
4
3
1
3
0
0 1 2
7
6
0
1
6
_
_
ahora, si al tercer rengln le restamos el segundo
1 ~
_
_
1 2 3 1 0 0
0 1 2
4
3
1
3
0
0 0 0
1
6
1
3
1
6
_
_
y a continuacin restamos dos veces el segundo rengln al primero obteniendo
1 ~
_
_
1 0 1
5
3
2
3
0
0 1 2
4
3
1
3
0
0 0 0
1
6
1
3
1
6
_
_
La subsecuente multiplicacin del tercer rengln por 6 resulta en
1 ~
_
_
1 0 1
5
3
2
3
0
0 1 2
4
3
1
3
0
0 0 0 1 2 1
_
_
y ahora restamos 4,3 del tercer rengln al segundo y sumamos 5,3 del tercero
al primero. Con ello
1 ~
_
_
1 0 1 0
8
3
5
3
0 1 2 0
7
3
4
3
0 0 0 1 2 1
_
_
26 CAPTULO 3. CONCEPTO DE MATRIZ
que es una forma escalonada reducida por renglones. Como la parte izquierda
no es la identidad, 1 no es invertible.
Si hacemos el cambio a
=
_
_
1 2 3
4 5 6
7 8 10
_
_
y repetimos el procedimiento
1 = [, 1
33
] ~
_
_
1 0 0
2
3
4
3
1
0 1 0
2
3
11
3
2
0 0 1 1 2 1
_
_
vemos que la parte izquierda s es una identidad por lo que es invertible y

1
=
_
_
2
3
4
3
1
2
3
11
3
2
1 2 1
_
_
lo cual puede comprobar multiplicando
_
_
1 2 3
4 5 6
7 8 10
_
_
_
_
2
3
4
3
1
2
3
11
3
2
1 2 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
3.2.5. Matrices elementales.
Una matriz elemental 1 de j j es la matriz que resulta de aplicar una
operacin elemental a la identidad 1

de j j
Tenemos que:
Las matrices elementales son invertibles (inversibles, no singulares)
El resultado de aplicar una transformacin elemental a es exactamente
lo mismo que multiplicar por la izquierda por la correspondiente matriz
elemental.
Para las matrices elementales usaremos la siguiente notacin:
Llamaremos 1
I
a la matriz elemental que resulta de intercambiar los
renglones i y , de la matriz identidad 1

.
Llamaremos 1
I
(c) a la matriz elemental que resulta de multiplicar el
rengln i de 1

por un nmero c ,= 0.
LLamaremos 1
I
(c) a la matriz elemental que resulta de sumar c veces el
, simo rengln al i simom rengln.
3.3. LA TRANSPUESTA 27
3.3. La transpuesta
Si es de :: denimos la transpuesta
T
como aquella matriz de ::
denida mediante
(
T
)
I
=
I
de modo que los renglones de son las columnas de
T
y las columnas de
son los renglones de
T
.
Cuando la matriz es compleja, denimos el adjunto (o adjunta)
+
como
aquella matriz de : : denida mediante
(
+
)
I
=
I
y donde la barra encima de la denota la operacin de tomar el conjugado (la
palabra adjunta es ambigua, ms abajo veremos otro uso de dicho vocablo,
el contexto deber aclarar qu uso se tiene). Tambin llamaremos, por razones
obvias, transposicin-conjugacin a la adjunta.
La transposicin y la transposicin-conjugacin cumplen las siguientes propiedades:
(
T
)
T
= (idempotencia)
(+1)
T
=
T
+1
T
(para cualesquiera matrices y 1 del mismo tamao)
(1)
T
= 1
T

T
(para dos matrices y 1 que puedan ser multiplicadas).
(c)
T
= c
T
para cualquier matriz y cualquier nmero c.
(
+
)
+
= (idempotencia)
(+1)
+
=
+
+1
+
(para cualesquiera matrices y 1 del mismo tamao)
(1)
+
= 1
+

+
(para dos matrices y 1 que puedan ser multiplicadas).
(c)
+
= c
+
para cualquier matriz y cualquier nmero c.
Una matriz tal que =
T
se llama simtrica. Una matriz compleja tal
que
+
= se llama Hermiteana (o Hermtica). Si
T
= ser antisimtrica
y si
+
= se llama anti-Hermiteana. Si
1
=
T
(con real) se dice que
es ortogonal, si
+
=
1
(con compleja) se dice que es unitaria.
3.4. Traza de una matriz
Dada una matriz cuadrada ( de ::) la traza se dene como la suma de
sus elementos diagonales:
tr() =
n

I=1

II
(para algunos efectos especiales podemos denir la traza de una matriz rectan-
gular, nosotros no lo haremos) y de aqu puede verse que, para matrices y 1
del mismo tamao
tr(+1) = tr() +tr(1)
28 CAPTULO 3. CONCEPTO DE MATRIZ
y tambin
tr(c) = c tr()
para cualquier escalar c .
Otras propiedades son
tr(1) = tr(1)
tr(
T
) = tr()
tr(
+
) = tr()
tr(
1
1) = tr(1)
(aqu y 1 deben de ser del mismo tamao, para la ltima propiedad se requiere
adems que tenga inversa).
En uno de los apndices al nal de estas notas podr usted encontrar una
aplicacin sencilla de la traza a la teora de la elasticidad lineal. El libro de Lay
muestra una aplicacin en teora de la probabilidad.
3.5. Ecuaciones matriciales
Al hacer clculos que involucran matrices es preciso tener en cuenta que las
matrices y los nmeros tienen muchas propiedades algebraicas en comn . Pero
ms importante es tener en cuenta las diferencias, siendo las principales:
La multiplicacin de matrices no es conmutativa, y en general 1 ,= 1
(cuando ocurre que 1 = 1 se dice que las matrices conmutan).
No toda matriz diferente de la matriz cero tiene inversa.
Por ltimo, no debe de olvidar que el producto 1 est denido solamente
cuando el nmero de columnas de es igual al nmero de renglones de 1
(en cuyo caso se dice que las matrices y 1 son conformables).
Una ecuacin matricial, al igual que una ecuacin en nmeros, expresa ciertas
igualdades en las que aparecen incgnitas a determinar. Por ejemplo, si me dicen
que 2+ 5A = 1 donde
=
_
1 2
3 4
_
1 =
_
9 8
6 7
_
entonces puedo proceder de manera similar a la usada cuando resolvemos ecua-
ciones en nmeros pero tomando en cuenta las diferencias sealadas arriba. En
3.5. ECUACIONES MATRICIALES 29
este caso podemos despejar A y
5A = 1 2
A =
1
5
(1 2)
=
1
5
__
9 8
6 7
_
2
_
1 2
3 4
__
=
1
5
__
9 8
6 7
_

_
2 4
6 8
__
=
1
5
_
7 4
0 1
_
=
_
7
5
4
5
0
1
5
_
Formalmente lo que hemos hecho es sumar a los dos miembros de la ecuacin
el inverso aditivo de 2 y los hemos multiplicado por
1
5
.
De haber tenido la ecuacin
A = 1
entonces habr solucin si existe
1
, lo cual es el caso. Multiplicando ambos
miembros por la izquierda por
1
tendremos que
A =
1
1
=
1
2
_
4 2
3 1
__
9 8
6 7
_
=
_
2 1
3
2

1
2
__
9 8
6 7
_
=
_
12 9
21
2
17
2
_
Note que multiplicamos por la izquierda, no servira multiplicar por la derecha
porque la multiplicacin no es conmutativa.
3.5.1. Sistemas lineales homogneos e inhomogneos
Considere el sistema lineal homogneo de : incgnitas r
1,
r
2
...r
n
y : ecua-
ciones
a
11
r
1
+a
12
r
2
+....a
1n
r
n
= 0
a
21
r
1
+a
22
r
2
+....a
2n
r
n
= 0
.
.
.
a
n1
r
1
+a
n2
r
2
+....a
nn
r
n
= 0
30 CAPTULO 3. CONCEPTO DE MATRIZ
Si denimos la matriz de ::
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_
y las matrices A (de : 1)y 0 (de :1) como
A =
_
_
_
_
_
r
1
r
2
.
.
.
r
n
_
_
_
_
_
0 =
_
_
_
_
_
0
0
.
.
.
0
_
_
_
_
_
resulta que el sistema lineal homogneo puede escribirse de manera sucinta como
A = 0
Podemos tambin considerar sistemas lineales inhomogneos, que tendrn la
estructura
a
11
r
1
+a
12
r
2
+....a
1n
r
n
= j
1
a
21
r
1
+a
22
r
2
+....a
2n
r
n
= j
2
.
.
.
a
n1
r
1
+a
n2
r
2
+....a
nn
r
n
= j
n
y que, si denimos
1 =
_
_
_
_
_
j
1
j
2
.
.
.
j
n
_
_
_
_
_
podemos reescribir como
A = 1
(aqu es una matriz de :: , A es de : 1 y 1 es de :1).
Captulo 4
Determinantes
La funcin determinante, abreviada como det es una regla, receta, que asocia
con cada matriz cuadrada un nmero real o complejo det().
La denicin que daremos de det es recursiva; esto quiere decir:
vamos a denir explcitamente cmo calcular determinantes de matrices
de 1 1
vamos a denir explcitamente cmo calcular determinantes de matrices
de 2 2
despus diremos cmo calcular determinantes de :: si podemos calcular
determinantes de (: 1) (: 1) (: 2)
La idea es que si queremos el determinante de una matriz de 33 lo podemos
calcular pues sabemos cmo calcular determinantes de 2 2. Podemos calcular
determinantes de matrices de 4 4 pues podemos expresarlos en trminos de
determinantes de 3 3 y as sucesivamente.
4.1. Determinante de una matriz de 1 1
El determinate de una matriz de 1 1 se dene como el nico elemento de
esa matriz. As
det(a
11
) = a
11
4.2. Determinante de una matriz de 2 2
Si
=
_
a
11
a
12
a
21
a
22
_
denimos
det() = a
11
a
22
a
21
a
12
31
32 CAPTULO 4. DETERMINANTES
4.3. Determinante de una matriz de n n
Para denir el determinante de una matriz de : : (: 2) necesitaremos
dos conceptos bsicos: el de menor y el de cofactor.
4.3.1. menores
Sea una matriz de : :. Considere la submatriz
I
(con 1 _ i, , _ :
) denida como la matriz que se obtiene borrando el rengln i y la columna ,
de , se trata, pues, de una matriz de (: 1) (: 1) (cuidado: aqu
I
NO
denota el elemento i, de ).
Por ejemplo si
=
_
_
1 2 3
4 5 6
7 8 9
_
_

2,3
=
_
1 2
7 8
_
El menor '
I
se dene como el determinante de esta submatriz
'
I
= det(
I
)
y en el ejemplo
'
23
= 8 14 = 6
4.3.2. cofactores
El cofactor C
I
de se dene como
C
I
= (1)
I+
'
I
y es bsicamente lo mismo que el menor excepto por el signo, que va alternando
entre 1 y 1.
En el ejemplo
C
23
= (1)
2+3
(6) = 6
4.3.3. Determinante de una matriz de n n
El determinante de cuando es de : : (: 2) se dene como
det() =
n

=1
a
1
C
1
y se llama expansin de Laplace, o desarrollo por menores (y cofactores) con
respecto al primer rengln (note que los nmeros a
1
forman el primer rengln
de )
4.3. DETERMINANTE DE UNA MATRIZ DE 33
4.3.4. Expansin de Laplace
Puede demostrarse, aunque omitimos la prueba por ser muy engorrosa, que
en la frmula anterior podemos expander con respecto a cualquier rengln o
columna y
det() =
n

=1
a
|
C
|
det() =
n

=1
a
|
C
|
estas frmulas se conocen como expansin de Laplace o desarrolllo por menores
(o cofactores).
4.3.5. Regla de Sarrus
En el caso de matrices de 3 3 se puede dar una expresin exacta para el
determinante usando un procedimiento mnemotcnico debido a Sarrus.
Sea
=
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
entonces la regla indica que se repitan los primeros dos renglones para obtener
1 =
_
_
_
_
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
a
11
a
12
a
13
a
21
a
22
a
23
_
_
_
_
_
_
y multiplique los elementos de la diagonal principal de esta matriz, luego multi-
plique los elementos de la siguiente (hacia abajo) subdiagonal y por ltimo los de
la siguiente subdiagonal y smelos. Luego hacemos lo mismo con las diagonales
ascendentes y restamos los resultados, explcitamente
det() = a
11
a
22
a
33
+a
21
a
32
a
13
+a
31
a
12
a
23
a
21
a
12
a
33
a
11
a
32
a
23
a
31
a
22
a
13
resultado que se puede corroborar por desarrollo de Laplace.
4.3.6. propiedades generales de los determinantes.
Entre las principales propiedades de los determinantes podemos mencionar:
Si intercambiamos cualesquiera dos renglones o columnas de una matriz,
su determinante cambia de signo.
34 CAPTULO 4. DETERMINANTES
Si dos renglones o columnas son iguales, el determinante vale cero.
Si un rengln o columna es multiplicado por el nmero c, el valor del
determinante se multiplica tambin por c.
Si a algn rengln se le aade un mltiplo de otro rengln, el determinante
no se altera.
Si a alguna columna se le agrega un mltiplo de otra columna, el valor del
determinante no se altera.
Para cualesquiera dos matrices cuadradas y 1 del mismo tamao det(1) =
det() det(1)
Para cualquier matriz cuadrada det() = det(
T
)
det(1
nn
) = 1 para cualquier :.
Si c es un nmero y es de : : det(c) = c
n
det().
De hecho, la mejor manera de ver a los determinantes es como una funcin
de las columnas (o de los renglones) de una matriz. As, si = [
1
,
2
...
n
] es
la particin de en columnas, la funcin determinante det(
1
,
2
...
n
) queda
denida de manera nica por las siguientes propiedades:
det(
1
,
2
..c

..
n
) = cdet(
1
,
2
..

..
n
)
det(
1
,
2
..

+1

..
n
) = det(
1
,
2
..

..
n
) + det(
1
,
2
..1

..
n
)
det(
1
,
2
..

..
|
..
n
) = det(
1
,
2
..
|
..

..
n
)
det(1
n
) = 1
4.3.7. Determinante de una matriz diagonal o triangular.
De lo anterior puede demostrarse que el determinante de una matriz diagonal
es igual al producto de todos sus elementos diagonales.
El determinante de una matriz triangular(superior o inferior) es igual al
producto de los elementos diagonales.
4.3.8. Clculo de determinantes mediante operaciones el-
ementales.
De las dos subsecciones precedentes se desprende un mtodo para calcular
determinantes:
Empiece la reduccin anotando los cambios que sufre el determinante.
Pare cuando alcance una forma triangular o diagonal.
El determinante buscado se puede inferir de las reglas precedentes.
4.4. PROPIEDADES DE LAS MATRICES TRIANGULARES 35
Ejemplo 1
det
_
1 2
3 4
_
= det
_
1 2
0 2
_
= 2
A esto llaman algunos libros mtodo de condensacin . Tambin puede usarse
una expansin de Laplace cuando la matriz ya est sucientemente reducida.
4.4. Propiedades de las matrices triangulares
Las matrices triangulares tienen varias propiedades entre las cuales podemos
mencionar:
La transpuesta de una matriz triangular superior es una matriz triangular
inferior.
La transpuesta de una matriz triangular inferior es una matriz triangular
superior.
La suma de dos matrices triangulares superiores es otra matriz triangular
superior.
La suma de dos matrices triangulares inferiores es otra matriz triangular
inferor.
El producto de un nmero por una matriz triangular superior es otra
matriz triangular superior.
El producto de un nmero por una matriz triangular inferior es otra matriz
triangular inferior.
El producto de dos matrices triangulares superiores es otra matriz trian-
gular superior.
El producto de dos matrices triangulares inferiores es otra matriz trian-
gular inferior.
La inversa de una matriz triangular superior es una matriz triangular
superior.
La inversa de una matriz triangular inferior es una matriz triangular infe-
rior.
El determinante de una matriz triangular superior es el producto de sus
elementos diagonales.
El determinante de una matriz triangular inferior es el producto de sus
elementos diagonales.
La inversa de una matriz diagonal 1, ninguno de cuyos elementos es cero,
es otra matriz diagonal cuyos elementos diagonales son los recprocos de
los elementos diagonales de 1.
36 CAPTULO 4. DETERMINANTES
4.5. Matriz Adjunta
Dada una matriz cuadrada de : :, la adjunta (adjunta clsica, para
distinguirla de
+
)

es aquella matriz (que se puede demostrar que existe y


es nica) tal que

= det()1
nn
Existe un algoritmo para encontrarla y que mostramos a continuacin:
comience considerando
Para i = 1...: , = 1...: calcule los menores
I
Para i = 1...: , = 1...: calcule los cofactores C
I
= (1)
I+

I
Calcule

= C
T
4.5.1. Clculo de la inversa mediante la adjunta.
De la denicin de adjunta puede verse inmediatamentre que si det() ,= 0
entonces

1
=

det()
y si det() = 0 entonces no existe la inversa de (si existiera, como
1
=
1
nn
tendramos que det(
1
) = det(1
nn
) y det() det(
1
) = 1 pero si
det() = 0 nos quedara la contradiccin 1 = 0)
4.6. Soluciones de ecuaciones homogneas e in-
homogneas.
Considere el sistema inhomogneo (donde es una matriz cuadrada)
r = j
Si det() ,= 0 entonces existir
1
por lo que
r =
1
j
y el sistema tiene solucin y sta es nica. Cuando det() ,= 0 la matriz carece
de inversa y puede haber o no soluciones.
Para un sistema homogneo
r = 0
si det() ,= 0 entonces existir
1
por lo que
r =
1
0
y la nica solucin ser la trivial r = 0. Puede demostrarse que si det() ,= 0
entonces habr soluciones no-triviales.
Parte III
Operaciones y estructuras
algebraicas.
37
Captulo 5
Operaciones binarias
Denicin 2 Sea o un conjunto. Una operacin binaria en o es una funcin
1 : o o o
Si es una operacin binaria, frecuentemente escribimos
(a, /) = a /
y decimos que en (a, /) hemos usado la notacin de prejo y en a / la de
injo.
Denicin 3 A una funcin
G : o o
se le llama operacin unaria y, en general.
H : o o ...o o
donde o aparece : veces en el dominio es una operacin :aria.
Denicin 4 Sea 1 o y una operacin binaria en o. Se dice que 1 es
cerrado bajo la operacin si
r, j 1 = r j 1
Denicin 5 Sea una operacin binaria en o. Se dice que o es cerrado bajo
la operacin si
r, j o = r j o
Esta propiedad recibe tambin el nombre de cerradura, se dice que la operacin
es cerrada o satisface la cerradura. Esto es redundante pues la denicin misma
de operacin binaria implica que r j o para todo r, j o.
39
40 CAPTULO 5. OPERACIONES BINARIAS
Denicin 6 Se dice que es conmutativa si
a / = / a
para cualesquiera a,/ o.
Denicin 7 Se dice que es asociativa si para cualesquiera a,/,c o se
cumple que
a (/ c) = (a /) c
Denicin 8 Se dice que | es una identidad izquierda (o elementio idntico
izquierdo) para si
| a = a
para toda a o.
Denicin 9 Se dice que r es una identidad derecha (o elemento idntico dere-
cho) para si
a r = a
para toda a o.
Denicin 10 Se dice que c es una identidad (o elemento idntico) para si
a c = c a = a
para toda a o.
Comentario 11 c es una identidad para si y slo si c es una identidad
derecha y es una identidad izquierda.
Ejemplo 12 La suma y la diferencia son operaciones en los enteros, en los
racionales y en los reales. La suma es conmutativa, la diferencia no lo es. La
suma es asociativa en tanto que la diferencia no. La divisin no es una operacin
binaria pues no se permite divisin por cero.
Comentario 13 A las operaciones se les llama, a veces, leyes de composicin
internas. Esto se hace para contrastarlas con funciones del tipo 1 o o en
donde se usan elementos de un conjunto externo 1, estas funciones se llaman
leyes de composicin externa.
Ms ejemplos de operaciones seran:
La suma de nmeros naturales, enteros, racionales, reales o complejos.
El producto de nmeros naturales, enteros, racionales, reales o complejos.
La suma de polinomios.
El producto de polinomios.
41
La suma de matrices del mismo tamao.
En el conjunto de las matrices de :: el producto es una operacin, note
que en el conjunto de todas las matrices el producto no es una operacin
pues no todo par de matrices puede ser multiplicado (las matrices deben de
ser conformables, es decir, el primer factor debe de tener tantas columnas
como renglones tenga el segundo factor).
La unin e interseccin de conjuntos son operaciones entre conjuntos.
Una manera de denir la operacin es dando, explcitamente, el conjunto o
y la regla de correspondencia de la operacin . Otra manera, til cuando o es
un conjunto nito, es dando la tabla de la operacin, anloga a las tablas de
multiplicar.
Ejemplo 14 Sea o = c, c, c
2
, c
3
, :
1
, :
2
, :
3
, :
4
con la tabla de multiplicar
+ c c c
2
c
3
:
1
:
2
:
3
:
4
c c c c
2
c
3
:
1
:
2
:
3
:
4
c c c
2
c
3
c :
2
:
3
:
4
:
1
c
2
c
2
c
3
c c :
3
:
4
:
1
:
2
c
3
c
3
c c c
2
:
4
:
1
:
2
:
3
:
1
:
1
:
4
:
3
:
2
c c
3
c
2
c
:
2
:
2
:
1
:
4
:
3
c c c
3
c
2
:
3
:
3
:
2
:
1
:
4
c
2
c c c
3
:
4
:
4
:
3
:
2
:
1
c
3
c
2
c c
lo que quiere decir, a guisa de ejemplo, que :
3
+c
2
= :
1
etc. Dejo al estudiante
convencerse de que + es asociativa y no es conmutativa.
Denicin 15 Sean y > dos operaciones binarias en o. Se dice que es
distributiva sobre > si, para cualesquiera a,/,c o tenemos que
a (/ >c) = (a /) >(a c)
Teorema 16 Sea una operacin binaria en o. Si | es una identidad izquierda
y r es una identidad derecha, entonces | = r. En este caso c = | = r es una
identidad.
Demostracin. | r = r pues | es una identidad izquierda, pero | r = | pues
r es una identidad derecha; por lo tanto | = r es una identidad.
Teorema 17 La identidad respecto a una operacin binaria es nica.
Demostracin. sean c y c
t
dos identidades. Entonces c c
t
= c por ser c
t
una
identidad pero c c
t
= c
t
por ser c una identidad. Luego c = c
t
.
42 CAPTULO 5. OPERACIONES BINARIAS
Denicin 18 Sea o un conjunto con una operacin binaria y suponga que
c es una identidad. Se dice que 1 es una inversa izquierda de a o si
1 a = c
Se dice que 1 es una inversa derecha de a o si
a 1 = c
y que a
t
es una inversa (biltera) de a o si
a
t
a = a a
t
= c
Teorema 19 Si la operacin es asociativa y tiene un elemento idntico, la
inversa de un elemento a o es nica.
Demostracin. Sean / y c inversas de a. Entonces c a = a c = c y / a =
a / = c (donde c es el elemento idntico). Por ello / = / c = / (a c) =
(/ a) c = c c = c
Teorema 20 Sea una operacin binaria asociativa en o,si a o tiene una
inversa izquierda 1 y una inversa derecha 1, entonces 1 = 1 y a tiene una
inversa.
Demostracin. Como 1a = c y a1 = c tenemos que 1(a1) = 1c = 1
pero, por la asociatividad 1(a 1) = (1a) 1 = c 1 = 1 de modo que
1 = 1.
Denicin 21 Se dice que un elemento a o es cancelable con respecto a una
operacin binaria si para cualesquiera r,j o
(a r = a j) . (r a = j a) = r = j
Comentario 22 Ciertamente si es asociativa y a tiene inverso, a es cance-
lable.
Dejo al lector vericar que para la operacin cuya tabla hemos dado ms
arriba, hay un elemento idntico bajo + y todo elemento de o tiene un inverso
bajo +. El elemento idntico es c. El inverso de c es c
3
, el de :
1
es :
1
etc.
5.0.1. un ejemplo interesante
Sea o un conjunto y dena una operacin binaria en o mediante
a + / = /
para cualesquiera a, / o. Entonces:
cualquier elemento de o es un idntico izquierdo.
43
si . fuera un idntico derecho entonces para todo a o tendramos que
a + . = a = . de modo que . = a para todo a, por ello, no hay idnticos
derechos (a menos, claro, que el conjunto o tenga un slo elemento).
dejo al lector ver que la operacin no es conmutativa pero que es asociativa.
adems a + / = a + c = / = c (se vale una de las posibles leyes de can-
celacin). Sin embargo / + a = c + a = a = a y no se aplica la otra
cancelacin.
5.0.2. otro ejemplo
Sea A un conjunto y
T = 1 [ 1 : A A
el conjunto de todas las funciones de A en A. Entonces la composicin de
funciones es una operacin binaria en T, pues la composicion de dos funciones
en T siempre puede hacerse y da como resultado otra funcin en T.
La funcin identidad en A
1

: A A
denida mediante
1

(j) = j
\j A es la identidad en A pues
1

1 = 1 1

= 1
\1 T.
Una funcin G T tendr inversa izquierda si y slo si G es inyectiva.
Una funcin G T tendr inversa derecha si y slo si G es suprayectiva y
una funcin G T tendr inversa (biltera) si y slo si G es biyectiva.
5.0.3. Operaciones parciales
A veces es necesario relajar la condicin de que la operacin se pueda aplicar
a todos los elementos de o o y basta con estipular que se puede aplicar a al-
gunos de sus elementos. Un buen ejemplo sera el conjunto de todas las matrices
con la operacin de multiplicacin. No todas las parejas de matrices se pueden
multiplicar, algunas s (se dice entonces que los factores son conformables). Por
ello la multiplicacin matricial no es una operacin binaria en el conjunto de
todas las matrices, pero se dice que es una operacin parcial (o parcialmente
denida).
En trminos ms formales, una operacin parcialmente denida en o es una
funcin de la forma
1 : 1 1 o
44 CAPTULO 5. OPERACIONES BINARIAS
donde 1 o.
Cuando se tiene una operacin parcial, se puede hablar tambin de identi-
dades e inversas derechas e izquierdas. Sin embargo puede verse facilmente que
ya no es cierto el teorema que dice que si hay identidad derecha e izquierda
entonces stas son iguales. Por ejemplo, las matrices de 3 2 tienen como iden-
tidad izquierda a la matriz identidad de 3 3 pero como identidad derecha a la
matriz identidad de 2 2
Captulo 6
Semigrupos y monoides
Denicin 23 Se llama estructura algebraica, o sistema algebraico, a un con-
junto o con una o ms operaciones (unarias, binarias etc.).
Denicin 24 Un grupoide (o segn, algunos autores, magma ) es un conjunto
o con una operacin binaria.
Denicin 25 Se llama semigrupo al sistema algebraico o, consistente de
un conjunto o y una operacin binaria asociativa.
Denicin 26 Se llama monoide al sistema algebraico o, , c consistente de
un conjunto o y una operacin binaria asociativa con elemento identidad c.
Comentario 27 Algunos autores llaman semigrupo a lo que nosotros hemos
llamado monoide. No hay uniformidad en la literatura por lo que el lector deber
estr pendiente de posibles usos alternativos.
Ejemplo 28 El ejemplo que sigue es probablemente el ms paradigmtico. Con-
sidere un conjunto A y el conjunto hom(A, A) = 1 : A A de todas las
funciones de A a A (este conjunto tambin se denota como A

). La operacin
a considerar en hom(A, A) es la composicin de funciones y el elemento idntico
es la funcin identidad 1

: A A cuya regla de correspondencia es 1

(j) = j
para cualquier j A. Dejamos al lector vericar que hom(A, A), , 1

es un
monoide.
Ejemplo 29 Hay muchos ejemplos de monoides. Los enteros (y los nmeros
naturales) son un monoide respecto a la adicin, siendo el nmero cero el ele-
mento idntico. Tambin son un monoide con respecto a la multiplicacin pero
el elemento idntico es el nmero uno. El lector debera encontrar por si mismo
muchos otros ejemplos en los racionales, reales, complejos, polinomios, matrices
etc.
45
46 CAPTULO 6. SEMIGRUPOS Y MONOIDES
Captulo 7
Grupos
Un grupo G es un conjunto (tambin llamado G ) con una operacin binaria
+ y que satisface las siguientes propiedades:
Para todo a, / G a + / G (cerradura, axioma realmente redundante
puesto que hemos supuesto que + es una operacin binaria en G)
Para todo a, /, c G tenemos que a + (/ + c) = (a + /) + c (propiedad
asociativa)
Existe un elemento, llamado c G y tal que para todo a G tenemos
que a + c = c + a = a (idntico bajo +)
Para todo elemento a G existe otro, llamado inverso y denotado medi-
ante a
1
y tal que a + a
1
= a
1
+ a = c
Si adems para todo a, / G tenemos que a + / = / + a (propiedad conmu-
tativa) decimos que G es un grupo conmutativo o abeliano.
Comentario 30 un grupo es un monoide en el que todo elemento tiene inverso.
7.1. ejemplos de grupos
El conjunto o con la operacin + cuya tabla de multiplicar hemos dado
arriba, es un grupo. Es el llamado grupo dihedral 1
4
.
Los nmeros enteros, los nmeros racionales, los nmeros reales y los
nmeros complejos forman un grupo bajo adicin. Los nmeros naturales
no forman grupo bajo adicin porque no contienen a los negativos.
Los nmeros racionales diferentes de cero, los nmeros reales diferentes de
cero y los nmeros complejos diferentes de cero forman grupo con respecto
a la multiplicacin.
47
48 CAPTULO 7. GRUPOS
Los nmeros complejos de mdulo igual a uno forman grupo bajo multi-
plicacin.
Los nmeros reales de valor absoluto uno (= 1, 1) forman grupo bajo
multiplicacin.
Las matrices reales o complejas de :: forman un grupo bajo adicin.
Las matrices reales o complejas de :: invertibles forman un grupo bajo
multiplicacin (llamado grupo lineal general).
Las matrices reales ortogonales de : : forman un grupo bajo multipli-
cacin.
Las matrices complejas unitarias de :: forman un grupo bajo multipli-
cacin.
Las matrices reales o complejas de :: invertibles y triangulares superi-
ores forman un grupo bajo multiplicacin.
Las matrices reales o complejas de : : invertibles y determinante igual
a 1 forman un grupo bajo multiplicacin (grupo especial lineal).
7.2. propiedades elementales de los grupos
Teorema 31 en un grupo el elemento idntico es nico:
Demostracin. sea . otro idntico de modo que para todo r G
cr = rc = r
.r = r. = r
entonces
. = .c = c
Teorema 32 en un grupo el elemento inverso de r G es nico.
Demostracin. sean r
1
y . dos inversos de r de modo que
r
1
r = rr
1
= c
.r = r. = c
entonces
. = c. = (r
1
r). = r
1
(r.) = r
1
c = r
1
7.2. PROPIEDADES ELEMENTALES DE LOS GRUPOS 49
Teorema 33 Si en un grupo G ra = r/ entonces a = / (es decir, en un grupo
todo elemento es cancelable).
Demostracin. : ra = r/ = r
1
(ra) = r
1
(r/) = (r
1
r)a = (r
1
r)/ =
ca = c/ = a = /.
Teorema 34 : Si en un grupo G ar = /r entonces a = /.
Demostracin. : ar = /r = (ar)r
1
= (/r)r
1
= a(rr
1
) = /(rr
1
) =
ac = /c = a = /.
Los dos teoremas anteriores reciben el nombre de leyes de cancelacin.
Teorema 35 : si a, / G entonces (a/)
1
= /
1
a
1
Demostracin. Por la unicidad de inversas basta con probar que /
1
a
1
es
una inversa de a/.
(a/)(/
1
a
1
) = a(//
1
)(a
1
) = aca
1
= aa
1
= c
(/
1
a
1
)(a/) = /
1
(a
1
a)/ = /
1
(c)/ = /
1
/ = c
Teorema 36 : (a
1
)
1
= a
Dejamos la demostracin al lector.
Denicin 37 : Sea G un grupo y H un subconjunto de G. Decimos que H es
un subgrupo de G si c H , para todo r, j H rj H (cerradura de H bajo
multiplicacin) y para todo r H r
1
H.
Teorema 38 : Sea G un grupo y H un subgrupo, entonces H es un grupo con
respecto a la misma multiplicacin de G.
Demostracin. : Como H es cerrado bajo la multiplicacin + cumple el primer
axioma de los grupos. Si a, /, c H entonces a, /, c G y a + (/ + c) = (a + /) + c
, cumpliendo el segundo axioma (propiedad asociativa). Como c H , si a H
entonces a G y ca = ac = a de modo que el idntico bajo + en H es el mismo
que el elemento idntico de G. Por ltimo, si a H entonces a G y existe
a
1
G tal que a + a
1
= a
1
+ a = c , pero a
1
H por la denicin de
subgrupo.
Note, pues, que un subgrupo es un grupo que es subconjunto de otro grupo
y tiene la misma operacin.
Como ejemplo, el grupo de las matrices complejas invertibles de : : tiene
como subgrupo el de las matrices complejas unitarias de : :.
Comentario 39 Es fcil demostrar que en la tabla de multiplicain de un grupo
cada elemento aparece una y slo una vez en cada rengln y cada columna.
50 CAPTULO 7. GRUPOS
Captulo 8
Anillos
Un anillo es un conjunto que tiene denidas dos operaciones binarias + y
tales que:
Para todo a, / a + / (cerradura, axioma realmente redundante
puesto que hemos supuesto que + es una operacin binaria en )
Para todo a, / tenemos que a +/ = / +a (propiedad conmutativa)
Para todo a, /, c tenemos que a + (/ + c) = (a + /) + c (propiedad
asociativa)
Existe un elemento, 0 (llamado cero) y tal que para todo a
tenemos que a + 0 = 0 +a = a (idntico bajo +)
Para todo elemento a existe otro, llamado negativo de a (o inverso
aditivo) y denotado mediante a y tal que a + (a) = (a) +a = 0
Para todo a, / a / (cerradura, axioma realmente redundante
puesto que hemos supuesto que + es una operacin binaria en )
Para todo a, /, c tenemos que a (/ c) = (a /) c (propiedad
asociativa)
Para cualesquiera a,/ y c a (/ + c) = a / + a c (propiedad
distributiva)
Para cualesquiera a,/ y c (a + /) c = a c + / c (propiedad
distributiva)
Si adicionalmente
Para todo a, / tenemos que a / = / a (propiedad conmutativa)
decimos que es un anillo conmutativo.
51
52 CAPTULO 8. ANILLOS
Si existe 1 (llamado unidad) tal que para todo a 1a = a1 = a
decimos que es un anillo con unidad.
En un anillo conmutativo y con unidad , si todo elemento a y
diferente de cero es cancelable,entonces se dice que es un dominio entero
o de integridad.
Note que los anillos son grupos abelianos con respecto a la suma.
8.1. Ejemplos de anillos
Los enteros son un anillo conmutativo y con unidad con respecto a la suma
y producto de enteros. Son, de hecho, un dominio entero.
Los polinomios con coecientes reales o complejos forman un anillo con
respecto a la suma y producto de polinomios (un dominio entero).
Los nmeros reales y los complejos forman un anillo (un dominio entero).
Las matrices reales o complejas de : : forman un anillo. Son un anillo
con unidad 1
n
(la matriz identidad de : :). No forman un dominio
entero, esto se puede ver con un contraejemplo, las matrices
C =
_
1 1
1 1
_
1 =
_
1 1
1 1
_
tienen la propiedad de que
C1 =
_
0 0
0 0
_
= 0
y sin embargo C ,= 0 y 1 ,= 0, pero 0 = 01 de modo que C1 = 01 y si
1 fuera cancelable tendramos que C = 0 contradiciendo lo que sabemos
de C. Entonces en el conjunto de las matrices de 2 2 hay elementos no
cero que no son cancelables, no es un dominio entero.
8.1.1. divisores de cero
En un anillo se dice que a y / son divisores de cero si a ,= 0, / ,= 0 y a/ = 0.
Teorema 40 Sea un anillo conmutativo y con unidad. Entonces es un
dominio entero si y slo si no hay divisores de cero.
Dejo la prueba al lector. Note que el ltimo ejemplo hace, de hecho, uso de
esta propiedad. Ah se vio que C ,= 0 y 1 ,= 0, pero 0 = 01.
Captulo 9
Campos
Un campo es un conjunto 1 que tiene denidas dos operaciones binarias +
y tales que:
Para todo a, / 1 a + / 1 (cerradura, axioma realmente redundante
puesto que hemos supuesto que + es una operacin binaria en )
Para todo a, / 1 tenemos que a +/ = / +a (propiedad conmutativa)
Para todo a, /, c 1 tenemos que a + (/ + c) = (a + /) + c (propiedad
asociativa)
Existe un elemento, llamado 0 1 y tal que para todo a 1 tenemos
que a + 0 = 0 +a = a (idntico bajo +)
Para todo elemento a 1 existe otro, llamado negativo de a (o inverso
aditivo) y denotado mediante a y tal que a + (a) = (a) +a = 0
Para todo a, / 1 a / 1 (cerradura, axioma realmente redundante
puesto que hemos supuesto que + es una operacin binaria en 1)
Para todo a, /, c 1 tenemos que a (/ c) = (a /) c (propiedad
asociativa)
Para cualesquiera a,/ y c 1 a (/ + c) = a / + a c (propiedad
distributiva)
Para cualesquiera a,/ y c 1 (a + /) c = a c + / c (propiedad
distributiva)
Para todo a, / 1 tenemos que a / = / a (propiedad conmutativa)
Existe 1 tal que para todo a 1 a = a 1 = a
Para todo a 1 tal que a ,= 0 existe a
1
1 tal que aa
1
= a
1
a = 1
53
54 CAPTULO 9. CAMPOS
Un campo es, pues, un anillo conmutativo con identidad en el que todo
elemento no cero tiene un inverso multiplicativo (esto implica que todo elemento
no cero es cancelable: ac = /c con c ,= 0 implica que acc
1
= /cc
1
o sea a = /
y el campo es tambin un dominio entero).
Comentario 41 Algunos autores (sobre todo los espaoles) llaman cuerpo a
lo que hemos llamado campo.
9.1. Ejemplos de campos
El campo de los nmeros racionales
El campo de los nmeros reales
El campo de los nmeros complejos
Los enteros no son un campo pues (excepto 1) los enteros no tienen
inverso multiplicativo.
Captulo 10
lgebras de Boole
Puede uno preguntarse si hay estructuras con dos operaciones y que se dis-
tribuyan recprocamente. Las lgebras de Boole son de este tipo y son de gran
importancia en la teora de la computacin.
10.1. Denicin de lgebra de Boole
Un lgebra de Boole es un conjunto 1 con dos operaciones + y + y tales
que la estructura resultante 1, +, + cumple con los siguientes axiomas:
Cerradura, \a, / 1 a +/ 1 y a + / 1
Conmutatividad, \a, / 1 a +/ = / +a y a + / = / + a
Asociatividad, \a, /, c 1 a+(/ +c) = (a+/) +c y a+ (/ + c) = (a+ /) + c
Distributividad, \a, /, c 1 a + (/ + c) = (a + /) + (a + c) y a + (/ + c) =
(a +/) + (a +c)
Unidad, 0 1 y l 1 tales que \a 1 a + 0 = 0 + a = a y
a + l = l + a = a
Complemento, \a 1 a
t
1 tal que a +a
t
= l y a + a
t
= 0
10.1.1. ejemplos de lgebras de Boole
Hay dos ejemplos importantes:
En teora de conjuntos si + es la unin ( ') de conjuntos y + es la inter-
seccin () tenemos un lgebra Booleana con 0 = c (el conjunto vaco) y
l es el conjunto universal. a
t
es el complemento de a.
55
56 CAPTULO 10. LGEBRAS DE BOOLE
En el clculo de proposiciones, si + es el O (OR) lgico y + es el Y
(AND) lgico tenemos un lgebra de Boole donde 0 es una proposicin que
siempre es falsa (contradiccin) y l es una proposicin siempre verdadera
(tautologa). j
t
es no-j.
Captulo 11
Homomorsmos e
isomorsmos.
En esta parte estudiamos mapeos entre estructuras algebraicas que, en cierto
sentido, preservan la estructura.
11.0.2. Homomorsmos.
Sean o y T conjuntos con operacines binarias + y respectivamente. Un
homomorsmo de o a T es una funcin c
c : o T
tal que para cualesquiera a, / o tenemos que
c(a + /) = c(a) c(/)
o sea, la imagen de un producto es el producto de las imgenes.
La ecuacin anterior nos dice que c preserva la estructura pues manda
productos a productos.
11.0.3. Isomorsmos
Sean o y T conjuntos con operacines binarias + y respectivamente. Un
isomomorsmo entre o y T es un homomorsmo que es biyectivo (inyectivo y
suprayectivo). Al ser biyectivo, el isomorsmo es invertible.
Si o y T tienen un isomorsmo se dice que son isomorfos. En muchos sentidos
resultar que o y T son lo mismo (en lo que a estructura algebrica se reere).
La relacin de isomorsmo es una relacin de equivalencia:
Toda estructura o, + es isomorfa a s misma (reexividad)
Si o, + es isomorfo a T, entonces T, es isomorfo a o, + (simetra)
57
58 CAPTULO 11. HOMOMORFISMOS E ISOMORFISMOS.
Si o, + es isomorfo a T, y T, es isomorfo a l, ~, entonces
o, + es isomorfo a l, ~.
Parte IV
Espacios vectoriales.
59
Captulo 12
Concepto de espacio
vectorial
Un espacio vectorial sobre el campo 1 es un conjunto \ cuyos elementos
llamamos vectores y con dos operaciones, la primera es una suma
+ : \ \ \
y la segunda es un producto de vectores por escalares (nmeros del campo 1)
: 1\ \
que satisfacen las siguientes propiedades.
1)Si a, / \ entonces a +/ \ (cerradura)
2)Si a, / \ entonces a +/ = / +a (propiedad conmutativa)
3)Si a, /, c \ entonces (a +/) +c = a + (/ +c) (propiedad asociativa)
4) Hay un elemento 0 \ con la propiedad de que si a \ entonces
0 +a = a + 0 = a.
5) Para todo elemento a \ hay otro elemento (a) \ (llamado
negativo de a) y que tiene la propiedad de que a + (a) = (a) +a = 0.
6) Si c 1 y a \ entonces c a \
7) Si a \ entonces 1 a = a
8)Si c, , 1 y a \ entonces (c +,) a = c a +, a
9) Si c 1 y a, / \ entonces c (a +/) = c a +c /
10)Si c, , 1 y a \ entonces (c,) a = c(, a) = ,(ca)
61
62 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
Notacin 42 ordinariamente usaremos la notacin (y el contexto indica si
es vector o escalar) para indicar un vector en un espacio vectorial. Otras
posibilidades son ,

, etc. En mecnica cuntica se usa la llamada notacin
de Dirac en donde los vectores se denotan como [ (y a esto se le llama
ket, esto es una broma pues en ingles el smbolo es un bracket por lo que
su mitad derecha [ es un ket). Una notacin frecuente para los vectores es
del tipo pero note usted que la barra tambin se usa en matemticas para la
conjugacin de nmeros complejos (si . = r + ij entonces . = r ij, a veces
para la conjugacin se usa el smbolo + y .
+
= r ij).
Comentario 43 La operacin + es, por lo tanto, una ley de composicin in-
terna en tanto que la operacin es una ley de composicin externa.
Comentario 44 Algunos autores llaman a una accin del campo 1 sobre
los vectores.
Cuando 1 = R decimos que el espacio vectorial es real, cuando 1 = C
decimos que se trata de un espacio vectorial complejo. A veces a 1 se le llama
campo base (ground eld).
Los axiomas 1 y 6 son redundantes dado que se ha supuesto que la suma de
vectores es una operacin binaria y que el producto de vectores por nmeros
es una operacion externa. De hecho el axioma 2 tambin sale sobrando en el
sentido de que un sistema que satisfaga los restantes axiomas tambin debe
necesariamente satisfacer el axioma 2 (le gustara intentar la demostracin de
esto antes de verla en uno de los apndices?).
El ejemplo ms sencillo de espacio vectorial es el espacio de todas las e-
chas (tcnicamente llamadas vectores geomtricos o segmentos dirigidos)
en dos o tres dimensiones, esto es, el espacio de los vectores que ya conocemos,
entendidos como objetos con magnitud, direccin y sentido. Como ejemplos de
echas podemos citar las fuerzas, el vector de posicion de una partcula, la ve-
locidad, la aceleracin, el campo elctrico y el campo magntico. Lo que tienen
en comn es que pueden ser representados pictricamente mediante echas. Pero
lo que hace que estas echas sean vectores es el hecho de que podemos combinar
dos echas y n para formar una tercera echa + n (mediante la regla del
paralelogramo) y que podemos combinar un nmero real c y una echa para
formar una nueva echa (aquella cuyo tamao es [ c [ veces el de y tiene el
mismo sentido que si c 0 y el sentido opuesto si c < 0 ). Dejo al lector
el checar que el conjunto de las echas con esta adicin y multiplicacin por
nmeros es un espacio vectorial real.
Ejercicio 45 Muestre que el conjunto de todas las echas en el espacio bidi-
mensional ordinario, con las operaciones descritas anteriormente, forma un es-
pacio vectorial real.
Comentario 46 Suele llamarse espacio a un conjunto con algo de estruc-
tura. As hablamos de espacios vectoriales, espacios normados, espacios mtricos
y espacios topolgicos.
12.1. ALGUNOS EJEMPLOS DE ESPACIOS VECTORIALES 63
Comentario 47 A veces en vez de espacio vectorial se usa la expresin es-
pacio lineal.
Comentario 48 Algunos autores usan en vez de un campo 1 un anillo 1. En
este caso (con los mismos axiomas) decimos que se trata de un mdulo sobre
el anillo 1 en vez de un espacio vectorial sobre el campo 1. Nosotros no
trataremos los mdulos en lo absoluto.
Comentario 49 En general usaremos el mismo smbolo (por ejemplo \ ) para
referirnos al conjunto (de vectores) o a la estructura (espacio vectoral). Si fuera
necesario distinguirlos podramos usar \ = [ \ [, +, para denotar el espacio
vectorial \ construido con el conjunto [ \ [. Pero en este curso no tendremos
que preocuparnos por esto.
12.1. Algunos ejemplos de espacios vectoriales
Adems del espacio vectorial real de las echas (vectores geomtricos), ten-
emos algunos ejemplos importantes de espacios vectoriales.
12.1.1. Los espacios R
n
Sea : un entero positivo y
R
n
= (r
1
, r
2
, ...r
n
) [ r
I
R \i = 1, 2...:
el conjunto de todas las eneadas de nmeros reales. Aqu se entiende que dos
elementos r y j de R
n
dados por
r = (r
1
, r
2
, ...r
n
)
j = (j
1
, j
2
, ...j
n
)
son iguales si y slo si \i = 1, 2...:
r
I
= j
I
En R
n
denimos la suma de r = (r
1
, r
2
, ...r
n
) R
n
y j = (j
1
, j
2
, ...j
n
) R
n
como aquel elemento r +j R
n
dado por
r +j = (r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
)
y denimos el producto de c R y r = (r
1
, r
2
, ...r
n
) R
n
como el elemento
cr R
n
dado por
cr = (cr
1
, cr
2
, ...cr
n
)
Puede demostrarse que R
n
con la suma y el producto por escalares recien
denidos es un espacio vectorial real, procediendo de la manera siguiente:
64 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
Si a, / R
n
entonces a = (r
1
, r
2
, ...r
n
) y / = (j
1
, j
2
, ...j
n
) con todas las
r
I
y las j
I
reales. Entonces a + / = (r
1
+ j
1
, r
2
+ j
2
, ...r
n
+ j
n
) con lo
que se ve que a + / tiene exctamente : componentes y todas ellas son
reales pues, por la cerradura en los reales, r
I
+j
I
es real para toda i. Esto
prueba la cerradura.
Si a, / R
n
entonces a = (r
1
, r
2
, ...r
n
) y / = (j
1
, j
2
, ...j
n
) con todas las
r
I
y las j
I
reales. Por ello a+/ = (r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
) en tanto que
/ +a = (j
1
+r
1
, j
2
+r
2
, ...j
n
+r
n
) = (r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
) y donde
el ltimo paso es vlido por la conmutatividad de la suma de nmeros
reales. Esto prueba que a +/ = / +a y la operacin + es conmutativa.
Si a, /, c R
n
entonces a = (r
1
, r
2
, ...r
n
) / = (j
1
, j
2
, ...j
n
) y c = (.
1
, .
2
, ....
n
)
con todas las r
I
, las j
I
y las .
I
reales. Entonces / + c = (j
1
+ .
1
, j
2
+
.
2
, ...j
n
+.
n
) y a+(/+c) = (r
1
+(j
1
+.
1
), r
2
+(j
2
+.
2
), ...r
n
+(j
n
+.
n
)).
Por otra parte a + / = (r
1
+ j
1
, r
2
+ j
2
, ...r
n
+ j
n
) y (a + /) + c =
((r
1
+ j
1
) + .
1
, (r
2
+ j
2
) + .
2
, ...(r
n
+ j
n
) + .
n
) = (r
1
+ (j
1
+ .
1
), r
2
+
(j
2
+ .
2
), ...r
n
+ (j
n
+ .
n
)) donde el ltimo paso se desprende de la aso-
ciatividad de nmeros reales. Por ello a +(/ +c) = (a +/) +c y se vale la
asociatividad.
Para vericar el axioma cuatro necesitamos primero indagar quin es el
cero. Sabemos que 0 R
n
y que para cualquier a R
n
se debe cumplir el
que a + 0 = 0 +a = a por lo que, con la misma a usada anteriormente si
0 = (j
1
, j
2
, ...j
n
) tenemos que a + 0 = (r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
) = a =
(r
1
, r
2
, ...r
n
) de modo que
r
1
+j
1
= r
1
r
2
+j
2
= r
2
...
r
n
+j
n
= r
n
y resulta que j
1
= j
2
...j
n
= 0 (el nmero cero). Por ello 0 = (0, 0, ..,0) (el
0 del lado izquierdo es el cero en R
n
en tanto que los : ceros en el lado
derecho representan el nmero cero de los reales). Sabiendo quin debe de
ser el cero, es fcil ver que, en realidad, 0 = (0, 0..,0) es el cero de R
n
. En
efecto, si a = (r
1
, r
2
, ...r
n
) entonces a + 0 = (r
1
+ 0, r
2
+ 0, ...r
n
+ 0) =
(r
1
, r
2
, ...r
n
) = a.
Igual que en el caso anterior, dado un elemento a tenemos primero que
deducir quin es su inverso a y luego demostrar que en efecto es el inverso.
Como a R
n
a = (j
1
, j
2
, ...j
n
) y si a = (r
1
, r
2
, ...r
n
) entonces a+(a)
12.1. ALGUNOS EJEMPLOS DE ESPACIOS VECTORIALES 65
ser (r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
) = 0 = (0, 0, ..,0) y
r
1
+j
1
= 0
r
2
+j
2
= 0
...
r
n
+j
n
= 0
y
j
1
= r
1
j
2
= r
2
...
j
n
= r
n
y concluimos que (a) = (r
1
, r
2
, ... r
n
). Que ste es realmente el
negativo se desprende del hecho de que a+(a) = (r
1
r
1
, r
2
r
2
, ...r
n

r
n
) = (0, 0, ..,0) = 0.
Si c R y a = (r
1
, r
2
, ...r
n
) R
n
entonces ca = (cr
1
, cr
2
, ...cr
n
) y
vemos que ca es una eneada de nmeros reales, demostrando que ca R
n
.
Si c, , R, y a R
n
entonces, para a = (r
1
, r
2
, ...r
n
) tenemos que
(c +,)(a) = ((c +,)r
1
, (c +,)r
2
, ...(c +,)r
n
)
= (cr
1
+,r
1
, cr
2
+,r
2
, ...cr
n
+,r
n
)
por la distributividad de la multiplicacin de nmeros reales. Por otra
parte
ca +,a = (cr
1
+,r
1
, cr
2
+,r
2
, ...cr
n
+,r
n
)
mostrando que (c +,)(a) = ca +,a.
Si a, / R
n
y c R entonces
c(a +/) = c(r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
)
= (c(r
1
+j
1
), c(r
2
+j
2
), ...c(r
n
+j
n
))
= (cr
1
+cj
1
, cr
2
+cj
2
, ...cr
n
+cj
n
)
valindose el ltimo paso por la distributividad entre nmeros reales. Por
otra parte
ca +c/ = (cr
1
+cj
1
, cr
2
+cj
2
, ...cr
n
+cj
n
)
de donde se ve que c(a +/) = ca +c/.
Si c, , R y a R
n
entonces
(c,)a = ((c,)r
1
, (c,)r
2
, ...(c,)r
n
)
66 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
pero
c(,a) = c(,r
1
, ,r
2
, ...,r
n
) = (c(,r
1
), c(,r
2
), ...c(,r
n
))
= ((c,)r
1
, (c,)r
2
, ...(c,)r
n
)
por la asociatividad del producto de nmeros reales. Por ello (c,)a =
c(,a). Similarmente (c,)a = ,(ca).
1a = 1(r
1
, r
2
, ...r
n
) = (1r
1
, 1r
2
, ..,1r
n
) = (r
1
, r
2
, ...r
n
) con lo que 1a = a.
Concluimos que R
n
, con las operaciones arriba denidas, es un espacio vec-
torial real.
12.1.2. Los espacios C
n
De una manera anloga sea : un entero positivo y
C
n
= (r
1
, r
2
, ...r
n
) [ r
I
C \i = 1, 2...:
el conjunto de eneadas de nmeros complejos. Se entiende aqu que dos elementos
r y j de C
n
dados por
r = (r
1
, r
2
, ...r
n
)
j = (j
1
, j
2
, ...j
n
)
son iguales si y slo si \i = 1, 2...:
r
I
= j
I
En C
n
denimos la suma de r = (r
1
, r
2
, ...r
n
) C
n
y j = (j
1
, j
2
, ...j
n
) C
n
como aquel elemento r +j C
n
dado por
r +j = (r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
)
y denimos el producto de c C y r = (r
1
, r
2
, ...r
n
) C
n
como el elemento
cr C
n
dado por
cr = (cr
1
, cr
2
, ...cr
n
)
Puede demostrarse que C
n
con la suma y el producto por nmeros complejos
recin denidos es un espacio vectorial complejo.
Ejercicio 50 Demuestre que C
n
con la suma y el producto por nmeros com-
plejos denidos arriba es un espacio vectorial complejo.
Ejercicio 51 Si C
n
se equipa con la misma suma que se deni en el ejercicio
anterior pero la multiplicacin por escalares se restringe a nmeros reales, es
la estructura resultante un espacio vectorial real?
12.1. ALGUNOS EJEMPLOS DE ESPACIOS VECTORIALES 67
Notacin 52 Los vectores de C
n
y R
n
pueden representarse en las siguientes
formas que son equivalentes:
(r
1
, r
2
, ...r
n
)
_
_
_
_
_
r
1
r
2
.
.
.
r
n
_
_
_
_
_
_
r
1
r
2
... r
n
_
T
y frecuentemente consideramos estos vectores como si fueran matrices de 1 :
o : 1 . El punto central es que los vectores de C
n
(o de .R
n
) son colecciones
de exactamente : nmeros complejos (o reales). De la misma manera, consider-
amos a los separadores entre los nmeros como matematicamente irrelevantes,
de manera que un espacio vaco, una coma, un punto y coma etc. (el llamado
espacio blanco de la computacin) podran ser usados para separar los nmeros.
Notacin 53 Hay una notacin til que restringimos a C
n
. Si denotamos por
al vector
=
_
_
_
_
_
r
1
r
2
.
.
.
r
n
_
_
_
_
_
entonces, por el smbolo
+
denotamos el transpuesto conjugado (adjunto) del
vector y

+
= (r
1
r
2
...r
n
)
que vemos como una matriz de 1 :
12.1.3. Los espacios P
n
Sea :un entero positivo y
1
n
= a
0
+a
1
r +a
2
r
2
+...a
n
r
n
[ a
I
R \i = 0, 1...:
el conjunto de todos los polinomios con coecientes reales y grado menor o igual
a :. Aqu se entiende que dos miembros 1(r)y Q(r)de 1
n
dados por
1(r) = a
0
+a
1
r +a
2
r
2
+...a
n
r
n
Q(r) = /
0
+/
1
r +/
2
r
2
+.../
n
r
n
son iguales si y slo si \i = 0, 1...:
a
I
= /
I
68 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
En 1
n
denimos la suma de 1(r) = a
0
+ a
1
r + a
2
r
2
+ ...a
n
r
n
1
n
y
Q(r) = /
0
+/
1
r +/
2
r
2
+.../
n
r
n
1
n
como el elemento (1 +Q) (r) 1
n
dado
por
(1 +Q) (r) = (a
0
+/
0
) + (a
1
+/
1
) r + (a
2
+/
2
) r
2
+... (a
n
+/
n
) r
n
y denimos el producto de c R y 1(r) = a
0
+a
1
r+a
2
r
2
+...a
n
r
n
1
n
como
el elemento cr 1
n
dado por
(c1) (r) = (ca
0
) + (ca
1
) r + (ca
2
) r
2
+... (ca
n
) r
n
Puede demostrarse que 1
n
con la suma y el producto por nmeros reales
recin denidos es un espacio vectorial real.
Ejercicio 54 Demuestre que 1
n
con la suma y el producto por nmeros reales
denidos anteriormente es un espacio vectorial real.
12.1.4. Los espacios M(m; n)
Sean :y :enteros positivos y
'(:, :) =
_

_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_
[a
I
R \i = 0, 1...:\, = 0, 1...:
_

_
el conjunto de todas las matrices reales de ::.
Para referirnos a los elementos de una matriz dada '(:, :) usaremos
la notacin a
I
= []
I
y diremos que = 1 (con , 1 '(:, :) ) si y slo
si \i = 0, 1...:\, = 0, 1...:
[]
I
= [1]
I
Denimos una suma en '(:, :) mediante
[+1]
I
= []
I
+ [1]
I
(\i = 0, 1...:\, = 0, 1...:) donde se sobreentiende que , 1 '(:, :).
La multiplicacin de elementos de '(:, :) por nmeros reales se dene
mediante
[c]
I
= c[]
I
(\i = 0, 1...: \, = 0, 1...:) con '(:, :).
'(:, :) con las operaciones anteriormente denidas es un espacio vectorial
real.
Ejercicio 55 Demuestre que '(:, :) con la suma y el producto por nmeros
reales denidos anteriormente es un espacio vectorial real.
Comentario 56 Ya hemos visto que '(:, :) es un espacio vectorial y, anteri-
ormente, que es un anillo con unidad. Se dice, en este caso, que se trata de un
lgebra.
12.1. ALGUNOS EJEMPLOS DE ESPACIOS VECTORIALES 69
12.1.5. Los espacios M

(m; n)
Similarmente denimos (para enteros positivos :y :)
'
+
(:, :) =
_

_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_
[a
I
C \i = 0, 1...:\, = 0, 1...:
_

_
como el conjunto de todas las matrices complejas de ::.
Para referirnos a los elementos de una matriz dada '
+
(:, :) usaremos
la notacin
a
I
= []
I
y diremos que = 1 (con , 1 '
+
(:, :) ) si y slo si \i = 0, 1...:\, =
0, 1...:
[]
I
= [1]
I
Denimos una suma en '
+
(:, :) mediante
[+1]
I
= []
I
+ [1]
I
(\i = 0, 1...:\, = 0, 1...:) donde se entiende que , 1 '
+
(:, :).
La multiplicacin de elementos de '(:, :) por nmeros complejos se dene
mediante
[c]
I
= c[]
I
(\i = 0, 1...:\, = 0, 1...:) y con '
+
(:, :).
'
+
(:, :) con estas operaciones es un espacio vectorial complejo.
Ejercicio 57 Demuestre que '
+
(:, :) con la suma y el producto por nmeros
complejos denidos anteriormente es un espacio vectorial complejo.
Comentario 58 Tambin se usan las notaciones '
nn
(R) o '
nn
(C) en vez
de '(:, :) y '
+
(:, :).
Comentario 59 Todo campo puede ser visto como un espacio vectorial sobre
l mismo (tome : = 1 en las deniciones de C
n
y de R
n
). Por ello el campo
de los nmeros complejos puede verse como espacio vectorial complejo, esto
contesta la pregunta que frecuentemente se hace de si hay espacios complejos de
echas (vectores geomtricos). De acuerdo con la interpretacin geomtrica
de los complejos (diagrama de Argand), los complejos son echas que pueden
sumarse y multiplicarse por nmeros. Pero en este caso al multiplicar un vector
por un nmero se le cambia el tamao y se le rota o gira ( si el vector r se
multiplica por el nmero . = jc
I0
entonces su tamao se altera por un factor j
y su ngulo de fase se incrementa por 0).
70 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
Comentario 60 Si 1 es un campo y G un subcampo, entonces tambin 1 puede
pensarse como un espacio vectorial sobre G .
Comentario 61 En el caso de los espacios de polinomios podramos denir
espacios de polinomios con coecientes sobre otros campos aparte del de los
nmeros reales.
Ejemplo 62 Otros ejemplos de espacios vectoriales seran:
a) el conjunto de todas las secuencias r
I
(i = 1...) de nmeros reales o com-
plejos. La suma se dene como (r + j)
I
= r
I
+ j
I
y el producto por nmeros
como (cr)
I
= cr
I
.
b) si l y \ son espacios vectoriales sobre un mismo campo, el producto carte-
siano de l y \ se dene como
l \ = (n, ) [ n l, \
deniendo la suma mediante
(n
1
,
1
) + (n
2
,
2
) = (n
1
+n
2
,
1
,
2
)
y el producto como
c(n, ) = (cn, c)
c) Si o es un conjunto, el conjunto de todas las funciones de o a los reales (o
los complejos o a cualquier otro campo)
1 = ) : o R
es un espacio vectorial si denimos
() +q)(r)) = )(r) +q(r)
y
(c))(r) = c)(r)
12.2. Algunas propiedades bsicas de los espa-
cios vectoriales.
Hay varias propiedades importantes de todos los espacios vectoriales.
El axioma 4 indica que hay un vector especial 0 que tiene la propiedad de
que 0 + = + 0 = para todo \ , demostramos a continuacin que slo
hay un vector con estas propiedades:
Teorema 63 Sea \ un espacio vectorial sobre un campo 1. Entonces si . \
tiene la propiedad de que . + = + . = para todo \ entonces . = 0 .
En palabras: el idntico aditivo es nico.
12.2. ALGUNAS PROPIEDADES BSICAS DE LOS ESPACIOS VECTORIALES.71
Demostracin. . = . + 0 (por el axioma 4)
= 0 (porque . + 0 = 0)
Analogamente, dado , el vector cuya existencia se asevera en el axioma
5 es nico y tenemos el teorema:
Teorema 64 Sea \ un espacio vectorial sobre el campo 1 y sea \ . Si
n \ tiene la propiedad de que +n = n+ = 0 entonces n = (el inverso
es nico).
Demostracin. n = n + 0 (por el axioma 4)
= n + ( + ()) (por el axioma 5)
= (n +) + () (por el axioma 3
= 0 + () (por las propiedades que supusimos para n)
= (por el axioma 4)
De hecho tenemos una forma dbil del teorema 63 que a menudo es til:
Teorema 65 Sea \ un espacio vectorial sobre el campo 1 y sea \ . Si
n \ tiene la propiedad de que +n = entonces n = 0.
Demostracin. () +( +n) = () + (por las propiedades asumidas para
n)
( +) +n = 0 (por los axiomas 3 y 4)
0 +n = 0 (por el axioma 5)
n = 0 (por el axioma 4)
Teorema 66 Sea \ un espacio vectorial (real o complejo). Entonces 0 = 0
\ \ .
Demostracin. Dado que 0 = 0 + 0(por el axioma 4)
= 0 + ( + ()) (por el axioma 5)
= (0 +) + ()(por el axioma 3)
= (0 + 1) + ()(por el axioma 7)
= (0 + 1) + () (por el axioma 8)
= (1) + () (pues en todo campo 1 + 0 = 1)
= + () (por el axioma 7)
= 0 (por el axioma 4)
Note que no se us la propiedad conmutativa de la suma.
Teorema 67 Sea \ un espacio vectorial (real o complejo). Entonces (1) =

Demostracin. Dado que (1) = (1) + 0 (axioma 4)


= (1) + ( + ()) (axioma 5)
= ((1) +) + () (axioma 3)
= ((1) + 1) + () (axioma 7)
= ((1 + 1)) + () (axioma 8)
= ((0)) + () (en todo campo 1 + (1) = 0)
= 0 + () (teorema anterior)
= (axioma 4)
De nuevo, note que no se us la propiedad conmutativa de la suma.
72 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
Teorema 68 Sea \ un espacio vectorial(real or complejo). Entonces si ` es
un nmero (real or complejo dependiendo de si el espacio \ es real o complejo)
tenemos que `0 = 0 (momentneamente llamar 0 al vector cero y 0 al nmero
cero).
Demostracin. `0 = `(00) (por el teorema 66)= (`0)0 (por el axioma 10)
= 00 (propiedades bsicas de los nmeros)
= 0 (por el teorema 66)
Teorema 69 Sea \ un espacio vectorial (real o complejo). Entonces si \
entonces () = .
Demostracin. Puesto que + () = 0 (axioma 5)
() = (por el teorema 64)
Teorema 70 Sea \ un espacio vectorial (real o complejo) ` un nmero y
\ . Entonces si ` = 0 entonces ` = 0 o = 0.
Demostracin. Si ` = 0 el teorema es verdadero. Suponga que ` ,= 0 de modo
que `
1
.
Entonces `
1
(`) = `
1
0 = 0 (por el teorema 68)
pero `
1
(`) = (`
1
`) (por el axioma 10)
= 1 (propiedades bsicas de los nmeros reales o complejos )
= (por el axioma 7)
Consecuentemente = 0.
Ejercicio 71 Demuestre que si \ es un espacio vectorial, \ y ` es un
nmero, entonces (`) = (`) = `().
Ejercicio 72 Pruebe que si \ es un espacio vectorial, \ y ` es un nmero,
entonces (`)() = `.
Ejercicio 73 Pruebe que si \ es un espacio vectorial y n+n = +n entonces
n =
Ejercicio 74 Pruebe que si \ es un espacio vectorial y `n = ` para algn
nmero ` ,= 0 entonces n = .
12.3. Subespacios
Denicin 75 Sea \ un espacio vectorial. Decimos que \ es un subespacio
de \ si: a) \ \ , /) \ es un espacio vectorial con las mismas operaciones
que \ .
Comentario 76 Porlas mismas operaciones que \ . entendemos lo siguiente:
Si a,/ \, puesto que \ \ tenemos que a,/ \ , y consecuentemente
podemos formar su suma a + /; decimos que esta suma es la que es inducida
12.3. SUBESPACIOS 73
en \ por la suma en \ . Similarmente, si a \,puesto que \ \ tenemos
que a \ , consecuentemente podemos formar el producto `a (donde `es un
nmero); decimos que este producto es el que es inducido en \ por el producto
en \ .
Un subespacio es, entonces, un subconjunto que tambin es un espacio vec-
torial. Note que todo espacio \ es un subespacio de s mismo (un subespacio
trivial ). A n de vericar si un conjunto \ es un subespacio de un espacio
vectorial \ tendramos, en principio, que vericar que \ \ y que \ (con
la suma y producto inducidos por \ ) es un espacio vectorial. En la prctica es
mucho ms sencillo usar el siguiente teorema:
Teorema 77 Sea \ un espacio vectorial. Entonces \ es un subespacio de \
si y slo si las siguientes cuatro condiciones se cumplen: a) \ \ , /) \ ,= c,
c) Si a, / \ entonces a +/ \ (cerradura) y d) Si / es un nmero y a \
entonces / a \.
Demostracin. =
Si \ es un subespacio de \ , entonces \ \
Si \ es un subespacio de \ , entonces es un espacio vectorial, consecuente-
mente \ ,= c pues 0 \ por el axioma 4
Si \ es un subespacio de \ ,entonces es un espacio vectorial, consecuente-
mente por el axioma 1 si a, / \ entonces a +/ \.
Si \ es un subespacio de \ , entonces es un espacio vectorial, consecuente-
mente por el axioma 6 si / es un nmero y a \ entonces / a \.
=
Si \ cumple las cuatro condiciones, entonces el hecho de que cumple los
axiomas 1,2,3,5,6,7,8,9 y 10 es una consecuencia simple del hecho de que \ es
un espacio vectorial y la demostracin se deja como ejercicio. El axioma 4 es
ms sutil:
Puesto que (por la hiptesis /) \ ,= c , \ tiene algn elemento, llmelo r,
entonces (por la hiptesis d) 0r \, pero (por la hiptesis a) si 0r \ then
0r \ , pero por el teorema 4 0r = 0. Entonces 0 \. Para cualquier a \
dado que tambin es cierto que a \ a+0 = 0+a = a y el axioma 4 se cumple
Ejercicio 78 Llene los huecos en la prueba del teorema 77.
Ejemplo 79 Si \ es un espacio vectorial y \ = 0 entonces \ es, trivial-
mente, un subespacio de \ , se llama espacio nulo. Los subespacios triviales
de \ son, entonces, \ mismo y 0.
Ejemplo 80 Claramente c no puede ser un subespacio de ningn espacio pues
0 , c.
Ejercicio 81 Sea \ un espacio vectorial y a \ tal que a ,= 0. es 0, a un
subespacio de \ ? (explique). Vemos que 0, a , = c y que 0, a \ . Comence-
mos con la cerradura con respecto a la multiplicacin por escalares. Si c 1
74 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
y r 0, a entonces cr debe de ser uno de c0, ca o sea 0,ca. Con el caso
cr = 0 no hay problema, pero cuando r = a tenemos que ca debe de ser 0 o
a. El primer caso implica que c o a sea cero, pero a no es cero de modo que c
debe de ser cero. El segundo caso implica que ca = a y (c1)a = 0 implicando
que c = 1. Por ello la cerradura no puede cumplirse si c no es cero o uno. Por
ello concluimos que 0, a no es cerrado bajo multiplicacin escalar y no es un
subespacio. De hecho tampoco es cerrado bajo la suma, pues al sumar r +j con
ambos sumandos en 0, a las posibilidades son las de la tabla siguiente
r j r +j
0 0 0
0 a a
a 0 a
a a 2a
y vemos que cuando tenemos
a+a = 2a para que valga la cerradura 2a 0, a o sea 2a = 0 o 2a = a. Ambos
casos implicaran que a = 0 contrario a las hiptesis. 0, a no es cerrado bajo
suma tampoco.
Teorema 82 Si l y \ son subespacios de \, entonces l \ es tambin es
subespacio de \.
Demostracin. 1) Claramente el 0 \ tambin satisface 0 l y 0 \ con
lo que 0 l \
2) Claramente l\ \
3) si r, j l \ entonces r, j l y r, j \ con lo que r+j l y r+j \
(pues l y \ son subespacios) y r+j l\ probando la cerradura bajo adicin.
4) si r l\ y c 1 entonces r l y r \ con lo que cr l y cr \ (por
la cerradura bajo multiplicacin escalar de los subespacios) y cr l \ con lo
que l\ tambin es cerrado bajo multiplicacin.
Consecuentemente l \ es un subespacio de \.
Sin embargo l ' \ no es un subespacio en general, aunque l ' \ ,= c
(0 l ' \ ) y l ' \ \ resulta que las cerraduras pueden fallar. Esto se
ve claramente con un ejemplo: considere \ = R
2
, l = c(1, 0) [ c R
y \ = ,(0, 1) [ , R, dejo al lector vericar que tanto l como \ son
subespacios de \. Pero (1, 0) + (0, 1) = (1, 1) , l ' \ pues (1, 1) , l y
(1, 1) , \ . Tambin deber el lector mostrar que l ' \ s es cerrado bajo la
multiplicacin por escalares. Es la cerradura bajo + la que causa problemas.
Comentario 83 Si vemos al espacio vectorial como una estructura algebraica,
podemos pensar al subespacio como una subestructura. En matemticas es muy
comn estudiar estructuras y luego sus posibles subestructuras.
Ejemplo 84 Si l y \ son subespacios de \, entonces podemos denir la suma
de l y \ como
l +\ = n + [ n l, \
y dejamos como ejercicio para el lector el vericar que l +\ es un subespacio
de \.
12.4. SISTEMAS DE ECUACIONES LINEALES HOMOGNEAS. 75
12.4. Sistemas de ecuaciones lineales homogneas.
Una clase especial pero importante de subespacios es la formada por los
conjuntos solucin de sistemas de ecuaciones lineales homogeneas.
El sistema ms general tiene la forma:
a
11
r
1
+a
12
r
2
+...a
1n
r
n
= 0
a
21
r
1
+a
22
r
2
+..a
2n
r
n
= 0
.
.
.
a
n1
r
1
+a
n2
r
2
+..a
nn
r
n
= 0
y decimos que es un sistemas de ecuaciones lineales homogeneas de : equaciones
en : incgnitas.
Si denimos una matriz de :: como
=
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_
y la matriz A de : 1(que consideramos como un elemento de R
n
o de C
n
)
mediante
A =
_
_
_
_
_
r
1
r
2
.
.
.
r
n
_
_
_
_
_
entonces podemos escribir el sistema como
A = 0
donde
0 =
_
_
_
_
_
0
0
.
.
.
0
_
_
_
_
_
es el vector cero de R
n
(o C
n
segn sea el caso).
Es conveniente denir el conjunto solucin de este sistema como
o = A 1
n
[ A = 0
donde 1
n
quiere decir R
n
o C
n
segn sea el caso.
Teorema 85 o es un subespacio de 1
n
76 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
Demostracin. a) claramente o 1
n
/) o ,= c pues 0 = 0 (aqu el 0 en la izquierda es el cero de 1
n
, en tanto
que el cero en la derecha es el cero de 1
n
) y 0 o.
c) si r,j o entonces r = 0 y j = 0, por lo que (r + j) = r + j =
0 + 0 = 0 y r +j o.
d) si r o y ` 1 entonces (`r) = `(r) = `0 = 0 de modo que `r o
.
La conclusin se desprende del teorema 9.
12.5. combinaciones lineales
En todo lo que sigue sea \ un espacio vectorial.
Sea c =
1
,
2
, ...
n
\ un conjunto de : vectores en \ . Una combinacin
lineal de los vectores en c es una expresin de la forma
c
1

1
+c
2

2
+...c
n

n
donde c
1
, c
2
...c
n
son nmeros.
Ejemplo 86 es r = (9, 2, 7) combinacin lineal de n = (1, 2, 1) y =
(6, 4, 2)?
Lo que hay que preguntarse es si existen escalares c y , tales que r = cn +,.
Si existieran
(9, 2, 7) = c(1, 2, 1) +,(6, 4, 2) = (c + 6,, 2c + 4,, c + 2,)
por lo que tenemos el sistema lineal inhomogneo
c + 6, = 9
2c + 4, = 2
c + 2, = 7
cuya matriz aumentada es
_
_
1 6 9
2 4 2
1 2 7
_
_
~
_
_
1 6 9
0 8 16
0 8 16
_
_
~
_
_
1 6 9
0 1 2
0 1 2
_
_
~
_
_
1 6 9
0 1 2
0 0 0
_
_
~
_
_
1 0 3
0 1 2
0 0 0
_
_
indicando que
c = 3
, = 2
y r es, en efecto, combinacin lineal de u y .
12.5. COMBINACIONES LINEALES 77
Ejemplo 87 es r = (9, 3, 7) combinacin lineal de n = (1, 2, 1) y =
(6, 4, 2)?
Lo que hay que preguntarse es si existen escalares c y , tales que r = cn +,.
Si existieran
(9, 3, 7) = c(1, 2, 1) +,(6, 4, 2) = (c + 6,, 2c + 4,, c + 2,)
por lo que tenemos el sistema lineal inhomogneo
c + 6, = 9
2c + 4, = 3
c + 2, = 7
cuya matriz aumentada es
_
_
1 6 9
2 4 3
1 2 7
_
_
~
_
_
1 6 9
0 8 15
0 8 16
_
_
~
_
_
1 6 9
0 8 15
0 1 2
_
_
~
_
_
1 0 3
0 0 1
0 1 2
_
_
~
_
_
1 0 3
0 0 1
0 1 2
_
_
~
_
_
1 0 0
0 0 1
0 1 0
_
_
~
_
_
1 0 0
0 1 0
0 0 1
_
_
que no tiene soluciones. Luego r no es combinacin lineal de n y .
12.5.1. Des-sumando y des-multiplicando
Hay un truco que usaremos fecuentemente y que consiste en tomar vectores
de R
n
o de C
n
y descomponerlos combinaciones lineales. Un ejemplo vale un
milln de palabras:
Considere el vector (2r + 3j, r + 8j), usando las regla para la suma y
producto por escalares vemos que
(2r + 3j, r + 8j) = (2r, r) + (3j, 8j)
= r(1, 1) +j(3, 8)
78 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
en el primer rengln hemos descompuesto la expresin en dos sumandos, uno
que slo incluye la variable r y otro que slo incluye la variable j; a continuacin
hemos factorizado los escalares r y j.
12.6. generadores
Teorema 88 Sea \ un espacio vectorial y c =
1
,
2
, ...
n
\ . El conjunto
Gc:(c) = Gc:(
1
,
2
, ...
n
) de todas las combinaciones lineales de elementos en
c y denido por
Gc:(c) = c
1

1
+c
2

2
+...c
n

n
[ c
I
1 \i = 1, 2...:
es un subespacio de \ .
Demostracin. a) Gc:(c) claramente es un subconjunto de \ .
/) 0 = 0
1
+ 0
2
+..,0
n
, de modo que 0 Gc:(c) y Gc:(c) ,= c
c) Si r, j Gc:(c) entonces r = c
1

1
+ c
2

2
+ ...c
n
y j = d
1

1
+ d
2

2
+
...d
n

n
donde los c
I
y los d
I
son nmeros. Entonces r +j = (c
1
+d
1
)
1
+ (c
2
+
d
2
)
2
+...(c
n
+d
n
)
n
y r +j Gc:(c)
d) Si r Gc:(c) entonces r = c
1

1
+c
2

2
+...c
n

n
donde los c
I
son nmeros.
Entonces para ` 1
`r = (`c
1
)
1
+ (`c
2
)
2
+...(`c
n
)
n
y `r Gc:(c).
La conclusin se sigue del teorema 9.
Algunos autores escriben en vez de Gc:(
1
,
2
, ...
n
) 1(
1
,
2
, ...
n
) o incluso
(
1
,
2
, ...
n
).
Decimos que estos vectores generan un subespacio Gc:(c) de \ , o que los
vectores son un conjunto generador para Gc:(c). En general, decimos que c
genera \ si \ = Gc:(c). En otras palabras, un conjunto c es un generador de
un espacio \ si cada vector de \ es una combinacin lineal de vectores en c.
Por los ejemplos anteriores, podemos ver que n = (1, 2, 1) y = (6, 4, 2)
no generan R
3
pues hay vectores que no son combinaciones lineales de n y .
En general, un conjunto generador para R
n
o C
n
est dado por
(1, 0, 0..,0), (0, 1, 0, ..,0), ...(0, 0, 0..,1)
un conjunto generador para 1
n
est dado por
1, r, r
2
...r
n

en tanto que un conjunto generador para '(:, :) y '


+
(:, :) es
_

_
_
_
_
_
_
1 0 ... 0
0 0 ... 0
.
.
.
0 0 ... 0
_
_
_
_
_
,
_
_
_
_
_
0 1 ... 0
0 0 ... 0
.
.
.
0 0 ... 0
_
_
_
_
_
, ...,
_
_
_
_
_
0 0 ... 0
0 0 ... 0
.
.
.
0 0 ... 1
_
_
_
_
_
_

_
Todo espacio tiene un nmero innito de posibles generadores.
Ms adelante mostraremos cmo obtener generadores de conjuntos solucin
de sistemas lineales homogneos.
12.6. GENERADORES 79
Ejemplo 89 R
3
contiene los vectores (1, 0, 0) y (0, 1, 0) y o = Gc:((1, 0, 0), (0, 1, 0))
es un subespacio de R
3
. pero o no coincide con R
3
pues (1, 0, 0), (0, 1, 0) no
genera R
3
(por ejemplo (0, 0, 1) no est en o).
En lgebra lineal se consideran dos clases importantes de problemas relativos
a generadores:
Dado un conjunto
1
,
2
, ...
n
determinar el espacio generado
Gc:(
1
,
2
, ...
n
).
Dado un espacio, determinar un generador.
12.6.1. cmo encontrar un generador para el conjunto solu-
cin de un sistema lineal homogneo.
Veamos primero, mediante un ejemplo, la estrategia bsica.
Considere el sistema
3r + 5j 4. = 0
3r 2j + 4. = 0
6r +j 8. = 0
La matriz de coecientes es
_
_
3 5 4
3 2 4
6 1 8
_
_
cuya forma escalonada reducida por renglones es:
_
_
1 0
4
3
0 1 0
0 0 0
_
_
por lo que un sistema equivalente (en el sentido de tener exactamente las mismas
soluciones) es
r
4
3
. = 0
j = 0
En la matriz reducida debemos identicar las columnas pivote, es decir las
columnas con un uno delantero (o principal). stas sosn la primera y la segunda
columna. Las variables correspondientes (r y j) se llaman variables ligadas y las
restantes (. en este caso) se llaman variables libres . La parte crucial consiste
en tomar el vector genrico de R
3
(pues el conjunto solucin es un subespacio
de R
3
) y reexpresarlo en trminos de las variables libres usando las ecuaciones
anteriores de modo que
(r, j, .) = (
4
3
., 0, .) = .(
4
3
, 0, 1)
80 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
Factorizando los escalares, obtenemos las combinaciones lineales que dan todas
las soluciones, de ellas podemos inferir el generador (los vectores cuyas combi-
naciones lineales dan las soluciones).
Por ello un generador para el espacio solucin del sistema propuesto es
(
4
3
, 0, 1)
En el caso general lo que hay que hacer es:
del sistema o inferimos la matriz de coecientes '
calculamos la forma escalonada reducida por renglones de la matriz '
de inferimos el sistema de ecuaciones o
t
que es equivalente a o.
de inferimos cules son las variables ligadas (las que corresponden a
colunmas conteniendo los unos principales, delanteros o pivotes).
de inferimos cules son las variables libres (las que no son ligadas).
tomamos el vector genrico = (r
1
, r
2
...r
n
) de 1
n
(: es el nmero de
incgnitas)
reexpresamos usando las ecuaciones de o
t
poniendo las variables ligadas
en trminos de las libres.
reescribimos factorizando los escalares de manera que se vea que las
soluciones son combinaciones lineales de ciertos vectores de 1
n
.
estos vectores constituyen un generador.
12.7. Independencia lineal y dependencia lineal
Considere un espacio vectorial \ , un conjunto c =
1
,
2
, ...
n
\ y la
ecuacin lineal
r
1

1
+r
2

2
+...r
n

n
= 0
donde los nmeros r
1
, r
2
..r
n
son incgnitas cuyos valores deseamos determinar.
En otras palabras, deseamos ver cules combinaciones lineales de vectores en c
dan el vector cero.
Obviamente, si r
1
= r
2
= ...r
n
= 0 la combinacin lineal correspondiente
da 0 (se dice que la combinacin lineal es trivial). Pero nos preguntamos si hay
soluciones en las que no todos los coecientes sean cero.
Denicin 90 Dado un espacio vectorial \ y un conjunto c =
1
,
2
, ...
n

\ decimos que c es linealmente independiente (o que los vectores en c son
linealmente independientes) si
r
1

1
+r
2

2
+...r
n

n
= 0 = r
1
= r
2
= ...r
n
= 0
12.7. INDEPENDENCIA LINEAL Y DEPENDENCIA LINEAL 81
Por otro lado, decimos que c es linealmente dependiente (o que los vectores
en c son linealmente dependientes) si hay nmeros r
1
, r
2
..r
n
, no todos cero, y
tales que
r
1

1
+r
2

2
+...r
n

n
= 0
Ejercicio 91 Demuestre que cualquier conjunto que contenga al vector cero 0
es linealmente dependiente. Sea el conjunto
1
,
2
, ...
n
, 0, entonces
0
1
+ 0
2
+..,0
n
+ 1

0 =

0
y tenemos una combinacin lineal de los vectores que da cero y no todos los
coecientes son cero (el coeciente de

0 es uno)
Teorema 92 Sea \ un espacio vectorial, o =
1
,
2
, ...
n
un subconjunto
de \ que es linealmente independiente y T un subconjunto de o. Entonces T
tambin es independiente.
Demostracin. Suponga (renumerando los vectores si es necesario) que T =

1
,
2
, ...
|
con / _ :, es dependiente, entonces existen r
1
, r
2
..r
|
, no todos
cero, y tales que r
1

1
+r
2

2
+...r
|

|
= 0 pero esto implica que r
1

1
+r
2

2
+
...r
|

|
+0
|+1
+.,0
n
= 0 y tenemos una combinacin lineal de
1
,
2
, ...
n
que
da cero y no todos los coecientes son cero, lo cual contradice la independencia
de o.
Corolario 93 Sea \ un espacio vectorial, o =
1
,
2
, ...
n
un subconjunto
de \ y T un subconjunto de o linealmente dependiente. Entonces o tambin es
dependiente.
Pero no es cierto que un subconjunto de un conjunto linealmente dependiente
sea necesariamente dependiente ni que si o tiene un subconjunto independiente
o tenga que ser independiente.
En resumidas cuentas
o independiente = T independiente
T dependiente = o dependiente
y note por favor que las proposiciones son contrapositivas la una de la otra.
En general la proposicin 1 = Q es lgicamente equivalente a ~ Q =~ 1.
La aseveracin falsa o dependiente= T dependiente es la conversa de T
dependiente= o dependiente y la contrapositiva de T independiente= o
independiente.
Si se nos dice que a, / es dependiente, entonces ra +j/ = 0 para nmeros
r y j no ambos cero. Suponga que r ,= 0, entonces a = (

r
)/ y los vectores son
colineales (o paralelos).
Si se nos dice que a, /, c es dependiente, entonces ra + j/ + .c = 0 para
nmeros r , j y . no todos cero. Suponga que r ,= 0, entonces a = (

r
)/+(
:
r
)c
y los vectores son coplanares.
82 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
Teorema 94 Sea \ un espacio vectorial y o =
1
,
2
, ...
n
un subconjunto
de \ . Si
n
es combinacin lineal de
1
,
2
, ...
n1
entonces o es linealmente
dependiente.
Demostracin. Existen, por hiptesis, nmeros r
1
, r
2
..r
n1
tales que
n
=
r
1

1
+ r
2

2
+ ...r
n1

n1
de modo que r
1

1
+ r
2

2
+ ...r
n1

n1
+ 1
n
= 0
con lo que tenemos una combinacin lineal de vectores de
1
,
2
, ...
n
que no
es trivial y da cero. Por ello o es dependiente.
Y hay un converso,
Teorema 95 Sea \ un espacio vectorial y o =
1
,
2
, ...
n
un subconjunto
de \ . Si o es linealmente dependiente, entonces uno de los vectores de o es
combinacin lineal de los restantes.
Demostracin. Si o es linealmente dependiente entonces hay nmeros no todos
cero y tales que r
1

1
+r
2

2
+...r
n1

n1
+r
n

n
= 0. Suponga que r
1
,= 0 (y lo
mismo vale si es otro el que no es cero) entonces
1
= (
1
r1
)(r
2

2
+...r
n1

n1
+
r
n

n
) demostrando el teorema.
12.7.1. Cmo determinar la dependencia o independen-
cia?
Si le dan a Usted un espacio vectorial \ y un conjunto c =
1
,
2
, ...
n
\
y le preguntan si c es linealmente independiente lo que debe de hacer es plantear
la ecuacin r
1

1
+r
2

2
+...r
n

n
= 0 y resolverla (se convertir eventualmente en
un sistema homogneo de ecuaciones lineales). Si la nica solucin es la trivial, el
conjunto es linealmente independiente. Si hay otras soluciones, c es linealmente
dependiente.
Ejemplo 96 son los vectores de R
3
(1, 3, 2), (1, 2, 5) y (0, 1, 4) independi-
entes o dependientes?.La ecuacin a resolver es
r
1
(1, 3, 2) +r
2
(1, 2, 5) +r
3
(0, 1, 4) = (0, 0, 0)
o
(r
1
r
2
, 3r
1
+ 2r
2
+r
3
, 2r
1
+ 5r
2
+ 4r
3
) = (0, 0, 0)
que da lugar al sistema lineal homogneo
r
1
r
2
= 0
3r
1
+ 2r
2
+r
3
= 0
2r
1
+ 5r
2
+ 4r
3
= 0
cuya matriz de coecientes es
=
_
_
1 1 0
3 2 1
2 5 4
_
_
12.7. INDEPENDENCIA LINEAL Y DEPENDENCIA LINEAL 83
y al reducir
~
_
_
1 1 0
0 5 1
0 7 4
_
_
~
_
_
1 1 0
0 1
1
5
0 7 4
_
_
~
_
_
1 0
1
5
0 1
1
5
0 0
13
5
_
_
~
_
_
1 0
1
5
0 1
1
5
0 0 1
_
_
~
_
_
1 0 0
0 1 0
0 0 1
_
_
por lo que el sistema original es equivalente al sistema
r
1
= 0
r
2
= 0
r
3
= 0
cuya solucin es la trivial y los vectores son independientes.
Ejemplo 97 Considere el subconjunto
, =
__
1 16
4 13
_
,
_
2 3
3 4
_
,
_
1 2
2 1
__
de '(2, 2) . es , linealmente dependiente o linealmente independiente?.Planteamos
la ecuacin bsica que es la de una combinacin lineal de vectores de , que de
cero:
r
_
1 16
4 13
_
+j
_
2 3
3 4
_
+.
_
1 2
2 1
_
=
_
0 0
0 0
_
y
_
r + 2j . 16r + 3j + 2.
4r + 3j 2. 13r + 4j +.
_
=
_
0 0
0 0
_
de modo que
r + 2j . = 0
16r + 3j + 2. = 0
4r + 3j 2. = 0
13r + 4j +. = 0
84 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
que es un sistema lineal homogneo cuya matriz de coecientes es
=
_
_
_
_
1 2 1
16 3 2
4 3 2
13 4 1
_
_
_
_
y al reducir
~
_
_
_
_
1 2 1
16 3 2
4 3 2
13 4 1
_
_
_
_
~
_
_
_
_
1 2 1
0 35 14
0 5 2
0 30 12
_
_
_
_
~
_
_
_
_
1 2 1
0 5 2
0 5 2
0 5 2
_
_
_
_
~
_
_
_
_
1 2 1
0 5 2
0 0 0
0 0 0
_
_
_
_
~
_
_
_
_
1 2 1
0 1
2
5
0 0 0
0 0 0
_
_
_
_
~
_
_
_
_
1 0
1
5
0 1
2
5
0 0 0
0 0 0
_
_
_
_
y un sistema equivalente al original es
r +
.
5
= 0
j
2
5
. = 0
Las variables ligadas de este sistema, que son las variables correspondientes
a las columnas con los unos delanteros (unos principales, pivotes), o sea r y j.
Las variables libres son las restantes, o . en nuestro caso. A partir de aqu la
receta es: ponga todo en funcin de las variables libres.
Por ello un vector en el conjunto solucin del sistema ser
(r, j, .) = (
.
5
,
2
5
., .) = .(
1
5
,
2
5
, 1)
indicando que todos los mltiplos de (
1
5
,
2
5
, 1) dan soluciones. Por ello para
cualquier . ,= 0 tendremos soluciones no triviales. En conclusin, los vectores
de , son linealmente dependientes.
Comentario 98 De los ejemplos anteriores se puede ver que, al reducir la ma-
triz de coecientes, si hay al menos una variable libre el sistema tendr solu-
ciones no triviales. Si no hay variables libres y todas son ligadas la nica
solucin posible al sistema lineal homogneo ser la trivial.
12.8. BASES Y DIMENSIN 85
12.8. bases y dimensin
Denicin 99 Sea \ un espacio vectorial. Una base c =
1
,
2
..
n
es un
conjunto que: 1) genera \. 2) es linealmente independiente.
Si \ es un espacio vectorial y c es una base, entonces dado \ hay
nmeros c
1
, c
2
...c
n
con la propiedad de que
=
n

I=1
c
I

I
pues c genera a \ . Estos nmeros son nicos, pues si tuviramos que
=
n

I=1
d
I

I
entonces (restando ambas ecuaciones)
0 =
n

I=1
(c
I
d
I
)
I
lo cual implica que \i
c
I
= d
I
pues el conjunto c es linealmente independiente.
Tenemos el siguiente teorema bsico:
Teorema 100 Sea \ un espacio vectorial sobre el campo 1. Sea c =
1
,
2
..
n

una base de \ . Sea n


1
, n
2
..n
n
\ y suponga que : : . Entonces
, = n
1
, n
2
..n
n
es linealmente dependiente.
Demostracin. Ofrecemos aqu una prueba sencilla usando algunos hechos
elementales sobre sistemas de ecuaciones, una demostracin alternativa puede
hallarse en el libro de Lang [1]
Dado que c es una base, todo elemento de , puede ser expresado como una
combinacin lineal de vectores de c, consecuentemente
n
1
= c
11

1
+c
12

2
+...c
1n

n
n
2
= c
21

1
+c
22

2
+...c
2n

n
.
.
.
n
n
= c
n1

1
+c
n2

2
+...c
nn

n
y una combinacin lineal de los vectores de , que de 0 debe satisfacer
0 =
1
n
1
+
2
n
2
+...
n
n
n
86 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
de modo que
0 =
n

I=1

I
n
I
=
n

I=1

I
n

=1
c
I

=
n

=1
_
n

I=1
c
I

I
_

pero como c es linealmente independiente


_
n

I=1
c
I

I
_
= 0
que es un conjunto de : ecuaciones con : incgnitas y : :. Es bien sabido
que un sistema lineal homogneo en el cual el nmero de incgnitas excede al
de ecuaciones siempre tiene una solucin no trivial. Por ello podemos encontrar
nmeros
1
,
2
...
n
no todos cero, y tales que una combinacin lineal de vec-
tores de c con estos nmeros como coecientes da cero. Luego , es linealmente
dependiente.
Este teorema tiene una consecuencia importante:
Teorema 101 Sea \ un espacio vectorial y sean c y , bases de \ . Entonces
c y , tienen el mismo nmero de elementos.
Demostracin. Sean c =
1
,
2
..
n
y , = n
1
, n
2
..n
n
dos bases. Si :
: entonces, por el teorema 101 tenemos que , es linealmente dependiente, con-
tradiciendo el que , sea una base. Si : : entonces, de nuevo, por el teorema
101 tenemos que w c es linealmente dependiente, contradiciendo el que c sea
una base. Por lo tanto : = :.
Denicin 102 Sea \ un espacio vectorial. Si \ tiene una base con un nmero
nito de elementos, se dice que \ es de dimensin nita. De lo contrario decimos
que \ es de dimensin innita.
Denicin 103 En vista del hecho de que cualesquiera dos bases en un espacio
de dimensin nita tienen el mismo nmero de elementos (gracias al teorema
101) podemos hacer la siguiente denicin:
Denicin 104 Sea \ un espacio vectorial de dimensin nita.El nmero :
de elementos en cualquier base se llama la dimensin del espacio y se denota
mediante dim(\ ).
Comentario 105 En lo que sigue se supondr que todos los espacios vectoriales
son de dimensin nita.
Ejemplo 106 En R
n
el conjunto c = (1, 0, 0..,0), (0, 1, 0, ..,0), ...(0, 0, .,1)) es
una base, se llama base cannica de R
n
. Por ello dim(R
n
) = :.
12.8. BASES Y DIMENSIN 87
Ejemplo 107 En C
n
la base c = (1, 0, 0..,0), (0, 1, 0, ..,0), ...(0, 0, .,1)) es la
base cannica. Por ello dim(C
n
) = :
Ejemplo 108 En 1
n
la base cannica es 1, r, r
2
...r
n
y dim(1
n
) = : + 1.
Ejemplo 109 En '(:, :) y en '
+
(:, :) la base cannica est dada por
_

_
_
_
_
_
_
1 0 ... 0
0 0 ... 0
.
.
.
.
.
. ...
.
.
.
0 0 ... 0
_
_
_
_
_
,
_
_
_
_
_
0 1 ... 0
0 0 ... 0
.
.
.
.
.
. ...
.
.
.
0 0 ... 0
_
_
_
_
_
, ...
_
_
_
_
_
0 0 ... 0
0 0 ... 0
.
.
.
.
.
. ...
.
.
.
0 0 ... 1
_
_
_
_
_
_

_
y dim('(:, :)) = dim('
+
(:, :)) = ::
Ejemplo 110 Es = (1, 0) una base de R
2
?.
Ms adelante veremos que dado que el conjunto tiene un slo elemento y
dim(R
2
) = 2, no puede ser una base. Pero analicemos, como ejemplo de los
clculos habituales en este tema, el asunto en detalle. Como (1, 0) ,= (0, 0) el
conjunto es linealmente independiente. Pero no genera R
2
pues
(r, j) = c(1, 0)
implica que
r = c
j = 0
y ningn vector de R
2
con j ,= 0 puede ser combinacin lineal de vectores en .
Conrmamos que no es una base de R
2
.
Ejemplo 111 Es = (1, 0), (0, 1) una base de R
2
?. Claramente genera
R
2
pues
(r, j) = (r, 0) + (0, j) = r(1, 0) +j(0, 1)
y es independiente pues si
r(1, 0) +j(0, 1) = (0, 0)
tendremos que
(r, j) = (0, 0)
y r = 0 y j = 0. es una base de R
2
.
Ejemplo 112 Es = (1, 0), (0, 1), (1, 1) una base de R
2
?. Ms adelante
veremos que dado que dim(R
2
) = 2, no puede ser una base. Pero, si pro-
cedemos directamente, vemos que genera R
2
pues
(r, j) = c(1, 0) +,(0, 1) +(1, 1)
88 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
implica que
(r, j) = (c +, , +)
y
r = c +
j = , +
cuya matriz aumentada es
_
1 0 1 r
0 1 1 j
_
que ya est en forma escalonada reducida por renglones. Las columnas pivote
son la primera y la segunda, las variables ligadas son, por lo tanto, c y , en
tanto que hay slo una variable libre: . Por ello el sistema tiene soluciones,
de hecho un nmero innito de ellas. genera a R
2
. Sin embargo no es
linealmente independiente pues
(0, 0) = (c +, , +)
implica
c + = 0
, + = 0
que tiene soluciones no triviales (por ejemplo = 1, c = , = 1. no es base
de R
2
.
Hemos visto que para que un conjunto sea una base es preciso que sea un
generador y que sea linealmente independiente. Sin embargo si conocemos la
dimensin del espacio obtenemos criterios ms sencillos.
Teorema 113 Sea \ un espacio vectorial con dim(\ ) = :. Si c =
1
,
2
..
n

genera a \ entonces es linealmente independiente y, consecuentemente, es una


base de \ .
Teorema 114 Sea \ un espacio vectorial con dim(\ ) = :. Si c =
1
,
2
..
n

es linealmente independiente entonces genera a \ y, consecuentemente, es una


base de \ .
Cuando el espacio es \ = 0 se dice que es de dimensin cero. No hemos
tenido oportunidad de demostrar que si l es subespacio de \ entonces dim(l) _
dim(\ ) pero ms adelante usaremos este teorema.
Ejemplo 115 Demuestre que (1, 2, 1), (2, 9, 0), (3, 3, 4) es una base de R
3
.
Primero veamos la independencia, suponga que
r(1, 2, 1) +j(2, 9, 0) +.(3, 3, 4) = (0, 0, 0)
12.8. BASES Y DIMENSIN 89
por lo que
r + 2j + 3. = 0
2r + 9j + 3. = 0
r + 4. = 0
cuya matriz de coecientes es
_
_
1 2 3
2 9 3
1 0 4
_
_
que tiene como forma escalonada reducida por renglones
_
_
1 0 0
0 1 0
0 0 1
_
_
de modo que un sistema equivalente es
r = 0
j = 0
. = 0
probando que los vectores son independientes.
Como tenemos tres vectores independientes en un espacio de dimensin tres,
resulta que forman base. Sin embargo, para ilustrar el punto, veamos que los
vectores tambin generan a R
3
. Tome cualquier (a, /, c) R
3
y preguntmonos
si es combinacin lineal de (1, 2, 1), (2, 9, 0) y (3, 3, 4)
r(1, 2, 1) +j(2, 9, 0) +.(3, 3, 4) = (a, /, c)
por lo que
r + 2j + 3. = a
2r + 9j + 3. = /
r + 4. = c
de modo que el problema puede ser parafraseado preguntando si este sistema
lineal inhomogneo es consistente para cualquir eleccin de (a, /, c). Hay varias
formas de contestar esto, la primera es notar que
dct
_
_
1 2 3
2 9 3
1 0 4
_
_
= 1
con lo que =
_
_
1 2 3
2 9 3
1 0 4
_
_
es una matriz invertible y el sistema inhomogneo
r = j tiene siempre solucin nica. Otra opcin es ver que, como la forma
escalonada reducida por renglones de es la identidad, la matriz es invertible.
Ms adelante veremos mejores mtodos.
90 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
El siguiente ejemplo es ms complicado e ilustra la manera de extraer una
base para espacios solucin de sistemas lineales homogneos.
Ejemplo 116 Determine una base y la dimensin del espacio de soluciones del
sistema homogneo
2r
1
+ 2r
2
r
3
+r
5
= 0
r
1
r
2
+ 2r
3
3r
4
+r
5
= 0
r
1
+r
2
2r
3
r
5
= 0
r
3
+r
4
+r
5
= 0
Para resolverlo escribimos la correspondiente matriz de coecientes
_
_
_
_
2 2 1 0 1
1 1 2 3 1
1 1 2 0 1
0 0 1 1 1
_
_
_
_
12.8. BASES Y DIMENSIN 91
que puede ser reducida
~
_
_
_
_
0 0 3 0 3
1 1 2 3 1
1 1 2 0 1
0 0 1 1 1
_
_
_
_
~
_
_
_
_
0 0 3 0 3
0 0 0 3 0
1 1 2 0 1
0 0 1 1 1
_
_
_
_
~
_
_
_
_
0 0 0 3 0
0 0 0 3 0
1 1 2 0 1
0 0 1 1 1
_
_
_
_
~
_
_
_
_
0 0 0 1 0
0 0 0 1 0
1 1 2 0 1
0 0 1 1 1
_
_
_
_
~
_
_
_
_
0 0 0 0 0
0 0 0 1 0
1 1 2 0 1
0 0 1 1 1
_
_
_
_
~
_
_
_
_
1 1 2 0 1
0 0 1 1 1
0 0 0 1 0
0 0 0 0 0
_
_
_
_
~
_
_
_
_
1 1 2 0 1
0 0 1 0 1
0 0 0 1 0
0 0 0 0 0
_
_
_
_
~
_
_
_
_
1 1 0 0 1
0 0 1 0 1
0 0 0 1 0
0 0 0 0 0
_
_
_
_
y las variables ligadas (las que corresponden a las columnas con unos principales)
son r
1
, r
3
y r
4
por lo que las variableslibres son r
2
y r
5
. Un sistema equivalente
al original es
r
1
+r
2
+r
5
= 0
r
3
+r
5
= 0
r
4
= 0
y podemos extraer una base escribiendo el vector genrico de R
5
como (r
1
, r
2
, r
3
, r
4
, r
5
)
92 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
y reexpresndolo en trminos de las variables libres como
(r
1
, r
2
, r
3
, r
4
, r
5
) = (r
2
r
5
, r
2
, r
5
, 0, r
5
) =
r
2
(1, 1, 0, 0, 0) +r
5
(1, 0, 1, 0, 1)
de donde vemos que un generador para el espacio solucin es
(1, 1, 0, 0, 0), (1, 0, 1, 0, 1)
pero una gracia de la reduccin Gaussiana es que este mtodo siempre da vec-
tores independientes (decimos esto sin demostracin) por lo que es tambin una
base. La dimensin del conjunto solucin es dos.
Comentario 117 A veces es conveniente pensar en los elementos de una base
en un orden dado. Entonces hablamos de una base ordenada. As pues c =
, n y , = n, son la misma base pero diferentes bases ordenadas.
12.8.1. Algunos resultados adicionales
Hay algunos resultados importantes pero que, por no aparecer en nuestro
programa, sern simplemente presentados de manera breve:
Sea \ un espacio vectorial con dim(\ ) = :. Si c =
1
,
2
, ...
n
con
: < : es un conjunto linealmente independiente, entonces podemos hallar
vectores
n+1
,
n+2
, ...
n
tales que , =
1
,
2
, ...
n
sea una base de \ .
Esti a veces se enuncia diciendo que un conjunto linealmente independiente
puede completarse a una base.
Si \ es un subespacio de \ entonces dim(\) _ dim(\ ). An ms,
dim(\) = dim(\ ) si y slo si \ = \.
12.9. coordenadas
Dado un espacio vectorial \ equipado con una base c =
1
,
2
..
n
ya
hemos visto que cualquier vector \ puede escribirse de manera nica como
=
n

I=1
c
I

I
Los nmeros c
1
, c
2
...c
n
se llaman coordenadas de con respecto a la base c.
Claramente estos nmeros cambian si cambiamos de la base c a otra base ,. El
vector de R
n
(o C
n
)
()
o
= (c
1
, c
2
...c
n
)
se llama vector de coordenadas de con respecto a la base c.
12.9. COORDENADAS 93
La matriz de : 1 (que puede ser pensada como un vector de R
n
o de C
n
)
dada por
[]
o
=
_
_
_
_
_
c
1
c
2
.
.
.
c
n
_
_
_
_
_
se llama matriz de coordenadas de con respecto a la base c.
Ejemplo 118 Las coordenadas de un vector (r
1
, r
2
...r
n
) en R
n
o C
n
con re-
specto a la base cannica es la misma eneada (r
1
, r
2
...r
n
) , es decir, ((r
1
, r
2
...r
n
))
c
= (r
1
, r
2
...r
n
) donde c denota la base cannica.
Ejemplo 119 Las coordenadas de un vector 1(r) = a
0
+ a
1
r + ...a
n
r
n
en 1
n
con respecto a la base cannica son (j(r))
c
= (a
0
, a
1
, ...a
n
).
Ejemplo 120 En \ = 1
4
considere la base =
1
,
2
,
3
,
4
,
5
dada por

1
= 1

2
= 1 +r

3
= 1 +r +r
2

4
= 1 +r +r
2
+r
3

5
= 1 +r +r
2
+r
3
+r
4
Obtener las coordenadas en la base del vector = 2 + 3r + 2r
2
+ 5r
3
2r
4
.
Hay que encontrar los escalares c
1
, c
2
, c
3
, c
4
y c
5
tales que
= c
1

1
+c
2

2
+c
3

3
+c
4

4
+c
5

5
o sea
2 + 3r + 2r
2
+ 5r
3
2r
4
= c
1
(1) +c
2
(1 +r) +c
3
(1 +r +r
2
) +c
4
(1 +r
2
+r
3
) +c
5
(1 +r +r
2
+r
3
+r
4
)
de modo que
2 + 3r + 2r
2
+ 5r
3
2r
4
= (c
1
+c
2
+c
3
+c
4
+c
5
)(1)+
(c
2
+c
3
+c
4
+c
5
)(r)+
(c
3
+c
4
+c
5
)(r
2
)+
(c
4
+c
5
)(r
3
)+
c
5
r
4
94 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
o sea
c
1
+c
2
+c
3
+c
4
+c
5
= 2
c
2
+c
3
+c
4
+c
5
= 3
c
3
+c
4
+c
5
= 2
c
4
+c
5
= 5
c
5
= 2
cuya matriz aumentada es
_
_
_
_
_
_
1 1 1 1 1 2
0 1 1 1 1 3
0 0 1 1 1 2
0 0 0 1 1 5
0 0 0 0 1 2
_
_
_
_
_
_
que se reduce como
~
_
_
_
_
_
_
1 0 0 0 0 1
0 1 1 1 1 3
0 0 1 1 1 2
0 0 0 1 1 5
0 0 0 0 1 2
_
_
_
_
_
_
~
_
_
_
_
_
_
1 0 0 0 0 1
0 1 0 0 0 1
0 0 1 1 1 2
0 0 0 1 1 5
0 0 0 0 1 2
_
_
_
_
_
_
~
_
_
_
_
_
_
1 0 0 0 0 1
0 1 0 0 0 1
0 0 1 0 0 3
0 0 0 1 1 5
0 0 0 0 1 2
_
_
_
_
_
_
~
_
_
_
_
_
_
1 0 0 0 0 1
0 1 0 0 0 1
0 0 1 0 0 3
0 0 0 1 0 7
0 0 0 0 1 2
_
_
_
_
_
_
y el sistema equivalente es
r
1
= 1
r
2
= 1
r
3
= 3
r
4
= 7
r
5
= 2
12.10. CAMBIO DE BASE Y MATRIZ DE TRANSICIN 95
Note que el sistema tambin podra haberse resuelto por sustitucin regresiva,
pero nosotros seguimos la poltica de usar Gauss-Jordan.
12.10. cambio de base y matriz de transicin
En esta seccin consideramos el siguiente escenario: Sea \ un espacio vec-
torial con dim(\ ) = :, sean c =
1
,
2
..
n
y , = n
1
, n
2
..n
n
dos bases de
\ . Sean \ y
[]
o
=
_
_
_
_
_
c
1
c
2
.
.
.
c
n
_
_
_
_
_
[]
o
=
_
_
_
_
_
d
1
d
2
.
.
.
d
n
_
_
_
_
_
las matrices de coordenadas con respecto a las bases c y , respectivamente.
Queremos ver cul es la conexin entre []
o
y []
o
, esto es, queremos ver cul
es la relacin que hay entre las coordenadas de un vector dado con respecto a
dos bases diferentes.
Dado que , es una base, dados
I
(con i = 1...:) deben existir nmeros 1
I
tales que

I
=
n

=1
1
I
n

en otras palabras, 1
I
es la ,sima coordenada en la base , del isimo vector
de la base c. Entonces, puesto que
=
n

I=1
c
I

I
tenemos que
=
n

I=1
c
I
_
_
n

=1
1
I
n

_
_
=
n

=1
_
n

I=1
1
I
c
I
_
n

pero como
=
n

=1
d

resulta que, por la unicidad de las coordenadas, que


d

=
n

I=1
1
I
c
I
96 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
La matriz 1 con elementos [1]
I
= 1
I
se llama matriz de transicin de la
base c a la base , y se denota como '
o
o
, las ecuaciones anteriores claramente
implican que
[]
o
= '
o
o
[]
o
y '
o
o
es una matriz tal que da las coordenadas con respecto a , mediante
una sencilla multiplicacin de '
o
o
por las coordenadas con respecto a c. Es
de importancia prctica el notar que '
o
o
es la matriz cuya ,sima columna
contiene las coordenadas en la base , del ,simo vector de la base c.
Igualmente, si queremos pasar de la base , a la base c tendremos que
[]
o
= '
o
o
[]
o
de modo que, combinando las ltimas ecuaciones,
[]
o
= '
o
o
[]
o
= '
o
o
'
o
o
[]
o
y como sto vale para cualquier []
o
tendremos que
'
o
o
'
o
o
= 1
nn
donde 1
nn
es la identidad de : :.
Esto implica que las matrices de transcicin son no-singulares y que
'
o
o
=
_
'
o
o
_
1
12.10.1. Encontrando la matriz de transicin.
Considere el ejemplo:
En R
3
tenemos las bases
c = (1, 1, 1), (0, 1, 1), (0, 0, 1)
, = (1, 0, 1), (1, 2, 1), (1, 2, 2)
Calcular la matriz '
o
o
de transicin de la base , a la base c .
La solucin ocial se obtiene hallando las coordenadas de los vectores de
la base , en trminos de la base c. Por ello
(1, 0, 1) = :
11
(1, 1, 1) +:
21
(0, 1, 1) +:
31
(0, 0, 1)
(1, 2, 1) = :
12
(1, 1, 1) +:
22
(0, 1, 1) +:
32
(0, 0, 1)
(1, 2, 2) = :
13
(1, 1, 1) +:
23
(0, 1, 1) +:
33
(0, 0, 1)
con lo que
:
11
= 1
:
11
+:
21
= 0
:
11
+:
21
+:
31
= 1
12.10. CAMBIO DE BASE Y MATRIZ DE TRANSICIN 97
y
:
11
= 1
:
21
= 1
:
31
= 1
Similarmente
:
12
= 1
:
12
+:
22
= 2
:
12
+:
22
+:
32
= 1
con lo que
:
12
= 1
:
22
= 1
:
32
= 1
y nalmente
:
13
= 1
:
13
+:
23
= 2
:
13
+:
23
+:
33
= 2
por lo que
:
13
= 1
:
23
= 1
:
33
= 0
y
'
o
o
=
_
_
1 1 1
1 1 1
1 1 0
_
_
Ahora vamos a ver cmo resolver el problema de manera econmica:
Formamos matrices y 1 que tienen en sus columnas las coordenadas
(respecto a la base cannica de R
n
o C
n
segn sea el caso) de los vectores
de las bases c y , respectivamente.
Forme una nueva matriz 1 que se obtiene yuxtaponiendo y 1
1 = [, 1]
y hagamos reduccin Gaussiana (forma escalonada reducida por renglones)
98 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
Hagmoslo:
=
_
_
1 0 0
1 1 0
1 1 1
_
_
1 =
_
_
1 1 1
0 2 2
1 1 2
_
_
C =
_
_
1 0 0 1 1 1
1 1 0 0 2 2
1 1 1 1 1 2
_
_
y haciendo la reduccin
1 =
_
_
1 0 0 1 1 1
0 1 0 1 1 1
0 0 1 1 1 0
_
_
La matriz buscada es simplemente el bloque derecho
'
o
o
=
_
_
1 1 1
1 1 1
1 1 0
_
_
Lo present con un ejemplo pero funciona siempre en espacios R
n
o C
n
, que
son todos los espacios de dimensin nita, en vista del principio del isomorsmo
(que es el tema que sigue).
12.11. Isomorsmos y el principio del isomors-
mo
Recuerde de su curso de lgebra que si y 1 son conjuntos y
) : 1
es un mapeo entre y 1, se llama dominio de ) y 1 es el codominio de ).
Decimos que ) es inyectiva si \r, j
)(r) = )(j) = r = j
o, lo que es lo mismo
r ,= j = )(r) ,= )(j)
y decimos que ) es suprayectiva si \j 1 r tal que )(r) = j.
Denicin 121 Un mapeo ) : 1 es una biyeccin (o es una funcin
biyectiva) si y slo si es inyectiva y suprayectiva.
12.11. ISOMORFISMOS Y EL PRINCIPIO DEL ISOMORFISMO 99
La importancia de las biyecciones reside en el hecho elemental de que un
mapeo tiene un mapeo inverso si y slo si es una biyeccin.
Se dice que dos espacios vectoriales son isomrcos (o isomorfos) cuando
son bsicamente el mismo espacio en lo que a estructura algebraica se reere.
Esto ocurre cuando estn relacionados por una biyeccin que tambin preserva
la estructura algebraica; ms rigurosamente, tenemos la denicin:
Denicin 122 Decimos que dos espacios \ y \ son isomrcos (y escribimos
\ ~ \ ) si hay un mapeo c : \ \ tal que: 1) c es una biyeccin, 2) para
cualesquiera n, en \ tenemos que c(n +) = c(n) +c() y 3) para cualquier
nmero c y cualquier vector n tenemos que c(cn) = cc(n). En este caso el
mapeo c se llama isomorsmo entre \ y \.
Teorema 123 La relacin de isomorsmo ~ entre espacios es una relacin de
equivalencia.
Demostracin. a) \ ~ \ puesto que c : \ \ y con regla de correspondencia
c(r) = r \r (el mapeo identidad) claramente satisface las condiciones para ser
un isomorsmo.
/) Si \ ~ \ entonces hay un isomorsmo c : \ \ y el mapeo c
1
:
\ \ es tambin un isomorsmo (la demostracin es mejor posponerla hasta
que veamos que la inversa de una funcin que cumple las propiedades 2 y 3
tambin las cumple).
c) Si l ~ \ y \ ~ \ entonces hay isomorsmos c : l \ y c : \ \
y el mapeo compuesto c c : l \ es tambin un isomorsmo (tambinesto
se ver ms adelante). Consecuentemente l ~ \.
Teorema 124 Si \ es un espacio vectorial : dimensional con una base c en-
tonces el mapeo c : \ R
n
(o c : \ C
n
si \ es complejo) y dado por
c() = []
o
es un isomorsmo, se llama isomorsmo de coordenadas.
Demostracin. a) Sea c =
1
,
2
..
n
, entonces para cualesquiera , n \
tenemos que
=
n

I=1
c
I

I
n =
n

I=1
d
I

I
entonces
+n =
n

I=1
(c
I
+d
I
)
I
lo cual quiere decir que
[ +n]
o
= []
o
+ [n]
o
100 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
/) si es un nmero y =

n
I=1
c
I

I
entonces
=
n

I=1
(c
I
)
I
lo cual quiere decir que
[]
o
= []
o
c) El mapeo es inyectivo puesto que []
o
= [n]
o
implica que
=
n

I=1
c
I

I
= n
d) el mapeo es suprayectivo, puesto que dado
_
_
_
_
_
c
1
c
2
.
.
.
c
n
_
_
_
_
_
hay un vector \
tal que []
o
=
_
_
_
_
_
c
1
c
2
.
.
.
c
n
_
_
_
_
_
, a saber, =

n
I=1
c
I

I
.
Corolario 125 Cualesquiera dos espacios \ y \ de la misma dimensin nita
son isomrcos.
Demostracin. Sea : = dim(\ ) = dim(\) y sea 1 R
n
o C
n
dependiendo de
si el espacio es real o complejo. Entonces \ ~ 1 y \ ~ 1 , pero como ~ es una
relacin de equivalencia, por la simetra, \ ~ 1 y 1 ~ \ y por la transitividad
\ ~ \.
Dos espacios isomrcos son el mismo espacio en lo que a estructura alge-
braica se reere. Por esta razn, cuando resolvemos cualquier problema en un
espacio dado, podemos, si queremos, mapear el espacio a otro espacio isomr-
co, resolver el problema en el nuevo espacio y regresar al espacio original con la
respuesta. Esta aseveracin pragmtica se conoce como principio del isomor-
smo.
Debe enfatizarse que dos espacios isomrcos son lo mismo slo en lo que
a estructura algebraica ( de espacio vectorial) se reere. Por ejemplo, 1
2
y R
3
son isomorfos pero en 1
2
podemos diferenciar e integrar los vectores en tanto
que en R
3
no (excepto en un sentido trivial). Son similares slo como espacios
vectoriales, por ejemplo en '(2, 2) podemos multiplicar los vectores y obtener
un anillo, pero en R
4
(que es isomorfo a '(2, 2)) normalmente nos restringimos
a la estructura de espacio vectorial.
Es tambin interesante notar que un isomorsmo mapea combinaciones lin-
eales en combinaciones lineales (y con los mismos coecientes), vectores lin-
ealmnete independientes en vectores linealmente independientes y vectores lin-
ealmente dependientes en vectores linealmente dependientes.
12.12. ESPACIOS RENGLN Y COLUMNA 101
Figura 12.1: Ilustracin del cambio de base.
12.11.1. cambio de base de nuevo
Como ya hemos visto, al elegir una base para \ (digamos, la base 1), au-
tomticamente tenemos un isomorsmo (de coordenadas) c
1
: \ 1
n
(aqu
1 representa al campo sobre el cual tenemos el espacio \ ). Similarmente, para
otra base C tendremos un isomorsmo c
c
: \ 1
n
. El mapeo compuesto
c
c
c
1
1
: 1
n
1
n
es tambin un isomorsmo entre 1
n
y l mismo. La
situacin se representa de manera esquemtica en el diagrama siguiente:
Ms adelante veremos cul es el parentesco entre c
c
c
1
1
y la matrz de
transicin.
12.12. Espacios rengln y columna
Considere una matriz real o compleja de :: donde
=
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_
El isimo rengln de es el vector de R
n
o C
n
denido por
1
I
() = (a
I1
, a
I2
, ...a
In
)
en tanto que la ,sima columna de es el vector de R
n
o C
n
denido por
C

() =
_
_
_
_
_
a
1
a
2
.
.
.
a
n
_
_
_
_
_
de modo que puede ser vista de las siguiente tres manera equivalentes:
102 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
Como un arreglo rectangular de :: nmeros.
Como una coleccin de : vectores en R
n
o C
n
.
Como una coleccin de : vectores en R
n
o C
n
.
En adicin introducimos la siguiente denicin:
Denicin 126 El espacio rengln de la matriz real o compleja de : :
(1c:()) es el subespacio de R
n
o C
n
generado por los : renglones de .
Denicin 127 El espacio columna de la matriz real o compleja de : :
(Co|()) es el subespacio de R
n
o C
n
generado por las : columnas de .
Comentario 128 Debe de notarse que 1c:()() = Co|(
T
) y que 1c:()(
T
) =
Co|() pues la operacin de transposicin intercambia renglones y columnas.
Los conceptos de espacio rengln y espacio columna tienen una estrecha
conexin con las operaciones elementales sobre las matrices y los mtodos de
Gauss y Gauss-Jordan para resolver sistemas de ecuaciones lineales. recuerde
que las operaciones elementales sobre una matriz son de los siguientes tipos:
intercambiar cualesquiera dos renglones
multiplicar cualquier rengln (visto como si fuera un vector de R
n
o C
n
)
por cualquier nmero c.que no sea cero
agregar a cualquier rengln cualquier mltiplo de otro renglon.
Tenemos un teorema importante:
Teorema 129 Las operaciones elementales sobre una matriz no cambian su
espacio rengln 1c:().
Demostracin. a)Al intercambiar dos renglones tenemos el mismo generador.
/) Al multiplicar un vector (digamos que el

) por c ,= 0 vemos que toda


combinacin lineal =

n
I=1
c
I

I
se puede escribir con un trmino (
cj
o
)(c)
c) La dejamos al lector.
Sorprendentemente, las dimensiones de los espacios rengln y columna de
una matriz siempre son iguales:
Teorema 130 Sea una matriz cualquiera, real o compleja. La dimensin de
su espacio rengln y de su espacio columna son iguales. Este nmero comn se
llama rango de la matriz.
Ejemplo 131 Hallar una base y la dimensin del espacio rengln de
=
_
_
1 3 4 2
2 1 3 1
3 4 7 1
_
_
12.12. ESPACIOS RENGLN Y COLUMNA 103
Como
~
_
_
1 3 4 2
0 5 5 5
3 4 7 1
_
_
~
_
_
1 3 4 2
0 5 5 5
0 5 5 5
_
_
~
_
_
1 3 4 2
0 1 1 1
0 1 1 1
_
_
~
_
_
1 3 4 2
0 1 1 1
0 0 0 0
_
_
~
_
_
1 0 1 1
0 1 1 1
0 0 0 0
_
_
tenemos que el espacio rengln de tambin es generado por
(1, 0, 1, 1), (0, 1, 1, 1)
(el vector cero puede omitirse siempre de una lista de generadores). Adems, a
causa del esclonamiento los vectores no cero que quedan en la forma escalonada
reducida por renglones son independientes, pues
c(1, 0, 1, 1) +,(0, 1, 1, 1) = (0, 0, 0, 0)
implica que
(c, ,, c +,, c +,) = (0, 0, 0, 0)
y c = , = 0 con lo que concluimos que los vectores son independientes. Luego
la base pedida es (1, 0, 1, 1), (0, 1, 1, 1) y el espacio es de dimensin dos.
Comentario 132 Los vectores rengln no cero de una forma escalonada reduci-
da por renglones son, siempre, linealmente independientes gracias al escalamien-
to. Lo mismo ocurre con los vectores no cero de cualquier forma escalonada.
Ejemplo 133 Determine una base para el subespacio \ de R
5
generado por

1
= (1, 2, 1, 4, 3)

2
= (3, 1, 2, 2, 4)

3
= (2, 1, 1, 1, 0)

4
= (2, 4, 6, 11, 5)
104 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
Como \ es tambin el espacio rengln de
=
_
_
_
_
1 2 1 4 3
3 1 2 2 4
2 1 1 1 0
2 4 6 11 5
_
_
_
_
y
~
_
_
_
_
1 2 1 4 3
0 5 5 10 5
0 3 3 9 6
0 8 8 19 11
_
_
_
_
~
_
_
_
_
1 2 1 4 3
0 1 1 2 1
0 1 1 3 2
0 8 8 19 11
_
_
_
_
~
_
_
_
_
1 0 1 0 1
0 1 1 2 1
0 0 0 1 1
0 0 0 3 3
_
_
_
_
~
_
_
_
_
1 0 1 0 1
0 1 1 2 1
0 0 0 1 1
0 0 0 1 1
_
_
_
_
~
_
_
_
_
1 0 1 0 1
0 1 1 2 1
0 0 0 1 1
0 0 0 0 0
_
_
_
_
~
_
_
_
_
1 0 1 0 1
0 1 1 0 1
0 0 0 1 1
0 0 0 0 0
_
_
_
_
de modo que una base de \ es
(1, 0, 1, 0, 1), (0, 1, 1, 0, 1), (0, 0, 0, 1, 1)
y dim(\ ) = 3.
Comentario 134 Por todo lo anterior podemos decir que al ir haciendo la re-
duccin de una matriz vamos cambiando de generador (en cada paso intermedio
los renglones siguen siendo generadores del mismo espacio rengln). Al nal
acabamos con una base, la base puede tener menos elementos que el conjunto
generador inicial, esto se reeja en el hecho de que la forma escalonada tiene
algunos renglones que constan exclusivamente de ceros.
12.12. ESPACIOS RENGLN Y COLUMNA 105
Comentario 135 Nosotros hemos seguido la poltica de hacer reducciones a
forma escalonada reducida por renglones pero lo anteriormente dicho sobre es-
pacios rengln y sus bases tambin se aplica a las formas escalonadas. Los ren-
glones no cero de cualquier forma escalonada (reducida o no) forman una base
del espacio rengln.
Considere el espacio '
22
(R) de las matrices cuadradas de 22 con entradas
reales y el subespacio \ generado por
o =
__
1 2
3 4
_
,
_
7 4
1 0
_
,
_
4 3
1 2
__
proporcione una base para \.
Solucin 136 Seleccionamos una base de '
22
(R), a saber, la base cannica
, =
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
Usamos el isomorsmo de coordenadas c : '
22
(R) R
4
denido mediante
c(:) = [:]
o
Bajo el isomorsmo, la imagen de o es
o
t
= (1, 2, 3, 4), (7, 4, 1, 0), (4, 3, 1, 2)
Por ello el espacio generado por o
t
es el espacio rengln de la matriz
' =
_
_
1 2 3 4
7 4 1 0
4 3 1 2
_
_
Usando operaciones elementales reducimos ' para obtener
_
_
1 0
7
5

8
5
0 1
11
5
14
5
0 0 0 0
_
_
Por ello el espacio generado por o
t
tiene la base
=
_
(1, 0,
7
5
,
8
5
), (0, 1,
11
5
,
14
5
)
_
Usando el isomorsmo inverso resulta que una base de \ es
__
1 0
7
5
8
5
_
,
_
0 1
11
5
14
5
__
106 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
12.13. La estructura de los sistemas inhomog-
neos.
Considere el sistema lineal inhomogneo
a
11
r
1
+a
12
r
2
+...a
1n
r
n
= /
1
a
21
r
1
+a
22
r
2
+..a
2n
r
n
= /
2
.
.
.
a
n1
r
1
+a
n2
r
2
+..a
nn
r
n
= /
n
donde no todos los nmeros /
I
son cero, y re-escribmoslo usando las matrices
=
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_
A =
_
_
_
_
_
r
1
r
2
.
.
.
r
n
_
_
_
_
_
/ =
_
_
_
_
_
/
1
/
2
.
.
.
/
n
_
_
_
_
_
como
A = /
El conjunto solucin de este sistema es el conjunto
o = A 1
n
[ A = /
donde 1 es R
n
o C
n
segn sea el caso.
Teorema 137 o no es un subespacio de 1
n
.
Demostracin. a) claramente o 1
n
/)es bien sabido que algunos sistemas de ecuaciones lineales inhomogneos
no tienen soluciones (sistemas inconsistentes). Consecuentemente no siempre es
el caso que o ,= c.
c) Sean r, j o, entonces r = / y j = / de modo que (r + j) =
r +j = / +/ = 2/ y no puede ocurrir que (r +j) = / a menos que / = 0,
en cuyo caso el sistema era homogneo. Concluimos que o no es cerrado bajo
adicin de vectores.
12.14. ESPACIOS DE FUNCIONES, WRONSKIANOS 107
d) Sean r o y un nmero. Entonces r = / por lo que (r) = r = /
y no puede ocurrir que (r) = / a menos que / = /, esto es, a menos que
/ = 0 (en cuyo caso el sistema era homogneo) o = 1 . En este ltimo caso o
no es cerrado bajo multiplicacin por escalares.
12.14. Espacios de funciones, Wronskianos
Considere el conjunto de todas las funciones que tienen como dominio el
intervalo cerrado [a, /] R y codominio R
T = q : [a, /] R
Es posible denir una suma en T. Para ), q T dena () +q) : [a, /] R
por medio de
() +q) (r) = )(r) +q(r)
para toda r [a, /].
Tambin se puede denir una multiplicacin de nmeros reales por elementos
de T. Para ) T y c R dena (c)) : [a, /] R mediante
(c))(r) = c()(r))
para toda r [a, /].
Resulta que, T con estas operaciones, es un espacio vectorial real.
Teorema 138 T, con las operaciones recin denidas, es un espacio vectorial
real.
Demostracin. 1)por denicin, si ), q T entonces ) +q T
2)puesto que () +q) (r) = )(r) +q(r) = q(r) +)(r) = (q +))(r) se sigue que
) +q = q +) para cualesquiera ), q T.
3) dado que () + (q +/))(r) = )(r) + (q +/)(r) = )(r) +q(r) +/(r) =
() +q)(r) +/(r) = (() +q) +/)(r) tenemos que () + (q +/)) = (() +q) +/)
para cualesquiera ), q, / T.
4) dena 0 : [a, /] R mediante 0(r) = 0. Entonces, claramente, ) + 0 =
0 +) = ) para toda ) T.
5) dada ) T dena ()) : [a, /] R mediante ())(r) = )(r). Entonces
es fcil ver que ) + ()) = ()) +) = 0 para toda ) T.
6) por denicin, si ) T y c R entonces c) T
7) sean c, , R, y ) T. Como ((c+,)))(r) = (c+,))(r) = c)(r)+,)(r) =
(c) +,))(r) se desprende que (c +,)) = c) +,) para cualesquiera c, , R
y ) T.
8)Como
(c() +q))(r) = c(() +q)(r))
= c()(r) +q(r)) = c)(r) +cq(r)
= (c) +cq) (r)
108 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
, se desprende que c() +q) = c) +cq para toda c R y cualesquiera ), q T.
9)Puesto que (c(,)))(r) = c((,))(r)) = c(,)(r)) = (c,))(r) = ((c,)))(r)
tenemos que c(,)) = (c,)) para cualesquiera c, , R y ) T.
10)Como (1))(r) = 1()(r)) = )(r) se sigue que 1) = ) para toda ) T.
Algunos de los subespacios importantes de T son los subespacios de todas
las funciones de [a, /] R que son contnuas, diferenciables, integrables, etc.
El espacio T no es de dimensin nita, esto se puede ver considerando la
secuencia innita de funciones linealmente independientes 1, r, r
2
, .....
12.14.1. dependencia e independencia lineal de funciones.
Considere el espacio T o cualquiera de sus subespacios y c = )
1
, )
2
..)
n

T .El conjunto c es linealmente dependiente si y slo si hay nmeros r
1
, r
2
..r
n
, no todos cero, tales que
r
1
)
1
+r
2
)
2
+...r
n
)
n
= 0
pero esta ecuacin implica que para toda r [a, /]
r
1
)
1
(r) +r
2
)
2
(r) +...r
n
)
n
(r) = 0
dando, de facto, un nmero innito de condiciones sobre los coecientes.
mtodo 1 (por inspeccin)
Este mtodo se puede explicar mejor con un ejemplo.
Ejemplo 139 Determine si el conjunto cos
2
(r), sin
2
(r), 5 es linealmente de-
pendiente o linealmente independiente.
Como :c:
2
(r) +cos
2
(r) = 1 tenemos que 5:c:
2
(r) +5 cos
2
(r) = 5 o 5:c:
2
(r) +
5 cos
2
(r) 5 = 0 probando que el conjunto es dependiente.
El mtodo depende de la posibilidad de conocer una relacin entre las fun-
ciones. Por ello las siguientes relaciones son a menudo tiles:
:c:
2
(r) + cos
2
(r) = 1
:c:(r +j) = :c:(r) cos(j) + cos(r):c:(j)
co:(r +j) = cos(r) cos(j) :c:(r):c:(j)
:c:(2r) = 2:c:(r) cos(r)
cos(2r) = cos
2
(r) :c:
2
(r) = 1 2:c:
2
(r) = 2 cos
2
(r) 1
log(rj) = log(r) + log(j)
exp(r +j) = exp(r) exp(j)
12.14. ESPACIOS DE FUNCIONES, WRONSKIANOS 109
etc. Casi cualquier identidad trigonomtrica, exponencial o logartmica puede
ser til.
Note que este mtodo puede servirnos para descubrir que el conjunto es
dependiente pero que no puede ser usado para establecer que el conjunto es
independiente.
mtodo 2 (escoja valores para las funciones).
De nuevo, esto se explica mejor con un ejemplo.
Ejemplo 140 Encuentre si el conjunto r :c:(r), cos(r) es linealmente de-
pendiente o linealmente independiente.
Tome una combinacin lineal c r :c:(r) + , cos(r) = 0 . Como esto debe de
valer para cualquier nmero real r se vale en particular para r = 0 por lo que
, = 0 . Entonces c r :c:(r) = 0 y tomando esta vez r =
t
2
tenemos que
ot
2
= 0
y c = 0. Consecuentemente, el conjunto es linealmente independiente.
Este mtodo consiste en escojer valores arbitrarios (pero escogidos inteligen-
temente!) para la variable independiente de modo que podamos concluir que
todos los coecientes de la combinacin lineal son cero. Note que este mtodo
puede ser usado para descubrir que el conjunto es linealmente independiente
pero no puede ser usado para demostrar que es linealmente dependiente. Este
mtodo, al igual que el precedente, no siempre funciona.
Vale la pena ver en algn detalle porqu el mtodo no siempre sirve. Suponga
que el conjunto es
o = )
1
(r), )
2
(r), ...)
n
(r)
y que usamos los valores de r dados por r
1
, r
2
...r
n
.
Si las ecuaciones de dependencia
)
1
(r
1
)c
1
+)
2
(r
1
)c
2
+...)
n
(r
1
)c
n
= 0
)
1
(r
2
)c
1
+)
2
(r
2
)c
2
+...)
n
(r
2
)c
n
= 0
.
.
.
)
1
(r
n
)c
1
+)
2
(r
n
)c
2
+...)
n
(r
n
)c
n
= 0
implican que todas las c
I
son cero, entonces las funciones son independientes.
Aunque otra eleccin de las r

tuviera soluciones no triviales, como las ecua-


ciones deben de valer para toda r, la conclusin no vara, son independientes.
Pero si con la eleccin original hay soluciones no triviales, eso no garantiza
la dependencia pues existe la posibilidad de que otra eleccin de las r

implique
que la nica solucin sea la trivial.
As que jams use este mtodo para probar dependencia.
el mtodo del Wronskiano.
Hay un tercer mtodo de gran importancia en el contexto de las ecuaciones
diferenciales.
110 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
Suponga que c = )
1
, )
2
..)
n
T consiste de funciones que son diferencia-
bles al menos : 1 veces en [a, /]. Entonces, tomando derivadas sucesivamente
de la combinacin lineal r
1
)
1
+r
2
)
2
+...r
n
)
n
= 0 tendremos
r
1
)
1
+r
2
)
2
+...r
n
)
n
= 0
r
1
d)
1
dr
+r
2
d)
2
dr
+...r
n
d)
n
dr
= 0
r
1
d
2
)
1
dr
2
+r
2
d
2
)
2
dr
2
+...r
n
d
2
)
n
dr
2
= 0
.
.
.
r
1
d
n1
)
1
dr
n1
+r
2
d
n1
)
2
dr
n1
+...r
n
d
n1
)
n
dr
n1
= 0
dando un sistema lineal homogneo de : ecuaciones en : incgnitas r
1
, r
2
...r
n
.
Pero semejante sistema tiene una solucin no trivial si y slo si el determinante
de su matriz de coecientes es cero, por ello tenemos que si para alguna r [a, /]
det
_
_
_
_
_
_
_
_
)
1
)
2
... )
n
J}1
Jr
J}2
Jr
...
J}n
Jr
J
2
}1
Jr
2
J
2
}2
Jr
2
...
J
2
}n
Jr
2
.
.
.
.
.
. ...
.
.
.
J
n1
}1
Jr
n1
J
n1
}2
Jr
n1
...
J
n1
}n
Jr
n1
_
_
_
_
_
_
_
_
,= 0
entonces la nica solucin posible es la trivial y las funciones son linealmente
independientes. Esto es equivalente a decir que si las funciones son dependientes
entonces el determinante es cero para todas las r en el dominio de las funciones.
El Wronskiano de las funciones, denotado por \()
1
(r), )
2
(r)...)
n
(r)) se de-
ne como
\()
1
(r), )
2
(r)...)
n
(r)) = det
_
_
_
_
_
_
_
_
)
1
)
2
... )
n
J}1
Jr
J}2
Jr
...
J}n
Jr
J
2
}1
Jr
2
J
2
}2
Jr
2
...
J
2
}n
Jr
2
.
.
.
.
.
. ...
.
.
.
J
n1
}1
Jr
n1
J
n1
}2
Jr
n1
...
J
n1
}n
Jr
n1
_
_
_
_
_
_
_
_
y si para alguna r [a, /] \()
1
(r), )
2
(r)...)
n
(r) ,= 0 entonces las funciones
son linealmente independientes (si las funciones son linealmente dependientes
entonces \()
1
(r), )
2
(r)...)
n
(r) = 0 \r).
El converso no es, en general, verdadero. Si \()
1
(r), )
2
(r)...)
n
(r) = 0 \r
las ecuaciones ciertamente tienen soluciones no triviales pero stas podran ser
diferentes para diferentes valores de r como se ilustra en el siguiente ejemplo.
Ejemplo 141 Considere las funciones ) : (, ) R y q : (, ) R
denidas mediante
)(r) = r
2
q(r) =[ r [ r
12.14. ESPACIOS DE FUNCIONES, WRONSKIANOS 111
Entonces
\()(r), q(r)) = det
_
r
2
[ r [ r
2r 2 [ r [
_
2 [ r [ r
2
2 [ r [ r
2
= 0
pero si las funciones satiscieran r
1
)(r) +r
2
q(r) = 0, entonces usando nuestro
mtodo dos con r = 1 y r = 1 tendramos
r
1
r
2
= 0
r
1
+r
2
= 0
de modo que r
1
= r
2
= 0 probando que las funciones ) y q son linealmente
independientes. De hecho ) = q en [0, ) y ) = q in (, 0] .
Sin embargo si hay otras restriccciones impuestas sobre )
1
y )
2
(como la de
ser soluciones de ciertas ecuaciones diferenciales), la condicin del Wronskiano
puede ser tanto necesaria como suciente.
Como ejemplo sencillo, suponga que para las funciones ) y q
\()(r), q(r)) = det
_
)(r) q(r)
J}
Jr
J
Jr
_
= )(r)
dq
dr
q(r)
d)
dr
= 0
y que )(r) ,= 0 para toda r en su dominio, entonces
d
(r)
}(r)
dr
=
)(r)
J(r)
Jr
q(r)
J}(r)
Jr
)(r)
2
=
0
)(r)
2
= 0
e integrando
q(r)
)(r)
=
para alguna constante real . Entonces 1q(r) )(r) = 0 y las funciones son
dependientes. En el ejemplo de ms arriba )(0) = q(0) = 0 y esta demostracin
no se aplica.
Comentario 142 Si tenemos una funcin ) : 1 y C entonces
podemos denir una funcin q : C 1 mediante la regla de correspondencia
q(r) = )(r) para toda r C. La funcin q recibe el nombre de restriccin
de ) al conjunto C y suele denotarse como q = ) [
c
. A veces los libros dicen
cosas como las funciones son independientes en (10, 10) pero dependientes
en (0, 10), e incluso barbaridades como independencia o dependencia en un
punto. Lo correcto podra ser las funciones ) y / son independientes pero sus
restricciones ) [
c
y q [
c
son dependientes.
112 CAPTULO 12. CONCEPTO DE ESPACIO VECTORIAL
Ejemplo 143 Considere el conjunto :c:(r), cos(r) . El Wronskiano ser
n(:c:(r), cos(r)) = det
_
:c:(r) cos(r)
cos(r) :c:(r)
_
= :c:
2
(r) cos
2
(r)
= 1 ,= 0
Por lo tanto las funciones son independientes.
Parte V
Transformaciones lineales
113
115
En buena medida el lgebra lineal estudia los espacios vectoriales y las trans-
formaciones lineales entre espacios, tema al que nos dedicamos en esta parte.
La importancia de las transformaciones lineales radica en que preservan
estructura, en el sentido que ms adelante se ver.
116
Captulo 13
Transformaciones lineales
Sean \ y \ espacios vectoriales sobre un mismo campo 1. Una transfor-
macin de \ a \ es cualquier funcin
T : \ \
(lo cual tambin suele escribirse como
\
T

\
)
Las transformaciones son, pues, funciones entre espacios vectoriales.
Cuando \ = \ se dice que T es un operador.
Comentario 144 Algunos sinnimos de funcin:mapeo, aplicacin (este l-
timo vocablo es usado por los autores espaoles). Toda transformacin es una
funcin pero no toda funcin es una transformacin.
Sean \ y \ espacios vectoriales. Una transformacin lineal de \ a \ es
una transformacin T : \ \ que satisface las siguientes dos propiedades:
Para todos , n en \ tenemos que T( +n) = T() +T(n)
Para todo en \ y todos los c en 1 tenemos que T(c) = cT()
Cuando \ = \ se suele llamar a T operador lineal en \ .
Comentario 145 He aqu un ejemplo de transformacin que satisface la primera
condicin pero no la segunda:
T : C C
T(.) = .
pues
T(a +/) = (a +/) = a +/ = T(a) +T(/)
T(,/) = ,/ = , / = ,T(/) ,= ,T(/)
117
118 CAPTULO 13. TRANSFORMACIONES LINEALES
Comentario 146 Un ejemplo de transformacin que cumple la segunda condi-
cin mas no la primera sera:
T : R
2
R
2
T(r, j) =
_
(r, j) si r = 0 o j = 0
(0, 0) en los restantes casos
Comentario 147 Un isomorsmo es una transformacin lineal biyectiva.
Comentario 148 Se dice que las transformaciones lineales preservan estruc-
tura porque mapean una suma en otra suma y un producto por nmeros en otro
producto por nmeros.
Comentario 149 Ya hemos mencionado que en matemticas cuando uno es-
tudia estructuras algebraicas considera luego las subestructuras. Tambin ocurre
que uno indaga los mapeos que preservan estructura, a ellos se les llama, en
general, morsmos. Si el morsmo tiene el mismo dominio y codominio puede
ser llamado operador lineal o endomorsmo.
Comentario 150 Un endomorsmo que tambin es isomorsmo se llama au-
tomorsmo.
13.0.2. algunas propiedades de las transformaciones lin-
eales.
Teorema 151 Sean \ y \ espacios vectoriales y T : \ \ una transforma-
cin lineal. Entonces:
T(
^
0) =
^
0 (aqu
^
0 es el vector cero para distinguirlo del escalar cero)
T(a) = T(a)
T(a /) = T(a) T(/)
T(

n
I=1
c
I

I
) =

n
I=1
c
I
T(
I
) donde los c
I
1 y
I
\ (i = 1, 2...:)
Pruebas:
T(
^
0) = T(0
^
0) = 0T(
^
0) =
^
0
T(a) = T((1)a) = (1)T(a) = T(a)
T(a /) = T(a +(1)/) = T(a) +T((1)/) = T(a) +(1)T(/) = T(a)
T(/)
(demostracin por induccin) si : = 1 el teorema es cierto pues, en este
caso T(

1
I=1
c
I

I
) = T(c
1

1
) = c
1
T(
1
) =

1
I=1
c
I
T(
I
).
Suponga ahora que el teorema es cierto para : = /, entonces T(

|+1
I=1
c
I

I
) =
T(

|
I=1
c
I

I
+c
|+1

|+1
) = T(

|
I=1
c
I

I
) +T(c
|+1

|+1
) =

|
I=1
c
I
T(
I
) +
c
|+1
T(
|+1
)
=

|+1
I=1
c
I
T(
I
) completando el paso inductivo.
13.1. ALGUNAS TRANSFORMACIONES IMPORTANTES 119
13.1. algunas transformaciones importantes
La identidad 1
\
: \ \ en \ se dene como
1
\
= \ \
y la transformacin cero
^
0 : \ \ se dene mediante
^
0 = 0 \ \
Como
1
\
(a +/) = a +/ = 1
\
(a) +1
\
(/)
1
\
(,a) = ,a = ,(1
\
(a))
y
^
0(a +/) = 0 =
^
0a +
^
0/
^
0(,a) = 0 = ,0 = ,
^
0(a)
tenemos que tanto
^
0 como 1
\
son transformaciones lineales.
Hay otro tipo de transformaciones cuya importancia ser evidente ms tarde.
Considere los espacios R
n
y R
n
(o C
n
y C
n
) y una matriz real (o compleja)
de ::. Denamos la transformacin
T : R
n
R
n
(o T : C
n
C
n
segn el caso) mediante
T(r) = r
en donde el elemento r R
n
se visualiza como un vector columna, es decir,
como matriz de : 1 de modo que r es el producto de dos matrices, una de
: : y otra de : 1 dando por rersultado una matriz de : 1 (o sea, un
vector de R
n
). Esta transformacin, llamada matriz por vector, es lineal pues
por las propiedades de la multiplicacin matricial tenemos que
T(r +j) = (r +j) = r +j = T(r) +T(j)
T(,r) = (,r) = ,r = ,T(r)
13.1.1. ejemplos de transformaciones lineales.
Ejemplo 152 Considere T : R
3
R
2
denida mediante
T(r, j, .) = (2r + 3j + 4., r + 2j +.)
es T una transformacin lineal?
a) Considere a = (r, j, .) y / = (r
t
, j
t
, .
t
). Entonces a+/ = (r+r
t
, j+j
t
, .+.
t
)
120 CAPTULO 13. TRANSFORMACIONES LINEALES
y
T(a) = (2r + 3j + 4., r + 2j +.)
T(/) = (2r
t
+ 3j
t
+ 4.
t
, r
t
+ 2j
t
+.
t
)
T(a) +T(/)
= (2r + 3j + 4. + 2r
t
+ 3j
t
+ 4.
t
, r + 2j +. +r
t
+ 2j
t
+.
t
)
T(a +/)
= (2(r +r
t
) + 3(j +j
t
) + 4(. +.
t
), (r +r
t
) + 2(j +j
t
) + (. +.
t
))
= (2r + 3j + 4. + 2r
t
+ 3j
t
+ 4.
t
, r + 2j +. +r
t
+ 2j
t
+.
t
)
con lo que T(a +/) = T(a) +T(/)
b)Sea c R. Entonces si a = (r, j, .) tendremos que ca = (cr, cj, c.) y
T(ca) = (2cr + 3cj + 4c., cr + 2cj +c.)
= c((2r + 3j + 4., r + 2j +.))
= cT(a)
con lo que T(ca) = cT(a) y la transformacin es lineal.
Ejemplo 153 Del ejemplo anterior, si T : R
3
R
2
est dada por T(r, j, .) =
(2r + 3j 4., r + 2j +.) podemos decir que, como
_
2 3 4
1 2 1
_
_
_
r
j
.
_
_
=
_
2r + 3j + 4.
r + 2j +.
_
la transformacin lineal T es de la forma r con =
_
2 3 4
1 2 1
_
.
Comentario 154 Espero que el lector no se sienta confundido por el hecho de
que en algn momento un vector de (digamos) R
3
se escriba como = (r, j, .)
o como =
_
_
r
j
.
_
_
o incluso = (r j .). Lo que dene al vector de R
3
es
el tener exactamente tres componentes y ser stas nmeros del campo 1. Los
signos de agrupacin, los separadores o la disposicin de los elementos (vertical,
horizontal etc.) son matemticamente irrelevantes pero, segn el contexto, una
notacin puede ser ms conveniente que otra.
Ejemplo 155 En 1
n
considere la transformacin T : 1
n
1
n
denida medi-
ante
T(1(r)) =
d1(r)
dr
Como
a) T(1(r) +Q(r)) =
J(1(r)+Q(r))
Jr
=
J1(r)
Jr
+
JQ(r)
Jr
= T(1(r)) +T(Q(r)) y
b) T(,1(r)) =
Jo1(r)
Jr
= ,
J1(r)
Jr
= ,T(1(r)) tenemos que T es lineal. Hemos
13.1. ALGUNAS TRANSFORMACIONES IMPORTANTES 121
usado varias propiedades comunes de la derivada, tales como el hecho de que la
derivada de una suma de funciones es la suma de las derivadas y que la derivada
del producto de un nmero por una funcin es el nmero por la derivada de la
funcin.
Ejercicio 156 Considere T : 1
n
R denida mediante
T(1(r)) =
_
1
0
1(r)dr
es T lineal?
Ya hemos visto que una transformacin lineal mapea una combinacin lineal
en otra.
Teorema 157 Sean \ y \ espacios vectoriales y T : \ \ una transforma-
cin lineal. Sea
1
,
2
...
n
\ un conjunto linealmente dependiente. Entonces
T(
1
), T(
2
)...T(
n
) tambin es linealmente dependiente.
Demostracin. Como
1
,
2
...
n
es linealmente dependiente, existen nmeros

1
,
2
, ...
n
, no todos cero, tales que
n

I=1

I
= 0
y por lo tanto
T
_
n

I=1

I
_
= 0
_
n

I=1

I
T(
I
)
_
= 0
probando que T(
1
), T(
2
)...T(
n
) es linealmente dependiente.
De aqu se sigue que si T(
1
), T(
2
)...T(
n
) es linealmente independiente,
entonces
1
,
2
...
n
tiene que ser linealmente independiente.
El converso del teorema no es cierto como se puede ver con un contraejemplo:
Ejemplo 158 Considere T : R
2
R
2
dada por T(r, j) = (r, 0), entonces el
conjunto (1, 0), (0, 1) es independiente pero T(1, 0), T(0, 1) = (1, 0), (0, 0)
es dependiente.
Para especicar completamente una transformacin lineal basta con dar sus
valores en una base cualquiera, como se muestra en el siguiente teorema:
Teorema 159 Una transformacin lineal queda determinada por sus valores en
una base cualquiera.
122 CAPTULO 13. TRANSFORMACIONES LINEALES
Demostracin. Sean \ y \ espacios vectoriales y T : \ \ una transfor-
macin lineal. Sea
=
1
,
2
, ...
n

una base de \ . Llamemos n


I
= T(
I
). Entonces si \ tendremos que
=
n

I=1
c
I

I
donde c
1
, c
2
, ..c
n
son las coordenadas de en la base . Por lo tanto
T() = T
_
n

I=1
c
I

I
_
=
n

I=1
T(c
I

I
)
=
n

I=1
c
I
T(
I
) =
n

I=1
c
I
n
I
lo cual quiere decir que el valor de T() est determinado completamente por
las coordenadas de y los valores de T en la base.
Ejemplo 160 cmo son las transformaciones lineales j de un campo 1 a un
espacio vectorial \ (sobre el campo 1)? Es fcil ver que
j(r) = j(r1) = rj(1)
por lo que las transformaciones lineales de 1 a \ son multiplicacin por un
vector j(1). Conversamente, si c(r) = r con \ c es lineal. Hay una
correspondencia biunvoca entre los mapeos lineales j : 1 \ y los vectores de
\ .
13.2. ncleo e imagen
Denicin 161 Sean \ y \ espacios vectoriales y T : \ \ una transfor-
macin lineal
El ncleo (kernel) de T se dene como
(T) = ker(T) = r \ [ Tr = 0
La imagen (recorrido,rango ) de T se dene como
Im(T) = Tr [ r \
Teorema 162 Sean \ y \ espacios vectoriales y T : \ \ una transfor-
macin lineal. Entonces ker(T) es un subespacio de \ .
13.2. NCLEO E IMAGEN 123
Demostracin. a) de la denicin vemos que ker(T) \
b) Como T(0) = 0 tenemos que 0 ker(T) y ker(T) ,= c
c) Si a, / ker(T) entonces T(a) = 0 y T(/) = 0 por lo que T(a + /) =
T(a) +T(/) = 0 + 0 = 0 y a +/ ker(T)
d) Si a ker(T) y c es un escalar, entonces T(a) = 0 por lo que T(ca) =
cT(a) = c0 = 0 y ca ker(T) Q.E.D.
Teorema 163 Sean \ y \ espacios vectoriales y T : \ \ una transfor-
macin lineal. Entonces Im(T) es un subespacio de \.
Demostracin. a) De la denicin vemos que Im(T) \
b) Como T(0) = 0 tenemos que 0 y Im(T) ,= c
c) Si a, / Im(T) entonces existen c, d \ tales que T(c) = a y T(d) = / con
lo que T(c + d) = T(c) + T(d) = a + / y, por ello, existe c + d \ tal que
T(c +d) = a +/ y a +/ Im(T)
d) Si a Im(T) y es un escalar, entonces existe c \ tal que T(c) = a, por
ello T(c) = T(c) = a por lo
que existe c \ tal que T(c) = a y a Im(T). Q.E.D.
Ejemplo 164 El ncleo de
^
0 es todo \ pues
^
0(r) = 0 para todo r \ y la
imagen de
^
0 es 0. El ncleo de 1
\
es 0 en tanto que la imagen es \ .
Ejemplo 165 Sea T : R
3
R
3
la transformacin lineal dada por
T(r, j, .) = (r + 2j +., 3r +j 2., r 7j 6.)
Dar bases para ker(T) y Im(T).
a) un vector (r, j, .) ker(T) si y slo si T(r, j, .) = 0 por lo que
(r + 2j +., 3r +j 2., r 7j 6.) = (0, 0, 0)
o
r + 2j +. = 0
3r +j 2. = 0
r 7j 6. = 0
y el ncleo buscado es el conjunto solucin de este sistema lineal homogneo.
La matriz de coecientes es
=
_
_
1 2 1
3 1 2
1 7 6
_
_
124 CAPTULO 13. TRANSFORMACIONES LINEALES
y
~
_
_
1 2 1
0 5 5
0 5 5
_
_
~
_
_
1 2 1
0 1 1
0 1 1
_
_
~
_
_
1 2 1
0 1 1
0 0 0
_
_
~
_
_
1 0 1
0 1 1
0 0 0
_
_
y un sistema equivalente al original (en el sentido de tener las mismas solu-
ciones) es
r . = 0
j +. = 0
en el cual las variables ligadas son r y j en tanto que . es la nica variable
libre. Por ello, los vectores en el conjunto solucin estn dados por
(r, j, .) = (., ., .) = .(1, 1, 1)
y una base del ncleo es 1 = (1, 1, 1)).
b) para hallar la imagen note que
T(r, j, .) = (r + 2j +., 3r +j 2., r 7j 6.)
= (r, 3r, r) + (2j, j, 7j) + (., 2., 6.)
= r(1, 3, 1) +j(2, 1, 7) +.(1, 2, 6)
por lo que un generador para la imagen es el conjunto
(1, 3, 1), (2, 1, 7), (1, 2, 6)
y de aqu hay que extraer una base. Para ello notemos que la imagen es el espacio
rengln de
1 =
_
_
1 3 1
2 1 7
1 2 6
_
_
13.2. NCLEO E IMAGEN 125
y como
1 ~
_
_
1 3 1
0 5 5
0 5 5
_
_
~
_
_
1 3 1
0 1 1
0 1 1
_
_
~
_
_
1 3 1
0 1 1
0 0 0
_
_
~
_
_
1 0 4
0 1 1
0 0 0
_
_
de modo que una base de la imagen es
(1, 0, 4), (0, 1, 1)
Ntese que 1 =
T
. Esto siempre es cierto, la imagen es el espacio columna de
la matriz cuando la transformacin es del tipo T(r) = r.
13.2.1. imagen y suprayectividad.
La imagen es, entre otras cosas, una herramienta para valorar la suprayec-
tividad. Para ello disponemos del siguiente:
Teorema 166 Sean \ y \ espacios vectoriales, T : \ \ una transforma-
cin lineal. Entonces T es suprayectiva si y slo si
Im(T) = \
Demostracin. Sea T suprayectiva. Claramente Im(T) \, ahora bien, si
r \ entonces, como T es suprayectiva, existe a \ tal que T(a) = r pero
esto implica que r Im(T) por lo que \ Im(T) y Im(T) = \.
Conversamente, sea Im(T) = \. Si r \ entonces como \ = Im(T)
r Im(T) .con lo que r = T(a) para alguna a \ y la funcin es suprayectiva.
13.2.2. Ncleo e inyectividad.
El ncleo es bsicamente una herramienta para valorar inyectividad, para
ello resulta muy til el siguiente:
Teorema 167 Sean \ y \ espacios vectoriales, T : \ \ una transforma-
cin lineal. Entonces T es inyectiva si y slo si
(T) = 0
126 CAPTULO 13. TRANSFORMACIONES LINEALES
Demostracin. Sea T inyectiva. Si r (T) entonces T(r) = 0 = T(0) lo
cual, por la inyectividad, implica que r = 0, por otra parte ya sabemos que
0 (T) por lo que (T) = 0.
Conversamente, sea (T) = 0. Si T(r) = T(j) entonces T(r) T(j) = 0
y T(r j) = 0 con lo que (r j) (T) y r j = 0 (pues (T) = 0) y
r = j. Luego T es inyectiva.
13.3. teorema de la dimensin.
Teorema 168 (de la dimensin). Sean \ y \ espacios vectoriales, T : \ \
una transformacin lineal, c =
1
,
2
..
n
y , = n
1
, n
2
..n
n
bases de \ y
\ respectivamente. Entonces
dim(\ ) = dim((T)) + dim(Im(T))
Si T es biyectiva, dim((T)) = 0 y dim(Im(T)) = dim(\) = : con lo que
dim(\ ) = dim(\). Es decir, si T es biyectiva, las dimensiones del dominio y
codominio coinciden, pero el converso no es cierto en general.
Comentario 169 Muchos autores llaman a dim(Im(T)) rango de T, pero
cuidado con este trmino que es usado con diversos signicador. A dim((T))
se le llama nulidad.
13.4. representaciones matriciales.
Sean \ y \ espacios vectoriales, y c =
1
,
2
..
n
y , = n
1
, n
2
..n
n

bases de \ y \ respectivamente.
Si T : \ \ es una transformacin lineal, como T

\ existen nmeros
'
I
tales que
T

=
dim(V)

I=1
'
I
n
I
La matriz denida de esta manera recibe el nombre de matriz de T relativa
a las bases c y , y se representa como '
o
o
(T).
La importancia de esta matriz puede verse tomando \ , que puede es-
cribirse en trminos de la base c y
=
dim(\ )

|=1
c
|

|
13.4. REPRESENTACIONES MATRICIALES. 127
(aqu los nmeros c
I
son las coordenadas de en la base c) y entonces
T() = T
_
_
dim(\ )

|=1
c
|

|
_
_
=
dim(\ )

|=1
c
|
T(
|
) =
dim(\ )

|=1
c
|
dim(V)

I=1
'
I|
n
I
=
dim(V)

I=1
_
_
dim(\ )

|=1
'
I|
c
|
_
_
n
I
(aqu hemos usado libremente el hecho de que en un espacio vectorial podemos
reordenar las sumas como deseemos). De aqu se ve que
dim(\ )

|=1
'
I|
c
|
es la i-
sima coordenada de T() en la base ,. Tambin vemos que
dim(\ )

|=1
'
I|
c
|
es la
i-sima componente de '[]
o
por lo que obtenemos el resultado fundamental
de que
[T]
o
= '
o
o
(T)[]
o
donde []
o
y [T]
o
son las coordenadas de y T en sus respectivas bases.
Ms adelante veremos una manera fcil de calcular '
o
o
(T) en ciertos casos
(Si la base , es ortonormal '
|
= n
|
, T

donde es el producto interior


que ser discutido en el prximo captulo).
Note que si dim(\ ) = : y dim(\) = : entonces '
o
o
(T) es de ::.
Esquemticamente
\
T

\
c
o
| c
o
|
1
n 1

(T)

1
n
donde c
o
y c
o
son los isomorsmos de coordenadas. En la literatura se dice
que el diagrama conmuta o que es un diagrama conmutativo, esto quiere decir
que da lo mismo ir directamente de \ a \ mediante T que ir primero de \ a 1
n
mediante el isomorsmo de coordenadas, de 1
n
a 1
n
mediante multiplicacin
por '
o
o
(T) y nalmente llegar a \ mediante c
1
o
.
13.4.1. la matriz de transicin de nuevo
Sea 1
\
el operador identidad en un espacio \ . Sean c =
1
,
2
..
n
y
, = n
1
, n
2
..n
n
dos bases de \ y '
o
o
la matriz de transicin de c a ,. Sea
: = dim(\ ).
Entonces:
1. '
o
o
(1
\
) = 1
nn
.
2. '
o
o
(1
\
) = 1
nn
3. '
o
o
(1
\
) = '
o
o
pues
[1
\
]
o
= []
o
= '
o
o
(1
\
)[]
o
128 CAPTULO 13. TRANSFORMACIONES LINEALES
4. '
o
o
(1
\
) = '
o
o
=
_
'
o
o
_
1
pues
[1
\
]
o
= []
o
= '
o
o
(1
\
)[]
o
Adems, sea 1 : \ \ el operador lineal denido en las bases mediante
1(
I
) = n
I
entonces:
1.
'
o
o
(1) = 1
nn
por la mera denicin de matriz asociada.
2.
'
o
o
(1) =
_
'
o
o
_
1
= '
o
o
13.4.2. calculando la matriz asociada a una transforma-
cin lineal.
El esquema que proponemos para sistematizar el clculo de la matriz asoci-
ada a una transformacin lineal es el siguiente:
1. evale la transformacin en cada uno de los vectores de la base c, es decir,
T(
1
), T(
2
)...T(
n
).
2. calcule las coordenadas de cada vector T(

) en la base ,.
3. las coordenadas de T(

) forman la ,-sima columna de '


o
o
(T)
4. Note que si : = dim(\ ) y : = dim(\) entonces '
o
o
(T) ser una matriz
de ::.
Ejemplo 170 Sea T : R
3
R
3
la transformacin lineal denida mediante
T(r, j, .) = (2r 3j +., r j ., r +j + 5.)
y equipe a R
3
con su base cannica c = (1, 0, 0), (0, 1, 0), (0, 0, 1) tanto para
el dominio como para el codominio. Calcule la matrz '
o
o
(T).
Solucin: De acuerdo con el esquema recomendado calculamos
T(1, 0, 0) = (2, 1, 1) = (2)(1, 0, 0) + (1)(0, 1, 0) + (1)(0, 0, 1)
T(0, 1, 0) = (3, 1, 1) = (3)(1, 0, 0) + (1)(0, 1, 0) + (1)(0, 0, 1)
T(0, 0, 1) = (1, 1, 5) = (1)(1, 0, 0) + (1)(0, 1, 0) + (5)(0, 0, 1)
13.4. REPRESENTACIONES MATRICIALES. 129
en donde hemos re-escrito el resultado como combinacin lineal de los vectores
de la base (en este caso es muy fcil pues es la base cannica).
Por ello la matriz solicitada es
'
o
o
(T) =
_
_
2 3 1
1 1 1
1 1 5
_
_
Note que
_
_
2 3 1
1 1 1
1 1 5
_
_
_
_
r
j
.
_
_
=
_
_
2r 3j +.
r j .
r +j + 5.
_
_
Ejemplo 171 Considere la transformacin lineal o : 1
3
1
2
denida medi-
ante
o() =
d
dr
y considere las bases
c = 1, r, r
2
, r
3

, = 1, r, r
2

para 1
3
y 1
2
respectivamente. Calcule la matriz de o en las bases dadas.
Solucin: Por el algoritmo recomendado, calculamos
o(1) = 0 = (0)(1) + (0)(r) + (0)(r
2
)
o(r) = 1 = (1)(1) + (0)(r) + (0)(r
2
)
o(r
2
) = 2r = (0)(1) + (2)(r) + (0)(r
2
)
o(r
3
) = 3r
2
= (0)(1) + (0)(r) + (3)(r
2
)
y por ello
'
o
o
(o) =
_
_
0 1 0 0
0 0 2 0
0 0 0 3
_
_
130 CAPTULO 13. TRANSFORMACIONES LINEALES
Captulo 14
lgebra de
transformaciones
Hemos visto cmo en un espacio vectorial hay dos operaciones de tal manera
que los vectores pueden sumarse y multiplicarse por nmeros. Ahora vamos a ver
que las transformaciones tambin pueden sumarse y multiplicarse por numeros.
14.1. Suma de transformaciones lineales.
En este captulo sean \ y \ dos espacios vectoriales sobre el mismo campo
1 y o : \ \ y T : \ \ dos transformaciones.
Vamos a denir una nueva transformacin llamada suma de o y T que
denotaremos como o + T. Recuerde usted que para denir cualquier funcin
(transformacin o no) se requiere:
especicar un dominio
especicar un codominio
especicar una regla de correspondencia
Por ello denimos o +T como aquella transformacin tal que:
su dominio es \
su codominio es \
su regla de correspondencia est denida para cualquier r \ mediante
(o +T)(r) = o(r) +T(r)
Nte que el signo + del lado izquierdo se reere a la suma de transforma-
ciones, en tanto que el signo + del lado derecho es la suma en \.
131
132 CAPTULO 14. LGEBRA DE TRANSFORMACIONES
En resumidas cuentas
o +T : \ \
(o +T)(r) = o(r) +T(r)
14.2. Producto por nmeros.
Dado un nmero c 1 y una transformacin vamos a denir una nueva
transformacin o : \ \ llamada producto de c y de o y que denotaremos
como co.
cT se dene con las siguientes estipulaciones:
su dominio es \
su codominio es \
su regla de correspondencia, para cualquier r \ y cualquier c 1 es
(co)(r) = c(o(r))
14.3. La suma de dos transformaciones lineales
es lineal
Suponga, de momento, que tanto o como T son lineales, tome r, j \ ,
entonces
(o +T)(r +j) = o(r +j) +T(r +j)
= o(r) +o(j) +T(r) +T(j)
= (o(r) +T(r)) + (o(j) +T(j))
= (o +T)(r) + (o +T)(j)
donde hemos usado tanto la denicin de o +T como la linearidad de o y de T
.
Anlogamente, para r \ y c 1 tendremos
(o +T)(cr) = o(cr) +T(cr)
= co(r) +cT(r)
= c(o(r) +T(r))
= c((o +T)(r))
completando la prueba de la linearidad.
14.4. LINEARIDAD DEL PRODUCTO POR UN NMERO 133
14.4. Linearidad del producto por un nmero
Suponga, de momento, que T es lineal, tome r, j \ , entonces y c 1,
entonces
(cT)(r +j) = c(T(r +j))
= c(T(r) +T(j))
= cT(r) +cT(j)
= (cT)(r) + (cT)(j)
donde hemos usado tanto la denicin de cT como la linearidad de T .
Anlogamente, para r \ y , 1 tendremos
(cT)(,r) = c(T(,r))
= c(,T(r))
= c,(T(r))
= ,(cT(r))
= ,((cT)(r))
completando la prueba de la linearidad.
14.5. El conjunto de todas las transformaciones
lineales de V en W es un espacio vectorial.
Al conjunto de todas las transformaciones lineales de \ en \
T = T : \ \ [ T es lineal
se le denota por
1i:(\, \)
o
:or(\, \)
o
hom(\, \)
Vamos a ver que T es un espacio vectorial.
14.5.1. hay un zero (elemento idntico) para la suma de
transformaciones?
Primeramente vamos a suponer que s lo hay a n de descubrir quin es.
Suponga pues que existe

0 : \ \ y tal que para todo o T tenemos que
o +

0 =

0 +o = o. Entonces para cualquier r \


(o +

0)(r) = o(r) +

0(r) = o(r)
134 CAPTULO 14. LGEBRA DE TRANSFORMACIONES
con lo que

0(r) = 0
para todo r \ y

0 es la transformacin cero anteriormente discutida.
Conversamente, hay que vericar que

0 hace bien su trabajo. Evaluemos
pues para r \
(o +

0)(r) = o(r) +

0(r) = o(r) + 0 = o(r)


= 0 +o(r) =

0(r) +o(r) = (

0 +o)(r)
con lo que o +

0 =

0 +o = o .
14.5.2. hay un negativo (inverso aditivo) para la suma de
transformaciones ?
Sea o T. Primero supondremos que existe H T y tal que o + H =
H +o =

0 . Entonces para todo r \


(o +H)(r) = o(r) +H(r) =

0(r) = 0
y tenemos que
H(r) = o(r) = ((1)o)(r)
con lo que el candidato a negativo es o = (1)o.
Vericamos que en efecto
(o + (1)o)(r) = o(r) + ((1)o)(r) = o(r) o(r) = 0
De hecho 1i:(\, \) es un espacio vectorial sobre 1 con las operaciones
de suma y producto por elementos de 1 que hemos denido, dejamos la
demostracin (usando los axiomas para los espacios vectoriales) al lector, ya
habiendo hecho la parte ms difcil (la existencia del cero y del inverso).
14.6. Matriz asociada a la suma y producto por
nmeros.
De nuevo sean \ y \ dos espacios vectoriales sobre el mismo campo 1 y
o : \ \ y T : \ \ dos transformaciones lineales. Sea c 1. Equipemos
ahora a \ y \ con las bases =
1
,
2
, ...
n
y 1 = n
1
, n
2
, ...n
n
respecti-
vamente.
Cul ser la matriz '
.
1
(o +T) ?
Ciertamente esperamos que, para cualquier r \
[(o +T)(r)]
1
= '
.
1
(o +T) [r]
.
pero como
[(o +T)(r)]
1
= [o(r) +T(r)]
1
= [o(r)]
1
+ [T(r)]
1
14.6. MATRIZ ASOCIADAALASUMAYPRODUCTOPOR NMEROS.135
y adems
[o(r)]
1
= '
.
1
(o) [r]
.
[T(r)]
1
= '
.
1
(T) [r]
.
resulta que
[(o +T)(r)]
1
= '
.
1
(o) [r]
.
+'
.
1
(T) [r]
.
=
_
'
.
1
(o) +'
.
1
(T)
_
[r]
.
con lo que obtenemos que
'
.
1
(o +T) [r]
.
=
_
'
.
1
(o) +'
.
1
(T)
_
[r]
.
y como esto vale para cualquier r \
'
.
1
(o +T) = '
.
1
(o) +'
.
1
(T)
de modo que la matriz de la suma de dos transformaciones lineales es la suma
de las matrices de las transformaciones.
De una manera anloga, Cul ser la matriz '
.
1
(co) ?
Ciertamente esperamos que, para cualquier r \
[(co)(r)]
1
= '
.
1
(co) [r]
.
pero como
[(co)(r)]
1
= [c(o(r))]
1
= c[o(r)]
1
y adems
[o(r)]
1
= '
.
1
(o) [r]
.
resulta que
[(co)(r)]
1
= c'
.
1
(o) [r]
.
=
_
c'
.
1
(o)
_
[r]
.
con lo que obtenemos que
'
.
1
(co) [r]
.
=
_
c'
.
1
(o)
_
[r]
.
y como esto vale para cualquier r \
'
.
1
(co) = c'
.
1
(o)
de modo que la matriz del producto de un nmero por una transformacin es
el producto del nmero por la matriz de la transformacin.
Comentario 172 De hecho los espacios 1i:(\, \) y '(:, :) (o '
+
(:, :)
segn el caso) son isomorfos. El isomorsmo es o '
.
1
(o).
136 CAPTULO 14. LGEBRA DE TRANSFORMACIONES
14.7. Composicin de transformaciones.
Sabemos que matrices del mismo tamao pueden sumarse y hemos visto
que esto corresponde a la suma de transformaciones. Tambin sabemos que las
matrices pueden multiplicarse por nmeros, y que esto corresponde al producto
de nmeros por transformaciones.
Pero las matrices tambin pueden multiplicarse entre s cuando son con-
formables (es decir, el primer factor tiene tantas columnas como renglones tiene
el segundo factor). a qu operacin entre transformaciones corresponde esto?.
14.7.1. denicin de composicin.
Sean \, \, 7 espacios vectoriales sobre un mismo campo 1. Si o : \
\ y T : \ 7 son transformaciones entonces podemos denir una nueva
transformacin T o de la siguiente manera:
su dominio es \
su codominio es 7
su regla de correspondencia es
(T o)(r) = T(o(r))
Lo anterior suele ponerse en forma de diagrama
\
S

\
T o | T
7
y se dice que el diagrama es conmutativo, con ello se quiere decir que da lo
mismo ir primero de \ a \ mediante o y luego de \ a 7 mediante T que ir
directamente de \ a 7 mediante T o.
14.7.2. La composicin de dos transformaciones lineales
es lineal.
Sean 1, o, \, \, T, \ y 7 como en la subseccin anterior pero suponga que
tanto o como T son lineales. Sean r, j \ , entonces
(T o)(r +j) = T(o(r +j)) por la denicin de composicin
= T(o(r) +o(j)) por la linearidad de o
T(o(r)) +T(o(j)) por la linearidad de T
(T o)(r) + (T o)(j) por la denicin de composicin
14.7. COMPOSICIN DE TRANSFORMACIONES. 137
anlogamente, sea r \ y c 1, entonces
(T o)(cr) = T(o(cr)) por la denicin de composicin
= T(co(r))por la linearidad de o
= cT(o(r))por la linearidad de T
c[(T o)(r)] por la denicin de composicin
14.7.3. Matriz de la composicin de dos transformaciones
lineales.
Equipemos ahora a \ , \ y 7 con las bases =
1
,
2
, ...
n
y 1 =
n
1
, n
2
, ...n
n
y C = .
1
, .
2
, ....

respectivamente.
Entonces el trabajo de '
.
c
(T o) es (para cualquier r \ )
[(T o)(r)]
c
= '
.
c
(T o) [r]
.
pero por una parte
[(o)(r)]
1
= '
.
1
(o) [r]
.
[(T)(r)]
c
= '
1
c
(T) [r]
1
y por otra
(T o)(r) = T(o(r))
con lo que
[(T o)(r)]
c
= [(T(o(r))]
c
= '
1
c
(T) [o(r)]
1
= ('
1
c
(T))'
.
1
(o) [r]
.
= ('
1
c
(T)'
.
1
(o)) [r]
.
'
.
c
(T o) [r]
.
y como esto vale para cualquier r tendremos que
'
.
c
(T o) = ('
1
c
(T)'
.
1
(o))
con lo que la matriz de una composicin es el producto de las matrices de las
transformaciones. Note, como mnemotecnia, que en el lado izquierdo no aparece
el nombre de la base que a la derecha aparece dos veces, una vez arriba y otra
vez abajo.
14.7.4. Las propiedades ms importantes de estas opera-
ciones .
Ahora el escenario ser un poco ms complicado.
138 CAPTULO 14. LGEBRA DE TRANSFORMACIONES
Sean l, \, \ y A espacios vectoriales y 1, G, H, o, T transformaciones lin-
eales
1 : l \
G : l \
H : \ A
o : \ \
T : \ \
entonces:
o (1 +G) = o 1 +o G (distributividad)
(o +T) 1 = o 1 +T 1 (otra distributividad)
c(o 1) = (co) 1 = o (c1) (c 1)
H (o 1) = (H o) 1 (asociatividad)
T 1
\
= T (1
\
es la identidad en \ )
1
V
T = T (1
V
es la identidad en \)
Recuerde usted que dos funciones son iguales si y slo si:
tienen el mismo dominio
tienen el mismo codominio
tienen la misma regla de correspondencia.
Tome, por ejemplo, la primera igualdad. las expresiones a ambos lados tienen
el mismo dominio (que es l, el dominio de 1 y G) y el mismo codominio, que
es \ (el codominio de o). Si r l tendremos que
(o (1 +G))(r) = o((1 +G)(r))por la denicin de composicin
= o(1(r) +G(r))por la denicin de suma
= o(1(r)) +o(G(r)) por la linearidad de o
= (o 1)(r) + (o G)(r) por la denicin de composicin
= ((o 1) + (o G)) (r) por la denicin de suma
Para la segunda igualdad, notemos que ambos miembros tienen dominio l
y codominio \, y
((o +T) 1)(r) = (o +T)(1(r)) por la denicin de composicin
= o(1(r)) +T(1(r)) por la denicin de suma
= (o 1)(r) + (T 1)(r) por la denicin de composicin
((o 1) + (T 1)) (r) por la denicin de suma
14.7. COMPOSICIN DE TRANSFORMACIONES. 139
Para la tercera parte ambos miembros tienen dominio l y codominio \, y
c(o 1)(r) = c((o 1)(r)) por la denicin de producto
= co(1(r)) por la denicin de composicin
= (co)(1(r)) por la denicin de producto
= ((co) 1) (r) por la denicin de composicin
y adems
c(o 1)(r) = c((o 1)(r)) por la denicin de producto
= co(1(r)) por la denicin de composicin
= o(c1(r)) por la linearidad de o
= o((c1)(r)) por la denicin de producto
= (o (c1))(r) por la denicin de composicin
Para la cuarta identidad, notamos que ambos lados tienen dominio l y codo-
minio A. Entonces
(H (o 1))(r) = H((o 1)(r)) por la denicin de composicin
=H(o(1(r))) por la denicin de composicin
=(H o)(1(r)) por la denicin de composicin
=((H o) 1)(r) por la denicin de composicin
con lo que vemos que la operacin de composicin es asociativa. Dejo al lector
convencerse de que esta operacin no es conmutativa.
La quinta identidad involucra a \ como dominio en ambos lados y a \
como codominio. Tenemos, pues
(T 1
\
)(r) = T(1
\
(r)) por la denicin de composicin
= T(r) por la denicin de identidad en \
en tanto que la sexta tambin involucra a \ como dominio en ambos lados y a
\ como codominio y un sencillo cmputo revela que
(1
V
T)(r) = 1
u
(T(r)) por la denicin de composicin
= T(r) por la denicin de identidad en \
Por ello las matrices identidad (del tamao adecuado) se comportan como iden-
tidades derecha o izquierda con respecto a la multiplicacin matricial. Recuerde
que la composicin (o la multiplicacin de matrices) no son operaciones binarias
(en el conjunto de todas las transformaciones lineales o de todas las matrices)
pues no siempre se pueden realizar.
Comentario 173 es nica esta identidad derecha o izquierda?
Considere
a =
_
1 3 5
2 4 6
_
140 CAPTULO 14. LGEBRA DE TRANSFORMACIONES
y
n =
_
_
5
6
1
3
1
6
1
3
1
3
1
3
1
6
1
3
5
6
_
_
y usted puede vericar facilmente que
an =
_
1 3 5
2 4 6
_
_
_
5
6
1
3
1
6
1
3
1
3
1
3
1
6
1
3
5
6
_
_
=
_
1 3 5
2 4 6
_
= a
pero n no es la matriz identidad.
Captulo 15
La transformacin inversa.
15.1. La inversa de una transformacin.
Sean \ y \ dos espacios vectoriales sobre un campo 1 y T : \ \ una
transformacin.
Decimos que T tiene una inversa (denotada por T
1
) o que es invertible (o
no singular) si existe una transformacin T
1
: \ \ tal que:
T
1
T = 1
\
T T
1
= 1
V
15.1.1. la inversa es nica
Suponga que T : \ \ tuviera dos inversas, denotemos una por T
1
y la
otra por G, entonces
T
1
: \ \
G : \ \
T
1
T = 1
\
T T
1
= 1
u
G T = 1
\
T G = 1
u
por ello
G = G 1
u
= G (T T
1
)
= (G T) T
1
= 1
\
T
1
= T
1
141
142 CAPTULO 15. LA TRANSFORMACIN INVERSA.
15.1.2. la inversa de una transformacin lineal es lineal
Suponga que T : \ \ es una transformacin lineal invertible.
Entonces si T(r) = j tendremos que
T(r) = j =
T
1
(T(r)) = T
1
(j) =
_
T
1
T
_
(r) = T
1
(j) =
1
\
(r) = T
1
(j) =
r = T
1
(j)
y tambin que
r = T
1
(j) =
T(r) = T(T
1
(j)) =
T(r) =
_
T T
1
_
(j) =
T(r) = (1
V
) (j) =
T(r) = (j)
por lo que podemos concluir que
T(r) = (j) == r = T
1
(j)
Por ello una manera sencilla de demostrar que la inversa de una transforma-
cin lineales lineal sera la siguiente:
T
1
(a +/) = T
1
(a) +T
1
(/) ==
(a +/) = T(T
1
(a) +T
1
(/)) ==
(a +/) = T(T
1
(a)) +T(T
1
(/)) ==
(a +/) =
_
T T
1
_
(a) +
_
T T
1
_
(/) ==
(a +/) = 1
V
(a) +1
V
(/) ==
(a +/) = a +/
y como la ltima aseveracin es siempre cierta
T
1
(a +/) = T
1
(a) +T
1
(/)
Anlogamente
T
1
(,a) = ,T
1
(a) ==
T(T
1
(,a)) = T(,T
1
(a)) ==
_
T T
1
_
(,a) = ,(T(T
1
(a))) ==
1
V
(,a) = ,
_
T T
1
_
(a) ==
,a = ,1
V
(a) ==
,a = ,a
15.1. LA INVERSA DE UNA TRANSFORMACIN. 143
y como la ltima igualdad siempre es cierta tenemos que
T
1
(,a) = ,T
1
(a)
15.1.3. La matriz de la inversa.
Sea T : \ \ lineal e invertible, =
1
,
2
, ...
n
una base de \ y
1 = n
1
, n
2
, ...n
n
una base de \.
Como
T
1
T = 1
\
'
.
.
(T
1
T) = '
1
.
(T
1
)'
.
1
(T)
= '
.
.
(1
\
) = 1
tenemos que
'
1
.
(T
1
) =
_
'
.
1
(T)

1
de modo que la matriz de la inversa de T es la inversa de la matriz de T.
Por esto una manera de ver si una transformacin es invertible es ver si su
matriz (respecto a cualquier base que escojamos) es invertible.
15.1.4. Criterios de invertibilidad.
Una transformacin lineal, al igual que cualquier otra funcin, tendr inversa
si y slo si es biyectiva. Ahora bien, una funcin es biyectiva si y slo si es
inyectiva y suprayectiva. Pero ya hemos visto que una transformacin lineal
T : \ \ es inyectiva si y slo si
dim((T)) = 0
y que es suprayectiva si y slo si
dim(\) = dim(Im(T))
Adems recuerde el teorema de la dimensin:
dim(\ ) = dim((T)) + dim(Im(T))
De aqu podemos sacar algunas conclusiones:
Si T es invertible, entonces dim(\ ) = dim(\). Esto es til sobre todo en
la forma: si dim(\ ) ,= dim(\) entonces T no puede ser invertible.
Cuando \ = \, la inyectividad implica dim(\ ) = dim(Im(T)), pero como
Im(T) es un subespacio de \ , tendremos que Im(T) = \ y la transfor-
macin es necesariamente tambin suprayectiva (y biyectiva, consecuente-
mente).
Cuando \ = \, la suprayectividad implica dim((T)) = dim(\ )
dim(Im(T)) = 0, y, por lo tanto, la inyectividad de T (y la biyectividad
de T, consecuentemente).
144 CAPTULO 15. LA TRANSFORMACIN INVERSA.
15.1.5. La inversa de una composicin.
Sean \, \, 7 espacios vectoriales sobre un mismo campo 1. Si o : \ \
y T : \ 7 son transformaciones invertibles, entonces T o : \ 7 es
invertible y
(T o)
1
= o
1
T
1
La demostracin se basa en ver que T
1
o
1
se comporta como inversa
y por la unicidad debe, entonces, ser la inversa.
As que considere
(T o)
_
o
1
T
1
_
= T (o o
1
) T
1
= T (1
V
) T
1
= (T 1
V
) T
1
= T T
1
= 1
2
y tambin
_
o
1
T
1
_
(T o) = o
1
(T
1
T) o
= o
1
(1
V
) o
= (o
1
1
V
) o
= o
1
o
= 1
\
con lo que se demuestra que (T o)
1
= o
1
T
1
(note el cambio en el orden
de aparicin de o y de T, es importante).
Este teorema tiene su contrapartida entre las matrices, si y 1 son matri-
ces conformables (es decir, que se pueden multiplicar) y tienen inversos, ocurre
que
(1)
1
= 1
1

1
Otras propiedades elementales de las inversas que el lector puede vericar
fcilmente son:
Si c 1 , c ,= 0 y o : \ \ es invertible, entonces co tambin es
invertible y (co)
1
= c
1
o
1
.
Si o : \ \ es invertible, entonces (o
1
)
1
= o.
15.1. LA INVERSA DE UNA TRANSFORMACIN. 145
15.1.6. un ejemplo completo
Sean
\ = ar
2
+/r +c [ a, /, c R
\ =
__
a /
/ c
_
[ a, /, c R
_
T : \ \
T(ar
2
+/r +c) =
_
a +c 3/
3/ a c
_
y equipemos a \ y \ con las bases
= r
2
, r, 1
1 =
__
1 0
0 0
_
,
_
0 1
1 0
_
,
_
0 0
0 1
__
respectivamente.
Primero vamos a calcular '
.
1
(T) y para ello calculamos el efecto de T en la
base usando la regla de correspondencia
T(r
2
) =
_
1 0
0 1
_
= (1)
_
1 0
0 0
_
+ (0)
_
0 1
1 0
_
+ (1)
_
0 0
0 1
_
T(r) =
_
0 3
3 0
_
= (0)
_
1 0
0 0
_
+ (3)
_
0 1
1 0
_
+ (0)
_
0 0
0 1
_
T(1) =
_
1 0
0 1
_
= (1)
_
1 0
0 0
_
+ (0)
_
0 1
1 0
_
+ (1)
_
0 0
0 1
_
con lo que vemos que
'
.
1
(T) =
_
_
1 0 1
0 3 0
1 0 1
_
_
A continuacin vamos a determinar si T tiene inversa. Ya que tenemos la
matriz de T el mejor camino ser indagar si esta matriz es invertible. As pues
_
_
1 0 1 1 0 0
0 3 0 0 1 0
1 0 1 0 0 1
_
_
~
_
_
1 0 1 1 0 0
0 3 0 0 1 0
0 0 2 1 0 1
_
_
~
_
_
1 0 1 1 0 0
0 1 0 0
1
3
0
0 0 1
1
2
0
1
2
_
_
~
_
_
1 0 0
1
2
0
1
2
0 1 0 0
1
3
0
0 0 1
1
2
0
1
2
_
_
de donde vemos que la matriz es invertible y, por lo tanto, T es invertible.
Adems
'
1
.
(T
1
) = '
.
1
(T)
1
=
_
_
1
2
0
1
2
0
1
3
0
1
2
0
1
2
_
_
Notas:
146 CAPTULO 15. LA TRANSFORMACIN INVERSA.
A veces puede usted determinar si la transformacin es invertible checando
si es (o no es) una biyeccin. Tambin ayuda tener en mente el teorema
de la dimensin.
En casos como el del ejemplo, en que la matriz de la transformacin es
cuadrada, puede usted saber si la matriz (y por lo tanto la transformacin)
es invertible calculando el determinante. En el presente ejemplo
det
_
_
1 0 1
0 3 0
1 0 1
_
_
= 6 ,= 0
conrmando que la matriz es invertible.
Nuestro siguiente paso ser calcular la regla de correspondencia de T
1
.
Dado n =
_
a /
/ c
_
tenemos que [n] =
_
_
a
/
c
_
_
y como
_
T
1
(n)

.
= '
1
.
(T
1
) [n]
1
=
_
_
1
2
0
1
2
0
1
3
0
1
2
0
1
2
_
_
_
_
a
/
c
_
_
=
_
_
o+c
2
b
3
oc
2
_
_
de modo que
T
1
(n) = (
a +c
2
)r
2
+ (
/
3
)r + (
a c
2
)1
En resumidas cuentas:
calculamos la matriz de la transformacin usando su regla de correspon-
dencia
calculamos la inversa de dicha matriz
con esta inversa inferimos la regla de correspondencia de la transformacin
inversa.
Ahora bien, no siempre es preciso recurrir a mtodos matriciales, como ilus-
traremos en seguida.
Dado n =
_
a /
/ c
_
lo que queremos es encontrar T
1
(n) y sabemos que
es un polinomio de grado no mayor a dos, digamos cr
2
+,r + de modo que
T
1
_
a /
/ c
_
= cr
2
+,r +
15.2. CAMBIO DE BASE Y MATRICES 147
pero aplicando T a ambos miembros de la ecuacin
_
a /
/ c
_
= T(T
1
_
a /
/ c
_
) = T(cr
2
+,r +)
y usando la regla de correspondencia para T
_
a /
/ c
_
=
_
c + 3,
3, c
_
de modo que
a = c +
/ = 3,
c = c
sistema que podemos resolver para c, , y obtenindose
c =
a +c
2
, =
/
3
=
a c
2
y
T
1
_
a /
/ c
_
=
_
a +c
2
_
r
2
+
_
/
3
_
r +
_
a c
2
_

en concordancia con el resultado obtenido por mtrodos matriciales. En este


caso los mtodos matriciales resultaron ms complicados, pero en general son
preferibles pues proporcionan un camino seguro aunque, a veces, largo. El es-
tudiante debe evaluar, ante un problema, si son preferibles mtodos directos o
matriciales. Casi todo problema matemtico admite ms de un camino hacia su
solucin.
El mtodo matricial indica una extensin del principio del isomorsmo: los
vectores se transforman en sus matrices de coordenadas, la transformacin T se
transforma en la matriz '
.
1
(T) .
15.2. Cambio de base y matrices
Sean \ y \ dos espacios vectoriales y T : \ \ una transformacin
lineal. Sean c y c/ dos bases de \ y , y ,/ dos bases de \.
Sean ' = '
o
o
(T) y = '
ot
ot
(T) las correspondientes matrices.
Deseamos indagar cul es la conexin entre ' y .
Para ello usaremos relaciones ya conocidas tales como
[T()]
o
= '[]
o
[T()]
ot
= []
ot
148 CAPTULO 15. LA TRANSFORMACIN INVERSA.
(aqu es cualquier vector de ) y si 1 es la matriz de transicin de c a c/ en
tanto que Q es la matriz de transicin de , a ,/ tendremos que, para cualesquiera
n \ y . \ tendremos que
[n]
ot
= 1[n]
o
[.]
ot
= Q[.]
o
Por ello
[T()]
ot
= Q[T()]
o
= Q'[]
o
= Q'1
1
[]
ot
= []
ot
y como esto vale para cualquier []
ot
resulta que
Q'1
1
=
o
' = Q
1
1
y estas ltimas relaciones nos dicen cmo cambian las matrices cuando cambi-
amos de base tanto en el dominio como en el codominio.
Cuando \ = \ (operador lineal) y c = , y c
t
= ,
t
tendremos que ' =
'
o
o
(T) y = '
o
o
(T) y tambin que 1 = Q por lo que
' = 1
1
1
o
= 1'1
1
Denicin 174 se dice que dos matrices ' y son similares si existe otra
matriz 1, no-singular y tal que = 1'1
1
. La relacin de similaridad es
una relacin de equivalencia.
15.3. Matrices vacas
En esta seccion consideraremos dos espacios \ y \ de dimensin nita con
dim(\ ) 0 y dim(\) 0 (es decir, ninguno de los dos espacios es trivial).
Considere el subespacio trivial = 0 de \ .
Ahora preguntmonos cmo sern las transformaciones lineales : \.
Como toda transformacin lineal mapea el cero en el cero, concluimos que es
necesariamente la transformacin cero. Note que, por lo anterior, slo hay una
trasnsformacin lineal : \.
y que pasa con las transformaciones lineales 1 : \ ? Resulta que
necesariamente 1(n) = 0 para todo n \. De n uevo la transformacin cero
es la nica transformacin lineal 1 : \ .
15.3. MATRICES VACAS 149
Y, nalmente considere C : lineal, para la cual tambin ocurre que
es la transformacin cero.
Si equipamos a \ con una base, cul cree usted que sern las matrices de
, 1 y C? Si la dimensin de \ es :, la matriz de sera de : 0, la de 1 de
0 : y la de C de 0 0!
De hecho algunos programas, como matlab, manejan estas matrices vacas.
podra usted elucidar cmo se multiplican las matrices vacas? qu cree usted
que resulta de multiplicar una matriz de : 0 con una de 0 :? Respuesta:
una matriz cero de ::.
150 CAPTULO 15. LA TRANSFORMACIN INVERSA.
Captulo 16
Geometra de las
transformaciones (I).
16.1. Haciendo geometra en R
2
Es hora de recordar el curso de geometra analtica. Con cada vector de R
2
asociamos tanto una echa como un punto (la punta de la echa). La echa
es el vector de posicin del punto. La suma de vectores tiene una interpretacin
geomtrica en trminos de la regla del paralelogramo en tanto que la multi-
plicacin por nmeros (,a) cambia vectores en vectores paralelos pero con su
tamao alterado por un factor [ , [ y su sentido cambiado si , < 0.
16.2. Efecto de transformaciones lineales sobre
rectas y segmentos
Una recta puede pensarse como el conjunto
/ = 1 = 1
0
+ta [ t R
donde a R
2
, a ,= 0, y 1
0
es un vector dado de R
2
. Decimos que / es la recta
paralela a a que pasa por 1
0
.
Un segmento de recta es un conjunto de la forma
/ = 1 = / +t(a /) [ t [0, 1]
es decir, pasa por / (t = 0), por a (t = 1) y es paralelo a a /. Es el segmento
que va de / a a y tambin podra escribirse como
/ = 1 = r/ +:a [ r, : _ 0, r +: = 1
que se conoce como combinacin convexa de a y /. Las representaciones an-
teriores se llaman paramtricas pues todo depende de los parmetros reales r, :
y t.
151
152 CAPTULO 16. GEOMETRA DE LAS TRANSFORMACIONES (I).
El punto clave es que las transformaciones lineales no singulares mapean
rectas en rectas y segmento en segmentos. Veamos esto con mayor detalle.
Si / es una recta o un segmento de recta, y T : R
2
R
2
es lineal, denimos
el efecto de T sobre / como
T(/) = T(r) [ r /
y si / es una recta
T(/) = T(1
0
+ta) [ t R
pero T(1
0
+ta) = T(1
0
) +tT(a) por lo que
T(/) = T(1
0
) +tT(a) [ t R
y vemos que T(/) es una recta que pasa por T(1
0
) y es paralela a T(a) (aqu
hay que aclarar que si T(a) = 0 entonces la linea recta se mapeara al punto
T(1
0
)).
Algo completamente anlogo ocurre con los segmentos.
Tambin es fcil ver que si / y /
t
son dos rectas paralelas, entonces T(/)
y T(/
t
) son paralelas. T mapea dos rectas que se cruzan en un punto en rec-
tas que se cruzan en un punto. Por ello las transformaciones lineales mapean
paralelogramos en paralelogramos.
A n de asegurar que no vayamos a mapear una recta en un punto (como
vimos ms arriba) se suele restringir el mbito de las transformaciones lineales
a aquellas que son invertibles (el grupo lineal general G1
2
(R)).
16.3. Areas de paralelogramos y de imgenes de
paralelogramos bajo transformaciones lin-
eales.
Sea P un paralelogramos generado por dos vectores a y / que son dos de sus
lados adyacentes. El rea de es el tamao de su base[ a [ multiplicado por su
altura / de modo que
=[ a [ / =[ a [[ / [ :c:(0) =[ a / [
donde 0 es el ngulo entre a y / (conceptos a ser denidos en el tema productos
interiores). Pero de lo que sabemos del producto cruz
=[ a / [=[ a
1
/
2
a
2
/
1
[=[ det
_
a
1
/
1
a
2
/
2
_
[
donde a = (a
1
, a
2
) y / = (/
1
, /
2
).
Si tenemos adems la transformacin lineal T : R
2
R
2
cuya matriz, en la
base cannica, es
' =
_
'
11
'
12
'
21
'
22
_
16.4. QUIRALIDAD. 153
De aqu vemos que si P es generado por los vectores a y / entonces T(P)
estar generado por los vectores T(a) y T(/) por lo que su rea ser

t
=[ det
__
'
11
'
12
'
21
'
22
__
a
1
/
1
a
2
/
2
__
= det
_
'
11
'
12
'
21
'
22
_
det
__
a
1
/
1
a
2
/
2
__
[
=[ det
_
'
11
'
12
'
21
'
22
_
[
y tenemos el importante resultado de que la transformacin cambia al paralel-
ogramo en otro y multiplica su rea por el determinante de la transformacin.
16.4. Quiralidad.
Pero y el signo del determinante? signica algo?. Tiene que ver con quiral-
idad. Expliquemos.
Hay muchos objetos que vienen en dos variedades: derecha e izquierda. Por
ejemplo, hay zapatos derechos y zapatos izquierdos, orejas derechas y orejas
izquierdas, tornillos derechos (de rosca derecha) y tornillos izquierdos. Estos
objetos se llaman quirales (del griego, keirs= mano, por ejemplo quirptero
quiere decir que tiene alas en las manos, la palabra cirujano quiere decir que
cura con las manos, etc). Otros objetos no vienen en dos variedades derecha e
izquierda, por ejemplo las pelotas de football; uno nunca pide una pelota derecha
o izquierda. Tales objetos son aquirales. La propiedad de ser derecho o izquierdo
se llama quiralidad (los fsicos la llaman paridad, en ingles es handedness).
Recomiendo al lector la obra de Lewis Carroll intitulada Alicia a travs del
espejo en donde la protagonista pasa al mundo del espejo, donde la quiralidad
est cambiada (porqu un espejo cambia derecha e izquierda y no cambia arriba
y abajo?).
El signo del determinante da la quiralidad. El rea puede pensarse como con
quiralidad, piense en el producto cruz, implica la regla de la mano derecha.
Si det(T) 0 no hay cambio en quiralidad, pero si det(T) < si lo hay y,
como veremos en seguida, la transformacin tiene un tanto el carcter de un
espejo.
16.4.1. ejemplos
En los ejemplos que siguen, considere un cuadrado de rea uno y su imagen
bajo T(que es un paralelogramo).
' = 1 =
_
1 0
0 1
_
es la identidad, no altera el cuadrado, ni le cambia la
quiralidad pues det(') = 1
' =
_
1 0
0 1
_
cambia cada vector por su negativo. Se llama inversin
central y es, tambin, una rotacin de 180 grados. No cambia la quiralidad
pues det(') = 1 y no altera el rea.
154 CAPTULO 16. GEOMETRA DE LAS TRANSFORMACIONES (I).
' =
_
1 0
0 1
_
reeja el cuadrado sobre el eje de las r. Como buen
espejo cambia la quiralidad y det(') = 1, no altera el rea
.' =
_
1 0
0 1
_
reeja el cuadrado sobre el eje de las j. Como buen
espejo cambia la quiralidad y det(') = 1, no altera el rea
' =
_
1 2
0 1
_
cambia al cuadrado en un paralelogramo que no es cuadra-
do. Sin embargo tiene la misma rea pues det(') = 1 y no se altera la
quiralidad. Es un ejemplo de corte (shear) que tambin podra llamarse
cizalla, cizalladura pero por favor evite la monstruosidad trasquilado.
' =
_
/ 0
0 1
_
/ 0, alarga al cuadrado en la direccin r si k 1(lo
comprime si / < 1). det(') = / reeja el cambio de rea y muestra que
no hay cambio de quiralidad.
' =
_
/ 0
0 /
_
= /1 es una expansin o compresin uniforme en las dos
direcciones. det(') = /
2
.
' =
_
/ 0
0 |
_
es una expansin o compresin diferente en los dos ejes.
det(') = /|.
' =
_
0 1
1 0
_
, ms dicil de visualizar. det(') = 1 por lo que cambia
quiralidades sin alterar reas. Se trata de una reexin a travs de un
espejo j = r.
' =
_
1 0
0 0
_
es una transformacin que todo lo proyecta sobre el eje
r. (ms adelante estudiaremos las proyecciones formalmente). det(') = 0
pues cambia el cuadrado en un segmento que no tiene rea.
' =
_
cos(0) :c:(0)
:c:(0) cos(0)
_
representa una rotacin por un ngulo 0.
det(') = 1 por lo que no hay alteracin ni en rea ni en quiralidad.
De hecho las rotaciones no cambian distancias ni ngulos: mapean un
cuadrado en otro idntico.
Lstima que este tema se ha colocado antes del tema de eigenvalores y eigen-
vectores, pues estos conceptos dicen mucho sobre el signicado geomtrico. Por
ejemplo en una cizalladura siempre hay una (y slo una) direccin en la que los
vectores no cambian, es decir, hay una lnea invariante.
Captulo 17
eigenvalores y eigenvectores
17.1. algunas deniciones
Denicin 175 Sea \ un espacio vectorial y T : \ \ una transformacin
lineal. A estas transformaciones lineales de un espacio a l mismo se les llama
operadores lineales.
Denicin 176 Sea \ un espacio vectorial y T : \ \ un operador lineal.
Se dice que \ es un eigenvector de T con eigenvalor ` si ,= 0 y T = `.
Algunos sinnimos de eigenvalor son: valor propio, autovalor, valor carac-
terstico, valor latente.
Algunos sinnimos de eigenvector son: vector propio, vector caracterstico,
autovector, vector latente.
Comentario 177 Algunos autores no exigen que ,= 0 , dicen ellos que 0 es
eigenvector para cualquier eigenvalor.
Denicin 178 Si \ es un espacio vectorial, T : \ \ es una transformacin
lineal y ` un eigenvalor de T, denimos el eigenespacio 1
X
mediante
1
X
= \ [ T = `
Note usted que el vector cero est en 1
X
pero no es un eigenvector.
Teorema 179 1
X
es un subespacio de \.
Demostracin. a) Claramente 1
X
\
b) Como T(0) = 0 = `0 tenemos que 0 1
X
c) Si a, / 1
X
entonces Ta = `a y T/ = `/ por lo que T(a+/) = T(a) +T(/) =
`a +`/ = `(a +/) y a +/ 1
X
d) Si a 1
X
y , es un escalar, como T(a) = `a tendremos que T(,a) = ,T(a) =
,`a = `(,a) con lo que ,a 1
X
.
155
156 CAPTULO 17. EIGENVALORES Y EIGENVECTORES
17.1.1. en trminos de las matrices.
Suponga que T : \ \ es un operador lineal, que es un eigenvector con
eigenvalor `, que es una base de \ y que ' = '
.
.
(T).
Entonces
[T]
.
= '[]
.
[`]
.
= '[]
.
`[]
.
= '[]
.
por lo que si llamamos n = []
.
tendremos que
'n = `n
y, en trminos de coordenadas, la ecuacin es de la misma forma T = ` o
'n = `n. En lo sucesivo trabajaremos casi siempre con las matrices ms que
con las transformaciones.
Conversamente, si
'
.
.
(T)[]
.
= `[]
.
tendremos que
[T()]
.
= '
.
.
(T)[]
.
= `[]
.
= [`]
.
implicando que
T() = `
Es importante recalcar que el vector n contiene las coordenadas del eigen-
vector en la base .
17.2. Hallando los eigenvalores
Como
'n = `n =
'n `n = 0 =
'n `1n = 0 =
(' `1)n = 0
vemos que los eigenvectores son los vectores no nulos en el ncleo de (' `1).
La ecuacin ('`1)n = 0 representa un sistema lineal homogneo cuya matriz
de coecientes es '`1. Sabemos (de lo visto en el tema de determinantes) que
un sistema de este tipo tiene una solucin no trivial si y slo si el determinante
de la matriz de coecientes es cero, por ello
det(' `1) = 0
17.3. HALLANDO LOS EIGENVECTORES. 157
ecuacin que puede usarse para determinar los posibles valores de `. Note que
en esta ecuacin no aparece n.
De hecho la funcin
1(`) = det(' `1)
es siempre un polinomio en `. El grado de este polinomio es : si la matriz es de
: :. El polinomio se llama polinomio caracterstico de '(hay quien lo llama
polinomio secular, o ecuacin secular) y vemos, pues, que los eigenvalores son
las raices de 1(`).
Cuando : = 2 las raices del polinomio caracterstico se hallan mediante la
frmula elemental para hallar las raices del polinomio ar
2
+ /r + c = 0 que
es r =
b
_
b
2
4oc
2o
. Cuando el polinomio es de grado 3 o 4 es mejor suponer
que se trata de un polinomio con coecientes enteros con una raiz entera: esta
raiz debe de ser un divisor del trmino de grado cero. En los restantes casos se
habrn de usar mtodos numricos ad hoc.
17.3. hallando los eigenvectores.
Sabiendo cules son los eigenvalores hay que resolver ahora
'n = `n
para cada eigenvalor. El conjunto solucin proporcionar, adems, bases para
los eigenespacios.
17.4. Un ejemplo sencillo.
Considere la matriz
=
_
2 3
0 4
_
un clculo trivial indica que

_
1
0
_
=
_
2 3
0 4
_ _
1
0
_
=
_
2
0
_
= 2
_
1
0
_
por lo que
_
1
0
_
es un eigenvector de con eigenvalor 2.
veamos ahora ms sistemticamente cules son los eigenvalores.
158 CAPTULO 17. EIGENVALORES Y EIGENVECTORES
El polinomio caracterstico es
j(`) = det [`1]
= det
__
2 3
0 4
_
`
_
1 0
0 1
__
= det
__
2 ` 3
0 4 `
__
= (2 `) (4 `)
con lo que los eigenvalores son
2, 4
Para hallar los eigenvectores hay que usar la ecuacin r = `r usando los
eigenvalores encontrados. As, para ` = 2 tendremos
_
2 3
0 4
_ _
r
j
_
= 2
_
r
j
_
o
2r + 3j = 2r
4j = 2j
sistema que tiene como solucin
j = 0
y cualquier r, es decir, el espacio solucin tiene como una posible base
(1, 0)
que es tambin la base (eigenbase) del eigenespacio 1
2
y que, por consiguiente
tiene dim(1
2
) = 1.
Anlogamente, para ` = 4 tenemos que
_
2 3
0 4
_ _
r
j
_
= 4
_
r
j
_
y
2r + 3j = 4r
4j = 4j
sistema que tiene como espacio solucin los mltiplos de
(
3
2
, 1)
y tambin en este caso dim(1
4
) = 1.
17.5. MATRIZ DE UN OPERADOR EN UNA EIGENBASE. 159
17.5. Matriz de un operador en una eigenbase.
Suponga ahora que la base c consiste de eigenvectores, con lo que T
I
= `
I
(i = 1, 2...:) y, por lo tanto, la matriz de T respecto a c es
' =
_
_
_
_
_
`
1
0 ... 0
0 `
2
... 0
.
.
.
.
.
.
0 0 ... `
n
_
_
_
_
_
es decir, una matriz diagonal con los eigenvalores sobre la diagonal.
Como ' = 1
1
1 convierte en una matriz diagonal ' decimos que
1 es una matriz diagonalizadora. De aqu se sigue que 1 = 1' (que es la
versin matricial de la ecuacin de eigenvalores = `). Adems nos indica
que las columnas de 1 son precisamente las coordenadas de los eigenvectores.
17.5.1. independencia de eigenvectores.
Tenemos que los eigenvectores correspondientes a diferentes eigenvalores son
independientes.
Teorema 180 Si
1
,
2
..
n
son eigenvectores correspondientes a eigenval-
ores distintos, entonces son linealmente independientes.
Demostracin. : Por induccin en el nmero : de elementos. Para : = 1 slo
hay un eigenvector
1
, como
1
,= 0 (por ser eigenvector) el conjunto
1
es
independiente. Suponga ahora que el teorema es vlido para : = /. Considere
el conjunto
1
,
2
..
|
,
|+1
y la ecuacin de dependencia
c
1

1
+c
2

2
+...c
|

|
+c
|+1

|+1
= 0
de donde
T(c
1

1
+c
2

2
+...c
|

|
+c
|+1

|+1
) = 0
c
1
`
1

1
+c
2
`
2

2
+...c
|
`
|

|
+c
|+1
`
|+1

|+1
= 0
y, multiplicando la ecuacin c
1

1
+ c
2

2
+ ...c
|

|
+ c
|+1

|+1
= 0 por `
|+1
j
restando ambas ecuaciones nos queda
(`
1
`
|+1
)c
1

1
+ (`
2
`
|+1
)c
2

2
+...(`
|
`
|+1
)c
|

|
= 0
pero, por la hiptesis de induccin
1
,
2
..
|
es independiente de modo que
(`
1
`
|+1
)c
1
= 0
(`
2
`
|+1
)c
2
= 0
.
.
.
(`
|
`
|+1
)c
|
= 0
160 CAPTULO 17. EIGENVALORES Y EIGENVECTORES
y ninguno de los trminos (`
1
`
|+1
) es cero pues los eigenvalores son todos
distintos. Por ello
c
1
= c
2
... = c
|
= 0
y c
|+1

|+1
= 0 con lo que c
|+1
= 0 y
1
,
2
..
|
,
|+1
es independiente com-
pletando la demostracin.
17.6. Un ejemplo completo
Considere la matriz =
_
_
2 1 1
2 3 2
3 3 4
_
_
. es diagonalizable? En caso ar-
mativo calcular la matriz diagonalizadora.
El primer paso es el clculo del polinomio caracterstico. Por ello evaluemos
j(`) = det
_
_
_
_
2 1 1
2 3 2
3 3 4
_
_
`
_
_
1 0 0
0 1 0
0 0 1
_
_
_
_
= det
_
_
_
_
2 1 1
2 3 2
3 3 4
_
_

_
_
` 0 0
0 ` 0
0 0 `
_
_
_
_
= det
_
_
2 ` 1 1
2 3 ` 2
3 3 4 `
_
_
= (2 `) [(3 `)(4 `) (3)(2)]
(1) [(2)(4 `) (3)(2)]
+ (1) [(2)(3) (3)(3 `)]
= (2 `)
_
(`
2
7` + 12 6

[(8 2` 6] + [(6 9 + 3`)]


= (2 `)
_
(`
2
7` + 6

(2 2`) + (3 + 3`)
= 2`
2
14` + 12 `
3
+ 7`
2
6` 2 + 2` 3 + 3`
= `
3
+ 9`
2
15` + 7
o, en resumidas cuentas
j(`) = `
3
+ 9`
2
15` + 7
El segundo paso es hallar los eigenvalores, que son las raices del polinomio
caracterstico. En este caso el polinomio es de grado tres y tiene coecientes
enteros por lo que buscamos una raz entre los divisores de 7 que son 1 y 7.
Una evaluacin explcita nos dice que
j(1) = 1 + 9 15 + 7 = 0
17.6. UN EJEMPLO COMPLETO 161
de modo que el primer eigenvalor encontrado es `
1
= 1. Por ello el polinomio j
puede factorizarse como
j(`) = (` 1)(`)
donde es un polinomio de grado dos. puede ser hallado mediante divisin
sinttica
_
_
-1 9 -15 7
-1 8 -7
-1 8 -7 0 1
_
_
de modo que
(`) = `
2
+ 8` 7
cuyas raices son
`
2,3
=
(8)
_
(8)
2
(4)(1)(7)
(2)(1)
=
8
_
36
2
=
8 6
2
=
_
1
7
y
`
1
= 1
`
2
= 1
`
3
= 7
observando que el eigenvalor 1 es de multiplicidad 2.
El siguiente paso es calcular los eigenvectores. Comencemos con `
3
= 7. La
ecuacin de eigenvectores es
_
_
2 1 1
2 3 2
3 3 4
_
_
_
_
r
j
.
_
_
= 7
_
_
r
j
.
_
_
o
2r +j +. = 7r
2r + 3j + 2. = 7j
3r + 3j + 4. = 7.
que es equivalente a
5r +j +. = 0
2r 4j + 2. = 0
3r + 3j 3. = 0
162 CAPTULO 17. EIGENVALORES Y EIGENVECTORES
cuya matriz de coecientes es
_
_
5 1 1
2 4 2
3 3 3
_
_
-
_
_
5 1 1
2 4 2
1 1 1
_
_
-
_
_
0 6 4
0 6 4
1 1 1
_
_
-
_
_
0 0 0
0 6 4
1 1 1
_
_
-
_
_
0 0 0
0 3 2
1 1 1
_
_
-
_
_
0 0 0
0 1
2
3
1 1 1
_
_
-
_
_
1 1 1
0 1
2
3
0 0 0
_
_
-
_
_
1 0
1
3
0 1
2
3
0 0 0
_
_
y un sistema equivalente al original es
r
.
3
= 0
j
2.
3
= 0
y como r, j son variables ligadas en tanto que . es la nica variable libre
(r, j, .) = (
.
3
,
2.
3
, .)
por lo que, si tomo . = 3 (para evitar fracciones), una base para 1
7
ser
(1, 2, 3) y dim(1
7
) = 1.
A continuacin tomamos el eigenvalor 1 (de multiplicidad dos).
La ecuacin de eigenvector es, en este caso
_
_
2 1 1
2 3 2
3 3 4
_
_
_
_
r
j
.
_
_
= 1
_
_
r
j
.
_
_
17.6. UN EJEMPLO COMPLETO 163
o
2r +j +. = r
2r + 3j + 2. = j
3r + 3j + 4. = .
y pasando todo al lado izquierdo obtenemos el sistema homogneo
r +j +. = 0
2r + 2j + 2. = 0
3r + 3j + 3. = 0
cuya matriz de coecientes es
_
_
1 1 1
2 2 2
3 3 3
_
_
-
_
_
1 1 1
1 1 1
1 1 1
_
_
-
_
_
1 1 1
0 0 0
0 0 0
_
_
y un sistema equivalente es
r +j +. = 0
aqu r es la nica variable ligada, las variables libres son j y .. Por ello
(r, j, .) = (j ., j, .)
= (j, j, 0) + (., 0, .)
= j(1, 1, 0) +.(1, 0, 1)
y una posible base para 1
1
sera (1, 1, 0), (1, 0, 1) y dim(1
1
) = 2.
Por todo esto, una base para R
3
que sea eigenbase de ser
, = (1, 2, 3), (1, 1, 0), (1, 0, 1)
y si T es el operador cuya matriz es (en alguna base no especicada c)
entonces
'
o
o
(T) =
_
_
2 1 1
2 3 2
3 3 4
_
_
'
o
o
(T) =
_
_
7 0 0
0 1 0
0 0 1
_
_
note que la ltima matriz es diagonal y contiene a los eigenvalores en el orden
elegido.
164 CAPTULO 17. EIGENVALORES Y EIGENVECTORES
Por ltimo, hay que calcular la matriz diagonalizadora. Para ello recuerde
que los vectores obtenidos (es decir (1, 2, 3), (1, 1, 0), (1, 0, 1)) contienen las
coordenadas de los eigenvectores en la base c (de la que no sabemos explcita-
mente quin es). Por ello la matriz que contiene, como columnas, estos nmeros
es la matriz de transicin 1 de la base , a la base c, en nuestro caso
1 =
_
_
1 1 1
2 1 0
3 0 1
_
_
y podemos fcilmente corroborar que en efecto
1
1
1
=
_
_
1
6
1
6
1
6

1
3
2
3

1
3

1
2

1
2
1
2
_
_
_
_
2 1 1
2 3 2
3 3 4
_
_
_
_
1 1 1
2 1 0
3 0 1
_
_
=
_
_
7 0 0
0 1 0
0 0 1
_
_
Por cierto, si le piden que compruebe una ecuacin del tipo 1 = 1
1
1 mejor
compruebe la ecuacin equivalente 1 = 11, es ms fcil (no hay que calcular
ninguna inversa).
Comentario 181 De la ecuacin j(`) = det( `1) podemos ver que j(0) =
det() por lo que el trmino de grado cero del polinomio caracterstico (trmino
independiente) es igual al determinante. Tambin puede demostrarse que, si
es de : :, entonces el coeciente del trmino de grado : 1 es igual a
(1)
n+1
tr().
Comentario 182 Dado que la traza y el determinante no cambian bajo trans-
formaciones de semejanza; si es diagonalizable entonces su traza es la suma
de sus eigenvalores y su determinante el producto. En realidad esto es cierto
aun sin la suposicin de diagonalizabilidad para espacios complejos (toda matriz
compleja es semejante a una matriz triangular superior donde los elementos de
la diagonal son los eigenvalores).
Captulo 18
Interpretacin geomtrica
de las transformaciones
lineales (II).
Cuando la matriz de la transformacin es ' =
_
/ 0
0 |
_
ya hemos visto
que se trata de expansiones (o contracciones) por factores / y | en las direcciones
r y j respectivamente. Notemos que esta matriz tiene eigenvalores precisamente
/ y | y que los eigenvectores son (0, 1) y (1, 0).
Si la matriz es del tipo ' =
_
a /
/ c
_
, es decir, una matriz simtrica, ocurre
(ver seccin siguiente) que ' es diagonalizable y existe una matriz ortogonal 1
tal que 1
1
'1 es diagonal. Esto quiere decir que hay un sistema coordenado
(dado por los eigenvectores de ') en el cual la transformacin es del tipo ' =
_
/ 0
0 |
_
. Luego, toda matriz simtrica representa expansiones o contracciones
con respecto a dos ejes perpendiculares.
Los espejos, como ' =
_
0 1
1 0
_
, tienen dos eigenvectores perpendiculares,
uno de los eigenvalores es 1 y el otro es 1, indicando que en la direccin del
espejo nada cambia (linea invariante) y en la direccin perpendicular se cambia
el signo (se reeja).
Mucho ms interesantes son los cortes del tipo ' =
_
1 `
0 1
_
, estos op-
eradores no son diagonalizables. Hay un slo eigenvector ((1, 0) en este caso)
y corresponde al eigenvalor 1. Decimos que hay tan slo una lnea invariante,
es caracterstica de los cortes el tener una lnea (o plano en tres dimensiones)
invariante. En cursos ms avanzados una matriz como ' se dice que est en
forma de bloque de Jordan.
165
166CAPTULO18. INTERPRETACINGEOMTRICADE LAS TRANSFORMACIONES LINEALES (II).
Parte VI
Espacios con producto
interior
167
Captulo 19
Espacios con producto
interior
19.1. Motivacin
Todo estudiante seguramente conoce el producto punto o escalar que le
ensearon desde preparatoria. Es el producto que usamos en los cursos elemen-
tales de fsica para calcular el trabajo hecho por una fuerza (\ =

1

d).
Este producto se dene mediante
a

/ =[ a [ [

/ [ cos(0)
donde [ a [y [

/ [ representan los tamaos de a y de



/ respectivamente y 0 es el
ngulo entre los dos vectores
Aqu no podemos usar este enfoque porque:
no se ha denido lo que signica el tamao de un vector
no se ha denido lo que signica el ngulo entre dos vectores.
19.2. Concepto de producto interior
Denicin 183 Decimos que \ es un espacio con producto interior si es un
espacio vectorial real (complejo) y hay una funcin
: \ \ R
( : \ \ C segn el caso) que asocia con cada par de vectores a, / \ un
nmero real (complejo) a, / y que satisface los siguientes cuatro axiomas:
1)Si a, / \ entonces a, / = /, a . La barra denota conjugacin compleja.
2)Si a, /, c \ entonces a +/, c = a, c +/, c
3) Si a \ y , C (o , R ) entonces ,c, a = ,c, a
4) Si a \ entonces a, a _ 0. a, a = 0 si y slo si a = 0.
169
170 CAPTULO 19. ESPACIOS CON PRODUCTO INTERIOR
Notacin 184 Los productos interiores pueden denotarse de diversas maneras
amn de la ya explicada a, /, entre otras podemos mencionar (a [ /), a /,
a [ / y (a, /). Entindase que no es terriblemente importante cul signo de
agrupacin usemos ( ()) o cul separador empleemos (, [). Los signos de agru-
pacin < y se conocen en ingls como brackets y (hasta donde sabemos)
en espaol son parntesis angulares (creemos que no se llaman ni llaves
ni corchetes [] ni comillas ). En estas notas usaremos preferentemente la no-
tacin a, / para los productos interiores. En los textos de mecnica cuntica
se usa invariablemente la notacin de Dirac a [ /. Como sinnimos podemos
usar productos internos y productos escalares, aunque hay que aclarar que al-
gunos autores reservan este ltimo nombre para el producto habitual en espacios
R
n
(que se ver en seguida).
Comentario 185 En la mecnica cuntica el axioma tres tiene la forma: 3)
Si a \ y / C (o / R ) entonces c, /a = /c, a. no sera mejor usar
en este curso las convenciones habituales en la mecnica cuntica, en donde el
lgebra lineal tiene su ms perfecta y acabada aplicacin?. En lenguaje tcnico;
vamos a usar productos lineales con respecto a su primer factor y antilineales
con respecto al segundo, pero en mecnica cuntica los productos son siempre
antilineales en el primer factor y lineales en el segundo.
Comentario 186 Note que en esta seccin es importante que los espacios sean
especcamente reales o complejos. En las secciones anteriores casi todo era
vlido para espacios sobre campos arbitrarios; pero en la denicin del producto
interior se usan la conjugacin de complejos y el orden (_) en los reales.
19.3. Ejemplos de productos interiores
Ejemplo 187 Considere R
n
y dena
a, / =
n

I=1
a
I
/
I
si
a = (a
1
, a
2
, ...a
n
)
/ = (/
1
, /
2
, .../
n
)
Entonces:
a) /, a =

n
I=1
/
I
a
I
=

n
I=1
a
I
/
I
= a, / (note que hemos usado la conmuta-
tividad del producto de nmeros reales)
19.3. EJEMPLOS DE PRODUCTOS INTERIORES 171
b) Si c = (c
1
, c
2
, ...c
n
) tendremos que
a +/, c =
n

I=1
(a
I
+/
I
)c
I
=
n

I=1
a
I
c
I
+
n

I=1
/
I
c
I
= a, c +/, c
c)si , R
,a, / =
n

I=1
(,a
I
)/
I
= ,
n

I=1
a
I
/
I
= ,a, /
d) claramente si a = 0 tendremos que
a, a =
n

I=1
00
= 0
y, conversamente, si
a, a = 0
=
n

I=1
a
2
I
pero la suma de nmeros no negativos no puede ser cero a menos que todos los
sumandos sean cero de modo que si a, a = 0 entonces a
I
= 0 \i y a = 0.
Adems, como

n
I=1
a
2
I
es la suma de trminos no negativos, debe de satisfacer

n
I=1
a
2
I
_ 0.
Ejemplo 188 Anlogamente, en C
n
denimos
a, / =
n

I=1
a
I

/
I
si
a = (a
1
, a
2
, ...a
n
)
/ = (/
1
, /
2
, .../
n
)
y dejamos la demostracin al lector. Note la barra de conjugacin en la deni-
cin.
172 CAPTULO 19. ESPACIOS CON PRODUCTO INTERIOR
Comentario 189 El producto interior en R
n
puede escribirse como
a, / = a/
T
si pensamos que a y / son un vectores rengln. Alternativamente,
a, / = /
T
a
si pensamos que a y / son un vectores columna.
Comentario 190 El producto en C
n
puede escribirse como
a, / = a/
+
si pensamos que a y / son un vectores rengln. Alternativamente,
a, / = /
+
a
si pensamos que a y / son un vectores columna.
Ejemplo 191 En 1
n
un producto frecuente es el denido por
1(r), Q(r) =
_
b
o
1(r)Q(r)dr
donde a y / son nmeros reales jos (a < /). Es un producto interior pues:
a)
1(r), Q(r) =
_
b
o
1(r)Q(r)dr
=
_
b
o
Q(r)1(r)dr
= Q(r), 1(r)
b)
/1(r), Q(r) =
_
b
o
/1(r)Q(r)dr
= /
_
b
o
1(r)Q(r)dr
= /1(r), Q(r)
19.4. ALGUNAS PROPIEDADES DE LOS PRODUCTOS INTERIORES173
c)
1(r) +Q(r), 1(r) =
_
b
o
(1(r) +Q(r))1(r)dr
=
_
b
o
(1(r)1(r) +Q(r)1(r))dr
=
_
b
o
1(r)1(r)dr +
_
b
o
Q(r)1(r)dr
= 1(r), 1(r) +Q(r), 1(r)
donde 1(r) 1
n
.
d) Si 1(r) = 0 claramente
1(r), 1(r) =
_
b
o
0dr = 0
y, conversamente, si
1(r), 1(r) = 0
=
_
b
o
1(r)
2
dr
pero siendo los polinomios funciones continuas, la nica manera de tener una
integral cero para un integrando no negativo es que el integrando sea cero.
Siendo el integrando no negativo, necesariamente se cumple que
_
b
o
1(r)
2
dr _ 0.
Ejemplo 192 En espacios de matrices, digamos '
+
(:, :) un producto habitual
es el dado por
', = tr('
+
)
y dejo al lector la demostracin.
19.4. Algunas propiedades de los productos in-
teriores
De los axiomas podemos obtener algunas propiedades bsicas de los produc-
tos interiores.
Teorema 193 Sea \ un espacio vectorial con un producto interior. Entonces:
a) a, / +c = a, / +a, c para cualesquiera a,/ y c \
b) a, ,/ = ,a, / para cualesquiera a,/ \ y , escalar.
c) a, 0 = 0, a = 0
174 CAPTULO 19. ESPACIOS CON PRODUCTO INTERIOR
Demostracin. a)
a, / +c = / +c, a
= /, a +c, a
= /, a +c, a
= a, / +a, c
b)
a, ,/ = ,/, a
= ,/, a
= ,/, a
= ,a, /
c) a,

0 = a, 0/ = 0a, / = 0 (/ es cualquier vector, la demostracin de


0, a = 0 es similar)
19.5. La desigualdad de Cauchy-Schwarz
La llamada desigualdad de Cauchy-Schwarz juega un papel muy importante
tanto en el lgebra lineal como en sus aplicaciones. En lgebra lineal est en el
corazn de muchas construcciones geomtricas tales como las normas y distan-
cias. En mecnica cuntica da lugar a las famosas relaciones de incertidumbre
de Heisenberg.
Teorema 194 Sea \ un espacio vectorial complejo con un producto interior.
Entonces para cualesquiera vectores a y / tenemos que
[ a, / [
2
_ a, a/, /
y la igualdad se cumple si y slo si los vectores son linealmente dependientes.
19.5. LA DESIGUALDAD DE CAUCHY-SCHWARZ 175
Demostracin. Si / = 0 la desigualdad se cumple trivialmente. Suponga, pues,
que / ,= 0 y considere la expresin
j = a
a, /
/, /
/, a
a, /
/, /
/
= a, a a,
a, /
/, /
/
a, /
/, /
/, a
+
a, /
/, /
/,
a, /
/, /
/
= a, a
a, /
/, /
a, /
a, /
/, /
/, a
+
a, /
/, /
a, /
/, /
/, /
= a, a 2
a, /
/, /
/, a +
a, /
/, /
/, a
= a, a
a, /
/, /
/, a
pero j _ 0 pues es el producto de un vector consigo mismo, por ello
a, a
a, /
/, /
/, a _ 0
a, a _
a, /
/, /
/, a
a, //, a _ a, a/, /
[ a, / [
2
_ a, a/, /
demostrando la primera parte del teorema.
Suponga ahora que
[ a, / [
2
= a, a/, /
de las ecuaciones anteriores se ve que esto implica que
a
a, /
/, /
/, a
a, /
/, /
/ = 0
y, por lo tanto, que
a
a, /
/, /
/ = 0
a =
a, /
/, /
/
probando que a, / es dependiente.
Conversamente, si a, / es dependiente, entonces a = ,/ para algn , y
[ ,/, / [
2
=[ , [
2
[ /, / [
2
176 CAPTULO 19. ESPACIOS CON PRODUCTO INTERIOR
y
a, a/, / = ,/, ,//, /
= ,,/, //, /
=[ , [
2
[ /, / [
2
19.6. Normas
El tamao si importa!
19.6.1. motivacin.
En el producto escalar elemental a / =[ a [[ / [ cos(0) obtenemos para el
caso especial a = / que a a =[ a [
2
por lo que
[ a [=
_
a a
y donde se entiende que tomamos la raz positiva. Es decir, del producto podemos
inferir el tamao.
19.6.2. Caso general.
En un espacio vectorial con producto interior podemos denir la nocin de
tamao del vector o norma.
Denicin 195 Sea \ un espacio vectorial sobre el campo de los nmeros reales
o los nmeros complejos. Por una norma en \ entenderemos una funcin | | :
\ R que asocia con cada vector r un nmero real |r| que cumple con las
siguientes propiedades:
a) |r| _ 0 \r \ y |r| = 0 si y slo si r = 0.
/) |r| =[ [ |r| \r \ y \ 1(algunos autores llaman a esto propiedad
de homogeneidad).
c) |r +j| _ |r| +|j| (desigualdad del tringulo).
Denicin 196 Un espacio vectorial \ con una norma | | se llama espacio
normado.
Ejemplo 197 En C
n
y en R
n
tenemos, como ejemplos de normas,
| |

=
_
n

I=1
([
I
[)

_1
p
y, cuando j ,
| |
o
= max[
I
[
19.6. NORMAS 177
Si j = 1 tendremos
| |
1
=
n

I=1
([
I
[)
En la norma | |

cuando j = 2 tenemos la norma inducida por el producto


interior habitual (ver el siguiente ejemplo).
Ejercicio 198 Indague el signicado de la homogeneidad de la norma en el
caso de vectores geomtricos en dos o tres dimensiones.
En un espacio dado hay muchas normas posibles, sin embargo si el espacio
est equipado con un producto interior hay una norma especial que proviene del
producto, esta norma se llama norma inducida por el producto interior.
Denicin 199 Sea \ un espacio vectorial complejo con producto interior. La
norma inducida por el producto interior se dene mediante:
|r| =
_
r, r
(la raz positiva).
Ejemplo 200 En R
n
, con el producto interno habitual, tenemos la norma in-
ducida
| |=
_
n

I=1
([
I
[)
2
_1
2
que es una norma tipo | |

con j = 2.
Teorema 201 Sea \ un espacio vectorial complejo con producto interior. La
norma inducida por el producto interior es una norma.
Demostracin. a) De la denicin se ve que |r| _ 0. Si r = 0 |r| =
_
0, 0 =
_
0 = 0 y. por ltimo si |r| = 0 entonces r, r = 0 y r = 0.
b)
|r| =
_
r, r
=
_
r, r
=
_
[ [
2
r, r
=
_
[ [
2
_
|r|
2
=[ [ |r|
178 CAPTULO 19. ESPACIOS CON PRODUCTO INTERIOR
c) Como
|r +j|
2
= r +j, r +j
= r, r +r, j +j, r +j, j
= |r|
2
+|j|
2
+j, r +r, j
= |r|
2
+|j|
2
+j, r +j, r
= |r|
2
+|j|
2
+ 2 Re(j, r)
_ |r|
2
+|j|
2
+ 2 [ Re(j, r) [
_ |r|
2
+|j|
2
+ 2 [ j, r [
_ |r|
2
+|j|
2
+ 2
_
j, jr, r
= |r|
2
+|j|
2
+ 2
_
|r|
2
|j|
2
= |r|
2
+|j|
2
+ 2|r||j|
= (|r| +|j|)
2
y por ello |r +j| _ |r| +|j|
No debe pensarse que toda norma en un espacio vectorial es inducida por
un producto interior.
Si se sabe que en un espacio real la norma es inducida por un producto
interior, entonces puede inferirse cul es el producto interior.
Teorema 202 Sea \ un espacio vectorial real con un producto interior. Sea ||
la norma inducida por el producto interior. Entonces, para cualesquiera a, / en
\ tenemos que
a, / =
1
4
_
|a +/|
2
|a /|
2

Demostracin.
|a +/|
2
= a +/, a +/
= a, a +a, / +/, a +/, /
= |a|
2
+|/|
2
+ 2a, /
y
|a /|
2
= a /, a /
= a, a a, / /, a +/, /
= |a|
2
+|/|
2
2a, /
por lo que
|a +/|
2
|a /|
2
= 4a, /
y
a, / =
1
4
_
|a +/|
2
|a /|
2

19.6. NORMAS 179


Teorema 203 Sea \ un espacio vectorial complejo con un producto interior.
Sea || la norma inducida por el producto interior. Entonces, para cualesquiera
a, / en \ tenemos que
a, / =
1
4
_
|a +/|
2
|a /|
2

+
i
4
_
|a +i/|
2
|a i/|
2

Demostracin.
|a +/|
2
= a +/, a +/
= a, a +a, / +/, a +/, /
= |a|
2
+|/|
2
+ 2 Rea, /
|a /|
2
= a /, a /
= a, a a, / /, a +/, /
= |a|
2
+|/|
2
2 Rea, /
|a +i/|
2
= a +i/, a +i/
= a, a +a, i/ +i/, a +/, /
= |a|
2
+|/|
2
+i [/, a a, /]
= |a|
2
+|/|
2
+ [2i] i Im(/, a)
= |a|
2
+|/|
2
2 Im(/, a)
= |a|
2
+|/|
2
+ 2 Im(a, /)
|a i/|
2
= a i/, a i/
= a, a +a, i/ +i/, a +/, /
= |a|
2
+|/|
2
+ia, / i/, a
= |a|
2
+|/|
2
+i [a, / /, a]
= |a|
2
+|/|
2
+i [2i Ima, /]
= |a|
2
+|/|
2
[2 Ima, /]
por lo que
a, / =
1
4
_
|a +/|
2
|a /|
2

+
i
4
_
|a +i/|
2
|a i/|
2

Estas frmulas que dan los productos interiores se conocen como identidades
de polarizacin.
180 CAPTULO 19. ESPACIOS CON PRODUCTO INTERIOR
Ejemplo 204 La norma | |
o
= max[
I
[ no proviene de un producto
interior pues, si este fuera el caso,
19.7. Distancias (mtricas)
En un espacio \ puede denirse la nocin de distancia.
Sea \ un espacio vectorial, una distancia (o mtrica) en \ es una funcin
d : \ \ R que asocia con cada par r, j de vectores de \ un nmero real
d(r, j) que adems satisface las siguientes condiciones:
a) d(r, j) _ 0 \r, j \ y d(r, j) = 0 si y slo si r = j.
/) d(r, j) = d(j, r) \r, j \
c) d(r, j) _ d(r, .) +d(., j) \r, j, . \ (desigualdad del tringulo).
Denicin 205 Un espacio vectorial \ con una mtrica d se llama espacio
mtrico.
En general hay muchas maneras de denir una distancia en un espacio da-
do. Sin embargo, si el espacio es normado, hay una mtrica especial, llamada
mtrica inducida por la norma.
Denicin 206 Si \ es un espacio vectorial normado, entonces la distancia
inducida por la norma es la funcin denida mediante:
d(r, j) = |r j|
Teorema 207 Si \ es un espacio vectorial normado, entonces las distancia
inducida por la norma es una mtrica.
Demostracin. a) Como d(r, j) = |rj| tenemos (propiedades de las normas)
que d(r, j) _ 0. d(r, r) = |r r| = |0| = 0. Adems si d(r, j) = 0 entonces
|r j| = 0 y r j = 0 y r = j.
b) d(r, j) = |r j| = |j r| = d(j, r)
c)
d(r, j) = |r j|
= | (r .) + (. j) | _ | (r .) | +| (. j) |
= d(r, .) +d(., j)
Cuando la norma es inducida por un producto interior, la mtrica inducida
por esta norma se llama mtrica inducida por el producto interior.
Si se sabe que la metrica proviene de una norma, es posible reconstruir la
norma si nos dan la mtrica.
Teorema 208 Sea \ un espacio normado y sea d la mtrica inducida por la
norma. Entonces, para todo a \
|a| = d(a, 0)
19.8. NGULOS. 181
Comentario 209 Hemos dado todas las demostraciones pensando en el caso
de un espacio vectorial complejo. Dejamos al lector la tarea de cerciorarse de
que estas demostraciones siguen siendo vlidas en el caso real.
No debe pensarse que todas las mtricas provienen de una norma.
Ejemplo 210 Sea \ un espacio vectorial. Para a, / \ dena
d(a, /) =
_
0 si a = /
1 si a ,= /
Entonces d(a, /) es una mtrica en \ .
Ejemplo 211 La mtrica del ejemplo anterior no puede provenir de una norma
pues, si este fuera el caso,
|a| = d(a, 0)
y, para a ,= 0 y ,= 0
|a| = d(a, 0) = 0 ,=[ [ |a|
19.8. ngulos.
En espacios vectoriales reales puede denirse la nocin de ngulo, en espacios
complejos generalmente no se utilizan los ngulos. Consideremos de nuevo la
ecuacin a / =[ a [ [ / [ cos(0) de donde podemos despejar
cos(0) =
a /
[ a [ [ / [
y denimos el ngulo entre los dos vectores a y / como el ngulo 0 [0, ] que
satisface la equacin anterior.
Cuando 0 =
t
2
cos(0) = 0 y necesariamente a / = 0 .
19.9. Conjuntos ortogonales, normales y orto-
normales
Si un vector en \ tiene norma uno (|| = 1) decimos que est normalizado
(o que es unitario). Si || , = 1 entonces podemos normalizarlo,esto es, obtener
un vector n que es un mltiplo de pero |n| = 1 . Una manera simple de hacer
esto es multiplicando por el nmero (||)
1
(suponiendo, por supuesto, que
|| , = 0) pues
|(||)
1
| = (||)
1
|| = 1
Denicin 212 Un conjunto c =
1
,
2
..
n
se llama normalizadoo nor-
mal si |
I
| = 1 para i = 1, 2..:.
182 CAPTULO 19. ESPACIOS CON PRODUCTO INTERIOR
Denicin 213 Se dice que dos vectores y n son ortogonales (perpendicu-
lares) si , n = 0 .
Denicin 214 Se dice que un conjunto c =
1
,
2
..
n
es ortogonal si
I
,

=
0 para i ,= ,.
Denicin 215 Se dice que un conjunto c =
1
,
2
..
n
es ortonormal si es
normal y ortogonal, esto es, si

I
,

= c
I
para todo i, , = 1, 2..:.
Comentario 216 Hemos usado en la denicin precedente la llamada delta de
Kronecker. Es una funcin denida mediante
c
I
=
_
1 si i = ,
0 si i ,= ,
y donde i y , son enteros.
Denicin 217 Se dice que un conjunto c =
1
,
2
..
n
es una base orto-
normal si es ortonormal y es una base. Si el conjunto c es ortogonal pero no
normal, entonces se dice que es una base ortogonal.
19.9.1. Los conjuntos ortogonales son independientes
Teorema 218 Sea \ un espacio vectorial con producto interior y o =
1
,
2
...
n

un conjunto ortogonal de vectores no nulos. Entonces o es linealmente indepen-


diente.
Demostracin.
c
1

1
+c
2

2
+...c
n

n
= 0
c
1

1
+c
2

2
+...c
n

n
,

= 0
c
1

1
,

+c
2

2
,

+...c
n

n
,

= 0
c
1

1
,

+c
2

2
,

+...c
n

n
,

= 0
c

= 0
c

|
2
= 0
c

= 0
donde hemos usado la ortogonalidad y tambin el hecho de que

,= 0
19.10. MATRIZ CON RESPECTO A UNA BASE ORTONORMAL. 183
19.9.2. expansin con respecto a una base ortonormal .
Sea c =
1
,
2
..
n
una base ortonormal de un espacio vectorial \ con un
producto interior. Si \ entonces existen nmeros c
1
, c
2
...c
n
, nicos, y con
la propiedad de que
=
n

I=1
c
I

I
Tomando los productos interiores ,
|
obtenemos
,
|
=
n

I=1
c
I

I
,
|

=
n

I=1
c
I

I
,
|

=
n

I=1
c
I
c
I|
= c
|
de modo que
=
n

I=1

I
,
I

Si la base es ortogonal pero no ortonormal entonces


=
n

I=1

I
,
I

I
,
I

=
n

I=1

I
,
I

|
I
|
2
19.10. Matriz con respecto a una base ortonor-
mal.
Sean \ y \ espacios vectoriales, suponga que \ tiene un producto interior
, y que c =
1
,
2
..
n
y , = n
1
, n
2
..n
n
son bases de \ y \ respectivamente.
Suponga que , es una base ortonormal.
Si T : \ \ es una transformacin lineal, ya hemos visto que como
T
I
\ existen nmeros '
I
tales que
T

=
n

I=1
'
I
n
I
184 CAPTULO 19. ESPACIOS CON PRODUCTO INTERIOR
y tomando productos interiores
T

, n
|
=
n

I=1
'
I
n
I
, n
|

=
n

I=1
'
I
ni, n
|

=
n

I=1
'
I
c
I|
= '
|
y
'
|
= T

, n
|

En particular, cuando \ = \ y c = ,
'
|
= T

,
|

y las matrices se pueden calcular de una manera extraordinariamente simple.


19.11. Productos y cordenadas
Sea \ un espacio con producto interior y c =
1
,
2
..
n
una base ortonor-
mal. Entonces si
a =
n

I=1
a
I

I
/ =
n

=1
/

tendremos que
a, / =
n

I=1
n

=1
a
I

I
,

=
n

I=1
n

=1
a
I

c
I
=
n

I=1
a
I

/
I
= [/]
+
o
[a]
o
Pero note que [/]
+
o
[a]
o
es meramente el producto cannico en C
n
.
En R
n
tendremos que
a, / = [/]
T
o
[a]
o
= [a]
T
o
[/]
o
y [/]
T
o
[a]
o
es el producto cannico en R
n
.
19.12. COMPLEMENTOS ORTOGONALES 185
19.12. complementos ortogonales
Denicin 219 Sea \ un espacio vectorial con un producto interior. Sea \
un subespacio de \ . El complemento ortogonal de \ se dene como el conjunto
\
J
= \ [ , n = 0 \n \
Teorema 220 Sea \ un espacio vectorial con un producto interior. Sean \
un subespacio de \ y \
J
el complemento ortogonal de \. Entonces \
J
es un
subespacio de \ .
Demostracin. a) Claramente (de la denicin) \
J
\
b) Ciertamente 0 \
J
pues 0, n = 0 \n \ y \
J
,= c
c) Si a, / \
J
tendremos que a, n = 0 \n \ y /, n = 0 \n \
pero entonces a +/, n = a, n +/, n = 0 \n \ y a +/ \
J
d) sea , un escalar. Entonces si a \
J
tendremos que a, n = 0 \n \
pero entonces ,a, n = ,a, n = 0 \n \ y ,a \
J
Teorema 221 Sea \ un espacio vectorial con un producto interior. Sean \ un
subespacio de \ y \
J
el complemento ortogonal de \. Entonces dim(\
J
) =
dim(\ ) dim(\)
Demostracin. Sean / = dim(\ ) , : = dim(\) y =
1
,
2
...
n
una
base ortonormal de \. Extendemos esta base a una base ortonormal de \
1 =
1
,
2
...
n
,
n+1
, ..
|
. Aseveramos que los vectores
n+1
, ..
|
son una
base de \
J
. Como son parte de una base (para \ ) son independientes. Ahora
veremos que generan \
J
. Sea r \
J
, como \
J
\ tendremos que
r =
|

I=1

I
r,
I

pero r,
I
= 0 para i = : + 1.../ y
r =
|

I=n+1

I
r,
I

con lo que
n+1
, ..
|
genera \
J
y es una base. Por ello dim(\
J
) = dim(\ )
dim(\)
Comentario 222 En la prctica para ver que los vectores de un subespacio son
ortogonales a TODOS los de otro basta con probar esto en una base, si , n
I
=
0 para los vectores de una base n
I
, n
2
, ..n
n
entonces para n =

n
I=1

I
n
I
tendremos que
, n = ,
n

I=1

1
n
I
=
n

I=1

I
, n
I
= 0
186 CAPTULO 19. ESPACIOS CON PRODUCTO INTERIOR
19.13. Proyecciones
Como motivacin primeramente vamos a revisar los procedimientos elemen-
tales usados en mecnica para proyectar vectores, luego abordamos el caso ab-
starcto y general.
19.13.1. Motivacin
Suponga que tenemos un vector a y que deseamos hallar su proyeccin en
la direccin de otro vector

/ . Sea 0 el ngulo entre estos vectores, un vector
unitario (de norma 1 ) en la direccin de

/ es n =

b
]

b]
. Del tringulo ( gura) y
por vil trigonometra tenemos que
[ (a) [=[ a [ cos(0)
pero como
a n =[ a [[ n [ cos(0)
=[ a [ cos(0)
tenemos que
[ (a) [=a n
y un vector de tamao [ (a) [ en la direccin de n es
(a) =a n n
=
a

/
[

/ [
2

/
En la notacin propia del lgebra lineal
(a) =
a, /
|/|
2
/
y es esta expresin la que se generalizar a continuacin.
19.13. PROYECCIONES 187
19.13.2. Caso general
Sean \ un espacio vectorial con producto interior y \ un subespacio de
\ . Si c = n
1
, n
2
..n
n
es una base ortogonal de \ denimos la proyeccin
ortogonal de \ sobre el subespacio \ como la transformacin
: \ \
() =
n

I=1
, n
I

n
I
, n
I

n
I
Teorema 223 es lineal.
Demostracin. Sean a, / \ y , un escalar. Entonces:
a)
(a +/) =
n

I=1
a +/, n
I

n
I
, n
I

n
I
=
n

I=1
a, n
I

n
I
, n
I

n
I
+
/, n
I

n
I
, n
I

n
I
=(a) +(/)
b)
(,a) =
n

I=1
,a, n
I

n
I
, n
I

n
I
=
n

I=1
,
a, n
I

n
I
, n
I

n
I
= ,
n

I=1
a, n
I

n
I
, n
I

n
I
= ,(a)
Ejemplo 224 Veamos cul es el ncleo de .
r () = (r) = 0
=
n

I=1
r, n
I

n
I
, n
I

n
I
= 0
=
r, n
I

n
I
, n
I

= 0 \i
= r, n
I
= 0 \i
y por ello, el ncleo de es, ni ms ni menos, \
J
.
188 CAPTULO 19. ESPACIOS CON PRODUCTO INTERIOR
Ejemplo 225 Ahora veamos cul es la imagen de . De la denicin de
vemos que Im() \. Pero del teorema de la dimensin
dim(\ ) = dim(()) + dim(Im())
dim(\ ) = dim(\
J
) + dim(Im())
dim(Im()) = dim(\ ) dim(\
J
) = dim(\)
de modo que Im() = \.
Teorema 226 \ \ ( ()) \
J
.
Demostracin.
(), n

= , n

(), n

= , n

I=1
, n
I

n
I
, n
I

n
I
, n

= , n

I=1
, n
I

n
I
, n
I

n
I
, n

= , n

, n

= 0
y () es ortogonal a todos los vectores de la base ortogonal de\. Por ello
() es ortogonal a todos los vectores de \ (pues son combinaciones lineales
de los vectores de c).
Este teorema tiene una interpretacin importante. Llamemos n
t
= ()
de modo que = () +n
t
y tenemos a expresado como la suma de un vector
en \ (()) y uno en \
J
.
Los proyectores (otro nombre para las proyecciones) son idempotentes:
Teorema 227 Sea : \ \ una proyeccin ortogonal. Entonces
2
= .
Dejamos la demostracin al lector. Un operador con esta propiedad es llamado
idempotente.
Comentario 228 De la denicin de proyector puede verse que cada uno de
los vectores n
I
es un eigenvector de con eigenvalor 1. Anlogamente, cada
uno de los vectores de cualquier base de \
J
es eigenvector de con eigenvalor
0. Los eigenvalores de son 1 o 0. Dejamos al lector convencerse de que los
proyectores son diagonalizables.
19.14. Mejor aproximacin.
Damos, sin demostracin, el siguiente resultado:
19.15. MTODO DE GRAM-SCHMIDT 189
Teorema 229 (de la mejor aproximacin, tambin teorema de proyeccin).
Sea \ un espacio vectorial con producto interior y con la norma inducida |r| =
_
r, r. Sea \ un subespacio de \ con una base ortogonal c = n
1
, n
2
..n
n
.
Entonces para cualquier \ () es el nico punto en \ ms cercano a
y | ()| es la distancia de a \ en el sentido de que () est en \ y
| ()| _ | n| para todo n \.
Ejemplo 230 Considere \ = R
3
(con el producto interior habitual) y \ el
espacio generado por
1
,
2
donde
1
= (0, 1, 0) y
2
= (
4
5
, 0,
3
5
). cul es el
vector de \ ms cercano a n = (1, 1, 1)?
Calculemos
(n) =
n,
1

1
,
1

1
+
n,
2

2
,
2

2
=
(1)
(1)

1

(
1
5
)
(1)

2
= (0, 1, 0)
1
5
(
4
5
, 0,
3
5
)
= (
4
25
, 1,
3
25
)
Si llamamos n a
n = n (n)
= (1, 1, 1) (
4
25
, 1,
3
25
)
= (
21
25
, 0,
28
25
)
y
n = (
4
25
, 1,
3
25
) + (
21
25
, 0,
28
25
)
que es la suma de un vector en \ y otro en \
J
.
19.15. Mtodo de Gram-Schmidt
Es un mtodo que nos dice cmo obtener bases ortogonales de un espacio
tomando como punto de partida alguna base.
19.15.1. Formulacin del problema.
Sea \ un espacio vectorial con producto interior y sea c =
1
,
2
...
n

una base no-ortogonal. Lo que se desea es construir explcitamente una base


, = n
1
, n
2
...n
n
que sea ortogonal.
190 CAPTULO 19. ESPACIOS CON PRODUCTO INTERIOR
19.15.2. Idea bsica
La idea tras el mtodo (o algoritmo) de Gram-Schmidt es comenzar tomando
n
1
=
1
. No podemos tomar n
2
=
2
pues, en general,
2
no va a ser ortogonal
a
1
. Por ello tomamos mejor n
2
como
2
menos su proyeccin sobre el espacio
generado por n
1
. De lo dicho en secciones anteriores, este vector s ser ortogonal
a n
1
. Por ello ya tendremos un conjunto ortogonal n
1
, n
2
. El siguiente paso es
tomar n
3
como
3
menos su proyeccin sobre el espacio generado por n
1
, n
2

y as hasta acabar con una base ortogonal n


1
, n
2
...n
n
.
19.15.3. Formulacin explcita
En trminos matemticos,
n
1
=
1
n
2
=
2


2
, n
1

n
1
, n
1

n
1
n
3
=
3


3
, n
1

n
1
, n
1

n
1


3
, n
2

n
2
, n
2

n
2
.
.
.
n
|
=
|

|1

I=1

|
, n
I

n
I
, n
I

n
I
.
.
.
n
n
=
n

n1

I=1

n
, n
I

n
I
, n
I

n
I
Una base ortonormal puede obtenerse normalizando ,.
Ejemplo 231 Considere el subespacio de R
3
generado por (1, 0, 2), (0, 1, 3),
hallar una base ortogonal de dicho subespacio, usando el producto interior ha-
bitual en R
3
.
Usando el mtodo de Gram-Schmidt
n
1
= (1, 0, 2)
n
2
= (0, 1, 3)
(0, 1, 3), (1, 0, 2)
(1, 0, 2), (1, 0, 2)
(1, 0, 2)
= (0, 1, 3)
6
5
(1, 0, 2)
=
1
5
[(0, 5, 15) (6, 0, 12)]
=
1
5
(6, 5, 3)
Captulo 20
Cuadrados mnimos.
20.0.4. motivacin
Una ecuacin de la forma
r = j
donde es una matriz de :: , r es de : 1 y j es de :1, puede:
no tener soluciones
tener una solucin nica
tener un nmero innito de soluciones
Sin embargo a veces lo que nos interesa es saber cul es la r que ms se
acerca a ser una solucin de la ecuacin. Esto es relevante en contextos donde
hay errores experimentales en las medidas, quiz en sentido estricto no haya una
solucin.
Por ello nos planteamos el problema de hallar r
0
tal que
|r
0
j|
2
_ |r j|
2
para cualquier r. Esto es lo que se llama problema de cuadrados mnimos.
20.0.5. Teora
Podemos razonarlo de la siguiente manera:
r
0
est en el espacio columna de , col()
por ello, la pregunta es equivalente a inquirir cul es el vector de col()
ms cercano a j
pero por el teorema de la proyeccin sabemos que ese vector es la proyec-
cin de j sobre col() de modo que r
0
=
col(.)
(j)
191
192 CAPTULO 20. CUADRADOS MNIMOS.
adems sabemos que j r
0
es perpendicular a todo col() y por ello
perpendicular a r para cualquier r
entonces j r
0
, r = 0 para todo r
y se sigue que j, r = r
0
, r
note que r, j = r
T
j por lo que r, j = (r)
T
j = r
T

T
j = r
T
(
T
j) =
r,
T
j
y
T
j, r =
T
r
0
, r
como esto vale para toda r tenemos que

T
j =
T
r
0
es la condicin a satisfacerse. Este resultado suele llamarse ecuaciones
normales para el problema de cuadrados mnimos.
Cuando
T
es invertible,
r
0
=
_

_
1

T
j
da la solucin al problema.
Comentario 232 Una mnemotecnia: Si el problema es r - j entonces

T
r =
T
j , es decir, multiplique ambos miembros de r - j por la izquier-
da por
T
y cambie el signo de aproximadamente igual - por el de igualdad
=.
Ejemplo 233 Considere el problema lineal inhomogneo
r = /
donde
=
_
_
4 0
0 2
1 1
_
_
/ =
_
_
2
0
11
_
_
y primero veamos si podemos resolverlo por los mtodos habituales.
La matriz aumentada es
n =
_
_
4 0 2
0 2 0
1 1 11
_
_
20.1. APLICACIONES 193
cuya forma escalonada reducida por renglones es
_
_
1 0 0
0 1 0
0 0 1
_
_
indicando que el sistema es inconsistente (recuerda Usted que la huella digital
de un sistema incompatible es el tener un uno delantero en la columna del tr-
mino inhomogneo?).
Sin embargo tiene solucin en el sentido de mnimos cuadrados. Usando las
ecuaciones normales

T
=
_
17 1
1 5
_

T
/ =
_
19
11
_
y por ello, la solucin ptima r
0
ser
r
0
=
_

_
1

T
/
=
_
5
84

1
84

1
84
17
84
__
19
11
_
=
_
1
2
_
20.1. Aplicaciones
Una aplicacin importante surge cuando deseamos ajustar alguna curva a
un conjunto de datos.
Suponga que tenemos una serie de datos (r
I
, j
I
) (i = 1, 2...:) y que sospechamos
que representan (con cierto error experimental) una lnea recta j = :r +/.
Para cada r
I
denimos el residual como j
I
(:r
I
+/) y el problema aqu es
encontrar la : y la / que minimizan la suma de los cuadrados de los residuales.
Si los residuales fueran cero
j
I
= (:r
I
+/)
que se puede reescribir en forma matricial como (consideramos aqu a : y /
como las incgnitas)
A = 1
194 CAPTULO 20. CUADRADOS MNIMOS.
donde
A =
_
/
:
_
=
_
_
_
_
_
1 r
1
1 r
2
.
.
.
.
.
.
1 r
n
_
_
_
_
_
1 =
_
_
_
_
_
j
1
j
2
.
.
.
j
n
_
_
_
_
_
ecuacin que podemos resolver en el sentido de cuadrados mnimos con las
ecuaciones normales.
Con tres datos tendramos
1 =
_
_
j
1
j
2
j
3
_
_
=
_
_
1 r
1
1 r
2
1 r
3
_
_

T
=
_
1 1 1
r
1
r
2
r
3
_

T
=
_
3 r
1
+r
2
+r
3
r
1
+r
2
+r
3
r
2
1
+r
2
2
+r
2
3
_

T
A =
_
3/ +:(r
1
+r
2
+r
3
)
/ (r
1
+r
2
+r
3
) +:
_
r
2
1
+r
2
2
+r
2
3
_
_
y

T
1 =
_
j
1
+j
2
+j
3
r
1
j
1
+r
2
j
2
+r
3
j
3
_
de modo que
3/ +:(r
1
+r
2
+r
3
) = j
1
+j
2
+j
3
/ (r
1
+r
2
+r
3
) +:
_
r
2
1
+r
2
2
+r
2
3
_
= r
1
j
1
+r
2
j
2
+r
3
j
3
20.1. APLICACIONES 195
y, generalizando,
:/ +:
n

I=1
r
I
=
n

I=1
j
I
/
n

I=1
r
I
+:
n

I=1
r
2
I
=
n

I=1
r
I
j
I
tenemos las ecuaciones normales para este caso.
20.1.1. usando un poco de clculo
A =
_
_
_
_
_
/ +:r
1
/ +:r
2
.
.
.
/ +:r
n
_
_
_
_
_
A 1 =
_
_
_
_
_
/ +:r
1
j
1
/ +:r
2
j
2
.
.
.
/ +:r
n
j
n
_
_
_
_
_
c = |A 1 |
2
=
n

I=1
(/ +:r
I
j
I
)
2
(hemos llamado c al residual |A 1 |
2
) y por lo tanto minimizaremos c
cuando
0c
0/
= 0
0c
0:
= 0
o sea
n

I=1
2 (/ +:r
I
j
I
) = 0
n

I=1
2 (/ +:r
I
j
I
) r
I
= 0
y
:/ +:
n

I=1
r
I
=
n

I=1
j
I
/
n

I=1
r
I
+:
n

I=1
r
2
I
=
n

I=1
r
I
j
I
exactamente igual que en el clculo puramente algebraico.
196 CAPTULO 20. CUADRADOS MNIMOS.
20.1.2. otros comentarios
No entiendo porqu el concepto de pseudoinversa no es parte del curso.
Una solucin al problema
r - j
de cuadrados mnimos es
r
0
=

j
donde

es la pseudoinversa (de Moore-Penrose) de . Adems como


r
0
=

j =
col(.)
(j)
tenemos que

col(.)
=

Otra manera de enfocar el problema de los cuadrados mnimos es mediante


la descomposicin Q1, que puede verse como una pequea modicacin del
mtodo de Gram-Schmidt.
Una medida de qu tan bueno fue el ajuste est dada por
c = |A 1 |
2
si c fuera cero tendramos, entonces una solucin exacta. Una c pequea indica
un bun ajuste en tanto que grandes valores de c sealan un pobre ajuste.
20.1.3. un caso general y tpico
Suponga usted que hemos medido una serie de parejas (r
I
, j
I
) con i = 1...:
y que sospechamos que son puntos que, salvo los inevitables errores experimen-
tales, son descritos por un polinomio de grado :, a saber
j = a
0
+a
1
r +a
2
r
2
...a
n
r
n
Si no hubiera errores, tendramos que
a
0
+a
1
r
I
+a
2
r
2
I
...a
n
r
n
I
= j
I
para toda i. Pero este sistema de ecuaciones se puede re-escribir en forma vec-
torial como
a
0
_

_
r
0
1
r
0
2
.
.
.
r
0
n
_

_
+a
1
_

_
r
1
1
r
1
2
.
.
.
r
1
n
_

_
+a
2
_

_
r
2
1
r
2
2
.
.
.
r
2
n
_

_
+...a
n
_

_
r
n
1
r
n
2
.
.
.
r
n
n
_

_
=
_

_
j
1
j
2
.
.
.
j
n
_

_
y en forma matricial como
_

_
1 r
1
1
r
n
1
1 r
1
2
r
n
2
.
.
.
.
.
.
.
.
.
1 r
1
n
r
n
n
_

_
_

_
a
0
a
1
.
.
.
a
n
_

_
=
_

_
j
1
j
2
.
.
.
j
n
_

_
20.1. APLICACIONES 197
y si denimos
=
_

_
1 r
1
1
r
n
1
1 r
1
2
r
n
2
.
.
.
.
.
.
.
.
.
1 r
1
n
r
n
n
_

_
a =
_

_
a
0
a
1
.
.
.
a
n
_

_
j =
_

_
j
1
j
2
.
.
.
j
n
_

_
la ecuacin exacta sera
a = 1
Pero como hemos sealado, en presencias de errores esta ecuacin no tiene
(en general) solucin exacta y buscamos la mejor aproximacin del tipo
a ~ 1
y sabemos que esta mejor aproximacin est dada por las ecuaciones normales

T
a =
T
1
198 CAPTULO 20. CUADRADOS MNIMOS.
Parte VII
Operadores lineales en
espacios con producto
interior.
199
Captulo 21
Espacios duales.
Hay diversos procesos que dan lugar a nuevos espacios vectoriales, por ejem-
plo:
Dado un espacio \ podemos preguntarnos por sus subespacios.
Dados dos subespacios \ y de \ podemos formar el nuevo espacio
\ .
Dado el subespacio \ de \ (donde \ tiene un producto interior) podemos
formar el nuevo espacio \
J
.
Ahora veremos que dado un espacio \ siempre podemos formar otro,
llamado espacio dual y denotado mediante \
+
.
Sea \ un espacio vectorial sobre el campo 1. Una funcional lineal en \ es
una funcin c : \ 1 que es lineal, es decir:
c(r +j) = c(r) +c(j) \r, j \ .
c(cr) = cc(r) \r \ \c 1.
En el conjunto \
+
de todas las funcionales lineales en \ denimos una suma
de funcionales y un producto de funcionales por nmeros de 1 mediante:
(c +c) (r) = c(r) +c(r)
(cc)(r) = c(c(r))
Es fcil ver (y esperamos que el lector lo compruebe con cuidado) que \
+
,
equipado con esta suma y este producto por nmeros es un espacio vectorial
sobre 1.
El cero del espacio es la funcional
^
0 tal que
^
0() = 0 \ \ .
El negativo de c \
+
es la funcional c denida como (c)() =
(c()).
201
202 CAPTULO 21. ESPACIOS DUALES.
Teorema 234 Sea \ un espacio vectorial sobre el campo 1. El conjunto \
+
de
todas las funcionales lineales en \ con las operaciones denidas anteriormente,
es un espacio vectorial sobre el campo 1.
Este espacio \
+
recibe el nombre de espacio dual de \ . Note que en la
literatura a veces se abrevia y en vez de decir funcional lineal se dice funcional.
Las funcionales lineales tambin se conocen como formas lineales o, simple-
mente, formas (pero note que en matemticas hay tambin formas alternantes,
bilineales, multilineales, simtricas, sesquilineales y cuadrticas). A los vectores
de \
+
algunos autores los llaman co-vectores o, vectores duales o, incluso, vec-
tores recprocos.
Ejercicio 235 Pruebe el teorema.
Cuando 1 = C denimos una funcional antilineal en \ como una funcin
\ c : \ C tal que
c(r +j) = c(r) +c(j) \r, j \ .
c(cr) = cc(r) \r \ \c C.
Exactamente como en el caso de las funcionales lineales, podemos denir la
suma de funcionales antilineales y la multiplicacin de funcionales antilineales
por nmeros complejos, a saber:
(c +c) (r) = c(r) +c(r)
(cc)(r) = c(c(r))
Es tambin fcil ver que el conjunto de todas las funcionales antilineales en
\ con esta suma y este producto por nmeros es un espacio vectorial complejo.
Ejercicio 236 pruebe que el conjunto de todas las funcionales antilineales en
\ equipado con la suma y el producto por nmeros que se denieron arriba, es
un espacio vectorial sobre C.
21.0.4. ejemplos de funcionales.
Ejemplo 237 En R
n
la proyeccin
I
: R
n
R dada por

I
(r
1
, r
2
...r
n
) = r
I
es una funcional lineal.
Ejemplo 238 considere el espacio T de todas las funciones reales denidas en
el intervalo [a, /] y sea r
0
[a, /] . El mapeo que asigna a ) T el nmero
)(r
0
) es una funcional lineal en T . En trminos ms formales, q T
+
es un
mapeo q : T R tal que para ) T q()) = )(r
0
). Claramente q() + /) =
() +/)(r
0
) = )(r
0
) +/(r
0
) = q()) +q(/) para cualesquiera ), / T .
203
Ejemplo 239 SiT
1
es el subespacio de T formado por aquellas funciones en T
que son diferenciables, el mapeo q : T
1
R tal que para ) T
1
q()) =
J}
Jr
(r
0
)
es una funcional lineal en T
1
.
Ejemplo 240 Si T
2
es el subespacio de T formado por aquellas funciones en
T que son integrables en [a, /], el mapeo q : T
2
R tal que para ) T
2
q()) =
_
b
o
)(r)dr es una funcional lineal en T
2
.
Ejemplo 241 En '(:, :) la funcin traza es una funcional lineal.
21.0.5. una base del espacio dual.
Sea \ un espacio vectorial de dimensin nita y c =
1
,
2
...
n
una base.
Las funcionales lineales, al igual que cualquier otra transformacin lineal, quedan
jas una vez que se da su accin sobre una base; denamos pues las funcionales
lineales
+
I
(i = 1..:) mediante

+
I
(

) = c
I
Veamos ahora que estas funcionales forman un conjunto linealmente inde-
pendiente:
Sea
n

I=1
c
I

+
I
= 0
entonces
_
n

I=1
c
I

+
I
_

= [0]

= 0
y
n

I=1
c
I
[
+
I
]

= 0
o
n

I=1
c
I
c
I
= 0
y, nalmente c

= 0 para toda ,.
Por otro lado el conjunto c
+
=
+
1
,
+
2
...
+
n
genera \
+
. Sea c \
+
. Con-
sidere la funcional
=
n

I=1
c(
I
)
+
I
claramente
(

) =
n

I=1
c(
I
)
+
I
(

)
=
n

I=1
c(
I
)c
I
= c(

)
204 CAPTULO 21. ESPACIOS DUALES.
y = c de modo que cualquier \
+
es combinacin lineal de los vectores
de c
+
.
Por ello c
+
es una base de \
+
, adems vemos que dim(\
+
) = dim(\ ).
La base c
+
se llama base dual de c.
Un sencillo clculo muestra que si
=
n

I=1
c
I

I
entonces

() = c

y
=
n

I=1

()

Estas frmulas son tan importantes y tiles que vamos a ponerlas juntas en un
cuadro
=
n

I=1

()
I
c =
n

I=1
c(
I
)
+
I
21.1. productos interiores y espacios duales
Hay una conexin entre los espacios duales y los productos interiores.
En primer lugar, dado un vector \ podemos denir una funcional lineal
mediante
c(r) = r,
y dejamos al lector la comprobacin de que c es una funcional lineal.
Conversamente, vamos a ver que si c \
+
entonces existir algn \
tal que c(r) = r, .
Para ello notemos que una funcional lineal, siendo una transformacin lineal,
queda ja una vez que damos su efecto en una base. Sea pues c =
1
,
2
..
n

una base ortonormal de \ . Claramente si


r =
n

I=1
c
I

I
entonces
c(r) = c
_
n

I=1
r
I

I
_
=
n

I=1
r
I
c(
I
)
21.1. PRODUCTOS INTERIORES Y ESPACIOS DUALES 205
Dena ahora
=
n

I=1
[c(
I
)]
+

I
Un clculo sencillo revela que
r, = r,
n

I=1
[c(
I
)]
+

=
n

I=1
[c(
I
)] r,
I

=
n

I=1
[c(
I
)] r
I
y
r, = c(r)
En palabras, a cada vector le corresponde una funcional c(r) = r, y
a cada funcional c le corresponde un vector =

n
I=1
[c(
I
)]
+

I
(cuidado:aqu
el smbolo + es conjugacin y no dualizacin). El vector que le corresponde a
una funcional c es nico pues si
t
fuera otro vector con las mismas propiedades
que tendramos que
r, = r,
t

y
r,
t
= 0
para todo r \ . Por ello =
t
.
Dicho de otra manera, \ y \
+
son isomorfos. Esto ya lo sabamos dado que
tienen la misma dimensin.
Teorema 242 Sea \ un espacio vectorial complejo de dimensin nita y con
un producto interior. Entonces \ y \
+
son isomorfos.
206 CAPTULO 21. ESPACIOS DUALES.
Captulo 22
Operadores adjuntos
Sean \ un espacio vectorial sobre 1 de dimensin nita con producto interior
y T : \ \ un operador lineal.
Considere la expresin
c
o
: \ 1
c
o
(r) = T(r), a
Claramente c
o
es lineal para cualquier a \ . Por ello existe un (nico)
vector c
o
\ tal que
c
o
(r) = T(r), a = r, c
o

Ahora prestemos atencin al mapeo


T
+
: \ \
a c
o
aseveramos que es un mapeo lineal, es decir, un operador lineal. Este mapeo
recibe el nombre de adjunto de T, tambin a veces se le llama mapeo dual. Note
que la palabra adjunto o adjunta es ambigua. En teora de matrices se suele
llamar adjunta de a la matrz

que tiene la propiedad de que

=
det()1. Algunos autores, para resolver la confusin, llaman a

adjunta
clsica y a veces adyugada.
Por la denicin de T
+
vemos que
T(r), a = r, c
o

= r, T
+
(a)
ecuacin bsica para deducir las propiedades de los adjuntos.
Para ver que el adjunto es lineal considere
207
208 CAPTULO 22. OPERADORES ADJUNTOS
T(r), a +/ = T(r), a +T(r), /
= r, T
+
(a) +r, T
+
(/)
= r, T
+
(a) +T
+
(/)
= r, T
+
(a +/)
y por ello para todo r \
r, T
+
(a +/) (T
+
(a) +T
+
(/)) = 0
implicando que
T
+
(a +/) = (T
+
(a) +T
+
(/))
Anlogamente como
T(r), ,/ = ,T(r), /
= ,r, T
+
(/)
= r, ,T
+
(/)
= r, T
+
(,/)
tenemos que para todo r \
r, T
+
(,/) ,T
+
(/) = 0
y
T
+
(,/) = ,T
+
(/)
Por ello llamamos a T
+
operador (lineal) adjunto a T.
22.1. Matriz del operador adjunto con respecto
a una base ortonormal.
Sea \ un espacio vectorial (real o complejo) con producto interior, T : \
\ un operador lineal y c =
1
,
2
..
n
una base ortonormal de \ . Sean ' =
'
o
o
(T) y = '
o
o
(T
+
). Tal y como ya hemos visto
T(

) =
n

I=1
'
I

I
22.2. PROPIEDADES DEL ADJUNTO 209
por lo que
T(

),
|
=
n

I=1
'
I

I
,
|

=
n

I=1
'
I

I
,
|

=
n

I=1
'
I
c
I|
= '
|
Exactamente lo mismo ocurre para T
+
y
T
+
(

),
|
=
n

I=1

I
,
|

=
n

I=1

I
,
|

=
n

I=1

I
c
I|
=
|
pero, por la denicin de adjunto,

|
= T
+
(

),
|

, T(
|
)
= T(
|
),

= '
|
y las matrices ' y son conjugadas transpuestas (adjuntas) una de la otra.
En la notacin habitual
'
o
o
(T
+
) = ['
o
o
(T)]
+
donde + en la izquierda quiere decir adjunta del operador y la + en la derecha
quiere decir transpuesta conjugada.
22.2. Propiedades del adjunto
De la denicin de adjunto se sigue que:
(T
+
)
+
= T (idempotencia).
Demostracin: Como a, T(/) = T
+
(a), / tenemos que el adjunto de
T
+
ha de ser T.
210 CAPTULO 22. OPERADORES ADJUNTOS
(T +1)
+
= T
+
+1
+
(para cualesquiera operadores T, 1 : \ \ )
Demostracin: a, (T +1)(/) = a, T(/) +1(/) = a, T(/) +a, 1(/) =
T
+
(), / +1
+
(/), a = (T
+
+1
+
)(a), / de donde (T +1)
+
= T
+
+1
+
.
(o T)
+
= T
+
o
+
(si T : \ \ y o : \ )
Demostracin: a, (oT)(a) = a, o(T(/)) = o
+
(a), T(/) = T
+
(o
+
(a)), (/)
= (T
+
o
+
)(a), / de donde se sigue que (o T)
+
= T
+
o
+
.
(cT)
+
= cT
+
para cualquier operador lineal T y cualquier nmero c
Demostracin: a, (cT)(/) = a, cT(/) = ca, T(/) = cT
+
(a), / =
cT
+
(a), / de donde
se sigue que (cT)
+
= cT
+
.
1
+
\
= 1
\
Demostracin: a, 1
\
/ = a, / = 1
\
a, / con lo que 1
+
\
= 1
\
.
A continuacin suponga que r (T) de modo que T(r) = 0. Para cualquier
j \ tendremos que
0 = j, 0
= j, T(r)
= T
+
j, r
de modo que T
+
j es ortogonal a cualquier elemento de (T) y por ello
Im(T
+
) = [(T)]
J
y, anlogamente
[Im(T
+
)]
J
= (T)
e intercambiando los roles de T y T
+
(recuerde que la adjuncin es idempotente).
En resumidas cuentas:
Im(T) = [(T
+
)]
J
[Im(T)]
J
= (T
+
)
22.3. regla de correspondencia del adjunto
A veces tenemos un operador lineal T y se nos pide la regla de correspon-
dencia de su adjunto T
+
.
Ejemplo 243 Considere el espacio R
2
equipado con el producto interior ordi-
nario. Si T : R
2
R
2
est dado por
T(r, j) = (2r +j, r j)
22.3. REGLA DE CORRESPONDENCIA DEL ADJUNTO 211
podemos preguntarnos cul es la regla de correspondencia de
T
+
: R
2
R
2
en cuyo caso tendremos que
(n, ), T(r, j) = (n, ), (2r +j, r j)
= n(2r +j) +(r j)
= (2n +)r + (n )j
= (2n +, n ), (r, j)
= T
+
(n, ), (r, j)
con lo que
T
+
(n, ) = (2n +, n )
y
T
+
= T
Una manera ms sistemtica de resolver estos problemas comprende los sigu-
ientes pasos:
equipe su espacio con una base ortonormal c.
calcule la matriz '
o
o
(T)
por lo sealado arriba, la matriz '
o
o
(T
+
) est dada por la transpuesta
conjugada (adjunta) de '
o
o
(T)
teniendo '
o
o
(T
+
) es fcil deducir la regla de correspondencia de T
+
usando
el hecho de que [T
+
()]
o
= '
o
o
(T
+
)[]
o
.
Es posible tambin seguir una variante: Sea c =
1
,
2
..
n
una base orto-
normal de \ , entonces
T
+
(r) =
n

I=1
T
+
(r),
I

I
=
n

I=1
r, T(
I
)
I
frmula que nos permite calcular T
+
(r). Por supuesto, ambos mtodos son en-
teramente equivalentes.
Ejemplo 244 Para el ejemplo anterior, en la base cannica, la matriz de T es
'(T) =
_
2 1
1 1
_
con lo que la matriz de T
+
es la misma que la de T (pues '(T) es simtrica).
Por ello T
+
= T .
212 CAPTULO 22. OPERADORES ADJUNTOS
22.4. y si la base no era ortonormal?
Si la base dada no es ortonormal podramos ortogonalizarla mediante Gram-
Schmidt, lo cual es bastante engorroso. Veamos en esta seccin algunos mtodos
tiles en general.
Supongamos, pues, que \ es un espacio vectorial (complejo, por simplicidad,
consideraciones similares se aplican en el caso real) con producto interior, T :
\ \ un operador lineal y c =
1
,
2
..
n
una base arbitraria de \ . Sean
' = '
o
o
(T) y = '
o
o
(T
+
).
Observemos que, para r, j \ si
r =
n

I=1
r
I

I
j =
n

=1
j

entonces
r, j =
n

I=1
r
I

I
,
n

=1
j

=
n

I=1
n

=1
r
I
j

I
,

y si denimos una matriz q mediante q


I=

I
,

tendremos que
r, j = [r]
T
o
q[j]
o
Por ello,
r, Tj = [r]
T
o
q'[j]
o
= [r]
T
o
q'[j]
o
en tanto que
T
+
r, j = ([r]
o
)
T
q[j]
o
= [r]
T
o

T
q[j]
o
por lo que concluimos que (dado que estas ecuaciones valen para cualesquiera r
y j)
q' =
T
q
y

T
= q'q
1
=
_
q
1
_
T
_
'
_
T
q
T
= q
1
'q
T
o
= q
1
'
T
q
22.5. UN EJEMPLO COMPLETO 213
en donde usamos el hecho de que q
T
= q y el hecho (que no vamos a demostrar)
de que q es no-singular. De este modo podemos inferir a partir de ' aunque
la base no sea ortonormal.
La matriz q suele llamarse matriz de Gram de la base y en relatividad y
cristalografa recibe el nombre de tensor mtrico.
En el caso real la relacin entre ' y es:
= q
1
'
T
q
note que si la base era ortonormal entonces q = 1 y = '
+
como antes.
22.5. Un ejemplo completo
Considere el espacio 1
2
de los polinomios de grado menor o igual a dos con
coecientes reales y en donde se ha denido el producto interior
1, Q = a
0
/
0
+a
1
/
1
+a
2
/
2
para
1(r) = a
0
+a
1
r +a
2
r
2
Q(r) = /
0
+/
1
r +/
2
r
2
Considere tambin el operador 1 : 1
2
1
2
(derivacin) dado por
1(1(r)) =
d1(r)
dr
Encuentre la matriz asociada a 1 y a su adjunta 1
+
si:
1. la base es c = 1, r, r
2

2. la base es , =
1
2
r +
1
2
r
2
, 1 +r
2
,
1
2
r +
1
2
r
2

3. Dar la regla de correspondencia de 1


+
.
Para la primera parte calculamos
1(1) = 0 = (0)1 + (0)r + (0)r
2
1(r) = 1 = (1)1 + (0)r + (0)r
2
1(r
2
) = 2r = (0)1 + (2)r + (0)r
2
de modo que
'
o
o
(1) =
_
_
0 1 0
0 0 2
0 0 0
_
_
214 CAPTULO 22. OPERADORES ADJUNTOS
Ahora bien, la base c es ortonormal pues
1, 1 = 1
r, r = 1
r
2
, r
2
= 1
1, r = r, 1 = 0
1, r
2
= r
2
, 1 = 0
r, r
2
= r
2
, r = 0
por lo que la matriz de 1
+
ser simplemente la transpuesta de la de 1 y
'
o
o
(1
+
) =
_
_
0 0 0
1 0 0
0 2 0
_
_
Para la segunda parte del ejercicio comencemos calculando la matriz de 1
en la base ,.
1(
1
2
r +
1
2
r
2
) =
1
2
+r
1(1 +r
2
) = 2r
1(
1
2
r +
1
2
r
2
) =
1
2
+r
y al expresar estos resultados en la base , tendremos que

1
2
+r =
_

3
2
__

1
2
r +
1
2
r
2
_
+
_
1
2
_
_
1 +r
2
_
+
_
1
2
__
1
2
r +
1
2
r
2
_
2r = (2)
_

1
2
r +
1
2
r
2
_
+ (0)
_
1 +r
2
_
+ (2)
_
1
2
r +
1
2
r
2
_
1
2
+r =
_

1
2
__

1
2
r +
1
2
r
2
_
+
_

1
2
_
_
1 +r
2
_
+
_
3
2
__
1
2
r +
1
2
r
2
_
por lo que
'
o
o
(1) =
_
_

3
2
2
1
2
1
2
0
1
2
1
2
2
3
2
_
_
=
1
2
_
_
3 4 1
1 0 1
1 4 3
_
_
Ahora bien, la base , no es ortonormal, considere por ejemplo

1
2
r +
1
2
r
2
, 1 +r
2
= 0 + 0 +
1
2
=
1
2
,= 0
Por ello no podemos calcular la matriz de 1
+
simplemente como la transpues-
ta de la matriz de 1.
Tenemos dos caminos posibles y vamos a recorrer ambos.
22.5. UN EJEMPLO COMPLETO 215
La primera posibilidad es aprovecharnos de que conocemos la matriz '
o
o
(1
+
)
por lo que podemos calcular la matriz '
o
o
(1
+
) usando matrices de transicin
entre las bases c y , y
'
o
o
(1
+
) = '
o
o
'
o
o
(1
+
)'
o
o
donde '
o
o
es la matriz de transicin de la base , a la base c y '
o
o
es la matriz
de transicin de la base c a la base c. De los datos del problema tendremos que
'
o
o
=
_
_
0 1 0

1
2
0
1
2
1
2
1
1
2
_
_
y
'
o
o
(1
+
) =
_
_
0 1 0

1
2
0
1
2
1
2
1
1
2
_
_
1
_
_
_
_
0 0 0
1 0 0
0 2 0
_
_
_
_
_
_
0 1 0

1
2
0
1
2
1
2
1
1
2
_
_
=
_
_
1 1 1
0 0 0
1 1 1
_
_
El otro camino consiste en usar la matriz de Gram (tensor mtrico) tal y
como se describe en la seccin anterior.
Aqu q se calcula (usando la regla de correspondencia del producto interior)
como
q =
_
_
1
2
1
2
0
1
2
2
1
2
0
1
2
1
2
_
_
y por ello
_
'
o
o
(1
+
)
_
T
= q'
o
o
(1)q
1
=
_
_
1
2
1
2
0
1
2
2
1
2
0
1
2
1
2
_
_
_
_
1
2
_
_
3 4 1
1 0 1
1 4 3
_
_
_
_
_
_
1
2
1
2
0
1
2
2
1
2
0
1
2
1
2
_
_
1
=
_
_
1 0 1
1 0 1
1 0 1
_
_
y, nalmente,
_
'
o
o
(1
+
)
_
=
_
_
1 0 1
1 0 1
1 0 1
_
_
T
=
_
_
1 1 1
0 0 0
1 1 1
_
_
en completo acuerdo con el resultado obtenido mediante el otro mtodo.
216 CAPTULO 22. OPERADORES ADJUNTOS
La regla de correspondencia de 1
+
se inere facilmente del hecho de que
(primera parte)
'
o
o
(1
+
) =
_
_
0 0 0
1 0 0
0 2 0
_
_
con lo que
[1
+
()]
o
= '
o
o
(1
+
)[]
o
por lo que si
= a +/r +cr
2
[]
o
=
_
_
a
/
c
_
_
tendremos que
[1
+
(a +/r +cr
2
)]
o
=
_
_
0 0 0
1 0 0
0 2 0
_
_
_
_
a
/
c
_
_
=
_
_
0
a
2/
_
_
y
1
+
(a +/r +cr
2
) = ar + 2/r
2
Captulo 23
Operadores y matrices
Hermiteanos,
antihermiteanos, simtricos,
antisimtricos, unitarios,
ortogonales y normales.
En las aplicaciones tenemos casi siempre operadores lineales en espacios que
tambin tienen productos interiores. De aqu surgen diversas propiedades; las
principales tienen que ver con los operadores Hermiteanos. En lo que sigue
trabajaremos casi exclusivamente con espacios complejos aunque casi todos los
resultados se aplican al caso real.
Cuando el espacio vectorial es real, el adjunto de un operador T tambin
puede ser llamado operador transpuesto y se denota como T
T
.
23.1. Algunas deniciones bsicas
Denicin 245 Se dice que un operador lineal T : \ \ es Hermiteano (o
autoadjunto) si T = T
+
Denicin 246 Se dice que un operador lineal T : \ \ es antihermitiano
si T = T
+
Denicin 247 Se dice que un operador lineal en un espacio real T : \ \
es simtrico si T = T
T
Denicin 248 Se dice que un operador lineal en un espacio real T : \ \
es antisimtrico si T = T
T
217
218CAPTULO23. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
Denicin 249 Se dice que un operador lineal T : \ \ es unitario si T
1
=
T
+
Denicin 250 Se dice que un operador lineal en un espacio real T : \ \
es ortogonal si T
1
= T
T
Denicin 251 Se dice que un operador lineal T : \ \ es normal si TT
+
=
T
+
T.
Similarmente:
Denicin 252 Se dice que una matriz ' es Hermiteana (o autoadjunta) si
' = '
+
Denicin 253 Se dice que una matriz ' es antihermitiana si ' = '
+
Denicin 254 Se dice que una matriz ' es simtrica si ' = '
T
(aqu la
matriz puede ser real o compleja).
Denicin 255 Se dice que una matriz ' es antisimtrica si ' = '
T
Denicin 256 Se dice que una matriz ' es unitaria si '
1
= '
+
Denicin 257 Se dice que una matriz ' es ortogonal si '
1
= '
T
Denicin 258 Se dice que una matriz ' es normal si ''
+
= '
+
'.
23.2. Algunos teoremas
Al tomar en cuenta que las transformaciones estn asociadas con matrices,
al introducir bases ortonormales, tendremos que estas deniciones son lgicas,
adjuntos de operadores corresponden a adjuntos (conjugadas transpuestas) de
matrices, operadores normales corresponden a matrices normales, operadores
hermitianos corresponden a matrices hermitianas y operadores unitarios corre-
sponden a matrices unitarias.
Teorema 259 Sea \ un espacio vectorial con producto interior, c una base
ortonormal y T : \ \ un operador lineal. Sea ' = '
o
o
(T), entonces T es
normal si y slo si ''
+
= '
+
'.
Demostracin. Suponga que T es normal. Entonces
''
+
= '
o
o
(T)'
o
o
(T)
+
= '
o
o
(T)'
o
o
(T
+
)
= '
o
o
(TT
+
)
= '
o
o
(T
+
T)
= '
o
o
(T
+
)'
o
o
(T)
= '
o
o
(T)
+
'
o
o
(T)
= '
+
'
23.2. ALGUNOS TEOREMAS 219
Conversamente, si ''
+
= '
+
' entonces
''
+
'
+
' = 0
'
o
o
(TT
+
T
+
T) = 0
TT
+
T
+
T = 0
Teorema 260 Sea \ un espacio vectorial con producto interior, c una base
ortonormal , T : \ \ un operador lineal y ' = '
o
o
(T). Entonces T es
hermitiano si y slo si ' = '
+
Demostracin. Sea T hermiteano. Entonces
'
+
= '
o
o
(T
+
)
= '
o
o
(T)
= '
Conversamente, si '
+
= ' entonces
'
+
' = 0
'
o
o
(T
+
T) = 0
T
+
T = 0
Teorema 261 Sea \ un espacio vectorial con producto interior, c una base
ortonormal T : \ \ un operador lineal y ' = '
o
o
(T). Entonces T es
unitario si y slo si '
1
= '
+
Demostracin. Sea T unitario. Entonces '
+
'
+
= '
o
o
(T)
+
= '
o
o
(T
+
)
= '
o
o
(T
1
)
= '
o
o
(T)
1
= '
1
Conversamente, si ' = '
1
entonces:
'
+
'
1
= 0
'
o
o
(T
+
T
1
) = 0
T
+
T
1
= 0
220CAPTULO23. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
Teorema 262 Si H es un operador Hermiteano en un espacio vectorial com-
plejo con producto interior, entonces es normal.
Demostracin. Como
H
+
H = HH
HH
+
= HH
tenemos que H es trivialmente normal.
Teorema 263 Si l es un operador unitario en un espacio vectorial complejo
con producto interior, entonces es normal.
Demostracin. Como
l
+
l = l
1
l = ll
1
= ll
+
tenemos que l es normal.
Teorema 264 Si l es un operador unitario en un espacio vectorial complejo
con producto interior, entonces para cualesquiera vectores n y
ln, l = n,
Demostracin. Tenemos que
ln, l = n, l
+
l
= n, l
1
l
= n, 1
= n,
Teorema 265 Si ` es un eigenvalor de un operador Hermiteano H en un es-
pacio vectorial complejo con producto interior; entonces ` es real.
Demostracin. Sea ,= 0 un eigenvector de H con eigenvalor `. Entonces
H, = `, = `,
= , H = , ` =

`,
con lo que ` =

` (pues , , = 0).
Teorema 266 Si
1
y
2
son dos eigenvectores de un operador Hermiteano
H en un espacio vectorial complejo con producto interior correspondientes a
eigenvalores diferentes `
1
y `
2
entonces
1
,
2
= 0 .
23.2. ALGUNOS TEOREMAS 221
Demostracin. tenemos que
H
1
,
2
= `
1

1
,
2
= `
1

1
,
2

=
1
, H
2
=
1
, `
2

2
=

`
2

1
,
2
= `
2

1
,
2

con lo que
`
1

1
,
2
= `
2

1
,
2

(`
1
`
2
)
1
,
2
= 0

1
,
2
= 0
pues (`
1
`
2
) ,= 0.
Teorema 267 Si ` es un eigenvalor de un operador unitario l en un espacio
vectorial complejo con producto interior; entonces [ ` [= 1.
Demostracin. tenemos que si l = `
l, l = `, ` = `

`, =[ ` [
2
,
= , l
+
l = , l
1
l = , 1 = ,
con lo que
_
[ ` [
2
1
_
, = 0
[ ` [
2
= 1
pues , , = 0
Tenemos resultados ms generales
Teorema 268 Si es un eigenvector de un operador normal en un espa-
cio vectorial complejo con producto interior correspondiente al eigenvalor `,
entonces es eigenvector de
+
con eigenvalor

`
Demostracin. Sea = ` de modo que
0 =| ` |
2
= `, `
= , , ` `, +`, `
= ,
+

`,
+

+
,

` +

`,

`
= ,
+

`,
+

+
,

` +

`,

`
=
+
,
+

`,
+

+
,

` +

`,

`
=|
+

` |
2
de modo que
+
=

`
Teorema 269 Si
1
y
2
son dos eigenvectores de un operador normal en un
espacio vectorial complejo con producto interior correspondientes a eigenvalores
diferentes `
1
y `
2
entonces
1
,
2
= 0 .
222CAPTULO23. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
Demostracin. Tenemos que si

1
= `
1

2
= `
2

2
entonces

`
2

1
,
2
=
1
, `
2

2
=
1
,
2

=
+

1
,
2
=

`
1

1
,
2
=

`
1

1
,
2

y
_

`
2

`
1
_

1
,
2
= 0

1
,
2
= 0
pues `
1
,= `
2

23.3. Teorema espectral.


Muy frecuentemente se llama espectro de un operador al conjunto de sus
eigenvalores. Por ello las cuestiones relativas a los eigenvalores suelen recibir el
calicativo de espectrales (nada que ver con los fantasmas).
Ms formalmente:
Denicin 270 Sean \ un espacio vectorial de dimensin nita y T : \ \
un operador lineal. Entonces el espectro de T se dene como
:jcc(T) = ` [ ` es un eigenvalor de T
si el espacio no es de dimensin nita hay que usar una denicin ligeramente
diferente (y ms general):
:jcc(T) = ` [ (T `1) es singular
ambas deniciones son equivalentes en el caso de dimensin nita.
Teorema 271 Si c =
1
,
2
..
n
y , = n
1
, n
2
, ...n
n
son bases ortonormales
en un espacio \ con producto interior, entonces la matriz de transicin de c a
, es una matriz unitaria (ortogonal en el caso real).
Demostracin. Sean ' la matriz de transicin de , a c y '
1
la matriz de
23.3. TEOREMA ESPECTRAL. 223
transicin de c a ,. Entonces
n

=
n

I=1
'
I

I
n

,
|
=
n

I=1
'
I

I
,
|

=
n

I=1
'
I

I
,
|

=
n

I=1
'
I
c
I|
= '
|
Similarmente

|
=
n

I=1
'
1
I|
n
I

|
, n

=
n

I=1
'
1
I|
n
I
, n

=
n

I=1
'
1
I|
n
I
, n

=
n

I=1
'
1
I|
n
I
, n

=
n

I=1
'
1
I|
c
I
= '
1
|
Por ello
'
1
|
=
|
, n

= n

,
|

= '
|
y '
1
= '
+

Daremos ahora, sin demostracin, varios teoremas relativos a la diagonal-


izacin de diversos operadores.
Teorema 272 Sea \ un espacio vectorial complejo de dimensin nita con
producto interior y sea T : \ \ un operador lineal normal. Entonces T es
diagonalizable y tiene una base ortonormal de eigenvectores de T.
224CAPTULO23. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
Teorema 273 Si ' es una matriz normal entonces existe una matriz unitaria
l tal que l
1
'l es diagonal (la matriz diagonalizadora es unitaria).
Teorema 274 Sea \ un espacio vectorial real de dimensin nita con producto
interior y sea T : \ \ un operador lineal simtrico. Entonces T es diagonal-
izable y tiene base ortonormal de eigenvectores de T.
Teorema 275 Si ' es una matriz simtrica real entonces existe una matriz
ortogonal O tal que O
1
'O es diagonal (la matriz diagonalizadora es ortogo-
nal).
23.3.1. resolucin espectral
Sean \ un espacio vectorial complejo con producto interior y T : \ \ un
operador lineal normal. Sean c =
1
,
2
...
n
una eigenbase ortonormal de T
y o = `
1
, `
2
...`
n
el espectro de T.
Considere el operador lineal denido por
T
t
() =
n

I=1
`
I
,
I

I
Este operador es lineal pues para \, n \ y c C
T
t
( +n) =
n

I=1
`
I
+n,
I

I
=
n

I=1
[`
I
,
I

I
+`
I
n,
I

I
]
=
n

I=1
`
I
,
I

I
+
n

I=1
`
I
n,
I

I
= T
t
() +T
t
(n)
y
T
t
(c) =
n

I=1
`
I
c,
I

I
= c
n

I=1
`
I
,
I

I
= cT
t
()
23.3. TEOREMA ESPECTRAL. 225
Evaluando T
t
en la base, vemos que
T
t
(

) =
n

I=1
`
I

,
I

I
=
n

I=1
`
I
c
I

I
= `

por lo que T = T
t
(ambos operadores lineales coinciden en una base).
En conclusin
T() =
n

I=1
`
I
,
I

I
Adems cada operador

I
() = ,
I

I
es un proyector sobre el espacio generado por
I
y
T() =
n

I=1
`
I

I
()
o
T =
n

I=1
`
I

I
sta es la llamada descomposicin espectral de T.
Adems como para cualquier vector \ tenemos que
=
n

I=1
,
I

1
obtenemos
1
\
=
n

I=1

I
que es una (hay muchas!) descomposicin espectral de la identidad.
En trminos de alguna otra base ortonormal , = n
1
, n
2
...n
n
la matriz del
proyector
I
ser '
I
= '
o
o
(
I
) con
'
I
||
=
I
n
|
, n
|

= n
|
,
I

I
, n
|

= n
|
,
I

I
, n
|

=
I
, n
|

I
, n
|

y
'
I
= [
I
]
o
[
I
]
+
o
226CAPTULO23. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
que es un producto exterior (un vector columna por un vector rengln). Es por
esto que, en trminos de matrices, nuestro teorema dice que
' =
n

I=1
`
I
[
I
]
o
[
I
]
+
o
El caso ms comn es cuando , es una base cannica, entonces los [
I
]
o
son los
eigenvectores expresados en dicha base.
Ejemplo 276 Consideremos el operador simtrico 1 : R
2
R
2
denido me-
diante /(r, j) = (2r + 2j, 2r + 5j).
La matriz de 1 referida a la base cannica de R
2
es
' =
_
2 2
2 5
_
El polinomio caracterstico es
1(`) = det
_
2 ` 2
2 5 `
_
= `
2
7` + 6
por lo que los eigenvalores son `
1
= 1 y `
2
= 6.
Para `
1
tendremos
_
2 2
2 5
_ _
r
j
_
=
_
r
j
_
por lo que
2r + 2j = r
2r + 5j = j
o
r + 2j = 0
2r + 4j = 0
y una base normalizada para este eigenespacio 1
1
es
\
1
=
1
_
5
(2, 1)
Para `
2
tendremos
_
2 2
2 5
_ _
r
j
_
= 6
_
r
j
_
de modo que
2r + 2j = 6r
2r + 5j = 6j
23.3. TEOREMA ESPECTRAL. 227
y
4r + 2j = 0
2r j = 0
con lo que una base normalizada para este eigenespacio 1
6
es
\
2
=
1
_
5
(1, 2)
y la descomposicin espectral de / es simplemente
/ = `
1

\
1 +`
2

\
2
=
\
1 + 6
\
2
o, explcitamente

\
1(r, j) =
1
5
(r, j), (2, 1)(2, 1)
=
1
5
(2r +j)(2, 1)
=
1
5
(4r 2j, 2r +j)
y

\
2(r, j) =
1
5
(r, j), (1, 2)(1, 2)
=
1
5
(r + 2j)(1, 2)
=
1
5
(r + 2j, 2r + 4j)
y facilmente podemos ver que

\
1(r, j) +
\
2(r, j) =
1
5
(4r 2j, 2r +j) +
1
5
(r + 2j, 2r + 4j)
= (r, j) = 1
nos da la resolucin de la identidad y que

\
1(r, j) + 6
\
2(r, j) =
1
5
(4r 2j, 2r +j) +
6
5
(r + 2j, 2r + 4j)
= (2r + 2j, 2r + 5j) = /(r, j)
23.3.2. Proyectores de nuevo
Cuando vimos los proyectores dimos una expresin en trminos de una base
ortonormal del subespacio sobre el cual se proyecta. Eso lo hicimos as porque
no tenamos las herramientas adecuadas para dar la denicin correcta. La
denicin dada es defectuosa pues requiere dar una base ortonormal; una buena
denicin no debe depender de tal eleccin, debe de ser vlida para cualquier
seleccin de base.
228CAPTULO23. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
Denicin 277 Sea \ un espacio vectorial con producto interior. Un proyector
ortogonal es un operador lineal : \ \ que es Hermiteano e idempotente
(
2
= ).
Captulo 24
Cudricas.
24.1. Introduccin a las ideas principales
En geometra analtica frecuentemente se pregunta cul es el lugar geomtri-
co de los puntos en C donde
C = (r, j) [ ar
2
+/rj +cj
2
+dr +cj +) = 0
En primer lugar note que si denimos la matriz simtrica mediante
=
_
a
b
2
b
2
c
_
entonces
[r, j]
_
a
b
2
b
2
c
_ _
r
j
_
= ar
2
+/rj +cj
2
por lo que si
=
_
r
j
_
el trmino ar
2
+/rj +cj
2
es simplemente

Podemos completar la descripcin puramente matricial del conjunto si


denimos,
T = [d, c]
de modo que el trmino dr +cj es
T
229
230 CAPTULO 24. CUDRICAS.
y el conjunto C es simplemente
C = R
2
[
T
+T +) = 0
De la geometra analtica elemental sabemos que representa una cnica
(crculo, parbola, elipse, hiprbola o un caso degenerado).
El propsito de este captulo es mostrar cmo la teora espectral de los
operadores (y las matrices) simtricos nos permite caracterizar la cnica dada
por . Resultados similares se aplican en R
3
.
24.2. Teora general
En esta seccin trabajaremos en R
n
. Una forma cuadrtica en R
n
es una
funcin denida mediante
Q() =
T

donde es una matriz simtrica de : : y


=
_

_
r
1
r
2
.
.
.
r
n
_

_
aqu es un vector de R
n
visto como vector columna, es decir, como matriz de
: 1.
En forma ms explcita
Q() =
n

I=1
n

=1

I
r
I
r

Si denimos
o(, n) =
T
n
veremos que:
La funcin o es simtrica, es decir o(, n) = o(n, )
o es bilineal, es decir
o( +n, r) = o(, r) +o(n, r)
o(,, n) = ,o(, n)
o(r, +n) = o(r, ) +o(r, n)
o(, ,n) = ,(, n)
Q() = o(, )
24.2. TEORA GENERAL 231
Usando la bilinearidad de o y su relacin con Q podemos demostrar facil-
mente que
o(a, /) =
Q(a +/) Q(a /)
4
o que
o(a, /) =
Q(a +/) Q(a) Q(/)
2
Estas frmulas son tiles cuando se nos da Q y queremos determinar primero
o y luego la matriz . Habiendo determinado o podemos encontrar pues,
considerando la base cannica de R
n
c
1
, c
2
...c
n
resulta que

I
= o(c
I
, c

)
Note que
o(a, a) =
Q(a +a) 2Q(a)
2
=
2Q(a)
2
= Q(a)
Ejemplo 278 Considere la forma cuadrtica
Q(r, j, .) = 2r
2
3rj +.
2
+ 8r. +j. 5j
2
entonces podemos hallar la matriz correspondiente, pues, usando la base canni-
ca
c = c
1
, c
2
, c
3

= (1, 0, 0), (0, 1, 0), (0, 0, 1)


y notando que
Q(1, 0, 0) = 2
Q(0, 1, 0) = 5
Q(0, 0, 1) = 1
Q(1, 1, 0) = 2 3 5 = 6
Q(1, 0, 1) = 2 + 1 + 8 = 11
Q(0, 1, 1) = 1 + 1 5 = 3
tenemos que
=
_
_
2
3
2
4
3
2
5
1
2
4
1
2
1
_
_
y vericamos
_
r j .

_
_
2
3
2
4
3
2
5
1
2
4
1
2
1
_
_
_
_
r
j
.
_
_
= 3rj + 8r. +j. + 2r
2
5j
2
+.
2
232 CAPTULO 24. CUDRICAS.
Una forma ms sencilla an es notar que cada trmino cruzado (es decir, con
dos de las variables) aparece dos veces, una arriba de la diagonal y otra abajo.
Por ello los trminos de sern

II
= el coeciente de r
2
I

I
=
1
2
el coeciente de r
I
j

Sin embargo hemos querido mostrar las identidades conocidas como identidades
de polarizacin.
24.3. diagonalizacin de formas cuadrticas.
Consideremos una expresin de la forma

T
+T +)
donde T = [t
1
, t
2
...t
n
] . Consideremos la forma asociada Q() =
T
y hagamos
un cambio de variable del tipo = 1n donde 1 es una matriz invertible (de
modo que n = 1
1
), entonces
Q() = Q(1n) = Q
t
(n) = (1n)
T
1n = n
T
1
T
1n
y
T = T1n = (T1)n = T
t
n
Si 1 es la matriz diagonalizadora de resulta que
Q
t
(n) = n
T
1
1
1n
y si llamamos 1 = 1
1
1 (como recordatorio de que es diagonal)
Q
t
(n) = n
T
1n
y se dice que la forma cuadrtica ha sido diagonalizada.
En las nuevas coordenadas la forma completa es
Q
t
(n) +T
t
n +) = 0
Si los elementos diagonales de 1 son `
I
y las coordenadas de n son n
I
tendremos que
Q
t
(n) = `
1
n
2
1
+`
2
n
2
2
+...`
n
n
2
n
y no aparecen trminos cruzados n
I
n

.
En resumen, una forma en la que hay trminos cruzados puede convertirse,
mediante un cambio de coordenadas, en una forma sin trminos cruzados.
24.4. CNICAS 233
24.4. cnicas
En R
2
la forma cuadrtica ms general es del tipo
Q(r, j) =
_
r j
_
_
a /
/ c
__
r
j
_
= ar
2
+ 2/rj +cj
2
que, mediante el cambio de coordenadas 1 descrito anteriormente se reduce a
Q
t
(r
t
, j
t
) = `
1
r
t2
+`
2
j
t2
Ahora nos preguntamos por el lugar geomtrico de todos los puntos que
satisfacen
Q
t
(r
t
, j
t
) = `
1
r
t2
+`
2
j
t2
= 1
Cuando `
1
= `
2
y `
1
0 tenemos un crculo de radio
_
1,`
1
Cuando `
1
= `
2
y `
1
_ 0 tenemos el conjunto vaco.
Cuando `
1
,= `
2
pero ambas positivas, se trata de una elipse
Cuando `
1
,= `
2
pero una positiva y la otra negativa se trata de una
hiprbola.
Cuando `
1
,= `
2
pero ambas negativas, se trata del conjunto vaco
Cuando `
1
es cero y `
2
0, se trata de dos rectas.
Cuando `
2
es cero y `
1
0, se trata de dos rectas.
Cuando `
1
es cero y `
2
< 0, es el conjunto vaco
Cuando `
2
es cero y `
1
< 0, es el conjunto vaco
Los trminos del tipo T
t
n tambin pueden ser incluidos. El punto importante
es que la diagonalizacin nos permite librarnos de los trminos cruzados, el resto
del anlisis es como en geometra analtica.
24.5. supercies cudricas.
En R
3
tenemos una situacin similar.
234 CAPTULO 24. CUDRICAS.
Bibliografa
[1] S. Lang. Linear Algebra. Addisson Wesley
[2] Jess Rojo lgebra Lineal (Mc Graw Hill), pgina 56.
[3] Birkho y Mac Lane, Algebra.
235
ndice alfabtico
lgebra
Booleana, 55
ngulo entre vectores, 181
adjunta
clsica, 36
ajuste de rectas, 193
anillo, 51
asociativa
propiedad
para la suma de matrices, 18
asociatividad, 40
base, 85
cambio de, 95
cannica, 86
campo, 53
cancelacin, 42
Cauchy-Schwarz, 174
cerradura, 39
cofactor, 32
combinaciones lineales, 76
complemento ortogonal, 185
conjunto
normal, 181
ortogonal, 182
ortonormal, 182
conmutativa
propiedad
para la suma de matrices, 18
conmutatividad, 40
coordenadas , 92
cudricas, 230
cuadrados mnimos, 191
dependencia lineal, 81
determinante, 31
clculo mediante transformaciones
elementales, 34
de una matriz diagonal, 34
de una matriz triangular, 34
propiedades, 33
dimensin, 86
nita, 86
innita, 86
distributiva
propiedad
para matrices, 18
distributividad, 41
dominio entero, 52
ecuaciones lineales homogneas, 75
eigenespacio, 155
eigenvalor, 155
eigenvector, 155
espacio
normado, 176
espacio columna, 102
espacio dual, 201
espacio rengln, 102
espacio vectorial, 61
complejo, 62
espacio vectorial
real, 62
espacios C
n
, 66
espacios '(:, :), 68
espacios '
+
(:, :), 69
espacios 1
n
, 67
espacios R
n
, 63
espacios vectoriales
de funciones, 107
interseccin de subespacios, 74
236
NDICE ALFABTICO 237
propiedades bsicas, 70
subespacio, 72
unin de subespacios, 74
estructura algebrica, 45
funcin delta de Kronecker, 182
funcional antilineal, 202
funcional lineal, 201
generadores, 78
Gram-Schmidt, 189
grupo, 47
abeliano, 47
grupoide, 45
homomorsmo, 57
identidad, 40
derecha, 40
izquierda, 40
imagen, 122
independencia lineal, 80
inversa, 42
derecha, 42
izquierda, 42
invertibilidad, 143
isomorsmo, 57, 99
de coordenadas, 99
principio del, 100
Laplace
desarrollo de, 33
mtrica, 180
magma, 45
matrices
ecuaciones matriciales, 28
operaciones elementales, 23
potencias, 22
propiedades de la multiplicacin,
22
matriz, 15
adjunta, 27
cero, 16, 18
columna, 15
cuadrada, 15
de transicin, 96
diagonal, 15
elemental, 26
entrada, 15
escalar, 16
identidad, 16
igualdad de, 17
inversa, 23
mediante la adjunta clsica, 36
inversa derecha, 23
inversa izquierda, 23
inversas mediante transformaciones
elementales, 24
multiplicacin de matrices, 21
multiplicacin matriz vector colum-
na, 20
orden, 15, 17
particin, 19
propiedades de las inversas, 23
rango de, 102
rectangular, 15
rengln, 15
submatriz, 19
transpuesta, 27
traza, 27
triangular
propiedades, 35
triangular inferior, 15
triangular superior, 15
matriz de coordenadas, 93
mejor aproximacin, 189
menor, 32
monoide, 45
multiplicacin
tabla de , 41
norma, 176
inducida por un producto interior,
177
nucleo, 122
operacin
binaria, 39
operacin
unaria, 39
operaciones
matriciales, 17
238 NDICE ALFABTICO
multiplicacin de una matriz por
un nmero, 17
negacin, 18
suma de matrices, 17
operador
identidad, 119
operadores lineales, 155
polinomio caracterstico, 157
producto interior, 169
proyecciones ortogonales, 187
quiralidad, 153
Sarrus
regla de, 33
semigrupo, 45
sistema algebraico, 45
sistema lineal
homogneo, 29
inhomogneo, 30
subgrupo, 49
teorema
de la dimensin, 126
transformacin
inversa, 141
transformacin cero, 119
transformacin lineal
matriz de, 126
transformaciones
lgebra de , 131
composicin de , 136
interpretacin geomtrica , 151
producto por un nmero, 132
suma de , 131
transformaciones lineales, 117
variable libre, 79
variable ligada, 79
vector
columna, 16
geomtrico (echa), 62
rengln, 16
vector de coordenadas, 92
vectores
ortogonales, 182
wronskiano, 109

También podría gustarte