Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Apuntes Algebra Lineal
Apuntes Algebra Lineal
ALGEBRA LINEAL
A. Ibort y M.A. Rodrguez
Departamento de Fsica Teorica
Universidad Complutense de Madrid
6 de junio de 2003
Indice general
. Prologo V
1. Estructuras algebraicas 1
1.1. Notaci on y teora de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1. Operaciones binarias internas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2. Permutaciones y grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3. M as sobre el grupo de permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4. Homomorsmos de grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1. Los n umeros enteros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2. Divisibilidad y factorizaci on de n umeros enteros . . . . . . . . . . . . . . . . . . . 9
1.3.3. Congruencias de n umeros enteros . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4. Cuerpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.1. El cuerpo de los n umeros racionales . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2. El cuerpo de los n umeros reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.3. N umeros Gaussianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.4. El cuerpo de los n umeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.5. Races n-esimas de la unidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.1. El anillo de los polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.2. Divisibilidad en el anillo de polinomios . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.3. Races de polinomios y completitud algebraica . . . . . . . . . . . . . . . . . . . . 18
2. Espacios vectoriales 19
2.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3. Operaciones con subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4. Sistemas de generadores, rango y bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5. Cambios de base. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5.2. Operaciones elementales con matrices . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5.3. La matriz del cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.6. Ecuaciones de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3. Aplicaciones lineales 49
3.1. Generalidades sobre aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.1.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.1.2. Algunos ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.3. Algunas propiedades de las aplicaciones lineales . . . . . . . . . . . . . . . . . . . . 51
3.2. Teoremas de isomorfa de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2.1. Primer teorema de isomorfa de espacios vectoriales . . . . . . . . . . . . . . . . . 52
3.2.2. Otros teoremas de isomorfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
i
ii
INDICE GENERAL
3.3. Representacion matricial y cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3.1. Representaci on matricial de una aplicaci on lineal . . . . . . . . . . . . . . . . . . . 53
3.3.2. Representaci on matricial de la composici on de aplicaciones . . . . . . . . . . . . . 54
3.3.3. Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.3.4. Representaci on matricial en bases diferentes . . . . . . . . . . . . . . . . . . . . . . 56
3.4. Espacios de aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.4.1. El espacio dual de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.4.2. Endomorsmos de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.4.3. Otros espacios de aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.5. Rango de una aplicacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.6. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.7. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.7.1. Aplicaciones multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.7.2. Determinante de una aplicaci on lineal . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.7.3. Determinantes de matrices y sus propiedades . . . . . . . . . . . . . . . . . . . . . 66
4. Formas canonicas de endomorsmos 71
4.1. Diagonalizaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.1.1. Matrices diagonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.2. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.3. Subespacios invariantes y matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.1. Diagonalizaci on de endomorsmos y matrices . . . . . . . . . . . . . . . . . . . . . 75
4.4. La ecuacion caracterstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.4.1. C alculo de autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.4.2. El polinomio caracterstico de un endomorsmo . . . . . . . . . . . . . . . . . . . . 76
4.5. Formas can onicas de endomorsmos nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . 77
4.6. Formas can onicas de endomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.7. El teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.8. Polinomio mnimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5. Espacios con producto escalar 89
5.1. El espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.1.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.1.2. El espacio bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.1.3. Anulador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.1.4. La aplicaci on transpuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.1.5. La matriz de la aplicacion transpuesta . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.2. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.2.1. Aplicaciones multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.2.2. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.2.3. Matriz de una forma bilineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.2.4. Formas bilineales simetricas y antisimetricas . . . . . . . . . . . . . . . . . . . . . 96
5.2.5. Formas bilineales simetricas regulares . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.2.6. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.2.7. Diagonalizaci on de formas bilineales simetricas . . . . . . . . . . . . . . . . . . . . 99
5.2.8. Ortonormalizaci on de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.3. Formas Cuadr aticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.3.1. Diagonalizaci on de formas cuadraticas . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.3.2. Formas cuadr aticas denidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.4. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.4.1. Producto escalar en un espacio real . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.4.2. Formas sesquilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.4.3. Producto escalar complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.4.4. Norma en un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.4.5. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
2
n
se
obtiene de la 123 n por una permutacion, la permutaci on . Es convencional escribir la permutaci on
como una matriz
=
_
1 2 n
1
2
n
_
que es autoexplicativa, esto es, 1
1
, 2
2
, ... , n
n
.
El conjunto de todas las permutaciones del conjunto 1, 2, . . . , n se denotara por S
n
. En S
n
denimos
una operaci on binaria interna como la composicion de aplicaciones, esto es:
= , , S
n
,
esto es, ( )(i) = ((i)), i = 1, 2, . . . , n.
La operaci on es asociativa ya que la composicion de aplicaciones lo es (probadlo!).
Denotaremos por e la permutaci on correspondiente a la aplicaci on identidad, esto es, e(i) = i, i =
1, 2, . . . , n, o en la notaci on anterior
e =
_
1 2 n
1 2 n
_
.
Claramente e = e = , S
n
, por tanto e es el elemento neutro de (S
n
, ). Toda permutacion
tiene elemento inverso ( unico!). En efecto, si S
n
como es biyectiva existe la aplicacion inversa
1
: X X, tal que
1
(i) = j si (j) = i. Es evidente que
1
=
1
= e.
4 CAP
_
1 2 3 4
1 3 4 2
_
=
_
1 2 3 4
2 1 3 4
_
,
y
=
_
1 2 3 4
1 3 4 2
_
_
1 2 3 4
2 4 1 3
_
=
_
1 2 3 4
3 2 1 4
_
,
luego ,= y la operaci on no es conmutativa.
Ejemplo 1.2.6 Tablas de multiplicar de (S
2
, ) y (S
3
, ). Vemos que S
2
es conmutativo y S
3
no lo es.
S
2
=
_
e, =
_
1 2
2 1
__
.
e
e e
e
(N otese que esta tabla de multiplicar coincide, salvo notaci on, con la tabla del ejemplo 1.2.1).
Consideremos a continuaci on el conjunto S
3
_
e,
1
=
_
1 2 3
2 1 3
_
,
2
=
_
1 2 3
3 2 1
_
,
3
=
_
1 2 3
1 3 2
_
,
1
=
_
1 2 3
2 3 1
_
,
2
=
_
1 2 3
3 1 2
__
.
e
1
2
3
1
2
e e
1
2
3
1
2
1
1
e
2
1
3
2
2
2
1
e
2
1
3
3
3
2
1
e
2
1
1
1
2
3
1
2
e
2
2
3
1
2
e
1
Se observa f acilmente que
1
i
=
i
, i = 1, 2, 3 y
1
1
=
2
,
1
2
=
1
.
Ejercicio 1.2.3 Escribid la tabla de multiplicar de S
4
y S
5
.
Ejercicio 1.2.4 Probad que el producto en (S
n
, ), n 3 no es conmutativo.
Denicion 1.2.1 Un conjunto G con una operacion binaria interna se dir a que es un grupo si,
i. Posee elemento neutro e G.
ii. La operaci on es asociativa, y
iii. Todo elemento posee inverso, esto es, x G, x
1
G.
De todo lo anterior se desprende que (S
n
, ) es un grupo. Dicho grupo se llama el grupo de permutacio-
nes de n elementos. Cuando nos reramos a un grupo (G, ) habitualmente omitiremos la operaci on y si
no hay riesgo de confusi on tambien omitiremos el smbolo al escribir el producto, esto es, escribiremos
xy en lugar de x y.
Si el grupo G es nito, llamaremos orden del grupo G al n umero de sus elementos y se denotara por
[ G [. Si G no es nito diremos que [ G [= . Por ejemplo [ S
2
[= 2, [ S
3
[= 6.
Ejercicio 1.2.5 [ S
n
[= n!.
1.2. GRUPOS 5
Denicion 1.2.2 Un subconjunto H G del grupo (G, ) se dir a que es un subgrupo si
i. x, y H, x y H,
ii. x H, x
1
H.
Un subgrupo H de G es a su vez un grupo con la operaci on inducida de la del grupo G. Sea H = e,
H es un subgrupo llamado el subgrupo trivial. G no es un subgrupo. Si H = G, H es un subgrupo.
G y e se llaman subgrupos impropios (o triviales). Un subgrupo H diferente de e y G se dir a propio.
Ejemplo 1.2.7 A
3
= e,
1
,
2
S
3
. A
3
es un subgrupo de S
3
. En efecto del ejemplo 1.2.6 obtenemos
que
A
3
e
1
2
e e
1
2
1
1
2
e
2
2
e
1
El subconjunto e,
1
S
3
es un subgrupo. Lo mismo ocurre con e,
2
, e,
3
. Ning un otro
subconjunto de S
3
es un subgrupo.
1.2.3. M as sobre el grupo de permutaciones
Un ciclo es una permutacion en S
n
de la forma
(k
1
) = k
2
, (k
2
) = k
3
, . . . , (k
r1
) = k
r
, (k
r
) = k
1
,
donde k
1
, k
2
, . . . , k
r
1, 2, . . . , n y los demas elementos no cambian. Tal permutacion se denotar a por
= (k
1
k
2
k
r
) y habitualmente se indica el n umero de elementos que se permutan cclicamente, esto
es, se dice que (k
1
k
2
k
r
) es un rciclo.
Ejemplo 1.2.8 En S
3
todo elemento es un ciclo. En S
4
no todo elemento es un ciclo. Por ejemplo, la
permutaci on =
_
1 2 3 4
2 1 4 3
_
es el producto de dos 2ciclos, = (12)(34).
Llamaremos transposiciones a los 2ciclos, esto es a los elementos de S
n
de la forma (k
1
k
2
). Por
ejemplo en S
3
los elementos
1
,
2
y
3
son transposiciones.
Los resultados mas importantes sobre la aritmetica de ciclos son:
Proposicion 1.2.1 Toda permutacion admite una descomposicion unica salvo orden en producto de
ciclos disjuntos que conmutan entre si.
Ejemplo 1.2.9 S
6
. =
_
1 2 3 4 5 6
1 4 2 3 6 5
_
= (1)(243)(56).
Proposicion 1.2.2 Toda permutacion admite una descomposicion en producto de transposiciones (que
no conmutan en general y que no es unica).
Ejemplo 1.2.10 S
3
. = (123) = (12)(23) = (23)(13).
Proposicion 1.2.3 La paridad del n umero de transposiciones en las que se puede descomponer toda
permutaci on no depende de la descomposicion sino solo de la permutaci on.
Se llama paridad o signatura de una permutaci on al n umero () = (1)
k
, donde k es el n umero de
transposiciones de una descomposici on de S
n
.
Proposicion 1.2.4 La paridad de un producto es el producto de las paridades.
() = ()().
Ejemplo 1.2.11 Todas las transposiciones tienen paridad impar. Un k-ciclo tiene paridad (1)
k1
.
El conjunto de las permutaciones de paridad par forman un subgrupo de S
n
llamado el grupo de las
alternaciones o grupo alternado. Se denota habitualmente por A
n
y su orden es n!/2.
6 CAP
.
El conjunto imagen de f se denotara habitualmente por imf = f(g) G
[ g G.
Proposicion 1.2.5 ker f, imf son subgrupos.
Ejemplo 1.2.13 Considerese la aplicacion i: S
3
S
4
denida por i() =
_
1 2 3 4
1
2
3
4
_
. Enton-
ces i es un monomorsmo.
La inclusi on natural j: A
n
S
n
es un monomorsmo.
La asignaci on a cada permutaci on de su paridad, : S
n
ZZ
2
es un epimorsmo debido a la proposici on
1.2.4.
Un subgrupo H de G se dice normal si gHg
1
H, g G, esto es, si para todo h H, ghg
1
H
para todo g G. ker f es un subgrupo normal de G.
Ejemplo 1.2.14 A
n
es un subgrupo normal de S
n
.
1.3. Anillos
1.3.1. Los n umeros enteros
En esta secci on revisaremos escuetamente los n umeros enteros y la nocion de anillo.
Hemos visto que el conjunto de los n umeros naturales IN tiene una estructura de semigrupo respecto
a la suma (tambien con respecto al producto). Podemos plantearnos como extender este conjunto para
convertirlo en un grupo. M as concretamente, la ecuacion x +n = m, n, m IN no siempre tiene soluci on
en los n umeros naturales. Podemos extender IN para que la ecuaci on anterior siempre se pueda resolver?
Hay un procedimiento natural para hacer esto y consiste en a nadir las races de esta ecuacion a IN. Si
denotamos la raz de x + n = m por m n vemos inmediatamente que m n = (m + r) (n + r) para
todo r IN, lo que nos permite introducir una relaci on de equivalencia en el conjunto de todas las races
de todas las ecuaciones x + n = m. Denotaremos por (n m) una de estas clases. Podemos denir la
suma de races como sigue:
(mn) + (m
) = ((m + m
) (n +n
)).
El elemento neutro de la suma es la raz de la ecuacion x+n = n, esto es (nn) que denotaremos por 0.
Si m > n existe un n umero natural r tal que m = n + r y la clase (m n) la denotaremos simplemente
por r. Si m < n de manera an aloga existe un n umero natural s tal que n = m + s y la clase (m n) se
denotar a por s.
El conjunto de races se denotara ZZ y sus elementos se llamaran n umeros enteros.
ZZ = . . . , 2, 1, 0, 1, 2, . . ..
1.3. ANILLOS 7
Alternativamente los n umeros enteros pueden construirse considerando una relaci on de equivalencia
en el producto cartesiano IN IN como sigue: (n, m) (n
, m
) si y solo si n + m
= m+ n
. La clase de
equivalencia que contiene a (m, n) se denotar a como [m, n]. Denimos la suma en el conjunto de clases
como [m, n] + [r, s] = [m+r, n +s].
Ejercicio 1.3.1 Probad que la operaci on + esta bien denida y proporciona una estructura de grupo en
ININ/ . La operaci on es conmutativa con elemento neutro la clase [m, m].
Es f acil comprobar que hay tres tipos de clases: la clase [m, m] que denotaremos por 0; las de tipo
[m + r, m], que denotaremos por r; y, nalmente, las de tipo [m, m + r] que denotaremos por r. Esto
muestra de nuevo que el conjunto de races de la ecuacion lineal de primer orden con coecientes naturales
esta formado por los elementos del conjunto ININ/ . Identicaremos a partir de este momento ambos
conjuntos y los llamaremos indistintamente n umeros enteros. El subconjunto de enteros 0, 1, 2, . . . , se
denominar an enteros positivos y el subconjunto 0, 1, 2, . . . , se denominaran enteros negativos. El cero
es el unico entero positivo y negativo. Diremos que p es menor o igual que q si p q es positivo y lo
denotaremos p q. La relaci on es una relacion de orden total en ZZ.
Tenemos la siguiente propiedad fundamental de los n umeros enteros (y de los naturales):
Teorema 1.3.1 Cualquier subconjunto no vaco de enteros positivos posee un elemento menor o igual
que todos los demas que se denomina mnimo del conjunto.
Demostracion. Un tal subconjunto contiene un entero positivo n ya que es no vaco. Entonces el
primer elemento en la lista 0, 1, 2, . . . , n 1, n contenido en el conjunto tiene la propiedad en cuesti on.
QED
Una propiedad equivalente al teorema anterior es el principio de inducci on completa.
Teorema 1.3.2 Principio de inducci on completa. Si una proposici on sobre un n umero entero positivo n
es cierta para n = 0, y su veracidad para todo 0 k < n implica su veracidad para n, entonces es cierta
para todo n.
Demostracion. Llamemos F el subconjunto de n umeros enteros positivos para los cuales la propo-
sicion es falsa. Si F es no vaco, tomemos el mnimo de este conjunto, llamemosle n
0
. Pero la proposici on
es cierta para todo k < n
0
y por hip otesis la proposici on es cierta para n
0
. QED
Producto de n umeros enteros. Denimos una operaci on en ZZ como sigue: [m, n] [r, s] = [mr +
ns, ms +nr], o utilizando la notaci on de races,
n m = nm; n (m) = (nm); (n) (m) = nm; n 0 = (n) 0 = 0.
Omitiremos en lo sucesivo el punto en el producto de n umeros enteros excepto por motivos de
claridad en la notaci on.
Existe elemento neutro para el producto de enteros, el 1.
Proposicion 1.3.1 1 son los unicos enteros que poseen inverso respecto al producto.
Es inmediato vericar que el producto es asociativo,
p(qr) = (pq)r, p, q, r ZZ,
distributivo,
p(q +r) = pq +pr,
conmutativo,
pq = qp,
y ademas
0 p = p 0 = 0.
8 CAP
0
, q
1
, q
2
, q
3
) = (q
0
+ q
0
, q
1
+q
1
, q
2
+ q
2
, q
3
+q
3
),
(q
0
, q
1
, q
2
, q
3
) (q
0
, q
1
, q
2
, q
3
) = (q
0
q
0
q
1
q
1
q
2
q
2
q
3
q
3
, q
2
q
3
q
3
q
2
, q
3
q
1
q
1
q
3
, q
1
q
2
q
2
q
1
).
IH es un anillo con identidad pero no es conmutativo. IH no es un dominio de integridad.
Denicion 1.3.2 Un subconjunto B A de un anillo (A, +, ) se dir a que es un subanillo si
i. a b B, a, b B,
ii. a b B, a, b B.
Denotamos por b el inverso de b respecto a la operacion +. Se desprende de la denici on que todo
subanillo es un anillo.
Proposicion 1.3.2 Si B es un subanillo de ZZ existe un n umero natural m IN tal que B = mZZ =
mp [ p ZZ.
Demostracion. Si B = 0, sea m = 0. Si no, el conjunto de elementos mayores que cero en B no
puede ser vaco. Tomemos m el mnimo de ellos. Por ser B subanillo mZZ B. Si p B, aplicamos el
algoritmo de la divisi on por m (ver Teorema 1.3.5) y obtenemos que existe 0 r < m tal que p = qm+r,
pero entonces r = p qm B y r es positivo y menor que m. QED
Nota. Es suciente suponer que m n B para todo m, n B ZZ. Tal conjunto es
autom aticamente un subanillo.
En lo que sigue discutiremos exclusivamente anillos conmutativos con identidad (aunque no exigiremos
tal propiedad a los posibles subanillos). La identidad ser a denotada por 1 o 1
A
si hubiera peligro de
confusi on.
Los elementos invertibles de un anillo A se llaman unidades. El conjunto U(A) = x A [ x
1
A
es un grupo llamado el grupo de unidades de A.
Denicion 1.3.3 Ideales. Un ideal de un anillo A es un subanillo I que adem as satisface xy I para
todo x I, y A.
Corolario 1.3.1 Los ideales de ZZ son de la forma mZZ para alg un m ZZ.
Ejemplo 1.3.3 El anillo de los polinomios ZZ[x].
Sea x un smbolo abstracto (podramos tomar por ejemplo en su lugar un cuadro abstracto o el
logotipo de una compa na comercial) y considerese el conjunto cuyos elementos son objetos de la forma
a
0
+ a
1
x + a
2
x
2
+ + a
n
x
n
, a
i
ZZ, i = 1, . . . , n, n IN. Los smbolos x
2
, x
3
, . . . , x
n
representan
xx, xxx, etc. Los elementos de este conjunto se denominan polinomios, los denotaremos por P(x), Q(x),
etc. y al conjunto de todos ellos lo denotaremos por ZZ[x] y lo denominaremos el anillo de los polinomios
con coecientes enteros. Denimos en este conjunto las operaciones + y como sigue:
1.3. ANILLOS 9
Si P(x) = a
0
+ a
1
x + + a
n
x
n
, Q(x) = b
0
+ b
1
x + + b
m
x
m
, y n m, entonces P(x) + Q(x) =
(a
0
+ b
0
) + (a
1
+ b
1
)x + (a
2
+ b
2
)x
2
+ + (a
m
+ b
m
)x
m
+ a
m+1
x
m+1
+ + a
n
x
n
, y P(x) Q(x) =
a
0
b
0
+(a
1
b
0
+a
0
b
1
)x +(a
2
b
0
+a
1
b
1
+a
0
b
2
)x
2
+ +a
n
b
m
x
n+m
. Utilizando una notaci on m as compacta
podemos escribir P(x) =
n
i=0
a
i
x
i
, Q(x) =
m
j=0
b
j
x
j
, y
P(x) + Q(x) =
max(n,m)
k=0
(a
k
+ b
k
)x
k
, P(x) Q(x) =
n+m
k=0
_
_
i+j=k
a
i
b
j
_
_
x
k
,
y en la suma b
k
= 0, para todo k > m.
ZZ[x] es un anillo conmutativo con identidad. Cada n umero entero p dene un polinomio cuyo unico
termino es el a
0
= p. Los enteros se convierten de este modo en un subanillo de ZZ[x] pero no forman un
ideal.
Considerese por el contrario conjuntos como B = P(x)(1 + x) [ P(x) ZZ[x] = (1 + x)ZZ[x] o
C = P(x)(1 +x
2
) [ P(x) ZZ[x] = (1 +x
2
)ZZ[x]. Tanto B como C son subanillos y adem as son ideales.
ZZ[x] es un dominio de integridad.
1.3.2. Divisibilidad y factorizaci on de n umeros enteros
Un n umero entero p se dice que divide (o que es un divisor) de otro entero q si existe un entero r
tal que q = pr. Tambien diremos que q es un m ultiplo de p. Si p divide a q lo indicaremos por p [ q.
Es evidente que todos los m ultiplos de p son los enteros de la forma rp, r ZZ, que es un ideal de ZZ
denotado por pZZ y tambien (p). N otese que todo n umero entero tiene al menos cuatro divisores p, 1
que llamaremos divisores impropios.
Un n umero entero p se dice que es primo si no posee mas divisores que los impropios. Si p es primo
p tambien lo es. Por esta raz on habitualmente se consideran unicamente los primos positivos y mayores
que 1.
Teorema 1.3.3 Teorema fundamental de la aritmetica. Todo n umero entero p se puede escribir como
un producto de n umeros primos. Adem as dicha escritura es unica excepto por el orden de los factores.
Demostracion. Ver al nal de esta seccion.
Por esta raz on se dice que ZZ es un dominio de factorizaci on unica (y tambien se llama un anillo
factorial).
Teorema 1.3.4 Teorema de Euclides. El conjunto de los primos es innito.
Demostracion. Supongamos que el conjunto P de los n umeros primos fuera nito, digamos P =
p
1
, p
2
, . . . , p
N
. Entonces el n umero p
1
p
2
p
N
+ 1 no esta en P y en consecuencia no es primo. Pero
entonces por el teorema fundamental de la aritmetica este n umero debe ser divisible por alguno de los
primos p
i
de P lo cual es imposible. QED
Dados dos n umeros enteros p, q, consideremos el conjunto S de todos los enteros de la forma rp +sq,
con r, s ZZ. Claramente dicho conjunto es un subanillo (de hecho es un ideal). Por tanto hemos visto
que S = mZZ para alg un m ZZ. Dicho m se llamara el maximo com un divisor de p y q y se denotar a o
bien m.c.d. (p, q) o simplemente m = (p, q).
Ejercicio 1.3.2 Probar que si p es un n umero primo tal que p [ ab entonces p [ a o p [ b.
Ejercicio 1.3.3 Probar que si m [ p y m [ q, entonces m [ (p, q). Probar que si p [ p
y q [ q
, entonces
(p, q) [ (p
, q
).
Diremos que dos n umeros enteros p y q son primos entre si (p, q) = 1. N otese que esto es equivalente
a que existan dos n umeros enteros r, s tales que rp + sq = 1.
Ejercicio 1.3.4 Pruebese que la ecuacion px + qy = r, p, q, r ZZ, tiene soluciones enteras si y solo si
(p, q) [ r.
10 CAP
, 0 r
< r y r
, r
+ r
y 0 r
< q. Entonces
q(d d
) = r
r. Supongamos que r
y por tanto d = d
+d
0
,
d
0
> 0. Entonces p = dq+r = q(d
+d
0
)+r y por tanto qd
0
+r = r
> q. Si suponemos
que r > r
y por tanto d = d
. QED
Teorema 1.3.6 Algoritmo de Euclides. Dados dos n umeros enteros p, q ZZ podemos calcular su m aximo
com un divisor a traves del siguiente algoritmo:
p = qd
0
+r
0
, 0 r
0
< q,
q = r
0
d
1
+r
1
, 0 r
1
< r
0
,
r
0
= r
1
d
2
+r
2
, 0 r
2
< r
1
,
r
n2
= r
n1
d
n
+ r
n
, 0 r
n
< r
n1
,
r
n1
= r
n
d
n+1
, r
n+1
= 0.
Entonces r
n
= (p, q).
Demostracion. En efecto, si d [ p y d [ q, entonces d [ r
0
ya que r
0
= p qd
0
, por tanto, (p, q) [ r
0
,
pero d [ q y d [ r
0
implica que d [ r
1
, y as sucesivamente, hasta que (p, q) [ r
n
.
Recprocamente, esta claro que r
n
[ r
n1
, pero r
n2
= r
n
d
n+1
+ r
n
, por tanto r
n
[ r
n2
, etc. hasta
que r
n
[ p y r
n
[ q, por tanto r
n
[ (p, q). Por tanto r
n
= (p, q). QED
1.3.3. Congruencias de n umeros enteros
En el conjunto de los n umeros enteros ZZ introducimos una relaci on de equivalencia como sigue: jemos
un n umero entero positivo n; diremos que p es congruente con q modulo n si n [ p q, esto es si r ZZ
tal que p q = rn, o todava de otro modo, si q < n como p = rn +q, q es el resto de dividir p por n.
Si p es congruente con q modulo n, escribiremos p q (mod n).
Ejercicio 1.3.5 Probar que la relaci on anterior es efectivamente una relacion de equivalencia.
La clase de equivalencia que contiene a p se denotara por [p]. Claramente [p] = p + nr [ r ZZ.
Efectivamente si p
[p], entonces p
p = ns. Observese
tambien que [p] = [p +n], por tanto las clases de equivalencia diferentes de n umeros enteros congruentes
modulo n son:
[0] = sn [ s ZZ, [1] = 1 + sn [ s ZZ, . . . , [n 1] = n 1 + sn [ s ZZ,
esto es, [0] es el conjunto de m ultiplos de n, [1] es el conjunto de m ultiplos de n mas 1, etc. El conjunto
de clases de congruencia modulo n se denotara por ZZ
n
, as
ZZ
n
= [0], [1], [2], . . . , [n 1].
En ZZ
n
se denen dos operaciones + y como sigue:
i. [r] + [s] = [r +s],
ii. [r] [s] = [rs], r, s = 0, 1, . . . , n 1.
1.4. CUERPOS 11
Ejercicio 1.3.6 Probar que las operaciones est an bien denidas.
(ZZ
n
, +, ) es un anillo conmutativo con identidad [1].
Ejemplo 1.3.4 El anillo ZZ
2
posee dos elementos [0], [1]. En el anillo ZZ
3
= [0], [1], [2] todo elemento
posee inverso ya que [2][2] = [1]. El anillo ZZ
4
= [0], [1], [2], [3] no es un dominio de integridad ya que
[2][2] = [0].
Ejercicio 1.3.7 Sea p primo, probar que todo elemento no nulo en ZZ
p
tiene inverso.
1.4. Cuerpos
1.4.1. El cuerpo de los n umeros racionales
Los unicos n umeros enteros que poseen inverso respecto a la multiplicacion son 1. Hay un proce-
dimiento standard para construir a partir de un dominio de integridad un nuevo anillo donde todos sus
elementos poseen inverso. Ilustraremos esta construccion con el dominio de integridad de los n umeros
enteros ZZ.
Sea el conjunto ZZ ZZ
, donde ZZ
/
se denotara por Q y sus elementos se llamaran n umeros racionales (o fraccionarios). As Q = p/q : p
ZZ, q ZZ
/q
, q
) = 1.
Notas.
1. El conjunto Q se obtiene en forma an aloga a como hicimos en la construccion de los n umeros
enteros resolviendo la ecuaci on qx = p, q ,= 0. Las races de esta ecuacion se pueden escribir
en una notaci on obvia como pq
1
. Los detalles del analisis se completan de manera trivial.
Como obtendramos la suma de n umeros racionales siguiendo esta lnea de razonamiento?
2. La misma construccion se puede aplicar al dominio de integridad de los polinomios con
coecientes en ZZ. El conjunto que se obtiene es el cuerpo de las funciones racionales con
coecientes en ZZ.
3. La construcci on anterior se puede realizar en cualquier anillo A utilizando un sistema mul-
tiplicativo S. Un sistema multiplicativo es un subconjunto tal que el producto de cualesquiera
par de elementos pertenece al conjunto. En el conjunto de pares AS se introduce una rela-
cion de equivalencia como anteriormente, esto es (x, s) (y, t) xt = ys, x, y A, s, t S.
El conjunto cociente se denota por S
1
A y es un anillo (anillo de fracciones de A por S).
Denicion 1.4.1 Un conjunto IK dotado de dos operaciones binarias internas +, se dir a que es un
cuerpo si (IK, +, ) es un anillo con identidad y todo elemento x ,= 0 tiene inverso x
1
respecto del
producto.
Si (IK, ) es un semigrupo conmutativo el cuerpo IK se dir a conmutativo. En lo sucesivo y salvo
especicacion contraria trataremos exclusivamente con cuerpo conmutativos.
12 CAP
2,
3,
5+
2
, ... y otros n umeros no racionales como 0,01012012301234012345...,
etc. Las operaciones de suma y producto de n umeros reales se denotaran con los signos convencionales
+, . IR es un cuerpo de caracterstica cero. Los n umeros reales x IR que son races de ecuaciones
polin omicas con coecientes en ZZ se llamaran n umeros algebraicos. Todos los racionales son algebraicos,
pero tambien lo son n umeros irracionales como
2,
3,
2 +
5, etc.
Teorema 1.4.1 e y no son algebraicos.
1.4.3. N umeros Gaussianos
Sea d IN tal que
d / Q. Consideremos el conjunto Q(
d) denido como Q(
d) = a +b
d [ a, b
Q. Es f acil observar que Q(
d) + (a
+b
d) = (a +a
) + (b +b
d,
(a + b
d) (a
+ b
d) = (aa
+bb
d) + (ab
+a
b)
d.
Claramente la identidad para el producto es 1 y
(a +b
d)
1
=
a
a
2
db
2
+
b
a
2
db
2
d,
1.4. CUERPOS 13
si a o b ,= 0. N otese que en este caso a
2
db
2
,= 0 ya que si a
2
= db
2
, entonces
d = a/b Q en contra
de la hip otesis. Observese que (a +b
d)(a b
d) = a
2
db
2
y as
1
a +b
d
=
a b
d
(a +b
d)(a b
d)
=
a b
d
a
2
db
2
.
El conjunto ZZ(
d) = p+q
d)
es un dominio de integridad pero no es un dominio de factorizaci on unica. Por ejemplo, (5 2
5)(5 +
2
5) = 5 =
5
5, (6 + 3
3)(6 3
3) = 9 = 3 3.
Claramente los n umeros a +b
d, a b
1) =
m+ n
d), d > 0.
El anillo ZZ(
1) = a + b
1 [ a, b IR.
Denicion 1.4.3 Llamaremos cuerpo de los n umeros complejos C al cuerpo IR(
= a
+ ib
,
z +z
= (a +a
) + i(b + b
), z z
= (aa
bb
) +i(ab
+ a
b).
El elemento neutro para la suma es 0 y el neutro para el producto es 1. Tal y como ya indicamos en
los cuerpos gaussianos, el inverso de un n umero complejo no nulo z, tiene la expresi on:
z
1
=
a
a
2
+ b
2
i
b
a
2
+b
2
.
Un automorsmo de un cuerpo IK es un isomorsmo : IK IK, esto es, (x + y) = (x) + (y),
(xy) = (x)(y), x, y IK.
Denimos : C C como (a +ib) = a ib. Habitualmente se denota (z) = z, (o tambien z
). z se
llama complejo conjugado de z. Claramente es un automorsmo de C. Notese que (i) = i.
Ejercicio 1.4.5 C tiene solamente dos automorsmos, el automorsmo identidad y . Lo mismo ocurre
con los cuerpos de n umeros Gaussianos Q(
d).
Ejercicio 1.4.6 Un cuerpo primo no posee mas automorsmos que la identidad.
Llamaremos modulo de un n umero complejo al unico n umero real positivo [z[ tal que [z[
2
= z z.
14 CAP
n=0
z
n
n!
.
3. e
z
= e
x
(cos y +i sen y) donde z = x +iy.
Las propiedades mas importantes de la funci on exponencial son:
1. e
z
e
w
= e
z+w
.
2. e
0
= 1.
3. e
z
= e
z
.
Ejercicio 1.4.7 Probar las propiedades 1, 2 y 3 utilizando la denici on 3 de la funci on exponencial.
Consecuencia inmediata de lo anterior son las siguientes f ormulas:
e
i
= cos +i sen , z = [z[e
i arg z
.
Por tanto z w = [z[ [w[e
i(argz+arg w)
. En particular z
n
= r
n
e
in
. N otese que
e
2i
= 1,
y en general, e
2in
= 1. M as todava, e
i
= 1 si y solo si cos = 1 y sen = 0, esto es, si y solo si = 2n,
n ZZ.
1.4.5. Races n-esimas de la unidad
Tratemos de resolver la ecuacion z
n
= 1 en el cuerpo de los n umeros complejos. Una solucion a dicha
ecuacion es ciertamente todo n umero complejo z
0
,= 0 tal que z
n
0
= 1. Por tanto si z = re
tenemos que
z
n
0
= r
n
e
in
,
1.5. POLINOMIOS 15
es decir r
n
= 1 y e
in
= 1. Por lo tanto r = 1 y n = 2k, k ZZ, = 2k/n, k = 0, 1, 2, . . ..
El argumento de z
0
tiene que estar en [0, 2) y as los valores de k para los que esto ocurre son
k = 0, 1, 2, . . . , n 1. Las soluciones de la ecuaci on z
n
1 = 0 seran por tanto:
z
0
= 1, z
1
= e
2i/n
, z
2
= e
4i/n
, . . . , z
n1
= e
2(n1)/n
.
Dichas races determinan un polgono regular de n lados inscrito en el crculo de radio 1 ya que todas
ellas tienen modulo 1.
Ejercicio 1.4.8 Hallar las races del polinomio 1 + x +x
2
+ + x
n
Si multiplicamos dos races n-esimas entre s obtenemos:
z
k
z
l
= e
2(k+l)i/n
.
Por tanto vemos que si k +l n, entonces k + l = rn + s, 0 s < n y z
k
z
l
= e
2is/n
y as z
k
z
l
= z
s
con s k +l (mod n). Es por tanto conveniente etiquetar las races n-esimas de la unidad con las clases
de congruencia de n umeros enteros modulo n, [0], [1], . . . , [n 1] obteniendo as la hermosa f ormula:
z
[k]
z
[l]
= z
[k+l]
,
que nos dice que la aplicaci on [k] z
[k]
es un isomorsmo entre el grupo (ZZ
n
, +) y el grupo de races
n-esimas de la unidad.
Ejercicio 1.4.9 Probar que si n [ m, el conjunto de races n-esimas de la unidad es un subgrupo del
conjunto de races m-esimas de la unidad.
Ejercicio 1.4.10 Probar que el conjunto de n umeros complejos de modulo 1 es un grupo con respecto
al producto. Tiene este grupo otros subgrupos aparte de las races n-esimas de la unidad?
1.5. Polinomios
1.5.1. El anillo de los polinomios
Al igual que construimos el anillo de los polinomios con coecientes enteros ZZ[x] en el ejemplo 1.3.3,
es posible extender tal construcci on a un anillo cualquiera A y utilizarlo como anillo de coecientes de
los polinomios. De ahora en adelante anillo signicar a anillo conmutativo con identidad. Al igual que
entonces en el ejemplo 1.3.3, x denotar a un smbolo abstracto y x
2
= xx, x
3
= xxx, etc. El conjunto A[x]
esta formado por las expresiones P(x) = a
0
+a
1
x +a
2
x
2
+ +a
n
x
n
, donde a
i
A, i = 1, . . . , n. Cada
elemento de A[x] se llamara polinomio en x con coecientes en A. Dado un polinomio P(x) =
n
k=0
a
n
x
n
,
llamaremos grado del polinomio P al n umero natural n = maxk [ a
k
,= 0 y lo denotaremos P. Un
polinomio constante no nulo tiene grado cero. El termino a
n
x
n
tal que n = P se llama dominante. Un
polinomio se llama monico (o unitario) si el coeciente del termino dominante es 1.
Proposicion 1.5.1 Propiedades del grado. Si A es un dominio de integridad se verica:
i. (PQ) = P +Q.
ii. (P + Q) max(P, Q).
En A[x] se denen de manera natural dos operaciones +, como en el ejemplo 1.3.3: si P(x) =
i
a
i
x
i
,
Q(x) =
j
b
j
x
j
, entonces,
P(x) + Q(x) =
k
(a
k
+b
k
)x
k
, P(x)Q(x) =
k
_
_
i+j=k
a
i
b
j
_
_
x
k
.
El anillo A[x] posee como subanillo al propio anillo A (los elementos de A se identican con los polinomios
de grado cero).
16 CAP
, P
i
(x), i = 1, . . . , r son polinomios irreducibles.
Para establecer este resultado, probaremos en primer lugar la extensi on al anillo IK[x] del algoritmo
de la divisi on.
Teorema 1.5.1 Algoritmo de la divisi on. Para todo par de polinomios P(x), Q(x) IK[x], Q(x) ,= 0,
existen dos polinomios D(x), R(x) tales que
P(x) = D(x)Q(x) +R(x),
con R(x) < Q(x). Adem as dichos polinomios son unicos.
Demostracion. Existencia. Si Q(x) divide a P(x) el resultado es inmediato. Supongamos que no es
as. Consideremos el conjunto de los n umeros enteros positivos,
S = (P(x) D(x)Q(x)) [ D(x) IK[x].
El conjunto S es no vaco y por el teorema 1.3.1 existe r = mnS. Sea entonces D(x) un polinomio tal que
(P(x) D(x)Q(x)) = r. Entonces P(x) = D(x)Q(x) + R(x) y R(x) = r. Necesariamente r < Q(x)
ya que si r Q(x), entonces el termino dominante de R(x) sera de la forma ax
r
y el de Q(x), bx
m
con
r m. Pero el polinomio
D(x) = b
1
ax
rm
es tal que R(x)
D(x)Q(x) tiene grado menor que r ya
que su termino de orden r sera ax
r
b
1
abx
rm
x
m
= 0. Por tanto P(x) D(x)Q(x)
D(x)Q(x) =
P(x) (D(x) +
D(x))Q(x) = R(x)
D(x)Q(x) tiene grado menor que r.
Unicidad. Supongamos ahora que D(x) y R(x) no son unicos, esto es, existen
D(x) y
R(x) tales que
P(x) =
D(x)Q(x) +
R(x),
R(x) < Q(x). Entonces, (D(x)
D(x))Q(x) =
R(x) R(x), pero entonces,
(D
D) +Q = (
R R) max(
R, R) < Q.
Lo cual es imposible a no ser que D
D = 0. En cuyo caso adem as R =
R. QED
1.5. POLINOMIOS 17
M aximo com un divisor de polinomios
Repetiremos gran parte de la lnea argumental que desarrollamos al denir el mnimo com un m ultiplo
y maximo com un divisor de n umeros enteros.
Proposicion 1.5.2 Para todo ideal I ,= 0 de IK[x] existe un polinomio P(x) tal que I = Q(x)P(x) [
Q(x) IK[x] = (P).
Demostracion. Sea I ,= 0 un ideal de IK[x] y S = r = R(x) ZZ [ R(x) I. Es evidente que
S ,= y por tanto tomemos el elemento mnimo r
0
0 de dicho conjunto. Si r
0
= 0, entonces hay un
polinomio constante R(x) = a en I, pero a ,= 0, y por tanto R(x) es invertible y entonces I = IK[x].
Por tanto I = (1). Supongamos por tanto que r
0
> 0. Sea P
0
(x) I tal que P
0
= r
0
. Supongamos que
existe Q(x) I tal que Q ,= RP
0
, entonces por el algoritmo de la divisi on existe D(x) y R(x) tal que
Q = DP
0
+ R con 0 R < P
0
= r
0
. Pero entonces P = Q DP
0
I y su grado es menor que r
0
, lo
que es absurdo. QED
Dados dos polinomios P, Q, consideremos todos los polinomios de la forma MP +NQ, M, N IK[x],
denotemos tal conjunto por J. Claramente J es un ideal y por la proposici on anterior sabemos que
existe un polinomio D tal que J = (D). Diremos que D es el maximo com un divisor de P y Q y
se denotara por (P, Q) o m.c.d.(P, Q). Una consecuencia inmediata de la denici on de m aximo com un
divisor es la siguiente propiedad.
Corolario 1.5.1 Sean P, Q IK[x] y D = (P, Q), entonces existen dos polinomios M, N IK[x] tales
que D = MP + NQ.
Ejercicio 1.5.4 Si D [ P y D [ Q entonces D [ (P, Q). Concluir de aqu que si P es irreducible y P no
divide a Q entonces (P, Q) = 1.
Un ideal de un anillo formado por los m ultiplos de un elemento dado se llama principal. Un anillo
tal que todos sus ideales estan formados por los m ultiplos de un elemento se llama anillo de ideales
principales. Si adem as es un dominio de integridad se llama un dominio de ideales principales. Tanto ZZ
como IK[x] son por tanto dominios de ideales principales.
Ejercicio 1.5.5 Probar el algoritmo de Euclides para polinomios. Esto es, si P(x), Q(x) IK[x], proce-
demos iterativamente y construimos:
P(x) = D
0
(x)Q(x) +R
0
(x); R
0
< Q,
D
0
(x) = D
1
(x)R
0
(x) +R
1
(x); R
1
< R
0
,
D
1
(x) = D
2
(x)R
1
(x) +R
2
(x); R
2
< R
1
,
D
n1
(x) = D
n
(x)R
n1
(x),
y R
n
= 0. Entonces R
n1
es el m.c.d.(P, Q).
La unicidad de la factorizaci on de un polinomio en factores irreducibles se sigue del siguiente Lema.
Lema 1.5.1 Si P(x) IK[x] es un polinomio irreducible y P(x) [ A(x)B(x) entonces o P(x) [ A(x) o
bien P(x) [ B(x).
Demostracion. Supongamos que P [ AB y P no divide ni a A ni a B. Como P no divide a A
y P es irreducible entonces (P, A) = 1, por tanto existen polinomios M, N tales que PM + AN = 1.
Multiplicamos la anterior ecuaci on por B y obtenemos que
PMB + ANB = B,
y como P [ AB, entonces P [ B lo cual es absurdo. QED
18 CAP
2
+ +a
n
n
= 0, esto es si P() = 0.
Teorema 1.5.3 es una raz de P(x) si y s olo si (x ) [ P(x).
Demostracion. Sea una raz de P(x). Dividamos P(x) por (x ). Entonces P(x) = Q(x)(x
) + R(x) y 0 R(x) < 1 y por tanto R(x) debe ser constante o cero. Por otro lado evaluando la
anterior igualdad en obtenemos que R() = 0 y por tanto R(x) = 0. QED
Consideremos un cuerpo IK y un subcuerpo IF IK. Un elemento IK se dir a algebraico sobre IF si
es raz de alg un polinomio P(x) IF[x]. Un elemento se dir a transcendente sobre IF si no es algebraico.
Un cuerpo IK se dir a algebraicamente cerrado si todos los elementos algebraicos sobre IK en una extension
cualquiera de IK est an en IK. Los cuerpos Q y IR no son algebraicamente cerrados.
Teorema 1.5.4 Todo polinomio P(x) C[x] de grado mayor o igual a 1 posee al menos una raz.
Demostracion. La demostracion de este teorema no es puramente algebraica.
Teorema 1.5.5 Todo polinomio P(x) C[x] factoriza como producto de factores de grado 1, esto es:
P(x) = a(x
1
)(x
2
) (x
n
),
donde a,
i
C, i = 1, . . . , n = P son las races de P(x).
Demostracion. Por el teorema de factorizacion de polinomios, Teorema 1.5.2, todo polinomio P(x)
C[x] factoriza como producto de polinomios irreducibles. Veamos que todo polinomio irreducible sobre C
es de grado 1. Supongamos que P(x) es irreducible y de grado 1, entonces por el Teorema 1.5.4 P(x)
posee una raz , pero entonces P(x) = (x )Q(x) por el teorema 1.5.3 y P(x) no es irreducible. QED
Ejercicio 1.5.6 Determinar si es cierta o falsa la siguiente proposici on. Si IK es algebraicamente cerrado
y P(x) IK[x] es irreducible, entonces P(x) = 1.
Corolario 1.5.2 Teorema fundamental del algebra. C es algebraicamente cerrado.
Demostracion. Sea P(x) un polinomio sobre C. Por el teorema anterior, Teorema 1.5.5, factoriza
como producto de factores de grado uno. Por lo tanto todos los elementos algebraicos sobre C, esto es,
races de polinomios sobre C estan en C. QED
Captulo 2
Espacios vectoriales
Espacios vectoriales. Subespacios. Sistemas de generadores. Dependencia e independen-
cia lineal. Bases. Matrices.
2.1. Deniciones
Veamos algunos ejemplos para introducir la noci on de espacio vectorial.
Ejemplo 2.1.1 Consideremos el conjunto de los n umeros reales. En el hay denidas dos operaciones, la
suma, respecto de la cual es un grupo, y el producto.
Ejemplo 2.1.2 Sea ahora V el conjunto de los pares de n umeros reales, (x, y), donde x, y IR. Podemos
denir la suma de dos elementos de este conjunto en la manera usual:
(x, y) + (x
, y
) = (x +x
, y +y
)
Denimos tambien el producto de un n umero real por un par:
(x, y) = (x, y)
Ejemplo 2.1.3 Sea V = IK
n
, donde IK es un cuerpo, es decir, el espacio de n-uplas de escalares en IK.
Con las operaciones obvias de suma y producto por escalares (ver ejemplo anterior), este espacio tiene
propiedades similares a las que exhiben los ejemplos anteriores.
Ejemplo 2.1.4 Sea C[0, 1] el conjunto de las funciones continuas denidas en el intervalo [0, 1] de la
recta real con valores en IR. La suma de funciones continuas es una funci on continua. La funci on que se
obtiene al multiplicar una funci on continua por un n umero real, es de nuevo una funci on continua.
Ejemplo 2.1.5 Sea IR[x] el conjunto de polinomios en la variable x. Como la suma de dos polinomios es
otro polinomio, y el producto de un n umero real por un polinomio es tambien un polinomio, estamos en
una situaci on similar a la de los ejemplos anteriores. De hecho, IR[x] es, en cierto sentido, un subconjunto
de C(IR).
Ejemplo 2.1.6 Sea IR
n
[x] el conjunto de polinomios en la variable x de grado menor o igual a n IN.
Est a claro que las mismas propiedades que vimos en los ejemplos anteriores aparecen de nuevo aqu.
Ejemplo 2.1.7 Sea V el conjunto de funciones continuas en IR tales que f(0) = 1. Es f acil ver que
estamos en un caso diferente. Ahora la suma de dos funciones en V no esta en V . Si f, g V , f(0)+g(0) =
2, luego f + g no esta en V .
19
20 CAP
i=1
i
x
i
=
1
x
1
+. . . +
n
x
n
Obviamente, toda combinacion lineal est a contenida en el espacio. Tengase en cuenta que una combinaci on
lineal es una suma nita con coecientes en el cuerpo. Posibilidades de sumas con innitos sumandos, o
de otras con un n umero nito de coecientes no nulos, aunque en cantidad variable, llevan a conceptos
mas avanzados de algebra en los que no entraremos (sumas y productos directos con un n umero arbitrario
de factores).
Ejemplo 2.1.10 Supongamos en IR
3
los vectores v
1
= (1, 0, 0), v
2
= (0, 1, 0) y v
3
= (0, 0, 1). Una
combinaci on lineal de estos tres vectores con coecientes
1
,
2
,
3
IR es:
1
(1, 0, 0) +
2
(0, 1, 0) +
3
(0, 0, 1) = (
1
,
2
,
3
)
de donde resulta que cualquier vector de IR
3
se puede poner como combinacion lineal de estos tres vectores,
hecho que determinar a buena parte de las propiedades de este espacio vectorial.
Ejemplo 2.1.11 Si en el espacio de los polinomios en una variable con coecientes reales, seleccionamos
cualquier familia nita del tipo 1, x, x
2
, . . . , x
n
, las combinaciones lineales de estos elementos no cubren
todo el espacio, por muy grande que hagamos n.
2.2. Subespacios
Hemos visto en el ejemplo 2.1.5, como los polinomios formaban un espacio vectorial real, y como las
funciones continuas (en todo IR) son tambien un espacio vectorial. Puesto que los polinomios se pueden
interpretar como funciones continuas, tenemos un espacio vectorial contenido en otro. La situaci on se
presenta con mucha frecuencia y se encuentra descrita en la siguiente denicion:
Denicion 2.2.1 Sea V un espacio vectorial sobre un cuerpo IK y sea W un subconjunto de V no vaco.
Se dice que W es un subespacio vectorial de V si:
i. u v W, u, v W,
ii u W, IK.
Proposicion 2.2.1 Si W es un subespacio vectorial de V entonces el conjunto W con las operaciones
+ y , inducidas de la suma y el producto por escalares de V , es un espacio vectorial.
Ejercicio 2.2.1 Probar la proposici on anterior 2.2.1
Ejemplo 2.2.1 Consideremos ahora el conjunto de los n umeros complejos. Al ser C un cuerpo, es un
espacio vectorial sobre s mismo. El conjunto de los n umeros reales es un subconjunto de C. La pregunta
es obvia. Es IR un subespacio vectorial de C? La respuesta no lo es tanto. En efecto, como sabemos, IR
es un espacio vectorial sobre IR. Pero aqu estamos hablando de IR como un subconjunto de C, es decir,
como los n umeros complejos que tienen parte imaginaria igual a cero. La suma de dos de estos n umeros
es otro n umero del mismo tipo. Pero el producto de un n umero complejo arbitrario (un escalar de C) por
un n umero complejo de parte imaginaria cero (es decir, un n umero real) no es en general un n umero real.
Por tanto IR no es un subespacio vectorial del espacio vectorial complejo C.
22 CAP
i=1
x
i
= 0
Se trata de un subespacio propio de C
n
. Tambien el subconjunto:
(x
1
, . . . , x
n
) [
n
i=1
x
i
= 0, x
1
+x
n
= 0
es otro subespacio, contenido en el anterior.
Esta forma de dar subespacios se suele llamar implcita. Pero se podran denir de una forma explcita,
es decir, dando las componentes de los vectores. Por ejemplo:
(x
1
, . . . , x
n
) [ x
1
=
1
, x
2
=
1
+
2
, x
n
= 0,
1
,
2
C
Como iremos viendo, las posibilidades son muchas.
2.3. OPERACIONES CON SUBESPACIOS 23
2.3. Operaciones con subespacios
La familia de subespacios de un espacio vectorial admite una serie de operaciones que pasamos a
detallar.
Teorema 2.3.1 La intersecci on de subespacios de un espacio vectorial es un subespacio vectorial.
Demostracion. Sean W
1
y W
2
dos subespacios de V . Si x, y son dos elementos de la interseccion,
W
1
W
2
, ambos estan en cada subespacio, luego la suma pertenece a ambos y por tanto a la interseccion. El
mismo argumento se aplica al producto por escalares. N otese que la interseccion de subespacios vectoriales
nunca es vaca, pues al menos el vector 0 esta en todos ellos. QED
Ejemplo 2.3.1 Consideremos el espacio vectorial real de las funciones continuas denidas en IR con
valores en IR, C(IR). El conjunto de polinomios con grado menor o igual a n (n un n umero natural jado)
es un subespacio vectorial como ya hemos dicho. El conjunto de las funciones continuas que se anulan en
x = 0 es un subespacio vectorial de C(IR). La interseccion de ambos, es decir, el conjunto de polinomios
de grado menor o igual que n que se anulan en x = 0, es un subespacio vectorial de C(IR).
Sin embargo, la uni on de subespacios vectoriales no es en general un subespacio vectorial. Pero pode-
mos construir un subespacio de la siguiente forma.
Denicion 2.3.1 Sea S un subconjunto de un espacio vectorial V . Se llama espacio vectorial generado
por S al menor de los subespacios de V que contienen a S.
Est a claro que dicho subespacio ser a la interseccion de todos los subespacios que contienen a S. La
interseccion no puede ser vaca, pues S esta en todos ellos, y al menos hay un subespacio que contiene a
S que es el espacio total. Pero no es sencillo, en principio, calcular explcitamente este subespacio.
Ejemplo 2.3.2 Sea el subconjunto del conjunto de polinomios en la variable x: S = x, que obviamente
no es un espacio vectorial. Pero est a claro que W = x [ IR s es un subespacio vectorial y contiene
a S.
Denicion 2.3.2 Sea S un subconjunto de un espacio vectorial. La envolvente lineal de S, lin(S), es el
conjunto de combinaciones lineales que se pueden formar con los elementos de S.
Se tiene:
Teorema 2.3.2 La envolvente lineal de un subconjunto de un espacio vectorial V es un espacio vectorial
(subespacio del espacio vectorial V ).
La demostracion es evidente.
Teorema 2.3.3 El subespacio generado por un subconjunto de un espacio vectorial es la envolvente lineal
lin(S), de este subconjunto.
Demostracion. Claramente S esta contenido en lin(S). Sea W un subespacio que contiene a S.
Entonces, debe contener tambien a la envolvente lineal, pues es un subespacio. Por lo tanto lin(S) W
para todo W subespacio que contiene a S. De donde lin(S) W donde la interseccion se reere a todos
los subespacios que contiene a W. De aqu se concluye que el espacio generado por S es la envolvente
lineal de S. QED
Ejemplo 2.3.3 El conjunto de matrices 22 con elementos complejos, es un espacio vectorial complejo.
El subespacio generado por los elementos:
A =
_
1 0
0 1
_
, B =
_
0 1
1 0
_
24 CAP
+ W e y + W = y
+ y
+W deberan coincidir
(es decir, x + y y x
+ y
, y
, z
) estan en la misma
clase si su diferencia esta en W, es decir, si x = x
e y = y
i=1
i
x
i
= 0
28 CAP
k
x
k
+
n
i=1,i=k
i
x
i
= 0 x
k
=
1
k
n
i=1,i=k
i
x
i
debido a que existe el inverso de
k
. QED
Este teorema nos conduce a la siguiente denicion:
Denicion 2.4.2 Se dice que el vector x V depende linealmente de S (subconjunto de V ), si x puede
expresarse como una combinacion lineal de vectores de S.
Debido al teorema anterior, la envolvente lineal de una familia de vectores puede considerarse generada
por menos vectores de los que en un principio podra suponerse.
Teorema 2.4.2 Sea S una familia de vectores del espacio vectorial V , y supongamos que S es l.d. Sea
x un vector de S que depende linealmente de los demas vectores de S. Entonces la envolvente lineal de S
es igual a la envolvente lineal de S x.
La demostracion es una consecuencia del teorema sobre dependencia lineal y del hecho de que cada vez
que x aparezca en una combinacion lineal de un vector de lin(S), podemos sustituirlo por la combinaci on
lineal de otros vectores de S seg un hemos visto en el teorema anterior.
El teorema lleva inmediatamente a la siguiente conclusi on:
Teorema 2.4.3 Si S es un sistema de generadores de un espacio vectorial V , y el vector x depende
linealmente de los otros vectores de S, entonces, S x es tambien un sistema de generadores de V .
La demostracion es evidente.
Denicion 2.4.3 El rango de una familia de vectores es el n umero m aximo de vectores linealmente
independientes que se pueden encontrar en la familia.
Veremos mas adelante como estudiar el rango y como ampliar este concepto a matrices.
Estamos en condiciones de denir lo que es una base de un espacio vectorial. Esto nos permitir a re-
lacionar los espacios vectoriales con unos espacios tipo y simplicara los calculos en muchas ocasiones al
poder hablar de coordenadas sin necesidad de usar los objetos abstractos del espacio.
Denicion 2.4.4 Se dice que la familia de vectores del espacio vectorial V , B, es una base, si es un
sistema de generadores de V y es l.i.
Ejemplo 2.4.4 La familia estudiada en un ejemplo anterior (1, 0), (0, 1), (1, 1) no es un base de IR
2
pues no es l.i. Sin embargo, la familia (1, 0), (0, 1) s es una base. Notese que se obtiene de la primera
eliminando un vector que se poda poner como combinaci on lineal de los otros dos, lo que hace que siga
siendo un sistema de generadores de acuerdo con el teorema demostrado antes. Ademas es linealmente
independiente, como se comprueba sin m as que aplicar la denici on:
1
(1, 0) +
2
(0, 1) = (0, 0) (
1
,
2
) = (0, 0)
1
=
2
= 0
Ejemplo 2.4.5 Consideremos el conjunto de polinomios en una variable x con coecientes reales. Como
ya hemos visto es un espacio vectorial sobre IR. El conjunto:
S = 1, x, x
2
, . . .
es una base de este espacio. Cualquier polinomio es una combinacion lineal de elementos de este conjunto.
Ademas, el conjunto S es l.i. Cualquier combinaci on igualada a cero obliga a que todos los coecientes
sean 0:
1
x
n1
+
2
x
n2
+ +
k
x
nk
= 0
con todos los naturales n
i
, i = 1, . . . k distintos entre s, implica
i
= 0, i = 1, . . . k. N otese que
las combinaciones lineales son sumas de productos de escalares por vectores con un n umero nito de
sumandos.
2.4. SISTEMAS DE GENERADORES, RANGO Y BASES 29
En los dos ejemplos anteriores la situaci on es muy diferente. En el primero, dos vectores formaban una
base. En el segundo, la base est a formada por un n umero innito de vectores, pero al menos es numerable.
Si consideramos el espacio de funciones continuas en IR, la existencia de una base, con un n umero nito
o innito (numerable o no) de vectores, no resulta f acil de establecer. En este curso nos limitaremos a
bases con un n umero nito de elementos, aunque en lo referente a otros aspectos, apareceran ejemplos de
espacios que no tienen este tipo de bases. Usando conceptos de teora de conjuntos (axioma de elecci on)
es posible probar que todo espacio vectorial posee una base.
Un espacio vectorial tiene en principio muchas bases. Dada una de ellas es posible hacer combinaciones
lineales de sus elementos, y si los vectores que resultan son linealmente independientes, forman otra base
distinta de la anterior. Estudiaremos esta situaci on con m as detalle mas adelante.
Por ahora, nos limitamos a demostrar el siguiente resultado:
Teorema 2.4.4 Sea V un espacio vectorial. Todas las bases de V tienen el mismo cardinal.
Este teorema es fundamental. Permite relacionar las bases de un espacio vectorial, y asignar a este
espacio un n umero natural cuando el cardinal anterior es nito. Desde el punto de vista de las propiedades
algebraicas del espacio, este n umero proporciona toda la informaci on que necesitamos.
Denicion 2.4.5 Se llama dimensi on de un espacio vectorial V sobre un cuerpo IK al cardinal com un
de las bases de V .
Los espacios IK
n
, de los que hemos visto varios ejemplos, nos dan los prototipos de los espacio vec-
toriales de dimensi on nita sobre el cuerpo IK. Cuando la dimensi on es innita hay que prestar atenci on
a otras cuestiones, pero no entraremos en esos detalles aqu. La demostraci on la haremos en un espacio
vectorial que admita una base con un n umero nito de elementos.
Demostracion. Supongamos que el espacio vectorial V tiene una base: B = v
1
, . . . , v
n
, con n
elementos. Probaremos que cualquier conjunto de vectores l.i. tiene como m aximo n elementos. Sea
S = u
1
, . . . , u
m
un conjunto de vectores l.i. Entonces: u
1
=
n
i=1
i
v
i
, y alguno de los coecientes no es
cero. Si es, por ejemplo,
1
,= 0, podemos sustituir v
1
por u
1
y obtener otra base, ya que sera un sistema
de generadores (al poder despejar v
1
en funci on de u
1
y v
2
, . . . , v
n
) y ademas es l.i. Si
1
u
1
+
n
i=2
i
v
i
= 0
entonces,
1
= 0 implica que los dem as son cero, ya que son l.i. Si
1
,= 0, u
1
sera combinaci on lineal del
resto, lo que es contradictorio con
1
,= 0. Siguiendo este proceso (cambiando el orden si es necesario)
construiramos una base de V : u
1
, . . . , u
k
, v
k+1
, . . . , v
n
. En esta base, mediante el mismo razonamiento,
podramos sustituir uno de los v
j
, digamos, v
k+1
, por u
k+1
si el coeciente de v
k+1
en el desarrollo de
u
k+1
en esta base es no nulo (alguno de los coecientes de los vectores v
j
es no nulo por razones de
independencia lineal de los vectores u
i
). Si seguimos sustituyendo est a claro que en cada paso tendremos
una base de V , y el n umero de vectores de S no puede ser mayor que n. QED
Tambien podemos enunciar el siguiente resultado:
Teorema 2.4.5 En un espacio vectorial de dimensi on nita n no hay conjuntos de vectores l.i. con m as
de n vectores. Si un conjunto de vectores l.i. en V tiene n elementos linealmente independientes, es una
base.
La demostracion es inmediata de lo anterior.
Teorema 2.4.6 El rango de un sistema de vectores de un espacio vectorial es la dimensi on de la envol-
vente lineal de ese sistema
Demostracion. El rango es el n umero maximo de vectores l.i. La dimensi on es el cardinal de una
base. Del sistema de vectores podemos retirar los que dependen linealmente de los demas hasta quedarnos
con un conjunto l.i., que sigue generando la envolvente. Luego la dimensi on es igual al rango. QED
30 CAP
1
(1, 0, . . . , 0) +
2
(0, 1, 0, . . . , 0) + +
n
(0, . . . , 0, 1) = (0, . . . , 0)
se deduce:
(
1
,
2
, . . . ,
n
) = (0, . . . , 0)
y por tanto todos los coecientes son cero. Ademas, cualquier elemento de este espacio se puede poner
como combinacion lineal de los vectores de este conjunto:
(
1
,
2
, . . . ,
n
) =
1
(1, 0, . . . , 0) +
2
(0, 1, 0, . . . , 0) + +
n
(0, . . . , 0, 1)
luego es una base, y la dimensi on es n.
Denicion 2.4.6 Dada una base B = u
1
, . . . , u
n
de un espacio vectorial V (de dimensi on nita) y un
vector x V , existe una sola combinaci on lineal de los vectores de la base que sea igual al vector dado.
Se llaman coordenadas del vector x en la base B a los escalares
1
,
2
, . . . ,
n
tales que:
x =
n
i=1
i
u
i
Como hemos dicho, las coordenadas estan unvocamente determinadas. Por supuesto si cambiamos la
base, cambiaran.
La correspondencia que se puede establecer, jada un base, entre un espacio de dimensi on nita n
y IK
n
, asignando a cada vector sus coordenadas en esa base, es biyectiva y tiene unas propiedades que
ser an estudiadas m as adelante.
Dado un espacio vectorial V , se puede hablar de la dimensi on de sus subespacios, pues estos son a su
vez espacios vectoriales sobre el mismo cuerpo. Un resultado importante es el siguiente:
Teorema 2.4.7 Sea V un espacio vectorial de dimensi on nita y W un subespacio de V . Se verica:
dimW dimV
Demostracion. En efecto, sea e
1
un vector de W, no nulo (si W tiene solo el vector nulo, el resultado
es trivial). Si line
1
,= W, existir a un segundo vector en W, e
2
, linealmente independiente con el anterior.
Si line
1
, e
2
,= W, habr a un tercero, etc. Como V es de dimension nita, el proceso se acaba. En cada
uno de los pasos, la dimensi on de W es menor o igual que la de V , lo que demuestra el teorema. QED
Los espacios de dimension nita son m as sencillos de estudiar que los de dimension innita y a ellos
estar a dedicada la mayor parte del curso.
La construccion de bases no siempre es facil, pero veremos un resultado que ayuda.
Teorema 2.4.8 Teorema de prolongaci on de la base
Sea V un espacio vectorial de dimensi on nita igual a n, y W un subespacio de V . Si B
W
=
w
1
, . . . , w
k
es una base de W, se pueden encontrar vectores u
k+1
, . . . , u
n
tales que el conjunto
w
1
, . . . , w
k
, u
k+1
, . . . , u
n
es una base de V .
2.4. SISTEMAS DE GENERADORES, RANGO Y BASES 31
Demostracion. Sea w
1
, . . . , w
m
una base de W. Si W ,= V , existir a un vector en V , tal que
B u
k+1
es un conjunto l.i. (si no lo fuera, u
k+1
estara en W). Consideremos el espacio W
k+1
=
lin(B u
k+1
). Si este espacio es igual a V , la demostracion esta acabada. Si no lo es, habr a otro vector
u
k+2
con el que se podr a razonar como antes. Como la dimension de V es nita, el proceso acaba. Los
vectores a nadidos forman junto con los de la base de W inicial, la base ampliada. QED
Como consecuencia del anterior teorema podemos probar:
Teorema 2.4.9 Sea V un espacio vectorial de dimensi on nita. Si W es un subespacio de V , existe un
subespacio U de V tal que:
V = W U
Demostracion. Sea B
W
un base de W. Por el teorema de prolongaci on de la base, podemos construir
una base de V , a nadiendo vectores a B
W
. Sea B
V
= w
1
, . . . , w
k
, u
k+1
, . . . , u
n
esta base. Deniendo
U = lin(u
k+1
, . . . , u
n
), no es difcil probar que los espacios W y U tienen interseccion igual a 0 y su
suma es V . QED
Se dice que W y U son subespacios suplementarios. Dado W la eleccion de U no es unica.
Las dimensiones de los subespacios construidos a partir de otros por las operaciones estudiadas ante-
riormente estan relacionadas a traves de los teoremas siguientes.
Teorema 2.4.10 Sea V un espacio vectorial de dimensi on nita, y W
1
, W
2
dos subespacios de V . En-
tonces,
dimW
1
+ dimW
2
= dim(W
1
+ W
2
) + dim(W
1
W
2
)
Demostracion. Sea B
W1W2
= a
1
, . . . , a
k
una base del espacio W
1
W
2
. Como este espacio
esta contenido en W
1
, podemos ampliar la base y obtener otra de W
1
: B
W1
= a
1
, . . . , a
k
, b
1
, . . . , b
m
.
Y como tambien esta contenido en W
2
, la podemos ampliar a una base de este subespacio: B
W2
=
a
1
, . . . , a
k
, c
1
, . . . , c
r
. Consideremos el conjunto de vectores de V :
B
W
= a
1
, . . . , a
k
, b
1
, . . . , b
m
, c
1
, . . . , c
r
i=1
i
a
i
+
m
i=1
i
b
i
+
r
i=1
i
c
i
= 0
Sean v =
k
i=1
i
a
i
, v
1
=
m
i=1
i
b
i
y v
2
=
r
i=1
i
c
i
. Entonces, v W
1
W
2
, v
1
W
1
y v
2
W
2
. Como
la suma es cero, v
2
W
1
, luego v
2
W
1
W
2
. Este vector debe poder expresarse como una combinacion
lineal de la base de este subespacio. Por tanto v
2
= 0. Debido a la independencia lineal de cada uno de los
tres conjuntos de vectores a
i
, b
i
, c
i
concluimos que todos los coecientes son cero, y por tanto el conjunto
construido es l.i.
Probemos ahora que generan el espacio W
1
+ W
2
. Esto es mas sencillo. Cualquier vector de este
espacio es suma de un vector de W
1
mas un vector de W
2
. Basta examinar las bases ampliadas de estos
subespacios para ver que cualquier vector de la suma se puede poner como combinacion lineal de los
vectores del conjunto l.i. determinado anteriormente. Adem as todos estos vectores estan en la suma.
Luego es una base. Por tanto, la dimensi on de W
1
+W
2
es k +m+r lo que demuestra el teorema. QED
Como consecuencia se tiene:
Teorema 2.4.11 Si la suma W
1
W
2
es directa, se tiene:
dim(W
1
W
2
) = dimW
1
+ dimW
2
La demostracion es inmediata de dim0 = 0.
Ademas:
32 CAP
i=1
i
(v
i
+ W) = 0
Operando, obtenemos: (
m
i=1
i
v
i
) +W = 0, es decir, la clase cuyo representante es
m
i=1
i
v
i
, es la clase
cero, o sea,
m
i=1
i
v
i
W. Pero los vectores v
i
no estan en W, sino en el suplementario, por lo tanto:
m
i=1
i
v
i
= 0, y como son l.i. se concluye que los coecientes
i
son cero. Veamos ahora que son un
sistema de generadores. Sea x +W un elemento cualquiera del espacio cociente. Como x V , se tiene:
x =
k
i=1
x
i
w
i
+
m
i=1
y
i
v
i
Por tanto:
x + W =
m
i=1
y
i
v
i
+ W =
m
i=1
y
i
(v
i
+W)
que es lo queramos demostrar. QED
2.5. Cambios de base. Matrices
En lo que sigue el espacio vectorial V es de dimension nita.
Seg un hemos visto en la seccion anterior, este espacio admite una base, con un n umero de vectores
igual a la dimensi on del espacio, y podremos expresar los vectores en funci on de esta base. Si tenemos
otra base, las coordenadas cambiar an. Este es el inconveniente de usar bases en un espacio vectorial, las
expresiones de los vectores cambian al cambiar la base y hay que prestar mucha atencion a la hora de
hablar de coordenadas en vez de vectores. Sin embargo, el uso de bases presenta otras muchas ventajas,
por lo que trataremos de establecer como cambian las coordenadas al cambiar las bases.
Sean B = u
1
, . . . , u
n
y B
= u
1
, . . . , u
n
dos bases del espacio vectorial V . Como todo vector puede
expresarse como combinacion lineal de los vectores de una base, este resultado es cierto para los vectores
de la base B en funci on de los vectores de la base B
:
u
1
= a
11
u
1
+ a
21
u
2
+ +a
n1
u
n
u
2
= a
12
u
1
+ a
22
u
2
+ +a
n2
u
n
.
.
.
u
n
= a
1n
u
1
+ a
2n
u
2
+ +a
nn
u
n
2.5. CAMBIOS DE BASE. MATRICES 33
es decir:
u
i
=
n
j=1
a
ji
u
j
Por lo tanto, si x V , y su expresi on en la base B es:
x =
n
i=1
x
i
u
i
su expresion en la base B
ser a:
x =
n
i=1
x
i
n
j=1
a
ji
u
j
=
n
i,j=1
a
ji
x
i
u
j
Si ahora pensamos que x tambien puede escribirse en la base B
:
x =
n
i=1
x
i
u
i
llegamos a la igualdad:
n
j=1
x
j
u
j
=
n
i,j=1
a
ji
x
i
u
j
Pero la expresi on en una base es unica, por lo tanto, las coordenadas son iguales y se tiene:
x
i
=
n
i=1
a
ij
x
j
, i = 1, . . . n
Es decir, conociendo la relaci on entre las bases podemos saber como cambian las coordenadas. El
cambio inverso, es decir pasar de las coordenadas en la base B
:
u
1
= b
11
u
1
+b
21
u
2
+ + b
n1
u
n
u
2
= b
12
u
1
+b
22
u
2
+ + b
n2
u
n
.
.
.
u
n
= b
1n
u
1
+b
2n
u
2
+ + b
nn
u
n
o:
u
i
=
n
j=1
b
ji
u
j
Repitiendo el proceso llegamos a:
x
i
=
n
j=1
b
ij
x
j
, i = 1, . . . n
Est a claro que los escalares a
ij
y b
ij
no pueden ser independientes. La relaci on que los liga es:
x
i
=
n
j=1
a
ij
x
j
=
n
i=1
a
ij
n
k=1
b
jk
x
k
y como esta relacion se debe cumplir para todo vector del espacio, o si se quiere para valores arbitrarios
de x
i
, se tiene:
34 CAP
j=1
a
ij
b
jk
=
ik
donde
ij
es un smbolo (delta de Kronecker) que representa un conjunto de valores de la forma siguiente:
ij
=
_
1 si i = j
0 si i ,= j
La expresion anterior es un conjunto de ecuaciones (n
2
) que relacionan los coecientes a
ij
con los b
ij
.
Los calculos con estos coecientes son bastante complicados de escribir. Incluso el calculo de los
coecientes a
ij
en funci on de los b
ij
no parece sencillo, aunque en principio es un problema lineal. Un
elemento esencial para estas operaciones que facilita enormemente los calculos es la matriz.
Ejemplo 2.5.1 Consideremos en IR
2
[x] dos bases:
B = 1, x, x
2
, B
= 1, x,
1
2
(3x
2
1)
y estudiemos como se transforman las coordenadas de un polinomio p(x) =
1
+
2
x+
3
x
2
. Expresado en
la primera base, las coordenadas son los tres n umeros reales: (
1
,
2
,
3
). Para calcularlas en la segunda
base, veamos como se escriben los vectores de la primera base en funcion de los de la segunda:
1 = 1
x = x
x
2
=
1
3
+
2
3
_
1
2
+
3
2
x
2
_
luego los escalares a
ij
son:
a
11
= 1 a
21
= 0 a
31
= 0
a
12
= 0 a
22
= 1 a
32
= 0
a
13
=
1
3
a
23
= 0 a
33
=
2
3
y por lo tanto las coordenadas en la segunda base en funci on de las coordenadas en la primera son:
1
=
1
+
1
3
2
=
2
3
=
2
3
3
Los coecientes b
ij
se calculan tambien f acilmente:
1 = 1
x = x
1
2
(3x
2
1) =
1
2
+
3
2
x
2
b
11
= 1 b
21
= 0 b
31
= 0
b
12
= 0 b
22
= 1 b
32
= 0
b
13
=
1
2
b
23
= 0 b
33
=
3
2
y el cambio de coordenadas inverso es:
1
=
1
1
2
2
=
3
=
3
2
3
2.5. CAMBIOS DE BASE. MATRICES 35
No es difcil comprobar que los coecientes a
ij
y b
ij
satisfacen las relaciones estudiadas anteriormente.
Las dos expresiones del polinomio p(x) en estas dos bases son:
p(x) =
1
+
2
x +
3
x
2
=
_
1
+
1
3
3
_
+
2
x +
2
3
3
1
2
(3x
2
1)
A un en un ejemplo tan sencillo, los c alculos son tediosos de escribir. El lenguaje de matrices permite
un mayor aprovechamiento.
2.5.1. Matrices
Denicion 2.5.1 Una matriz es una colecci on de objetos dispuestos en forma rectangular con un cierto
n umero de las y columnas.
En lo que sigue, las matrices estaran formadas por escalares, pero se les puede encontrar muchas
otras aplicaciones. Los elementos de la matriz se designan por dos subndices que indican la posici on que
ocupan: el primero la la y el segundo la columna. As, el elemento a
23
de una matriz est a en la la 2 y
columna 3. La matriz A = (a
ij
) es la formada por los elementos a
ij
en las posiciones correspondientes.
Ejemplo 2.5.2 La siguiente disposici on es una matriz 2 3, es decir, con dos las y tres columnas:
A =
_
2 1 i
1 i 3i 0
_
El elemento 22 es: 3i
Teorema 2.5.1 El conjunto de matrices nm con coecientes en un cuerpo IK, M
nm
(IK) es un espacio
vectorial sobre IK de dimensi on nm
Demostracion. La suma de matrices se dene elemento a elemento, es decir la matriz suma tiene
como elementos la suma de los elementos que ocupan la misma posicion en cada uno de los sumandos. Y el
producto por escalares consiste en multiplicar cada elemento de la matriz por el escalar. Las propiedades
de espacio vectorial son claras.
En cuanto a la dimensi on, basta encontrar una base con nm elementos. La mas sencilla es: B = E
ij
[
i = 1, . . . n, j = 1 . . . , m donde las matrices E
ij
tienen un 0 en todas las posiciones, salvo en la la i
columna j donde tiene un 1. No es difcil ver que es un sistema l.i. y que es un sistema de generadores.
QED
Existen muchas operaciones con matrices que iremos estudiando poco a poco. Por ejemplo, se puede
denir la transpuesta de una matriz, que permite construir a partir de una matriz de dimensi on n m
otra de dimensi on mn:
Denicion 2.5.2 Sea A M
nm
(IK), con elementos (a
ij
). Se dene la matriz transpuesta de A, A
t
,
como la matriz en M
mn
(IK) con elementos (b
ij
), tal que:
b
ij
= a
ji
, i = 1, . . . m, j = 1, . . . , n
Es decir, se intercambian las las por las columnas.
Las matrices se usan en algebra lineal constantemente, con distinto signicado. Hay pues que poner
cuidado en su interpretaci on.
Se puede denir otra operaci on entre matrices, el producto. Sin embargo, no siempre es posible
multiplicar dos matrices. Para ello el n umero de columnas de la primera debe ser igual al de las de
la segunda y la matriz resultante tiene tantas las como las tena la primera matriz y tantas columnas
como columnas tena la segunda. Se ve que no se trata de una operaci on en M
nm
(IK), sino:
: M
nm
(IK) M
mk
(IK) M
nk
(IK)
36 CAP
j=1
a
ij
b
jk
donde A = (a
ij
), B = (b
ij
), C = AB = (c
ij
) y los ndices se mueven en el rango adecuado.
Ejemplo 2.5.3 Sean las matrices A y B:
A =
_
0 1 0
1 +i 2 i
_
, B =
_
_
1 3 i 0
2 + 2i 1 1 0
0 1 0 1
_
_
Su producto es:
AB =
_
2 2i 1 1 0
3 + 4i 1 + 4i 1 +i i
_
Obviamente no se puede cambiar el orden de los factores, no porque se obtenga otro resultado, sino
porque en la mayora de los casos ni siquiera se podr a hacer el producto.
Pero cuando las matrices tienen igual el n umero de las y de columnas (en este caso se llaman
cuadradas), la operaci on anterior es una operaci on interna en el espacio vectorial de matrices. Con ella,
este conjunto se transforma en un anillo respecto de las operaciones suma y producto, un anillo no
conmutativo con elemento unidad (la matriz identidad, unos en la diagonal, es decir cuando i = j, y
ceros en las demas posiciones), que sin embargo no es un cuerpo, porque no siempre existe el inverso.
Esta estructura que mezcla la de espacio vectorial con la de anillo, se llama un algebra, en este caso no
conmutativa con elemento unidad (respecto a la multiplicaci on). Dentro de ella se pueden seleccionar las
matrices que s poseen inverso, y construir un grupo multiplicativo, como hemos hecho con los anillos. El
calculo del inverso de matrices cuadradas (cuando este existe) no es sencillo. Se dira que una matriz es
regular cuando tiene inverso.
Existe otra forma de ver el producto de matrices. Supongamos que A es una matriz con coecientes en
IK, de dimensi on nm y B otra de dimensi on mk, de manera que existe el producto AB. Supongamos
que escribimos la matriz B como una coleccion de matrices de m las y una columna (vectores columna):
B = (B
1
, B
2
, . . . , B
k
)
Entonces, el producto AB se puede leer como una matriz cuyos vectores columna son la multiplicacion
de A por los vectores columna de la matriz B:
AB = (AB
1
, AB
2
, . . . , AB
k
)
La demostracion es evidente del producto de matrices. Un resultado similar se obtiene con las las: Si la
matriz A se escribe como una coleccion de vectores la (una la y m columnas):
A =
_
_
_
_
_
A
1
A
2
.
.
.
A
n
_
_
_
_
_
el producto AB se puede escribir como:
AB =
_
_
_
_
_
A
1
B
A
2
B
.
.
.
A
n
B
_
_
_
_
_
2.5. CAMBIOS DE BASE. MATRICES 37
2.5.2. Operaciones elementales con matrices
Aunque su motivacion no sea excesivamente clara en este punto, vamos a estudiar una serie de mani-
pulaciones formales con las las y las columnas de una matriz.
Una operacion elemental de las en una matriz consiste en una de las tres transformaciones siguientes:
1. Cambiar entre s dos las
2. Multiplicar una la por un escalar no nulo
3. Multiplicar una la por un escalar no nulo y sumarla a otra la
De manera similar se denen las operaciones elementales entre columnas.
Ejemplo 2.5.4 Sea la siguiente matriz con coecientes en C:
_
_
_
_
1 0 1 2 0 1
0 2 3 2 0 0
1 0 2 1 1 1
1 0 1 0 0 0
_
_
_
_
La siguiente matriz se obtiene de esta mediante una operaci on elemental:
_
_
_
_
1 0 1 2 0 1
0 2 3 2 0 0
1 0 2 1 1 1
2 0 1 1 1 1
_
_
_
_
en la que hemos sumado la tercera la multiplicada por 1 a la cuarta. La matriz que se obtiene es
claramente distinta de la primera. No estamos diciendo que las operaciones elementales dejen invariantes
las matrices. La siguiente matriz tambien se obtiene de la primera, mediante el intercambio de la tercera
y cuarta columnas:
_
_
_
_
1 0 2 1 0 1
0 2 2 3 0 0
1 0 1 2 1 1
1 0 0 1 0 0
_
_
_
_
El uso de operaciones elementales permite simplicar las matrices llegando a formas mas sencillas.
Otra cosa es la utilidad, debido a que a un no hemos visto que relacion, desde el punto de vista de las
aplicaciones de las matrices al algebra, existe entre matrices obtenidas mediante operaciones elementales.
Teorema 2.5.2 Sea A una matriz en M
nm
(IK). La operaci on elemental que consiste en intercambiar
la la i por la la j permite obtener una matriz igual a F
ij
A, donde F
ij
es una matriz cuadrada de
dimensi on n, que tiene ceros en todas las posiciones salvo en las ij y ji y en las kk para todo k ,= i, j
donde tiene un 1.
Por ejemplo, para n = 3, m = 8, la matriz F
13
es la siguiente:
_
_
0 0 1
0 1 0
1 0 0
_
_
Las matrices F
ij
tienen inverso. Concretamente el inverso coincide con ella misma:
F
ij
F
ij
= I,
donde I es la matriz identidad en dimensi on n. Resultado nada sorprendente si pensamos que si hacemos
esta operacion elemental dos veces, la matriz no cambia. Que se verica el teorema es facil de ver. Cuando
multiplicamos la matriz F
ij
por A tomamos una la de F
ij
y actuamos sobre una columna de A. Si la
la es distinta de la i o la j, no se produce ning un cambio, luego se obtiene la misma la de la matriz A.
Sin embargo, cuando usamos la la i, al multiplicar por una columna cualquiera de A no se obtiene el
elemento i de esa columna sino el j. Es decir la la i de la matriz A es sustituida por la la j.
38 CAP
= u
i
es:
u
i
=
n
j=1
a
ji
u
j
, (2.1)
podemos denir una matriz:
P = (a
ij
)
cuyos elementos sean las coordenadas de los vectores de la primera base en funcion de los de la segunda,
cuidando el orden de las y columnas. Sea X IK
n
el vector (columna) de coordenadas correspondiente
2.5. CAMBIOS DE BASE. MATRICES 43
a x V en la base B y X
IK
n
el correspondiente en la base B
=
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
donde:
x =
n
i=1
x
i
u
i
, x =
n
i=1
x
i
u
i
Teniendo en cuenta las ecuaciones que estudiamos para el cambio de coordenadas:
x
i
=
n
i=1
a
ij
x
j
, i = 1, . . . n
vemos que se pueden escribir, utilizando matrices, como:
X
= PX
El cambio inverso es:
x
i
=
n
i=1
b
ij
x
j
, i = 1, . . . n
luego, si P
= (b
ij
), se tiene:
X = P
j=1
a
ij
b
jk
=
ik
Pero esto no es mas que la igualdad del producto de matrices P y P
= I
es decir, la matriz de cambio de base es una matriz que posee inverso y este inverso es justamente la
matriz de cambio de base en sentido contrario. Veamos un ejemplo de lo dicho.
Ejemplo 2.5.9 Se dene la traza de una matriz cuadrada como la suma de los elementos de la diagonal.
El conjunto de matrices 2 2 con coecientes en C de traza nula es un espacio vectorial complejo. La
suma de matrices de traza nula es una matriz de traza nula y el producto de escalares por matrices de
traza nula es tambien una matriz de traza nula. La dimensi on de este espacio es tres (la dimension del
espacio total es 4 como ya sabemos, y la condicion de traza nula selecciona un subespacio con dimensi on
3, como detallaremos en la proxima seccion). Una base es:
h =
_
1 0
0 1
_
, e =
_
0 1
0 0
_
, f =
_
0 0
1 0
_
Cualquier matriz de traza nula es combinaci on lineal de estas tres matrices:
A =
_
_
= h +e + f
Seleccionemos otra base en este espacio, que tendra tambien tres elementos.
1
=
_
0 1
1 0
_
,
2
=
_
0 i
i 0
_
,
3
=
_
1 0
0 1
_
44 CAP
i=1
ki
F
i
, k = r
f
+ 1, . . . , n
siendo F
i
los vectores la de la matriz A. En componentes:
a
kj
=
rf
i=1
ki
a
ij
, k = r
f
+ 1, . . . , n, j = 1, . . . m
Por lo tanto, las columnas j = 1, . . . , m se puedes poner como: a
kj
arbitrarios cuando k = 1, . . . r
f
y
a
kj
=
rf
i=1
ki
a
ij
cuando k = r
f
+ 1, . . . , n. Deniendo una colecci on de vectores en IK
m
:
(1, 0, . . . , 0,
rf+1,1
, . . . ,
n,1
), (0, . . . , 0, 1,
rf+1,r
, . . . ,
n,r
)
vemos que la columna j es combinacion lineal de ellos (con coecientes: a
1j
, . . . , a
rj
). Por lo tanto el
n umero de columnas l.i. es menor o igual que r
f
. Empezando de manera similar por las columnas ob-
tendramos: r
c
r
f
. As, el rango por las es igual al rango por columnas. Obtendremos este resultado
mas tarde al estudiar la relaci on entre determinantes y rangos. QED
El rango de una matriz puede cambiar al multiplicarlo por otra. Se tiene el siguiente resultado.
Teorema 2.6.2 Sean A M
nm
(IK) y B M
mk
(IK) dos matrices. Se tienen las desigualdades:
r(AB) r(A), r(AB) r(B)
Demostracion. No es nada sorprendente que as sea. Como ya hemos visto, multiplicar una matriz
(como A) por la derecha por otra matriz, no es m as que construir otra matriz cuyos vectores columna
son combinaciones lineales de los vectores columna de la inicial. Con estas operaciones uno no puede
conseguir mas vectores l.i. de los que haba. Como mucho tendr a los mismos, luego el rango no puede
aumentar. El mismo razonamiento se aplica a los vectores la cuando multiplicamos por la izquierda.
QED
Pero si una de las dos matrices tiene inverso (por supuesto es cuadrada), entonces el rango de la otra
no vara:
Teorema 2.6.3 Sea A M
nm
(IK) y un matriz regular B M
mm
(IK). Entonces:
r(AB) = r(A)
Si consideramos C M
nn
(IK) regular, se tiene tambien:
r(CA) = r(A)
Demostracion. La razon es evidente del teorema anterior. Al multiplicar por una matriz cuadrada lo
que estamos haciendo, desde otro punto de vista, es un cambio de base. La dimension de la envolvente
lineal no vara, es decir, el rango permanece constante. QED
Los subespacios de un espacio vectorial (de dimension nita), se pueden denir de varias maneras,
como ya hemos adelantado en otro punto. La forma implcita consiste en escribir los vectores en una base
(del espacio total), y someter a las coordenadas a unas ecuaciones lineales homogeneas, es decir igualadas
a cero.
46 CAP
i=1
i
v
i
donde S = v
1
, . . . , v
k
es la familia generadora de W. Tengase en cuenta que el vector x no determina
unvocamente los coecientes
i
. Pero de entre los vectores de S podemos seleccionar un conjunto maximal
de vectores l.i. Este conjunto, como ya hemos dicho muchas veces, genera W. Y no solo eso, es una base
de W. De modo que en funci on de estos vectores las coordenadas s son unicas.
Una manera practica de calcular esta base es la siguiente. Supongamos que tenemos una base en el
espacio vectorial V de partida, B = u
1
, . . . , u
n
y que los vectores v
i
que generan el subespacio tienen
en esta base unas coordenadas:
v
1
= b
11
u
1
+b
21
u
2
+ + b
n1
u
n
v
2
= b
12
u
1
+b
22
u
2
+ + b
n2
u
n
.
.
.
v
k
= b
1k
u
1
+b
2k
u
2
+ +b
nk
u
n
2.6. ECUACIONES DE SUBESPACIOS 47
Cualquier vector del subespacio es:
x W x =
k
i=1
i
v
i
=
n
j=1
_
k
i=1
b
ji
i
_
u
j
es decir, si x =
n
i=1
x
i
u
i
, se tiene:
x
j
=
k
i=1
b
ji
i
que es la expresion que deben tener las coordenadas de x para que este vector este en W y en la que
i
toman valores arbitrarios en IK. Estas expresiones son las ecuaciones parametricas de W. En forma
matricial, la ecuaci on es:
X = B
donde las matrices X, B, son respectivamente:
X =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
, B =
_
_
_
_
_
b
11
b
12
b
1n
b
21
b
22
b
2n
.
.
.
.
.
.
.
.
.
b
m1
b
m2
b
mn
_
_
_
_
_
, =
_
_
_
_
_
2
.
.
.
k
_
_
_
_
_
Estas ecuaciones tienen cierto parecido con las que dimos anteriormente en forma implcita (de hecho para
IK
n
, pero v alidas en cualquier espacio de dimensi on n una vez que denamos una base). C omo pasamos
de unas a otras? El proceso se conoce como eliminacion de par ametros yendo hacia la primera ecuaci on
(X = B AX = 0) o resoluci on del sistema yendo de la segunda la primera (AX = 0 X = B).
Ambos procesos son ya conocidos y no insistiremos en ellos. La segunda ecuacion tiene par ametros
redundantes en general, debido a que los vectores que generan el subespacio no tiene porque ser l.i. Y
la primera puede tener ecuaciones redundantes como hemos dicho ya. En ambos casos la dimensi on del
subespacio es:
1. De AX = 0 se deduce dimW = n r(A).
2. De X = B se deduce dimW = r(B)
Ya veremos en otra ocasion nuevas interpretaciones de estos resultados en relacion con las aplicaciones
lineales.
48 CAP
i
(x
i
+y
i
)e
i
y por tanto f(x +y) =
i
(x
i
+y
i
)u
i
=
i
x
i
u
i
+
i
y
i
u
i
= f(x) +f(y).
An alogamente para f(x). QED
3.1. GENERALIDADES SOBRE APLICACIONES LINEALES 51
3.1.3. Algunas propiedades de las aplicaciones lineales
Denicion 3.1.2 Llamaremos n ucleo de la aplicaci on lineal f: V W al subconjunto ker f = v V [
f(v) = 0 = f
1
(0). La imagen de f se denotara por imf o bien f(V ).
Proposicion 3.1.3 ker f e imf son subespacios vectoriales.
Ejercicio 3.1.2 Probar la proposici on anterior 3.1.3.
Ejercicio 3.1.3 Probar que f
2
= 0 si y solo si imf ker f.
Proposicion 3.1.4 Una aplicacion lineal f: V W es un monomorsmo si y s olo si ker f = 0; f es un
epimorsmo si y s olo si f(V ) = W
Ejercicio 3.1.4 Probar la proposici on anterior 3.1.4.
Ejemplo 3.1.7 V = IK[x], D: IK[x] IK[x]. imD = IK[x], y ker D = polinomios de grado cero.
Ejemplo 3.1.8 V = M
n
(IK), f(A) = [A, B] = AB BA. IK = C, n = 2, B =
_
1 0
1 1
_
; ker f =
__
c + d 0
c d
_
[ c, d C
_
, imf =
__
a 2a
b a
_
[ a, b C
_
.
Ejemplo 3.1.9 Sea V el espacio vectorial V = 0. Hay una unica aplicaci on f: 0 W, y es f(0) =
0
W
. Esta aplicaci on se denotar a habitualmente por 0 W. Hay tambien una unica aplicaci on f: W
0, es la aplicacion trivial f(u) = 0, u W. Tal aplicaci on se denota habitualmente W 0.
Proposicion 3.1.5 1. Si W V es un subespacio de V y f: V U es lineal, entonces f(W) es un
subespacio de U.
2. Si S es un subconjunto no vaco de V , lin(f(S)) = f(linS).
Ejercicio 3.1.5 Probar la proposici on anterior 3.1.5.
Proposicion 3.1.6 1. Si f: V U es un monomorsmo y S es un sistema linealmente independiente,
entonces f(S) es linealmente independiente.
2. Si S es un sistema generador de V y f es suprayectiva, entonces f(S) es un sistema generador de
U.
Ejercicio 3.1.6 Probar la proposici on anterior 3.1.6.
Proposicion 3.1.7 Si f: U V es un isomorsmo y B es una base de V , entonces f(B) es una base
de U.
Demostracion. Si f es un isomorsmo, entonces es un monomorsmo. Si B es una base cualquiera
de V , entonces por la proposici on 3.1.6 f(B) es l.i. Por otro lado, f es tambien un epimorsmo, y por la
proposici on 3.1.6 f(B) es un sistema generador. Por lo tanto f(B) es una base. QED
Podemos concluir esta cadena de razonamientos con el siguiente teorema.
Teorema 3.1.1 Una aplicacion lineal f: V U es un isomorsmo si y solo si para alguna base B de V ,
f(B) es una base de U.
52 CAP
x
i
f(e
i
) = 0.
Como los elementos de f(B) son l.i., entonces x
i
= 0, i = 1, . . . , n y por tanto x = 0. Como ker f = 0, f
es un monomorsmo.
Sea y U. Como f(B) es un sistema generador de U, existen y
i
, i = 1, . . . , n tales que y =
y
i
f(e
i
),
por lo tanto y = f(
y
i
e
i
) y y imf, por tanto f es suprayectiva y por tanto es un epimorsmo. QED
Del resultado anterior se desprende la siguiente caracterizaci on de espacios vectoriales isomorfos.
Corolario 3.1.1 Dos espacios vectoriales de dimensi on nita U y V son isomorfos si y solo si dimV =
dimU.
3.2. Teoremas de isomorfa de espacios vectoriales
3.2.1. Primer teorema de isomorfa de espacios vectoriales
Teorema 3.2.1 Sea f: V W una aplicaci on lineal, entonces:
i. Existe un isomorsmo
f: V/ ker f f(V ),
ii. existe un monomorsmo i: f(V ) W,
iii. existe un epimorsmo : V V/ ker f,
tales que, f = i
f .
V
f
W
i
V/ ker f
f
imf
Demostracion. El monomorsmo i es la inclusion can onica, i(w) = w, w f(V ).
El epimorsmo es la proyeccion can onica, (v) = v + ker f, v V .
El isomorsmo
f se dene como sigue:
+ker f, entonces
v v
), y
f(v + ker f) =
f(v
+ ker f).
Debemos probar ademas que
f es lineal, suprayectiva e inyectiva. La prueba de la linealidad de
f es
rutinaria y la suprayectividad es evidente.
Calculemos por ejemplo, ker
f. Si v + ker f ker
f, entonces f(v) = 0, y por lo tanto v ker f, y
v + ker f = ker f que es el cero del espacio cociente.
Finalmente calculemos i
f (v) = i
f(v + ker f) = i(f(v)) = f(v). QED
Corolario 3.2.1 dimV = dimker f + dimf(V ).
Demostracion. Efectivamente, como
f es un isomorsmo, tenemos que dimV/ ker f = dimf(V ),
pero dimV/ ker f = dimV dimker f. QED
La composicion de dos aplicaciones f: U V , g: V W se dir a exacta si ker g = imf. Se tienen las
siguientes propiedades elementales:
Ejercicio 3.2.1 Probar las siguientes armaciones.
1. 0 U
f
V es exacta f es un monomorsmo.
2. U
f
V 0 es exacta f es un epimorsmo.
3. 0 U V W 0 es exacta V/U
= W.
3.3. REPRESENTACI
= V/U.
Demostracion. En primer lugar notemos que U/W es un subespacio de V/W ya que u+W V/W,
u U. Denamos la aplicaci on f: V/W V/U por f(v + W) = v + U, v V . Es claro que esta
aplicaci on esta bien denida ya que W U. Por otro lado la aplicaci on es suprayectiva y ademas
ker f = v +W [ v U = U/W. Entonces por el primer teorema de isomorfa, teorema 3.2.1,
V/W
U/W
=
V/W
ker f
= f(V/W) = V/U.
QED
Teorema 3.2.3 Sean U, V dos subespacios de un espacio vectorial. Entonces se verica:
U
U V
=
U + V
V
.
Demostracion. Denamos la aplicacion f: U (U + V )/V por f(u) = u + V . La aplicaci on f es
suprayectiva. En efecto, si x + V (U + V )/V , entonces x = u + v, con u U, v V . Por tanto
f(u) = x + V . Si calculamos el n ucleo de f tenemos, u ker f si f(u) = 0, por tanto u V , entonces
ker f = U V . Aplicamos el primer teorema de isomorfa a f y obtenemos el enunciado. QED
3.3. Representaci on matricial y cambios de base
3.3.1. Representaci on matricial de una aplicaci on lineal
Sea f: V W una aplicaci on lineal entre los espacios vectoriales V, W (ambos sobre IK). Sea B
V
=
e
j
n
j=1
una base de V (dimV = n) y B
W
= u
i
m
i=1
una base de W (dimW = m). La imagen del vector
e
j
por f, f(e
j
), sera una combinaci on lineal de los vectores de B
W
, esto es:
f(e
j
) = A
1j
u
1
+ A
2j
u
2
+ +A
mj
u
m
, j = 1, . . . , n. (3.1)
Los coecientes A
ij
, i = 1, . . . , m, j = 1, . . . , n, pueden organizarse como una matriz mn,
A =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
.
La primera columna est a formada por los coecientes de la imagen de e
1
en la base u
i
,..., la j-esima
columna esta formada por las coordenadas de la imagen del vector e
j
en la base u
i
, etc. Si colocamos los
vectores u
i
formando una matriz 1 m, (u
1
, . . . , u
m
) podemos escribir:
(f(e
1
), . . . , f(e
n
)) = (u
1
, . . . , u
m
) A.
Llamaremos a la matriz A la representacion matricial de f en las bases B
V
y B
W
y en ocasiones por
motivos de precision en la notaci on escribiremos tambien A(f; B
V
, B
W
) con indicaci on expresa de las
bases respecto de las cuales esta denida.
54 CAP
n
j=1
x
j
e
j
, y si denotamos por y
i
las coordenadas de f(x) en la base u
i
, f(x) =
m
i=1
y
i
u
i
,
tendremos,
f(x) = f
_
_
n
j=1
x
j
e
j
_
_
=
n
j=1
x
j
f(e
j
) =
n
j=1
m
i=1
x
j
A
ij
u
i
,
por tanto
m
i=1
y
i
u
i
=
m
i=1
_
n
j
x
j
A
ij
_
u
i
lo que implica que y
i
=
n
j=1
A
ij
x
j
. Denotando por X el
vector columna X =
_
_
_
x
1
.
.
.
x
n
_
_
_ y an alogamente con Y =
_
_
_
y
1
.
.
.
y
m
_
_
_ tenemos:
Y = A X, (3.2)
o escribiendolo explcitamente:
_
_
_
y
1
.
.
.
y
m
_
_
_ =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_.
La ecuacion anterior Y = AX describe como act ua f sobre las coordenadas de los vectores en unas
bases dadas, pero las bases no son unicas. Estudiaremos a continuaci on como cambia la ecuacion anterior
cuando cambiamos de bases.
3.3.2. Representaci on matricial de la composici on de aplicaciones
Consideremos ahora dos aplicaciones lineales f: U V y g: V W. La composicion de las aplicacio-
nes f y g es de nuevo una aplicaci on lineal g f: U W (proposicion 3.1.1). Si jamos bases B
U
= u
i
,
B
V
= v
j
y B
W
= w
k
de los espacios U, V y W respectivamente, tendremos una representacion ma-
tricial A para la aplicaci on f en las bases B
U
y B
V
, una representacion matricial B para la aplicaci on
lineal g en las bases B
U
y B
W
y una representacion matricial C para g f en las bases B
U
y B
W
. La
pregunta que nos hacemos es que relacion existe entre A, B y C?
Notemos que por denici on de representacion matricial, ecuaci on (3.1), tenemos para los tres casos:
f(u
i
) = A
1i
v
1
+ A
2i
v
2
+ + A
mi
v
m
, i = 1, . . . , n (3.3)
g(v
j
) = B
1j
w
1
+B
2j
w
2
+ + B
rj
w
r
, j = 1, . . . , m (3.4)
g f(u
i
) = C
1i
w
1
+ C
2i
w
2
+ + C
ri
w
r
, i = 1, . . . , n. (3.5)
Por lo tanto, desarrollando g f(u
i
) en la ecuacion (3.5) tenemos,
g f(u
i
) = g(f(u
i
)) = g(A
1i
v
1
+A
2i
v
2
+ +A
mi
v
m
)
=
m
l=1
A
li
g(v
l
) =
m
l=1
A
li
_
r
k=1
B
kl
w
k
_
=
m,r
l=1,k=1
A
li
B
kl
w
k
,
3.3. REPRESENTACI
k=1
C
ki
w
k
=
m,r
l=1,k=1
A
li
B
kl
w
k
.
Como los vectores w
k
forman una base, tendremos por tanto,
C
ki
=
m
l=1
B
kl
A
li
,
que en lenguaje de matrices, corresponde a la formula:
C = BA.
Hemos concluido, demostrando as el siguiente teorema.
Teorema 3.3.1 La matriz correspondiente a la composici on de dos aplicaciones lineales en bases dadas se
obtiene multiplicando las correspondientes matrices de cada una de las aplicaciones en el orden contrario
a su composici on.
Notas. 1. Este teorema justica a posteriori la denici on del producto de matrices. El
producto de matrices no es por tanto una operaci on ex otica que tiene interesantes (y sorpren-
dentes) aplicaciones sino que no es mas que una manera especial de escribir la composicion
de aplicaciones y de ello emanan todas sus propiedades.
2. La no conmutatividad del producto de matrices simplemente reeja el hecho de que la
composicion de aplicaciones no es en general conmutativa.
Ejercicio 3.3.1 Escribir la matriz que representa a las aplicaciones lineales D y L del ejemplo 3.1.4 en
la base 1, x, . . . , x
n
, . . ..
Ejercicio 3.3.2 Sea V un espacio vectorial de dimensi on n y una permutacion de n elementos. Con-
siderese la aplicacion lineal f
: V V denida por f
(e
i
) = e
(i)
donde B = e
i
n
i=1
. Escribir la matriz
A
asociada a f
= A
, , S
n
.
3.3.3. Cambios de base
Punto de vista pasivo
Este es el punto de vista que adoptamos en el captulo precedente, seccion 2.5.3. Sea V un espacio
vectorial en el que cambiamos las bases; la base B
V
= u
1
, . . . , u
n
se cambia a la nueva base B
V
=
u
1
, . . . , u
n
. Los vectores x V no son alterados, pero sus coordenadas variar an:
x =
n
i=1
x
i
u
i
=
n
i=1
x
i
u
i
.
El vector columna X = (x
i
) es el vector de las coordenadas antiguas y X
= (x
i
) es el vector columna
de las coordenadas nuevas. La relaci on entre ambas esta proporcionada por
X
= P
X, (3.6)
con u
i
=
n
j=1
P
ji
u
j
como en la ecuacion (2.1), esto es, P es la matriz del cambio de base,
(u
1
, . . . , u
n
) = (u
1
, . . . , u
n
) P.
Si escribimos los vectores de la nueva base B
V
en funci on de los de la antigua base B
V
, tendremos
u
i
=
n
j=1
Q
ji
u
j
,
con Q la matriz inversa de P, y entonces
X
= Q
1
X.
56 CAP
i
, i = 1, . . . n.
Debemos interpretar que este isomorsmo no esta modicando los vectores de V sino solamente los
observadores, esto es, las bases utilizadas para describir los vectores en coordenadas.
Notese tambien que esta correspondencia entre cambios de bases e isomorsmos es biunvoca una vez
que jamos una base dada.
Punto de vista activo
A veces resulta conveniente adoptar otro punto de vista para discutir los cambios de bases en espacios
vectoriales. Imaginemos ahora que la base B
V
esta jada pero tenemos una transformaci on lineal : V V
que cambia los vectores, x (x). Esta transformaci on lineal enviar a los vectores u
i
de la base B
V
a los
de un nuevo sistema u
i
, (u
i
) = u
i
. Si la aplicaci on es un isomorsmo, los vectores u
i
ser an una base
B
V
de V . La representacion matricial de en la base B
V
estar a dada por:
(u
i
) = u
i
=
n
j=1
ji
u
j
.
Pero ahora lo que nos importa no es la nueva base, sino el cambio de los vectores. As, queremos obtener
las coordenadas del nuevo vector x
i=1
x
i
u
i
.
Se obtiene que (x) =
i
x
i
(u
i
) =
i,j
x
i
ji
u
j
y por tanto, x
j
=
ji
x
i
, o matricialmente,
X
= X,
donde es la matriz con coecientes
ij
.
Nota. El punto de vista activo se utiliza cuando estamos interesados en estudiar el efecto de
transformaciones en los estados de un sistema fsico y sus propiedades de simetra. En lo que
sigue, cuando hablemos de cambios de base y cambios de coordenadas estaremos asumiendo
el punto de vista pasivo.
3.3.4. Representaci on matricial en bases diferentes
Sea f: V W una aplicaci on lineal y B
V
, B
W
bases respectivamente de V y W. Sea
V
: V V
un isomorsmo en V deniendo una nueva base de V ,
V
(B
V
) = B
V
y
W
: W W un isomorsmo
en W deniendo una nueva base
W
(B
W
) = B
W
de W. Denotaremos por v
i
los vectores de B
V
, esto es
B
V
= v
i
; an alogamente B
V
= v
i
, B
W
= w
j
y B
W
= w
j
. Ademas
v
i
=
n
j=1
P
ji
v
j
, w
l
=
m
k=1
Q
kl
w
k
. (3.7)
La representacion matricial de f en las bases B
V
y B
W
vendr a dada por una matriz A denida por
f(v
i
) =
m
k=1
A
ki
w
k
,
3.3. REPRESENTACI
V
y B
W
,
f(v
i
) =
m
l=1
A
li
w
l
. (3.8)
Por tanto, usando la ecuaci on (3.7) en la ecuaci on (3.8) tendremos,
f(v
i
) = f(
n
j=1
P
ji
v
j
) =
n
j=1
P
ji
f(v
j
) =
n
j=1
P
ji
_
m
k=1
A
kj
w
k
_
,
y an alogamente,
m
k=1
A
ki
w
k
=
m
k=1
A
ki
_
m
l=1
Q
la
w
l
_
,
por tanto
m,m
k=1,l=1
A
ki
Q
lk
w
l
=
n
j=1
m
l=1
P
ji
A
lj
w
l
,
y la independencia lineal de los vectores w
l
implica que
m
k=1
A
ki
Q
lk
=
n
j=1
P
ji
A
lj
.
En otras palabras, utilizando notaci on matricial, tenemos,
QA
= AP,
y despejando A
= Q
1
AP. (3.9)
Ejercicio 3.3.3 Con los isomorsmos
V
y
W
podemos construir una nueva aplicaci on lineal
f =
1
W
f
V
: V W tal y como nos indica el diagrama adjunto.
V
f
W
V
W
V
f
W
Probar que la representaci on matricial de
f en las bases B
V
y B
W
es precisamente A
.
Ejercicio 3.3.4 Probar que el rango de la matriz asociada a una aplicaci on lineal no depende de las
bases en que se escriba.
Si particularizamos la situaci on anterior al caso en que f es un endomorsmo, esto es, una aplicaci on
lineal f: V V , podemos jar la misma base B
V
en su dominio y en su rango. Cuando cambiemos de
base, podemos realizar simultaneamente el cambio en su rango y su dominio con lo que tendremos que las
matrices P y Q de la discusi on anterior coincidir an y la f ormula para el cambio de base de una realizaci on
matricial A de f, resultar a:
A
= P
1
AP. (3.10)
En el proximo captulo discutiremos el problema de determinar la expresi on matricial m as sencilla para
un endomorsmo.
58 CAP
.
Demostracion. Denimos la suma y el producto por escalares de aplicaciones lineales de la manera
habitual (ver proposici on 3.1.1). Con ellas V
i
, donde
i
= f(e
i
). Denamos ahora una familia de covectores e
i
: V IK, i = 1, . . . , n, como sigue:
e
i
(e
j
) =
i
j
, i, j = 1, . . . , n,
equivalentemente e
i
(x) = x
i
, donde x =
i
x
i
e
i
. Probemos que el conjunto B
= e
1
, . . . , e
n
es una
base de V
.
Si f V
, sea
i
= f(e
i
), entonces f =
i
i
e
i
. En efecto,
i
i
e
i
(x) =
i
i
x
i
=
i
f(x
i
e
i
) =
f(x), y B
es un sistema generador.
Probemos que B
j
j
e
j
(e
i
) =
j
j
j
i
=
i
, y B
es libre. QED
Ejercicio 3.4.1 Probar que si f(x) = 0 para todo f V
, entonces x = 0.
Nota. Los espacios vectoriales V y V
= dimV
=
dimV , luego (V
denida por
(x)(f) = f(x), f V
, x V .
Esta aplicaci on es un monomorsmo ya que si (x) = 0, entonces f(x) = 0, para todo f V
, por
tanto x = 0. Por tanto es un isomorsmo.
3.5. RANGO DE UNA APLICACI
ON 59
3.4.2. Endomorsmos de un espacio vectorial
Una aplicaci on lineal f de un espacio vectorial V en s mismo se denominara un endomorsmo de V .
El conjunto de aplicaciones lineales de V , esto es, de endomorsmos de V , se denotar a por End(V ).
Al igual que ocurre con el espacio dual de V tenemos la siguiente proposici on.
Proposicion 3.4.2 End(V ) es un espacio vectorial de dimension (dimV )
2
.
Demostracion. La demostracion de que End(V ) es un espacio vectorial es una repeticion del caso
del espacio dual. Construyamos una base de End(V ). Sea B = e
i
n
i=1
, una base de V . Denotemos por
e
j
i
: V V las aplicaciones denidas por
e
j
i
(e
k
) =
j
k
e
i
, i, j, k = 1, . . . , n,
esto es, si x =
i
x
i
e
i
, entonces e
j
i
(x) = x
j
e
i
. La familia de aplicaciones
B = e
j
i
[ i, j = 1, . . . , n es una
base de End(V ).
Probemos que es un sistema generador. Sea f End(V ). Entonces f(e
i
) =
k
ki
e
k
, i = 1, . . . , n.
Denamos la aplicacion
n
i,j=1
ji
e
i
j
.
Entonces,
n
i,j=1
j
i
e
i
j
(x) =
i,j
ji
x
i
e
j
=
i
x
i
(
j
ji
e
j
) =
i
x
i
f(e
i
) = f(x).
El sistema
B es l.i. Si
i,j
i
j
e
j
i
= 0, actuando sobre el vector e
k
tendremos,
i
i
k
e
i
= 0, y por tanto
i
k
= 0, para todo i, k. QED
Nota. De manera an aloga se puede denir el espacio vectorial de aplicaciones lineales V V
,
V
V , V
V
, etc. Todos estos espacios vectoriales tienen la misma dimension n
2
, si
n = dimV , pero son diferentes. Todos ellos son ejemplos de espacios de tensores de tipo (0, 2),
(2, 0), (1, 1) respectivamente como se vera mas adelante.
3.4.3. Otros espacios de aplicaciones lineales
Denotaremos por Hom(V, W) el conjunto de aplicaciones lineales f: V W.
Proposicion 3.4.3 El conjunto Hom(V, W) es un espacio vectorial de dimension dimV dimW.
La demostracion es an aloga a la de la proposici on 3.4.2.
Ejercicio 3.4.3 Calcular la dimensi on de los espacios vectoriales: Hom(V
, W
es equivalente a A, entonces
r
c
(A) = r
c
(A
).
Demostracion. En efecto, la dimf(V ) no depende de las bases que escojamos. QED
Nota. El teorema 2.6.1 nos mostro que el rango de las y el rango de columnas de una matriz
coinciden. Por tanto los resultados anteriores se pueden enunciar directamente utilizando el
rango de la matriz representando a la aplicaci on f. En cualquier caso es signicativo que en
las demostraciones es el rango por columnas el que aparece de manera natural. Como aparece
el rango por las en este contexto?
En primer lugar observaremos que rango de las de A = rango de columnas de A
t
donde (A
t
)
ia
= A
ai
.
Nos interesa hallar una aplicaci on lineal relacionada con f tal que su representacion matricial sea A
t
.
Denicion 3.5.2 Sea f: V W es una aplicaci on lineal; llamaremos aplicaci on transpuesta o dual de
f y se denotar a por f
a la aplicaci on f
: W
denida por
(f
())(v) = (f(v)), W
, v V.
Proposicion 3.5.2 Si A es la representacion matricial de f en las bases B
V
, B
W
entonces A
t
es la
representacion matricial de f
V
, B
W
.
Demostracion. En efecto, si B
V
= e
1
, . . . , e
n
, la base dual B
V
= e
1
, . . . , e
n
se dene como
e
j
(e
i
) =
j
i
tal y como vimos en la proposici on 3.4.1 y de manera analoga para B
W
= u
1
, . . . , u
m
y
su base dual B
W
= u
1
, . . . , u
m
. Calculemos f
(u
i
) =
n
j=1
A
ji
e
j
, pero por otro lado f
(u
i
)(e
i
) =
u
i
(f(e
i
)) = u
i
(
m
j=1
A
ji
u
j
) = A
ji
. Si evaluamos
n
j=1
A
ji
e
j
en e
i
, obtenemos A
ij
= A
ji
, y por tanto
A
= A
t
. QED
Por tanto r
f
(A) = r(f
).
Proposicion 3.5.3 r(f) = dimV dimker f.
Demostracion. En efecto, f: V W y por el primer teorema de isomorfa, V/ ker f
= f(V ), entonces
dimV dimker f = dimf(V ) = r(f). QED
Podemos por tanto ofrecer otra demostraci on del teorema 2.6.1 ligada a las propiedades y estructura
de las aplicaciones lineales.
Teorema 3.5.1 r
f
(A) = r
c
(A).
3.6. SISTEMAS DE ECUACIONES LINEALES 61
Demostracion. Tenemos r
f
(A) = r
c
(A
t
) = r(f
) = dimW
dimker f
.
Calculemos ker f
. Si ker f
, entonces f
() = 0. Por tanto f
()(v) = 0, v V , y entonces
(f(v)) = 0 para todo v, y as (f(V )) = 0.
Sea B
W
una base de W adaptada a f(V ), esto es B
W
= u
1
, . . . , u
r
, u
r+1
, . . . , u
m
, y u
1
, . . . , u
r
es
una base de f(V ) (notemos que entonces rango f = r). Por tanto la condici on (f(V )) = 0 implica que
=
r+1
u
r+1
+ +
m
u
m
. En efecto, un elemento general de W
tendr a la forma =
1
u
1
+ +
m
u
m
,
pero u
i
f(V ), i = 1, . . . , r, por tanto (u
i
) = 0, i = 1, . . . , r, y por tanto
1
= =
r
= 0. Concluimos
que dimker f
= m r, y as rango f
= m(m r) = r. QED
3.6. Sistemas de ecuaciones lineales
En muchas ocasiones los textos de algebra lineal comienzan con una discusi on de sistemas de ecuaciones
lineales. Hemos pospuesto deliberadamente retrasar tal discusion hasta este momento y tratar los sistemas
de ecuaciones lineales como una mera aplicacion de la teora de aplicaciones lineales.
En cualquier caso, un sistema de m ecuaciones lineales con n inc ognitas x
1
, . . . , x
n
consiste en una
familia de ecuaciones
a
11
x
1
+a
12
x
2
+ + a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ + a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= b
m
con a
ij
IK, b
i
IK. El problema consiste en determinar cuando existen y cu ales son los valores de
x
1
, . . . , x
n
en IK que satisfacen dichas ecuaciones.
Podemos escribir el sistema anterior en forma matricial. Si A denota la matriz m n denida por
A = (a
ij
), i = 1, . . . , m, j = 1, . . . , n y X, B son las matrices columnas n 1 y m 1 respectivamente,
X =
_
_
_
x
1
.
.
.
x
n
_
_
_, B =
_
_
_
b
1
.
.
.
b
m
_
_
_,
tenemos:
A X = B.
Si pensamos que X y B son vectores en IK
n
y IK
m
respectivamente, y A denota una aplicaci on lineal
f: IK
n
IK
m
en las bases canonicas, tenemos que el problema de resolver el sistema anterior, es equiva-
lente a determinar el conjunto f
1
(B).
El siguiente teorema resuelve todas estas cuestiones. Denotaremos por (A [ B) la matriz que se obtiene
a nadiendo el vector columna B a la matriz A y se llamara matriz extendida de A por B.
Teorema 3.6.1 RoucheFrobenius. Dado un sistema de ecuaciones A X = B, de m ecuaciones con
n inc ognitas, el sistema posee soluci on si y s olo si r(A) = r(A [ B). Adem as si X
0
es una soluci on, el
conjunto de todas las soluciones es X
0
+ ker A.
Demostracion. ) Supongamos que r(A) = r(A [ B). Entonces r
c
(A) = r
c
(A [ B), por tanto
dim(linA
1
, A
2
, . . . , A
n
) = dim(linA
1
, . . . , A
n
, B) lo que quiere decir que B linA
1
, . . . , A
n
, esto es
existen n umeros x
0i
tales que B = x
01
A
1
+ + x
0n
A
n
= A X
0
, y el vector X
0
es una solucion.
) Si X
0
es una solucion de A X = B, entonces A X
0
= B y desarrollando el producto por columnas
tenemos x
01
A
1
+ x
02
A
2
+ + x
0n
A
n
= B, luego B linA
1
, . . . , A
n
, dim(linA
1
, . . . , A
n
) =
dim(linA
1
, . . . , A
n
, B) r(A) = r(A [ B).
Finalmente si X
0
es una solucion, el conjunto de soluciones es X
0
+ ker A. En efecto, si X
1
es otra
solucion, A (X
1
X
0
) = 0 X
1
X
0
ker A. QED
62 CAP
i1,...,im=1
x
i1
1
. . . x
im
m
f(e
i1
, . . . , e
im
).
Los n umeros
i1i2...im
= f(e
i1
, . . . , e
im
) son las coordenadas de f en una cierta base.
Ejercicio 3.7.1 Si f es una mforma lineal, se verica f(. . . , x, . . . , x, . . .) = 0, para todo x V .
Proposicion 3.7.1 Una mforma lineal f en V queda determinada dando sus valores sobre las familias
de vectores e
i1
, . . . , e
im
tales que 1 i
1
< i
2
< . . . < i
m
n, donde B = e
i
n
i=1
es una base de V .
3.7. DETERMINANTES 63
Demostracion. En efecto, si tomamos una familia cualquiera de m vectores en una base B = e
i
,
e
j1
, e
j2
, . . . , e
jm
existe una permutacion S
m
tal que 1 (j
1
) = i
1
< (j
2
) = i
2
< (j
m
) = i
m
n. En efecto, no hay m as que tomar la permutacion que es la identidad en el complementario del conjunto
j
1
, j
2
, . . . , j
m
, y la permutaci on que enva j
1
al mnimo de j
1
, j
2
, . . . , j
m
; que enva j
2
al mnimo del
conjunto anterior excepto la imagen de j
1
, etc. Entonces es evidente debido a la antisimetra de f que
f(e
j1
, . . . , e
jm
) = ()f(e
i1
, . . . , e
im
).
Por tanto f queda determinada sobre familias de vectores satisfaciendo la condici on del enunciado. QED
Ejercicio 3.7.2 Probar que el n umero de familias de vectores que determinan una mforma lineal es
_
n
m
_
.
Teorema 3.7.1 Si dimV = n todas las nformas lineales son proporcionales.
Demostracion. En efecto, seg un el ejercicio 3.7.2, el n umero de familias que determinan una nforma
en un espacio de dimension n es
_
n
n
_
= 1. Por lo tanto si f es la aplicacion deniendo tal forma, basta
especicar el n umero
= f(e
1
, e
2
, . . . , e
n
),
donde B = e
i
es una base cualquiera del espacio V . QED
Observemos que si f es una nforma en un espacio de dimensi on n, tendremos para cualquier familia
de vectores x
1
, . . . , x
n
, que,
f(x
1
, . . . , x
n
) =
n
i1,...,in=1
x
1i1
x
nin
f(e
i1
, . . . , e
in
),
pero como f se anula sobre dos vectores identicos, en la suma anterior ndices i
k
repetidos no contribuir an
y solo quedar an los terminos en que todos los i
1
, . . . , i
n
sean diferentes, esto es los etiquetados por las
permutaciones de 1, . . . , n, y por tanto:
f(x
1
, . . . , x
n
) =
Sn
x
1(1)
x
n(n)
f(e
(1)
, . . . , e
(n)
).
Por otro lado debido a la antisimetra de f, podemos reorganizar los vectores e
(1)
, . . . , e
(n)
, en su
argumento y llevarlos al orden natural e
1
, . . . , e
n
. Para hacer esto podemos utilizar una descomposici on
cualquiera en transposiciones de (lo cual es siempre posible debido a la proposici on 1.2.2). Dado que
cada transposici on contribuye con un signo menos al valor de f, tras aplicar las transposiciones que
convierte en la identidad obtendremos un factor que ser a la paridad de la permutaci on (recordar la
proposici on 1.2.3). Por tanto tendremos la siguiente f ormula para f,
f(x
1
, . . . , x
n
) =
Sn
()x
1(1)
x
n(n)
f(e
1
, . . . , e
n
). (3.11)
Si g es otra nforma tendremos aplicando la f ormula (3.11)
g(x
1
, . . . , x
n
) =
Sn
()x
1(1)
x
n(n)
g(e
1
, . . . , e
n
),
y por tanto si g(e
1
, . . . , e
n
) = y f(e
1
, . . . , e
n
) = ,= 0, tendremos que
g(x
1
, . . . , x
n
) =
f(x
1
, . . . , x
n
),
conrmando de nuevo el resultado del teorema 3.7.1.
Denicion 3.7.3 Una n-forma no nula en un espacio vectorial V de dimensi on n se llama un volumen
en V .
64 CAP
B
(e
1
, . . . , e
n
) = 1.
Notemos que aplicando la f ormula (3.11) obtenemos para tal volumen,
B
(x
1
, . . . , x
n
) =
Sn
()x
1(1)
x
n(n)
, (3.12)
donde x
ij
son las coordenadas del vector x
i
en la base B. Llamaremos a esta expresion el determinante
de los vectores x
1
, . . . , x
n
respecto de la base B. Notemos que el cambio de base solo afectara el valor de
dicha expresion en un factor global seg un el teorema 3.7.1.
Ejercicio 3.7.3 Calcular dicho factor para las bases B
W
en V como sigue:
(f
W
)(x
1
, . . . , x
n
) =
W
(f(x
1
), . . . , f(x
n
)), x
1
, . . . , x
n
V.
(N otese que si las dimensiones de los espacios vectoriales fueran diferentes f
W
no sera un volumen
en V ). Por el teorema 3.7.1 tenemos que los vol umenes
V
y f
W
son proporcionales. Llamaremos
determinante de f a dicho n umero.
Denicion 3.7.4 Se llama determinante de f respecto de los vol umenes
V
y
W
al n umero IK tal
que
f
W
=
V
y se denotar a por det(f;
V
,
W
).
Si f es un endomorsmo de V , llamaremos determinante de f al determinante respecto de cualquier
volumen en V y se denotar a simplemente por det f.
Notese que si f: V V es lineal y
V
es un volumen, entonces la ecuacion,
f
V
= det(f
V
), (3.14)
dene el determinante de f. Si cambiamos el volumen
V
es lo mismo que multiplicar los dos miembros
de esta ecuacion por un mismo n umero y el factor det f no vara. Dado que det f no depende de la base
escogida cuando f es un endomorsmo, cu anto vale det f?
Proposicion 3.7.2 Sea f: V V una aplicaci on lineal y B = e
i
n
i=1
una base de V . Si A = (a
ij
) es la
representacion matricial de f en dicha base, entonces,
det f =
Sn
()a
(1)1
a
(n)n
.
Demostracion. En efecto calculemos det f utilizando la f ormula (3.14). Calculemos en primer lugar
f
V
, para ello todo lo que tenemos que hacer es calcular f
V
(e
1
, . . . , e
n
). Pero esto es, por denici on,
f
V
(e
1
, . . . , e
n
) =
V
(f(e
1
), . . . , f(e
n
))
=
V
_
i1
a
i11
e
i1
, . . . ,
in
a
inn
e
in
_
=
Sn
()a
(1)1
a
(n)n
V
(e
1
, . . . , e
n
).
QED
Notese que hemos obtenido que el determinante de f es simplemente el determinante de una repre-
sentacion matricial A de f en una base arbitraria y donde el determinante de la matriz A esta dado por
la f ormula (3.13).
1. En la pr oxima seccion veremos que este hecho es evidente a partir de las propiedades
de los determinantes y de las leyes de transformacion de las representaciones matriciales de
endomorsmos.
2. En la denici on de determinante de una matriz A se podran haber intercambiado columnas
por las y escribir dicho determinante exactamente igual que la f ormula (3.12). Veremos a
continuaci on que tal convenci on es irrelevante porque el determinante de una matriz y su
traspuesta coinciden. El resultado m as general que no probaremos aqu es que el determinante
de una aplicaci on lineal f: V V y su dual f
: V
V
coinciden.
66 CAP
a
11
a
12
a
21
a
22
= a
11
a
22
a
12
a
21
,
y
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
= a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
13
a
22
a
31
a
12
a
21
a
33
a
11
a
23
a
32
.
Es claro a partir de la denici on que el desarrollo del determinante de una matriz nn tiene n! terminos.
Por tanto la complejidad de su c alculo aumenta extraordinariamente con el orden de A.
Propiedades de los determinantes
Proposicion 3.7.3 La funci on A det A denida en el conjunto M
n
(IK) tiene las propiedades siguien-
tes:
i. det A es una funci on multilineal de las columnas de A.
ii. det A es una funci on antisimetrica de las columnas de A.
iii. det I
n
= 1.
Demostracion. Si utilizamos los resultados de la seccion anterior, en el sentido de que el determinante
de A no es mas que el volumen de los vectores columnas de A entonces las propiedades (i) y (ii) son
triviales. La propiedad (iii) es inmediata a partir de la denici on del determinante de una aplicaci on lineal
(3.14) ya que el determinante de la aplicaci on identidad es 1.
A pesar de ello las propiedades anteriores se pueden probar directamente.
i. Supongamos que A = (A
1
. . . A
i
+B
i
. . . A
n
), entonces:
[ A [ = det(A
1
. . . A
i
+B
i
. . . A
n
) =
Sn
()A
(1)1
(A
(i)i
+ B
(i)i
) A
(n)n
=
Sn
()A
(1)1
A
(i)i
A
(n)n
+
Sn
()A
(1)1
B
(i)i
A
(n)n
= det(A
1
. . . A
i
. . . A
n
) + det(A
1
. . . B
i
. . . A
n
).
ii. Denotemos por
A = (A
1
. . . A
j
. . . A
i
. . . A
n
) la matriz que se obtiene de la A intercambiando la
columna i con la j. Entonces,
det
A =
Sn
()A
(1)1
A
(i)j
A
(j)i
A
(n)n
=
Sn
()A
ij(1)1
A
ij(j)j
A
ij (i)i
A
ij(n)n
=
Sn
(
ij
)A
(1)1
A
(j)j
A
(i)i
A
(n)n
=
Sn
()A
(1)1
A
(j)j
A
(i)i
A
(n)n
= det A.
3.7. DETERMINANTES 67
iii. Es evidente a partir de la denici on 3.15. QED
El siguiente teorema es una reformulaci on en coordenadas de nuestro teorema fundamental 3.7.1.
Teorema 3.7.2 Sea D: M
n
(IK) IK una funci on con las siguientes propiedades:
i. D es una funci on lineal de las columnas de A M
n
(IK).
ii. D es una funci on antisimetrica en las columnas de A M
n
(IK).
Entonces existe una constante tal que
D(A) = det A.
Demostracion. Es evidente que la funci on D dene una nforma en el espacio vectorial IK
n
. Por lo
tanto por el teorema 3.7.1 D es proporcional a la n-forma denida por det A. QED
Proposicion 3.7.4 det A = det A
t
.
Demostracion. Se puede probar directamente de: det A
t
=
Sn
()A
(1)1
A
(n)n
y como
A
(1)1
A
(n)n
= A
1
1
(1)
A
n
1
(n)
al ser
1
una aplicaci on biyectiva de S
n
el sumatorio
sobre es igual al sumatorio sobre
1
. En cualquier caso podemos probarlo utilizando la caracterizaci on
dada por el teorema 3.7.2.
Denamos una aplicaci on D(A) = det A
t
. Probemos que D es lineal en las columnas. Esto es, si
A
= (A
1
, . . . , A
i
+ B
i
, . . . A
n
), entonces
det A
=
Sn
()A
(1)1
(A
(i)i
+B
(i)i
) A
(n)n
=
Sn
()A
(1)1
A
(i)i
A
(n)n
+
Sn
()A
(1)1
B
(i)i
A
(n)n
= D(A
1
. . . A
i
. . . A
n
) +D(A
1
. . . B
i
. . . A
n
).
Del mismo modo que probamos que el determinante es antisimetrico en las columnas de A, proposici on
3.7.3 (ii), probamos que D es antisimetrica en las columnas de A.
Finalmente es inmediato probar que D(I
n
) = 1, y por tanto el coeciente = 1. Seg un el teorema
anterior 3.7.2, D(A) = det A y por tanto det A
t
= det A. QED
Proposicion 3.7.5 Desarrollo de un determinante por las y por columnas. Si A = (a
ij
) es una matriz
n n, entonces:
det A =
n
j=1
(1)
i+j
a
ij
M
ij
(A) =
n
i=1
(1)
i+j
a
ij
M
ij
(A), (3.16)
donde M
ij
(A) es el determinante de la matriz que se obtiene al quitar la la i y la columna j de la matriz
A. M
ij
(A) se denomina el menor (i, j) de la matriz A o tambien el complemento del elemento a
ij
.
Demostracion. La f ormula anterior se sigue del desarrollo:
det A =
Sn
()a
1(1)
a
n(n)
=
S
n
(i) = 1
()a
i1
(a
1(1)
a
i(i)
a
n(n)
)
+
S
n
(i) = 2
()a
i2
(a
1(1)
a
i(i)
a
n(n)
) +
+
S
n
(i) = n
()a
in
(a
1(1)
a
i(i)
a
n(n)
)
QED
68 CAP
= f
= f
(g
) = f
(det B) = det Bf
= det Bdet A.
Se puede probar tambien directamente utilizando la denici on 3.13 y manipulando las sumas adecua-
damente. Otra demostraci on se puede realizar aplicando el Teorema 3.7.2 a la aplicaci on D(A) = det(AB)
con B ja. QED
Ejercicio 3.7.6 Probar la f ormula (3.17) utilizando la denici on 3.13 del determinante de una matriz.
Teorema 3.7.4 La matriz A es invertible si y s olo si det A ,= 0. Adem as det(A
1
) = (det A)
1
.
Demostracion. Si A es invertible, entonces existe una matriz A
1
tal que AA
1
= I
n
. Por tanto,
1 = det I
n
= det(AA
1
) = det Adet A
1
y as det(A
1
) = (det A)
1
.
Recprocamente si det A ,= 0, construimos la matriz cuyo elemento (i, j) es:
B
ij
=
1
det A
(1)
i+j
M
ji
(A).
Calculemos AB. Tenemos,
(AB)
ij
=
n
k=1
A
ik
B
kj
=
k=1
(1)
k+j
det A
A
ik
M
jk
(A).
Si i = j, utilizando el desarrollo del determinante por columnas (3.16), obtenemos,
(AB)
ii
=
1
det A
n
k=1
(1)
i+k
A
ik
M
ik
(A) =
det A
det A
= 1.
Si i ,= j, entonces (AB)
ij
= 0 ya que es el desarrollo por columnas del determinante de la matriz A con
la columna j reemplazada por la i, esto es con dos columnas iguales, y por tanto 0. QED
La demostracion anterior nos ha proporcionado de paso una expresi on explcita de la inversa de una
matriz:
(A
1
)
ij
=
1
det A
(1)
i+j
M
ji
(A). (3.18)
Proposicion 3.7.6 C alculo del rango de una matriz. El rango de una matriz A es igual al m aximo de
los ordenes de sus menores no nulos, donde llamamos menor de una matriz al determinante de una
submatriz cuadrada y orden del menor al orden de la submatriz.
Ejercicio 3.7.7 Probar la proposici on anterior.
Proposicion 3.7.7 Regla de Cramer. Dado el sistema lineal de ecuaciones AX = B, si A es invertible
su soluci on es unica y es X = A
1
B. Explcitamente:
x
i
=
a
11
b
1
a
1n
a
21
b
2
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
b
n
a
nn
a
11
a
1n
a
21
a
2n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
,
3.7. DETERMINANTES 69
donde el vector B se halla en la columna i del determinante del numerador.
Ejercicio 3.7.8 Probar la proposici on anterior 3.7.7.
70 CAP
j=1
a
ji
u
j
, A = (a
ij
) = A(f, B)
Las columnas de A son las coordenadas de los vectores imagenes de la base B, expresadas en esta base.
Si cambiamos de base:
B = u
i
B
= u
j=1
P
ji
u
j
, P = (P
ij
), det P ,= 0,
la matriz A cambia a una matriz A
= M(f, B
) dada por:
A
= PAP
1
. (4.1)
La f ormula anterior corresponde a la f ormula (3.9) cuando la aplicamos al mismo cambio de bases tanto
en el dominio como en el rango de f.
N otese que si ambas bases estan referidas a una tercera (como por ejemplo, en el caso de IR
n
, con las
bases B y B
j=1
q
ji
e
j
, u
i
=
n
j=1
q
ji
e
j
, j = 1, . . . , n
se tienen dos matrices:
Q =
_
_
_
q
11
q
1n
.
.
.
.
.
.
q
n1
q
nn
_
_
_, Q
=
_
_
_
q
11
q
1n
.
.
.
.
.
.
q
n1
q
nn
_
_
_,
71
72 CAP
ONICAS DE ENDOMORFISMOS
en las que las columnas son las coordenadas de los vectores de las bases B y B
en la tercera base e
i
.
La matriz de cambio de base es ahora muy sencilla: el cambio de base de B a e
i
viene dado por Q y el
de e
i
a B
por: (Q
)
1
, luego el de B a B
es P = (Q
)
1
Q
De acuerdo con estas ideas, el objetivo de este tema es encontrar una base B en la cual la matriz
A(f, B) sea lo mas sencilla posible.
Es muy f acil persuadirse que si utilizamos cambios de bases diferentes en el dominio y en el rango de
la aplicaci on f es posible hallar una expresi on para f de la forma
_
I
r
0
0 0
_
, (4.2)
donde r es el rango de f. En efecto, basta tomar una base u
1
, . . . , u
s
del n ucleo de f y extenderla a todo
V , as B = v
1
, . . . , v
r
, u
1
, . . . , u
s
, con r = r(f) y r + s = dimV . Tomemos los vectores f(v
1
), . . . , f(v
r
)
que forman una base de imf y completemos dicha base hasta obtener una base B
de V . Es obvio que la
matriz asociada a f en estas dos bases es la descrita en (4.2).
Por el contrario si estamos describiendo nuestro endomorsmo f desde una base dada, nos intere-
sara averiguar como cambia la forma de sus matrices asociadas bajo las transformaciones (4.1).
Diremos que dos matrices A y A
= PAP
1
. Dicha relaci on es de equivalencia. Desde un punto de vista asociado a la teora
de grupos la relaci on anterior corresponde a la conjugaci on por el grupo general lineal GL(n, IK) en el
conjunto de matrices M
n
(IK). El problema que estamos planteando consiste en buscar un elemento lo
mas sencillo posible en la orbita de A bajo la acci on por conjugaci on del grupo general lineal.
El problema de determinar formas can onicas de endomorsmos consiste en describir el espacio cociente,
esto es las clases de equivalencia, del conjunto de matrices con respecto a la relacion de equivalencia
anterior.
4.1.1. Matrices diagonales
Denicion 4.1.1 Una matriz diagonal A M
n
(IK) tiene todos sus elementos cero salvo los de la dia-
gonal:
A =
_
_
_
a
11
.
.
.
a
nn
_
_
_.
Una matriz diagonal A queda denida por las f ormulas:
A
ij
=
_
0 si i ,= j
a
ii
si i = j
,
o equivalentemente A
ij
= a
ii
ij
, y la representaremos habitualmente como A = diag(a
11
, . . . , a
nn
).
Aceptaremos que esta es la forma mas sencilla de escribir un endomorsmo en una base adecuada.
Sin embargo no siempre es posible encontrar un base en la cual el endomorsmo en cuesti on venga
representado por una matriz diagonal. En este caso, nos veremos obligados a contentarnos con una
representacion tambien sencilla (forma can onica de Jordan) pero no diagonal.
Denicion 4.1.2 Diremos que un endomorsmo f es diagonalizable si existe una base del espacio vec-
torial tal que la matriz asociada a f en dicha base es diagonal.
De manera analoga podemos decir que una matriz es diagonalizable si existe una matriz equivalente
a ella que es diagonal.
Ejemplo 4.1.1 Consideremos la matriz A =
_
1 1
0 1
_
. Estudiemos como cambia bajo conjugaci on. Si
P =
_
a b
c d
_
es una matriz invertible ad bc ,= 0, entonces A
= P
1
AP es,
A
=
1
ad bc
_
d b
c a
__
1 1
0 1
__
a b
c d
_
=
1
ad bc
_
ad + dc bc d
2
c
2
ad bc cd
_
.
4.2. AUTOVALORES Y AUTOVECTORES 73
Por tanto A ser a diagonalizable solamente si c = d = 0 lo cual es imposible ya que P ha de ser invertible.
Ejercicio 4.1.1 Probar que el operador D en el espacio de polinomios no es diagonalizable. Probar que
cualquier operador diferencial en el espacio de polinomios no es diagonalizable.
Ejercicio 4.1.2 Probar que si f es diagonalizable cualquier potencia de f tambien lo es.
4.2. Autovalores y autovectores
En la descripci on de un endomorsmo juegan un papel crucial los vectores cuya imagen por f es
proporcional a ellos mismos.
Denicion 4.2.1 Sea f End(V ). Se dice que IK es un autovalor (valor propio) de f si existe un
vector v V, v ,= 0 tal que:
f(v) = v. (4.3)
En este caso, se dice que v es un autovector (vector propio) de f con autovalor .
Es evidente que cuantos m as autovectores encontremos para un endomorsmo, mas f acil resultar a des-
cribirlo. As para el endomorsmo identidad todos los vectores son autovectores con autovalor 1.
Denicion 4.2.2 El espectro de f es el conjunto de sus autovalores:
(f) = IK [ autovalor de f.
N otese que dado un autovector, existe un unico autovalor asociado a el (obviamente), pero a cada
autovalor puede corresponderle m as de un autovector.
Ejemplo 4.2.1 Considerese el endomorsmo f denido en un espacio vectorial V de dimension 3 a
traves de la asignacion:
f(v
1
) = v
1
+ v
2
+v
3
, f(v
2
) = v
2
+v
3
, f(v
3
) = v
3
,
donde v
1
, v
2
, v
3
forman una base de V . Si resolvemos la ecuacion f(u) = u, encontramos que necesaria-
mente = 1 y u = v
3
. Por tanto (f) = 1.
Ejercicio 4.2.1 Probar que si f
r
= 0 para alg un r > 0, entonces (f) = 0.
Ejercicio 4.2.2 Probar que si f
2
= f y f ,= 0, entonces (f) = 1, 1.
Dado un endomorsmo f diremos que un subespacio W es invariante si f(W) W.
Proposicion 4.2.1 Sea f End(V ). Para cada autovalor , se dene el conjunto:
V
= v V [ f(v) = v.
Se tiene que V
= ker(f 1
V
),
donde 1
V
es la aplicaci on identidad en V .
Demostracion. La demostracion es evidente. La combinaci on lineal de autovectores correspondientes
a un mismo autovalor es un autovector de ese autovalor. Y por supuesto, f(V
) V
ya que si v V
,
f(f(v)) = f(v) = f(v). QED
La proposici on anterior (4.2.1), nos dice que los espacios de autovectores son invariantes. No todo
subespacio invariante de V es de este tipo.
El siguiente resultado establece la relaci on que existe entre los subespacios invariantes V
.
74 CAP
ONICAS DE ENDOMORFISMOS
Proposicion 4.2.2 Si
1
, . . . ,
r
son autovalores distintos de f End(V ), la suma de los subespacios
V
i
, i = 1, . . . , r es directa.
Demostracion. Basta probar que si un vector pertenece a la suma de estos subespacios, se puede
escribir de forma unica como suma de vectores cada uno en un subespacio. Sea v V
1
+ + V
r
,
v = v
1
+ + v
r
, con v
i
V
i
. Probar la unicidad de la descomposici on es equivalente a probar que si
v = 0, cada uno de los vectores v
i
es cero. Lo hacemos por induccion en r. Sea r = 1. El resultado es
inmediato. Supongamos que es cierto para r 1. Tenemos, (para r):
v
1
+ +v
r
= 0
Aplicando f a los dos miembros de esta igualdad:
f(v
1
) + + f(v
r
) = 0,
y como v
i
es un autovector de autovalor
i
:
1
v
1
+ +
r
v
r
= 0,
de donde, restando la ecuaci on anterior multiplicada por
r
:
(
1
r
)v
1
+ + (
r1
r
)v
r1
= 0.
Pero ahora estamos en las condiciones del caso r 1, por lo tanto:
(
i
r
)v
i
= 0, i = 1, . . . , r 1.
Al ser todos los autovalores
i
distintos, los vectores v
i
son cero (i = 1, . . . , r), lo que implica que v
r
= 0.
Luego la suma es directa (lo que lleva, en particular, a que las intersecciones entre estos subespacios se
reduzcan a 0). QED
N otese que el subespacio correspondiente al autovalor 0 es el n ucleo de f. Por tanto un endomorsmo
f ser a invertible si y s olo si el cero no esta en su espectro.
4.3. Subespacios invariantes y matrices
Si se tiene un subespacio invariante de un endomorsmo (del tipo V
f: V/W V/W
v + W f(v) +W
La aplicaci on
f esta bien denida y es lineal (debido al car acter de subespacio invariante de W). Sea
B
W
= w
1
, . . . , w
r
una base de W y B = w
1
, . . . , w
r
, u
1
, . . . , u
s
la base ampliada de V . Como hemos
visto en temas anteriores, una base del espacio cociente V/W es: B
V/W
= u
i
+ W [ i = 1, . . . , s. En la
base B, la matriz de la aplicaci on f es la dada por el teorema, es decir:
4.3. SUBESPACIOS INVARIANTES Y MATRICES 75
f(w
i
) =
r
j=1
a
ji
w
j
, i = 1, . . . , r
f(u
k
) =
r
j=1
b
jk
w
j
+
s
j=1
c
jk
u
j
, k = 1, . . . , s
con lo que la matriz de la aplicaci on
f en la base B
V/W
es:
f(u
k
+W) = f(u
k
) + W =
r
j=1
b
jk
w
j
+
s
j=1
c
jk
u
j
+W =
s
j=1
c
jk
u
j
+ W =
s
j=1
c
jk
(u
j
+W)
Por lo tanto, la matriz de
f en la base B
V/W
es igual a C.
Si el subespacio W en el teorema anterior tiene dimension r, entonces A M
r
(IK), C M
nr
(IK) y
B M
r(nr)
(IK). Si W es un subespacio invariante puede ocurrir que exista un suplementario U que
tambien sea invariante. En tal caso la proposici on anterior nos dice que existe una base tal que la matriz
asociada a f tiene la forma:
_
A 0
0 C
_
.
Todava mas. Si V se puede descomponer como una suma directa de subespacios invariantes W
i
, i =
1, . . . , N, V = W
1
W
N
, f(W
i
) W
i
, entonces podemos construir una base tal que la matriz
asociada a f tiene la forma:
A =
_
_
_
_
_
A
1
A
2
.
.
.
A
N
_
_
_
_
_
,
y el orden de la matriz A
i
es la dimension de W
i
. Tales matrices se dira que son diagonales por cajas.
4.3.1. Diagonalizaci on de endomorsmos y matrices
El siguiente teorema establece una condici on necesaria y suciente para la existencia de una base en
la que el endomorsmo f viene representado por una matriz diagonal, es decir, una condici on para que
f sea diagonalizable.
Teorema 4.3.1 Sea f End(V ). f es diagonalizable si y solo si existe una base de V formada por
autovectores de f.
Demostracion. Si existe una base de autovectores: B = u
1
, . . . , u
n
, sus imagenes mediante f son
f(u
i
) =
i
u
i
, i = 1, . . . , n, por lo que la matriz asociada es:
A(f, B) =
_
_
_
1
.
.
.
n
_
_
_.
Y en sentido contrario es igualmente sencillo. Si la matriz asociada es diagonal, los elementos de la
diagonal son justamente los autovalores, y los vectores de la base los vectores correspondientes. QED
76 CAP
ONICAS DE ENDOMORFISMOS
4.4. La ecuaci on caracterstica
4.4.1. C alculo de autovalores y autovectores
Sea f End(V ), y B una base de V . Sea A la matriz asociada a f en la base B. Los autovalores y
autovectores de f se pueden calcular en la base B en la forma siguiente:
f(v) = v,
implica que
A v = v,
donde v es el vector de IK
n
que representa a v V en la base B. Resolver esta segunda ecuacion es
equivalente a resolver el sistema homogeneo de ecuaciones:
(A I) v = 0. (4.4)
Este sistema poseera soluciones no triviales si y solo si
det(A I) = 0, (4.5)
tal y como mostramos en el captulo anterior.
La ecuacion anterior, (4.5), se denomina la ecuaci on de autovalores o ecuaci on caracterstica, y nos
permite encontrar los autovalores de un endomorsmo como races del polinomio det(AI). Para cada
solucion de esta ecuacion, se calcula el (o los) autovector correspondiente usando de nuevo la ecuacion
(4.4).
4.4.2. El polinomio caracterstico de un endomorsmo
Sea A M
n
(IK). Se dene el polinomio caracterstico de A como:
p
A
() = det(A I) (4.6)
Es un polinomio de grado n y el coeciente del termino de mayor grado es (1)
n
.
Sea f End(V ). Se dene el polinomio caracterstico de f como el polinomio caracterstico de la
matriz de f en cualquier base y lo denotaremos por p
f
. En efecto, es muy sencillo demostrar que el
polinomio no depende de la base ya que:
det(A
I) = det(PAP
1
I) = det(P(A I)P
1
) = det(A I)
donde A
. A este ultimo
lo llamaremos multiplicidad geometrica. Es decir, la multiplicidad geometrica de una raz del polinomio
caracterstico es la dimension de ker(f 1
V
). En general estos dos n umeros son distintos. Pero se tiene:
4.5. FORMAS CAN
ONICAS DE ENDOMORFISMOS
Ejemplo 4.5.1 Si f
2
= 0, resulta evidente que imf ker f. En efecto, si v = f(u), entonces f(v) =
f
2
(u) = 0. Supongamos que el rango de f es r. Entonces, dimker f = nr, donde n = dimV , y r nr.
Sea u
1
, . . . , u
r
una base de imf. Ampliemos esta base hasta obtener una base de ker f, esto es a nadimos
los vectores u
r+1
, . . . , u
nr
. Tomemos vectores anti-imagenes de los u
1
, . . . , u
r
que denotaremos por v
i
,
esto es f(v
1
) = u
1
, . . . , f(v
r
) = u
r
. El conjunto u
1
, . . . , u
r
, u
r+1
, . . . , u
nr
, v
1
, . . . , v
r
es una base de V .
En dicha base la matriz A que representa a f tiene la forma:
A =
_
_
0 0 I
r
0 0 0
0 0 0
_
_
.
Es posible reordenar los vectores de la base como u
1
, v
1
, . . . , u
r
, v
r
, u
r+1
, . . . , u
nr
y entonces la expre-
sion de la matriz asociada es:
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 1
0 0
.
.
.
0 1
0 0
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Un endomorsmo f tal que f
2
= 0 e imf = ker f, se dice que es un endomorsmo vertical.
Teorema 4.5.1 Todo operador nilpotente f End(V ) induce una descomposici on del espacio V en
subespacios invariantes. En cada uno de ellos se puede encontrar una base en la que el endomorsmo
restringido a ese subespacio tiene como matriz la siguiente:
_
_
_
_
_
_
_
0 1 0 0 0
0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
0 0 0 0 0
_
_
_
_
_
_
_
Demostracion. Sea f End(V ), f
r
= 0. Construimos los espacios imagenes de los operadores
f
k
, k = 0, 1, . . . , r:
U
k
= imf
k
= f
k
(V )
es decir:
U
0
= V, U
1
= f(V ), . . . , U
r1
= f
r1
(V ), U
r
= 0,
que estan contenidos unos en otros formando un cadena de subespacios:
0 = U
r
U
r1
U
1
U
0
= V.
Notese que f(U
i1
) = U
i
y que, por tanto, f(U
r1
) = 0, es decir:
U
r1
ker f.
Sin embargo, no tienen porque ser iguales.
Construimos una base del subespacio m as peque no no trivial, U
r1
y la ampliamos a una base del
subespacio siguiente y as sucesivamente. Sea d
r1
= dimU
r1
y una base de U
r1
:
u
(r1)
1
, . . . , u
(r1)
dr1
4.5. FORMAS CAN
i=1
(
i
u
(r1)
i
+
i
u
(r2)
i
) = 0
y aplicando f:
dr1
i=1
(
i
f(u
(r1)
i
) +
i
f(u
(r2)
i
)) = 0
Como los vectores u
(r1)
i
U
r1
ker f y f(u
(r2)
i
) = u
(r1)
i
, se tiene:
dr1
i=1
i
u
(r1)
i
= 0
que es una combinaci on lineal de vectores de una base igual a cero, luego los coecientes son nulos:
i
= 0, i = 1, . . . d
r1
De manera inmediata se prueba que tambien los coecientes
i
son todos iguales a cero.
Este conjunto de vectores linealmente independientes en U
r2
se puede ampliar a una base de este
subespacio:
u
(r1)
1
, . . . , u
(r1)
dr1
, u
(r2)
1
, . . . , u
(r2)
dr1
, v
(r2)
dr1+1
, . . . , v
(r2)
sr2
donde s
r2
= d
r2
d
r1
.
En principio, los vectores v
(r2)
i
se pueden elegir con cierta arbitrariedad. Podemos usar esta para
escogerlos en el n ucleo de f. Las imagenes de estos vectores v
(r2)
i
estan en U
r1
, luego se pueden escribir
en una base de este espacio:
f(v
(r2)
k
) =
dr1
i=1
ik
u
(r1)
i
, k = d
r1
+ 1, . . . , s
r2
con lo que los vectores:
u
(r2)
k
= v
(r2)
k
dr1
i=1
ik
u
(r2)
i
, k = d
r1
+ 1, . . . , s
r2
estan en el n ucleo de f. En efecto:
f(u
(r2)
k
) = f(v
(r2)
k
)
dr1
i=1
ik
f(u
(r2)
i
) = 0, k = d
r1
+ 1, . . . , s
r2
80 CAP
ONICAS DE ENDOMORFISMOS
pues: f(u
(r2)
i
) = u
(r1)
i
. No es difcil comprobar que estos vectores son tambien l.i. con el resto y que
por tanto tenemos una base de U
r2
:
u
(r1)
1
, . . . , u
(r1)
dr1
,
u
(r2)
1
, . . . , u
(r2)
dr1
, . . . , u
(r2)
sr2
que verica:
f(u
(r1)
i
) = 0, f(u
(r2)
i
) = u
(r1)
i
, f(u
(r2)
j
) = 0, i = 1, . . . , d
r1
, j = d
r1
+ 1, . . . , s
r2
.
Esta misma construccion se puede hacer en U
r3
. Como U
r2
U
r3
y f(U
r3
) = U
r2
, existen
vectores u
(r3)
i
U
r3
tales que:
f(u
(r3)
i
) = u
(r2)
i
, i = 1, . . . , s
r2
Estos vectores forman con los anteriores un sistema de vectores de U
r3
que es linealmente independiente.
Se amplia a una base de U
r3
usando vectores en ker f. Todas estas cuestiones se demuestran de la misma
forma que se hizo en el paso anterior.
Y as sucesivamente hasta acabar la cadena. De esta forma, construimos una base del espacio V que
podemos ordenar como:
u
(r1)
1
, . . . , u
(r1)
dr1
,
u
(r2)
1
, . . . , u
(r2)
dr1
, . . . , u
(r2)
sr2
,
u
(r3)
1
, . . . , u
(r3)
dr1
, . . . , u
(r3)
sr2
, . . . , u
(r3)
sr3
,
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
u
(0)
1
, . . . , u
(0)
dr1
, . . . , u
(0)
sr2
, . . . , u
(0)
sr3
, . . . , u
(0)
s0
Las propiedades mas importantes de esta base son: en cada columna, f(u
(j)
k
) = u
(j+1)
k
. Por tanto,
los vectores de cada columna generan un subespacio de V invariante bajo f. El espacio total V es suma
directa de todos ellos. El primer vector de cada columna est a en ker f, es decir, es un autovector de f
(los demas no son autovectores):
V = V
1
V
s0
Como todos los espacios son invariantes, la matriz esta formada por cajas (cuadradas) en la diagonal:
A =
_
_
_
_
_
A
1
0 0 0
0 A
2
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 A
s0
_
_
_
_
_
Cada caja A
i
tiene la siguiente forma. La base de V
i
es:
u
(rk)
i
, u
(rk1)
i
, . . . , u
(0)
i
y como:
f(u
(j)
i
) = u
(j+1)
i
, f(u
(rk)
i
) = 0
la caja i (correspondiente al subespacio =V
i
) es:
_
_
_
_
_
_
_
0 1 0 0 0
0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
0 0 0 0 0
_
_
_
_
_
_
_
4.5. FORMAS CAN
_
_
_
_
_
1
0
0
0
_
_
_
_
,
_
_
_
_
0
1
1
0
_
_
_
_
_
_
El espacio U
2
es:
_
_
_
_
0 0 0 1
0 0 0 0
0 0 0 0
0 0 0 0
_
_
_
_
_
_
_
_
x
y
z
t
_
_
_
_
=
_
_
_
_
t
0
0
0
_
_
_
_
luego:
U
2
= f(U
1
) = lin
_
_
_
_
_
_
1
0
0
0
_
_
_
_
_
_
De acuerdo con el teorema, seleccionamos una base en el espacio U
r1
= U
2
. Escogemos el vector
calculado antes:
u
(2)
1
=
_
_
_
_
1
0
0
0
_
_
_
_
82 CAP
ONICAS DE ENDOMORFISMOS
y ahora calculamos una base de U
1
. El primer vector de la base es u
(1)
1
, tal que f(u
(1)
1
) = u
(2)
1
. Entonces:
_
_
_
_
z + t
t
t
0
_
_
_
_
=
_
_
_
_
1
0
0
0
_
_
_
_
por ejemplo:
u
(1)
1
=
_
_
_
_
0
1
1
0
_
_
_
_
Ahora deberamos ampliar este conjunto u
(2)
1
, u
(1)
1
a una base de U
1
. Pero ya lo es. Solo nos queda
U
0
. Buscamos un vector de U
0
= IR
4
, u
(0)
1
tal que f(u
(0)
) = u
(1)
1
:
_
_
_
_
z + t
t
t
0
_
_
_
_
=
_
_
_
_
0
1
1
0
_
_
_
_
por ejemplo:
u
(0)
1
=
_
_
_
_
0
0
1
1
_
_
_
_
y completamos la base con un vector de ker f, l.i. con los anteriores. Las ecuaciones de ker f son z = t = 0.
Elijamos:
u
(0)
2
=
_
_
_
_
0
1
0
0
_
_
_
_
y por la tanto, la base de todo el espacio es:
u
(2)
1
=
_
_
_
_
1
0
0
0
_
_
_
_
u
(1)
1
=
_
_
_
_
0
1
1
0
_
_
_
_
u
(0)
1
=
_
_
_
_
0
0
1
1
_
_
_
_
u
(0)
2
=
_
_
_
_
0
1
0
0
_
_
_
_
Hay dos subespacios invariantes:
V
1
= lin
_
_
_
_
_
_
1
0
0
0
_
_
_
_
,
_
_
_
_
0
1
1
0
_
_
_
_
,
_
_
_
_
0
0
1
1
_
_
_
_
_
_
, V
2
=
_
_
_
_
_
_
0
1
0
0
_
_
_
_
_
_
.
Las cajas correspondientes en la matriz son:
V
1
_
_
0 1 0
0 0 1
0 0 0
_
_
, V
2
(0)
4.6. FORMAS CAN
ONICAS DE ENDOMORFISMOS 83
y la forma can onica de la matriz es:
J =
_
_
_
_
0 1 0 0
0 0 1 0
0 0 0 0
0 0 0 0
_
_
_
_
La matriz de cambio de base (de la encontrada a la inicial) est a formada por los vectores de la base:
P =
_
_
_
_
1 0 0 0
0 1 0 1
0 1 1 0
0 0 1 0
_
_
_
_
y se tiene por tanto:
A = PJP
1
4.6. Formas can onicas de endomorsmos
Veamos ahora como podemos encontrar para un endomorsmo cualquiera un forma can onica similar
a la anterior, la forma can onica de Jordan de un endomorsmo.
Para ello, lo primero es descomponer el espacio en una serie de subespacios, a cada uno de los cuales
se asocia un endomorsmo nilpotente cuya forma canonica conocemos.
Denicion 4.6.1 Sea f End(V ), (f) IK. Se dice que el vector v V, v ,= 0 es un vector
propio generalizado de V si existe un entero positivo r tal que:
(f 1
V
)
r
v = 0
Los vectores propios generalizados no son en general autovectores, aunque todo autovector es un
vector propio generalizado (con r = 1).
Denicion 4.6.2 Se denen los espacios invariantes generalizados como:
N
= v V [ r 0, (f 1
V
)
r
v = 0
Se tiene el siguiente resultado sobre las propiedades de estos espacios.
Proposicion 4.6.1 Con las notaciones anteriores,
i. N
es un subespacio vectorial de V
ii. f 1
V
es nilpotente en N
:
_
(f 1
V
)[
N
r
= 0 para alg un entero positivo r.
iii. N
es invariante bajo f.
Demostracion. La primera propiedad es muy sencilla de probar. Si v
1
y v
2
son dos vectores de N
y coger el
mayor de todos ellos. Finalmente, la tercera se prueba como sigue. Sea v N
,con:
(f 1
V
)
r
v = 0
para alg un entero positivo r. Como f 1
V
conmuta con f, se tiene:
f((f 1
V
)
r
v) = 0 (f 1
V
)
r
f(v) = 0
y por tanto, N
ONICAS DE ENDOMORFISMOS
Proposicion 4.6.2 Si IK, ,= , entonces la restriccion de f 1
V
al subespacio N
, (f 1
V
)[
N
tiene inverso.
Demostracion. El subespacio N
es invariante bajo f 1
V
. Veamos que el n ucleo de (f 1
V
)[
N
es igual a 0, o lo que es lo mismo, (f 1
V
) N
= 0. Sea v N
tal que (f 1
V
)v = 0. Aplicando
f 1
V
a v:
(f )(v) = f(v) v = ( )v
Si v = 0 la aplicaci on es inyectiva. Si v ,= 0, entonces es un autovector de f 1
V
con autovalor .
Pero f 1
V
es nilpotente en N
, los subespacios N
, era
siempre menor o igual que la algebraica. Para los subespacios N
f
()p
f
()
El grado de p
f
() es la dimension del subespacio N
0
, por tanto, si:
dimN
0
< n
0
entonces,
0
es raz de p
f
(), es decir, autovalor de
f, de donde existe un autovector v
0
+N
0
V/N
0
:
f(v
0
+ N
0
) = f(v
0
) +N
0
=
0
v
0
+N
0
es decir:
(f 1
V
)(v
0
) N
0
4.7. EL TEOREMA DE CAYLEY-HAMILTON 85
Esto quiere decir que existe un entero positivo, s tal que:
(f 1
V
)
s+1
(v
0
) = 0
y por lo tanto,
v
0
N
0
v
0
+N
0
= 0
lo que es contradictorio con el car acter de autovector. Por lo tanto, al ser dimN
0
n
0
, como ya
habamos demostrado anteriormente, concluimos que ambas son iguales. QED
En cada uno de los espacios N
+1
N
Como hemos demostrado la existencia de un base donde g
m
+ +a
1
+ a
0
q(f) = a
m
f
m
+ +a
1
f +a
0
1
V
86 CAP
ONICAS DE ENDOMORFISMOS
Los operadores 1
V
, f, . . . , f
m
no pueden ser todos independientes (para m sucientemente grande ya que
dimEnd(V ) = n
2
) y por tanto existe una combinaci on lineal, con coecientes no todos nulos, igual a
cero. Es decir, existe q() tal que q(f) = 0.
El teorema de Cayley-Hamilton establece la existencia de un polinomio de grado n = dimV que anula
al endomorsmo.
Teorema 4.7.1 Sea V un C-espacio vectorial de dimensi on nita y f End(V ). Entonces, el polinomio
caracterstico de f anula a f:
p
f
(f) = 0
Demostracion. Si n = dimV y f = g + 1
V
, donde g es un endomorsmo nilpotente de una caja,
el polinomio caracterstico es: (
0
)
n
, que anula a f:
p
f
(f) = (
0
1
V
f)
n
= (
0
1
V
g
0
1
V
)
n
= (g)
n
= 0
Sea ahora f un endomorsmo arbitrario de V . De acuerdo con la forma canonica de Jordan, en
cada caja f tiene la forma anterior, y el polinomio caracterstico de f es el producto de los polinomios
caractersticos asociados a cada caja. Si f
i
= f[
Ni
, el polinomio caracterstico en N
i
anula a f
i
:
p
fi
(f
i
) = 0
lo que implica que el polinomio caracterstico de f anula tambien a las restricciones f
i
y por lo tanto a
f (al ser suma directa). QED
El resultado es tambien cierto en IR, incluso aunque el polinomio caracterstico tenga races complejas
y no exista una forma can onica de Jordan.
4.8. Polinomio mnimo
De acuerdo con el teorema de Cayley-Hamilton, el polinomio caracterstico anula a f. Sin embargo,
no es, en general, el polinomio de menor grado entre los que anulan a f.
Proposicion 4.8.1 El conjunto 1
f
= q IK[] [ q(f) = 0 es un ideal en IK[].
La demostracion es inmediata. 1
f
es no vaco al contener al polinomio caracterstico.
Todos los ideales en IK[] son principales, por lo que existe un polinomio de grado mnimo en 1
f
y
todo otro polinomio del ideal es m ultiplo de este.
Denicion 4.8.1 Se llama polinomio mnimo de f End(f) al polinomio de menor grado entre los que
anulan a f. Se elige con el coeciente de mayor grado igual a 1.
Veamos ahora cual es el polinomio mnimo de los endomorsmos nilpotentes. Sea f End(V ) un
endomorsmo nilpotente y n = dimV . El polinomio caracterstico de f es p() = ()
n
, pero si f es de
grado de nilpotencia r, 1 r n, el polinomio mnimo es:
m
f
() =
r
Hay que se nalar que si r = 1 el endomorsmo f es cero (y trivialmente diagonalizable), mientras que
si r > 1 no es diagonalizable.
De acuerdo con lo demostrado para la forma can onica de Jordan, si f es un endomorsmo nilpotente
de varias cajas, el orden de nilpotencia de f es la dimension de la mayor de las cajas, n umero que coincide,
como acabamos de ver, con el grado del polinomio mnimo:
n = n
1
+ +n
k
, n
1
n
k
1, m
f
() =
n1
Para un endomorsmo cualquiera, en cada subespacio invariante generalizado N
0
, el operador f
0
1
V
es nilpotente de grado n
0
, donde n
0
es la dimension de la mayor de las cajas de este endomorsmo
en la forma can onica de Jordan. Por lo tanto, el polinomio mnimo de (f
0
1
V
)[
N
es: (
0
)
n0
.
Para que f sea diagonalizable en N
0
, las cajas deben tener dimensi on 1 y por lo tanto el polinomio
mnimo debe ser
0
. Hemos demostrado el siguiente resultado:
4.8. POLINOMIO M
INIMO 87
Proposicion 4.8.2 Sea V un C-espacio vectorial de dimensi on nita y f End(V ). El endomorsmo
f es diagonalizable si y s olo si las races del polinomio mnimo tienen multiplicidad igual a 1.
Notese que las races del polinomio mnimo, seg un hemos visto al analizar la forma canonica de Jordan
coinciden con los autovalores, es decir con las races del polinomio caracterstico. Los polinomios mnimo
y caracterstico tienen la mismas races pero en general distintas multiplicidades.
88 CAP
ONICAS DE ENDOMORFISMOS
Captulo 5
Espacios con producto escalar
El espacio dual. Formas bilineales. Diagonalizaci on. Ortogonalidad. Formas cuadr aticas.
Formas sesquilineales. Producto escalar.
El producto escalar aparece como una estructura adicional en la teora de espacios vectoriales. Aunque
los resultados expuestos se consideran solo en espacios de dimension nita, muchos de ellos pueden ser
aplicados a espacios de dimension innita. Se estudian primero las formas bilineales, para pasar despues
a las simetricas denidas positivas (en el caso de espacios reales) o sesquilineales en el caso de espacios
complejos).
5.1. El espacio dual
Repasaremos en primer lugar nociones del espacio dual ya introducidas en el Tema 3.
5.1.1. Introducci on
Sea V un IK-espacio vectorial de dimensi on nita, con IK = IR, C. Sea L(V, IK) el espacio vectorial de
los homomorsmos de V en IK. Su dimensi on es igual a la dimensi on de V (pues dimIK = 1).
Denicion 5.1.1 Se llama a V
, : V IK, lineal
Proposicion 5.1.1 dimV
= dimV .
Es una consecuencia inmediata de la denici on del espacio dual. Introducimos ahora una base especial
en el espacio dual: la base dual.
Proposicion 5.1.2 Sea B = u
1
, . . . , u
n
una base de V . El conjunto de formas que verican:
u
i
(u
j
) =
ij
, i, j = 1, . . . n
es una base de V
i=1
i
u
i
= 0
89
90 CAP
i=1
i
u
i
(u
j
) =
n
i=1
ij
=
j
= 0, j = 1, . . . , n
luego son linealmente independientes. Al ser n formas (n = dimV
), son una base. QED
Dado un vector del espacio V , sus coordenadas en una base B se calculan haciendo actuar las formas
de la base dual correspondiente sobre el vector:
x V, x =
n
i=1
x
i
u
i
, u
j
(x) =
n
i=1
x
i
u
j
(u
i
) =
n
i=1
x
i
ij
= x
j
Una notaci on muy empleada para la acci on de las formas sobre los vectores es:
x, )
en la que se pone de maniesto el caracter lineal de la actuaci on de , y a la vez las propiedades de
espacio lineal de V
= (V
= L(V
, IK)
es decir, los elementos del bidual son las aplicaciones lineales de V
en IK.
Existe un isomorsmo natural entre un espacio y su bidual (en dimensi on nita), denido de la forma
siguiente:
: V V
x (x): V
IK
(x)()
.
Ahora bien:
: V IK
x (x)
,
lo que sugiere la denicion de como:
(x)() = (x)
o, en la segunda notaci on:
, (x)) = x, )
Veamos que es un isomorsmo. La aplicacion esta bien denida. Adem as, es lineal:
(x +y)() = (x +y) = (x) +(y) = (x)() +(y)
(
)
lo que es cierto para toda forma . Por tanto:
(x +y) = (x) + (y)
De la misma forma:
(x)() = (x) = (x) = (x)()
es decir:
(x) = (x)
Tambien se tiene que es biyectiva. Demostremos que su n ucleo es trivial.
(x)() = 0 (x) = 0, V
pero eso quiere decir que x = 0. Por tanto, es inyectiva. Como las dimensiones del espacio inicial (V )
y nal (V
) coinciden, la aplicaci on es biyectiva y tenemos un isomorsmo.
No existe un isomorsmo natural (como este) entre un espacio y su dual. M as adelante estudiaremos
como denir tal isomorsmo cuando V esta dotado de un producto escalar.
5.1. EL ESPACIO DUAL 91
5.1.3. Anulador
Sea S un subconjunto de V .
Denicion 5.1.2 El anulador de S es un subespacio de V
dado por:
S
0
= V
[ (x) = 0, x S
Es f acil ver que S
0
es un subespacio:
,
S
0
, ( +
)(x) = (x) +
(x) = 0
S
0
, IK, ()(x) = ((x)) = 0
Si S
)
0
= V
[ () = 0, S
como:
(S
)
0
= x V [ (x) = 0, S
= u
1
, . . . , u
k
, u
k+1
, . . . , u
n
.
Demostremos ahora que el conjunto: B
W
0
= u
k+1
, . . . , u
n
es una base de W
0
. Cada elemento de
este conjunto esta en W
0
, pues:
u
j
(u
i
) = 0, j = k + 1, . . . , n, i = 1, . . . , k
al ser bases duales. Ademas, sea W
0
. Entonces:
(u
i
) = 0, i = 1, . . . , k
Como es un elemento del dual, se puede escribir en la base B
:
=
n
i=1
i
u
i
y usando el que es un elemento de V
:
(u
i
) =
i
= 0, i = 1, . . . , k
Por lo tanto es una combinacion lineal de los elementos de B
W
0
, que forman una base. La relaci on
entre las dimensiones es ahora inmediata. QED
92 CAP
un homomor-
smo de espacios vectoriales. Sean V
y V
los espacios duales de V y V
respectivamente.
Denicion 5.1.3 La aplicacion transpuesta de f es:
f
t
: V
V
donde:
f
t
(
)(x) =
(f(x)),
V
, x V
Tambien podemos escribir:
x, f
t
(
)) = f(x),
)
La aplicaci on f
t
esta bien denida y es lineal. En efecto, dado
, f
t
(
1
+
2
)(x) = (
1
+
2
)(f(x)) =
1
f(x) +
2
(f(x)) = f
t
(
1
)(x) + f
t
(
2
)(x)
f
t
(
)(x) = (
)(f(x)) = (
f(x)) = f
t
(
)(x)
5.1.5. La matriz de la aplicaci on transpuesta
Veamos que relacion existe entre las matrices de una aplicacion y su transpuesta. Sean B y B
bases
de V y V
y B
, B
= dimV
.
Sean A
f
= (a
ij
) y A
f
t = (b
ij
) las matrices de f en las bases B, B
y de f
t
en las bases duales B
, B
.
Entonces:
f(u
i
) =
n
j=1
a
ji
u
j
, f
t
(u
i
) =
n
j=1
b
ji
u
j
Los elementos de las matrices que representan a f y f
t
se pueden calcular de la formas siguiente:
u
j
(f(u
i
)) = u
j
(
n
k=1
a
ki
u
k
) =
n
k=1
a
ki
u
j
(u
k
) =
n
k=1
a
ki
jk
= a
ji
De forma similar:
f
t
(u
j
)(u
i
) =
n
k=1
b
kj
u
k
(u
i
) =
n
k=1
b
kj
ki
= b
ij
Pero, por la denici on de aplicaci on transpuesta:
f
t
(u
j
)(u
i
) = u
j
(f(u
i
))
y por tanto:
a
ji
= b
ij
y las matrices (en las bases duales) son transpuestas una de la otra:
A
f
t = A
t
f
Si usamos notaci on vectorial para las aplicaciones lineales, sea:
X =
_
_
_
x
1
.
.
.
x
n
_
_
_, A
f
=
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
n
1
a
n
n
_
_
_, =
_
_
_
1
.
.
.
n
_
_
_, A
f
t =
_
_
_
b
11
b
1n
.
.
.
.
.
.
b
n1
b
nn
_
_
_
5.1. EL ESPACIO DUAL 93
donde X son las coordenadas de x V en una base B y son las coordenadas de en la base dual B
.
Entonces,
(x) =
t
X
en el sentido de producto de matrices. La acci on de los homomorsmos f y f
t
se escribe con matrices:
X
= A
f
X, = A
f
t
)
t
X = (
)
t
A
f
X
es decir:
(
)
t
A
t
f
t X = (
)
t
A
f
X
y como el resultado debe ser cierto para todo vector x y toda forma
ker f
t
, se tiene f
t
(
) = 0, es decir:
(f(x)) = 0, x V
lo que quiere decir:
(x
) = 0, x
Imf
o sea:
(Im f)
0
Supongamos ahora que
(Imf)
0
. Siguiendo el camino anterior a la inversa, concluimos que
ker f
t
y por tanto la primera relaci on queda demostrada. La segunda se demuestra de forma similar. Sea
im f
t
. Entonces, existe
tal que: f
t
(
) = . Por tanto:
(x) =
(f(x)).
Si x ker f, (x) = 0, y por tanto (ker f)
0
. Es decir,
im f
t
(ker f)
0
.
Pero:
dimim f
t
= n dimker f
t
= n dim(im f)
0
= n (n
(0), E
3
(p) =
1
2
p
(0), p V
Est a claro que son tres elementos de dual, y que:
E
i
(p
j
(x)) =
ij
, i, j = 1, 2, 3
donde:
p
1
(x) = 1, p
2
(x) = x, p
3
(x) = x
2
94 CAP
(x)
que tiene como matriz en la base dada:
_
_
0 1 0
0 0 2
0 0 0
_
_
La aplicaci on transpuesta verica:
D
t
(
)(p) =
(Dp)
Sustituyendo
(0) = E
2
(p)
D
t
(E
2
)(p) = E
2
(Dp) = p
(0) = 2E
3
(p)
D
t
(E
3
)(p) = E
3
(Dp) = p
(0)/2 = 0
por lo que la matriz de la aplicaci on transpuesta en la base dual es:
_
_
0 0 0
1 0 0
0 2 0
_
_
5.2. Formas bilineales
Se estudian en esta seccion las formas bilineales, especialmente las simetricas y se introducen las
aplicaciones multilineales en forma general.
5.2.1. Aplicaciones multilineales
Denicion 5.2.1 Sean V
1
, . . . , V
n
, W IK-espacios vectoriales. Se dice que la aplicaci on:
: V
1
. . . V
n
W
es multilineal si es lineal en cada variable separadamente:
(x
1
, . . . , x
i
+ x
i
, . . . , x
n
) = (x
1
, . . . , x
i
, . . . , x
n
) +(x
1
, . . . , x
i
, . . . , x
n
)
(x
1
, . . . , x
i
, . . . , x
n
) = (x
1
, . . . , x
i
, . . . , x
n
)
El conjunto de las aplicaciones multilineales forma un espacio vectorial: L(V
1
, . . . , V
n
; W).
5.2.2. Formas bilineales
Denicion 5.2.2 Una forma bilineal es una aplicaci on multilineal de V V en IK, donde V es un
IK-espacio vectorial
Una forma bilineal es pues:
: V V IK
tal que:
(x +y, z) = (x, z) + (y, z)
(x, y + z) = (x, y) +(x, z)
(x, y) = (x, y)
(x, y) = (x, y)
5.2. FORMAS BILINEALES 95
para x, y, z V, IK. El conjunto de formas bilineales es un espacio vectorial, y cuando la dimensi on
de V es nita, la de L(V, V ; IK) = L
2
(V ) es igual a la de V elevada al cuadrado.
Proposicion 5.2.1 Sea V un IK-espacio vectorial de dimensi on n. Sea:
L
2
(V ) = : V V IK, bilineal
Entonces, L
2
(V ) es un IK-espacio vectorial. Si B = u
1
, . . . , u
n
es una base de V y B
= u
1
, . . . , u
ij
(x, y) = x, u
i
)y, u
j
), i, j = 1, . . . , n
es una base de L
2
(V ) que por tanto, tiene dimensi on n
2
.
Demostracion. Es muy sencillo probar que
ij
es una forma bilineal. Probemos que son l.i. Sea:
n
i,j=1
ij
ij
= 0
Aplicando esta expresion a los elementos de la base de V :
(
n
i,j=1
ij
ij
)(u
k
, u
l
) =
n
i,j=1
ij
u
k
, u
i
)u
l
, u
j
) =
n
i,j=1
ij
ki
lj
=
kl
luego:
ij
= 0, i, j = 1, . . . n
Veamos ahora que generan todo el espacio L
2
(V ): Sea L
2
(V ). Esta forma queda jada calculando
sus valores sobre una base de V (al ser bilineal). Es decir: (u
i
, u
j
) = a
ij
. En efecto:
(x, y) = (
n
i=1
x
i
u
i
,
n
j=1
y
j
u
j
) =
n
i,j=1
a
ij
x
i
y
j
Construimos ahora la forma bilineal:
(x, y) =
n
i,j=1
a
ij
x, u
i
)y, u
j
)
que es una combinaci on lineal de las formas
ij
. Es inmediato ver que es igual a . En efecto, calculando
los valores sobre una base:
(u
k
, u
l
) =
n
i,j=1
a
ij
u
k
, u
i
)u
l
, u
j
) =
n
i,j=1
a
ij
ki
lj
= a
kl
QED
5.2.3. Matriz de una forma bilineal
Como hemos visto antes, los escalares a
ij
= (u
i
, u
j
) determinan de manera unica a la forma bilineal.
Denicion 5.2.3 Se llama matriz de una forma bilineal en una base B = u
1
, . . . , u
n
a la matriz cuyos
elementos son los escalares (u
i
, u
j
).
96 CAP
ij
a
ij
x
i
y
j
= X
t
/Y
Como la correspondencia entre formas bilineales y matrices n n es biunvoca, tenemos establecido
un isomorsmo entre estos dos espacios vectoriales. Toda matriz cuadrada representa una forma bilineal
en una base dada de V . N otese que esta es otra utilizacion de las matrices aparte de la ya considerada
de representar aplicaciones lineales.
Evidentemente, cuando cambiamos de base, la matriz de la forma bilineal cambia (como ocurra con
las matrices que representaban homomorsmos). Veamos como es este cambio.
Sean B, B
= u
1
, . . . , u
i
=
n
j=1
P
ji
u
j
, i = 1, . . . , n
En las coordenadas, el cambio de base es:
x
i
=
n
j=1
P
ij
x
j
, X = PX
por tanto:
(x, y) = X
t
/Y = (PX
)
t
/Y
= (X
)
t
P
t
/PY
= (X
)
t
/
Y
y se tiene la relacion:
/
= P
t
/P
Hay que se nalar la diferencia que aparece con respecto al caso de matrices que representan homomor-
smos (o en particular endomorsmos). All es la inversa de la matriz P la que aparece en esta relacion,
mientras que aqu es la transpuesta la que juega ese papel.
5.2.4. Formas bilineales simetricas y antisimetricas
Denicion 5.2.4 Sea : V V IK una forma bilineal. Se dice que es simetrica si:
(x, y) = (y, x), x, y V
Se dice que es antisimetrica si:
(x, y) = (y, x), x, y V.
Proposicion 5.2.2 Si es una forma bilineal simetrica, la matriz que representa a en cualquier base
es una matriz simetrica.
5.2. FORMAS BILINEALES 97
Demostracion. Sea B una base de V . Entonces:
a
ij
= (u
i
, u
j
) = (u
j
, u
i
) = a
ji
es decir:
/
t
= /
QEDEs tambien evidente que si la matriz asociada a una forma bilineal es simetrica en una base, lo es
en todas y la forma bilineal correspondiente es simetrica.
De forma similar se concluye que una forma bilineal es antisimetrica si y solo si su matriz en cualquier
base es antisimetrica. Las formas simetricas forman un subespacio vectorial del espacio de las formas
bilineales. Las formas antisimetricas forman tambien un subespacio vectorial
El espacio L
2
(V ) se descompone en suma directa de formas bilineales simetricas y antisimetricas:
L
2
(V ) = /(V ) o(V )
y las dimensiones de estos dos subespacios son:
dim/(V ) =
1
2
n(n 1), dimo(V ) =
1
2
n(n + 1)
5.2.5. Formas bilineales simetricas regulares
Sea : V V IK una forma bilineal simetrica.
Denicion 5.2.5 Se dene el radical de como el subespacio de V dado por:
rad = x V [ (x, y) = 0, y V
Es inmediato probar que rad as denido es un subespacio de V .
Denicion 5.2.6 Se dice que es regular (no degenerada) si su radical es el vector 0.
Denicion 5.2.7 Se llama rango de la forma bilineal simetrica a:
ran() = dimV dimrad
Proposicion 5.2.3 Sea una forma bilineal simetrica de rango r. Sea / la matriz de en una base B.
Entonces:
ran = ran/
Demostracion. Sea W un subespacio complementario a rad:
V = W rad
y sea B una base adaptada a esta descomposicion:
B = u
1
, . . . , u
r
, u
r+1
, . . . , u
n
1
_
_
_
(u
1
, u
1
)
.
.
.
(u
r
, u
1
)
_
_
_+ +
r
_
_
_
(u
1
, u
r
)
.
.
.
(u
r
, u
r
)
_
_
_ = 0
98 CAP
1
(u
i
, u
1
) + +
r
(u
i
, u
r
) = 0, i = 1, . . . , r
o, usando las propiedades de bilinealidad de :
(u
i
,
1
u
1
+ +
r
u
r
) = 0, i = 1, . . . , r
Como consecuencia, el vector v =
1
u
1
+ +
r
u
r
esta en el radical, pues:
(u
i
, v) = 0, i = 1, . . . , n
Sin embargo, v W por lo que v = 0. Como los vectores u
1
, . . . , u
r
son l.i., se concluye que
1
=
=
r
= 0 y las columnas de C son l.i. lo que asegura que el rango de A es igual a r. QED
El cambio de base no modica el rango de la matriz (pues det P ,= 0), por lo que la dimensi on del
radical (y por tanto el rango de la forma bilineal) es igual al rango de la matriz que representa a en
cualquier base.
Veamoslo de otra forma. Sea r = ran(/), siendo / la matriz de en una base arbitraria. Las columnas
de la matriz / tienen n r relaciones lineales linealmente independientes:
11
(u
i
, u
1
) + +
1n
(u
i
, u
n
) = 0
.
.
.
nr,1
(u
i
, u
1
) + +
nr,n
(u
i
, u
n
) = 0
con i = 1, . . . , n. Aplicando las propiedades de :
(u
i
,
11
u
1
+ +
1n
u
n
) = 0
.
.
.
(u
i
,
nr,1
u
1
+ +
nr,n
u
n
) = 0
Por tanto, los vectores:
11
u
1
+ +
1n
u
n
, . . . ,
nr,1
u
1
+ +
nr,n
u
n
son una base del radical de
que tiene dimension n r (son linealmente independientes, anulan a una base y no hay m as vectores
l.i. con estas propiedades). QED
Con este resultado es inmediato demostrar la siguiente proposici on:
Proposicion 5.2.4 Sea : V V IK una forma bilineal simetrica. Entonces:
regular det / ,= 0
donde / es la matriz de en una base de V .
5.2.6. Ortogonalidad
Sea una forma bilineal simetrica en un IK-espacio vectorial V .
Denicion 5.2.8 Se dice que x, y V son ortogonales (x y) respecto si (x, y) = 0.
Denicion 5.2.9 Se dice que x V es is otropo (siempre respecto ) si (x, x) = 0.
Denicion 5.2.10 Si U es un subespacio de V , el subespacio ortogonal a U es:
U
= x V [ (x, y) = 0, y U
Veamos dos propiedades de la relacion de ortogonalidad.
5.2. FORMAS BILINEALES 99
Proposicion 5.2.5 Sea una forma bilineal simetrica regular en V y U un subespacio de V . Entonces:
dimV = dimU + dimU
.
Demostracion. Sea B una base de V (de dimensi on n), y B
U
= u
1
, . . . , u
m
una base de U. Las
ecuaciones de U
son:
_
_
_
b
11
b
1n
.
.
.
.
.
.
b
m1
b
mn
_
_
_/
_
_
_
x
1
.
.
.
x
n
_
_
_ = 0
donde b
ij
son las coordenadas de los vectores de la base B
U
en la base B y / es la matriz de la forma
bilineal en la base B.
Tenemos un sistema de ecuaciones que dene U
Nota: Aunque sea un forma regular en V , esto no quiere decir que lo sea en cualquier subespacio.
Demostracion. Veamos que la interseccion de U y U
es igual al vector 0.
Si x U U
= 0
Como ademas se tiene por la proposici on anterior:
dimV = dimU + dimU
concluimos que:
V = U U
.
QED
5.2.7. Diagonalizaci on de formas bilineales simetricas
Como ya hemos visto, al cambiar la base la matriz asociada a una forma bilineal cambia. Podemos
intentar buscar una base en la cual la matriz sea lo m as sencilla posible. Demostraremos a continuacion
que, para las formas bilineales simetricas, siempre es posible encontrar una base en la cual la matriz sea
diagonal.
Proposicion 5.2.7 Sea V un IK-espacio vectorial de dimensi on n y : V V IK una forma bilineal
simetrica de rango r. Entonces, existe una base de V , B = u
1
, . . . , u
n
en la cual se tiene:
(u
i
, u
j
) = 0, i ,= j
(u
i
, u
i
) = c
i
, i = 1, . . . , n
Ademas:
c
1
, . . . , c
r
,= 0, c
r+1
= . . . = c
n
= 0
100 CAP
1
Al ser [
W1
regular, se puede probar que [
W
1
tambien es regular.
Si no fuera as, existira un vector x W
1
, tal que (x, y) = 0, y W
1
. En este caso, (x, y) =
0, y V , ya que:
(x, y) = (x, y
1
) +(x, y
2
) = 0
donde y
1
W
1
, y
2
W
1
, y no sera regular en V .
Consideremos ahora un segundo vector u
2
en el espacio W
1
, tal que: (u
2
, u
2
) = c
2
,= 0 y construya-
mos el subespacio:
W
2
= linu
1
, u
2
.
La forma bilineal es tambien regular en W
2
(pues su matriz asociada en la base u
1
, u
2
es diagonal y
los valores en la diagonal son c
1
, c
2
que son distintos de cero). Por tanto:
V = W
2
W
2
.
Como el espacio es de dimension nita, podemos seguir este proceso hasta construir una base de V :
u
1
, . . . , u
n
, que satisface las condiciones del teorema.
Si IK =C, podemos tomar otra base:
_
1
c
1
u
1
, . . . ,
1
c
n
u
n
_
,
que hace que la matriz asociada tenga todos los elementos de la diagonal iguales a 1.
Si estamos en IR, se puede tomar como base:
_
1
_
[c
1
[
u
1
, . . . ,
1
_
[c
n
[
u
n
_
,
5.2. FORMAS BILINEALES 101
y en ella los elementos de la diagonal de la matriz asociada son iguales a 1. QED
En el caso real, el n umero de +1 y 1 en la diagonal (para una matriz diagonal, lo que hemos llamado
signatura de la forma bilineal) no depende de la base elegida (hay muchas bases en las cuales la matriz es
diagonal y est a formada por 1 y 0). Es claro que el n umero de ceros, que es igual al rango de la forma
bilineal, no cambia al cambiar de base. No es tan evidente que la signatura sea un invariante caracterstico
de la forma bilineal. Se tiene el siguiente teorema:
Teorema 5.2.1 Teorema de Sylvester. (Ley de inercia). La signatura de una forma bilineal simetrica
real es un invariante.
Demostracion. Sean u
1
, . . . u
n
, u
1
, . . . u
n
dos bases de V con las siguientes propiedades:
(u
i
, u
j
) = 0, i ,= j (u
i
, u
j
) = 0, i ,= j
(u
i
, u
i
) = 1, i = 1, . . . , p (u
i
, u
i
) = 1, i = 1, . . . , p
(u
i
, u
i
) = 1, i = p + 1, . . . , r (u
i
, u
i
) = 1, i = p
+ 1, . . . , r
(u
i
, u
i
) = 0, i = r, . . . , n (u
i
, u
i
) = 0, i = r, . . . , n
Demostremos que p = p
> p. Sea u
1
, . . . , u
n
la base dual
de u
1
, . . . u
n
. El sistema de ecuaciones:
x, u
k
) = 0, k = p
+ 1, . . . , r
tiene soluciones no triviales cuando nos restringimos a x linu
p+1
, . . . , u
r
. En efecto, se trata de un
sistema con r p
< r p al ser p
i
, es una combinaci on lineal de: u
1
, . . . , u
p
, u
r+1
, . . . , u
n
, pues verica el sistema
anterior (basta recordar como se escriban las coordenadas de un vector en una base usando la base dual).
Es decir:
x = y + z, y linu
1
, . . . , u
p
, z linu
r+1
, . . . , u
n
.
El valor que toma la forma bilineal sobre x es:
(x, x) = (y, y) + (z, z) + 2(y, z) = (y, y) 0.
Sin embargo,
(x, x) < 0
pues x linu
p+1
, . . . , u
r
. Por lo tanto, p p
p y con-
cluiramos que p = p
. QED
En el caso real, existen tipos de formas bilineales simetricas particularmente interesantes.
Denicion 5.2.11 Sea una forma bilineal simetrica denida sobre un espacio vectorial real de dimen-
si on n. Se dice que es denida positiva si
(x, x) > 0, x V, x ,= 0
En este caso, el rango de la forma bilineal es n y la signatura es (n, 0). Se dice que es denida negativa
si
(x, x) < 0, x V, x ,= 0
En este caso, el rango de la forma bilineal es tambien n y la signatura es (0, n).
Se puede hablar tambien de formas semidenidas positivas o negativas, cuando las desigualdades no
son estrictas.
102 CAP
=
u
1
, . . . , u
n
tal que:
i.- line
1
, . . . , e
r
= linu
1
, . . . , u
r
,
ii.- (u
i
, u
j
) =
ij
, i, j = 1, . . . , n, es decir, B
como:
u
1
=
1
_
(e
1
, e
1
)
e
1
que cumple las dos condiciones del teorema, pues es denida positiva. El segundo vector se obtiene
como una combinaci on lineal de u
1
y e
2
. Sea:
u
2
= e
2
21
u
1
donde
21
es un n umero real a jar. Para ello imponemos que u
2
sea ortogonal a u
1
:
(u
1
, e
2
21
u
1
) = (u
1
, e
2
)
21
(u
1
, u
1
)
de donde se deduce:
21
= (u
1
, e
2
)
Si ahora denimos:
u
2
=
1
_
(u
2
, u
2
)
u
2
los vectores u
1
, u
2
verican las condiciones del teorema.
Supongamos que de esta forma hemos construido los vectores u
1
, . . . , u
r
que verican las condiciones
del proceso de ortonormalizacion de Gram-Schmidt. Buscamos u
r+1
como una combinacion lineal de e
r+1
y de los ya construidos u
1
, . . . , u
r
:
u
r+1
= e
r+1
r
j=1
r+1,j
u
j
Imponiendo las condiciones (u
r+1
, u
i
) = 0, i = 1, . . . , r, se obtienen los par ametros
ij
:
0 = (e
r+1
, u
i
)
r
j=1
r+1,j
(u
j
, u
i
) = (e
r+1
, u
i
)
r
j=1
r+1,j
ji
lo que nos da la soluci on:
r+1,i
= (e
r+1
, u
i
)
es decir:
u
r+1
= e
r+1
r
i=1
(e
r+1
, u
i
)u
i
Normalizando el vector u
r+1
(es decir, dividiendo por la raz cuadrada de (u
r+1
, u
r+1
)) obtenemos
el vector u
r+1
. Este vector cumple las condiciones del teorema como es facil observar (n otese que e
r+1
no depende linealmente de u
1
, . . . , u
r
).
El proceso termina al ser V un espacio de dimensi on nita. QED
5.3. FORMAS CUADR
ATICAS 103
5.3. Formas Cuadraticas
Dada una forma bilineal simetrica, , se verican las identidades siguientes (identidades de polariza-
cion) que permiten expresar los valores que toma sobre cualquier par de vectores en funci on de los que
toma sobre la diagonal (como ya hemos usado anteriormente).
(x, y) =
1
2
[(x + y, x + y) (x, x) (y, y)]
(x, y) =
1
4
[(x + y, x + y) (x y, x y)]
Su demostraci on es inmediata sin m as que desarrollar.
Denicion 5.3.1 Sea V un IK-espacio vectorial. Una aplicaci on: Q: V IK es una forma cuadr atica si:
a) Q(x) =
2
Q(x)
y la aplicaci on
Q
: V V IK, denida por:
b)
Q
(x, y) =
1
2
[Q(x + y) Q(x) Q(y)]
es una forma bilineal simetrica.
A cada forma cuadr atica le corresponde una forma bilineal simetrica, y viceversa, dada una forma
bilineal simetrica podemos construir un forma cuadr atica mediante:
Q
(x) = (x, x)
Se tiene:
Q
Q
Q
Q
= Q
Se dice que una forma cuadr atica es denida positiva, etc, si la correspondiente forma bilineal lo es.
Si / es la matriz de la forma bilineal
Q
en una base B, se dice que / es la matriz de la forma cuadr atica
en esa base. La expresion de Q(x) es entonces:
Q(x) = X
t
/X
y por supuesto, /
t
= /. Es decir, la matriz asociada a una forma cuadr atica en cualquier base es
simetrica.
5.3.1. Diagonalizaci on de formas cuadr aticas
El problema de reducir una forma cuadr atica a una suma de cuadrados (en C) o a una suma y
diferencia de cuadrados (en IR) es el de encontrar una base en la cual la forma bilineal simetrica asociada
tenga una matriz diagonal con 1 y 0 en la diagonal. Ya hemos visto que eso es siempre posible.
Veamos ahora un metodo pr actico de hacerlo, el metodo de Lagrange. La forma cuadr atica Q se
escribe en una base dada como:
Q(x) =
n
i,k=1
a
ik
x
i
x
k
donde a
ik
= a
ki
. La idea del metodo es la de completar cuadrados. Supongamos que existe un elemento
de la diagonal no nulo, a
jj
,= 0. Entonces, Q se puede escribir como:
Q(x) =
1
a
jj
_
n
i=1
a
ji
x
i
_
2
+ Q
1
(x),
104 CAP
k=1
(a
jk
+a
hk
)x
k
_
2
1
2a
jh
_
n
k=1
(a
jk
a
hk
)x
k
_
2
+Q
2
(x)
donde Q
2
(x) es una forma cuadr atica que no depende de x
j
, x
h
, y las formas lineales
n
k=1
(a
jk
+a
hk
)x
k
,
n
k=1
(a
jk
a
hk
)x
k
son linealmente independientes. Basta desarrollar para comprobar estas armaciones,
pero es facil darse cuenta que no se trata m as que de una generalizaci on de la siguiente (y evidente)
identidad:
2xy =
1
2
(x +y)
2
1
2
(x y)
2
Al descomponer en suma de cuadrados (o suma y diferencia), las formas lineales que aparecen (elevadas
al cuadrado) en la descomposici on son linealmente independientes (en el primero de los supuestos es trivial,
pues dependen de un n umero de variables distinto cada vez; en el segundo se puede comprobar como se
ha dicho anteriormente). Esta formas lineales dan el cambio de base, o al menos parte de el, pues la forma
puede no ser regular (con radical no nulo) y aparecer menos de n cuadrados en la suma. En este ultimo
caso no es difcil completarlas con otras formas l.i. hasta tener la expresi on de la nueva base en la que la
forma cuadr atica es diagonal.
5.3.2. Formas cuadr aticas denidas
Si una forma cuadr atica (o una forma bilineal simetrica) esta escrita en una base arbitraria, no es
posible deducir si es denida positiva o no de una inspecci on de los elementos de la matriz, como es el
caso en el que esta matriz es diagonal. Sin embargo se puede dar un criterio sencillo que permite averiguar
esta propiedad mediante el c alculo de los menores principales (los determinantes de las matrices que estan
construidas sobre la diagonal, tomando los elementos de las r primeras las y r primeras columnas hasta
hacer una matriz cuadrada r r).
Proposicion 5.3.1 Sea Q una forma cuadr atica denida sobre un espacio vectorial real, y / su matriz
en una base B. Entonces, Q es denida positiva si y solo si los menores principales de /, D
1
, D
2
, . . . , D
n
son todos mayores que cero.
Proposicion 5.3.2 Sea Q una forma cuadr atica denida sobre un espacio vectorial real, y / su matriz
en una base B. Entonces, Q es denida negativa si y solo si los menores principales de /, verican:
D
1
< 0, D
2
> 0, . . . , (1)
n
D
n
> 0
No demostraremos estas propiedades.
5.4. Producto escalar
De entre todas las formas bilineales simetricas, las denidas positivas presentan unas propiedades
particulares que las hacen apropiadas para las aplicaciones en Fsica (junto con las pseudodenidas
Lorentzianas).
5.4. PRODUCTO ESCALAR 105
5.4.1. Producto escalar en un espacio real
Denicion 5.4.1 Un producto escalar en un espacio vectorial real V es una forma bilineal simetrica
denida positiva. Es decir:
( , ): V V IR
con las propiedades:
i) (x, y) = (y, x), x, y V
ii) (x +y, z) = (x, z) + (y, z), (x, y) = (x, y), x, y, z V, IR
iii) (x, x) 0, x V, (x, x) = 0 x = 0
5.4.2. Formas sesquilineales
Esta denici on no puede extenderse a espacios complejos, pues el concepto de forma bilineal simetrica
denida positiva no se puede establecer all. Sin embargo, una aplicaci on similar a esta puede denirse en
espacios complejos, sustituyendo la propiedad de bilineal por otra.
Denicion 5.4.2 Sea V un espacio vectorial complejo. Una forma sesquilineal es una aplicaci on:
: V V C
que verica:
i) (x, y) = (y, x), x, y V
ii) (x, y +z) = (x, y) +(x, z), (x, y) = (x, y), x, y, z V, C
Debido a la primera propiedad se tiene:
(x, y) =
(x, y),
es decir, la aplicaci on no es bilineal. Solo es lineal en la segunda variable, pero no en la primera (se trata
de una convenci on, en otros lugares la denici on se hace de modo que la aplicacion es lineal en la primera
variable).
La teora de formas sesquilineales es muy similar a la de formas bilineales simetricas reales. Si el
espacio es de dimension nita, podemos escribir la aplicaci on en una base dada. Es f acil ver (siguiendo
en todo la teora de las formas bilineales), que la expresi on es:
(x, y) = X
+
/Y
donde X, Y son los vectores de C
n
que representan a x, y V en esa base y X
+
representa la transpuesta
conjugada de una matriz. Debido a la primera propiedad de las formas sesquilineales, la matriz / verica:
/
+
= /
(las matrices con esta propiedad se llaman hermticas). En efecto:
(x, y) = X
+
/Y = (X
+
/Y )
+
= Y
+
/
+
X = Y
+
/X, X, Y C
n
Al igual que en el caso real las matrices simetricas estaban asociadas a las formas bilineales reales, en
el caso complejo las matrices hermticas estan asociadas a las formas sesquilineales. Si el espacio es real,
una forma sesquilineal es simplemente una forma bilineal simetrica (al ser el conjugado de un n umero
real igual a s mismo).
Si se cambia la base, la matriz de una forma sesquilineal cambia. Como se puede comprobar f acilmente
(siempre teniendo como gua las formas bilineales simetricas), si P es la matriz de cambio de base (es
decir la que expresa los vectores de la segunda base en funci on de los de la primera) se tiene:
/
= P
+
/P
Lo que hace particularmente interesantes a las formas sesquilineales es que los valores que toman sobre
la diagonal (es decir sobre los pares (x, x)), son reales (basta usar la primera propiedad y comprobar que
(x, x) es igual a su complejo conjugado). Debido a esto, se puede establecer para las formas sesquilineales
la propiedad de ser denida positiva (o negativa).
106 CAP
(x, x) = [[
2
|x|
2
de donde:
|x| = [[|x|.
La tercera propiedad, la desigualdad triangular es algo m as difcil de demostrar. Veremos que es una
consecuencia de la desigualdad de Cauchy-Schwarz que demostramos a continuaci on.
5.4. PRODUCTO ESCALAR 107
Desigualdad de Cauchy-Schwarz:
[(x, y)[
_
(x, x)(y, y), x, y V
Para demostrarlo, consideremos el producto escalar del vector x y por s mismo. Se obtiene un
n umero real mayor o igual que cero:
(x y, x y) = [[
2
(x, x) + [[
2
(y, y)
(x, y) (y, x) 0
Como la desigualdad es cierta para todo los escalares , , elegimos:
= (x, y), = (x, x)
[(x, y)[
2
(x, x) + (x, x)
2
(y, y) 2(x, x)[(x, y)[
2
0
es decir:
[(x, y)[
2
(x, x)(y, y)
lo que demuestra la desigualdad de Cauchy-Schwarz. Esta desigualdad es estricta si y s olo si los vectores
x, y son linealmente independientes.
La desigualdad triangular es ahora inmediata:
|x + y|
2
= (x + y, x + y) = (x, x) + (y, y) + (x, y) + (x, y) = (x, x) + (y, y) + (x, y) + (x, y)
|x|
2
+ |y|
2
+ 2|x| |y|
de donde se deduce:
|x + y| |x| + |y|
QED
5.4.5. Ortogonalidad
La relacion de ortogonalidad denida para formas bilineales simetricas, se extiende a formas sesquili-
neales sin ning un problema.
Denicion 5.4.6 Sea V un espacio vectorial (real o complejo) y ( , ) un producto escalar en V . Se dice
que dos vectores son ortogonales con respecto a este producto escalar si (x, y) = 0.
Al ser un producto escalar, la matriz asociada en cualquier base es regular y el unico vector que es
ortogonal a todo el espacio es el vector 0.
Dada una base cualquiera en un espacio vectorial (de dimension nita) con un producto escalar, es
posible construir una base ortonormal (es decir, (u
i
, u
j
) =
ij
, i, j = 1, . . . n), utilizando, por ejemplo,
el metodo de Gram-Schmidt (el hecho de ser una forma sesquilineal no afecta para nada al desarrollo.
Simplemente hay que prestar atenci on a los complejos conjugados).
Sea B = u
1
, . . . , u
n
una base ortonormal en un espacio V de dimensi on nita dotado de un producto
escalar. Los coecientes de cualquier vector en esta base se pueden calcular facilmente:
x V, x =
n
i=1
x
i
u
i
Haciendo el producto escalar de u
j
por x se tiene:
(u
j
, x) = (u
j
,
n
i=1
x
i
u
i
) =
n
i=1
x
i
(u
j
, u
i
) =
n
i=1
x
i
ji
es decir:
x
i
= (u
i
, x), i = 1, . . . , n
108 CAP
i=1
(u
i
, x)u
i
En una base ortonormal, la matriz asociada a un producto escalar es la matriz identidad, es decir:
(x, y) =
n
i=1
x
i
y
i
En lo que se reere a subespacios, se tiene:
Proposicion 5.4.2 Sea V un espacio vectorial de dimensi on nita sobre IR o C. Sea W un subespacio de
V y W
.
Se dice que W
su complemento ortogonal. Todo vector de V se puede poner de manera unica como la suma
de dos vectores ortogonales entre s:
x = y + z, x V, y W, z W
.
Debido a que y, z estan denidos unvocamente por x podemos denir las siguientes aplicaciones:
P
1
: V V P
2
: V V
x y x z
.
Las aplicaciones P
1
y P
2
, que son claramente lineales, se llaman las proyecciones ortogonales sobre W
y W
se tiene:
a) P
1
+ P
2
= 1
V
b) P
2
1
= P
1
, P
2
2
= P
2
, P
1
P
2
= P
2
P
1
= 0
c) (P
1
x, x
) = (x, P
1
y), (P
2
x, x
) = (x, P
2
x
), x, x
V
Demostracion. Si x = y +z, de acuerdo con la descomposicion V = W W
:
y = P
1
(x), z = P
2
(x)
y por tanto:
x = y +z = P
1
(x) + P
2
(x) = (P
1
+ P
2
)(x), x V
es decir la suma de los proyectores ortogonales es igual a la identidad en V .
Ademas, de P
1
(x) = y W, se deduce:
P
2
1
(x) = P
1
(y) = y = P
1
(x) P
2
1
= P
1
De la misma manera se prueba para P
2
Tambien es facil de probar la otra propiedad:
P
1
P
2
= P
1
(1
V
P
1
) = P
1
P
2
1
= 0
5.4. PRODUCTO ESCALAR 109
y de igual forma P
2
P
1
= 0.
Finalmente:
(P
1
x, x
) = (y, y
+z
) = (y, y
) = (y + z, P
1
(x
)) = (x, P
1
(x
))
y de la misma forma para P
2
. QED
Veamos ahora como se escribe la proyeccion ortogonal en una base ortonormal adaptada a la descom-
posicion de subespacios. Sea V un espacio vectorial de dimensi on nita n, y W un subespacio propio de
dimension r, Sea B = e
1
, . . . , e
n
una base ortonormal de V en la cual queremos calcular las matrices
que representan a P
1
y P
2
. Sea B
= u
1
, . . . , u
n
una base ortonormal de V , de forma que u
1
, . . . , u
r
sea una base (tambien ortonormal) de W. El teorema de ampliacion de la base permite obtener este resul-
tado. Aunque en principio est a establecido para bases no necesariamente ortonormales, el procedimiento
de Gram-Schmidt nos asegura que la situacion anterior es correcta. Como consecuencia, el resto de los
vectores de la base B
, es decir: u
r+1
, . . . , u
n
son un base (tambien ortonormal) de W
. Supongamos
que los vectores de la base B
i=1
(u
i
, x)u
i
=
r
i=1
(U
+
i
X)u
i
es decir, en coordenadas:
Y =
r
i=1
(U
+
i
X)U
i
= (
r
i=1
U
i
U
+
i
)X
y por tanto, la matriz asociada a P
1
es:
r
i=1
U
i
U
+
i
Tengase en cuenta que ambas bases son ortonormales para poder deducir este resultado. La matriz que
representa a P
2
en esta misma base es:
n
i=r+1
U
i
U
+
i
y se tiene:
n
i=1
U
i
U
+
i
= I
n
siendo I
n
la matriz identidad en dimensi on n.
Un resultado de gran utilidad en muchos campos (en particular en espacios de dimensi on innita) es
el teorema de la proyeccion ortogonal. La pregunta que se puede uno plantear es: dado un vector de un
espacio vectorial con un producto escalar cu al es el vector de entre todos los de un subespacio que mejor
aproxima a este vector. La respuesta es que es la proyecci on ortogonal del vector sobre el subespacio.
Teorema 5.4.1 Sea V un espacio vectorial de dimensi on nita y x V . Sea W un subespacio de W.
La norma del vector x w, donde w W, toma su valor mnimo cuando w es la proyecci on ortogonal
de x sobre W.
Demostracion. De acuerdo con el resultado sobre descomposicion ortogonal de V referida al subes-
pacio W, x = y +z donde y W, z W
. Entonces
|x w| = |y + z w| = |y w| +|z|
pues y w W, z W
x
: V IK
y (x, y)
es una aplicaci on lineal (con reales o complejos), es decir un elemento del dual,
x
V
. El teorema de
Riesz-Frechet asegura que el resultado inverso es tambien cierto.
Teorema 5.4.3 Dada una forma V
V tal que:
(y) = (x
, y), y V
Demostracion. Sea u
1
, . . . , u
n
una base ortonormal de V . Entonces:
(y) = (
n
i=1
(u
i
, y)u
i
) =
n
i=1
(u
i
, y)(u
i
) =
n
i=1
((u
i
)u
i
, y)
y por lo tanto, el vector:
x
=
n
i=1
(u
i
)u
i
verica el teorema. Veamos que es unico, aunque en la expresi on anterior parezca depender de la base
elegida. Supongamos que
(y) = (x, y) = (x
, y), y V
Entonces:
(x x
, y) = 0, y V
5.4. PRODUCTO ESCALAR 111
Pero el unico vector ortogonal a todo el espacio es el vector 0, por tanto, x = x
. QED
La correspondencia:
: V V
x
x
es un isomorsmo de espacios vectoriales reales:
(x +y)(z) = (z, x +y) = (z, x) + (z, y) = (x)(z) +(y)(z)
Ademas:
(x)(z) = (z, x) = (z, x) = (x)(z)
En espacios complejos aparece un conjugado.
112 CAP
, Ay)
Existe un unico z V tal que:
(x + x
, Ay) = ( z, y), y V
es decir:
(x, Ay) + (x
, Ay) = (z, y) + (z
, y) = (z +z
, y)
113
114 CAP
(x, Ay) =
(z, y) = (z, y)
de donde:
z = z
La operaci on de tomar adjuntos (pasar de A a A
+
) tiene las siguientes propiedades, que se pueden
demostrar f acilmente:
1) (A
+
)
+
= A
2) (A +B)
+
= A
+
+B
+
3) (A)
+
=
A
+
4) (AB)
+
= B
+
A
+
Por ejemplo, la propiedad 1):
(x, Ay) = (A
+
x, y) = (y, A
+
x) = ((A
+
)
+
y, x) = (x, (A
+
)
+
y)
relacion que debe ser cierta para todo x, y V , lo que demuestra 1). Las propiedades 2) y 3) son
inmediatas. En cuanto a 4):
(x, ABy) = ((AB)
+
x, y) = (A
+
x, By) = (B
+
A
+
x, y)
6.1.2. Representaci on matricial del operador adjunto
Veamos como obtener la representacion matricial del operador adjunto a partir de la del operador
original. Sea V un espacio vectorial complejo de dimensi on nita dotado de un producto escalar y B =
u
1
, . . . , u
n
una base ortonormal de V . Sea / la matriz de A en la base B, es decir, / = (a
ij
):
Au
i
=
n
i=1
a
ji
u
j
, i = 1, . . . , n
Sea /
= (a
ij
). Se tiene:
(x, Ay) = (A
+
x, y), x, y V
En particular:
(u
i
, Au
j
) = (A
+
u
i
, u
j
), i, j = 1, . . . , n
y sustituyendo las expresiones de Au
j
y A
+
u
i
:
(u
i
,
n
k=1
a
kj
u
k
) = (
n
k=1
a
ki
u
k
, u
j
)
n
k=1
a
kj
(u
i
, u
k
) =
n
k=1
a
ki
(u
k
, u
j
)
n
k=1
a
kj
ik
=
n
k=1
a
ki
kj
6.1. OPERADORES EN ESPACIOS COMPLEJOS CON PRODUCTO ESCALAR 115
a
ij
= a
ji
es decir:
/
= /
+
la matriz del operador adjunto es la matriz transpuesta conjugada (la matriz adjunta) del operador
de partida (el smbolo
+
signicar a indistintamente operador adjunto o matriz transpuesta conjugada,
dependiendo a quien este aplicado). N otese que este resultado es solo cierto cuando la base en la que
estan escritos los operadores es ortonormal. Si no es as, la relaci on es mas complicada y hace intervenir
la matriz del producto escalar. En estas bases que no son ortonormales, la matriz de A
+
no es /
+
, lo que
puede inducir a cierta confusi on si no se presta atencion.
Recordando como se calculaban las coordenadas de un vector en una base ortonormal, podemos
encontrar una expresi on de los elementos de matriz de un operador en bases de este tipo. En efecto,
(u
i
, Au
j
) = (u
i
,
n
k=1
a
kj
u
k
) =
n
k=1
a
kj
(u
i
, u
k
) =
n
k=1
a
kj
ik
= a
ij
es decir:
a
ij
= (u
i
, Au
j
)
6.1.3. Operadores normales, autoadjuntos y unitarios
Teniendo en cuenta las relaciones entre A y A
+
se pueden denir clases especiales de operadores. Sea
(V, ( , )) un espacio vectorial complejo con producto escalar, y A un operador en V .
Denicion 6.1.2 Se dice que el operador A es normal si conmuta con su adjunto:
AA
+
= A
+
A
Denicion 6.1.3 Se dice que el operador A es autoadjunto si coincide con su adjunto:
A
+
= A
Denicion 6.1.4 Se dice que el operador A es unitario si:
AA
+
= A
+
A = 1
V
Los operadores autoadjuntos verican:
(x, Ay) = (Ax, y),
y en bases ortonormales vienen representados por matrices hermticas (o autoadjuntas):
/
+
= /.
Los operadores unitarios verican:
(Ax, Ay) = (x, y),
y en bases ortonormales, sus matrices son unitarias, es decir:
//
+
= /
+
/ = I
n
.
Es inmediato comprobar que los operadores autoadjuntos y unitarios son normales. Existen operadores
normales que no son autoadjuntos ni unitarios. Nuestro interes se centra en los operadores autoadjuntos y
unitarios. Sin embargo, es m as conveniente, y no implica ning un esfuerzo adicional, estudiar los operadores
normales y luego restringirnos a estos dos casos.
116 CAP
) S
Demostracion. Sea y S
. QED
Enunciemos ahora el teorema espectral:
Teorema 6.1.1 Sea V un espacio vectorial complejo de dimensi on nita dotado de un producto escalar.
Sea A un operador normal en V . Entonces, existe una base ortonormal de V formada por autovectores
de A.
Demostracion. Al ser A normal, A conmuta con su adjunto, luego por la primera de las dos propo-
siciones demostradas previamente, A y A
+
tienen un autovector com un:
Ax =
1
x, A
+
x = x
Como (x, Ay) = (Ax, y), se tiene:
(x, Ax) = (x,
1
x) =
1
(x, x) = (A
+
x, x) = (x, x) = (x, x),
es decir:
=
1
.
6.1. OPERADORES EN ESPACIOS COMPLEJOS CON PRODUCTO ESCALAR 117
Sea
u
1
=
x
[[x[[
un autovector de norma 1 (vector unitario) de A y A
+
. El subespacio S
1
= linu
1
es invariante bajo A
y bajo A
+
. Por lo tanto, haciendo uso de la segunda proposici on, S
1
es invariante bajo A (y bajo A
+
).
Consideramos la restriccion de A a S
1
. Buscamos all un autovector com un a A y A
+
(supongamos que
de norma 1):
Au
2
=
2
u
2
, A
+
u
2
=
2
u
2
Ademas:
(u
1
, u
2
) = 0
Se construye el subespacio S
2
= linu
1
, u
2
y se continua el proceso, que debe acabar al ser el
espacio de dimensi on nita. De esta forma se obtiene una base formada por autovectores de A que son
ortonormales. N otese que es tambien una base de autovectores de A
+
. QED
Estudiaremos ahora una serie de resultados relacionados con este teorema espectral. Lo primero que
demostraremos es que la existencia de bases ortonormales caracteriza a los operadores normales.
Proposicion 6.1.3 Sea V un espacio vectorial complejo de dimensi on nita dotado de producto escalar.
Sea A un operador en V y sea B = u
1
, . . . , u
n
una base ortonormal de V formada por autovectores de
A. Entonces A es un operador normal.
Demostracion. Calculemos las coordenadas de la imagen de u
i
mediante el operador A
+
en la base
B:
A
+
u
i
=
n
j=1
(u
j
, A
+
u
i
)u
j
=
n
j=1
(Au
j
, u
i
)u
j
=
n
j=1
(
j
u
j
, u
i
)u
j
=
n
j=1
j
(u
j
, u
i
)u
j
=
n
j=1
ji
u
j
=
i
u
i
luego u
i
es tambien un autovector de A
+
con autovalor
i
. Entonces:
AA
+
u
i
= [
i
[
2
u
i
= A
+
Au
i
, i = 1, . . . , n
luego AA
+
= A
+
A al coincidir en una base. QED
El resultado sobre la existencia de una base ortonormal formada por autovectores se puede enunciar
en terminos de matrices.
Proposicion 6.1.4 Sea / una matriz compleja n n, normal, es decir:
//
+
= /
+
/
Entonces, existe una matriz unitaria | tal que:
|
+
/|
es una matriz diagonal
Demostracion. Se considera a / como la matriz de un cierto operador en una base ortonormal
e
1
, . . . , e
n
. Entonces A
+
viene representado en esa base por la matriz /
+
. Por tanto, por las hip otesis
del teorema, A es un operador normal. Al existir una base ortonormal formada por autovectores de A,
u
1
, . . . , u
n
la matriz de cambio de base es:
u
i
=
n
j=1
|
ji
e
i
Por tanto, la matriz de A en la base u
i
se obtiene de la matriz / mediante la expresi on:
|
1
/|
118 CAP
ij
= (u
i
, u
j
) = (
n
k=1
|
ik
e
k
n
l=1
|
jl
e
l
) =
n
k,l=1
|
ik
|
jl
(e
k
, e
l
) =
n
k,l=1
|
ik
|
jl
kl
=
n
k=1
|
ik
|
jk
es decir, la matriz | es unitaria, y:
|
+
/|
es una matriz diagonal. QED
El teorema espectral se puede establecer diciendo que todo operador normal se puede llevar a una
forma diagonal mediante una transformaci on unitaria.
6.1.5. Teorema espectral para operadores autoadjuntos
Puesto que un operador autoadjunto es normal, los teoremas anteriores se aplican a este tipo de
operadores. Sin embargo, podemos decir algo m as de ellos.
Proposicion 6.1.5 Los autovalores de un operador autoadjunto son reales.
Demostracion.
Sea un autovalor de A con autovector x. Entonces:
(Ax, x) =
(x, x) = (x, Ax) = (x, x)
de donde
= .
QED
Podemos establecer el siguiente teorema espectral:
Teorema 6.1.2 Sea V un espacio vectorial complejo de dimensi on nita con producto escalar. Sea A un
operador autoadjunto en V . Entonces, los autovalores de A son reales y existe una base ortonormal de V
formada por autovectores de A.
El resultado inverso es:
Teorema 6.1.3 Sea V un espacio vectorial complejo de dimensi on nita con producto escalar. Sea A un
operador en V con autovalores reales tal que existe una base ortonormal de V formada por autovectores
de A. Entonces A es autoadjunto.
Demostracion.
De acuerdo con el teorema espectral para operadores normales, al existir una base ortonormal de V
formada por autovectores de A, A es normal. Al tener los autovalores reales:
A
+
u
k
=
k
u
k
=
k
u
k
= Au
k
, k = 1, . . . , n
luego A = A
+
y A es autoadjunto. QED
El resultado para matrices es:
Proposicion 6.1.6 Sea / una matriz hermtica (autoadjunta). Entonces / es diagonalizable mediante
una matriz unitaria, y la matriz diagonal es real.
La demostracion sigue las lneas del caso normal.
6.2. PROYECTORES ORTOGONALES 119
6.1.6. Teorema espectral para operadores unitarios
Un operador unitario es tambien normal. Sus autovalores tienen m odulo unidad.
Proposicion 6.1.7 Los autovalores de un operador unitario tienen m odulo 1.
Demostracion. Sea autovalor de A con autovector x. Entonces:
Ax = x A
+
Ax = A
+
x = [[
2
x
y por tanto:
[[ = 1
QED
Teorema 6.1.4 Sea V un espacio vectorial complejo de dimensi on nita con producto escalar. Sea A
un operador unitario en V . Entonces, los autovalores de A tienen modulo igual a 1 y existe una base
ortonormal de V formada por autovectores de A.
El resultado inverso es:
Teorema 6.1.5 Sea V un espacio vectorial complejo de dimensi on nita con producto escalar. Sea A un
operador en V con autovalores de m odulo unidad tal que existe una base ortonormal de V formada por
autovectores de A. Entonces A es unitario.
Demostracion. El operador A es normal. Al tener los autovalores de modulo igual a 1:
A
+
Au
k
=
k
u
k
= [
k
[
2
u
k
= u
k
, k = 1, . . . , n
luego AA
+
= A
+
A = 1
V
yA es unitario. QED
El resultado para matrices es:
Proposicion 6.1.8 Sea / una matriz unitaria. Entonces / es diagonalizable mediante una matriz uni-
taria, y la matriz diagonal tiene elementos de m odulo 1 en la diagonal.
Los operadores unitarios relacionan bases ortonormales entre s. Conservan longitudes y angulos.
De la relacion ||
+
= I
n
se deduce que el determinante de una matriz unitaria (y por lo tanto de un
operador unitario) tiene m odulo igual a 1:
1 = det(||
+
) = det | det |
+
= [ det |[
2
pues det |
t
= det | y det
| = det |.
Los operadores unitarios forman un grupo respecto a la composici on de operadores. Se le llama el
grupo unitario (U(n)). El subconjunto de operadores unitarios con determinante igual a 1 es un subgrupo
de este, (SU(n)). Por ejemplo, U(1) son los n umeros complejos de modulo 1 (es decir, la circunferencia
unidad).
6.2. Proyectores ortogonales
Sea V un espacio vectorial complejo de dimension nita con producto escalar. Sea A un operador
normal en V , con espectro
(A) =
1
, . . . ,
r
,
i
,=
j
, i ,= j, i, j = 1, . . . , r, r n
Los subespacios invariantes:
V
i
= ker(A
i
1
V
), i = 1, . . . , r
120 CAP
i=1
i
P
i
)(
r
j=1
j
P
+
j
) =
r
i,j=1
j
P
i
P
j
=
r
i,j=1
ij
P
i
=
r
i=1
[
i
[
2
P
i
= A
+
A
Los escalares
i
son los autovalores de A, y los autovectores son de la forma P
i
x con x V . En efecto:
AP
i
(x) =
r
j=1
j
P
j
P
i
x =
r
j=1
ij
P
i
x =
i
P
i
x
Veamos que no hay otros autovalores. Sea C tal que existe x V distinto de cero y:
Ax = x
Ax =
r
i=1
i
P
i
x =
r
i=1
P
i
(x)
es decir:
r
i=1
(
i
)P
i
x = 0
Aplicando P
k
:
r
i=1
(
i
)P
k
P
i
x =
r
i=1
(
i
)
ik
P
i
x = (
k
)P
k
x = 0
Por tanto, P
k
x = 0 o bien =
k
. En el segundo caso, es uno de los escalares que tenamos. En el
primero, si la relaci on es cierta para todo k = 1, . . . , r, entonces x = 0. QED
Los operadores autoadjuntos y unitarios se caracterizan de forma similar:
Proposicion 6.2.2 En las condiciones de la proposici on anterior, si los escalares
1
, . . . ,
r
son reales,
A es autoadjunto.
Demostracion. De acuerdo con la primera proposici on A es normal. Al tener todos sus autovalores
reales es autoadjunto. QED
Proposicion 6.2.3 Si los escalares
1
, . . . ,
r
son de m odulo 1, A es unitario.
6.2.1. C alculo de proyectores ortogonales
Ya hemos estudiado como calcular un proyector conociendo una base ortonormal del subespacio sobre
el que proyecta. Si e
1
, . . . , e
n
es una base ortonormal del espacio V y u
1
, . . . , u
n
es una base ortonormal
de autovectores del operador A, los espacios V
i
, i = 1, . . . , n estar an generados por los vectores:
V
1
= linu
1
, . . . , u
n1
(6.1)
V
2
= linu
n1+1
, . . . , u
n1+n2
(6.2)
. . . (6.3)
V
r
= linu
n1++nr1+1
, . . . , u
n
(6.4)
donde n
i
es la dimension del espacio V
i
. Por tanto, el proyector P
i
sobre el subespacio
V
i
= linu
n1++ni1+1
, . . . , u
n1++ni1+ni
,
se puede calcular como:
P
i
=
n1++ni
k=n1++ni1+1
U
k
U
+
k
,
122 CAP
k=n1++ni1+1
(u
k
, x)u
k
.
En esta notaci on se tiene:
I
n
=
n
i=1
U
i
U
+
i
,
la descomposicion espectral de la identidad, y
/ =
n
i=1
i
U
i
U
+
i
,
la descomposicion espectral del operador A (o de su matriz / en la base e
i
).
Existen otras formas de calcular proyectores ortogonales. Veremos una de ellas que usa los polinomios
interpoladores de Lagrange.
Proposicion 6.2.4 Sea V un espacio vectorial complejo de dimensi on nita con un producto escalar.
Sea A un operador normal en V y A =
n
i=1
i
P
i
su descomposici on espectral. Entonces, los proyectores
ortogonales P
i
son iguales a:
P
i
=
i
(A), i = 1, . . . , r
donde los polinomios p() vienen denidos por:
i
() =
(
1
) (
i1
)(
i+1
) (
r
)
(
i
1
) (
i
i1
)(
i
i+1
) (
i
r
)
, i = 1, . . . , r
Demostracion. Se tiene:
i
() =
j=i
j
i
j
,
i
(A) =
j=i
A
j
1
V
i
j
Pero no es difcil calcular el valor de estos polinomio sobre A:
i
(A) =
i
(
n
j=1
j
P
j
) =
n
j=1
i
(
j
)P
j
debido a las propiedades de los proyectores ortogonales.
Como:
i
(
j
) =
ij
se obtiene el resultado buscado. QED
De la demostraci on anterior se deduce que para cualquier polinomio p(), el valor que toma sobre el
operador A es:
p(A) =
n
j=1
p(
j
)P
j
Se puede extender a funciones analticas (es decir, que admiten un desarrollo en serie que es convergente
en un entorno del punto considerado):
f(A) =
n
j=1
f(
j
)P
j
lo que permite calcular valores de funciones sobre operadores (normales).
6.3. OPERADORES EN ESPACIOS VECTORIALES REALES CON PRODUCTO ESCALAR 123
6.3. Operadores en espacios vectoriales reales con producto es-
calar
Las mismas cuestiones que se suscitaron en relacion con los espacios complejos dotados de un producto
escalar seran estudiadas aqu. Como veremos, las dicultades principales provienen del hecho que no todo
operador en un espacio real posee autovalores (se entiende reales). La extension del cuerpo base (noci on
que se puede denir rigurosamente) a los n umeros complejos, permitira aligerar esta seccion. Sin embargo
nos mantendremos en el campo real en todo lo posible.
6.3.1. El operador transpuesto
En analoga con el operador adjunto, deniremos aqu el operador transpuesto. Es este un nombre ya
usado en relaci on con el espacio dual. De hecho, utilizando el teorema de Riesz-Frechet, ambos conceptos
coinciden. Sin embargo, para evitar problemas de interpretaci on el operador transpuesto se entender a en
la forma que sigue.
Denicion 6.3.1 Sea V un espacio vectorial real con producto escalar, y A un operador en V . Se dene
el operador transpuesto de A, A
t
como el unico operador que verica:
(x, Ay) = (A
t
x, y)
Para demostrar la existencia y unicidad de este operador, basta aplicar el teorema de Riesz-Frechet,
tal y como hicimos en el caso complejo para el operador adjunto.
Las propiedades del operador transpuesto son similares a las del adjunto:
1) (A
t
)
t
= A
2) (A+ B)
t
= A
t
+B
t
3) (A)
t
= A
t
4) (AB)
t
= B
t
A
t
6.3.2. Representaci on matricial del operador transpuesto
Queremos obtener la representacion matricial del operador transpuesto A
t
dada la del operador A.
Sea V un espacio vectorial real de dimensi on nita dotado de un producto escalar y B = u
1
, . . . , u
n
i=1
a
ji
u
j
, i = 1, . . . , n
De lo estudiado para la expresi on de los elementos de matriz del operador A se tiene:
a
ij
= (u
i
, Au
j
)
y si /
ij
= (u
i
, A
t
u
j
)
como
(u
i
, Au
j
) = (A
t
u
i
, u
j
) = (u
j
, A
t
u
i
)
se concluye:
a
ij
= a
ji
es decir:
/
= /
t
la matriz del operador transpuesto es la matriz transpuesta del operador de partida cuando la base es
ortonormal. El smbolo
t
denota tanto el operador transpuesto como la matriz transpuesta.
124 CAP
i=1
(u
i
, A
t
u
k
)u
i
=
n
i=1
(Au
i
, u
k
)u
i
=
n
i=1
i
(u
i
, u
k
)u
i
=
n
i=1
ik
u
i
=
k
u
k
y por lo tanto,
A
t
= A
QED
Las matrices que intercambian las bases ortonormales son ortogonales (la demostracion es identica a
la hecha en el caso complejo). Se tiene el resultado siguiente para matrices:
Teorema 6.3.3 Toda matriz simetrica (real) es diagonalizable por una transformaci on ortogonal.
Demostracion. Una matriz simetrica se puede considerar como la matriz de un operador simetrico en
una base ortonormal. Pasando a la base ortonormal de autovectores la matriz que representa al operador
es ahora diagonal y la matriz de cambio de base es ortogonal:
T
t
/T
es diagonal. QED
126 CAP
, d = sen
+ sen cos
= 0
sen( +
) = 0
es decir,
= o
=
En el primer caso, la matriz del operador es:
/ =
_
cos sen
sen cos
_
es decir, el tipo 1).
En el segundo caso:
/ =
_
cos sen
sen cos
_
En el primer caso no hay ning un vector invariante (salvo, obviamente el vector cero). Se trata de
una rotaci on de angulo en sentido antihorario (positivo). Su determinante es igual a 1. Toda matriz
ortogonal 2 2 de determinante igual a 1 tiene esta forma (con distintos valores de ) en cualquier base
ortogonal.
Sin embargo, la segunda matriz tiene un vector invariante con autovalor igual a 1 (o el operador
correspondiente):
det
_
cos sen
sen cos
_
=
2
1 = 0
tiene como soluciones = 1. Sea u
1
el autovector de autovalor 1 y norma 1:
Au
1
= u
1
Escojamos un vector unitario, u
2
, ortogonal a u
1
. Estos dos vectores son l.i. y forman una base ortogonal
en V . En ella la matriz de A tiene la forma:
_
1
0
_
debido a que u
1
es autovector de autovalor 1. Pero esta matriz debe ser ortogonal (y tener determinate
igual a 1). Por lo tanto, = 1 y = 0. Es decir, el segundo vector (elegido como ortogonal a u
1
) es
justamente el autovector de autovalor 1. En este caso, tenemos una base ortonormal de autovectores del
operador A. Esta es la segunda de las formas canonicas de las que habla la proposici on. En la base u
1
, u
2
se observa que este operador representa una reexi on. Hay una recta que permanece invariante (punto
a punto) la asociada al autovector u
1
. El resto de vectores sufre una reexi on con respecto a esta recta
(en particular el u
2
que simplemente cambia de signo). Toda matriz ortogonal (2 2) de determinante
negativo es el producto de una matriz que representa una rotacion (con determinante positivo) por la
matriz de la segunda forma can onica que aparece en la proposici on. QED
128 CAP
E) y magneti-
co (
= 4j
= 0
donde F
es el llamado tensor del campo electromagnetico. Sus componentes, es decir, los valores de F
(y F
, que son distintos como estudiaremos mas adelante), cuando los ndices recorren los valores
0, 1, 2, 3 (n otese que empezamos a numerar en 0), son los siguientes:
F
00
= F
11
= F
22
= F
33
= F
00
= F
11
= F
22
= F
33
= 0
131
132 CAP
ITULO 7. TENSORES
F
01
= F
10
= F
01
= F
10
= E
x
F
02
= F
20
= F
02
= F
20
= E
y
F
03
= F
30
= F
03
= F
30
= E
z
F
12
= F
21
= F
12
= F
21
= B
z
F
31
= F
13
= F
31
= F
13
= B
y
F
23
= F
32
= F
23
= F
32
= B
x
que se pueden disponer como una matriz:
F
=
_
_
_
_
0 E
x
E
y
E
z
E
x
0 B
z
B
y
E
y
B
z
0 B
x
E
z
B
y
B
x
0
_
_
_
_
, F
=
_
_
_
_
0 E
x
E
y
E
z
E
x
0 B
z
B
y
E
y
B
z
0 B
x
E
z
B
y
B
x
0
_
_
_
_
Ademas,
0
=
t
,
1
=
x
,
2
=
y
,
3
=
z
y j
0
= , j
1
= j
x
, j
2
= j
y
, j
3
= j
z
. En la notaci on
E,
B, ,
E = 4
E
t
B = 4
j
La segunda es:
B = 0
B
t
+
E = 0
Las ventajas de utilizar el objeto F
i=1
m
i
v
2
i
Si el solido gira en torno a un eje (supongamos que no hay movimiento de traslaci on) de vector unitario
e (constante), podemos denir una velocidad angular, (en la direcci on del eje de rotaci on) tal que:
v
i
= r
i
, i = 1, . . . , n
El momento angular de una de las partculas es m
i
r
i
v
i
y el total es la suma:
L =
n
i=1
m
i
r
i
v
i
Sustituyendo v
i
de la expresi on anterior:
L =
n
i=1
m
i
r
i
( r
i
)
7.1. UNA JUSTIFICACI
ON 133
y operando:
L =
n
i=1
m
i
([r
i
[
2
(r
i
. )r
i
)
Escribamos las coordenadas de r
i
y en un sistema de referencia ortonormal como:
r
i
= (x
i1
, x
i2
, x
i3
), = (
1
,
2
,
3
)
Entonces, el momento angular se escribe en coordenadas como:
L
k
=
3
j=1
n
i=1
m
i
(
k
[r
i
[
2
x
ik
x
ij
j
) =
3
j=1
j
n
i=1
m
i
(
kj
[r
i
[
2
x
ik
x
ij
), k = 1, 2, 3
y si denimos:
I
kj
=
n
i=1
m
i
(
kj
[r
i
[
2
x
ik
x
ij
)
podemos escribir:
L
k
=
3
j=1
I
kj
j
Se llama tensor de inercia a un objeto cuyas componentes en el sistema de referencia en el que estamos
trabajando son I
ij
. Los valores explcitos que toman estas componentes son:
I
11
=
n
i=1
m
i
(x
2
i2
+x
2
i3
) I
22
=
n
i=1
m
i
(x
2
i1
+ x
2
i3
) I
33
=
n
i=1
m
i
(x
2
i1
+x
2
i2
)
I
12
= I
21
=
n
i=1
m
i
x
i1
x
i2
I
13
= I
31
=
n
i=1
m
i
x
i1
x
i3
I
23
= I
32
=
n
i=1
m
i
x
i2
x
i3
que corresponden a los momentos de inercia respecto a los ejes coordenados y a los opuestos de los
productos de inercia.
La energa cinetica de rotacion del sistema es:
T =
1
2
3
i=1
L
i
i
=
1
2
3
i,j=1
I
ij
j
que resulta ser una forma cuadr atica en la velocidad angular.
Los cambios de coordenadas en este sistema vienen dados por transformaciones entre bases ortonor-
males (en el producto escalar usual de IR
3
) que preservan la orientaci on, es decir por rotaciones (adem as
de por traslaciones, que no son lineales y no ser an tratadas aqu). Uno puede imaginar transformaciones
de coordenadas mas generales, pero, dado que trabajamos con un solido rgido, estas deben conservar
angulos, distancias y orientaci on.
Si R es la matriz de la rotacion:
x
ij
=
3
k=1
R
jk
x
ik
Las nuevas componentes del tensor de inercia son:
I
kj
=
n
i=1
m
i
(
kj
[r
i
[
2
x
ik
x
ij
)
y sustituyendo:
I
kj
=
n
i=1
m
i
(
kj
[r
i
[
2
l,s=1
R
kl
R
js
x
il
x
is
)) =
3
l,s=1
R
kl
R
js
_
n
i=1
m
i
(
kj
[r
i
[
2
x
il
x
is
_
=
3
l,s=1
R
kl
R
js
I
ls
134 CAP
ITULO 7. TENSORES
Esta regla de trasformaci on para el tensor de inercia es la que justica el nombre de tensor dado a
este conjunto de cantidades I
ij
.
7.2. Aplicaciones multilineales
Consideremos los espacios vectoriales E
1
, . . . , E
n
, F sobre un cuerpo IK, y una aplicaci on :
: E
1
E
n
F
que verica:
(v
1
, . . . , v
i
+
i
, . . . , v
n
) = (v
1
, . . . , v
i
, . . . , v
n
) +
(v
1
, . . . , v
i
, . . . , v
n
)
para cualquier ndice i = 1, . . . , n, ,
IK.
Se dice que es una aplicaci on multilineal.
Supongamos que los espacios E
i
, F, i = 1, . . . , n son de dimension nita y que B
i
= u
(i)
1
, . . . , u
(i)
di
son bases de E
i
respectivamente y B = u
1
, . . . , u
d
es una base de F. Veamos como se puede escribir la
aplicaci on multilineal referida a estas bases:
(v
1
, . . . , v
n
) = (
d1
i1=1
x
(1)
i1
u
(1)
i1
, . . . ,
dn
in=1
x
(n)
in
u
(n)
in
) =
d1
i1=1
dn
in=1
x
(1)
i1
. . . x
(n)
in
(u
(1)
i1
, . . . , u
(n)
in
)
Es decir, la aplicaci on multilineal queda determinada por el valor que toma sobre las bases de los espacios
E
i
. La expresi on (u
(1)
i1
, . . . , u
(n)
in
) representa un vector de F, que se podr a escribir en la base de F dada:
(u
(1)
i1
, . . . , u
(n)
in
) =
d
i=1
t
i1...ini
u
i
y por tanto:
(v
1
, . . . , v
n
) =
d1
i1=1
dn
in=1
d
i=1
t
i1...ini
x
(1)
i1
. . . x
(n)
in
u
i
Estos valores t
i1...ini
son un conjunto de d
1
. . . d
n
d escalares, que, obviamente, dependen de las bases
elegidas.
Si cambiamos las bases, la expresi on de cambiar a. Sean P
1
, . . . , P
n
las matrices de cambio de base
en cada uno de los espacios vectoriales considerados, que pasan de B
i
a B
i
. Es decir:
x
(i)
ji
=
di
ki=1
(P
1
i
)
jiki
x
(i)
ki
, i = 1, . . . , n
y tambien, en el espacio F, el cambio de base de B a B
es:
u
i
=
d
j=1
P
ji
u
j
Sustituyendo en la expresi on de :
(v
1
, . . . , v
n
) =
d1
i1=1
dn
in=1
d
i=1
t
i1...ini
x
(1)
i1
. . . x
(n)
in
u
i
=
d1
i1=1
dn
in=1
d
i=1
t
i1...ini
d1
j1=1
(P
1
1
)
i1j1
x
(1)
j1
. . .
dn
jn=1
(P
1
n
)
injn
x
(n)
jn
d
j=1
P
ji
u
j
=
d1
j1=1
dn
jn=1
d
j=1
_
d1
i1=1
dn
in=1
d
i=1
(P
1
1
)
i1j1
. . . (P
1
n
)
injn
P
ji
t
i1...ini
_
x
(1)
j1
. . . x
(n)
jn
u
j
7.3. COORDENADAS 135
y por lo tanto:
t
j1...jnj
=
d1
i1=1
. . .
dn
in=1
d
i=1
(P
1
1
)
i1j1
. . . (P
1
n
)
injn
P
ij
t
i1...ini
Como se ve, la transformacion guarda un cierto parecido con la encontrada para el tensor de inercia
de nuestro primer ejemplo. Concretamente, si tenemos dos espacios E
i
y el espacio F es igual al cuerpo
IK, la transformaci on es:
t
j1j2
=
d1
i1=1
d2
i2=1
(P
1
1
)
i1j1
(P
1
2
)
i2j2
t
i1i2
Las diferencias que se observan seran explicadas m as adelante.
7.3. Coordenadas
7.3.1. Coordenadas contravariantes y covariantes
En muchas de las aplicaciones de la teora de tensores se trabaja con espacios en los que hay denido
un producto escalar. Adem as, todos los espacios E
i
son iguales a un espacio vectorial V . Supongamos
ademas que el espacio F es el cuerpo IK. Con esto, las aplicaciones multilineales (formas multilineales)
de las que habl abamos en la seccion anterior, son ahora:
: V V IK
y en una base de V , B = u
1
, . . . u
n
, se escriben como:
(v
1
, . . . , v
n
) =
d1
i1=1
dn
in=1
t
i1...in
x
i1
(1)
. . . x
in
(n)
Notese que hemos colocado en alto los ndices de las coordenadas de los vectores v
i
, es decir:
v
i
=
di
j=1
x
j
u
j
= x
j
u
j
expresion en la que hemos introducido una simplicaci on (convenio de Einstein). Suprimimos los signos
de suma, y suponemos que cuando dos ndices son iguales en una expresi on y uno est a arriba y otro
abajo, hay una suma implcita sobre el rango correspondiente:
(v
1
, . . . , v
n
) = t
i1...in
x
i1
(1)
. . . x
in
(n)
Mientras nos acostumbramos a este convenio, usaremos el signo de suma de vez en cuando.
Como hemos dicho, suponemos que en V hay un producto escalar, de manera, que en, por ejemplo,
la base que estamos considerando, se tiene:
(u
i
, u
j
) = g
ij
, i, j = 1, . . . , n
pudiendo escribir g
ij
como una matriz, cuyo determinante es distinto de cero. Asociada a esta base, vamos
a introducir otra, la base recproca, B
r
= u
1
, . . . , u
n
, que verica:
(u
i
, u
j
) =
i
j
, i, j = 1, . . . , n
La base recproca est a determinada unvocamente por la base de partida. En efecto, escrita en la base
de partida:
u
i
=
n
k=1
ki
u
k
136 CAP
ITULO 7. TENSORES
y multiplicando por u
k
se tiene:
(u
i
, u
j
) =
n
k=1
ki
(u
k
, u
j
) =
n
k=1
ki
g
kj
=
i
j
tenemos pues un sistema en el que las incognitas son
ij
y la matriz de coecientes es g
ij
, luego el sistema
tiene solucion unica. Desde el punto de vista de representaci on matricial, la matriz de los coecientes
ij
es la inversa (transpuesta) de la matriz correspondiente a g
ij
, y la llamaremos:
ij
= g
ij
.
Se tiene la identidad:
g
ki
g
kj
=
i
j
Buscamos ahora la relacion que existe entre las coordenadas en una base y en su recproca. Este es
un problema trivial de cambios de base. Sea v V , tal que:
v =
n
i=1
x
i
u
i
=
n
i=1
x
i
u
i
Entonces, si u
i
= g
ji
u
j
:
x
i
= g
ik
x
k
, x
i
= g
ik
x
k
Las coordenadas en la base de partida se llaman coordenadas contravariantes del vector. Las coorde-
nadas en la base recproca se llaman coordenadas covariantes. Obviamente, hay que jar una base para
empezar a discutir estos terminos.
Si los vectores de la base tienen norma unidad, las coordenadas contravariantes se obtienen trazando
las paralelas a estos vectores (en la forma usual en que se descompone un vector como suma de otros
dos), mientras que las coordenadas covariantes se obtienen trazando las perpendiculares a los vectores
que forman la base.
Nota. Si la base de partida es una base ortonormal, g
ij
=
ij
, la base recproca coincide con
la de partida y las coordenadas contravariantes y covariantes son iguales.
Supongamos ahora que cambiamos la base B a una base B
r
. Sea:
u
i
= P
j
i
u
j
el cambio de base. Para la base recproca se tendra:
u
i
= g
ji
u
j
= g
ji
P
k
j
u
k
= g
ji
P
k
j
g
mk
u
m
= Q
i
m
u
m
donde g
ij
es la matriz del producto escalar en la base B
:
Q
i
m
= g
mk
P
k
j
g
ji
Pero no es difcil darse cuenta que estas dos matrices P y Q son transpuestas inversas una de la otra:
l
m
= (u
l
, u
m
) = (Q
l
i
u
i
, P
k
m
u
k
) = Q
l
i
P
k
m
(u
i
, u
k
) = Q
l
i
P
k
m
i
k
es decir,
Q
l
i
P
i
m
=
l
m
Todo lo anterior se puede establecer en terminos de matrices. La unica justicaci on para emplear
ndices aqu es la facilidad con que se extienden estas nociones al caso de tensores arbitrarios (con mas
de uno o dos ndices). Sean G, G
1
, G
, G
1
las matrices del producto escalar en las bases B, B
r
, B
, B
r
respectivamente. Sea P la matriz del cambio de base de B a B
) y Q la de B
r
a B
r
. De acuerdo con lo que hemos
7.3. COORDENADAS 137
visto, G es tambien la matriz de cambio de base de B a B
r
y G
la del cambio de B
a B
r
. El siguiente
diagrama puede contribuir a aclarar la situaci on:
B
P
B
G
G
B
r
Q
B
r
de donde se deduce que la matriz:
G
P = QG
es la de cambio de base de B a B
r
. Por tanto, como al mismo tiempo la matriz G es la de una forma
bilineal, su cambio es:
G
= (P
1
)
t
GP
1
es decir:
G
P = (P
1
)
t
G = QG
de donde:
Q = (P
1
)
t
como queramos probar.
Las coordenadas contravariantes y covariantes no cambian de la misma manera al cambiar la base
(se entiende, como hemos visto, que solo hay un cambio de base, de B a B
i
= (P
1
)
j
i
x
j
Nota. En todo lo anterior, lo fundamental ha sido el hecho de que el producto escalar es una
forma bilineal no degenerada. Por ejemplo, no hemos hecho uso de ser denido positivo (salvo
cuando hemos hablado de bases ortonormales). Por tanto lo anterior se puede hacer tambien
con formas bilineales no degeneradas, lo que permite usar estos conceptos cuando no hay un
producto escalar estricto, como en relatividad especial.
Veamos un ejemplo en IR
2
para ilustrar estas ideas.
Ejemplo 7.3.1 Sea la base de IR
2
(con el producto escalar usual):
B =
_
u
1
=
_
1
1
_
, u
2
=
_
1
0
__
que no es ortonormal. La matriz del producto escalar (y su inversa) en esta base es:
G =
_
2 1
1 1
_
, G
1
=
_
1 1
1 2
_
es decir:
g
11
= 2, g
12
= g
21
= 1, g
22
= 1, g
11
= 1, g
12
= g
21
= 1, g
22
= 2
La base recproca se obtiene imponiendo la condici on: (u
i
, u
j
) =
i
j
:
B
r
=
_
u
1
=
_
0
1
_
, u
2
=
_
1
1
__
o, directamente:
u
1
= g
11
u
1
+ g
21
u
2
, u
2
= g
12
u
1
+g
22
u
2
La relacion entre coordenadas contravariantes y covariantes es:
_
x
1
= x
1
x
2
x
2
= x
1
+ 2x
2
138 CAP
ITULO 7. TENSORES
Si ahora pasamos a una nueva base:
B
=
_
u
1
=
_
1
1
_
, u
2
=
_
1
2
__
, B
r
=
_
u
1
=
_
2/3
1/3
_
, u
2
=
_
1/3
1/3
__
La matriz del producto escalar en estas bases es:
G
=
_
2 1
1 5
_
, (G
)
1
=
_
5/9 1/9
1/9 2/9
_
y la matriz de cambio de base (de B a B
, y de B
r
a B
r
) es:
P =
_
1/3 2/3
2/3 1/3
_
, Q =
_
1 2
2 1
_
siendo Q la inversa transpuesta de P. Se pueden comprobar las relaciones:
G
P = QG, G
= (P
1
)
t
GP
1
Como ejemplo concreto de coordenadas de un vector, sea:
x =
_
1
1
_
IR
2
Sus coordenadas en las diferentes bases usadas, aparecen en la siguiente tabla:
B B
r
B
r
Contravariantes 2, 1 4/3, 5/3
Covariantes 5, 3 1, 7
7.3.2. Coordenadas en relatividad especial
Seg un los postulados de la relatividad especial, la velocidad de la luz es una constante en todos los
sistemas inerciales, y el intervalo fundamental, la cantidad que se conserva al cambiar de sistema inercial,
es:
c
2
t
2
r
2
donde c es la velocidad de la luz, que escogeremos igual a 1.
Supongamos un sistema unidimensional. Para describir sus coordenadas espacio-temporales, usaremos
un vector de IR
2
, x = (x
0
, x
1
), dado por sus coordenadas en una base e
0
, e
1
. Las transformaciones de
coordenadas admisibles en este espacio, desde un punto de vista de la teora que estamos estudiando son
las que dejan invariantes la forma bilineal simetrica no degenerada:
(x, y) = x
0
y
0
x
1
y
1
que, sin embargo, no es un producto escalar, pues no es denida positiva. Esta forma bilineal tiene en la
base que estamos considerando, la siguiente representacion matricial:
g
00
= 1, g
01
= g
10
= 0, g
11
= 1
y el intervalo fundamental es:
(x, y) = g
Diremos que una base es ortonormal respecto esta forma bilineal si la representaci on matricial es la
dada (diagonal (1, 1)).
Calculemos las transformaciones lineales (homogeneas) que dejan invariantes la forma bilineal (es
decir, que cambian las bases ortonormales entre s).
Sea:
=
_
0
0
0
1
1
0
1
1
_
7.3. COORDENADAS 139
la matriz de una transformaci on lineal en IR
2
en la base canonica. Si la forma bilineal anterior es invariante
bajo esta transformaci on, entonces:
t
K = K
donde:
K =
_
1 0
0 1
_
es la matriz de la forma bilineal.
Las ecuaciones que verica son:
(
0
0
)
2
(
1
0
)
2
= 1, (
1
1
)
2
(
0
1
)
2
= 1,
0
0
0
1
1
0
1
1
= 0
Podemos parametrizar los coecientes de la matriz por:
0
0
= cosh t,
1
0
= senh t,
0
1
= senh t,
1
1
= cosh t
donde = 1, = 1.
Este conjunto de matrices forma un grupo, L, que llamaremos el grupo de Lorentz en 1 + 1 (una
dimension temporal y otra espacial). Como se ve det = 1 y [
0
0
[ 1. Se divide en cuatro subconjuntos
seg un los valores del determinante y de la componente
0
0
:
L
+
= L [ det = 1,
0
0
1
L
+
= L [ det = 1,
0
0
1
L
= L [ det = 1,
0
0
1
L
= L [ det = 1,
0
0
1
El primer subconjunto, Ll
+
es un subgrupo de L, el subgrupo ortocrono propio, y consiste en las
transformaciones que dejan invariantes el sentido del tiempo y no cambian la orientaci on del espacio. Al
segundo pertenece la transformaci on:
P =
_
1 0
0 1
_
que cambia la coordenada espacial por su negativa (paridad). Al cuarto pertenece:
T =
_
1 0
0 1
_
que cambia la coordenada temporal por su negativa (inversi on temporal).
Este tipo de transformaciones ser an los cambios de base (los cambios de sistema de referencia) admi-
sibles. Las leyes de la fsica, de acuerdo con el principio de relatividad tendr an la misma forma en todos
los sistemas relacionados por las matrices del grupo L (sistemas inerciales).
Aunque no dispongamos de un producto escalar, podemos denir una base recproca de la B =
u
0
, u
1
:
B
r
= u
0
, u
1
= (x
0
, x
1
) (coordenadas contravariantes) y en la base recproca x
= (x
0
, x
1
) (coordenadas
covariantes) es:
x
= g
es decir:
x
0
= x
0
, x
1
= x
1
140 CAP
ITULO 7. TENSORES
El vector posici on es un vector contravariante de forma natural, escrito en la base de partida. Sin
embargo consideremos el siguiente objeto:
= (
0
,
1
)
donde:
=
x
El colocar los ndices como subndices viene dado por la siguiente ley de transformaci on. Supongamos
que cambiamos de sistema inercial de acuerdo con la expresion:
x
donde es una de las transformaciones admisibles de las que hablamos antes. Entonces:
=
x
= (
1
)
que es, como hemos dicho antes, la transformacion de las coordenadas covariantes.
Esta expresion se puede escribir tambien de la siguiente forma. De acuerdo con la restriccion que
verica :
t
K = K
de donde:
(
1
)
t
= KK
1
o, en coordenadas:
(
1
)
= g
De esta forma, podemos decir que el vector posici on se transforma de manera contravariante, mientras el
vector gradiente lo hace de forma covariante.
Volveremos mas tarde a este ejemplo.
7.4. Espacios vectoriales y sus duales
No siempre dispondremos de un producto escalar en un espacio vectorial para poder denir coorde-
nadas contravariantes y covariantes. Pero es muy frecuente en el estudio de lo que llamaremos tensores,
la aparici on de formas lineales (es decir, de aplicaciones del espacio vectorial en el cuerpo). Supongamos
que tenemos una aplicaci on multilineal de un producto V V V V
V
V
en el cuerpo
IK donde est a construido V , siendo V
el espacio dual de V .
Nota. El espacio nal puede ser otro espacio vectorial y no necesariamente el cuerpo IK. Pero
aqu nos limitaremos a este caso.
Seg un hemos visto antes, seleccionando bases en los espacios vectoriales que forman el producto
cartesiano, es posible denir un conjunto de coordenadas asociada a la aplicaci on multilineal (o forma
multilineal, si se quiere). En este caso particular que estamos tratando, consideremos una base B =
u
1
, . . . , u
n
de V y su base dual en V
: B
= u
1
, . . . , u
n
con la propiedad ya conocida:
u
i
(u
j
) =
i
j
similar a la que usamos para denir las bases recprocas. N otese que aqu las bases B y B
lo son de
diferentes espacios.
7.5. PRODUCTO TENSORIAL 141
Supongamos que hacemos simultaneamente los cambios de base:
u
i
=
n
j=1
P
j
i
u
j
, u
i
=
n
j=1
(P
1
)
i
j
u
j
lo que asegura que las nuevas bases tambien son duales una de la otra, como ya sabemos:
u
i
(u
j
) =
n
k=1
P
i
k
u
k
(
n
l=1
(P
1
)
l
j
u
l
) =
n
k=1
P
i
k
n
l=1
(P
1
)
l
j
u
k
(u
l
)
=
n
k=1
n
l=1
P
i
k
(P
1
)
l
j
k
l
=
n
k=1
P
i
k
(P
1
)
k
j
=
i
j
Por tanto, las coordenadas contravariantes (asociadas a vectores del espacio inicial) se transforman con
P mientras que las covariantes (asociadas a vectores del espacio dual) se transforman con la transpuesta
inversa de P.
Como podemos relacionar esta denicion con la dada anteriormente para las bases recprocas? Su-
pongamos que tenemos en V un producto escalar (necesario para poder denir la base recproca). Sea
B
r
= u
1
, . . . , u
n
la base recproca de B. Seg un el teorema de Riesz-Frechet, si es una forma lineal,
existe un unico vector x
de V tal que:
(y) = (x
, y), y V
Dada una forma de la base dual, u
i
, veamos cual es su correspondiente vector en V :
u
i
(y) = (v
i
, y), y V
Usando y = u
k
:
u
i
(u
k
) = (v
i
, u
k
) =
i
k
que es justamente la denicion de la base recproca, por lo que la correspondencia (el isomorsmo entre
el espacio dual y el espacio de partida proporcionado por el teorema de Riesz-Frechet) es:
u
i
u
i
Es decir, las coordenadas (covariantes) de una forma en el espacio dual, son las coordenadas covariantes
del vector correspondiente (seg un Riesz-Frechet) en el espacio de partida (en la base recproca). Si hay un
producto escalar, ambos conceptos coinciden. En el caso de que no lo haya, se entender an las coordenadas
covariantes como las de las formas en la base dual. Como hemos dicho antes, este resultado se extiende
al caso en el que tengamos una forma bilineal simetrica no degenerada (como en relatividad).
7.5. Producto tensorial
Introducimos en esta seccion una denici on formal de producto tensorial. Los conceptos que aqu apa-
recen son de dicultad superior al resto de los temas, por lo que pueden suprimirse en una primera
lectura.
7.5.1. Denici on de producto tensorial
En esta secci on discutiremos la relaci on entre aplicaciones multilineales y tensores, bas andonos en una
denici on m as rigurosa del concepto de tensor.
Sean V
1
, . . . , V
n
espacios vectoriales de dimension nita sobre un cuerpo IK. Se consideran las aplica-
ciones multilineales:
: V
1
V
n
W
donde W es otro espacio vectorial sobre IK. Es decir, se tienen los pares (, W) formados por una
aplicaci on multilineal y el espacio de llegada.
142 CAP
ITULO 7. TENSORES
Dadas dos parejas (, W) y (
, W
tal que: f =
:
V
1
V
n
W
W
La respuesta es que no siempre es as. Sin embargo, se puede demostrar que existe una pareja (, T ),
que verica: dada cualquier aplicaci on multilineal, : V
1
V
n
W, existe una unica aplicaci on
lineal,
: T W, tal que:
=
A esta aplicacion multilineal, (o al espacio T ) se le llama producto tensorial de los espacios
V
1
, . . . , V
n
. Aunque no entraremos en detalles, el espacio tensorial es unico (salvo isomorsmo).
La correspondencia entre las aplicaciones multilineales y las aplicaciones lineales
es unica. Por
eso, el espacio producto tensorial sustituye en cierto sentido al espacio producto cartesiano y transforma
las aplicaciones multilineales de V
1
V
n
en W en aplicaciones lineales de T en W.
7.5.2. Construcci on del producto tensorial
En esta secci on construiremos explcitamente un modelo de producto tensorial. Para ello, se considera
el espacio vectorial libre sobre el conjunto de generadores V
1
V
n
. Es decir, todos los elementos de este
conjunto se consideran linealmente independientes y, usando el cuerpo IK, se construyen sus combinaciones
lineales para dar lugar a un espacio vectorial, que llamaremos M. Para aclarar la situaci on, si (x
1
, . . . , x
n
)
e (y
1
, . . . , y
n
) son elementos de V
1
V
n
, entonces, (x
1
, . . . , x
n
), (y
1
, . . . , y
n
) y (x
1
+y
1
, . . . , x
n
+y
n
)
son elementos de M, sin que el ultimo sea la suma de los dos primeros, siendo por tanto diferente de
(x
1
, . . . , x
n
) + (y
1
, . . . , y
n
).
Dado que no utilizaremos esta notacion en el futuro, no insistiremos aqu sobre ella. Baste decir
que tendremos que indicar si trabajamos en el producto cartesiano o en M, para saber como son las
propiedades de sus elementos, ya que los escribimos igual.
Consideremos en M el subespacio vectorial generado por todos los elementos de M de la forma:
(x
1
, . . . , x
i
+ x
i
, . . . , x
n
) (x
1
, . . . , x
i
, . . . , x
n
) (x
1
, . . . , x
i
, . . . , x
n
)
(x
1
, . . . , x
i
, . . . , x
n
) (x
1
, . . . , x
i
, . . . , x
n
)
y el espacio vectorial cociente M/N.
La inclusi on i: V
1
V
n
M no es una aplicaci on lineal, pero la composici on de i con la proyecci on:
: M M/N, = i es una aplicaci on multilineal:
(x
1
, . . . , x
n
) = [x
1
, . . . , x
n
] M/N
En efecto:
(x
1
, . . . , x
i
+x
i
, . . . , x
n
) = [x
1
, . . . , x
i
+x
i
, . . . , x
n
] = [x
1
, . . . , x
i
, . . . , x
n
] + [x
1
, . . . , x
i
, . . . , x
n
]
= (x
1
, . . . , x
i
, . . . , x
n
) +(x
1
, . . . , x
i
, . . . , x
n
)
(x
1
, . . . , x
i
, . . . , x
n
) = [x
1
, . . . , x
i
, . . . , x
n
] = [x
1
, . . . , x
i
, . . . , x
n
] = (x
1
, . . . , x
i
, . . . , x
n
)
Ya tenemos un par (, M/N) de los que estamos estudiando. Consideremos otro par cualquiera (, W)
y busquemos una aplicaci on lineal
:
h =
de manera unica.
Como = i, se tiene:
= h i = (
) i =
que es lo que queramos probar (la unicidad de
es una base del producto tensorial. Por tanto, cualquier tensor puede ponerse como:
t =
d1,...,dn
i1=1,...,in=1
t
i1...in
u
(1)
i1
u
(n)
in
144 CAP
ITULO 7. TENSORES
Si se hace un cambio de base en cada uno de los espacios V
i
dado por:
u
(k)
i
=
dk
j=1
P
(k)
ji
u
(k)
j
el cambio en las coordenadas del tensor es:
t
i1...in
=
d1,...,dn
j1=1,...,jn=1
P
(1)
i1j1
. . . P
(n)
injn
t
j1...jn
La propiedad que m as nos interesa aqu para relacionar los tensores con las aplicaciones multilineales
es la siguiente. Sean V
1
, V
2
, V
3
tres espacios vectoriales sobre un cuerpo IK. Se tiene:
L(V
1
, L(V
2
, V
3
)) L
2
(V
1
, V
2
; V
3
) L(V
1
V
2
, V
3
)
donde L son las aplicaciones lineales entre los dos espacios que se muestran y L
2
son las aplicaciones
bilineales del producto cartesiano de los dos primeros espacios en el tercero. Demostremos esta propiedad.
La primera propiedad es muy sencilla. Sea:
: V
1
V
2
V
3
una aplicaci on bilineal. Si jamos x V
1
, podemos construir una aplicaci on lineal:
: V
1
L(V
2
, V
3
), (x) =
x
mediante:
x
: V
2
V
3
,
x
(y) = (x, y)
Entonces, a cada aplicaci on bilineal le hacemos corresponder la aplicacion lineal . Y viceversa,
consideremos una aplicaci on lineal:
: V
1
L(V
2
, V
3
)
Denimos un aplicaci on bilineal de V
1
V
2
en V
3
:
: V
1
V
2
V
3
, (x, y) =
(x)(y)
Esta es la correspondencia inversa de la anterior y por tanto, se da el isomorsmo del que se hablaba.
En cuanto al otro isomorsmo, el que relaciona las aplicaciones bilineales con aplicaciones lineales del
producto tensorial en un espacio vectorial, se trata simplemente de asociar a cada aplicacion bilineal de
V
1
V
2
en V
3
la aplicaci on lineal dada por el car acter universal del producto tensorial:
V
1
V
2
V
1
V
2
V
3
Evidentemente los resultados se generalizan a un n umero arbitrario de espacios y a aplicaciones
multilineales.
7.6. Tensores y aplicaciones multilineales
Hemos visto en las secciones precedentes como a cada aplicacion lineal del producto tensorial en un
espacio vectorial se le puede asignar una aplicaci on multilineal del producto cartesiano en el espacio en
cuestion. Es decir, los tensores no son aplicaciones multilineales, ni se puede establecer un isomorsmo
entre estos dos espacios vectoriales de forma inmediata.
Sin embargo, supongamos que el espacio de llegada de las aplicaciones multilineales en cuesti on, es
el cuerpo IK. Lo que realmente se tiene es un isomorsmo entre las formas multilineales y las formas
lineales del espacio producto tensorial. Como los espacios vectoriales (siempre de dimension nita) y sus
7.7. CAMBIOS DE BASE 145
espacios duales son isomorfos (aunque no sea de forma canonica) se puede establecer una relacion entre
tensores y formas multilineales. Si ademas tenemos un producto escalar, el teorema de Riesz-Frechet
permite establecer este isomorsmo de forma can onica (lo que es tambien cierto aunque la forma bilineal
que genera el producto escalar no sea denida positiva, aunque s no degenerada).
Dado un tensor x
1
x
n
en el espacio producto tensorial V
1
V
n
, y una forma bilineal
simetrica no degenerada en cada uno de los espacios V
k
,
k
, con coordenadas en las bases B
k
de V
k
dadas
por:
k
(u
(k)
i
, u
(k)
j
) = g
(k)
ij
denimos una forma multilineal:
: V
1
V
n
IK
asociada a este tensor mediante:
(y
1
, . . . , y
n
) =
1
(x
1
, y
1
) (x
n
, y
n
)
y podemos trabajar indistintamente con tensores o formas multilineales. Veamos la relaci on entre las
coordenadas de y el tensor t = x
1
x
n
en unas bases dadas de V
1
, . . . , V
n
.
Supongamos que elegimos como tensores t los de una base del espacio tensorial:
t
(i1...in)
= u
(1)
i1
u
(n)
in
La forma bilineal correspondiente aplicada a n vectores de las bases anteriores es:
(i1...in)
(u
(1)
j1
, . . . , u
(n)
jn
) =
1
(u
(1)
i1
, u
(1)
j1
) (u
(n)
in
, u
(n)
jn
) = g
(1)
i1j1
. . . g
(n)
injn
7.7. Cambios de base
Supongamos que en cada uno de los espacios V
i
hacemos un cambio de base como dijimos antes:
u
(k)
i
=
dk
j=1
P
(k)
ji
u
(k)
j
Veamos como cambian las formas multilineales y como cambian los tensores. Sea:
: V
1
V
n
: IK
una forma multilineal, y sea su expresi on en la base de partida:
(x
1
, . . . , x
n
) =
d1,...,dn
i1,,in=1
i1...in
x
(1)
i1
x
(n)
in
donde:
x
k
=
dk
ik=1
x
(k)
ik
u
(k)
ik
, (u
(1)
i1
, . . . , u
(n)
in
) =
i1...in
Bajo el cambio de base,
(x
1
, . . . , x
n
) =
d1,...,dn
i1,,in=1
i1...in
x
(1)
i1
x
(n)
in
=
d1,...,dn
i1,,in=1
i1...in
d1
j1=1
(P
(1)
)
1
i1j1
x
(1)
j1
dn
jn=1
(P
(n)
)
1
injn
x
(n)
jn
y, por lo tanto:
i1...in
=
d1,...,dn
i1,,in=1
i1...in
(P
(1)
)
1
j1i1
(P
(n)
)
1
jnin
(n)
j1...jn
146 CAP
ITULO 7. TENSORES
Si recordamos como cambian las coordenadas de un tensor t V
1
V
n
:
t
i1...in
=
d1,...,dn
j1,...,jn=1
P
(1)
i1j1
. . . P
(n)
injn
t
j1...jn
vemos como unas lo hacen con la matriz de cambio de base y otras con la inversa traspuesta, como era de
esperar dada la dualidad entre estos dos objetos. Si las matrices son ortogonales, el cambio es el mismo
(pues (P
1
)
t
= P). En este sentido, las aplicaciones multilineales (con valores en el cuerpo) son una de
las formas posibles de representar los tensores.
7.8. Denici on de tensores bajo transformaciones
Denicion 7.8.1 (Tensores en un espacio vectorial V ) Un tensor de rango p = r +s, r veces con-
travariante y s veces covariante, denido sobre un IK-espacio vectorial V de dimensi on n, es un objeto
con n
r+s
componentes referidas a una base de V , B y a la base dual en V
i
= (P
1
)
k
i
t
k
Los tensores de tipo (0, 2) son formas cuadraticas (del tipo del tensor de inercia) y su regla de
transformacion es:
t
j1j2
= (P
1
)
l1
j1
(P
1
)
l2
j2
t
l1l2
Si representamos el tensor t
j1j2
por una matriz T, la ley de transformaci on es simplemente:
T
= (P
1
)
t
T(P
1
)
o, llamando Q = P
1
:
T
= Q
t
TQ
una expresi on bien conocida.
Los tensores de tipo (1, 1) son, en un sentido que se puede precisar completamente, isomorfos a
endomorsmos. Aqu nos limitaremos a mostrar la ley de transformacion:
t
i
j
= P
i
k
(P
1
)
l
j
t
k
l
que, escrita como antes en terminos de matrices, se lee:
T
= PTP
1
tambien conocida.
7.9. PROPIEDADES DE LOS TENSORES 147
Ejemplo 7.8.2 En todo espacio de tensores de tipo (1, 1) existe un tensor denido en cualquier base
por:
_
i1
i2
= 1 i
1
= i
2
i1
i2
= 0 i
1
,= i
2
Veamos que es un tensor:
i1
i2
= P
i1
j1
(P
1
)
j2
i2
j1
j2
= P
i1
j1
(P
1
)
j1
i2
=
i1
i2
Se llama el tensor de Kronecker (delta de Kronecker) y aparece constantemente en las operaciones con
tensores.
Sea T
r
s
el conjunto de tensores de rango p = r + s, r veces contravariante y s veces covariantes. Se
suele escribir tambien:
T
r
s
= V V V
V
. El smbolo
se llama producto tensorial, como ya hemos visto.
Pues bien, T
r
s
es un espacio vectorial sobre IK de dimension n
r+s
. Las combinaciones lineales de
tensores de tipo (r, s) (donde la suma se entiende componente a componente y el producto por esca-
lares multiplicando cada componente por el escalar) son tambien tensores de este tipo (como es facil
de demostrar). En cuanto a la dimensi on, basta considerar tensores que tienen en una base dada todas
sus componentes igual a cero salvo una igual a 1. Hay evidentemente n
r+s
tensores de este tipo, son
linealmente independientes y generan todo el espacio T
r
s
.
Sea B = u
1
, . . . , u
n
una base de V y B
= u
1
, . . . , u
n
su base dual. Obviamente, el escalar 1 IK
es una base de T
0
0
IK. La base B lo es de T
1
0
V y B
de T
0
1
V
.
En un espacio T
r
s
la base, que contiene n
r+s
vectores (tensores de rango p = r +s), se designa por:
u
i1
u
ir
u
j1
u
js
y por tanto, un tensor se escribir a como:
t = t
i1...ir
j1...js
u
i1
u
ir
u
j1
u
js
De esta forma, la ley de transformaci on se explica como un cambio de base simultaneo en cada una
de las copias de los espacios V y V
.
7.9. Propiedades de los tensores
Estudiaremos en esta seccion tres propiedades de los tensores de rango arbitrario en un espacio
vectorial V .
7.9.1. Tensores simetricos y antisimetricos
Sea t
i1...ir
j1...js
un tensor de tipo (r, s), y consideremos el objeto que se dene a partir de el mediante una
permutaci on de los ndices contravariantes entre s (o de los covariantes entre s):
t
i1...ir
j1...js
= t
(i1...ir)
j1...js
donde es un elemento del grupo de permutaciones S
r
.:
(i
1
. . . i
r
) = (i
(1)
. . . i
(r)
)
Este objeto
t es tambien un tensor del mismo tipo que t, y en general distinto de t. La demostracion
consiste simplemente en comprobar sus propiedades de transformacion, aunque es bastante laboriosa de
escribir. Veamosla en un caso sencillo, para tensores de tipo (2, 0), y en el caso no trivial, cuando
(1) = 2, (2) = 1
148 CAP
ITULO 7. TENSORES
Entonces:
t
i1i2
= t
i
(1)
i
(2)
= t
i2i1
y la regla de transformaci on es:
t
i1i2
= t
i2i1
= P
i2
j2
P
i1
j1
t
j2j1
= P
i1
j1
P
i2
j2
t
j1j2
lo que demuestra que es un tensor de tipo (2, 0).
Igual se hace para ndices covariantes. Lo que no se puede hacer es permutar un ndice contravariante
con otro covariante. Estos ndices estan referidos a distintas bases (una y su dual) en diferentes espacios
y no tiene sentido la operaci on, no obteniendose un tensor.
Esta operaci on da lugar a las siguientes deniciones.
Denicion 7.9.1 Se dice que el tensor t
i1...ir
de tipo (r, 0) es un tensor simetrico, si para toda operaci on
del grupo S
r
sobre sus ndices contravariantes, el tensor resultante es igual al original.
Evidentemente, la misma denici on se puede establecer para un tensor de tipo (0, s), e incluso para
tensores mixtos (tipo (r, s)), reriendose a cada conjunto de ndices contravariantes y covariantes.
La suma de tensores simetricos de tipo (r, 0) y el producto por escalares de estos tensores lleva a
un tensor del mismo tipo. El conjunto de tensores simetricos es un subespacio vectorial del espacio de
tensores. Si la dimensi on del espacio de tensores T
r
era n
r
, no es difcil probar que la dimensi on del
subespacio de tensores simetricos o
r
es justamente:
_
n +r 1
r
_
Basta simplemente contar las coordenadas independientes.
Ejemplo 7.9.1 Consideremos los tensores simetricos de tipo (2, 0). La ecuacion que verican es:
t
i1i2
= t
i2i1
Si el espacio es IR
3
, la dimensi on de T
2
es 9, y la de estos tensores simetricos es 6.
Los tensores simetricos de tipo (3, 0) verican:
t
i1i2i3
= t
i2i1i3
= t
i3i2i1
= t
i1i3i2
= t
i3i1i2
= t
i2i3i1
En este caso, si el espacio es IR
3
forman un subespacio de dimensi on 10. Y los de tipo (4, 0) tienen
dimension 15.
Las formas bilineales simetricas son un ejemplo de tensores de tipo (0, 2) simetricos (en particular, el
producto escalar).
De forma similar se denen los tensores totalmente antisimetricos.
Denicion 7.9.2 Se dice que el tensor t
i1...ir
de tipo (r, 0) es un tensor totalmente antisimetrico (o
alternado), si, para toda operaci on del grupo S
r
sobre sus ndices contravariantes, se tiene:
t
i
(1)
...i
(r)
= (1)
()
t
i1...ir
donde () es la paridad de la permutaci on.
Los tensores antisimetricos forman tambien un espacio vectorial y la dimensi on es:
_
n
r
_
Veamos algunos ejemplos.
7.9. PROPIEDADES DE LOS TENSORES 149
Ejemplo 7.9.2 El conjunto de tensores antisimetricos de tipo (2, 0) verican:
t
i1i2
= t
i2i1
En IR
3
tienen dimensi on 3. N otese que 3 + 6 = 9. De hecho se tiene en cualquier espacio V :
T
2
= o
2
/
2
La dimension de los tensores antisimetricos de tipo (3, 0) en IR
3
es 1. Es decir, salvo un factor, solo
hay un tensor de tipo (3, 0) totalmente antisimetrico. Esto tambien es generalizable. En un espacio de
dimension n solo existe (salvo un factor) un tensor de tipo (n, 0) totalmente antisimetrico. Y no existe
ning un tensor de tipo (r, 0), con r > n, totalmente antisimetrico en un espacio de dimensi on n.
Comprobemos como se transforma un tensor antisimetrico de orden n:
t
i1...in
= a
i1...in
donde a IK y
i1...in
verica:
1...n
= 1
en una base dada. Veamos como cambia este tensor al cambiar la base.
i1...in
= P
i1
j1
P
in
jn
j1...jn
y entonces,
1...n
= P
1
j1
P
n
jn
j1...jn
= det P
Por lo tanto, estos tensores se transforman con el determinante. Veremos mas adelante una aplicaci on
de este resultado.
N otese tambien que el caso de tensores de segundo orden es el unico en el que se verica que todo
tensor es suma de un tensor simetrico mas otro antisimetrico. En ordenes mayores esto es incorrecto. La
razon es que existen tensores con simetras intermedias (por ejemplo, simetricos en dos ndices, pero no en
el resto, y vericando relaciones mas complicadas entre las coordenadas). El espacio total se descompone
en suma directa de estos tensores de simetras intermedias en los que no entraremos aqu, pero que juegan
un papel fundamental, por ejemplo en la teora de representaciones de grupos.
7.9.2. Contracci on de ndices
La segunda operaci on que vamos a considerar afecta a tensores de tipo mixto, y contrariamente a la
primera no act ua en el espacio de tensores de tipo (r, s) sino que pasa de T
r
s
a T
r1
s1
. Desde un punto de
vista mas riguroso, habra que considerar el conjunto:
T =
r,s=0
T
r
s
el algebra tensorial, pero no entraremos aqu en estos detalles.
Sea t
i1...ir
j1...js
un tensor de tipo (r, s) y denamos:
t
i1...ir1
j1...js1
= t
i1...ik1iik...ir1
j1...jl1ijl...js1
Se dice que el tensor
t se ha obtenido por contracci on de dos de los ndices del tensor t. Obviamente
la operaci on se puede extender a mas ndices y contraerlos sucesivamente. Notese que la contraccion se
hace con ndices contravariantes y covariantes. No se contraen ndices del mismo tipo. Desde el punto de
vista del espacio y su dual lo que se esta haciendo es actuar con uno de los espacios V
ITULO 7. TENSORES
Ejemplo 7.9.3 Consideremos un tensor de tipo (1, 1), t
i
j
. Contrayendo sus dos ndices, obtenemos otro
tensor, de tipo (0, 0) es decir, un escalar:
tr t = t
i
i
Se le llama la traza del tensor t. En particular, para el tensor de Kronecker, la traza es la dimensi on del
espacio V .
Se dice que un tensor de tipo (1, 1) es de traza nula si tr t = 0. Todo tensor de tipo (1, 1) se puede
escribir de la siguiente forma (de manera unica):
t
i
j
= a
i
j
+ (tr t)
i
j
donde a
i
j
es un tensor de traza nula.
Ejemplo 7.9.4 Sea el tensor R
= R
,= R
= R
= R
, s
, s + s
). Sean:
a T
r
s
, b T
r
j1...jsjs+1...j
s+s
= a
i1...ir
j1...js
b
ir+1...i
r+r
js+1...j
s+s
es un tensor que se llama el producto tensorial de los tensores a y b. La demostracion es otra vez la ley
de transformacion al cambiar de base.
Esta operaci on permite establecer una aplicaci on entre el producto tensorial T
r
s
T
r
s
y el espacio de
tensores: T
r+r
s+s
; que esta aplicaci on es lineal e inyectiva no sera desarrollado en detalle aqu.
Ejemplo 7.9.5 Consideremos dos tensores sobre un espacio vectorial V , a
i
de tipo (1, 0) y b
i
de tipo
(0, 1). Construimos el producto tensorial de estos dos tensores, que es un tensor de tipo (1, 1):
t
i
j
= a
i
b
j
Si ahora contraemos los dos ndices del tensor t, obtenemos un escalar:
c = a
i
b
i
Seg un la idea de contracci on que hemos introducido, no es posible contraer dos tensores de tipo (1, 0).
Sin embargo, consideremos un tensor de tipo (0, 2), g
ij
. Podemos hacer el producto tensorial de g por
dos tensores de tipo (1, 0), x
i
e y
i
, es decir por dos elementos del espacio V de partida:
g
ij
x
k
y
l
Si ahora contraemos el ndice i con el k y el j con el l:
g
ij
x
i
y
j
7.10. TENSORES COVARIANTES ANTISIM
= (det P)
2
g
o sea:
_
[g
[ = [ det P[
_
[g[
Por tanto,
_
[g[ no es un escalar. Tampoco es un tensor alternado de orden n para transformaciones
generales, pero s para aquellas que tienen el determinante positivo, pues entonces:
_
[g
[ = det P
_
[g[
En este caso,
_
[g[(e
1
e
2
e
n
)
a
es el elemento de volumen correspondiente a la metrica g, donde el
subndice a signica la antisimetrizaci on de este tensor.
Finalmente consideremos el caso de un tensor de tipo (1, 1) multiplicado tensorialmente por otro de
tipo (1, 0):
t
i
j
x
k
y hagamos la unica contracci on posible (ndices jk):
y
i
= t
i
j
x
j
que es de nuevo un tensor de tipo (1, 0). Esto sugiere la relaci on entre los tensores de tipo (1, 1) y los
endomorsmos de V de la que habl abamos antes. Se tiene el isomorsmo de espacios vectoriales:
L(V ) T
1
1
Notese que, usando el producto tensorial y tomando combinaciones lineales, uno puede construir
cualquier tipo de tensor a partir de tensores de tipo (1, 0) y (0, 1) y escalares.
7.10. Tensores covariantes antisimetricos: formas
Los tensores covariantes totalmente antisimetricos se pueden interpretar como aplicaciones lineales del
espacio vectorial de tensores contravariantes (del mismo orden) en el cuerpo IK. Si t
j1...js
es uno de estos
tensores, al aplicarlo a un tensor como x
i1...is
, es decir, al hacer el producto tensorial y luego contraer
todos los ndices, se obtiene un escalar:
t
i1...is
x
i1...is
IK
El conjunto de tensores covariantes de orden s totalmente antisimetricos es un subespacio vectorial
del espacio T
s
y se llama
s
, conjunto de formas de orden s. Un tensor de este tipo se llama una s-forma.
La dimension de estos espacios ya la hemos calculado antes, y tambien hemos visto como no hay s-formas
con s > n. La suma directa de espacios vectoriales:
n
s=0
s
se llama algebra exterior de V . Se toma
0
= IK.
Cuando se trabaja con tensores alternados, se usa el smbolo para describir el producto tensorial
alternado.
Dentro de las relaciones que hemos visto hay entre aplicaciones multilineales y tensores, las formas
son aplicaciones multilineales alternadas. La unica forma de dimensi on n (linealmente independiente) que
hay, se le llama elemento de volumen (el determinante de la teora de matrices) y se escribe:
e
1
e
n
152 CAP
ITULO 7. TENSORES
En el algebra exterior es posible denir otra operaci on , que relaciona los tensores alternados de tipo
(0, k) y los de tipo (0, n k) denidos sobre un espacio con una metrica g
ij
. Si
i1,...in
es el unico tensor
alternado de orden n, con valor
12...n
= 1, se dene:
(t)
ik+1...in
=
1
k!
_
[g[
i1...in
t
i1...ik
Se tiene:
(t) = (1)
k(nk)
sgn(g)t
7.11. Tensores y grupos de transformaciones
Seg un hemos visto hasta ahora, los elementos que necesitamos para la construcci on de tensores (al
menos, de los que estamos hablando en estas ultimas secciones), son: un espacio vectorial de dimension
nita y los cambios de base en dicho espacio. Las transformaciones que pasan de unas bases a otras,
son las que forman el grupo general lineal del espacio V , GL(V ), es decir cualquier automorsmo de
V . En terminos de matrices, se trata de las matrices regulares n n, que forman el grupo general
lineal GL(n, IK) (obviamente isomorfo al anterior GL(V )). Sin embargo, muchas veces, no interesa hacer
cambios de base tan generales. Por ejemplo si tenemos un producto escalar, puede ser util hacer cambios
de base que conserven la orientaci on o los angulos que forman los vectores de la base entre s. O, en
relatividad especial, las transformaciones que resultan aceptables son aquellas que conservan el intervalo
espacio-temporal constante, pues son las que relacionan los sistemas inerciales entre s. En general, el
conjunto de transformaciones que se usan en cada caso, forman un grupo (pues si no, no se podr a hablar
de transformaciones inversas etc.) y se dice que un tensor lo es bajo ese grupo de transformaciones. Por
ejemplo, consideremos el espacio IR
n
con su producto escalar usual y las transformaciones ortogonales
con determinante positivo. Los tensores de este espacio (es decir los objetos que cambian adecuadamente
al cambiar la base mediante una rotaci on) son los tensores cartesianos de este espacio. Es posible que si
empleamos otra transformacion que no sea una rotaci on, el tensor no se comporte como tal.
Por ejemplo, pensemos en el tensor de Kronecker
i
j
, cuyas componentes son las mismas en cualquier
base. Si queremos denir un tensor con esa misma propiedad, pero de tipo (0, 2), es decir g
ij
, con
componentes iguales a 1 si los ndices son iguales y a 0 si los ndices son distintos, vemos que podemos
hacerlo para cualquier base:
g
ij
= (P
1
)
k
i
(P
1
)
l
j
g
kl
o escritos como matrices (supongamos que el ndice contravariante numera a las las):
G
= (P
1
)
t
G(P
1
)
Si queremos que tanto G como G
ij
= (P
1
)
k
i
(P
1
)
l
j
kl
para que no vare al cambiar de base. Por tanto:
P
t
JP = J
donde:
J =
_
0 1
1 0
_
Curiosamente, puede comprobarse como las transformaciones que tienen esta propiedad son las del
grupo general lineal que tienen determinante igual a 1, es decir, el grupo especial lineal, SL(2, IR).
7.12. ESPACIOS CON PRODUCTO ESCALAR 153
Teniendo en cuenta lo que hemos dicho sobre la interpretaci on de volumen de esta 2-forma, no es extra no
que se diga que las transformaciones del grupo SL(2, IR) conservan el volumen (en este caso un area al
ser en dimension 2).
7.12. Espacios con producto escalar
Si el espacio vectorial V esta dotado de un producto escalar, esto quiere decir que existe un tensor
de segundo orden de tipo (0, 2), simetrico denido positivo, y que es invariante, teniendo las mismas
componentes en cualquier base. Por tanto, como ya hemos dicho, las transformaciones permisibles son
las que verican:
P
t
GP = G
El producto escalar nos permite hacer uso del teorema de Riesz-Frechet, identicando de forma can oni-
ca el espacio dual con el espacio V , a traves del tensor metrico g
ij
. En efecto:
V v V
tal que:
(x) = (v, x)
o, en terminos de tensores:
i
x
i
= g
ij
v
i
x
j
es decir:
i
= g
ij
v
j
Podemos interpretar esto de dos formas. O bien, como el isomorsmo entre el espacio V y su dual, o
como la expresion de un mismo vector de V en bases distintas, en realidad las bases recprocas de las que
ya habamos hablado al introducir las coordenadas covariantes y contravariantes. Haciendolo as, es lo
mismo que v pero escrito en otra base y escribiremos:
v
i
= g
ij
v
j
Esta operaci on se denomina bajar ndices y se hace a traves del tensor metrico. Como tambien hemos
dicho, no es necesario tener una forma bilineal denida positiva para hacer esto. Basta con que sea no
degenerada.
La operaci on inversa, subir ndices, se realiza con el inverso del tensor metrico:
g
ik
g
kj
=
i
j
y es:
v
i
= g
ij
v
j
Esta operaci on se puede hacer todas las veces que se quiera en tensores de tipo arbitrario. Cada vez
que se baje o suba alg un ndice aparece un tensor metrico g (o su inverso).
Notese que el producto escalar de dos vectores de V se escribe simplemente como:
g
ij
x
i
y
j
= x
i
y
i
= x
i
y
i
7.13. Aplicaciones entre espacios producto tensorial
Sean V, W, V
, W
, g: W W
154 CAP
ITULO 7. TENSORES
de la siguiente forma:
(f g)(v w) = f(v) g(w)
para cualquier par de vectores v V , w W. La aplicaci on se extiende linealmente a todos los elementos
de V W. Tambien se puede denir para productos tensoriales de m as de dos espacios.
Veamos como se relaciona la representacion matricial de las aplicaciones producto tensorial con las
matrices de las aplicaciones que forman el producto. Lo haremos en el caso sencillo del producto de dos
aplicaciones.
Sean B
V
= v
1
, . . . , v
n
, B
W
= w
1
, . . . , w
m
, B
V
= v
1
, . . . , v
n
, B
W
= w
1
, . . . , w
m
, bases de V ,
W, V
, W
respectivamente. Sea A = (a
i
j
) la matriz que representa a la aplicacion lineal f en las bases
B
V
y B
V
y B = (b
i
j
) la que representa a g en las bases B
W
y B
W
. Es decir:
f(v
i
) =
n
j=1
a
j
i
v
j
, i = 1, . . . , n, g(w
i
) =
m
j=1
b
j
i
w
j
, i = 1, . . . , m
De acuerdo con la denici on de producto tensorial, una base de V W es:
B
V W
= v
i
w
j
, i = 1, . . . , n, j = 1, . . . , m
y una base de V
es:
B
V
W
= v
i
w
j
, i = 1, . . . , n
, j = 1, . . . , m
Lo unico que tenemos que decidir es como ordenar esta base. Hay dos formas naturales de hacerlo,
bien jando el ndice del vector v
i
y dejando variar el de w
j
o viceversa. Supongamos que el orden es:
v
1
w
1
, v
1
w
2
, . . . , v
1
w
m
, v
2
w
1
, . . . , v
2
w
m
, . . . , v
n
w
1
, . . . , v
n
w
m
k=1
a
k
i
v
k
_
_
_
_
m
l=1
b
l
j
w
l
_
_
Aplicando las propiedades del producto tensorial
(f g)(v
i
w
j
) =
n
k=1
m
l=1
a
k
i
b
l
j
v
k
w
l
La aplicaci on lineal f g viene dada en las bases B
V W
y B
V
W
por la matriza
i
j
b
k
l
cuyas
propiedades tensoriales estudiaremos m as adelante, pero que, en cualquier caso, puede escribirse como una
verdadera matriz, adoptando el orden anteriormente elegido para las bases de estos espacios tensoriales.
Se tiene que la matriz de f g, la cual llamaremos producto tensorial de las matrices A y B es:
AB =
_
_
_
_
_
a
1
1
B a
1
2
B a
1
n
B
a
2
1
B a
2
2
B a
2
n
B
.
.
.
.
.
.
.
.
.
a
n
1
B a
n
2
B a
n
n
B
_
_
_
_
_
que tiene las dimensiones y propiedades correctas como se puede comprobar facilmente. El objeto a
i
j
b
k
l
es obviamente un tensor de cuarto orden, dos veces contravariante y dos veces covariante, pues es el
producto tensorial de dos tensores de segundo orden. Por tanto sus propiedades de transformaci on son
las adecuadas a estos tensores. Restringiendonos al caso V
= V , W
= W, estas son:
a
i
j
b
k
l
= P
i
i
(P
1
)
j
j
Q
k
k
(Q
1
)
l
l
a
i
j
b
k
l
siendo P la matriz de cambio de base en V y Q la matriz de cambio de base en W.
7.13. APLICACIONES ENTRE ESPACIOS PRODUCTO TENSORIAL 155
Ejemplo 7.13.1 El siguiente ejemplo proporciona una interesante aplicaci on en el estudio de las partcu-
las elementales. Cuando se tiene un sistema compuesto de dos partculas de spin s y s
el sistema presenta
un spin que depende de los de las partculas que lo forman. De acuerdo con la teora cu antica, los valores
que pueden tomar s y s
son n umeros enteros o semienteros, positivos (0, 1/2, 1, 3/2, . . .). Sea V el espacio
de los estados de spin de la partcula 1 y W el de los estados de la partcula 2. El espacio de estados del
sistema 1 +2 es justamente el producto tensorial de los espacios V y W y los operadores de spin en este
espacio se obtienen de la forma siguiente:
S
V W
3
= S
V
3
I
W
+ I
V
S
W
3
donde S
V
3
, S
W
3
son los operadores (tercera componente) de spin en cada uno de los espacios V y W.
Consideremos bases en las que estos operadores son diagonales (es decir, bases de autovectores):
u
s
V
3
= [s
V
, s
V
3
), u
s
W
3
= [s
W
, s
W
3
)
donde los ndices s
V
3
, s
W
3
varan en los conjuntos:
s
V
, s
V
1, . . . s
V
+ 1, s
V
, s
W
, s
W
1, . . . s
W
+ 1, s
W
ITULO 7. TENSORES
I
V
S
W
3
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
s
W
3
.
.
.
s
W
3
s
W
3
.
.
.
s
W
3
.
.
.
s
W
3
.
.
.
s
W
3
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
y por tanto:
S
V W
3
= S
V
3
I
W
+ I
V
S
W
3
=
_
_
_
s
V
3
+s
W
3
.
.
.
s
V
3
s
W
3
_
_
_
y los n umeros intermedios dependen de las dimensiones de los espacios V y W. Hay que tener en cuenta
que la dimensi on de V es 2s
V
+1 y la de W es 2s
W
+1, con lo que la dimensi on de V W es el producto
(2s
V
+ 1) (2s
W
+ 1). No es difcil demostrar que:
(2s
V
+ 1) (2s
W
+ 1) =
s
V
+s
W
s=|s
V
s
W
|
2s + 1
Mediante un cambio de base es posible reordenar los valores de s
3
que corresponden a un mismo spin.
Los elementos de la matriz de cambio de base se conocen como coecientes de Clebsch-Gordan.
Ejemplo 7.13.2 Veamos un ejemplo sencillo. Supongamos que tenemos V = W =C
2
y por tanto s
V
=
s
W
= 1/2. En este caso, el producto tensorial tiene dimensi on 4. El operador de la tercera componente
de spin es:
S
(1/2)
3
=
_
1/2 0
0 1/2
_
y el correspondiente al producto tensorial es:
S
(1/2)(1/2)
3
=
_
1/2 0
0 1/2
_
_
1 0
0 1
_
+
_
1 0
0 1
_
_
1/2 0
0 1/2
_
=
_
_
_
_
1/2
1/2
1/2
1/2
_
_
_
_
+
_
_
_
_
1/2
1/2
1/2
1/2
_
_
_
_
=
_
_
_
_
1
0
0
1
_
_
_
_
La matriz de coecientes de Clebsch-Gordan, que no describiremos aqu, pasa de esta matriz a la
forma:
_
_
_
_
0
1
0
1
_
_
_
_
que tiene dos cajas una correspondiente a spin 0 y otra a spin 1.
7.13. APLICACIONES ENTRE ESPACIOS PRODUCTO TENSORIAL 157
Ejemplo 7.13.3 Otro ejemplo, en el que aparece un producto de spins distintos, es el caso 1/2 por 1.
Ahora tenemos V = C
2
, W = C
3
. El producto tensorial tiene dimensi on 6. Los operadores de la tercera
componente de spin son:
S
(1/2)
3
=
_
1/2 0
0 1/2
_
, S
(1)
3
=
_
_
1 0 0
0 0 0
0 0 1
_
_
El producto tensorial es:
S
(1/2)(1)
3
=
_
1/2 0
0 1/2
_
_
_
1
1
1
_
_
+
_
1 0
0 1
_
_
_
1
0
1
_
_
=
_
_
_
_
_
_
_
_
1/2
1/2
1/2
1/2
1/2
1/2
_
_
_
_
_
_
_
_
+
_
_
_
_
_
_
_
_
1
0
1
1
0
1
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
3/2
1/2
1/2
1/2
1/2
3/2
_
_
_
_
_
_
_
_
De nuevo, la matriz de coecientes de Clebsch-Gordan pasa a la forma:
_
_
_
_
_
_
_
_
1/2
1/2
3/2
1/2
1/2
3/2
_
_
_
_
_
_
_
_
que tiene dos cajas, una correspondiente a spin 1/2 y otra a spin 3/2.
158 CAP
ITULO 7. TENSORES
Captulo 8
El espacio afn
8.1. Introducci on
En este breve captulo introduciremos algunas nociones elementales del espacio afn, junto con la
clasicacion de c onicas. Usaremos en este tema echas para designar a los elementos del espacio vectorial
y distinguirlos de los puntos (aunque tambien trataremos de usar min usculas y may usculas con este n).
Ademas, el producto escalar de dos vectores u y v se notara por u v y su producto vectorial, en IR
3
,
ser a el usual, denotado por u v.
Denicion 8.1.1 Sea V un espacio vectorial sobre un cuerpo IK. Un par (X, ) formado por un conjunto
X y una aplicacion :
: X X V
es un espacio afn sobre V si se verican las siguientes propiedades:
1) (P, R) +(Q, P) +(R, Q) = 0, P, Q, R X
2) P X, v V, Q X tal que (P, Q) = v
Ejemplo 8.1.1 El ejemplo m as inmediato de espacio afn es el que se obtiene tomando X = V y
deniendo como:
(x, y) = y x
El espacio afn puede considerarse en este caso como un espacio vectorial sin un origen preferido.
A los elementos de X se les llama puntos y a los de V vectores. Denotaremos en general:
PQ = (P, Q)
8.2. Sistemas de referencia
Supongamos que V es un espacio vectorial de dimension nita. Un sistema de referencia en un espacio
afn (X, ) con espacio vectorial base V de dimension nita n, es un conjunto de puntos (elementos de
X) P
0
, P
1
, . . . , P
n
tal que los vectores
P
0
P
i
son una base de V . Se dice que P
0
es el origen del sistema
de referencia.
De esta forma, cualquier punto P del espacio X se puede escribir referido al origen P
0
como:
P
0
P =
n
i=1
P
0
P
i
Dos sistemas de referencia estan relacionados por una traslaci on (que pasa de un origen a otro) y por
un cambio de base en V . Sean:
P
0
, P
1
, . . . , P
n
, Q
0
, Q
1
, . . . , Q
n
159
160 CAP
ITULO 8. EL ESPACIO AF
IN
dos sistemas de referencia en el espacio afn X. El vector
Q
0
P
0
se puede escribir en la base:
Q
0
Q
1
, . . .
Q
0
Q
n
como:
Q
0
P
0
=
n
i=1
a
i
Q
0
Q
i
mientras que los vectores de la primera base se escriben en funcion de los de la segunda:
P
0
P
i
=
n
j=1
a
ji
Q
0
Q
j
El cambio de base viene especicado por una matriz en /
n
(IK), (a
ij
), la matriz de cambio de base
en V y un vector en IK
n
, (a
i
) que da la relaci on entre los orgenes.
Dado un punto P referido al sistema con origen en P
0
:
P
0
P =
n
i=1
P
0
P
i
=
n
i=1
i
n
j=1
a
ji
Q
0
Q
j
=
n
j=1
_
n
i=1
a
ji
i
_
Q
0
Q
j
=
n
j=1
Q
0
Q
j
Entonces,
Q
0
P =
Q
0
P
0
+
P
0
P
con lo que nos queda la expresi on:
Q
0
P =
n
j=1
a
j
Q
0
Q
j
+
n
i=1
Q
0
Q
i
=
n
i=1
_
_
a
i
+
n
j=1
a
ij
j
_
_
Q
0
Q
i
8.3. Transformaciones anes
Dados dos espacios anes, (X
1
,
1
) y (X
2
,
2
) sobre los espacios vectoriales V
1
y V
2
respectivamente,
consideremos una aplicaci on entre X
1
y X
2
:
f: X
1
X
2
Esta aplicaci on induce otra entre V
1
y V
2
denida de la forma siguiente. Fijado P en X
1
, consideremos
su imagen f(P) X
2
. Para todo Q X
1
, al vector
PQ V
1
se le hace corresponder el vector
f(P)f(Q)
V
2
. Por la segunda propiedad de los espacios anes, esta aplicaci on esta bien denida para todo vector
de V
1
:
f: V
1
V
2
Si x V
1
, existe un unico Q X
1
tal que:
x =
PQ
Entonces:
f(x) =
f(P)f(Q)
Teorema 8.3.1 Si
f es lineal, no depende del punto P elegido para denirla.
Se dice en este caso que f es una aplicaci on afn. Si el espacio afn inicial y nal coinciden y la aplicaci on
afn es biyectiva se llama transformacion afn.
Denicion 8.3.1 Una traslaci on de vector x V transforma un punto P X en otro Q X tal que:
x =
PQ
Se tiene el siguiente teorema de estructura de las transformaciones anes
8.4. ESPACIOS EUCLIDIANOS 161
Teorema 8.3.2 Cualquier transformaci on afn se puede escribir como un producto de una transforma-
ci on afn que deja invariante un punto dado (que se puede elegir arbitrariamente) y una traslaci on.
Las transformaciones anes tienen en sistemas de referencia anes una expresion matricial dada por:
_
/ a
0 1
_
=
_
I
n
a
0 1
__
/ 0
0 1
_
cuando las coordenadas del punto P se escriben como:
_
_
_
_
_
x
1
.
.
.
x
n
1
_
_
_
_
_
La matriz / es una matriz n n de determinante distinto de cero. El vector a V representa una
traslaci on y / la transformacion afn:
_
/ 0
0 1
_
que deja una punto jo.
8.4. Espacios euclidianos
Denicion 8.4.1 Un espacio euclidiano es un espacio afn con un espacio vectorial real dotado de un
producto escalar.
El producto escalar en V permite denir una distancia entre los puntos de X:
P, Q X, d(P, Q) = |
PQ|
Las bases ortonormales de V llevan a sistemas de referencia ortonormales en X. Las transformaciones
que pasan de unos a otros est an formadas por traslaciones y transformaciones ortogonales.
8.4.1. Isometras en espacios euclidianos
Denicion 8.4.2 Una aplicacion afn es una isometra si la aplicaci on lineal asociada conserva el pro-
ducto escalar (es decir, es ortogonal).
No es difcil probar que las isometras conservan la distancia, son biyectivas y en sistemas de referencia
ortonormales vienen representadas por traslaciones y matrices ortogonales.
Se dice que una isometra es un movimiento del espacio euclidiano si la parte ortogonal de la trans-
formaci on tiene determinante igual a 1, es decir es una rotaci on. La isometra es el producto de una
traslaci on por una transformaci on ortogonal. En un sistema de referencia ortonormal, la isometra viene
determinada por una matriz:
_
/ a
0 1
_
donde:
//
t
= I
n
, a V
Si (x
i
) son las coordenadas del punto en este sistema de referencia, las del punto transformado son:
_
_
_
_
_
x
1
.
.
.
x
n
1
_
_
_
_
_
=
_
_
_
_
_
a
1
/
.
.
.
a
n
0 1
_
_
_
_
_
=
_
_
_
_
_
x
1
.
.
.
x
n
1
_
_
_
_
_
Una vez elegido el punto jo, la descomposici on en rotaci on y traslaci on es unica.
162 CAP
ITULO 8. EL ESPACIO AF
IN
8.5. El plano euclidiano
Sea IR
2
dotado del producto escalar usual (es decir, la base can onica es ortonormal) y el espacio afn
X = IR
2
.
8.5.1. Rectas en IR
2
Supongamos jado un origen, P
0
, en el espacio afn X = IR
2
. Una recta es el conjunto de puntos de
IR
2
, P, que verican la ecuaci on:
P
0
P =
P
0
P
1
+v, IR
El vector v da la direccion de la recta mientras que P
1
es un punto dado de la recta. Supongamos
que tenemos un sistema de referencia afn: P
0
, u, w (con u =
P
0
P
1
y w =
P
0
P
2
). Si (x, y) son las
coordenadas de un punto Q (es decir,
P
0
Q = xu+y w), las ecuaciones parametricas de la recta se pueden
escribir como:
x = x
0
+ v
1
y = y
0
+ v
2
El par ametro se puede eliminar de las ecuaciones y obtener la forma implcita:
x x
0
v
1
=
y y
0
v
2
Dados dos puntos del plano, existe una unica recta que pasa por ellos. Sean Q
1
y Q
2
los puntos de
coordenadas (x
1
, y
1
) y (x
2
, y
2
). La recta que pasa por esos dos puntos es:
x x
1
x
1
x
2
=
y y
1
y
1
y
2
Por un punto pasa un haz de rectas, de ecuaci on:
x x
0
y y
0
= k, k IR
ademas de la recta y = y
0
.
8.5.2. Distancia de un punto a una recta
Sea la recta
r v = v
0
+
t
y el punto P, en un sistema de referencia afn ortonormal, con origen en P
0
. Queremos calcular la
distancia del punto a la recta, entendida como la mnima distancia del punto P a los puntos de la recta.
La distancia se dene a partir de la norma derivada del producto escalar. La distancia entre dos puntos
P, Q, de coordenadas en el sistema de referencia afn ortonormal dadas por: (x
1
, y
1
), (x
2
, y
2
) es:
d(P, Q) =
_
(x
1
x
2
)
2
+ (y
1
y
2
)
2
En lenguaje vectorial, sea w =
P
0
P y v =
P
0
Q los vectores del punto P y un punto cualquiera Q de la
recta r respectivamente. La distancia es entonces:
| w v| = | w v
0
t|
Sea n un vector unitario perpendicular al vector que dene la recta (solo hay dos, elijamos cualquiera).
Los vectores
t/|
t ( w v
0
)
1
|
t|
2
t +n ( w v
0
)
n = a
t + bn
8.5. EL PLANO EUCLIDIANO 163
Por tanto la distancia (al cuadrado) es:
d(P, Q)
2
= |(a )
t + bn|
2
= [a [
2
+ [b[
2
y sera mnima cuando:
= a =
1
|
t|
2
t ( w v
0
)
Para este valor de la distancia es simplemente:
d(P, Q) = [b[ = |n ( w v
0
)|
es decir, como ya sabamos, la proyecci on sobre el vector normal de un vector que une el punto P con un
punto cualquiera de la recta. Si las coordenadas de
a
2
+b
2
Notese que el vector normal (unitario) a una recta escrita en la forma anterior es n = (a, b)/
a
2
+ b
2
,
con lo que la ecuaci on de la recta se puede escribir como:
n v = k
y el valor absoluto de k resulta ser la distancia al origen.
Una recta es un subespacio afn de dimensi on 1. El equivalente en espacios vectoriales es el n ucleo de
una forma lineal no nula.
8.5.3. Isometras en el plano
De acuerdo con lo visto anteriormente, las isometras en IR
2
se descomponen en el producto de una
rotaci on (propia si det = 1 o impropia si det = 1) y una traslaci on. Por lo tanto la clasicaci on de las
isometras es la siguiente.
Teorema 8.5.1 Las isometras en IR
2
se clasican en los siguientes tipos:
1. Traslaciones. Eligiendo adecuadamente el sistema de referencia (ortonormal), todas las traslacio-
nes son del tipo:
_
x
= x +a
y
= y
donde a IR, correspondiendo a = 0 a la identidad.
2. Rotaciones propias.
_
x
= x cos y sen
y
= x sen + y cos
con 0 < 2, que dejan invariante el origen de coordenadas. Tambien = 0 corresponde a la
identidad.
164 CAP
ITULO 8. EL ESPACIO AF
IN
3. Reexiones respecto una recta. Como hemos visto, toda rotacion impropia poda ser llevada a
la forma:
_
1 0
0 1
_
. Por tanto:
_
x
= x
y
= y
4. Reexiones respecto una recta y traslaci on en la direcci on de esa recta.
_
x
= x + a
y
= y
con a ,= 0.
Los tipos 1,2,3,4 no son equivalentes y cualquier isometra puede ser llevada a uno de ellos deniendo
adecuadamente el sistema de referencia. Si son distintos de la identidad, el tipo 1 no tiene puntos jos y
es un movimiento (conserva la orientaci on), el 2 tiene un un punto jo (y es tambien un movimiento).
Los tipos 3 y 4 no son movimientos. El 3 tiene una recta ja (punto a punto) y el 4 no tiene puntos jos.
Demostracion. La matriz asociada a una isometra es:
_
_
m n a
p q b
0 0 1
_
_
donde la matriz
_
m n
p q
_
es ortogonal. Por tanto podemos elegir una base ortonormal en IR
2
, de forma que esta matriz se pueda
poner como una de las dos formas siguientes:
_
cos sen
sen cos
_
,
_
1 0
0 1
_
dependiendo de su determinante (1). En el primer caso (rotaci on propia) se tiene:
_
_
cos sen a
sen cos b
0 0 1
_
_
Si = 0:
x
= x +a, y
= y + b
y pasando a otro sistema de referencia con:
u = x cos y sen , v = x sen +y cos
con c =
a
2
+ b
2
, tan = b/a se obtiene el tipo 1:
u
= u + c, v
= v
La matriz de la isometra es:
_
_
1 0 c
0 1 0
0 0 1
_
_
y no hay puntos jos (c ,= 0).
Si a = b = 0, no hay traslaci on y se tiene una rotacion propia con punto jo en el origen:
_
_
cos sen 0
sen cos 0
0 0 1
_
_
8.5. EL PLANO EUCLIDIANO 165
Supongamos ahora que ,= 0 y (a, b) ,= (0, 0). En este caso podemos estudiar la existencia de puntos
jos:
x cos y sen + a = x
x sen +y cos +b = y
El determinante de la matriz de coecientes de este sistema lineal es:
det
_
cos 1 sen
sen cos 1
_
= 2(1 cos )
es decir, si ,= 0 existe un unico punto jo, de coordenadas:
_
a
2
b sen
2(1 cos )
_
,
_
b
2
+
a sen
2(1 cos )
_
que se puede tomar como centro de la rotacion, trasladando el origen de coordenadas. De esta forma la
traslaci on desaparece y tenemos nuevamente una isometra de tipo 2. Si = 0 se obtiene nuevamente una
traslaci on. No hay puntos jos.
Cuando la rotacion es impropia, existe un sistema de referencia en el que la matriz es:
_
_
1 0 a
0 1 b
0 0 1
_
_
Si a = b = 0 no hay traslaci on y obtenemos una reexi on respecto a una recta que es invariante (tipo 3).
Si (a, b) ,= (0, 0), podemos eliminar b mediante una traslaci on:
u = x, v = y
b
2
y obtenemos una transformacion de tipo 4:
u
= u +a, v
= v
si a ,= 0 (si a = 0 es de tipo 3). QED
8.5.4. Transformaciones de puntos y rectas bajo isometras
Las rotaciones propias giran los puntos del plano un angulo . Si P = (x, y) es uno de esos puntos, su
punto transformado P
= (x
, y
= x cos y sen , y
= x sen +y cos
Por tanto, dado un vector v =
P
1
P
2
, (con P
1
= (x
1
, y
2
), P
2
= (x
2
, y
2
) el vector transformado v
=
P
1
P
2
es:
v
= (x
2
x
1
, y
2
y
1
) = (x
2
x
1
) cos (y
2
y
1
) sen , x
2
x
1
) sen + (y
2
y
1
) cos )
es decir, el vector v se transforma con una rotaci on R en el espacio vectorial:
v
= Rv
Como consecuencia de estas transformaciones, una recta que pase por el punto P = (x
0
, y
0
) = v
0
y
que tenga como vector
t, se transforma en otra recta:
v = v
0
+
t v = Rv
0
+ R
t
0
Si la recta se representa en la forma n v = c, la ecuacion transformada es:
(Rn) v = c
166 CAP
ITULO 8. EL ESPACIO AF
IN
es decir, el vector normal gira con la rotaci on y la distancia al origen es la misma.
En una reexi on respecto a una recta r, la imagen de un punto se puede calcular as. Sea P =
(x
0
, y
0
) = v
0
un punto del plano, y la recta: n v = c. El punto P
= (x
0
, y
0
) simetrico de P respecto de
la recta r, verica que el punto A de coordenadas:
1
2
(v
0
+v
0
) =
_
x
0
+x
0
2
,
y
0
+ y
0
2
_
esta sobre la recta r, es decir:
n (v
0
+v
0
) = 2c
y ademas el vector v
0
v
0
es paralelo a n:
v
0
v0
= n
De estas dos relaciones podemos despejar las coordenadas de P
:
v
0
= v
0
n, =
2
|n|
2
(nv
0
c)
llegando a la expresi on:
v
0
= v
0
2
|n|
2
(n v
0
c)n
Si la recta pasa por el origen, c = 0 y se tiene:
v
0
= v
0
2n v
0
|n|
2
n
Una traslacion consiste simplemente en la suma de un vector constante. Por tanto una recta se
convierte en otra recta con el mismo vector de direccion y sus puntos trasladados por ese vector constante.
Las isometras tambien se pueden interpretar como cambios en el sistema de referencia, (al igual que
ocurre con las aplicaciones lineales y los cambios de base en los espacios vectoriales).
8.6. El espacio euclidiano
El espacio afn que estudiaremos en esta seccion es el que tiene como como conjunto de puntos y
espacio vectorial a IR
3
y en el que esta denido el producto escalar usual. Veamos como son las variedades
(subespacios) anes en este espacio.
8.6.1. Rectas en el espacio
Una recta en IR
3
es una variedad afn de dimensi on 1, determinada por tanto por un vector v IR
3
y un punto P:
v = v
0
+
t, IR
es decir:
x = x
0
+ t
1
, y = y
0
+t
2
, z = z
0
+t
3
Eliminando de estas tres ecuaciones se obtiene:
x x
0
t
1
=
y y
0
t
2
=
z z
0
t
3
Una recta viene determinada por dos ecuaciones. Como veremos es la interseccion de dos subvariedades
anes de dimension 2.
Al igual que en el plano, una recta viene jada por dos puntos distintos. La ecuaci on se escribe como:
x x
1
x
1
x
2
=
y y
1
y
1
y
2
=
z z
1
z
1
z
2
Ademas de las dos posiciones relativas de dos rectas en el plano (que se corten o sean paralelas), en el
espacio existe una tercera posibilidad, que las rectas se crucen. Pero antes de estudiar estas posiciones,
veamos como son las subvariedades de dimension 2, los planos.
8.6. EL ESPACIO EUCLIDIANO 167
8.6.2. Planos en el espacio
Un plano es una subvariedad afn de dimensi on 2. Viene determinado por dos vectores linealmente
independiente y un punto:
v = v
0
+u + v
es decir:
x = x
0
+u
1
+ v
1
, y = y
0
+u
2
+v
2
, z = z
0
+u
3
+ v
3
Los par ametros y pueden ser eliminados en la manera usual. El vector (x, y, z) (x
0
, y
0
, z
0
) depende
linealmente de u, v si el siguiente determinante es cero:
det
_
_
u
1
v
1
x x
0
u
2
v
2
y y
0
u
3
v
3
z z
0
_
_
= 0 (8.1)
Tres puntos no alineados determinan un plano en el espacio. La ecuaci on se obtiene f acilmente de la
anterior:
det
_
_
x
1
x
0
x
2
x
0
x x
0
y
1
y
0
y
2
y
0
y y
0
z
1
z
0
z
2
z
0
z z
0
_
_
= 0
Resolviendo la ecuacion (8.1), la ecuaci on del plano se escribe como:
ax + by +cz = d
y el vector n = (a, b, c) es un vector normal al plano, pues es igual al producto vectorial de los vectores
u y v como se comprueba facilmente:
ax +by + cz = det
_
_
u
1
v
1
x
u
2
v
2
y
u
3
v
3
z
_
_
= det
_
_
u
1
v
1
x
0
u
2
v
2
y
0
u
3
v
3
z
0
_
_
= d
8.6.3. Posiciones relativas de rectas
Volvemos en esta seccion al estudio de las posiciones de rectas en IR
3
. Dos rectas en el espacio se pueden
cortar, ser paralelas o cruzarse (aparte de coincidir). Si se cortan o son paralelas, est an contenidas en un
unico plano. Si se cruzan no existe ning un plano que las contenga. Sean las rectas:
v = v
0
+
t, v
= v
0
+
= v
0
v
0
+
t = w
= 0
obteniendose un sistema para ,
:
|
t|
2
= (v
0
v
0
)
t|
2
= (v
0
v
0
)
)
2
|
t|
2
|
|
2
0
debido a la desigualdad de Cauchy-Schwarz. Es cero solo si
t y
t
ITULO 8. EL ESPACIO AF
IN
1.
t,
t
linealmente dependientes. Puede haber innitas soluciones o no haber ninguna. Sin embargo,
el rango de la matriz ampliada es igual al de la de coecientes, con lo que hay innitas soluciones
(
t):
det
_
(v v
t |
t|
2
(v v
t |
t|
2
_
= 0
En este caso las rectas son paralelas.
En el primer caso, solo hay un vector (l.i.) que sea perpendicular a ambas rectas, que se dene por
n =
1
|
= (n w
0
)n
donde w
0
= v
0
v
0
. Aqu aparecen dos casos:
1. (n w
0
) = 0. En este caso hay un plano que contiene a ambas rectas, de vector normal n y las rectas
se cortan.
2. (n w
0
) ,= 0. Ahora no hay ning un plano que las contenga y las rectas se cruzan. La distancia entre
ambas rectas (la distancia mnima) es la longitud del vector w calculado anteriormente:
d =
1
|
|
[(v
0
v
0
) (
)[
8.6.4. Posiciones relativas de planos
Dos planos en IR
3
se cortan seg un una recta o son paralelos (o coincidentes). Si las ecuaciones de los
planos son:
n
1
v = c
1
, n
2
v = c
2
los planos son paralelos si los vectores n
1
, n
2
son paralelos. En caso contrario, su producto vectorial
determina el vector direcci on de la recta que forma su intersecci on:
v = v
0
+(n
1
n
2
)
8.6.5. Distancia de un punto a un plano
El c alculo se puede hacer mediante una proyecci on. Si la ecuaci on del plano es:
ax +by + cz = d
y el punto es P(x
0
, y
0
, z
0
), tomando un punto cualquiera del plano: (x
1
, y
1
, z
1
), y el vector: (x
0
x
1
, y
0
y
1
, z
0
z
1
) al proyectarlo sobre la direcci on (a, b, c) se tiene:
d(P, ) =
1
a
2
+b
2
+ c
2
[a(x
0
x
1
) +b(y
0
y
1
) + c(z
0
z
1
)[ =
1
a
2
+b
2
+c
2
[ax
1
+by
1
+ cz
1
d[
La distancia de un plano al origen es:
d(O, ) =
[d[
a
2
+b
2
+c
2
8.7. CLASIFICACI
ON DE C
ONICAS 169
8.6.6. Isometras
Se tiene el siguiente resultado sobre la clasicacion de las isometras en IR
3
que no demostraremos:
Teorema 8.6.1 las isometras en IR
3
se pueden clasicar en los siguientes tipos:
1. Traslaciones.
x
= x +a
y
= y
z
= z
con a IR.
2. Rotaciones propias alrededor de una recta y una traslaci on en la direcci on de la recta (que puede
ser trivial).
x
= x +a
y
= y cos z sen
z
= y sen + z cos
3. Rotacion mas una reexi on relativa a un plano que la rotaci on deja jo.
x
= x cos y sen
y
= x sen +y cos
z
= z
4. Reexi on respecto a un plano seguido de una traslaci on no trivial.
x
= x +a
y
= y
z
= z
8.7. Clasicaci on de c onicas
Aunque no es un tema propio del algebra lineal, la clasicaci on de conicas (y cu adricas) tiene un gran
interes en su aplicacion a numerosos problemas (como el estudio de formas cuadr aticas) as y como un
ejemplo de la aplicaci on de transformaciones anes a objetos geometricos.
Una conica es el conjunto de puntos del plano afn que verican la ecuaci on:
a
11
x
2
+ a
22
y
2
+ 2a
12
xy + 2a
01
x + 2a
02
y +a
00
= 0, x, y, a
ij
IR
en un sistema de referencia dado. Esta ecuacion se puede poner en forma matricial como:
(x y 1)
_
_
a
11
a
12
a
01
a
12
a
22
a
02
a
01
a
02
a
00
_
_
_
_
x
y
1
_
_
= 0
Sean las matrices A, a y los vectores a
0
, X:
A =
_
_
a
11
a
12
a
01
a
12
a
22
a
02
a
01
a
02
a
00
_
_
, a =
_
a
11
a
12
a
12
a
22
_
, a
0
=
_
a
01
a
02
_
, X =
_
_
x
y
1
_
_
La ecuacion de la c onica es:
X
t
AX = 0
170 CAP
ITULO 8. EL ESPACIO AF
IN
La parte homogenea de segundo orden, correspondiente a la matriz a, es una forma cuadr atica en IR
2
.
El objetivo es hacer transformaciones en el plano afn como las que ya hemos estudiado:
X
= MX, M =
_
_
m
11
m
12
m
1
m
12
m
22
m
2
0 0 1
_
_
, m =
_
m
11
m
12
m
12
m
22
_
, m
0
=
_
m
1
m
2
_
de manera que la conica adopte la forma m as sencilla posible. Ademas de isometras, tambien permitiremos
homotecias, es decir transformaciones anes dadas por matrices:
M =
_
_
1
_
_
donde , ,= 0, que no conservan angulos ni distancias.
Una transformacion afn convierte a la c onica en otra, de matriz:
X
= MX, (X
)
t
A
= 0, A
= M
t
AM
y de manera mas explcita:
_
m
t
0
m
t
0
1
__
a a
0
a
t
0
a
00
__
m m
0
0 1
_
=
_
m
t
am m
t
(am
0
+ a
0
)
(m
t
(am
0
+a
0
))
t
m
t
0
am
0
+ 2m
t
0
a
0
+a
00
_
Como la matriz a es simetrica es posible diagonalizarla mediante una transformaci on de similaridad
(como una forma cuadr atica). Por tanto, la signatura no cambia al hacer esta transformaci on. De esta
manera disponemos de cuatro invariantes, los rangos de las matrices A y a y la diferencia entre el n umero
de +1 y 1 en la forma diagonal (como la matriz de la c onica esta denida salvo un factor, podemos
siempre escogerla de forma que el n umero de +1 sea mayor o igual que el de 1 en la forma diagonal).
Se puede establecer el siguiente cuadro de clasicacion en el que aparecen los nombres de las conicas que
se obtienen. Cuando el cuadro no contiene ninguna denominaci on es que tal posibilidad no puede darse.
R 3 2 1 0
r s/S 3 1 2 0 1 0
2 2 Ei Er 2Rci
0 H 2Rir
1 1 P 2Rpi 2Rpr 2Rcr
0 0 1Rr IR
2
donde: Ei= elipse imaginaria, Er= elipse real, H= hiperbola, P= par abola, 2Rci= dos rectas imaginarias
conjugadas, 2Rpi=dos rectas paralelas imaginarias, 2Rir=dos rectas incidentes reales, 2Rpr=dos rectas
paralelas reales, 2Rcr=dos rectas coincidentes reales , 1Rr=una recta real.
8.7.1. Formas can onicas
Veamos ahora como elegir el sistema de referencia para que las formas de las c onicas sean lo mas
sencillas posibles. Usaremos transformaciones anes para obtenerlas.
En primer lugar trataremos de anular los terminos lineales.
m
t
(am
0
+a
0
) = 0
o, como m es regular,
am
0
+ a
0
= 0
Distinguiremos dos casos
8.7. CLASIFICACI
ON DE C
ONICAS 171
1. a regular. Entonces:
m
0
= a
1
a
0
y como a es simetrica, tenemos:
A
=
_
m
t
am 0
0 a
00
a
t
0
a
1
a
0
_
ii) a no regular. En este caso, no es posible anular en general los terminos no diagonales.
De cualquier forma, la matriz a, que es simetrica, se puede diagonalizar mediante una transformaci on
m
t
am. Volvamos a los casos anteriores
1. La matriz de la conica es:
A
=
_
_
2
a
00
_
_
donde
1
,= 0,
2
,= 0. El rango de la matriz a es 2 (r = 2), y s puede ser igual a 2 o 0. El rango
de la matriz A es 3 si a
00
,= a
t
0
a
1
a
0
o 2 si son iguales. En el primer caso, S puede valer 3 o 1. En
el segundo caso, 2 o 0. Por supuesto si R = 3 y S = 3, entonces s = 2. Si R = 2 entonces S = s.
2. En el segundo caso, al menos uno de los terminos de la diagonal de a
es 0:
A
=
_
_
1
0 a
01
0 0 a
02
a
01
a
02
a
00
_
_
Dos situaciones se pueden presentar aqu:
a) Aunque no exista a
1
, se puede encontrar m
0
tal que a
0
= am
0
. De esta forma, la matriz
A
es:
A
=
_
_
1
0 0
0 0 0
0 0 a
00
_
_
El rango de la matriz A debe ser 2, 1 o 0, y el de la matriz a 1 o 0.
b) No existe m
0
tal que a
0
= am
0
. Entonces, la matriz A no es diagonalizable mediante este
tipo de transformaciones. No podemos anular los terminos lineales. La matriz a es igual a 0 o
se puede escribir en forma diagonal con uno de los elemento de la diagonal no nulos.
1) Si a = 0, la matriz A es:
_
_
0 0 a
01
0 0 a
02
a
01
a
02
a
00
_
_
Si a
0
,= 0 podemos encontrar una matriz m tal que a
t
0
m = (1, 0) y a
00
= m
t
0
a
0
, con lo
que la matriz A se convierte en:
_
_
0 1 0
1 0 0
0 0 0
_
_
2) Si
a
=
_
1
0
_
podemos hacer que (a
0
)
t
= (0, 1) y a
00
= 0, con lo que la matriz A
es:
_
_
1 0 0
0 0 1
0 1 0
_
_
172 CAP
ITULO 8. EL ESPACIO AF
IN
Veamos las formas canonicas:
1. Elipse imaginaria:
R = 3, r = 2 S = 3, s = 2
_
_
1
1
1
_
_
, x
2
+y
2
+ 1 = 0
2. Elipse real:
R = 3, r = 2 S = 1, s = 2
_
_
1
1
1
_
_
, x
2
+y
2
1 = 0
3. Hiperbola:
R = 3, r = 2 S = 1, s = 0
_
_
1
1
1
_
_
, x
2
y
2
+ 1 = 0
4. Dos rectas imaginarias conjugadas:
R = 2, r = 2 S = 2, s = 2
_
_
1
1
0
_
_
, x
2
+y
2
= 0
5. Dos rectas reales incidentes:
R = 2, r = 2 S = 0, s = 0
_
_
1
1
0
_
_
, x
2
y
2
= 0
Se llaman conicas con un centro unico.
6. Dos rectas imaginarias paralelas:
R = 2, r = 1 S = 2, s = 1
_
_
1
0
1
_
_
, x
2
+ 1 = 0
7. Dos rectas reales paralelas:
R = 2, r = 1 S = 0, s = 1
_
_
1
0
1
_
_
, x
2
1 = 0
8. Dos rectas reales coincidentes:
R = 1, r = 1 S = 1, s = 1
_
_
1
0
0
_
_
, x
2
= 0
Se llaman conicas con una recta de centros. Finalmente:
9. Par abola:
R = 3, r = 1 S = 1, s = 1
_
_
1 0 0
0 0 1
0 1 0
_
_
, x
2
+ 2y = 0
8.7. CLASIFICACI
ON DE C
ONICAS 173
10. Una recta real:
R = 2, r = 0 S = 0, s = 0
_
_
0 0 1
0 0 0
1 0 0
_
_
, x = 0
y ademas:
11. Vaco:
R = 1, r = 0 S = 1, s = 0
_
_
0
0
1
_
_
, 1 = 0
12. IR
2
:
R = 0, r = 0 S = 0, s = 0
_
_
0
0
0
_
_
, 0 = 0
La clasicacion se puede hacer tambien en funci on de invariantes asociados a las matrices A y a:
K = det A, J = det a, I = tr a,
J = A
11
+A
22
, A
11
=
_
a
11
a
01
a
01
a
00
_
A
22
=
_
a
22
a
02
a
02
a
00
_
con lo que la clasicacion es:
_
_
K ,= 0 (CO)
_
_
J ,= 0 (CCU)
_
_
_
J > 0 (E)
_
KI > 0 (i)
KI < 0 (r)
J < 0 (H)
J = 0 (P)
K = 0 (CD)
_
_
J ,= 0 (CCU)
_
J > 0 (2Ric)
J < 0 (2Rri)
J = 0
_
_
I ,= 0 (CRC)
_
_
_
J ,= 0 (2Rp)
_
J > 0 (i)
J < 0 (r)
J = 0 (2Rrc)
I = 0 (R)
donde CO son c onicas ordinarias y CD c onicas degeneradas. CCU son conicas con centro unico y CRC
conicas con recta de centros. Es sencillo ver la equivalencia de ambas formas de clasicar las conicas.
Un estudio similar se podra hacer para las cu adricas, los conjuntos correspondientes en IR
3
, pero no lo
haremos aqu.
Nota. Las clasicaciones de conicas y cuadricas adquieren una forma mas simplicada cuan-
do se considera el espacio proyectivo. Pero esta cuestion va m as alla de lo que estas notas
pretenden ser.
174 CAP
ITULO 8. EL ESPACIO AF
IN
Problemas
Los problemas que aparecen en esta seccion son parte de colecciones de problemas elaborados por
numerosas personas. No se han incluido al nal de cada secci on debido a que muchos de ellos contienen
conceptos que aparecen en mas de un tema. Sin embargo se ha procurado mantener el orden correspon-
diente al resto de estas notas.
1. Sean X y X
dos conjuntos, A, B X, A
, B
. Estudiar si
son ciertas o no las siguientes armaciones:
a) f(A B) = f(A) f(B)
b) f(A B) f(A) f(B)
c) f
1
(A
) = f
1
(A
) f
1
(B
)
d) f
1
(A
) f
1
(A
) f
1
(B
)
e) A B f(A) f(B)
f ) A
f
1
(A
) f
1
(B
)
En caso de ser ciertas, demostrarlo. Si son falsas, construir un contraejemplo.
2. Sea f: X Y una aplicaci on. Demostrar que f es inyectiva si y solo si: f(A B) = f(A) f(B),
para cualquier par A, B X.
3. Sean X, Y y Z tres conjuntos, f, g, aplicaciones: f: X Y , g: Y Z. Estudiar si es cierto o
no que las armaciones de las columnas segunda y tercera implican la de la cuarta en cada la.
(i=inyectiva, s=sobreyectiva, b=biyectiva).
f g g f
1 i i i
2 i s i
3 b i i
4 s s s
5 i s s
f g g f
6 s b s
7 b b b
8 b i b
9 i b s
10 i s b
Demostrarlas en caso de ser ciertas y encontrar contraejemplos cuando no lo sean.
4. Sean X y X
dos conjuntos, f: X X
, que llamaremos
f
1
(A
mediante la aplicaci on f
1
.
5. Sea f: X X
X tal
que: f = 1
X
donde 1
X
es la aplicacion identidad en X
. Sea h: X X
X
que verique h = 1
X
?
175
176 PROBLEMAS
6. Sean X, Y y Z tres conjuntos, f, g, aplicaciones: f: X Y , g: Y Z. Sea h = g f. Estudiar los
siguientes enunciados:
a) Si h es inyectiva entonces f es inyectiva.
b) Si h es inyectiva y f sobreyectiva, entonces g es inyectiva.
c) Si h es sobreyectiva, entonces g es sobreyectiva.
d) Si h es sobreyectiva y g es inyectiva, entonces f es sobreyectiva.
7. Sean A y B dos subconjuntos de E. Sea T(E) la familia de subconjuntos de E. Se considera la
aplicaci on: f: T(E) T(A) T(B) denida por: f(X) = (X A, B X), X T(E). Determinar
una condici on necesaria y suciente para que a) f sea inyectiva. b) f sea sobreyectiva.
8. Sea E el plano (IR IR), y O un punto de E. Se dene en E la relaci on:
P, Q E, PQ O, P, Q estan alineados
Es una relacion de equivalencia en E? Es una relacion de equivalencia en E O? Hallar las
clases de equivalencia en caso armativo.
9. Sea el conjunto IR IR, y la relaci on:
(x, y), (x
, y
, y
) xy = x
Es una relacion de equivalencia en IR IR? Hallar las clases de equivalencia en caso armativo.
Sea la relaci on
denida por:
(x, y), (x
, y
, y
) xy = x
, xx
0
Es una relacion de equivalencia en IR IR?
10. Sea f: X Y una aplicaci on y la siguiente relaci on en X:
xx
f(x) = f(x
)
Probar que es una relaci on de equivalencia. Sea X/ el conjunto de clases denido por y [x]
una clase de X. Se dene:
f: X/ Y por
f([x]) = f(x). Demostrar que
f es una aplicaci on y es
inyectiva.
11. Sea A = (a, x) [ a, x Q, a ,= 0. Se dene en A una operaci on: (a, x) (b, y) = (ab, bx + y).
Demostrar que (A, ) es un grupo no conmutativo. Demostrar que B = (1, x) [ x Q es un
subgrupo de A.
12. Encontrar todos los subgrupos del grupo de alternaciones A
4
.
13. Se considera el grupo cclico de orden 5, G
5
con generador a. Sea f: ZZ G
5
la aplicaci on denida
por f(n) = a
n
. Demostrar que es un homomorsmo de grupos y hallar el n ucleo (ker f) y la imagen.
Calcular el grupo cociente ZZ/ ker f y probar que es isomorfo a G
5
.
14. Se consideran las funciones f
a
: IR IR, denidas por: f
a
(x) = x + a. Probar que el conjunto
T = f
a
[ a IR es un grupo abeliano, respecto de la composici on de funciones.
15. Calcular la tabla de multiplicaci on para las simetras del tetraedro y estudiar su relaci on con alg un
subgrupo de un grupo de permutaciones.
16. Probar que el conjunto de matrices:
__
a b
b a
_
[ a, b IR, a
2
+b
2
,= 0
_
con la operaci on de multiplicaci on de matrices, es un grupo abeliano. Demostrar que es isomorfo al
grupo multiplicativo de los n umeros complejos distintos de cero. Demostrar que (cuando se incluye
la matriz nula) es tambien un cuerpo isomorfo al de los n umeros complejos.
PROBLEMAS 177
17. Demostrar que cualquier grupo de orden 4 es abeliano y construir todos los grupos de orden 4 no
isomorfos.
18. Demostrar que las matrices cuadradas de orden 2 con coecientes reales de determinante igual a
1 forman un grupo no conmutativo, con respecto al producto. Demostrar que las matrices de la
forma:
_
x y
y x
_
, x
2
+y
2
= 1
forman un grupo abeliano subgrupo del anterior. Es un subgrupo normal?
19. Sean los grupos G
1
= a, b, c, d, G
2
= x, y, z, t con operaciones denidas por las siguientes
relaciones:
G
1
:
_
a a = a, a b = b, a c = c, a d = d, b b = a,
b c = d, b d = c, c c = a, c d = b, d d = a
G
2
:
_
x x = x, x y = y, x z = z, x t = t, y y = x,
y z = t, y t = z, z z = y, z t = x, t t = y
a) Calcular d b, t y.
b) Estudiar si existe un homomorsmo de G
1
en G
2
y calcularlo en caso armativo.
c) Estudiar si G
1
y G
2
son isomorfos. Calcular un isomorsmo en caso armativo.
20. Calcular los subgrupos de los grupos ZZ
8
y ZZ
6
.
Se podra construir un homomorsmo f: ZZ
8
ZZ
6
siendo f(1) = 3? Y si fuese f(2) = 3? En caso
armativo construirlos explcitamente.
21. Resolver la ecuacion x
2
+ 2x + 1 = 0 en ZZ
4
.
22. Sea f: ZZ
16
ZZ
16
un homomorsmo de grupos. Probar que f([2]) ,= [3].
23. Sea q ZZ
4
jado. Considerese el conjunto F
q
= (a, b) [ a, b ZZ
4
, (a, b) ,= ([0], [0]) con la operaci on
asociativa,
(a, b) (c, d) = (ac + qbd, ad +bc).
Hallar el elemento neutro y calcular, si existe, el inverso de ([2], [3]).
24. En el anillo de polinomios IR[x] se considera (para a IR jado) el conjunto I
a
= p(x) IR[x] [
p(a) = 0. Demostrar que I
a
es un ideal de IR[x] y que IR[x]/I
a
IR (como anillos).
25. Un elemento x de un anillo A se dice que es nilpotente si x
r
= 0 para alg un r IN. Determinar:
a) Si el conjunto de los elementos nilpotentes de ZZ
8
forman un ideal.
b) Lo mismo en el anillo de matrices reales 2 2.
26. Calcular el grupo de automorsmos de los cuerpos Q, y IF
2
= a + b
2 [ a, b Q.
27. Se considera el conjunto de matrices con coecientes reales:
_
_
_
_
_
_
a b c d
b a d c
c d a b
d c b a
_
_
_
_
[ a, b, c, d IR
_
_
Demostrar que es un cuerpo no conmutativo. Si:
I =
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
,
178 PROBLEMAS
i =
_
_
_
_
0 1 0 0
1 0 0 0
0 0 0 1
0 0 1 0
_
_
_
_
, j =
_
_
_
_
0 0 1 0
0 0 0 1
1 0 0 0
0 1 0 0
_
_
_
_
, k =
_
_
_
_
0 0 0 1
0 0 1 0
0 1 0 0
1 0 0 0
_
_
_
_
Demostrar que I, i, j, k es un grupo no conmutativo con respecto al producto de matrices
y escribir la tabla del producto.
28. Demostrar que si I es un subanillo no nulo de ZZ entonces I es un ideal. Demostrar que el conjunto:
A =
__
a b
0 d
_
[ a, b, d ZZ
_
es un subanillo del anillo /
2
(ZZ) pero no es un ideal.
29. Estudiar la estructura del conjunto de funciones continuas: C(IR) = f: IR IR, respecto a las
operaciones de suma y producto.
30. Formar las tablas de sumar y multiplicar del anillo ZZ
8
. Hallar todos los divisores de cero y el grupo
de elementos invertibles.
31. Demostrar que la condici on necesaria y suciente para que un elemento de un anillo posea inverso
es que no pertenezca a ning un ideal propio del anillo.
32. Demostrar que todo homomorsmo de cuerpos distinto del nulo es inyectivo.
33. Demostrar que si los puntos z
1
, . . . , z
n
del plano complejo est an situados a un mismo lado de una
recta que pase por cero entonces:
n
i=1
z
i
,= 0. Demostrar que si
n
i=1
z
1
i
= 0, los puntos z
i
no
pueden estar a un mismo lado de una recta que pase por 0.
34. Calcular las races de orden 8 de la unidad y comprobar que su suma es igual a 0. Generalizar el
resultado para races de orden n.
35. Usar la f ormula de Moivre para calcular cos 5x en funci on de cos x y sen x y sus potencias.
36. Demostrar que si z C es una raz del polinomio de coecientes reales p(x), entonces z es tambien
raz de ese polinomio.
37. Sea z
0
una raz de la unidad de orden n, distinta de 1. Demostrar que z
0
es raz del polinomio:
p(z) = z
n1
+ z
n2
+ + z + 1.
38. Calcular todas las races primitivas de la unidad de orden 6. Demostrar que si p es primo, toda raz
de la unidad de orden p distinta de 1 es primitiva.
39. Calcular las races y factorizar el polinomio P(x) = x
10
2x
5
+ 1.
40. Si V es un espacio vectorial y S V , probar que linS es la interseccion de todos los subespacios
de V que contienen a S.
41. Si S
1
, . . . , S
n
son subconjuntos arbitrarios de un espacio vectorial V , probar que lin(S
1
S
2
. . .
S
n
) = linS
1
+ linS
2
+ +linS
n
. Deducir que lin(W
1
W
2
W
n
) = W
1
+W
2
+ +W
n
, si
W
i
es subespacio, 1 i n.
42. Probar que si v
r
linv
1
, . . . , v
r1
entonces linv
1
, . . . , v
r1
= linv
1
, . . . , v
r
. Deducir que existe
una base B de linv
1
, . . . , v
r
tal que B v
1
, . . . , v
r
. Demostrar que dimlinv
1
, . . . , v
r
r, y
que dimlinv
1
, . . . , v
r
= r v
1
, . . . , v
r
es linealmente independiente.
43. Para cada uno de los siguientes subconjuntos de C
3
, estudiar si son o no subespacios vectoriales:
a) x C
3
[ (1 i)x
1
+x
2
ix
3
= 0
b) x C
3
[ x
1
+x
2
x
3
+i = 0
PROBLEMAS 179
c) x C
3
[ x
2
1
+ x
2
2
x
2
3
= 0
d) x C
3
[ e
x1+x2x3
1 = 0
Misma pregunta si consideramos los conjuntos c) y d) como subconjuntos de IR
3
.
44. Decir cuales de los siguientes subconjuntos de V = M
n
(IK) son subespacios vectoriales:
W
1
= A V [ A es invertible
W
2
= A V [ r(A) = n 1
W
3
=
_
A V [ A
t
= 2A
_
W
4
=
_
A V [ A
2
2A = 0
_
W
5
= (a
ij
)
1i,jn
V [ a
11
2a
1n
+ a
nn
= 0 .
45. Estudiar cu ales de los siguientes subconjuntos de ((IR, IR) son subespacios vectoriales:
a) f ((IR, IR) [ f(t) = 0, t ZZ
b) f ((IR, IR) [ f(0) =
2f(1)
c) f ((IR, IR) [ f(0) = 1
d) f ((IR, IR) [ f es derivable dos veces, y f
= 0
e) f ((IR, IR) [ m, n ZZ t.q. f(t) = mt + n
f ) f ((IR, IR) [ f
2
(0) + f
2
(1) = 0
46. Si W es un subespacio vectorial propio de un espacio vectorial V , cu al es el subespacio vectorial
lin(V W) generado por V W? (Nota: V W = x V [ x / W.)
47. Sean W
1
y W
2
dos subespacios vectoriales de un espacio vectorial V . Probar que W
1
W
2
,= 0 si
dimV < dimW
1
+ dimW
2
.
48. Se consideran los siguientes subconjuntos de ((IR, IR):
T = f ((IR, IR) [ f(t) = f(t), t IR, 1 = f ((IR, IR) [ f(t) = f(t), t IR
Demostrar que 1 y T son subespacios de ((IR, IR), y que ((IR, IR) = T 1.
49. En el espacio vectorial V = T(IR, IR), se consideran los subconjuntos
U = f V [ f(1) = f(1) = 0, W = f V [ a, b IR t.q. f(x) = ax +b.
Probar que U y W son subespacios de V . Se cumple la igualdad U W = V ?
50. Sea B = v
1
, . . . v
n
una base de un espacio vectorial V , y sea u
i
=
n
j=1
a
ij
v
j
, 1 i r. Si
A = (a
ij
) 1ir
1jn
, probar que dim(linu
1
, . . . u
r
) = r(A).
51. Dados los subespacios W
1
= lin(1, 2, 1, 0), (0, i, 0, i) y W
2
= lin(3, 1, 0, 1), (5, 6, 2, 2) en
C
4
, hallar una base de W
1
W
2
.
52. Si W = lin(1, 1, 1, 0, ), (0, 1, 1, 0), (1, 1, 0, 1) y
v
1
= (2, 1, 3, 0), v
2
= (1, 1, 1, 1), v
3
= (2, 1, 3, 2),
decir cu ales de los vectores v
i
pertenecen a W.
53. Dado el subespacio W de IR
4
de ecuaciones x
1
+ 2x
2
x
3
+x
4
= 0, 2x
1
+x
3
3x
4
= 0, encontrar
un subespacio complementario de W.
180 PROBLEMAS
54. Estudiar la dependencia lineal de los siguientes subconjuntos del espacio vectorial de los polinomios
en una indeterminada con coecientes complejos:
S
1
= 1 +it
2
, 1 + 5i + (i 5)t (1 + 5i)t
2
, i + (1 +i)t + (i 1)t
2
S
2
= 1, t, t
2
, 1 + t, (1 + t)
2
S
3
= 1, a t, (a t)
2
S
4
= 1 +t
2
, t i, t +i
S
5
= t
2
i, it
2
+ 1, it.
55. Si V =C
4
[x], se consideran los polinomios
p
1
(x) = 3 2x+x
2
+4x
3
+x
4
, p
2
(x) = 4 x+x
2
+6x
3
2x
4
, p
3
(x) = 7 8x+3x
2
+ax
3
+bx
4
.
Determinar los valores de los par ametros a, b C para los cu ales W = linp
1
, p
2
, p
3
tiene dimension
dos. Para dichos valores de a y b, hallar una base de W y calcular las coordenadas de p
1
, p
2
y p
3
en dicha base.
56. Estudiar la dependencia lineal de los siguientes subconjuntos de C
3
:
S
1
= (1, i, 0), (1, 1 +i, 0), (1 i, 1 +i, 3)
S
2
= (1, i, 1), (1 + 5i, 5 + i, 1 5i), (i, 1 +i, i 1)
57. Probar que el subconjunto S = (0, 1, 0), (1, 1, 0), (1, 2, 1), (2, 1, 3), (5, 2, 3), (1, 0, 1) C
3
es un
sistema de generadores de C
3
, y encontrar una base de C
3
contenida en S.
58. Sean
1
,
2
, . . . ,
n
n n umeros complejos distintos. Probar que las funciones f
1
, f
2
, . . . , f
n
dadas
por f
i
(z) = e
iz
son linealmente independientes en ((C,C). Utilizar lo anterior para demostrar que
los conjuntos 1, cos x, cos 2x, . . . , cos nx y sen x, sen 2x, . . . , sen nx son linealmente independien-
tes en ((IR, IR).
59. Para cada uno de los siguientes pares de bases de C
3
, calcular la matriz del cambio de base de B a
B
:
a) B = (1, 1, 0), (1, 1, 1), (0, 1, 2), B
, . . . , p
(n)
_
, , , C.
Calcular la dimensi on y una base de cada uno de ellos. Calcular una base de la suma y otra de la
interseccion de estos dos subespacios.
72. Se considera el subespacio W de C
3
de ecuacion: ax
1
ix
2
= 0, donde a C es una constante.
Calcular a de forma que la intersecci on de W con el subespacio S tenga dimensi on 2, donde:
S = lin(1, 0, i), (1 i, 0, 0), (1 2i, 0, 3i)
182 PROBLEMAS
73. Considerese el espacio de polinomios sobre IR en la variable x de grado menor o igual a n y el
subconjunto de polinomios una de cuyas races es 1. Es un subespacio vectorial? En caso armativo
determinar su dimensi on y hallar una base.
74. Determinar razonadamente si son ciertas o falsas las proposiciones siguientes, siendo W
1
, W
2
, W
3
tres subespacios de un espacio vectorial de dimensi on nita V .
a) W
1
W
3
= 0, W
2
W
3
= 0 (W
1
+W
2
) W
3
= 0.
b) dimW
1
dimV/2, dimW
2
dimV/2, W
1
W
2
= 0 V = W
1
+W
2
.
c) W
1
W
2
W
3
= 0, W
1
+ W
2
+W
3
= V V = W
1
W
2
W
3
.
75. Sean V
1
y V
2
dos espacios vectoriales sobre un mismo cuerpo IK, y considerese el conjunto (producto
cartesiano de V
1
y V
2
)
V
1
V
2
= (x
1
, x
2
) [ x
1
V
1
, x
2
V
2
.
a) Demostrar que V
1
V
2
, con las operaciones denidas por
(x
1
, x
2
) + (y
1
, y
2
) = (x
1
+ y
1
, x
2
+y
2
)
(x
1
, x
2
) = (x
1
, x
2
)
es un espacio vectorial sobre IK, y calcular su dimensi on en funci on de las dimensiones de V
1
y V
2
.
b) Sean ahora W
1
y W
2
subespacios vectoriales de un espacio vectorial V , y sea T: W
1
W
2
W
1
+ W
2
la aplicaci on denida por T(x
1
, x
2
) = x
1
+ x
2
. Demostrar que la suma W
1
+ W
2
es
directa si y solo si T es un isomorsmo.
76. Se considera el espacio vectorial V
4
sobre C y la variedad lineal L engendrada por los vectores:
L = (1, 2 + i, 3 i, i), (1, 1 i, 2 + i, 4 +i), (1, 5 +i, 4 i, 4 i)
Se pide:
a) dimL.
b) Ecuaciones parametricas e implcitas de L.
c) Una base del espacio cociente V
4
/L.
77. Sea V un espacio vectorial real de dimensi on 5 y B = v
1
, v
2
, v
3
, v
4
, v
5
una base de V . Calcular las
ecuaciones implcitas (en la base B) del subespacio W = W
1
+W
2
+W
3
, siendo W
i
los subespacios
denidos por:
W
1
= lin(1, 0, 0, 1, 0), (0, 0, 1, 0, 0)
W
2
:
_
_
_
x
1
+x
2
x
3
= 0
x
2
x
5
= 0
x
2
+ 2x
5
= 0
W
3
= ker f, f: V V
f(x) = (x
4
+ x
5
, x
2
+x
3
x
5
, x
2
x
3
, x
3
x
5
, 2x
2
3x
3
+x
4
+ 4x
5
)
Calcular los subespacios W
1
W
2
, W
2
W
3
, W
1
W
3
, W
1
W
2
W
3
. Es W suma directa de los
subespacios W
1
, W
2
, W
3
?
78. En un espacio vectorial V de dimensi on 4 se tiene un sistema de generadores formado por los
vectores S = u
1
, u
2
, u
3
, u
4
, u
5
. Se sabe ademas que u
1
u
2
+ u
3
= 0.
a) Calcular una base de V a partir de los vectores de S.
PROBLEMAS 183
b) Hallar las coordenadas en la base anterior de una base de un subespacio W de V de dimensi on
2, cuya interseccion con U = linu
1
, u
2
, u
3
es el vector 0 y tal que la suma con el subespacio
R cuyas ecuaciones parametricas en la base encontrada en el apartado a) son
x
1
+ 3x
2
3x
3
2x
4
= 0, x
1
3x
2
+ 3x
3
+ 4x
4
= 0, 3x
1
+ 2x
2
2x
3
5x
4
= 0,
sea directa.
79. Demostrar que toda matriz 2 2, A = (a
ij
)
1i,j2
, es raz del polinomio
P(t) = t
2
(a
11
+a
22
)t + (a
11
a
22
a
12
a
21
).
Utilizar este resultado para obtener una expresi on de la inversa de una matriz 2 2.
80. Probar que la traza del conmutador de dos matrices es cero. Pueden existir dos matrices P, Q tales
que [P, Q] = iI?
81. Si A =
_
1 0
1 1
_
, demostrar que A
2
= 2AI, y calcular A
100
.
82. Dada la matriz A =
_
_
1 1 0
0 1 1
0 0 1
_
_
, hallar A
n
, n IN.
83. Demostrar que las unicas matrices cuadradas de orden n que conmutan con todas las matrices
cuadradas del mismo orden son de la forma I, con C.
84. Por denici on, una matriz cuadrada M es idempotente si M
2
= M. Si A y B son matrices cuadradas
tales que AB = A y BA = B, probar que A y B son idempotentes. Pueden ser A o B invertibles?
85. Si A es una matriz cuadrada tal que A
3
= 0, denimos la matriz M() = I +A+
1
2
2
A
2
, C.
Probar que el conjunto M() [ C es un grupo abeliano respecto del producto de matrices, y
calcular M()
1
.
86. Probar que si A y B son matrices cuadradas de la misma dimension y AB = I, entonces tambien se
cumple que BA = I; en otras palabras, si B es una inversa por la derecha de A entonces B = A
1
.
87. Calcular el signo con que aparece el termino a
n1
a
n1,2
a
1n
en el desarrollo del determinante de
la matriz (a
ij
)
1i,jn
.
88. Probar que si A es una matriz triangular superior, es decir si:
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
0 a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . a
nn
_
_
_
_
_
,
entonces det A = a
11
a
22
a
nn
. Deducir un resultado an alogo para las matrices triangulares infe-
riores.
89. Demostrar que si A y B son dos matrices cuadradas de ordenes n y m, respectivamente, se tiene:
det
_
A C
0 B
_
= det A det B, det
_
C A
B 0
_
= (1)
nm
det A det B.
90. Utilizando las f ormulas del problema anterior, demostrar que det(AB) = det A det B.
184 PROBLEMAS
91. Calcular los determinantes siguientes:
D
1
= det
_
_
_
_
_
_
_
x a a . . . a
a x a . . . a
a a x . . . a
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a a a . . . x
_
_
_
_
_
_
_
, D
2
= det
_
_
_
_
_
_
_
x
1
+ a x
2
x
3
x
n
x
1
x
2
+a x
3
x
n
x
1
x
2
x
3
+ a x
n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x
1
x
2
x
3
x
n
+a
_
_
_
_
_
_
_
.
92. Calcular el determinante de Vandermonde
W(x
1
, . . . , x
n
) = det
_
_
_
_
_
_
_
1 1 1 . . . 1
x
1
x
2
x
3
. . . x
n
x
2
1
x
2
2
x
2
3
. . . x
2
n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x
n1
1
x
n1
2
x
n1
3
. . . x
n1
n
_
_
_
_
_
_
_
93. Calcular los determinantes de las matrices siguientes:
A =
_
_
_
_
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
_
_
_
_
, B =
_
_
_
_
1 1 1 1
a b c d
a
2
b
2
c
2
d
2
a
4
b
4
c
4
d
4
_
_
_
_
, C =
_
_
_
_
a
2
ab ab b
2
ab a
2
b
2
ab
ab b
2
a
2
ab
b
2
ab ab a
2
_
_
_
_
.
94. Calcular el determinante de orden n
n
= det
_
_
_
_
_
x
1
+y
1
x
1
+ y
2
x
1
+y
n
x
2
+y
1
x
2
+ y
2
x
2
+y
n
.
.
.
.
.
.
.
.
.
.
.
.
x
n
+y
1
x
n
+ y
2
x
n
+y
n
_
_
_
_
_
.
95. Una matriz cuadrada es antisimetrica si A
t
= A. Probar que, si 2 ,= 0, el determinante de una
matriz antisimetrica de orden impar es cero.
96. Una matriz cuadrada A M
n
(C) se dice unitaria si AA
= g
1
, g
2
, g
3
es base
de W, y hallar la matriz del cambio de base de B a B
.
115. Si V y W son dos espacios vectoriales de dimension nita tal que dimV > dimW, y A: V W es
un operador lineal, decir cu ales de las siguientes armaciones son siempre ciertas:
a) A es biyectivo
b) A es no degenerado
c) A es sobre
d) A es degenerado
116. Sea V = C
n
[t] el espacio vectorial de los polinomios de grado n con coecientes complejos, y sea
T: V V la aplicaci on denida por (T p)(t) = p(t + 1). Probar que T es lineal y determinar su
n ucleo e imagen.
117. Sea V = C
n
[x] y T: V V la aplicaci on dada por (T p)(x) = p(x + 1) + p(x 1) 2p(x).
a) Probar que T es lineal.
b) Calcular T(x
p
), 0 p n.
c) Calcular ker(T) e im(T).
d) Sea q im(T). Probar que existe un unico p V tal que T(p) = q, p(0) = p
(0) = 0.
118. Dada A M
n
(IK), sea F
A
: M
n
(IK) M
n
(IK) la aplicaci on denida por
F
A
(X) = [A, X], X M
n
(IK).
Probar que F
A
es un operador lineal que cumple F
A
(XY ) = F
A
(X)Y +XF
A
(Y ).
119. Sea T: IR
3
IR
2
la aplicaci on lineal denida por T(x
1
, x
2
, x
3
) = (x
1
+ x
2
, x
1
+ 2x
3
). Si B =
u
1
, u
2
, u
3
y B
= v
1
, v
2
, donde
u
1
= (1, 0, 1), u
2
= (1, 1, 1), u
3
= (1, 0, 0); v
1
= (0, 1), v
2
= (1, 1),
hallar la matriz de T respecto de estas bases.
120. Sea A: V
1
V
2
un operador lineal, S = v
1
, . . . , v
n
V
1
, y denotemos por A(S) al conjunto
Av
1
, . . . , Av
n
. Cu ales de las armaciones siguientes son verdaderas?
PROBLEMAS 187
a) S linealmente dependiente A(S) linealmente dependiente
b) S linealmente independiente A(S) linealmente independiente
c) A(S) linealmente dependiente S linealmente dependiente
d) A(S) linealmente independiente S linealmente independiente
e) A no degenerado linS y linA(S) tienen la misma dimension
121. Sea T el endomorsmo de IR
3
cuya matriz en la base canonica de IR
3
es A =
_
_
1 2 1
0 1 1
1 3 4
_
_
.
Calcular una base de la imagen y del n ucleo de T.
122. Sea T el endomorsmo de IR
2
denido por T(x, y) = (y, x).
a) Calcular la matriz de T en la base canonica de IR
2
b) Calcular la matriz de T en la base (1, 2), (1, 1)
c) Demostrar que para cada n umero real c, el operador lineal T cI es invertible.
123. Sea T el endomorsmo de IR
3
denido por T(x, y, z) = (3x + z, 2x + y, x + 2y + 4z).
a) Calcular la matriz de T en la base (1, 0, 1), (1, 2, 1), (2, 1, 1)
b) Demostrar que T no es degenerado y calcular T
1
(x, y, z).
124. Si A: V V es un operador lineal que cumple la condici on ker A = imA, que se puede decir de
A
2
?
125. Sea A M
n
(IK) una matriz ja. Demostrar que las aplicaciones L
A
, R
A
: M
n
(IK) M
n
(IK) deni-
das por L
A
(X) = AX, R
A
(X) = XA, X M
n
(IK), son lineales. Si n = 2 y
A =
_
2 1
0 1
_
,
hallar el determinante y la traza de L
A
y R
A
.
126. Sea A:C
3
C
3
un operador lineal, y W = lin(0, 1, 2), (1, 1, 1). Si Aw = iw, w W, y
(0, 1, 1) ker A, calcular la matriz de A respecto de la base canonica de C
3
.
127. Si V = M
n
(IK) y A M
n
(IK) es una matriz ja, sea T
A
el endomorsmo de V denido por
T
A
(X) = XA AX. Demostrar, sin calcular la matriz de T
A
, que det(T
A
) = 0
128. Si V = C
n
[t] y A es el endomorsmo de V denido por (A P)(t) = P
(t + 1), P V , calcular
ker(A), im(A), tr(A) y det(A).
129. Se dice que una matriz A M
n
(C) es autoadjunta si y solo si A = A
,
A H, entonces T
B
es un endomorsmo de H.
130. Sea V = M
2
(C), y sea T: V V la aplicaci on denida por T(X) = X + X
t
, X V . Calcular
ker(T), im(T), tr(T) y det(T).
131. Sea V el espacio lineal de las funciones continuas de [, ] en IR, y considerese el subconjunto
W V formado por todos los elementos f de V que verican las condiciones
_
f(s)ds =
_
f(s) cos s ds =
_
f(s) sen s ds = 0.
a) Demostrar que W es subespacio lineal de V .
b) Demostrar que, si n 2, W contiene a las funciones f
n
(t) = sen nt y g
n
(t) = cos nt.
188 PROBLEMAS
c) Es W espacio vectorial de dimension nita?
d) Sea T: V V la aplicaci on dada por
(Tf)(t) =
_
[1 + cos(t s)]f(s)ds.
Demostrar que T es lineal.
e) Demostrar que im(T) es de dimension nita y hallar una base de im(T).
f ) Calcular el n ucleo de T.
g) Hallar todos los escalares IR0 y todas las funciones f V 0 tales que T f = f.
132. Sea V un espacio vectorial y f End(V ). Demostrar que si ker f imf = 0, entonces, x V
existe un unico vector y ker f tal que x y imf.
133. La matriz
A =
_
_
1 2 1
0 1 1
1 1 2
_
_
representa a la aplicaci on lineal f: V W en las bases B
V
= e
1
, e
2
, e
3
y B
W
= u
1
, u
2
, u
3
.
Existe un cambio de bases en V y W tal que transforme la representaci on matricial A en la matriz
A
=
_
_
0 1 0
1 0 1
1 1 0
_
_
?
Determinar bases del n ucleo y la imagen de f.
134. Sea f: V V
una aplicaci on lineal entre dos espacios vectoriales de dimensi on nita. Sea W un
subespacio de V tal que V = W ker f. Demostrar que si u, v W y u ,= v entonces f(u) ,= f(v).
135. Denir una aplicaci on lineal f: C
5
C
3
cuyo n ucleo esta dado por las ecuaciones:
x
1
+ x
2
x
3
x
4
+x
5
= 0
x
2
+ x
3
+x
4
x
5
= 0
y su imagen es el subespacio de C
3
denido por
y
1
= + , y
2
= , y
3
= 2 3, , C
Hallar una expresi on matricial de f.
136. Si f es un endomorsmo del espacio vectorial V tal que f
2
= 0, estudiar la veracidad o falsedad de
las siguientes proposiciones, prob andolas si son ciertas o hallando un contraejemplo si son falsas.
a) dimker f = dimimf.
b) f es diagonalizable.
c) f = 0.
d) dimV 2 dimker f.
e) Si A es la matriz asociada a f en una cierta base, la ecuacion AX = b tiene solucion si
r(A) = dimker f y A b = 0.
137. En IR
5
se tienen los subespacios:
W
1
= lin(0, 1, 1, 1, 0), (0, 1, 0, 1, 0), (0, 2, 1, 0, 0)
y W
2
denido por las ecuaciones implcitas:
x
1
x
3
= 0, x
1
+x
2
x
3
+x
4
= 0
PROBLEMAS 189
a) Calcular los subespacios V
1
= W
1
+ W
2
y V
2
= W
1
W
2
b) Calcular, si existe, un endomorsmo de IR
5
cuya imagen sea igual a V
1
y cuyo n ucleo sea V
2
.
138. Hallar una base del espacio vectorial V de los polinomios con grado menor o igual que 4 que se
anulan en x = 1. Considerese el espacio vectorial W de los polinomios de grado menor o igual que
3 y la aplicaci on D: V W denida por la derivada. Hallar una representaci on matricial de dicha
aplicaci on, su n ucleo y su imagen.
139. Sean V, W espacios vectoriales sobre un cuerpo IK, y f: V W, g: W V , aplicaciones lineales.
Estudiar si son ciertas o falsas las siguientes equivalencias (en los dos sentidos):
a) imf ker g g f = 0
b) imf ker g = 0 g f isomorsmo
c) imf ker g = W dimker f + dimimg = dimV
140. (Alternativa de Fredholm) Considerese el sistema de ecuaciones lineales
AX = B, ()
donde A es una matriz cuadrada. 1) Demostrar que () tiene solucion unica para todo valor de B
si y solo si el sistema homogeneo AX = 0 no tiene m as solucion que la trivial. 2) Probar que si el
sistema homogeneo tiene solucion distinta de la trivial, siempre es posible escoger B de forma que
() sea incompatible.
141. Calcular mediante el metodo de eliminaci on de Gauss todas las soluciones del sistema
1
3
x
1
+ 2x
2
6x
3
= 0
4x
1
+ 5x
3
= 0
3x
1
+ 6x
2
13x
3
= 0
7
3
x
1
+ 2x
2
8
3
x
3
= 0.
142. Hallar todas las soluciones del sistema cuya matriz ampliada es
A
=
_
_
_
_
2 3 7 5 2 2
1 2 4 3 1 2
2 0 4 2 1 3
1 5 7 6 2 7
_
_
_
_
.
143. Hallar los valores de a, b y c para los que el sistema lineal
x
1
2x
2
+x
3
+ 2x
4
= a
x
1
+x
2
x
3
+x
4
= b
x
1
+ 7x
2
5x
3
x
4
= c
no tiene soluci on.
144. Considerese el sistema de ecuaciones cuya matriz ampliada es
A
=
_
_
1 1 2 1
2 0 2 1
1 3 4 2
_
_
.
Es compatible dicho sistema? Si es as, calcular todas sus soluciones.
190 PROBLEMAS
145. Si es un n umero complejo arbitrario, estudiar y resolver el sistema lineal
x + y +
2
z = 0
x +y + z = 0
2
x +y +z = 0.
146. Si es una de las races c ubicas de la unidad (i.e.
3
= 1), resolver el sistema lineal
x + y +z = a
x + y +
2
z = b
x +
2
y +z = c.
147. Resolver los siguientes sistemas de ecuaciones lineales:
x
1
+x
2
+x
3
+x
4
= 0 x
1
+x
2
3x
3
= 1
x
2
+x
3
+x
4
+x
5
= 0 2x
1
+ x
2
2x
3
= 1
x
1
+ 2x
2
+ 3x
3
= 2 x
1
+x
2
+x
3
= 3
x
2
+ 2x
3
+ 3x
4
= 2 x
1
+ 2x
2
3x
3
= 1
x
3
+ 2x
4
+ 3x
5
= 2
x
1
+x
2
3x
4
x
5
= 0 2x
1
x
2
+x
3
x
4
= 1
x
1
x
2
+ 2x
3
x
4
= 0 2x
1
x
2
3x
4
= 2
4x
1
2x
2
+ 6x
3
+ 3x
4
4x
5
= 0 3x
1
x
3
+x
4
= 3
2x
1
+ 4x
2
2x
3
+ 4x
4
7x
5
= 0 2x
1
+ 2x
2
2x
3
+ 5x
4
= 6.
148. Discutir y resolver los siguientes sistemas lineales:
ax + by +z = 1 ax + by + 2z = 1
x + aby +z = b ax + (2b 1)y + 3z = 1
x + by +az = 1 ax + by + (b + 3)z = 1
ax + by +t = a + b ax +y + z + t = 1
bx + ay +z = a b x +ay + z + t = b
y + az + bt = a + 1 x +y +az + t = b
2
x + bz +at = a 1 x +y +z + at = b
3
.
149. Discutir y resolver, cuando sea posible, el sistema lineal
x
1
+x
2
+ +x
n1
+ x
n
= a
n
x
1
+x
2
+ +x
n1
+x
n
= a
n1
.
.
.
x
1
+x
2
+ +x
n1
+x
n
= a
2
x
1
+x
2
+ +x
n1
+x
n
= a
1
.
150. Si A =
_
_
_
_
3 6 2 1
2 4 1 3
0 0 1 1
1 2 1 0
_
_
_
_
, decir para que valores de B M
41
(C) el sistema lineal AX = B
tiene solucion.
151. Estudiar seg un los valores del par ametro a el siguiente sistema:
(a + 1)x +y +z = a
2
+ 3a
x + (a + 1)y +z = a
3
+ 3a
2
x + y + (a + 1)z = a
4
+ a
2
Resolverlo en los casos en que sea posible.
PROBLEMAS 191
152. Calcular todas las races en C de los siguientes polinomios:
a) x
4
4x
3
19x
2
+ 46x + 120, b) 12x
5
16x
4
7x
3
2x
2
62x + 60,
c) x
5
10x
4
+ 29x
3
10x
2
62x + 60, d) x
3
7x
2
+ 13x 3,
e) x
5
4x
4
21x
3
x
2
+ 4x + 21, f) x
4
12x
3
+ 47x
2
72x + 36,
g) 6x
5
11x
4
37x
3
51x
2
34x 8, h) 72x
5
228x
4
22x
3
+ 177x
2
+ x 30
153. Calcular la multiplicidad de la raz x = 1 de la ecuacion x
2n
nx
n+1
+ nx
n1
1 = 0.
154. Sea f un polinomio, y supongamos que el operador lineal A es raz de f, es decir, se cumple la
ecuacion f(A) = 0. Probar que si es un autovalor cualquiera de A entonces f() = 0. Si es una
raz cualquiera de f es necesariamente un autovalor de A?
155. Sea V el espacio vectorial de los polinomios de grado n, y sea A: V V el operador derivada,
denido por
A P =
dP
dt
, P V.
Hallar los autovalores y autovectores de A.
156. Se considera el operador lineal T de IR
3
cuya matriz en la base canonica B = e
1
, e
2
, e
3
es:
_
_
a + 2b a b 3c a b + 3c
a b + c a + 2b +c a b 2c
a b c a b + 2c a + 2b c
_
_
a) Sean e
1
= e
1
+e
2
+e
3
, e
2
= e
1
e
2
, e
3
= e
1
e
3
. Probar que
B = e
1
, e
2
, e
3
es base de IR
3
.
b) Calcular la matriz del operador lineal T en esta base.
c) Calcular los polinomios mnimo y caracterstico de T.
d) Para que valores de a, b, c es T diagonalizable?
157. Sea V el espacio vectorial de todas las funciones continuas de IR en IR, y sea T: V V el operador
lineal denido por
(Tf)(t) =
_
t
0
f(s)ds.
Probar que T no tiene valores propios.
158. Calcular los autovalores y autovectores del operador C
n
C
n
cuya matriz en la base canonica de
C
n
es
_
_
_
_
_
1 1 . . . 1
1 1 . . . 1
.
.
.
.
.
.
.
.
.
.
.
.
1 1 . . . 1
_
_
_
_
_
.
159. Probar que si A: V V es un operador diagonalizable, entonces:
a) imA es la suma directa de todos los subespacios propios de A asociados a autovalores distintos
de cero
b) ker A imA = V
160. Demostrar que toda matriz tiene los mismos autovalores que su matriz transpuesta. Si A es un
endomorsmo invertible, probar que A y A
1
tienen los mismos autovectores, y hallar la relacion
existente entre sus autovalores.
161. De un operador lineal A: C
3
C
3
se sabe que los vectores (0, 1, 1), (1, 1, 0) y (1, 0, 1) son vectores
propios, y que la primera columna de A en la base canonica de C
3
es (1, 2, 3)
t
. Determinar la matriz
de A en la base canonica de C
3
.
192 PROBLEMAS
162. Sabiendo que el endomorsmo f del espacio vectorial real de dimensi on nita V verica
f
4
+ f 1
V
= 0,
estudiar si f es un automorsmo.
163. Sea f: V V un endomorsmo de V (espacio vectorial real de dimensi on nita), tal que para un
cierto x V no existe ning un vector y V tal que f(y) = x. Demostrar que f tiene un autovalor
igual a 0.
164. Sea V un C-espacio vectorial de dimension 3 y f End(V ). Se tiene una base de V, B = u
1
, u
2
, u
3
y se sabe que:
f(u
1
) = u
1
u
2
, f(u
3
) = u
1
+u
3
.
Calcular la imagen del vector v V cuyas coordenadas en la base B son: (1 +
5, 2, 0), si el
subespacio W = linu
1
+u
2
u
3
es invariante bajo f y det f = 1.
165. Calcular una matriz P tal que P
1
AP sea diagonal donde:
A =
_
_
_
_
3 0 2 2
0 1 0 0
4 0 3 1
0 0 0 2
_
_
_
_
.
166. Sea f: V V , un endomorsmo de un espacio vectorial real de dimensi on 3. Sea B = u
1
, u
2
, u
3
una base de V . Se sabe que las ecuaciones del n ucleo de f en la base B son: x
1
+ x
2
x
3
=
0, x
2
+x
3
= 0, y que los vectores u
1
+u
2
u
3
, u
2
+u
3
son autovectores de f con autovalores 1 y
1 respectivamente. Calcular la matriz de f en la base B.
167. Para cada una de las matrices siguientes:
a)
_
_
5 3 2
6 4 4
4 4 5
_
_
, b)
_
_
7 12 6
10 19 10
12 24 13
_
_
, c)
_
_
4 5 7
1 4 9
4 0 5
_
_
,
d)
_
_
_
_
3 1 1 7
9 3 7 1
0 0 4 8
0 0 2 4
_
_
_
_
, e)
_
_
1 2 3
0 2 3
0 0 3
_
_
, f)
_
_
9 6 2
18 12 3
18 9 6
_
_
,
g)
_
_
_
_
3 2 1 1
2 2 1 1
1 1 1 0
1 1 0 0
_
_
_
_
, h)
_
_
_
_
4 10 19 4
1 6 8 3
1 4 6 2
0 1 1 0
_
_
_
_
responder a las siguientes cuestiones:
a) Calcular el polinomio caracterstico y los valores propios (suponiendo que el cuerpo de base es
C)
b) Para cada valor propio, calcular los vectores propios correspondientes en C
n
c) Encontrar, cuando exista, una base de C
n
formada por vectores propios
168. Determinar para que valores de a, b, c, d C el operador A: C
2
C
2
denido por A(x, y) = (ax +
by, cx + dy) es diagonalizable. Considerar el mismo problema si A: IR
2
IR
2
.
169. Sea V = V
1
V
2
y A = A
1
A
2
, siendo, A
i
L(V
i
, V
i
), i = 1, 2. Demostrar las siguientes
armaciones:
a) (A) = (A
1
) (A
2
)
b) V
= ker(A
1
I
V1
) ker(A
2
I
V2
)
PROBLEMAS 193
c) A diagonalizable A
1
y A
2
son diagonalizables
170. Sea f un endomorsmo del espacio vectorial real V denido en la base B = u
1
, u
2
, u
3
, u
4
, u
5
por
las ecuaciones,
f(u
1
) = u
1
+ u + 2 + u
3
+ u
4
+u
5
, f(u
2
) = au
2
, f(u
3
) = bu
3
, f(u
4
) = cu
4
,
f(u
5
) = u
1
+ u + 2 + u
3
+ u
4
+ u
5
,
con a, b ,= 2. Estudiar su espectro. Es diagonalizable? Es invertible?
171. Determinar si son ciertas o falsas las siguientes armaciones, probandolas en caso positivo o dando
un contraejemplo en caso contrario.
a) Todo polinomio m onico (esto es, cuyo coeciente del termino de mayor grado es 1) es el
polinomio caracterstico de alg un endomorsmo.
b) Un polinomio que s olo posee races reales ha de ser caracterstico de un endomorsmo real.
c) Si p
A
() =
n
1 el endomorsmo es diagonalizable.
172. Determinar si son ciertas o falsas las siguientes proposiciones (A es un endomorsmo en un espacio
vectorial V ):
a) Si
1
,
2
son autovalores de A, entonces
1
+
2
es un autovalor de A.
b) Si ,= 0 es un autovalor de A, entonces A no es nilpotente.
c) Si A es invertible y ,= 0 es un autovalor de A, entonces
1
tambien es un autovalor de A.
d) Si es un autovalor de A, entonces
n
es un autovalor de A
n
.
173. Sea la matriz:
A =
_
_
_
_
0 0 0 a
1 0 0 b
0 1 0 c
0 0 1 d
_
_
_
_
Estudiar si es cierta la siguiente armacion:
a, b, c, d IR, la matriz A tiene un autovalor con multiplicidad mayor que 1 si y solo si A no es
diagonalizable.
174. Sea el endomorsmo de IR
4
cuya matriz en la base canonica es:
A =
_
_
_
_
1 1 0 1
1 1 2 1
1 1 4 1
0 2 2 2
_
_
_
_
a) Calcular la forma can onica de Jordan, J, de A.
b) Calcular una matriz P tal que PAP
1
= J
c) Calcular la matriz B = A
5
10A
4
+ 40A
3
80A
2
+ 80A+ 32I.
175. Dada la matriz:
A =
_
_
_
_
7 1 1 2
4 0 4 0
3 1 5 2
4 0 4 0
_
_
_
_
a) Calcular la forma can onica de Jordan de A y la matriz P de cambio de base (A = PJP
1
).
b) Hallar un subespacio de IR
4
invariante bajo A de dimension 2.
194 PROBLEMAS
c) Cu al es la dimension de la imagen de la aplicaci on lineal de IR
4
en IR
4
cuya matriz es A? Y
la del n ucleo?
176. Para cada uno de los operadores lineales cuyas matrices en la base canonica de C
n
se dan a conti-
nuaci on, calcular su forma can onica de Jordan y hallar una base en la cual la matriz del operador
se reduzca a dicha forma canonica:
a)
_
_
_
_
1 1 2 3
0 1 1 2
0 0 2 0
0 0 0 2
_
_
_
_
, b)
_
_
_
_
0 0 0 0
0 0 1 0
0 2 0 0
3 0 0 0
_
_
_
_
, c)
_
_
1 1 2
0 1 4
0 0 1
_
_
,
d)
_
_
_
_
10 9 3 5
5 4 1 3
2 2 0 1
6 6 3 2
_
_
_
_
, e)
_
_
_
_
_
_
_
_
5 0 1 0 0 0
0 5 0 1 0 0
0 0 5 0 1 0
0 0 0 5 0 1
0 0 0 0 5 0
0 0 0 0 0 5
_
_
_
_
_
_
_
_
,
f)
_
_
_
_
_
_
1 0 1 1 0
4 1 3 2 1
2 1 2 1 1
3 1 3 2 1
8 2 7 5 2
_
_
_
_
_
_
, g)
_
_
_
_
_
_
3 3 4 1 5
9 8 10 1 10
0 0 2 1 1
5 3 2 2 0
5 3 1 2 0
_
_
_
_
_
_
,
h)
_
_
_
_
_
_
3 1 4 3 2
2 2 4 1 2
3 0 5 4 3
2 1 4 2 2
0 0 0 2 1
_
_
_
_
_
_
, i)
_
_
_
_
_
_
1 0 0 0 0
2 1 0 0 1
0 0 1 0 0
0 0 1 1 0
0 0 1 0 1
_
_
_
_
_
_
177. Se considera la matriz
_
_
_
_
0 1 0 1
1 0 1 0
0 1 0 1
1 0 1 0
_
_
_
_
a) Calcular el rango de A.
b) Calcular su polinomio caracterstico y su polinomio mnimo.
c) Calcular una matriz regular P tal que P
1
AP = J
A
donde J
A
es la forma canonica de Jordan
de A.
178. Encontrar los valores de a, b IR para los que es diagonalizable la siguiente matriz:
_
_
0 a 1
0 1 0
0 0 b
_
_
y diagonalizarla en esos casos.
179. Sea E = IR
4
[x] el espacio lineal real de los polinomios de grado menor o igual que 4 con coecientes
reales. Sea la aplicaci on:
: E E
p (p) = (x
2
2
)p
2(2x +)p
con , IR jos.
a) Probar que es una aplicaci on bien denida y lineal.
b) Calcular la matriz de en la base canonica de E.
PROBLEMAS 195
c) Calcular, cuando = 0, los autovalores y autovectores de . Forman estos ultimos una base
de E?
180. Calcular la exponencial, el seno y el coseno de las siguientes matrices:
_
_
3 0 0
4 3 0
5 1 2
_
_
,
_
_
1 0 0
1 2 0
3 0 3
_
_
181. En IR
3
sean:
v
1
=
_
_
1
0
1
_
_
, v
2
=
_
_
0
1
2
_
_
, v
3
=
_
_
1
1
0
_
_
a) Sea (IR
3
)
tal que (v
1
) = 1, (v
2
) = 1 y (v
3
) = 3. Calcular (x) para cualquier
x IR
3
.
b) Describir explcitamente una forma lineal (IR
3
)
tal que
(v
1
) = (v
2
) = 0, (v
3
) ,= 0
c) Sea (IR
3
)
con las propiedades del apartado anterior. Probar que (x) ,= 0 si:
x =
_
_
2
3
1
_
_
182. Sea B = e
1
, e
2
, e
3
la base de C
3
denida por:
e
1
=
_
_
1
0
1
_
_
, e
2
=
_
_
1
1
1
_
_
, e
3
=
_
_
2
2
0
_
_
Hallar la base dual de B.
183. Sea 1 el espacio lineal IR
2
[x] formado por todos los polinomios con coecientes reales de grado
menor o igual que 2. Se consideran las siguientes formas lineales en 1:
1
(p) =
_
1
0
p(t)dt,
2
(p) =
_
2
0
p(t)dt,
3
(p) =
_
1
0
p(t)dt
a) Probar que B
=
1
,
2
,
3
es una base de
.
b) Calcular una base B de , que sea la base dual de B
.
c) Encontrar p 1 tal que:
1
(p) = a,
2
(p) = b,
3
(p) = c
siendo a, b, c n umeros reales dados.
184. Sea W el subespacio de IR
5
generado por los vectores:
v
1
= e
1
+ 2e
2
+e
3
v
2
= e
2
+ 3e
3
+ 3e
4
+e
5
v
3
= e
1
+ 4e
2
+ 6e
3
+e
5
donde e
1
, . . . , e
5
es la base canonica de IR
5
. Calcular una base del anulador de W.
196 PROBLEMAS
185. Sea V un espacio de dimensi on nita, n, sobre C. Sean y dos formas lineales no nulas sobre V .
Sup ongase que no existe ning un escalar k C, tal que = k. Probar que:
dim(ker ker ) = n 2
186. Sea (IR
2
)
denida por:
_
x
1
x
2
_
= a
1
x
1
+ a
2
x
2
Para cada uno de los siguientes operadores lineales T, calcular = T
t
:
1) T
_
x
1
x
2
_
=
_
x
1
0
_
, 2) T
_
x
1
x
2
_
=
_
x
2
x
1
_
, 3) T
_
x
1
x
2
_
=
_
x
1
x
2
x
1
+x
2
_
187. Sea f: V V C (V espacio vectorial de dimension nita), una forma bilineal. Demostrar la
siguiente equivalencia:
f(x, y) = f
1
(x)f
2
(y) rangof = 1
donde f
1
, f
2
: V C son dos formas lineales no nulas.
188. Determinar cu ales de las siguientes funciones f
i
: IR
2
IR
2
IR son formas bilineales:
f
1
(u, v) = u
1
v
2
+ u
2
v
1
, f
2
(u, v) = u
2
v
2
,
f
3
(u, v) = a, a = constante f
4
(u, v) = 2u
1
u
2
+v
1
v
2
u = u
1
e
1
+ u
2
e
2
, v = v
1
e
1
+v
2
e
2
189. Si V es el espacio de polinomios V =
_
p(t) = p
0
+ p
1
t + p
2
t
2
, p
i
IR
_
, calcular la matriz de la
forma bilineal
g(p, q) =
_
1
0
p(t)q(t)dt
en la base
_
1, t, t
2
_
Que vale g(t
2
2, 2t + 4)?
190. Si g(u, v) = u
1
v
1
u
1
v
2
+3u
2
v
1
u
2
v
2
con u = u
1
e
1
+u
2
e
2
+u
3
e
3
, v = v
1
e
1
+v
2
e
2
+v
3
e
3
en la base
B = e
1
, e
2
, e
3
de IR
3
, hallar la matriz de g en dicha base. Calcular g(x, y) si x = 2e
1
+ e
3
, y =
e
2
+ 2e
3
con e
1
= e
1
+ e
2
+e
3
, e
2
= e
2
, e
3
= e
1
e
3
.
191. Decir cuales de las aplicaciones siguientes son formas bilineales:
g(A, B) = tr(A
t
B), g(A, B) = det(AB), g(A, B) = (tr A)(tr B)
A, B M
3
(IR), (A
t
)
ij
= A
ji
192. Se considera el espacio IR
4
y en el la forma bilineal simetrica cuya matriz en la base canonica es:
_
_
_
_
0 1 0 1
1 0 1 0
0 1 0 1
1 0 1 0
_
_
_
_
Se pide:
a) Estudiar si es denida positiva. En caso contrario calcular el radical y la signatura.
b) Encontrar una base de IR
4
en la que esta forma bilineal este en su forma canonica.
193. Calcular la matriz de g(A, B) = tr(A
t
JB) en la base
E
11
=
_
1 0
0 0
_
, E
12
=
_
0 1
0 0
_
, E
21
=
_
0 0
1 0
_
, E
22
=
_
0 0
0 1
_
,
con J =
_
0 1
1 0
_
.
PROBLEMAS 197
194. Determinar cuales de las siguientes formas bilineales son equivalentes en IR y en C:
f
1
(x, y) = x
1
y
1
1
2
x
1
y
3
1
2
x
3
y
1
f
2
(x, y) =
1
2
x
1
y
2
+
1
2
x
2
y
1
x
3
y
3
f
3
(x, y) =
1
2
x
1
y
2
+
1
2
x
2
y
1
+x
3
y
3
195. Reducir a suma de cuadrados y determinar la signatura de la forma cuadr atica: q(v) = x
2
4xy +
6y
2
+ 2yz z
2
Puede ser la matriz asociada a dicha forma cuadr atica la matriz de un producto
escalar en IR
3
?
196. Reducir a suma de cuadrados y determinar la signatura de las formas cuadr aticas que en una cierta
base B de IR
3
vienen representadas por las matrices:
a) q
B
=
_
_
1 1 2
1 3 3
2 3 5
_
_
, b) q
B
=
_
_
1 0 0
0 1 2
0 2 4
_
_
, c) q
B
=
_
_
1 2 0
2 2 3
0 3 1
_
_
,
d) q
B
=
_
_
2 1 0
1 2 1
0 1 2
_
_
197. Calcular el rango y la signatura de la forma cuadr atica en IR
n
:
q(u) =
n
i,j=1
(i
2
+ ij +j
2
)u
i
u
j
, u = u
1
e
1
+u
2
e
2
+ +u
n
e
n
, n 3
Encontrar una base en la que q sea una suma de cuadrados.
198. Si u = (u
1
, u
2
), v = (v
1
, v
2
) calcular los valores de a, b, c, d, e para los que:
(u, v) = au
1
v
1
+ bu
1
v
2
+cu
2
v
1
+du
2
v
2
+ eu
1
v
2
2
es un producto escalar en IR
2
.
199. Demostrar que la f ormula
(u, v) = 10u
1
v
1
+ 3(u
1
v
2
+ u
2
v
1
) + 2u
2
v
2
+u
2
v
3
+u
3
v
2
+u
3
v
3
dene un producto escalar en IR
3
. Hallar una base ortonormal respecto a dicho producto escalar.
200. Calcular la proyeccion ortogonal del vector de componentes (1, 1, 0) respecto de una base ortonormal
de IR
3
, sobre el subespacio W de IR
3
denido por: W = x IR
3
[ x
1
+x
2
+x
3
= 0.
201. Si W = lin(1, 3, 0, 2), (3, 7, 1, 2), (2, 4, 1, 0) es un subespacio de IR
4
con el producto escalar
usual, hallar una base ortonormal de W
.
202. Sea V = M
n
(IR).
a) Si B M
n
(IR) es una matriz jada, se dene:
B
: V IR
A
B
(A) = tr(B
t
A)
Probar que
B
V
.
b) Demostrar que para cada V
j=1
a
ij
x
j
= 0, i = 1, . . . , k
respecto a una base ortonormal e
1
, . . . , e
n
, entonces W
j=1
a
ij
e
j
, i = 1, . . . , k
.
204. Obtener una base ortonormal en el espacio de polinomios V =
_
p(t) = p
0
+p
1
t +p
2
t
2
, p
i
IR
_
con
el producto escalar:
g(p, q) =
_
1
1
p(t)q(t)dt
205. En IR
3
se dene la forma cuadr atica: Q(x
1
, x
2
, x
3
) = 2x
2
1
+ x
2
3
+ 4x
1
x
2
+ 2x
1
x
3
+ 2x
2
x
3
.
a) Diagonalizar la forma cuadr atica. Sea (x, y) una forma bilineal simetrica tal que (x, x) =
Q(x). Cu al es su signatura?
b) Escribir la matriz del cambio de base que diagonaliza .
c) Encontrar una base del conjunto (1, 1, 1)
.
206. Se considera la forma cuadr atica en IR
3
: Q(x) = x
1
x
2
x
1
x
3
.
a) Estudiar si Q es denida positiva.
b) Calcular el radical de la forma bilineal simetrica asociada.
c) Diagonalizar Q usando el metodo de Lagrange y calcular su signatura.
207. Se considera el espacio vectorial IR
3
con el producto escalar denido por:
(x, y) = x
1
y
1
+x
2
y
1
+ x
1
y
2
+ 2x
2
y
2
+x
3
y
2
+x
2
y
3
+ 2x
3
y
3
a) Calcular una base ortonormal del subespacio: x
2
2x
3
= 0.
b) Calcular la distancia del vector (0, 1, 2) al subespacio anterior.
c) Estudiar si el operador dado por la siguiente expresi on es simetrico:
x
1
= x
1
, x
2
= x
3
, x
3
= x
2
+x
3
208. Sea V el espacio vectorial real de los polinomios de grado menor o igual que 2 y sean , IR.
Dada la aplicaci on q: V IR, denida por:
q(p) = p()p(), p V
a) Probar que q es una forma cuadr atica en V .
b) Hallar la matriz asociada a q respecto de la base 1, x, x
2
y dar el rango y signatura para los
distintos valores de y .
209. Sea V un espacio vectorial real de dimensi on n y una forma bilineal simetrica de signatura (p, q)
con p q > 0, p + q = n. Se dice que un vector x V es isotropo si (x, x) = 0. Estudiar si son
ciertas o falsas las siguientes armaciones:
a) En V existen vectores isotropos distintos de 0.
b) El conjunto de todos los vectores is otropos forma un subespacio de V .
c) Hay subespacios de V (distintos del trivial 0) cuyos vectores son todos isotropos.
PROBLEMAS 199
d) La forma bilineal es igual a cero cuando se restringe a un subespacio formado por vectores
isotropos.
e) Existen subespacios de vectores isotropos con dimensi on igual a q.
210. Considerese la forma bilineal en IR
3
denida por
(x, y) = x
3
y
1
+x
2
y
2
+x
1
y
3
+ ax
3
y
3
.
Diagonalizarla. Si a = 3 hallar sus vectores isotropos (es decir (x, x) = 0). Forman un subespacio?
Existe alg un a tal que sea denida positiva?
211. En el espacio vectorial IR
3
se considera la forma bilineal simetrica cuya forma cuadr atica asociada
es
q
(x
1
, x
2
, x
3
) = 3x
2
1
4x
1
x
2
6x
1
x
3
+ 3x
2
2
+ 4x
2
x
3
+ 4x
2
3
Comprobar, aplicando el metodo de Lagrange, que dene un producto escalar y hallar una base
ortonormal respecto de este producto escalar.
212. Sea V un espacio vectorial complejo de dimensi on 4, ( , ) un producto escalar en V , B =
u
1
, u
2
, u
3
, u
4
una base ortonormal de V y W el subespacio generado por los vectores w
1
, w
2
cuyas coordenadas en la base B son (1 i, 0, 1 + i, 0), (1, 0, 0, 1) respectivamente. Sabiendo que
w
1
, w
2
son autovectores de autovalor 1 de un operador autoadjunto / en V cuyo otro autovalor
(de multiplicidad 2) es 1, calcular una base ortonormal de V formada por autovectores de / y el
proyector ortogonal sobre el subespacio W. Es / unitario?
213. Sea V un espacio vectorial complejo de dimension nita con un producto escalar y sea A: V V
un operador autoadjunto. Si R = A+ i1
V
, demostrar:
a) |Ru|
2
= |Au|
2
+ |u|
2
, u V.
b) R es un operador inversible.
c) (A i1
V
)(A +i1
V
)
1
es unitario.
214. Sea A el operador en IR
3
con el producto escalar usual, cuya matriz asociada respecto de la base
canonica es
/ =
_
_
2 2 1
2 1 2
1 2 2
_
_
a) Obtener una matriz ortogonal P tal que P
t
/P sea diagonal.
b) Dar la descomposicion espectral del operador A.
215. Se considera la matriz en /(IR
4
):
A =
_
_
_
_
1 0 0 1
0 1 3 0
0 3 1 0
1 0 0 1
_
_
_
_
.
a) Sea V un espacio vectorial real dotado de un producto escalar. Si A es la matriz de un endo-
morsmo f de V en una base ortonormal B, calcular bases del n ucleo y la imagen.
b) En la situaci on descrita en a), calcular una base ortonormal de V formada por autovectores
de f, y hallar su descomposici on espectral. Encontrar una matriz ortogonal P, tal que P
t
AP
sea diagonal.
216. Sea B = u
1
, u
2
, u
3
una base ortonormal de IR
3
respecto al producto escalar usual ((x, y) =
3
i=1
x
i
y
i
en la base canonica). Se dene un operador lineal, T, mediante: T(u
1
) = 5u
1
+ 2u
2
+
4u
3
, T(u
2
) = 2u
1
+ 8u
2
2u
3
, T(u
3
) = 4u
1
2u
2
+ 5u
3
.
200 PROBLEMAS
a) Encontrar una base ortonormal de IR
3
, B
= v
1
, v
2
, v
3
, tal que: Tv
1
= a
1
v
1
, Tv
2
=
a
2
v
2
, Tv
3
= a
3
v
3
y calcular a
1
, a
2
, a
3
IR.
b) Calcular la descomposicion espectral de T en la base B.
217. Diagonalizar mediante una transformaci on ortogonal el operador que en una cierta base ortonormal
B viene representado por la matriz:
A
B
=
_
2 2
2 5
_
Utilizar dicha transformaci on para reducir a suma de cuadrados la forma cuadr atica
q(v) = 2v
2
1
4v
1
v
2
+ 5v
2
2
218. Sea A un operador autoadjunto en el espacio vectorial C
n
, dotado del producto escalar usual: (x, y) =
n
i=1
x
i
y
i
. Sean: u = (1, 0, . . . , 0, i), v = (1, 0, . . . , 0, 1) dos autovectores de A, con autovalores ,
respectivamente. Calcular en funci on de .
219. En End(V ) se dene el producto escalar (A, B) = tr(A
t
B):
a) Calcular el complemento ortogonal del subespacio de los operadores simetricos S(V )
b) Si V = IR
3
describir la descomposicion End(V ) = S(V ) S(V )
, W = line
1
e
2
B = e
1
, e
2
, e
3
es una base ortonormal de IR
3
222. Escribir la matriz que representa una rotaci on en el plano perpendicular al vector (0, 1, 0).
223. Calcular un valor de a IR para el que la transformaci on de IR
3
, representada por la siguiente
matriz en una base ortonormal, sea una rotaci on.
R =
_
_
0 1 0
1 0 0
0 0 a
_
_
Calcular en ese caso el eje y el angulo de rotaci on.
224. Determinar las matrices A para las que e
tA
es ortogonal.
225. Cu antas rotaciones existen en IR
3
que lleven el vector (1, 1, 1) en el (0, 1, 1)? Y cuantas que lleven
el vector (1, 0, 0) en el (0, 1, 0)?
226. Encontrar los valores de IR que hacen a las siguientes formas cuadraticas denidas positivas:
a) 5x
2
1
+ x
2
2
+ x
2
3
+ 4x
1
x
2
2x
1
x
3
2x
2
x
3
b) 2x
2
1
+ x
2
2
+ 3x
2
3
+ 2x
1
x
2
+ 2x
1
x
3
y diagonalizar las formas denidas positivas por Gram-Schmidt.
PROBLEMAS 201
227. Determinar si las aplicaciones siguientes son sesquilineales, calcular las formas hermticas asociadas
y diagonalizarlas:
a) f: C
2
C
2
C f(x, y) = x
1
y
1
i x
2
y
1
+i x
1
y
2
+ 2 x
2
y
2
b) g: C
3
C
3
C g(x, y) = i x
1
y
2
+ i x
2
y
1
x
3
y
1
x
1
y
3
+ x
2
y
3
+ x
3
y
2
Son denidas positivas? En caso armativo diagonalizarlas usando Gram-Schmidt.
228. Sean L
1
y L
2
dos subespacios de un espacio de Hilbert de dimensi on nita, y dimL
1
< dimL
2
.
Probar que existe en L
2
un vector no nulo ortogonal a L
1
.
229. Calcular el vector del subespacio de IR
4
dado por:
2x
1
+ x
2
+ x
3
+ 3x
4
= 0
3x
1
+ 2x
2
+ 2x
3
+x
4
= 0
x
1
+ 2x
2
+ 2x
3
9x
4
= 0
_
_
_
que mas se aproxima (en el sentido de la norma que deriva del producto escalar usual de IR
4
) al
vector (7, 4, 1, 2).
230. Sea u
1
, u
2
una base ortonormal del plano y la matriz de la aplicaci on lineal en la base v
1
=
u
1
, v
2
= u
1
+ u
2
:
_
1 2
1 1
_
Calcular la matriz de
t
en la base v
1
, v
2
.
231. Sea (E, ( , )) un espacio euclidiano, x, y E dos vectores no nulos. Estudiar si son equivalentes las
siguientes armaciones:
a) x y, b) |x + y| |x|, IR
232. Sea (E, ( , )) un espacio euclidiano de dimensi on 4, y B = e
1
, e
2
, e
3
, e
4
una base ortonormal.
Describir todos los operadores ortogonales cuya matriz en la base B es cuasitriangular superior.
233. Sea (E, ( , )) un espacio euclidiano de dimensi on nita y A un operador lineal simetrico en E.
Probar que si A
k
= I para alg un entero positivo k, entonces A
2
= I.
234. Sea (E, ( , )) un espacio euclidiano de dimensi on n 2 y sean v, w dos vectores no nulos. Sea
q: E IR la forma cuadr atica denida por:
q(x) = (v, w)(x, x) (v, x)(w, x)
a) Calcular la forma bilineal simetrica f
q
: E E IR tal que: q(x) = f
q
(x, x)
b) Calcular el operador lineal simetrico A
q
: E E tal que: q(x) = (x, A
q
x).
c) Suponiendo que (v, w) = 0, calcular ker A
q
.
235. Se considera el operador simetrico T: IR
4
IR
4
(dotamos a IR
4
del producto escalar usual) cuya
matriz en la base canonica es:
A =
_
_
_
_
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
_
_
_
_
Calcular una base ortonormal de IR
4
formada por vectores propios de T y encontrar una matriz
ortogonal P tal que P
t
AP sea diagonal.
202 PROBLEMAS
236. Sea E un espacio vectorial complejo de dimension nita n y ( , ) un producto escalar en E. Sea
A: E E un operador autoadjunto con valores propios
1
. . .
n
. Considerese un vector x E
unitario. Probar que:
n
(x, Ax)
1
y deducir que:
(x, Ax) =
1
Ax =
1
x
(x, Ax) =
n
Ax =
n
x
Si T: E E es un operador lineal, probar que T
+
T es autoadjunto y positivo:
(x, T
+
Tx) 0, x E
237. Se considera la matriz real simetrica:
A =
_
_
2 2 4
2 1 2
4 2 2
_
_
Calcular la descomposicion espectral de A.
238. La siguiente matriz representa una rotaci on en IR
3
:
1
9
_
_
8 1 4
4 4 7
1 8 4
_
_
Calcular la direccion del eje de rotaci on y el angulo de giro.
239. Calcular una matriz ortogonal P M
3
(IR), tal que P
t
AP sea diagonal, siendo:
A =
_
_
6 2 2
2 5 0
2 0 7
_
_
240. Se considera la matriz:
A =
_
_
5 2 2
2 2 4
2 4 2
_
_
a) Si A es la matriz de un operador lineal en IR
3
respecto a una base ortonormal, de que tipo
es ese operador?
b) Calcular una matriz ortogonal P tal que P
t
AP sea diagonal.
c) Descomponer A como combinacion lineal de proyectores ortogonales (descomposici on espec-
tral).
241. Calcular una matriz ortogonal P tal que P
t
AP sea diagonal, donde:
A =
_
_
1 2 2
2 1 2
2 2 1
_
_
y calcular la descomposicion espectral de A.
242. Sea f: IR
3
IR
3
IR, la forma bilineal simetrica cuyas ecuaciones referidas a la base canonica de
IR
3
son:
f(x, y) = x
t
_
_
1 1 0
1 2 1
0 1 2
_
_
y
PROBLEMAS 203
a) Comprobar que f es denida positiva. T omese f como un producto escalar en IR
3
y calc ulese
una base ortonormal de IR
3
respecto a este producto escalar, aplicando el procedimiento de
Gram-Schmidt a la base can onica de IR
3
.
b) Se considera la transformacion lineal T: IR
3
IR
3
dada por sus ecuaciones en la base canonica:
T(x) =
_
_
3 0 2
2 1 0
0 0 1
_
_
x
Comprobar que T es un operador simetrico en el espacio euclidiano (IR
3
, f).
c) Calcular la descomposicion espectral de T que debera expresarse en la base canonica de IR
3
.
243. Se considera la matriz simetrica:
A =
_
_
3 2 4
2 0 2
4 2 3
_
_
Calcular la descomposicion espectral de esta matriz (se considera que A es la matriz en la base
canonica de un operador simetrico de IR
3
con el producto escalar usual).
244. Dada la matriz:
A =
_
_
0 1 2
1 0 1
2 1 0
_
_
M
3
(C)
a) Probar que es normal y calcular su espectro.
b) Encontrar una matriz unitaria U, tal que UAU
+
sea diagonal.
245. Sea el operador cuya matriz en la base can onica de C
3
, con el producto escalar usual, es:
A =
_
_
1 0 1
0 2 0
1 0 1
_
_
.
a) Calcular una base ortonormal de autovectores.
b) Calcular la descomposicion espectral.
c) Encontrar la distancia del vector x = (1, 0, i) al subespacio lineal correspondiente al autovalor
maximo.
d) Calcular e
A
.
246. Sea V un espacio vectorial real de dimensi on 2, dotado de un producto escalar, y sea B = u
1
, u
2
una base de V . Sea A un operador simetrico en V respecto a ese producto escalar, tal que: Au
1
=
2u
1
+ 2u
2
, Au
2
= u
1
2u
2
. Sabiendo que los vectores u
1
y u
2
tienen norma igual a 1, calcular el
producto escalar de u
1
por u
2
.
247. Sea el operador cuya matriz en la base can onica de C
3
(con el producto escalar usual) es A =
_
_
1 i 1
i 0 0
1 0 0
_
_
.
a) Decir que tipo de operador es.
b) Calcular los autovalores.
c) Hallar, si existe, una base ortonormal de autovectores.
d) Calcular la descomposicion espectral.
e) Calcular cos(A).
204 PROBLEMAS
248. Probar que el tensor a
ik
jl
+b
il
jk
+ c
ij
kl
es invariante bajo transformaciones ortogonales.
249. Las componentes de un tensor 3 veces covariante referidas a una base ortonormal de IR
2
son todas
1. Calcular las componentes referidas a la base ortonormal girada 90
o
respecto a la primera.
250. Demostrar las siguientes relaciones en IR
3
:
kij
jlm
x
i
y
l
z
m
= x
i
z
i
y
k
x
i
y
i
z
k
,
ijk
ilm
x
j
y
k
x
l
y
m
= x
i
x
i
y
j
y
j
(x
i
y
i
)
2
251. Dados los vectores x e y en IR
3
, escribir las componentes de (x y)
i
=
ijk
x
j
y
k
y decir si es tensor
y de que tipo.
252. Dados x e y, vectores de IR
2
denidos por x
1
= 1, x
2
= 1, y
1
= 0 e y
2
= 2 y el tensor metrico:
g
11
= 1, g
12
= g
21
= 1/2 , g
22
= 2, hallar: (a) x
i
x
i
, (b) y
i
y
i
y (c) y
i
x
i
.
253. Sean v y w dos vectores de IR
n
de norma unidad y ortogonales entre s. Hallar el valor del escalar:
ijk
kl
v
l
v
j
w
i
+v
k
kl
w
l
+
ij
ji
v
k
kl
v
l
254. Se consideran las matrices
/
4
(C), = 0, 1, 2, 3, que verican:
= 2g
I
4
.
Supongamos que
= 0, ,= . Calcular el n umero
de componentes linealmente independientes (en el espacio /
4
(C)) de los tensores:
.
255. Sea V un espacio vectorial y los tensores A
, T
, g
, donde T
es simetrico y g
dene un
producto escalar en V . Construir el escalar m as general que se puede formar con los tensores A
y
T
. Sean
i
, i = 1, 2, 3 los
autovalores de A
. Demostrar que:
3
i=1
i
= A
,
3
i=1
2
i
= A
,
3
i=1
3
i
= A
=
u
1
+ 2u
2
, u
1
u
2
.
b) Estudiar si son ciertas las siguientes igualdades:
1) (u
1
+ u
2
) (2u
1
u
2
) + (u
1
+ 2u
2
) u
2
= (2u
1
+u
2
) u
1
+ u
2
(u
1
+u
2
)
2) (u
1
u
2
) (u
1
+u
2
) = (u
1
+ u
2
) (u
1
u
2
)
c) Dados los tensores cuyas componentes referidas a la base B son: r
ij
k
= i(2k), s
i
jk
= (i+1)j,
hallar las componentes respecto de B
2) = a b
2
27. Se trata de una representaci on matricial de los cuaterniones.
28. Se supone que los ideales no contienen a la unidad (pues si no, son triviales).
29. Es un anillo con las operaciones dadas.
30. Los divisores de cero son: [2], [4], [6] y los elementos invertibles: [1], [3], [5], [7].
31. Si un elemento tiene inverso y esta en un ideal, este es igual al anillo.
32. En un cuerpo no hay ideales propios.
33. Suponer que la recta es el eje real.
34.
1,
1 + i
2
i,
1 +i
2
, 1,
1 i
2
, i,
1 i
2
35. cos 5x = cos
5
x10 cos
3
x sen
2
x +5 cos x sen
4
x, sen 5x = 5 cos
4
x sen x 10 cos
2
x sen
3
x+sen
5
x.
36. Si p(z) tiene todos los coecientes reales: p(z) = p(z).
37. zp(z) = z
n
+p(z) 1 (z 1)p(z) = z
n
1. Si z
n
0
= 1 y z
0
,= 1, entonces p(z
0
) = 0
38. Races primitivas: (1 i
3)/2
39. P(x) = (x 1)
5
= (x 1)
2
(x e
2i/5
)
2
(x e
4i/5
)
2
(x e
6i/5
)
2
(x e
8i/5
)
2
40. La envolvente lineal de S es la interseccion de todos los subespacios que contienen a S.
41. Usar para la suma la denici on: U +V = x +y [ x U, y V .
42. Si x linv
1
, . . . , v
r
, x =
r
i=1
i
v
i
. Como v
r
=
r1
i=1
i
v
i
, x linv
1
, . . . , v
r1
b a
2
x +
b + a
2
_
donde: a = f(1) y b = f(1).
50. Estudiar el rango de la matriz A, cuyas columnas son las coordenadas de los vectores u
i
en la base
B, y emplear el isomorsmo entre V y IK
n
.
51. W
1
W
2
= lin(2, 5, 2, 1).
52. Los dos primeros, no. El tercero, s.
53. Base de W: 2, 0, 5, 3), (0, 1, 3, 1). Una base de un complementario es: 1, 0, 0, 0), (0, 1, 0, 0)
54. S
1
: l.i.; S
2
: l.d.; S
3
: l.i.; S
4
: l.i.; S
5
: l.d.;
55. a = 8, b = 9. Base de W: p
1
(x), p
2
(x), y las coordenadas son: p
1
(x) (1, 0), p
2
(x)
(0, 1), p
3
(x) (5, 2).
56. S
1
es l.i. y S
2
es l.d.
57. Los tres primeros vectores forman una base de C
3
.
58. Derivando n 1 veces en
n
i=1
i
e
iz
= 0 se obtienen las n ecuaciones:
n
i=1
k
i
i
e
iz
= 0, con
k = 0, . . . , n 1. Se tiene un sistema lineal de ecuaciones en
i
, con determinante:
exp(z
n
i=1
i
) det
_
_
_
_
_
1 . . . 1
1
. . .
n
.
.
.
.
.
.
n1
1
. . .
n1
n
_
_
_
_
_
que es el determinante de Vandermonde igual a (salvo un factor no nulo):
i<j
(
i
j
) ,= 0
Para la segunda parte se usan las identidades:
cos z =
1
2
(e
iz
+e
iz
), sen z =
1
2i
(e
iz
e
iz
)
59.
a) P =
1
3
_
_
2 0 1
3 0 3
1 3 2
_
_
, b) P =
1
15
_
_
33 33 9
2 13 6
7 23 6
_
_
60.
p(x) =
n
i=0
a
i
x
i
=
n
i=0
i
(x +a)
i
luego
i
son los coecientes del desarrollo de Taylor en x = a:
k
= p
(i)
(a)/k!
61. El grado de p(x) debe ser igual a n.
62. W
1
W
2
, W
2
W
3
, W
3
W
1
son sumas directas, pero W
1
+ W
2
+W
3
no es suma directa.
210 SOLUCIONES
63. Por inducci on. Para n = 2 ya esta demostrado. Si es cierto para n 1, para n basta escribir:
W
1
+ + W
n
= (W
1
+ W
2
) +W
3
+W
n
y aplicar la hip otesis de induccion y la f ormula para el caso n = 2. En el caso de suma directa,
todas las intersecciones de la expresion anterior son iguales a cero.
64. S son complementarios: U W = 0 y la suma de dimensiones es n.
65. La suma no es directa para a = 9/5 y b = 2/5.
66. Base de U: p
1
(x), p
3
(x). Base de W: q
1
(x), q
2
(x)
Base de U W: 3p
3
(x) p
1
(x). Base de U + W: p
1
(x), p
3
(x), q
2
(x)
67. La unica inclusi on que es siempre cierta es: (W
1
W
3
) + (W
2
W
3
) (W
1
+ W
2
) W
3
.
68. m = 2, n = 1. V
2
= lin((1, 0, 0, 0), (0, 1, 0, 0).
69. La dimensi on de cualquier interseccion de la f ormula es 0. Entonces: 3 < 1 + 1 + 2.
70. dimW
1
W
2
= 1 dim(W
1
+ W
2
) = 4 W
1
+ W
2
= V
71.
dimU = 3, B
U
= (1, 0, 0, 0, 1), (0, 1, 0, 4, 1), (0, 0, 1, 3, 1)
dim V = 2, B
V
= (1, 1, 2, 0, 0), (1, 0, 1, 0, 1), dimU V = 1, B
UV
= (1, 3, 4, 0, 2)
dimU +V = 4, B
U+V
= (1, 0, 0, 0, 1), (0, 1, 0, 4, 1), (0, 0, 1, 3, 1), (1, 1, 2, 0, 0)
72. a = 0
73. S. B = (x 1), (x 1)x, (x 1)x
2
, . . . , (x 1)x
n1
) = M( +
n
i=1
x
i
).
92. Haciendo ceros en la primera columna (desde la la 2 hasta la ultima, restando de cada la la
anterior multiplicada por x
1
) se demuestra que: W[x
1
, . . . , x
n
] =
1<i
(x
i
x
1
)W[x
2
, . . . , x
n
]. Con
esta recurrencia se prueba que: W[x
1
, . . . , x
n
] =
j<i
(x
i
x
j
)
93. det(A) = 8, det(B) = (ab)(ac)(ad)(bc)(bd)(cd)(a+b+c+d), det(C) = (a
2
b
2
)
4
.
94.
n
= 0, n 3,
2
= (x
1
x
2
)(y
2
y
1
).
95. det(A) = det(A
t
) = det(A) = (1)
n
det(A), luego det(A) = 0 si n es impar (y 2 ,= 0).
96. (det A)(det A
+
) = (det A)(det A) = [ det A[
2
= det I = 1 [ det A[ = 1.
97. Usar para a) y b) las siguientes igualdades:
_
A B
C D
_
=
_
A 0
C D CA
1
B
__
I A
1
B
0 I
_
,
_
A B
C D
_
=
_
I BD
1
0 I
__
A BD
1
C 0
C D
_
98. 1) a = 20 r(A) = 3, a ,= 20 r(A) = 4. 2) a = 3 r(A) = 2, a ,= 3 r(A) = 4
99. a = 1, b = 7 r(A) = 3.
100. r(A) = 2.
101. r(B) = dim(linB
1
, . . . , B
m
), r(AB) = dim(linAB
1
, . . . , AB
m
) r(AB) r(B). De forma
similar (usando transpuestas, por ejemplo) se prueba: r(AB) r(A).
212 SOLUCIONES
102. Si r(A) = 0 (suponiendo que la primera la es no nula; en el caso en que todas lo sean la igualdad
es evidente):
_
_
_
_
_
a
11
a
1n
a
21
a
2n
.
.
.
.
.
.
a
n1
a
nn
_
_
_
_
_
=
_
_
_
_
_
a
11
a
1n
2
a
11
2
a
1n
.
.
.
.
.
.
n
a
11
n
a
1n
_
_
_
_
_
=
_
_
_
_
_
1
2
.
.
.
n
_
_
_
_
_
_
a
11
a
1n
_
La implicaci on en sentido contrario es consecuencia de un problema anterior:
r(RS) mn(r(R), r(S)) 1
103. a) r(AB) mn(r(A), r(B)) n < m. Pero, r(I
m
) = m.
b) AB = I
m
AB
i
= e
i
, i = 1, . . . m. Si r(A) = m entonces r(A[e
i
) = m para cualquier i, luego
el sistema es compatible y como n < m, es indeterminado y hay innitas soluciones. Si r(A) < m,
r(AB) < m, luego no puede ser igual a I
m
.
104. det(A) = 9.
105. cof(A) =
n1
cof A, det(cof A) = (det A)
n1
, cof(cof A) = (det A)
n2
A, cof(AB) = cof Acof B.
106. a
ij
= j + n(i 1). El rango es 2 (restar a cada la la anterior).
107. No existe inversa de A.
B
1
=
1
8
_
_
8 0 8
6 2 2
3 1 5
_
_
, C
1
=
_
_
_
_
5 4 1 4
10 8 3 9
11 9 4 10
9 7 3 8
_
_
_
_
108.
A
1
=
_
_
1 2 1
5 8 6
3 5 4
_
_
, B
1
=
1
3
_
_
5 2 4
3 0 3
7 1 5
_
_
, C
1
=
_
_
14 8 3
8 5 2
3 2 1
_
_
109.
A
1
=
_
_
i 1 + 2i i
1 i 1 i
1 0 1
_
_
110. Sea A con elementos en ZZ. Si det A = 1, la inversa tiene elementos enteros. Si A y A
1
tienen
elementos enteros, los dos determinantes son enteros. Como uno es el inverso del otro y en ZZ las
unicas unidades (elementos con inverso) son 1, 1, el determinante es 1.
111. a) S. b) S. c) S. d) S. e) No. f) No. g) No. h) No.
112. 1) No. 2) No. 3) S. 4) No.
113. Se dene, si x =
n
i=1
x
i
v
i
V
1
, el operador A como: Ax =
n
i=1
x
i
w
i
, que verica: Av
i
= w
i
y es
lineal. Adem as, es unico (al ser B una base de V
1
).
114. a)
1
+
2
e
it
+
3
e
it
= 0 implica
1
=
2
=
3
= 0, por ejemplo derivando y poniendo t = 0.
b) Que B
m1
k=0
_
2m
2k
_
x
2k
, T(x
2m+1
) = 2
m1
k=0
_
2m+1
2k+1
_
x
2k+1
c) ker T = C
1
[t], imT =C
n2
[t]
d) Si T p(t) = q(t), entonces p(t) = p(t) p
(0) = p(0) = 0.
Ademas, p es unico con estas propiedades.
118. F
A
es lineal. F
A
(XY ) = [A, XY ] = X[A, Y ] + [A, X]Y .
119. A
= QAP
1
con:
Q
1
=
_
0 1
1 1
_
, P
1
=
_
_
1 1 1
0 1 0
1 1 0
_
_
, A
=
_
2 1 0
1 2 1
_
120. a) S. b) No. c) No. d) S. e) S.
121. ker T = lin(1, 1, 1), imT = lin(1, 0, 1), (2, 1, 3).
122.
a) T =
_
0 1
1 0
_
, b) P =
1
3
_
1 1
2 1
_
, T
=
1
3
_
1 2
5 1
_
c) det T = 1 + c
2
,= 0, c IR.
123. a)
T =
_
_
3 0 1
2 1 0
1 2 4
_
_
, P =
1
4
_
_
1 3 5
1 1 1
2 2 2
_
_
, T
=
1
4
_
_
17 35 22
3 15 6
2 14 0
_
_
b)det T = 9, T
1
(x, y, z) = (1/9)(4x + 2y z, 8x + 13y 2z, 3x 6y + 3z).
124. A
2
= 0, pues si x V , Ax imV = ker A A(Ax) = 0.
125. det L
A
= det R
A
= 4, tr L
A
= tr R
A
= 2.
126.
A
= PAP
1
=
_
_
0 1 0
1 1 1
2 1 1
_
_
_
_
i 0 0
0 i 0
0 0 0
_
_
_
_
0 1 0
1 1 1
2 1 1
_
_
1
=
_
_
i 0 0
3i i i
3i 2i 2i
_
_
127. T
A
(A) = 0 luego T
A
no es inyectiva y su determinante es cero.
128. A es la composicion de la aplicaci on de un problema anterior y de la derivada: A = D T. det A =
0, tr A = 0.
129. (A + B)
= A
+ B
, (A)
= A
, IR. No es un subespacio de /
n
(C). T
B
es lineal y:
(BAB
= BA
= BAB
.
130. ker T son las matrices antisimetricas. imT son las matrices simetricas. Para n = 2, tr T = 6, det T =
0.
214 SOLUCIONES
131. a) W es un subespacio lineal (de dimensi on innita).
b)
_
cos nsds =
_
cos ns cos s ds =
_
cos ns sen s ds =
_
sen nsds =
_
sen ns cos s ds =
_
sen ns sen s ds = 0.
cuando n 2. c) No, por el apartado b). d) La integral es lineal. e) Desarrollando el integrando:
imT = lin1, cos t, sen t, dim(imT) = 3. f) ker T = W. g) = 2, f(t) = 1, = , f(t) =
a
1
cos t + a
2
sen t
132. En este caso V es suma directa del n ucleo y la imagen de f.
133. No. r(A) = 2 ,= r(A
) = 3. B
ker f
= 3e
1
+e
2
+ e
3
, B
imf
= u
1
+ u
3
, 2u
1
u
2
+ u
3
.
134. V = ker f W ker f W = 0.
135. En las bases:
B
C
5 =
_
_
u
1
=
_
_
_
_
_
_
2
1
0
0
1
_
_
_
_
_
_
, u
2
=
_
_
_
_
_
_
0
0
1
0
1
_
_
_
_
_
_
, u
3
=
_
_
_
_
_
_
0
0
0
1
1
_
_
_
_
_
_
, u
4
=
_
_
_
_
_
_
1
0
0
0
0
_
_
_
_
_
_
., u
5
=
_
_
_
_
_
_
0
1
0
0
0
_
_
_
_
_
_
_
_
B
C
3 =
_
_
_
v
1
=
_
_
1
1
2
_
_
, v
2
=
_
_
1
1
3
_
_
, v
3
=
_
_
1
0
0
_
_
_
_
_
/(f, B
C
5 , B
C
3) =
_
_
0 0 0 1 0
0 0 0 0 1
0 0 0 0 0
_
_
136. a) Falso. b) Falso. c) Falso. d) Cierto. e) Cierto.
137. B
W1+W2
= (0, 2, 1, 0, 0), (0, 1, 0, 1, 0), (1, 0, 1, 0, 0), (0, 0, 0, 0, 1). B
W1W2
= (0, 1, 0, 1, 0).
A =
_
_
_
_
_
0 0 1 0 0
2 1 0 1 0
1 0 1 0 0
0 1 0 1 0
0 0 0 0 1
_
_
_
_
_
138. Base: x 1, (x 1)
2
, (x 1)
3
, (x 1)
4
. Matriz:
_
_
_
_
1 2 3 4
0 2 6 12
0 0 3 12
0 0 0 4
_
_
_
_
ker D = 0, imD = W.
139. a) Cierta en los dos sentidos. b) Falsa hacia la derecha y cierta hacia la izquierda. c) Cierta hacia
la derecha y falsa hacia la izquierda.
140. Si AX = 0 solo tiene la soluci on trivial, A (como transformaci on lineal) es un isomorsmo, y
AX = B tiene solucion unica. Similar en el sentido opuesto. Si AX = 0 tiene soluciones distintas
de la trivial, A no es sobreyectiva.
SOLUCIONES 215
141. x
1
= 5/4, x
2
= 67/24, x
3
= .
142. x
1
= 1 + 2 , x
2
= 2 + , x
3
= , x
4
= , x
5
= 1.
143. Cuando 2a 3b + c ,= 0 el sistema no tiene solucion.
144. S. x
1
= + 1/2, x
2
= 1/2, x
3
= .
145. Hay soluci on no trivial si [[ = 1. x
1
= x
2
2
x
3
.
146. x
1
= (a +b + c)/3, x
2
= (a +
2
b +c)/3, x
3
= (a + b +
2
c)/3.
147. a) (1, 1, 1, 1, 1). b) incompatible. c) ( + 7/6, + 5/6, , /3, ). d) (0, 2, 5/3, 4/3).
148. a) Soluci on unica: a ,= 1, 2, b ,= 0:
x =
a b
(a 1)(a + 2)
, y =
b(a + 1) 2
b(a 1)(a + 2)
, z =
a b
(a 1)(a + 2)
b = 0, (b ,= 1, a = 1), (b ,= 2, a = 2) no hay soluci on.
a = b = 1: x = 1 z y. Si a = b = 2: x = z = 1 2y.
b) a ,= 0, b ,= 1, 1. Soluci on unica: (1/a, 0, 0).
a = 0, b ,= 1, 1, no hay soluci on.
a = 0, b = 1, soluci on: (x, 1, 0)
a = 0, b = 1, soluci on: (x, 1/3, 2/3)
a ,= 0, b = 1, soluci on: ((1 y)/a, y, 0)
a ,= 0, b = 1, soluci on: ((2 3z)/2a, z/2, z)
c) Si b ,= a+1, a1, a+1, a1, soluci on unica: (1+a
3
+b+aba
2
bb
2
+ab
2
b
3
, 12a+a
3
b
ab3a
2
b+b
2
+ab
2
+b
3
, a(a+a
2
+b2ab+b
2
), a(2a+a
2
b2ab+b
2
))/(a+b+1)(ab+1)(ab1).
Si b = a + 1, a ,= 0, no hay soluci on. Si b = 1, a = 0, la soluci on es (1 z, 1 t, z, t).
Si b = a 1, a ,= 0, no hay soluci on. Si b = 1, a = 0, la soluci on es (1 +z, 1 +t, z, t).
Si b = a +1, a ,= 0, 1, la soluci on es: (t +a 1/2, t + (2a
2
a 2)/2(a 1), t + 1/2(a 1), t).
Si b = 0, a = 1 no hay soluci on.
Si b = a 1, a ,= 0 no hay soluci on.
d) Si a ,= 1, 3 solucion unica: (b
3
b
2
b + a + 2, b
3
b
2
+ab + 2b 1, b
3
+ab
2
+ 2b
2
b
1, ab
3
+ 2b
3
b
2
b 1)/(a + 3)(a 1).
Si a = 1, b ,= 1, no hay soluci on. Si a = 1, b = 1 la soluci on es (1 y z t, y, z, t). Si
a = 3, b ,= 1, i, i no hay soluci on. Si a = 3, b = 1, la soluci on es (t 1/2, t, t 1/2, t). Si
a = 3, b = i, la soluci on es (t (1 + i)/4, t i/2, t + (1 i)/4, t). Si a = 3, b = i, la soluci on
es (t + (1 +i)/4, t +i/2, t + (1 + i)/4, t).
149. Si = , el sistema no tiene solucion a no ser que a
1
= = a
n
. (el caso = = 0 no lleva a un
sistema). La solucion, cuando existe, es: (a
1
n
i=2
x
i
, x
2
, . . . , x
n
).
Si = (1 n) ,= 0, el sistema no tiene solucion a no ser que
n
i=1
a
i
= 0.
Si ,= , (1 n), la soluci on es:
x
j
=
1
n( )
_
(2n 1)
(n 1) +
n
i=1
a
i
na
j
_
, j = 1, . . . , n
150. B = ( + 3, 3 2, , ), , C.
151. Si a ,= 0, 3, soluci on unica: (a
3
+a+6, 5a
2
+4a3, a
4
+2a
3
2a3)/(a+3). Si a = 0, soluci on:
(y z, y, z). Si a = 3 no hay soluci on.
216 SOLUCIONES
152. a) 2, 3, 4, 5. b) 2, 3/2, 5/6, i
2. c) 2, 3, 5,
2. d) 3, 2
3. e) 1, 3, 7, (1 i
3)/2. f)
1, 2, 3, 6. g) 4, 1/2, 2/3, (1 i
(1) = 0, p
(1) = 0, p
(1) = 2n
3
2n ,= 0. La multiplicidad es 3.
154. Usar f(A)v = f()v, si Av = v. Si es raz de f, puede no ser autovalor de A. Por ejemplo,
considerar la matriz identidad en 2 2 y el polinomio f(t) = t
2
1.
155. Autovalor = 0. Autovector: p(t) = 1.
156.
a) det
_
_
1 1 1
1 1 0
1 0 1
_
_
= 3 ,= 0, b) /(T,
B) =
_
_
3a 0 0
0 3b 3c
0 3c 3b
_
_
c) Si c ,= 0, p
T
() = ( 3a)(
2
6b +9(b
2
+c
2
)) = m
T
(). Si c = 0, m
T
= ( 3a)( 3b).
d) T solo es diagonalizable en IR
3
si c = 0. En C
3
es siempre diagonalizable.
157. Las ecuaciones:
_
t
0
f(s)ds = f(t); f
) =
_
_
1
0 0
0
2
0
0 0
3
_
_
, P
1
=
_
_
0 1 1
1 1 0
1 0 1
_
_
En la base can onica:
/(A, B) =
_
_
1 1 1
2 4 2
3 3 3
_
_
162. = 0 no es una raz de
4
+ 1, f es un automorsmo.
163. f no es sobreyectiva. Al ser un endomorsmo, tampoco es inyectiva.
164. f(v) =
3
5
2
((1 +
5)u
1
+ 2u
2
)
165.
P =
_
_
_
_
1 8 0 1
0 0 1 0
2 7 0 1
0 3 0 0
_
_
_
_
166.
1
6
_
_
2 2 2
2 1 5
2 5 1
_
_
SOLUCIONES 217
167. a) 1, 2, 3, (1, 2, 1), (1, 1, 0), (1, 2, 2).
b) 1, 1(2), (3, 5, 6), (1, 0, 1), (2, 1, 0).
c) 1, 2 + 3i, 2 3i, (1, 2, 1), (3 3i, 5 3i, 4), (3 + 3i, 5 + 3i, 4).
d) 0, (1, 3, 0, 0), (5, 0, 6, 3).
e) 1, 2, 3, (1, 0, 0), (2, 1, 0), (9, 6, 2).
f) 3, (1, 0, 6), (1, 2, 0).
g) 0,6, 0,7, 0,5, 5,4, (0,2, 0,4, 0,4, 1), (1,2, 0,4, 2,8, 1), (2, 2,4, 0,8, 1), (3, 2,4, 1,2, 1).
h) 1, (3, 1, 1, 0), (2, 1, 0, 1).
168. 1.i) (a d)
2
> 4bc, diagonalizable en IR y C.
1.ii) (ad)
2
= 4bc, b = c = 0, diagonalizable en IR y C (diagonal). b ,= 0 o c ,= 0, no diagonalizable.
2) (a d)
2
< 4bc, diagonalizable en C.
169. En un base adaptada a la descomposici on, la matriz de A es diagonal por bloques.
170. (f) = 0, 2, a, b, c. Siempre es diagonalizable. No es invertible.
171. a) Cierta. b) Falsa. c) Cierta.
172. a) Falsa. b) Cierta. b) Falsa. c) Cierta.
173. Cierta. El rango de AI es siempre 3.
174. a)
J =
_
_
_
2 1 0 0
0 2 0 0
0 0 2 1
0 0 0 2
_
_
_
b)
P =
1
2
_
_
_
0 0 2 1
2 0 2 2
0 0 0 1
0 2 2 0
_
_
_
c) B = 64I
175. a)
J =
_
_
_
4 0 0 0
0 4 1 0
0 0 4 0
0 0 0 0
_
_
_, P =
_
_
_
1 2 0 0
2 0 0 2
1 2 0 0
0 4 1 1
_
_
_
b) linP
1
, P
2
. c) dimker A = 1, dimimA = 3
176. En todos los casos, A = PJP
1
donde J es la forma canonica de Jordan.
a)
J =
_
_
_
_
1 1 0 0
0 1 0 0
0 0 2 0
0 0 0 2
_
_
_
_
, P =
_
_
_
_
1 0 5 3
0 1 2 1
0 0 0 1
0 0 1 0
_
_
_
_
b)
J =
_
_
_
_
0 1 0 0
0 0 0 0
0 0
2 0
0 0 0
2
_
_
_
_
, P =
_
_
_
_
0 1/3 0 0
0 0 1/
2 1/
2
0 0 1 1
1 0 0 0
_
_
_
_
218 SOLUCIONES
c)
J =
_
_
1 1 0
0 1 0
0 0 1
_
_
, P =
_
_
1 0 2
0 1 2
0 0 1
_
_
d)
J =
_
_
_
_
1 1 0 0
0 1 0 0
0 0 1 1
0 0 0 1
_
_
_
_
, P =
_
_
_
_
2 1/3 1 1/3
0 0 1 0
1 5/3 0 2/3
3 0 0 0
_
_
_
_
e)
J =
_
_
_
_
_
_
_
_
5 1 0 0 0 0
0 5 1 0 0 0
0 0 5 0 0 0
0 0 0 5 1 0
0 0 0 0 5 1
0 0 0 0 0 5
_
_
_
_
_
_
_
_
, P =
_
_
_
_
_
_
_
_
0 0 0 1 0 0
1 0 0 0 0 0
0 0 0 0 1 0
0 1 0 0 0 0
0 0 0 0 0 1
0 0 1 0 0 0
_
_
_
_
_
_
_
_
f)
J =
_
_
_
_
_
_
0 1 0 0 0
0 0 1 0 0
0 0 0 0 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
_
_
, P =
_
_
_
_
_
_
0 1 1 0 0
0 4 0 1 0
1 2 0 1 0
1 3 0 1 0
1 8 0 2 1
_
_
_
_
_
_
g)
J =
_
_
_
_
_
_
2 1 0 0 0
0 2 0 0 0
0 0 1 0 0
0 0 0 1 1
0 0 0 0 1
_
_
_
_
_
_
, P =
_
_
_
_
_
_
1 1 1 0 1
3 2 1 1 2
0 0 1 1 1
1 0 0 1 0
1 0 1 0 0
_
_
_
_
_
_
h)
J =
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 1 0
0 0 0 1 1
0 0 0 0 1
_
_
_
_
_
_
, P =
_
_
_
_
_
_
1 2 0 1 0
1 0 0 1 1
1 1 1 0 0
1 0 0 1 0
1 0 2 0 0
_
_
_
_
_
_
i)
J =
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 1 0
0 0 0 1 1
0 0 0 0 1
_
_
_
_
_
_
, P =
_
_
_
_
_
_
1 0 0 0 0
1 0 1 0 0
0 0 0 0 1
0 1 0 1 0
0 0 0 1 0
_
_
_
_
_
_
177. a) rango (A) = 2. b) p() =
2
(
2
4), m() = ( 2)( + 2)
c) P =
_
_
_
_
1 1 0 1
1 1 1 0
1 1 0 1
1 1 1 0
_
_
_
_
178. Si b = 0 no es diagonalizable. Si b ,= 1 es diagonalizable para todo a:
J =
_
_
0 0 0
0 1 0
0 0 b
_
_
, P =
_
_
1 a 1
0 1 0
0 0 b
_
_
, A = PJP
1
SOLUCIONES 219
179. a) La imagen es un polinomio de grado 4.
b)
_
_
_
_
_
_
2
2
0 0 0
4 2 2
2
0 0
0 3 2 3
2
0
0 0 2 2 4
2
0 0 0 1 2
_
_
_
_
_
_
c) Autovalor: 2. Autovector: x
4
.
180.
e
A
=
_
_
e
3
0 0
4e
3
e
3
0
21
25
e
2
+
41
25
e
3
1
5
e
2
+
1
5
e
3
e
2
_
_
, e
B
=
_
_
e 0 0
e
2
e e
2
0
3
4
e
3
+
3
4
e 0 e
3
_
_
181. a) ((x
1
, x
2
, x
3
)) = 3x
2
+ x
3
. b) = (c, 2c, c), c ,= 0. c) (2, 3, 1) = 9c.
182. e
1
= (1, 1, 0), e
2
= (1, 1, 1), e
3
= (1/2, 1, 1/2)
183.
a =
_
_
1 2 1
1/2 2 1/2
1/3 8/3 1/3
_
_
, det a = 2 ,= 0
p
1
(x) =
3
2
x
2
+ x + 1, p
2
(x) =
1
2
x
2
1
6
, p
3
(x) =
1
2
x
2
+x
1
3
p(x) =
_
3a
2
+
b
2
c
2
_
x
2
+ (a +c)x +
_
a
b
6
c
3
_
184. w
1
= (6, 3, 0, 1, 6), w
2
= (3, 2, 1, 0, 1)
185. (C)
(C)
= (C +C)
(C)
) = n 2
186. 1) = (a
1
, 0). 2) = (a
2
, a
1
). 3) = (a
1
+ a
2
, a
1
+ a
2
).
187. Matriz de f en la base u
1
, . . . u
2
:
_
_
_
f
1
(u
1
)f
2
(u
1
) f
1
(u
1
)f
2
(u
n
)
.
.
.
.
.
.
f
1
(u
n
)f
2
(u
1
) f
1
(u
n
)f
2
(u
n
)
_
_
_
188. Solo f
1
lo es.
189.
_
_
1 1/2 1/3
1/2 1/3 1/4
1/3 1/4 1/5
_
_
, g(t
2
2, 2t + 4) =
49
6
190.
_
_
2 2 4
2 1 3
0 1 1
_
_
, g(x, y) = 13
191. 1 y 3 son formas bilineales.
192. a) No es regular. rad = lin(1, 0, 1, 0), (0, 1, 0, 1). sig = (1, 1).
b) B = (1, 1, 0, 0)/
2, (1, 1, 0, 0)/
6
x
_
2
+
_
30
x +
6
30
y
_
2
+
_
2
5
x +
3
5
y +
5
5
z
_
2
q
2
(u) = x
2
(y 2z)
2
q
3
(u) =
_
_
7
11
x
_
2
+
_
11
x +
11y
_
2
(3y z)
2
q
4
(u) =
_
_
8
5
x
_
2
+
_
_
2
5
x +
_
5
2
y
_
2
_
1
2
y +
1
2
z
_
2
197.
q(u) =
_
_
n
j=1
ju
j
_
_
2
+
1
2
_
_
n
j=1
(j
2
+ 1)u
j
_
_
2
1
2
_
_
n
j=1
(j
2
1)u
j
_
_
2
198. e = 0, b = c, a > 0, ad b
2
> 0
_
ax +
b
a
y
_
2
+
_
ad b
2
a
y
_
2
199.
_
_
10 3 0
3 2 1
0 1 1
_
_
, 10 > 0, 11 > 0, 1 > 0, e
1
=
_
_
1
3
3
_
_
, ; e
2
=
_
_
0
1
1
_
_
, e
3
=
_
_
0
0
1
_
_
200. (1, 1, 2)/3.
201. (3, 1, 2, 0), (4, 2, 0, 1).
202.
B
(A+ C) =
B
(A) +
B
(C). (A, B) = tr(B
t
A) es un producto escalar.
203.
Ax = 0, A =
_
_
_
u
1
.
.
.
u
k
_
_
_
W = x V [ (u
i
, x) = 0, i = 1, . . . k, W
= y V [ (y, x) = 0, x W
204.
q
1
(t) =
1
2
, q
2
(t) =
_
3
2
t, q
3
(t) =
_
5
8
(1 3t
2
)
SOLUCIONES 221
205.
a) Q(x) =
1
2
(2x
1
+ 2x
2
+ x
3
)
2
+
1
2
x
2
3
2x
2
2
, sig() = (2, 1)
b) P =
_
_
2
2 1/
2
0 0 1/
2
0
2 0
_
_
, c)
_
_
_
_
_
3
5
0
_
_
,
_
_
3
0
5
_
_
_
_
_
206. a) No. b) (0, 1, 1)
c)
1
4
(x
1
+ x
2
x
3
)
2
1
4
(x
1
x
2
+ x
3
)
2
, sig = (1, 1)
207.
a) u
1
=
_
_
1
0
0
_
_
, u
2
=
1
10
_
_
2
2
1
_
_
, b)
_
5
2
, c) No
208.
Q =
_
_
1
1
2
( +)
1
2
(
2
+
2
)
1
2
( +)
1
2
( +)
1
2
(
2
+
2
)
1
2
( +)
2
2
_
_
Si ,= , rango = 2, signatura = (1, 1) Si = , rango = 1, signatura = (1)
209. a) Cierta. b) Falsa. c) Cierta. d) Cierta. e) Cierta.
210.
_
_
_
1 0 0
0
a+
a
2
+4
2
0
0 0
a
a
2
+4
2
_
_
_
Si a = 3, vectores isotropos en la base que diagonaliza a : (x
1
)
2
+ (x
2
)
2
(x
3
)
2
= 0. No forman
un subespacio lineal. nunca es denida positiva.
211. q(x) =
_
3x
1
2
3
x
2
3x
3
_
2
+
__
5
3
x
2
_
2
+x
2
3
(1/
3, 0, 0), (2/
15,
_
3/5, 0), (1, 0, 1)
212. Ortonormalizando por GramSchmidt:
_
v
1
=
1i
2
(1, 0, i, 0), v
2
=
1
6
(1, 0, i, 2)
_
. Proyector:
P
W
=
1
3
_
_
_
2 0 i 1
0 0 0 0
i 0 2 i
1 0 i 2
_
_
_
Base ortonormal: v
1
, v
2
, v
3
=
1
3
(1, 0, i, 1), v
4
= (0, 1, 0, 0). / es unitario.
213. a) |Ru|
2
= (Ru, Eu), b) i no es autovalor de a. c) A+ i1
V
y A i1
V
conmutan.
214.
a) P =
_
_
1/
2 1/
3 1/
6
0 1/
3 2/
6
1/
2 1/
3 1/
6
_
_
b) P
3
=
1
6
_
_
5 2 1
2 2 2
1 2 5
_
_
, P
3
=
1
6
_
_
1 2 1
2 4 2
1 2 1
_
_
222 SOLUCIONES
215. a) ker f = 1, 0, 0, 1), imf = (1, 0, 0, 1), (0, 1, 3, 0), (0, 3, 1, 0)
b) (1, 0, 0, 1)/
2, (1, 0, 0, 1)/
2, (0, 1, 1, 0)/
2, (0, 1, 1, 0)/
2,
P
0
=
1
2
_
_
_
_
1 0 0 1
0 0 0 0
0 0 0 0
1 0 0 1
_
_
_
_
, P
2
=
1
2
_
_
_
_
1 0 0 1
0 1 1 0
0 1 1 0
1 0 0 1
_
_
_
_
, P
4
=
1
2
_
_
_
_
0 0 0 0
0 1 1 0
0 1 1 0
0 0 0 0
_
_
_
_
P =
1
2
_
_
_
_
1 1 0 0
0 0 1 1
0 0 1 1
1 1 0 0
_
_
_
_
216.
a) v
1
=
1
3
(2, 1, 2), v
2
=
1
5
(1, 2, 0), v
3
=
1
3
5
(4, 2, 5), a
1
= 0, a
2
= a
3
= 9
b) T = a
1
1
9
_
_
4 2 4
2 1 2
4 2 4
_
_
+ a
2
1
9
_
_
5 2 4
2 8 2
4 2 5
_
_
217.
P
1
QP =
_
1 0
0 6
_
, P =
1
5
_
2 1
1 2
_
q(v) =
_
2
5
v
1
+
1
5
v
2
_
2
+ 6
_
5
v
1
+
2
5
v
2
_
2
218. = .
219. S
(V ) = A M
n
(C) [ A
t
= A.
1
2
_
_
2a
11
a
12
+ a
21
a
13
+a
31
a
12
+a
21
2a
22
a
23
+a
32
a
13
+a
31
a
23
+ a
32
2a
33
_
_
+
1
2
_
_
0 a
12
a
21
a
13
a
31
(a
12
a
21
) 0 a
23
a
32
(a
13
a
31
) (a
23
a
32
) 0
_
_
220. u
1
= (1, 0, 0, 1)/
2, u
2
= (0, 1, 1, 0)/
2, u
3
= (1, i, i, 1)/2, u
4
= (1, i, i, 1)/2
P
1
=
1
2
_
_
_
_
1 0 0 1
0 1 1 0
0 1 1 0
1 0 0 1
_
_
_
_
, P
2
=
1
4
_
_
_
_
1 i i 1
i 1 1 i
i 1 1 i
1 i i 1
_
_
_
_
, P
3
=
1
4
_
_
_
_
1 i i 1
i 1 1 i
i 1 1 i
1 i i 1
_
_
_
_
221. (1/2, 1/2, 2)
222.
R(t) =
_
_
cos t 0 sen t
0 1 0
sen t 0 cos t
_
_
223. a = 1. Eje: (1, 1, 0)/
2.
Angulo: .
224. A = A
t
.
225. a) Ninguna. b) Innitas.
226. a) > 0m. b)
2
< 5/3
SOLUCIONES 223
227.
a)
_
1 0
0 1
_
, b)
_
_
1 0 0
0 1 0
0 0 0
_
_
228.
dimL
1
+ dimL
1
= dimH dimL
2
+ dimL
1
> dimH
dimL
2
+ dimL
1
= dimH + dim(L
2
L
1
) dim(L
2
L
1
) > 0
229. (5, 5, 2, 1).
230.
_
3 6
1 3
_
231. |x|
2
= (x, x).
232.
P =
_
_
_
_
a
1
0 0 0
0 a
2
0 0
0 0 a
3
0
0 0 0 a
4
_
_
_
_
, [a
1
[ = [a
2
[ = [a
3
[ = [a
4
[ = 1
233. A
k
= I implica que los autovalores son las races k-esimas de la unidad. Como A es real y simetrico,
sus autovalores son reales, 1. Luego A
2
= I por ser diagonalizable.
234.
a) f
q
(x, y) = (v, w)(x, y)
1
2
((v, x)(w, y) + (v, y)(w, x))
b) A
q
x = (v, w)x
1
2
((x, w)v + (x, v)w), c) ker A
q
= (linv, w)
235.
P =
_
_
_
_
1/2 1/
2 0 1/2
1/2 0 1/
2 1/2
1/2 0 1/
2 1/2
1/2 1/
2 0 1/2
_
_
_
_
236. Base de autovectores: u
1
, . . . , u
n
x =
n
i=1
c
i
u
i
,
n
i=1
[c
i
[
2
= 1, (x, Ax) =
n
i=1
i
[c
i
[
2
, (x, T
+
Tx) = |Tx|
2
237.
P
7
=
1
9
_
_
4 2 4
2 1 2
4 2 4
_
_
, P
2
=
1
9
_
_
5 2 4
2 8 2
4 2 5
_
_
238. (3, 1, 1), cos = 7/18.
239.
P =
1
3
_
_
2 1 2
2 2 1
1 2 2
_
_
224 SOLUCIONES
240.
P =
_
_
1/3 2/
5 2/(3
5)
2/3 1/
5 4/(3
5)
2/3 0 5/(3
5)
_
_
P
3
=
1
9
_
_
1 2 2
2 4 4
2 4 4
_
_
, P
6
=
1
9
_
_
8 2 2
2 5 4
2 4 5
_
_
241.
P =
_
_
1/
3 1/
2 1/
6
1/
3 1/
2 1/
6
1/
3 0 2/
6
_
_
P
3
=
1
3
_
_
2 1 1
1 2 1
1 1 2
_
_
, P
3
=
1
3
_
_
1 1 1
1 1 1
1 1 1
_
_
242.
a) 1 > 0, 1 > 0, 1 > 0, u
1
= e
1
, u
2
= e
1
+e
2
, u
3
= e
1
+ e
2
+e
3
b) P =
_
_
1 1 1
0 1 1
0 0 1
_
_
, P
1
TP =
_
_
1 2 0
2 1 0
0 0 1
_
_
c) P
1
=
1
2
_
_
1 1 0
1 1 0
0 0 0
_
_
, P
1
=
1
2
_
_
0 0 0
0 0 0
0 0 1
_
_
, P
3
=
1
2
_
_
1 1 0
1 1 0
0 0 0
_
_
En la base can onica:
P
1
=
1
2
_
_
0 0 0
1 2 1
0 0 0
_
_
, P
1
=
_
_
0 0 1
0 0 1
0 0 1
_
_
, P
3
=
1
2
_
_
2 0 2
1 0 1
0 0 0
_
_
243.
P
1
=
1
9
_
_
5 2 4
2 8 2
4 2 5
_
_
, P
8
=
1
9
_
_
4 2 4
2 1 2
4 2 4
_
_
244.
a) (A) = 0,
i
6
,
i
6
, b) U =
_
_
_
1
6
2
6
1
6
1+2i
6
2
15
2+i
6
2
15
5
2
15
12i
6
2
15
2i
6
2
15
5
2
15
_
_
_
245.
a) u
1
=
1
2
_
_
1
0
1
_
_
, u
2
=
_
_
0
1
0
_
_
, u
3
=
1
2
_
_
1
0
1
_
_
b) P
0
=
1
2
_
_
1 0 1
0 0 0
1 0 1
_
_
, P
2
=
1
2
_
_
1 0 1
0 2 0
1 0 1
_
_
,
c) d = 1, d) e
A
=
1
2
_
_
1 +e
2
0 1 e
2
0 2e
2
0
1 e
2
0 1 +e
2
_
_
246. (u
1
, u
2
) = 1/4
SOLUCIONES 225
247. a) Autoadjunto. b) 1, 0, 2
c) u
1
=
_
_
1/
3
i/
3
1/
3
_
_
, u
2
=
_
_
0
i/
2
1/
2
_
_
, u
3
=
_
_
2/
6
i/
6
1/
6
_
_
d) P
1
=
1
3
_
_
1 i 1
i 1 i
1 i 1
_
_
, P
2
=
1
2
_
_
0 0 0
0 1 i
0 i 1
_
_
, P
3
= v
+
3
v
3
=
1
6
_
_
4 2i 2
2i 1 i
2 i 1
_
_
e) cos(A) =
1
3
_
_
1 2i 2
2i 1 2i
2 2i 1
_
_
248. x
i
x
i
= (P
1
)
i
i
x
i
ik
jl
(P
1
)
i
i
(P
1
)
j
j
(P
1
)
k
k
(P
1
)
l
k
j
l
= (P
1
)
i
i
(P
1
)
j
j
(P
1
)
i
k
(P
1
)
j
l
=
ik
jl
249. Base ortonormal de IR
2
: u
1
, u
2
. Base girada: v
1
= u
2
, v
2
= u
1
.
P =
_
0 1
1 0
_
, t
ijk
= (P
1
)
i
i
(P
1
)
j
j
(P
1
)
k
k
t
i
k
,
t
111
= 1, t
112
= 1, t
122
= 1, t
222
= 1
250. Usando:
kij
jlm
=
k
l
i
m
k
m
i
l
251. Tipo: (0, 1). (x y)
1
= x
2
y
3
x
3
y
2
, (x y)
2
= x
3
y
1
x
1
y
3
, (x y)
3
= x
1
y
2
x
2
y
1
252. x
i
x
i
= 2, y
i
y
i
= 8, x
i
y
i
= 3.
253.
ijl
w
i
v
j
v
l
+v
k
w
k
+nv
k
v
k
= n.
254. Las matrices
, I
4
son l.i.
1
,
0
2
,
0
3
,
1
2
,
1
3
,
2
3
son l.i.
2
,
0
3
,
0
3
,
1
3
son l.i.
3
es distinta de cero.
En total hay 16 matrices l.i. que forman una base de /
4
(C)
255. C = c
0
+ c
1
T
+ c
2
A
+c
3
T
+c
4
T
+ c
5
T
.
256. Tipo (2, 1). X
i
= P
ji
X
j
, c
ijs
= P
ki
P
lj
(P
1
)
sm
c
klm
257. Si A tiene autovalores
i
, los de A
2
son
2
i
y los de A
3
,
3
i
con los mismos autovectores. Por tanto:
3
i=1
i
= tr A = A
,
3
i=1
2
i
= tr A
2
= A
= A
,
3
i=1
3
i
= tr A
3
= A
= A
258.
a) x
1
=
1
3
, x
2
=
2
3
, x
3
=
4
3
, y
1
= 5, y
2
= 3, y
3
= 2, b) A
ijk
y
i
y
j
y
k
= 60
259. a) 4. b) 12. c) 4. d) 4.
260. t
111
= 1, t
112
=
2, t
122
= 2, t
222
= 2
1
= 6, x
2
= 4 b) i) Cierta. ii) Falsa. c)
r
ij
k
s
k
il
= 10.