Está en la página 1de 115

Notas de

Algebra Lineal Elemental

por
Jose Antonio Belinchon
ii
iii

Prologo

La idea fundamental de esta notas confecionadas a modo de resumen (personal) es


la de tener a mano un recordatorio de por donde iban los tiros. Solo se demuestran
los teorema fundamentales y se acompona el texto con una serie de ejercios mas o
menos trabajados. En modo alguno pretenden sustituir (porque es implosible) los
manuales clasicos o las notas de clase de un profesor. Es decir, estas notas estan
confeccionadas a modo de refrito entre las notas de clase que tome en su dia y de
distintos libros clasicos como los siguientes:

1. Golovina, L.I. Algebra lineal y algunas de sus aplicaciones Edt. MIR 1980

2. Hernandez, E. Algebra y geometria. Addison-Wesley/UAM 1994

3. Castellet, M et al. Algebra lineal y geometria. Edt. Reverte 1994

4. Rojo, J. et al. Ejercicios y Problemas de algebra lineal. McGraw-Hill 1994

5. de Diego, B et al. Problemas de algebra y geometria. Edt. Deimos 1991

6. Lipshutz, S. Algebra lineal. McGraw-Hill 1968.

todo ello aderezado (como he indicado antes) con una serie de ejemplos de-
sarrollados (eso espero) al final de cada capitulillo.

ADVERTENCIA: No estan concluidas y es muy posible que hayan sobre-


vivido numerosas erratas. Toda observacion en este sentido es bien recibida.
iv
Indice General

1 Espacios Vectoriales. 1
1.1 Espacios Vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Composicion de espacios. . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Aplicaciones Lineales 9
2.1 Aplicaciones Lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Espacio Dual. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Ecuaciones implcitas de un subespacio. . . . . . . . . . . . . . 16
2.3 Homomorfismo transpuesto. . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3 Determinantes y Sistemas 19
3.1 Aplicaciones multilineales. . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1 Tensores simetricos. . . . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2 Tensores antisimetricos. . . . . . . . . . . . . . . . . . . . . . . 21
3.1.3 Algebra exterior. . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2.1 Permutaciones de orden n. . . . . . . . . . . . . . . . . . . . . 21
3.2.2 Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2.3 Formas nlienales alternadas. . . . . . . . . . . . . . . . . . . . 22
3.2.4 Propiedades de las formas n-lineales alternadas. . . . . . . . . . 23
3.2.5 Expresion analitica de una forma n-lineal alternada. . . . . . . 23
3.2.6 Determinante de un sistema de vectores. . . . . . . . . . . . . . 23
3.2.7 Determinante de una matriz cuadrada. . . . . . . . . . . . . . . 24
3.2.8 Determinante de un endomorfismo. . . . . . . . . . . . . . . . . 24
3.2.9 Rango de una matriz. . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.10 Matriz inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3 Sistemas lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4 Clasificacion de Endomorfismos. Matrices de Jordan 45


4.1 Clasificacion de endomorfismos. . . . . . . . . . . . . . . . . . . . 45
4.2 Polinomio mnimo. . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.3 Subespacios invariantes. . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4 Grado del polinomio mnimo. . . . . . . . . . . . . . . . . . . . . . 50
4.5 Matriz canonica de un endomorfismo. (Jordan). . . . . . . . . 52
vi INDICE GENERAL

4.6 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

5 Formas Bilineales y Cuadraticas. 67


5.1 Formas bilineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.1 Diagonalizacion de formas bilineales. . . . . . . . . . . . . . . . 71
5.2 Formas cuadraticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.3 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

6 Espacios vectoriales eucldeos. 89


6.1 Espacios vectoriales eucldeos. . . . . . . . . . . . . . . . . . . . . . . . 89
6.2 Espacio Dual. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.3 Subespacio ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.4 Producto vectorial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.5 Aplicaciones entre espacios euclideos. . . . . . . . . . . . . . . . . . . . 93
6.5.1 Aplicaciones adjuntas y autoadjuntas . . . . . . . . . . . . . . 93
6.5.2 Diagonalizacion de aplicaciones autoadjuntas y hermiticas. . . 94
6.5.3 Aplicaciones ortogonales. Aplicaciones unitarias . . . . . . . . 97
6.5.4 Diagonalizacion de matrices unitarias. . . . . . . . . . . . . . . 98
6.5.5 Forma canonica de una matriz ortogonal. . . . . . . . . . . . . 99
6.6 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Captulo 1
ESPACIOS VECTORIALES.

1.1 Espacios Vectoriales.


Definicion 1.1.1 Sea K un cuerpo conmutativo. Un espacio vectorial V definido
sobre un cuerpo K vieve dado por un conjunto no vacio de elementos vectoriales
sobre los que estan definidos dos operaciones:

1. Una interna, la suma, (V, +) tiene estructura de grupo abeliano

+ : V V V
(u, v) 7 u + v

i.e. verifica las propiedades:

asociativa
elemento neutro
inverso
conmutativa.

2. Externa, (V, ) producto por escalares:

: K V V
(, u) 7 u

verificando las siguientes propiedades:

(u + v) = u + v
( + v) = + v
(v) = v
1 =

Bajo estas circunstancias podemos decir que (V, +, ) es un espacio vectorial


sobre el cuerpo K.

Definicion 1.1.2 Subespacio. Sea W un conjunto no vacio. Decimos que W es un


subespacio vectorial de V si verifica las siguientes condiciones:

Sean u, v W = u + v W

K, u W = u W
2 Espacios Vectoriales.

Definicion 1.1.3 Suma directa de subespacios. Sean W1 y W2 dos subespacios vec-


toriales. Si W1 W2 = ~0 entonces decimos que la suma entre los dos subespacios es
directa y se denota por W1 W2 . La suma de dos subespacios W1 y W2 es directa sii
cada vector de W1 + W2 se puede expresar de manera unica como suma de un vector
de W1 y de otro de W2 .

Definicion 1.1.4 Combinacion lineal. Sea V un espacio vectorial. Sean {v1 , ...., vn }
vectores del espacio V . Decimos que un vector u es combinacion lineal de {v1 , ...., vn }
si se puede expresar de la siguiente forma:
X
u= i vi
i

Definicion 1.1.5 Sistema de generadores. Se dice que un conjunto b de vectores


de V es sistema de generadores si cualquier vector de V se puede expresar como
combinacion lineal de vectores de b.

Definicion 1.1.6 Un conjunto b de vectores es linealmente dependiente si existen


escalares i no todos nulos tales que
X
i vi = ~0
i

y lo es linealmente independiente si @ i o son todos nulos tales que


X
i vi = ~0
i

Proposicion 1.1.1 Sean {v1 , ...., vn } vectores de V entonces {v1 , ...., vn } son lineal-
mente independientes sii al menos uno de ellos se puede expresar como combinacion
lineal de los demas.

Proposicion 1.1.2 Supongamos que {v1 , ...., vn } son todos linealmente independi-
entes. Sea u V tal que u no es combinacion lineal de {v1 , ...., vn } entonces
{v1 , ...., vn } son linealmente independientes (L.I.).

1.2 Bases.
Definicion 1.2.1 Base. Decimos que S es base de un espacio V si cumple las sigu-
ientes condiciones:

1. S es sistema de generadores de V

2. S es L.I.

Teorema 1.2.1 Base.

1. Todo espacio vectorial V tiene al menos una base.

2. Todas las bases de V tienen el mismo numero de elementos.


Bases. 3

Demostracion. (1).- Sea B V /B es un sistema de generadores B =


{v1 , ...., vn } , si los {v1 , ...., vn } son LI entonces forman base. Si no es asi entonces
alguno de los vectores sera combinacion lineal de los otros, entonces elimonamos ese
vector de tal forma que queden n1 vectores y comprobamos si son LI o no. Si resulta
que estos n 1 vectores son LI entonces forman base en caso contrario continuamos
el metodo de ir eliminando vectores LD hasta que en el peor de los casos solo quede
un unico vector, en este caso formara base al ser sistema de generadores.
(2).- Sea S = {v1 , ...., vp } V. Sabemos que existe una base B = {v1 , ...., vn }
del espacio vectorial V . Lo que tenemos que ver es que cualquier otra base de V
tiene igual numero de elementos que B i.e. n elementos. Sea B0 otra base de V ,
como los vectores de B 0 son LI entonces cualquier subconjunto suyo tambien sera
LI, luego el numero de elementos de cualquier subconjunto finito de B0 tendra que
ser menor igual que el numero de elementos de B i.e. n, pero al ser B sistema de
generadores entonces el numero de elemetos de B0 es menor igual que el numero de
elemetos de B i.e. n. Por lo tanto tenemos que cardB0 cardB. Si cambiamos los
papeles i.e B0 B aplicando el mismo razonamiento llegariamos a la conclusion de
que cardB cardB 0 de lo que deducioms que cardB0 = cardB y por lo tanto todas
las bases tienen igual numero de elementos.

Definicion 1.2.2 Sea V un espacio de tipo finito sobre K. Se llama dimension del
espacio V al numero de elementos que tiene una base cualquiera de V y se denota
por dim V.

Proposicion 1.2.1 Un conjunto B de vectores de un espacio vectorial es base de V


sii cada vector de V se expresa de manera unica como combinacion lineal de vectores
de B.

Sea V un espacio vectorial de tipo finito sobre un cuerpo K, sea S = {v1 , ...., vn }
un sistema de generadores de V . Sean {v1 , ...., vp } L.I. entonces encontramos que
n p. De igual forma si S = {v1 , ...., vp } es un sistema de generadoresde V en-
tonces p dim V y si {v1 , ...., vp } son un conjunto L.I. de vectores de V resulta que
p dim V. Si S = {v1 , ...., vp } es un sistema de generadores de V y p = dim V en-
tonces S forma un conjunto L.I. y por lo tanto base. Y por ultimo si S = {v1 , ...., vn }
son vectores L.I. tales que n = dim V entonces S es base de V .

Teorema 1.2.2 Base incompleta. Sea V un espacio vectorial de dimension finita n


sobre un cuerpo K. Sea {v1 , ...., vp } vectores L.I. con p n. Entonces existen n p
vectores {u1 , ...., unp } tales que {v1 , ...., vp , u1 , ...., unp } que forman base de V.

Demostracion. Sea (V, K) un e.v. tal que dim V = n. Sea {v1 , ...., vp }
vectores L.I. con p n. Si p = n entonces forman base. Si p < n como los {v1 , ...., vp }
son un sistema de generadores entonces existe un vector ui / L [v1 , ...., vp ] entonces
{ui , v1 , ...., vp } son LI. Si resulta que n = p + 1 entonces formarian base. Si p + 1 < n,
repitiendo el razonamiento, vemos que existe un vector uj / L [ui , v1 , ...., vp ] entonces
{uj , ui , v1 , ...., vp } son LI. Si resulta que n = p+2 entonces formarian base. Repitiendo
el argumento n p veces llegamos a la conclusion de que existen {u1 , ...., unp }
vectores de tal forma que {v1 , ...., vp , u1 , ...., unp } que forman base de V.

Consecuencia: Sea L V / L = L [v1 , ...., vp ] entonces existe BV =


{v1 , ...., vn } / {vp+1 , ...., vn } engendran un subespacio M V i.e. M = L [vp+1 , ...., vn ]
4 Espacios Vectoriales.

y por lo tanto dim M = n p. Estos dos subespacios son complementarios i.e.


V = L M, (L M = ) y por lo tanto cualquier vector v V se escribira co-
mo combinacion de vectores de L y de M i.e
p
X n
X
v= i vi + j vj
i=1 j=p+1
| {z } | {z }
L M

Teorema 1.2.3 Formulas de Grassmann. Sea V un espacio vectorial de dimension


finita n sobre un cuerpo K. Sea W un subesapcio vectorial de V entonces:

1. W es de tipo finito

2. dim W dim V

3. dim W = dim V sii W = V

Corolario 1.2.1 Sea V un espacio vectorial de dimension finita n sobre un cuerpo


K. Sean W, U subespacios de V entonces

dim(U + W ) = dim U + dim W dim(U W ).

Demostracion. Sean L, M subespacios de V tal que L M 6= . Sea


{u1 , ...., uk } una base de L M entonces dim L M = k. Entonces estos {u1 , ...., uk }
vectores son LI tanto en L como en M, i.e. {u1 , ...., uk } L son LI y {u1 , ...., uk } M
son LI. Las bases de L y M estan formadas por: BL = {u1 , ...., uk , uk+1 , ......, up } y
BM = {u1 , ...., uk , k+1 , ......, r } por el teorema de prolongacion. Sea ahora un vector
v L+M que podemos escribir como v = u+ i.e. v C.L. {u1 , ...., uk , uk+1 , ......, up , k+1 , ......, r }
entonces
L + M = L [u1 , ...., uk , uk+1 , ......, up , k+1 , ......, r ]
entonces dim L + M = p + r k tenemos que ver que estos vectore son realmente LI
i.e. existen escalares {i , i } / 1 u1 + ....+ p up + k+1 k+1 + ...... + r r = 0 i.e.
i = i = 0

1 u1 + .... + p up = k+1 k+1 + ...... + r r
entonces L M 6= . Se pueden expresar como combinacion lineal de {u1 , ...., uk } con
escalares { j } de tal forma que

1 u1 + .... + p up = k+1 k+1 + ...... + r r
= 1 u1 + .... + k uk

entonces
1 u1 + .... + k uk + k+1 k+1 + ...... + r r = 0
al formar base, resulta que el conjunto de { j } = 0. Por lo tanto

dim(L + M ) = dim L + dim M dim (L M )

como queriamos demostrar.


Composicion de espacios. 5

Definicion 1.2.3 Subespacio complementario. Sea V un espacio vectorial de dimen-


sion finita n sobre un cuerpo K. Sea U un subespacio de V . Se dice que un subespacio
vectorial W de V es complementrario de U si

V =W U

Proposicion 1.2.2 Todo subespacio vectorial de un espacio vectorial V de dimension


finita tiene al menos un subespacio complementario.

1.3 Composicion de espacios.


Definicion 1.3.1 Producto de espacios vectoriales. Sean V y W espacios vec-
toriales sobre un mismo cuerpo K. Consideramos el producto cartesiano

V W = {(v, w) / v V y w W }

definimos una opreacion interna que viene dada por

(u, w) + (u0 + w0 ) = (u + u0 , w + w0 )

y tambien definimos en V W una operacion de producto por escalares de K (externa)

(v, w, ) = (v, w)

El conjunto V W con las operaciones asi definidas es un espacio vectorial.

Proposicion 1.3.1 Si {v1 , ...., vp } es una base de V y {w1 , ...., wn } es una base de
W se tiene que
{(v1 , 0), ...., (vp , 0), (0, w1 ), ......., (0, wn )}
es base de V W

Proposicion 1.3.2 Si V y W son dos espacios vectoriales de dimension finita sobre


un cuerpo K entonces
dim(V W ) = dim V + dim W

Definicion 1.3.2 Particion de un conjunto. Sea X un conjunto no vacio. Se llama


particion de X a un subconjunto P de X /

x X existe un elemento A de la particion / x A

A, B P , si A 6= B entonces A B = son disjuntos.

Definicion 1.3.3 Relacion biunivoca. Sea X un conjunto. Se llama relacion bi-


univoca de X a cada subconjunto R de X X. Si (x, y) R se dice que x esta
realcionado con y por la relacion R y se denota xRy.

Definicion 1.3.4 Realcion de equivalencia. Se dice que una relacion biunivoca sobre
un conjunto X es de equivalencia si cumple las siguientes propiedades

1. Reflexiva xRx
6 Espacios Vectoriales.

2. Simetrica xRy = yRx

3. Transitiva xRy yRz = xRz

Definicion 1.3.5 Clase de equivalencia. Sea X un conjunto no vacio y sea R una


relacion de equivalencia sobre X. Se llama clase de equivalencia del elemneto x al
siguiente conjunto
{y X; xRy} := [x]R

Definicion 1.3.6 Conjunto cociente. Llamamos conjunto cociente X/R al conjunto


cuyos elementos son clases de equivalencia segun R. Los elementos de X/R consti-
tuyen una particion de X.

Definicion 1.3.7 Espacio vectorial cociente. Sea (V /W ) un conjunto en el que


definimos las siguientes operaciones:

1. Suma. u + W , v + W V /W entonces (u + W ) + (v + W ) = (u + v) + W

2. Producto por escalares. u + W V /W y K = (u + W ) = u + W

Proposicion 1.3.3 (V /W ) tiene estructura de espacio vectorial con las operaciones


anteriormente definidas.

Demostracion. V /W = {v + W / v V } y sobre este conjunto definimos


dos operaciones (como en la primera definicion) y comprobamos que con ellas el
conjunto (V /W, +, ) tiene estructura de espacio vectorial.
Con respecto a la primera de las operaciones la interna, vemos que (v + L) +
(w + L) = (v + w) + L esta bien definida y que por lo tanto el conjunto (V /W, +)
tien estructura de grupo abeliano i.e. verifiaca las propiedades (asociativa, elemento
neutro, inverso y conmutativa)
Sea K, definimos (w + L) = v + L. Comprobamos que esta bien
definida y verificamos que el conjunto (V /W, ) cumple las siguiente propiedades

(u + v) + L = (u + L) + (v + L)
() v + L = (v) + L
( + ) (v + L) = (v + L) + (v + L)
1 + L = v + L

por lo tanto queda demostrado.

Teorema 1.3.1 Sea V espacio vectorial de dimension finita sobre un cuerpo K. Sea
W un subespacio de V entonces el espacio vectorial cociente es tambien de dimension
finita y
dim (V /W ) = dim V dim W

Demostracion. Sea {wj }kj=1 = BL entonces BV = {wj }nj=1 (por el teo-


rema de prolongacion de la base). Si BV /L = {wj + L}nj=k+1 entonces dim V /L =
n k. Veamoslo: V /L = {x + L / x V } tenemos que ver que la base BV /L =
{wj + L}nj=k+1 forma un sistema de generadores y que son LI.
Ejemplos 7

S.G.: BV /L = {wj + L}nj=k+1 ya que para todo x + L V /L con x V


podemos expresar
Xk n
X
x= ai wi + bj wj
i=1 j=k+1

k
X n
X
x+L= ai (wi + L) + bj (wj + L) =
i=1 j=k+1
Xn
= bj (wj + L)
j=k+1

ya que {wj }kj=1 L entonces {wj }kj=1 + L = 0 + L {wj }kj=1 0 L


{wj }kj=1 L.
L.I.: {wj + L}nj=k+1 son LI ya que
n
X
j (wj + L) = 0 + L
j=k+1
Xn
(j wj ) + L = 0 + L
j=k+1
n
X
(j wj ) L
j=k+1

que nj=k+1 (j wj ) M entonces nj=k+1 (j wj ) L M entonces


P P
supongamos
Pn
j=k+1 (j wj ) = 0 (j ) = 0.

1.4 Ejemplos
8 Espacios Vectoriales.
Captulo 2
APLICACIONES LINEALES

2.1 Aplicaciones Lineales.


Definicion 2.1.1 Sean V, W dos espacios vectoriales definidos sobre un cuerpo K.
Decimos que la aplicacion f es lineal

f : V W

si verifica que:

1. v1 , v2 V, f (v1 + v2 ) = f (v1 ) + f (v2 )

2. v1 V, K f (v1 ) = f (v1 )

Proposicion 2.1.1 f es aplicacion lineal sii v1 , v2 V, , K

f (v1 + v2 ) = f (v1 ) + f (v2 )

Observacion 2.1.1 Las aplicaciones lineales transforman combinaciones lineales en


combinaciones lineales.

Proposicion 2.1.2 Sea f : V W. Si {v1 , ......, vn } V son LD entonces


{f (v1 ), ...., f (vn )} W son LD.

Proposicion 2.1.3 Sea f : V W inyectiva, entonces si {v1 , ......, vn } V son


LI entonces {f (v1 ), ...., f (vn )} son LI

Definicion 2.1.2 Sea f : V W. Definimos el ker f como:


n o
ker f = v V / f (v) = ~0 V

y la Im f como:

Im f = {w W / v V / f (v) = w} W

Observacion 2.1.2 Los conjuntos ker f e Im f tienen estructura de espacio vectori-


al. Veamoslo: Por ejemplo consideremos dos vectores u, v ker f entonces tenemos
que ver que la suma de ambos tambien perteneces al ker f ; f (v + u) = f (u) + f (v) =
f (0) + f (0) = 0 por la linealidad de f podemos asegurar que (u + v) ker f. Sea ahora
K y v ker f tenemos que ver que v ker f, como antes apoyandonos en el echo
de que la aplicacion f es lineal tenemos que f (v) = f (v) = 0 entonces v ker f.
De igual forma se demuestra que Im f tiene estructura de espacio vectorial.
10 Aplicaciones Lineales

Proposicion 2.1.4 Sea f : V W isomorfismo, entonces f 1 : W V es un


isomorfismo.
n o
Proposicion 2.1.5 Sea f : V W , es inyectiva sii ker f = ~0 .

Demostracion. =c Sea v ker f , entonces f (v) = 0, pero f es lineal


entonces f (0) = 0 y f n
(v)o= f (0) = 0, pero al ser f inyectiva entonces v = 0.
=c ker f = ~0 entonces f es inyectiva. Sean v, v0 V / f (v) = f (v 0 )
f (v 0 ) = 0, f (v v0) = 0 lo que demuestra que v v 0 ker f pero
entonces f (v) n o
como ker f = ~0 entonces v = v 0 lo que demuestra la inyectividad de la aplicacion.

Proposicion 2.1.6 Sea f : V W una aplicacion lineal tal que dim V = n.


Sea BV = {v1 , ......, vn } entonces {f (v1 ), ...., f (vn )} es un sistema de generadores de
Im f W.

Corolario 2.1.1 dim Im f dim V

Proposicion 2.1.7 dim Im f = dim V dim W f es inyectiva.

Observacion 2.1.3 Sea f : V W isomorfismo dim W = dim V. Si dim W =


dim V y f inyectiva entonces es un isomorfismo.

Observacion 2.1.4 Si f es sobre. entonces dim Im f = dim W.

Teorema 2.1.1 Isomorfismo. Sea f : V W una aplicacion lineal entoces:

V / ker f Im f

Demostracion. Tenemos que establer una aplicacion biyectiva (inyectiva


y sobre) y luego demostrar ademas que se trata de una aplicacion lineal. Sea Sea
f : V W ; xRy si f (x) = f (y)
g
V /R Im f

x V , [x] V /R y por lo tanto g([x]) = f (x). Queremos demostrar que la


aplicacion g es biyectiva y lineal.
Veamos que se trata de una aplicacion. [x] = [y] = xRy entonces f (x) =
f (y) con lo que g ([x]) = g ([y]) luego g es aplicacion.
Inyectiva. g ([x]) = g ([y]) [x] = [y] = xRy entonces f (x) = f (y).
Sobreyectiva. Sea z Im f = x V / f (x) = z. Tomamos [x] V /R de
tal forma que g ([x]) = f (x) = z.
Veamos que V /R es V / ker f. Como ker f V , xRy x y ker f.
Como xRy x y ker f f (x y) = 0 f (x) = f (y) xRy. Luego
V /R V / ker f, donde [x] = x + ker f. Hasta ahora hemos demostrado que
g
V / (ker f ) Im f
Aplicaciones Lineales. 11

es una aplicacion biyectiva, veamos ahora que es lineal. Sean x, y ker f V / ker f,
, K
g((x + ker f ) + (y + ker f ))
= g(x + ker f ) + g(y + ker f )
ya que g((x + ker f )) = g(x + ker f ) = f (x) = f (x) i.e.
g((x + ker f ) + (y + ker f )) = g((x + y) + ker f )
f (x + y) = f (x) + f (y) = f (x) + f (y)
g(x + ker f ) + g(y + ker f )
entonces g es biyectiva y lineal.

Observacion 2.1.5
f
V - W
6

p i
?
V / ker f - Im f
f
i f p = f
donde
p(x) = x + ker f
f (x + ker f ) = f (x)
i(y) = y

Corolario 2.1.2
dim(V / ker f ) = dim(Im f )
dim (V ) dim (ker f ) = dim(Im f ) =
dim (V ) = dim (ker f ) + dim(Im f )

Demostracion. Queremos demostrar que dim (V ) = dim (ker f )+dim(Im f )


para ello consideramos que f : V W una aplicacion lineal tal que dim V = n y
que como ker f V tomamos una base de dicho subespacio Bker f = {v1 , ......, vr }
aplicando el teorema de prolongacion de la base la ampliamos hasta obtener una base
de V i.e. BV = {v1 , .., vr , vr+1 , ...., vn } de tal forma que los f (vi ) = 0 i = 1, ..., r
y losPf (vj ) j = r + 1, ..., n Pforman base de Im f . En efecto, si v Im f =
u = ai vi V / v = f (u) = ai f (vi ) ademas son LI ya que
n n n
!
X X X
~0 = ai f (vi ) = f ai vi = ai vi ker f
i=r+1 i=r+1 i=r+1
n
X r
X r
X n
X
ai vi = bi vi = bi vi ai vi = ~0
i=r+1 i=1 i=1 i=r+1
i.e. sonn LI si ai , bi = 0.
12 Aplicaciones Lineales

Definicion 2.1.3 Matriz de un homomorfismo. Sea f : V W una aplicacion lin-


eal tal que dim V = n y dim W = r y sean BV = {v1 , ......, vn } y BW = {w1 , ......, wr } .
Sean x V e y W tales que

x = x1 v1 + ...... + xn vn
/ f (x) = y
y = y1 w1 + ....... + yr wr

ademas
f (v1 ) = a11 w1 + ...... + a1r wr

..
. / f (x) = y
f (vn ) = an1 w1 + ...... + anr wr

entonces X
yi = aij xi
de tal forma que podemos escribir:

a11 a1r
.. .. ..
M(f ) = . Mnr

. .
an1 anr

y1 a11 a1r x1
.. .. .. .. ..
. = . . . .
yn an1 anr xn

Definicion 2.1.4 Matriz de la composicion de aplicaciones lineales. Producto de


matrices.
f
V - W

@
@
@ g
gf @
@
R ?
U
la composicion de aplicaciones lineales es lineal.

Definicion 2.1.5 Matriz inversa. Sea f : V W una aplicacion lineal tal que
dim V = n y dim W = n y sean BV = {v1 , ......, vn } y BW = {w1 , ......, wn } tal que
M(f ) = A Mnn (K). Entonces la matriz de la aplicacion f 1 : W V esta
dada por M(f 1 ) = B de tal forma que si f f 1 = I entonces A B = Inn

Observacion 2.1.6 La formula de calaculo de la matriz inversa no puede demostrarse


hasta que no se haya mostrado la teoria de determinantes.

Definicion 2.1.6 Sean V, W espacios vectoriales sobre un cuerpo K. El conjunto

Hom(V, W ) = {f : V W / f es apli. lineal}

tiene estructura de espacio vectorial con las siguientes operaciones:


Aplicaciones Lineales. 13

1. Ley interna. f, g Hom(V, W ) : f + g : V W / x V 7 f (x) + g(x)


entonces f + g Hom(V, W )

2. Ley externa. f Hom(V, W ), K. (f ) (x) = [f (x)] i.e. (f )


Hom(V, W )

Teorema 2.1.2 Hom(V, W ) tiene estructura de espacio vectorial.

Demostracion. Simplemente definimos dos operaciones y comprobamos la


ristra de propiedades que debe verificar todo espacio vectorial.
Definimos la operacion interna (+) tal que para toda f, g Hom(V, W ) :
f + g : V W / x V 7 f (x) + g(x) entonces f + g Hom(V, W )?. Vemos
que esta bien definida:

(f + g) (x + y) = f (x + y) + g(x + y) =
(f (x) + g(x)) + (f (y) + g(y)) = (f + g)(x) + (f + g)(y)

Veamos ahora que el conjunto (Hom(V, W ), +) tiene estructura de grupo abeliano,


i.e. que verifica las propiedades

1. Asociativa: f + (g + h) = (f + g) + h.

2. Existe elemento neutro: f + f0 = f.

3. Existe elemento opuesto: f + (f ) = 0.

4. Conmutativa: f + g = g + f.

Definimos ohora una operacion externa y comprobamos que esta bien definida.
f Hom(V, W ), K. (f ) (x) = [f (x)] i.e. (f ) Hom(V, W ). Vemos que
esta bien definida ya que

f [x + y] = f (x) + f (y) = f (x) + f (y) =


(f (x)) + (f (y))

comprobamos que el conjunto (Hom(V, W ), ) verifica todas las propiedades distribu-


tivas (simpleemnte hay que marear los parentesis):

1. (f + g) = f + g

2. ( + ) f = f + f

3. (f ) = f

4. 1 f = f

Con esto demostramos que el conjunto (Hom(V, W ), +, ) tiene estructura de


espacio vectorial.

Proposicion 2.1.8 dim (Hom(V, W )) = dim V dim W


14 Aplicaciones Lineales

Teorema 2.1.3 Sea : Hom(V, W ) Mnr (K) es un isomorfismo entre espacios


vectoriales .

Demostracion. Tenemos que demostrar que entre dichos espacios existe una
aplicacion lineal y biyectiva.
es lineal i.e. (f + g) = (f ) + (g) = M(f ) + M(g). Sea

a11 a1p b11 b1p
M(f ) = ... .
.. . .. .
. .. y M(g) = .. . ..


ani anp bni bnp

p
X p
X
f (v1 ) = a1j wj , ........., f (vn ) = anj wj
j=i j=i
Xp Xp
g(v1 ) = b1j wj , ........., g(vn ) = bnj wj
j=i j=i


Xp Xp
(f + g)(vi ) = f (vj ) + g(vi ) = aij wj + bij wj
j=i j=i
p
X
(aij + bij ) wj
j=i

entonces

a11 + b11 a1p + b1p
M (f + g) = .. .. ..
=

. . .
an1 + bn1 anp + bnp
= M(f ) + M(g)

luego (f + g) = (f ) + (g) = M(f ) + M(g) como queriamos demostrar.


Ahora tenemos que ver, que esta aplicacion lineal es biyectiva i.e. inyectiva y
sobreyectiva.
Inyectiva: Sea f Hom(v, W ) y sea f 6= f0 : V W tal que f0 (x) = 0
x V. La aplicacion f : V W = x V / f (x) 6= ~0 i.e. i {1, ...., n} /
f (vi ) 6= ~0 y
0. 0.
.. ..
M(f ) = ai1 ain


. .
.. ..

0 0
con aij 6= 0 y f 6= f0 =

0. 0.
.. ..
M(f0 ) = (f0 ) =
0 ...

0
0 0

Entendemos que se da por supuesto que el conjunto Mnr (K) tiene estructura de espacio vec-
torial.
Espacio Dual. 15

de tal forma que f / ker = ker = {f0 } .


Sobre.: es sobre ya que si

a11 a1p
.. .. ..
A= .

. .
ani anp

tal que f : V W es aplicacion lineal y f (vj ) = pj=i aij wj , x V x =


P P
xi vi
P
entonces f (x) = xi f (vi ), demostrando asi que M(f ) = A o lo que es lo mismo
(f ) = A como queriamos demostrar.
En consecuencia existe una aplicacion lineal y biyectiva (un isomorfismo) entre
dichos espacios por lo que son isomorfos.

2.2 Espacio Dual.


Definicion 2.2.1 Espacio Dual.

Hom(V, K) = {f : V K } := V

dim V = dim V
a los elementos f V se les denomina formas lineales. Esta formula solo es valida
si dim V < .

Observacion 2.2.1 Supongamos que BV = {v1 , ......, vn } es una base de V, que puede
escribirse de forma matricial como una matriz M Mn1 . Sabemos que existe :
Hom(V, K) Mn1 que asigna a cada homomorfismo f una matriz de la forma

f (v1 )
f 7 ...

f (vn )

Sea ahora la base del espacio de matrices Mn1 formada por:



1
0
0 .. ..
BMn1 = . , ..........., .

0 1

entonces llamamos base dual de B a la base de V definida por:




1 0
1 .. 1 ..
B = . , ..........., .

0 1

i.e.
1 0
f1 = 1 ... , ......, fn = 1 ..

.
0 1
de tal forma que podemos escribir

B = {f1 , ........., fn }
16 Aplicaciones Lineales

como la base del espacio dual. Las formas lineales de la base B quedan determinadas
como:
f1 (v1 ) = 1 .... .... f1 (vn ) = 0
f2 (v1 ) = 0 f2 (v2 ) = 1 ..... f2 (vn ) = 0
.. .. .. ..
. . . .
fn (v1 ) = 0 ...... .... fn (vn ) = 1
i.e.
fi (vj ) = ij
xi vi entonces
P
si por ejemplo x V, x =
f1 (x) = f1 (x1 v1 + .... + xn vn ) = x1 f1 (v1 ) = x1
f2 (x) = f2 (x1 v1 + .... + xn vn ) = x2 f2 (v2 ) = x2
..
.
fn (x) = fn (x1 v1 + .... + xn vn ) = xn fn (vn ) = xn

Asi fi (x) es la coordenada i-esima de x, xi por lo que podemos considerar las formas
lineales de la base dual B como las funciones coordenadas de los vectores x V
respecto de la base B.

Definicion 2.2.2 Dual de un subespacio. Sea L V entonces L = Hom(L, K) *


V , i.e. no es un subespacio vectorial de V . Sea BL = {v1 , ......, vr }, podemos comple-
tar esta base a una completa de V, BV = {v1 , ...vr , vr+1 , ..., vn } . Si BL = {f1 , ......, fr }
es la base dual de BL y B = {f1 , ...fr , fr+1 , ..., fn } tal que fi : L 7 K / fi (vj ) = ij .
Sea : L 7 V que manda cada fi en (fi ) V . Isomorfismo entre L y
(L ) V . Identificamos a (L ) V como subespacio de V .

Definicion 2.2.3 Ortogonalidad asociada a un subespacio dual. Sea V es un espacio


vectorial sobre un cuerpo K y V es su dual. Sea L V , llamamos ortogonal de L
en V al conjunto
L = {f V / f (x) = 0 x L}

Proposicion 2.2.1 L V

Observacion 2.2.2 Sea BL = {v1 , ......, vr } y BV = {v1 , ...vr , vr+1 , ..., vn } hemos
visto que BV = {f1 , ...fr , fr+1 , ..., fn } y que BL = {f1 , ......, fr } de tal forma que
L V . Las formas {fr+1 , ..., fn } forman base de L . Por lo tanto V = L L y
se aplica la formula de las dimensiones dim V = dim L + dim L .

2.2.1 Ecuaciones implcitas de un subespacio.


Teorema 2.2.1 La condicion necesaria y suficiente para que el vector x L es que
f L sea f (x) = 0

Corolario 2.2.1 Si {g1 , ...., gr } es un sistema de generadores del ortogonal L de L.


los elementos x L quedan caracterizados por las relaciones:

g1 (x) = 0

..
.
gr (x) = 0

que denominamos ecuaciones implicitas del subespacio L.


Homomorfismo transpuesto. 17

Ejemplo 2.2.1 Sea V = R4 y K = R, el subespacio L esta generado por los sigu-


ientes vectores: 
v1 = (3, 1, 2, 1)
L :=
v2 = (2, 1, 3, 1)
si f L sera f (v1 ) = f (v2 ) = 0. BV = {e1 , e2 , e3 , e4 } a la forma lineal f le
corresponde una matriz
a
b
M(f ) =
c
d
de manera que x = (x1 , x2 , x3 , x4 ) V sera

a
b
f (x) = (x1 , x2 , x3 , x4 )
c =0

d
entonces
f1 (v1 ) = 0 = 3a + b + 2c + d = 0
f2 (v2 ) = 0 = 2a + b + 3c + d = 0
resolviendo el sistema obtenemos:

1 0
5 1
M(f1 ) =
1
M(f2 ) =
0

0 1
por lo tanto las ecuaciones implicitas de un subespacio vendran dadas por:
x1 5x2 + x3 = 0
x2 + x4 = 0

2.3 Homomorfismo transpuesto.


Definicion 2.3.1 Homomorfismo transpuesto.
f
V - W

@
@
@ g
gf @
@
R ?
K
donde g W , g f V y
f t : W V
tal que
f t (g) = f g
verificando las siguientes propiedades:
18 Aplicaciones Lineales

1. f, g : V W, (f + g)t = f t + g t
2. (g f )t = f t g t
3. f : V V, es un isomorfismo, entonces: f t tambien es isomorfismo.

Definicion 2.3.2 Matriz transpuesta. En las mismas condiciones de antes: Sea


h : V W BV = {v1 , ...., vn } BW = {w1 , ...., wq }
ht : W V BV = {f1 , ...., fn } BW = {u1 , ...., uq }
de tal forma que

a11
M(h) = A =
aij Mnq

..
.

b11
M(ht ) = B =
bij Mqn

..
.

sabemos que ht = h u.
n
X
t
h (uj ) = bji fi = gj h
i=1
Pn
Sea x V / x = i=1 xi vi entonces
n
X
h(x) = yi wi
i=1
Pn
tal que yi = i=1 aij xi . Por lo tanto:
n
X
 t 
h (uj ) (x) = uj [h(x)] = yi = aij xi
i=1

por otro lado


n
X n
X
 t 
h (uj ) (x) = bji fi (x) = bji xi
i=1 i=1
observando que
n
X n
X
bji xi = aij xi
i=1 i=1
i.e.
bji = aij = M(ht ) = aji

Observacion 2.3.1 Se verifica:

1. (A + B)t = At + B t
2. Si A es invertible entonces At tambien.
3. (At )t = A

2.4 Ejemplos.
Captulo 3
DETERMINANTES Y SISTEMAS

3.1 Aplicaciones multilineales.


Llegados a este punto se puede generalizar la nocion de aplicacion lineal entre espacios
vectoriales y definir lo que se deniminan aplicaciones multilineles, como por ejemplo
las aplicaciones bilineales y todo lo referente a tensores y algebra tensorial, los tensores
antisimetricos y el algebra de Grassmann etc.... Veamoslo de forma telegrafica.
Sean V1 , V2 , W espacios vectoriales y sea f : V1 V2 W una aplicacion
bilineal i.e. lineal en cada una de sus variables:

f (u + v, w) = f (u, w) + f (v, w)
f (u, v + w) = f (u, w) + f (u, v)

pero podemos extender esta definicion de tal forma que a tales aplicaciones las de-
nominamos multilineales.
Supongamos que w V y W definimos la aplicacion multilineal (bi-
linela)
w (u, v) = w(u)(v)
denominado producto tensorial de w y .
Las aplicaciones multilineales pueden ser multiplicadas por escalares y sumar
entre si. Lo mismo que en le caso lineal, el conjunto de funciones multilineales

L(V1 , ....., Vr ; W )

tiene estructura de espacio vectorial.


Consideremos ahora la siguiente aplicacion bilineal:

Definicion 3.1.1 Espacio Bidual V . Sea (V, K) un espacio vectorial de dimen-


sion finita i.e. (dim V < ). Consideramos la aplicacion bilineal

h, i : V V K
(, v) 7 h, vi = (v)
Si fijamos v V , entonces la aplicacion
h, vi : V K
7 h, vi
que es lineal y por lo tanto un elemento de V .
La aplicacion
: V V
u 7 h, ui
es un isomorfismo.
20 Determinantes y Sistemas

Podemos ahora definir el concepto de Espacio Tensorial. Definimos la apli-


cacion multilineal que denominamos tensor:
s
z }| {
Tsr ... V} V ... V 7 W
: |V {z
r

r covariante y s contravariante.
Definimos el producto tensorial de dos tensores A Tsr y B Tnt como:
r+t
A B Ts+n

definido como una funcion sobre (V )r+t (V )s+n mediante

AB 1 , ..., r+t , v1 , .., vs+n = A( 1 , ..., r , v1 , .., vs )B( r+1 , ..., t+r , vs+1 , ...., vn+s )


Observacion 3.1.1 Sobre la notacion:

las deben llevar el indice arriba, superindice.

las v deben llevar el indice abajo, subindice.

Este producto tensorial verifica trivialmente las leyes asociative y distributiva.

Teorema 3.1.1 Un tensor estas determinado por su vlaor sobre una base y su dual
(i.e. es localizable). Estos vlaores son las componentes de un tensor con respecto al
productotensorial de los elementos de las bases y ssu duales las cuales formana base
del espacio vectorial.

Observacion 3.1.2 Sea BV = {e1 , ...., es } y BV = 1 , ....., r y sea A Tsr




entonces
A = Aij11,......,ir j1
,......,js ei1 ...... eir ......
js

Corolario 3.1.1
dim (Tsr ) = r + s

3.1.1 Tensores simetricos.


Un tensor A es simetrico en sus indices p y q si las componentes con respecto a toda
base no cambian cuando estos indices seintercambian. Un tensor A es simetrico en sus
(p, q) variables si el valor como funcion multilineal no cambia cuando estas variables
se intercambian.

Teorema 3.1.2 Son equilavelentes:

1. A es simetrico en los indices (p, q) ,

2. A es simetrico en las (p, q) variables,

3. las componentes de A con respecto a una base no cambian cuando se cambian


los indices (p, q) .
Determinantes. 21

3.1.2 Tensores antisimetricos.


La nocion de tansor antisimetrico es analoga a la de tensor simetrico solo que aqui
al intercambiar indices o variables el tensor resultante es igual al tensor solo que con
signo negativo (i.e. le cambia el signo).

Teorema 3.1.3 Son equilavelentes:

1. A es antisimetrico en los indices (p, q) ,


2. A es antisimetrico en las (p, q) variables,
3. las componentes de A con respecto a una base cambian de signo.

Teorema 3.1.4 A es antisimetrico sii V

A( 1 , .., , ...., , ...., r , v1 , .., vs ) = 0

i , V y vi V.

3.1.3 Algebra exterior.


Lo analogo de la multiplicacion de tensores simetricos para antisimetricos se denomina
producto esterior (o alternante, o Grassmann o wedge) y el algebra resultante se
denomina exterior o de Grassmann. El simbolo para este producto es y el espacio
de formas antisimetricas de tipo (0, s) se denota por s (V ).
Definimos el operador alternador: A An como una aplicacion lineal

Ts0 s (V ) s

que asigna a cada tensor su parte antisimetrica {v1 , ....., vs } V definimos:


1 X
An (v1 , .., vs ) = sgn(i1 , ...., is )A(v1 , .., vs )
s!
i1 ,....,is

para todas las s!-permutaciones de (1, ...., s) .


Entonces el producto exterior se define como:

A B = (A B)a

verificando las leyes (asociativa, anticonmutativa y distributiva).

3.2 Determinantes.
3.2.1 Permutaciones de orden n.
Definicion 3.2.1 Llamamos permutacion de orden n a toda aplicacion biyectiva
de un conjunto de n elementos A = {a1 , ....., an } sobre si mismo, i.e. : A A.
Al conjunto de todas las permutaciones lo denotamos por Sn .

Un elemento j A es un elemento fijo por una permutacion Sn si (j) = j.


Cuando j A es un elemento fijo de la permutacion , la sucesion

j, (j), 2 (j), ....., r (j)

es finita por serlo el comjunto A; por lo tanto un elemento de la misma, k (j) con
k 0 que coincide con alguno de los anteriores.
22 Determinantes y Sistemas

Proposicion 3.2.1 Si es r = max k / k (j) 6= h (j); 0 h k entonces r+1 (j) =




j.

Dados los elementos distintos de A = j, (j), 2 (j), ....., r (j) / r+1 (j) = j


decimos que es un ciclo de orden r si deja fijos los elementos de A que aparecen en
la sucesion anterior. Designamos tal permutacion como:

= j, (j), 2 (j), ....., r (j)




Proposicion 3.2.2 Toda permutacion de Sn distinta de la identidad puede de-


scomponerse como producto de ciclos.

Decimos que una transposicion es un ciclo de orden 2. Observamos que todo


ciclo puede descomponerse como producto de transposiciones.

Proposicion 3.2.3 Toda permutacion de Sn puede descomponerse como producto


de transposiciones (de forma no unica).

Corolario 3.2.1 Si Sn y r ..... 2 1 = s .....1 son dos descomposiciones de


como producto de transposiciones, r + s es un numero par.

Como consecuencia de este ultimo corolario podemos concluir que el numero


de factores de cualquier descomposicion de una permutacion Sn tiene siempre la
misma parida. Esto nos permite clasificar las permutaciones de orden n en dos
clases: pares, aquellas que se descomponen en el producto de un numero par de
transposiciones e impares como las las que tienen un numero impar.
Definimos el signo de la permutacion Sn como el numero () determinado
conforme al siguiente criterio:

() = +1 si es par,

() = 1 si es impar.

Si es un ciclo de orden r, entonces () = (1)r1 .


3.2.2 Determinantes.
3.2.3 Formas nlienales alternadas.
Sea V un esapcio vectorial / dim V = n sobre K. Una aplicacion
nveces
z }| {
D : V ..... V K

es una forma nlineal alternada definida sobre V si cumple:

1. D (a1 , ..., ai , ....., an ) = D (a1 , ........, an )

2. D (a1 , ..., ai + a0i ....., an ) = D (a1 , ...., ai , ...., an ) + D (a1 , ...., a0i , ...., an )

3. D (a1 , ...., ai , ...., an ) = 0 ai = aj con i 6= j.

Las dos primeras dicen que la forma es multilineal y la 3 que es alternada.


Determinantes. 23

3.2.4 Propiedades de las formas n-lineales alternadas.


1. Dada una transposicion (i, j) se Sn entonces:

D (a1 , ...., ai , ., aj ..., an ) = D (a1 , ..., aj , ., ai , ...., an )

2. Si ai = 0
D (a1 , ...., ai , ...., an ) = 0

3. Sn 
D a(1) , ........, a(n) = () D (a1 , ......., an )

4. si {a1 , ......., an } son LD entonces

D (a1 , ......., an ) = 0

5. D (a1 , ......., an ) no varia si se le suma a un ai una combinacion lineal de los


restantes.

3.2.5 Expresion analitica de una forma n-lineal alternada.


Sea BV = {e1 , ...., en } /
x1 = a11 e1 + ..... + a1n en
..
.
xn = an1 e1 + ..... + ann en

X 
D (x1 , ......., xn ) = a1(1) ........an(n) D e(1) , ........, e(n) =
Sn
X
D(e1 , ...., en ) () a1(1) ........an(n)
Sn

3.2.6 Determinante de un sistema de vectores.


Sea (V, K) y BV = {e1 , ...., en } , llamamos determinante de los vectores {x1 , ...., xn }
V a la expresion
X
det (x1 , ......., xn ) = () a1(1) ........an(n)
B
Sn

se desprende de la definicion que D forma n-lineal definida en V,

D (x1 , ......., xn ) = D(e1 , ...., en ) det (x1 , ......., xn )


B

Proposicion 3.2.4 Sea BV = {e1 , ...., en } y sea k K entonces ! D en V /


D(e1 , ...., en ) = k.

Proposicion 3.2.5 Sea BV = {e1 , ...., en } y sea BV0 = {u1 , ...., un } entonces para
todo conjunto de vectores {x1 , ...., xn } V se tiene:

det
0
(x1 , ......., xn ) = det (x1 , ......., xn ) det
0
(e1 , ...., en )
B B B
24 Determinantes y Sistemas

Proposicion 3.2.6 Si D es una forma n-lineal alternada definida en V y existe


BV = {e1 , ...., en } tal que D(e1 , ...., en ) 6= 0 para cualquier otra base BV0 = {u1 , ...., un }
se tiene que D(u1 , ...., un ) 6= 0.

Proposicion 3.2.7 Si D es una forma n-lineal alternada definida en V no identi-


camente nula entonces para cualquier otra forma D0 K / (x1 , ......., xn )

D0 (x1 , ......., xn ) = D (x1 , ......., xn )

Proposicion 3.2.8 Los vectores (a1 , ........, an ) son linealmente independientes si y


solo si BV
det (a1 , ........, an ) 6= 0
B

3.2.7 Determinante de una matriz cuadrada.


Consideramos el conjunto de matrices cuadradas Mnn (K) en el cuerpo K,

a11 a1n
A = ... .. .
. ..


an1 ann

tomamos la base canonica de V i.e. BV = {e1 , ...., en } de tal forma que

x1 = a11 e1 + ..... + a1n en


..
.
xn = an1 e1 + ..... + ann en

queremos asociar a cada elemento A Mnn (K) un numero a K que denominare-


mos su determinante. A = (aij ) entonces

det A = det (x1 , ......., xn ) i.e.


B
X
det A = () a1(1) ........an(n)
Sn
det A = |aij |

como antes hemos identificado mediante un isomorfismo a cada endomorfismo con su


matriz, entoces hablar del determiante de un endomorfismo se reduce a hablar del
determinnate de su matriz.

Proposicion 3.2.9 det A = det At

3.2.8 Determinante de un endomorfismo.


Sea f un endomorfismo en V (etc....). Si D es una forma n-lineal alternada V no
identicamente nula, entonces la aplicacion

Df : V ....... V K
(x1 , ......., xn ) 7 D(f (x1 ), ...., f (xn ))

es tambien una forma n-lineal alternada definida en V .


Como hemos visto antes
Df = D
Determinantes. 25

Proposicion 3.2.10 El escalar es independiente de la forma n-linela alternada D.

El escalar esta determinado de manera unica por el endomorfismo f que


recibe el nombre de det f = , entonces

Df = det f D

i.e.
D [f (x1 ), ...., f (xn )] = det f D (x1 , ......., xn )
BV = {e1 , ...., en } se verifica:

det f = det [f (x1 ), ...., f (xn )]


B

Sea ahora BV = {e1 , ...., en } y si f End(V ) / M (f, BV ) = (aij ) entonces j =


1, 2, .., n
n
X
f (ej ) = aij ei
i=1
entonces
det f = det [f (x1 ), ...., f (xn )]
B

det f = det A

Proposicion 3.2.11 El determinante de f End(V ) coincide con el determinante


de su matriz asociada con respecto de cualquier base.

Proposicion 3.2.12 Todas las matrices asociadas a un mismo endomorfismo tienen


el mismo determinante.

Proposicion 3.2.13 Un endomorfismo f es automorfismo sii det f 6= 0.

Proposicion 3.2.14 Sean f, g End(V ) entonces:

1. det(f g) = det(f ) det(g) = det(AB) = det(A) det(B)

2. det(I) = 1

3. f automorfismo, entonces det(f 1 ) = [det(f )]1 = det A1 = (det A)1 .

3.2.9 Rango de una matriz.


Sea A = (aij ) Mnp (K). Sean los vectores columna

a11 e1 + ..... + ap1 ep = b1


..
.
a1n e1 + ..... + apn ep = bn

Definicion 3.2.2 Llamamos rango de A al numero de vectores columna de A con


determinante distinto de cero i.e. que son LI

rg(A) = dim [l (b1 , ....., bp )]


26 Determinantes y Sistemas

Llamamos menor de una matriz arbitraria A a toda matriz cuadrada obtenida


a partir de A suprimiendo filas y columnas de la misma.

Proposicion 3.2.15 El rango de A es el maximo de los ordenes de los menores de


A con determinante distinto de cero.

Proposicion 3.2.16 rangA = al mayor numero de vectroes fila LI.

Proposicion 3.2.17 Sea f End(V ) y sea A = M (f, B) entonces

rg (A) = dim(Im f )

3.2.10 Matriz inversa.


Sea A = (aij ) Mnn (K). Para cada i, j (1, .., n) consideramos la matriz

a11 a1j a1n
.. .. ..
. . .

0
Cij = 1 0
.. .. ..
. . .
an1 anj ann

llamamos menor adjunto de aij al elemento de K

ij = det(Cij )

y matriz adjunta de A a la matriz

ad(A) = (ij )

i.e. la matriz adjunta de una matriz cuadrada A es la matriz transpuesta de la matriz


cuyos terminos son los menores adjuntos de los elementos de A.

Proposicion 3.2.18 Matriz inversa.

Ct
A1 =
det A
donde C t es el menor de orden n 1 n 1

Ejemplo 3.2.1 Sea


   d b 
a b 1 adbc adbc
A= = A = c a
c d adbc adbc

y sea

a b c ie f h ib + ch bf ce
1
B = d e f = B 1 = id + f g ia cg af + cd
det B
g h i dh eg ah + bg ae bd
Sistemas lineales. 27

3.3 Sistemas lineales.


Definicion 3.3.1 Sea (V, K) / dim V = n y sea BV = {e1 , ......, en }. Sean {e1 , ......, en }
y {~a1 , ......, ~an } V / ~ai = (ai1 , ......, ain ). El numero maximo de vectores LI es el
rango de los {~a1 , ......, ~ak } = dim [L ({~a1 , ......, ~ak })] . Sea

a11 a1n
A = ... . . .. rangA = rang {~a1 , ......, ~ak }

. .
an1 ann

Proposicion 3.3.1 Dada la matriz A, el rangA es igual al mayor orden de los


menores con det 6= 0.

Teorema 3.3.1 Rouche-Frobenious. Sean (V, K) / dim V = n y {~a1 , ......, ~ar } V

v L (~a1 , ......, ~ar ) v(~a1 , ......, ~ar ) = v(~a1 , ......, ~ar , ~v )

Consecuencias: Sea el sistema


a11 x1 + ..... + a1n xn = b1 a1 = (a11 , ......, a1n )
.. ..
. . ~v = (b1 , ...., bn )
an1 x1 + ..... + ann xn = bn an = (an1 , ......, ann )

decimos que el sistema es incompatible (no tiene solucion) sii ~v


/ L (~a1 , ......, ~ar )
rangA 6= rangB donde

a11 a1n a11 a1n b1
A = ... .
.. . .. . ..
. .. y B = .. . ..

.
an1 ann an1 ann bn
el sistema
a11 x1 + ..... + a1n xn = b1
..
.
an1 x1 + ..... + ann xn = bn
es compatible sii ~v L (~a1 , ......, ~ar ) rangA = rangB.

Observacion 3.3.1 Si rangA es maximo e igual a la dimension de V entonces el


sistema es compatible determinado (existe una unica solucion).
Si rangA es menor que la dimension del espacio entonces el sistema es com-
patible pero existen muchas soluciones.

Otro punto de vista es el siguiente: Consideremos el sistema


a11 x1 + ..... + a1n xn = b1
.. (3.1)
.
an1 x1 + ..... + ann xn = bn
que podemos reescribir de la forma

a11 a1n x1 b1
.. .. . .. ..
. . .. . = .
an1 ann xn bn
28 Determinantes y Sistemas

P
la solucion del sistema es un conjunto de escalares (1 , ......, n ) / aij j = bj . Sea
ahora f : V W tal que dim V = n y dim W = p tal que BV = {e1 , ......, en } y
BW = {u1 , ......, up } tal que

a11 a1n
M(f, BV ) = ... .. .
. ..


an1 ann

las ecuaciones de f respecto de BV son


P

i a1i xi = y1
..
.
P
i api xi = yp

Teorema 3.3.2 Rouche-Frobenious. El sistema de ecuaciones lineales tiene solu-


ciones sii el vector X
b= bi ui Im f
i

Observacion 3.3.2 Teniendo en cuenta que los vectores {f (ei )}ni=1 constituyen un
sistema de generadores de Im f y puesto que dim [Im f ] = rangA si llamamos B a la
matriz ampliada, entonces el toerema de R-F dice:

Corolario 3.3.1 ! solucion si rangA = rangB.

Observacion 3.3.3 Las ecuaciones del sistema homogeneo representan las ecua-
ciones del ker f . Si el sistema es compatible, el conjunto de sus soluciones es el
conjunto f 1 (b) i.e. las soluciones del sistema (3.1) constityen en virtud del teorema
de isomorfia una clase de equivalencia de V respecto del subespacio ker f de man-
era que si (1 , ......, n ) es una solucion concreta de (3.1) el conjunto de todas las
soluciones del sistema es:

[(1 , ......, n ) + ker f ] (V / ker f )

por lo tanto las soluciones del sistema (3.1) se obtiene sumando a una solucion par-
ticualr del mismo el conjunto de todos los vectores de ker f , o lo que es lo mismo, el
conjunto de todas las soluciones del sistema homogeneo asociado a (3.1). Sabemos
que dim Im f = rangA entonces dim ker f = n rangA.

Proposicion 3.3.2 Si el sistema es compatible entonces si

rangA = n determinado
rangA < n indeterminado

Proposicion 3.3.3 Regla de Cramer. Sistema en el que el numero de ecuaciones


coincide con el de incognitas / det A 6= 0.
Sea
(aij )nn (xi ) = (bj )
como det A 6= 0 entonces A1 /

xi = A1 bj
Ejemplos. 29

i.e.
x1 11 n1 b1
.. 1 .. .. .. ..
. =

. . . .
det A

xn 1n nn bn
i.e.

b1 a12 a1n
det ... ..

.
bn a2n ann
x1 = ,
det A
..
.

a11 a1n1 b1
det ... ..

.
an1 ann1 bn
x1 =
det A

Ejemplo 3.3.1 Resolver el sistema

x+y+z =4
2x y + z = 3
x y z = 2

Sea

1 1 1 1 1 1 4
c = 2 1 1 y A = 2 1 1 3
1 1 1 1 1 1 2

como det C = |C| = 4 entonces rangC = rangA por lo tanto



4 1 1 4 1 1 4 1 1

3 1 1
3 2 1
3 2 1


2 1 1 2 1 1 2 1 1
x= , y= , z=
4 4 4

3.4 Ejemplos.
Ejemplo 3.4.1 Sea V / dim V = 3 y sea f End(V ) de tal forma que

1 2 3
M (f, BV ) = 1 1 2
0 0 1

y L un subespacio vectorial engendrado por los vectores u, v / L = L(u, v) siendo


u = (1, 2, 1) y v = (1, 1, 1) respecto de la base BV . Queremos hallar f (L) y f 1 (L).
Es f 2 : f 1 (L) L un isomorfismo?
30 Determinantes y Sistemas

Solucion.
En primer lugar vamos a calcular las ecuaciones implicitas del subespacio L,
estas son:

x y z
L 1 2 1 = x z = 0
1 1 1
Observacion 3.4.1 Podemos pensar de forma intuitiva en que estos dos vectores
generan un plano cuya ecuacion es:
~n = (u v) = (1, 0, 1) = x z = 0

Las ecuaciones de f son:


0
x 1 2 3 x
y 0 = 1 1 2 y
z 0 0 0 1 z
o lo que es lo mismo
x0

x + 2y + 3z
y 0 = x + y + 2z
z0 z
f () L f 1 (L)
por lo tanto
f () L (x + 2y + 3z, x + y + 2z, z)
de tal forma que este vector ha de verificar las ecuaciones de L i.e. x z = 0 por lo
tanto
x + 2y + 3z (z) = 0 x + 2y + 4z = 0
entonces las ecuaciones implicitas de f 1 (L) son:
x + 2y + 4z = 0

Observacion 3.4.2 Darse cuenta de que



1 2 3 x
(1, 0, 1) 1 1 2 y = x + 2y + 4z = 0
0 0 1 z

f (L) estara generada por {f (u), f (v)} donde f (u) = (8, 3, 1) y f (v) = (2, 0, 1)
por lo tanto

x y z

f (L) = 8 3 1 = 0 =

2 0 1
f (L) x 2y + 2z = 0
Por ultimo como f es biyectiva entonces es un isomorfismo (det M (f, BV ) 6= 0) en-
tonces f f = f 2 es un isomorfismo
f 2 (f 1 (L)) = f (L)
es un isomorfismo.
Ejemplos. 31

Ejemplo 3.4.2 Sea f : R3 R4 tal que


0
x 1 2 5
y 0 2 1 1 x
z 0 = 1 1 4 y
.
z
t0 5 1 2
Determinar f 1 (L) si:
1. L = (x, y, z, t) R4 / ax + by + cz + dt = 0


2. L = L {(1, 0, 1, 1) , (1, 1, 0, 2)}


Solucion.
Como en el ejemplo anterior. Sea = (x, y, z) entonces
f (w) = [(x + 2y + 5z) , (2x y z) , (x y 4z) , (5x + y 2z)]
que debe satisfacer las ecuaciones de L i.e. ax + by + cz + dt = 0
a (x + 2y + 5z) + b (2x y z) + c (x y 4z) + d (5x + y 2z) = 0
despejando x, y, z se obtiene:
(a 2b + c + 5d) x + (2a b c + d) y + (5a b 4c 2d) z = 0
i.e.
1 2 5
2 1 1 x
1 1 4 y
(a, b, c, d) = 0
z
5 1 2
En el segundo caso operamos de la siguiente manera (siguiendo el ejemplo de
la teoria)
1 1
0 1
(a, b, c, d) = 0,
1 (a, b, c, d) 0 =0

1 2
entonces
BL = {(1, 1, 1, 0) , (1, 3, 0, 1)}
asi 
x+y+z =0
L
x + 3y + t = 0
entonces como en el caso (1) sera:

1 2 5  
x
 
1 1 1 0 2 1 1 y = 0
1 3 0 1 1 1 4 0
z
5 1 2

  x  
0 0 0 0
y =
0 0 0 0
z
obteniendose que f 1 (L) R3 .
32 Determinantes y Sistemas

Ejemplo 3.4.3 Sea f : R4 R4 tal que



1 3 1 2
0 2 2 1
A = M (f, BV ) =
2 4 0 5
1 1 1 3

calcular:

1. Bases de ker f, Im f, R4 / ker f

2. Ec. implicitas de Im f

3. Ec. del isomorfsmo canonico.

Solucion.
Calculamos el rango de la matriz A siendo rangA = 2 por lo tanto dim Im f =
dim ker f = 2. Las ecuaciones del ker f son:


x + 3y + z 2t = 0
2y + 2z + t = 0

ker f := = Bker f = {(2, 1, 1, 0) , (7, 1, 0, 2)}

2x + 4y 5t = 0
x y + z + 3t = 0

y una base de Im f puede ser:

BIm f = {(1, 0, 2, 1) , (3, 2, 4, 1)}

de esta forma obtenemos que

BR4 / ker f = {(e1 + ker f ) , (e2 + ker f )} .

Las ecuaciones implicitas de Im f son:

BIm f = {(1, 0, 2, 1) , (3, 2, 4, 1)}




y1 = + 3
y2 = 2

Im f := =

y 3 = 2 + 4
y4 =


y1 1 3 y1
1 3

y2 0 2 = 0, y2 0 2 = 0 =

y4 1 1

y3 2 4


2y1 + y2 + y3 = 0
Im f :=
y1 y2 + y4 = 0
Veamos otro metodo de calcular las ecuaciones de Im f.

Sea L = Im f y L R4 ; h L h(x) = 0 x L

 
a = 2 +
h(v1 ) = 0 a + 2c d = 0 b=

= =
h(v2 ) = 0 3a + 2b + 4c d = 0
c=
d=

Ejemplos. 33

recordamos que BIm f = {(1, 0, 2, 1) , (3, 2, 4, 1)}

= BL = {(2, 1, 1, 0) , (1, 1, 0, 1)}

por lo tanto las ecuaciones implicitas de L son:



2x + y + z = 0
L :=
xy+t=0
Por ultimo calcularemos las ecuaciones canonicas. Recordamos el grafico
f - 4
R4 R
6

p i
?
4
R / ker f - Im f
f
como BR4 / ker f = {(e1 + ker f ) , (e2 + ker f )} entonces calculamos

{f (e1 + ker f ) , f (e2 + ker f )}

f (e1 + ker f ) = f (e1 ) = (1, 0, 2, 1) = y1


f (e2 + ker f ) = f (e2 ) = (3, 2, 4, 1) = y2

por lo tanto    
1 0
M (f ) = =
0 1 0 0
ya que

y1 = y1 + y2
y2 = 0 y 1 + 0 y 2

como queriamos ver.

Ejemplo 3.4.4 Mismo enunciado que el anterior para:


 
3 4 x1 + x3 x2 2x3
f : R R / f (x1 , x2 , x3 ) =
2x1 + x2 x1 + x3

Solucion.
Calculamos la matriz M (f, BV ) donde BV = {e1 , e2 , e3 }

f (1, 0, 0) = (1, 0, 2, 1)
f (0, 1, 0) = (0, 1, 1, 0)
f (0, 0, 1) = (1, 2, 0, 1)

entonces
1 0 2 1
M (f, BV ) = 0 1 1 0
1 2 0 1
34 Determinantes y Sistemas

cuyo rango es 2 por lo tanto dim Im f = 2. Una base de Im f puede ser:

BIm f = {(1, 0, 2, 1) , (0, 1, 1, 0)}

y dim ker f = 1 (recordamos que dim V = dim ker f + dim Im f ). Las ecuaciones del
ker f son:


x+z =0
y 2z =0

ker f := = Bker f = {(1, 2, 1)}

2x + y =0
x+z =0

de esta forma obtenemos una base de V como:

BV = {(1, 2, 1) , (1, 0, 0) , (0, 1, 0)}

y
BV / ker f = {(1, 0, 0) + ker f, (0, 1, 0) + ker f }

las ecuaciones del isomorfismo canonico son:

f (e1 + ker f ) = f (e1 ) = (1, 0, 2, 1) = y1


f (e2 + ker f ) = f (e2 ) = (0, 1, 1, 0) = y2

por lo tanto
   
1 0
M (f ) = =
0 1 0 0
ya que

y1 = y1 + y2
y 2 = 0 y 1 + 0 y2

como queramos ver.

Ejemplo 3.4.5 Sea f : R4 R4 tal que



1 2 2 3
2 1 4 6
A = M (f, BV ) =
3 1

3 9
1 2 1 3

calcular:

1. Bases de ker f, Im f, R4 / ker f

2. Ec. implicitas de Im f

3. Ec. del isomorfsmo canonico.


Ejemplos. 35

Solucion.
Calculamos el rango de la matriz A siendo rangA = 3 por lo tanto dim ker f =
1. Las ecuaciones del ker f son:

x + 2y + 2z 3t = 0

2x + y 4z + 6t = 0

= Bker f = {(3, 0, 0, 1)}
3x y + 3z 9t = 0

x + 2y z + 3t = 0

mientras que una base de Im f es:

BIm f = {(1, 2, 3, 1) , (2, 1, 1, 2) , (2, 4, 3, 1)}

las ecuaciones implicitas de Im f son:



1 2 2 x

2 1 4 y

3 1 = 3t z + y + 2x = 0
3 z
1 2 1 t

Por ultimo calcularemos las ecuaciones canonicas. Recordamos el grafico

f - 4
R4 R
6

p i
?
R4 / ker f - Im f
f

como BR4 / ker f = {(e1 + ker f ) , (e2 + ker f ) , (e3 + ker f )} entonces calculamos

{f (e1 + ker f ) , f (e2 + ker f ) , (e3 + ker f )}

f (e1 + ker f ) = f (e1 ) = (1, 2, 3, 1) = y1


f (e2 + ker f ) = f (e2 ) = (2, 1, 1, 2) = y2
f (e3 + ker f ) = f (e3 ) = (2, 4, 3, 1) = y3

por lo tanto (como en los ejemplos anteriores)



1 0 0
M (f , B) = 0 1 0
0 0 1

la matriz de la aplicacion p : R4 R4 /ker f es:



1 0 0 0
M (p, B) = 0 1 0 0
0 0 1 0
36 Determinantes y Sistemas

y la matriz de la inclusion i : Im f R4 es:



1 2 2
2 1 4
M (i, B) =
3 1

2
1 2 1
viendo as que el tema carrula bien.

Ejemplo 3.4.6 Sea f : R3 R3 / f (x, y, z) = (x + y, x + z, y z) . Queremos


encontrar bases de ker f, Im f y R3 / ker f respecto de las cuales las matrices de las
aplicaciones p, f e i sean diagonales.

Solucion.
De forma rapida vemos que:

f (e1 ) = (1, 1, 0) , f (e2 ) = (1, 0, 1) , f (e3 ) = (0, 1, 1)

asi pues:
1 1 0
M (f, B) = 1 0 1
0 1 1
cuyo rango es 2 como facilmete se puede comprobar. Las ecuaciones del ker f son:

x + y = 0,
x + z = 0,
yz =0

por lo que una base es:

Bker f = {(1, 1, 1)} ,


BR3 = {(1, 0, 0) , (0, 1, 0) , (1, 1, 1)} ,
BIm f = {(1, 1, 0) , (1, 0, 1)} ,
BR3 / ker f = {(e1 + ker f ) , (e2 + ker f )}

unas ecuaciones de Im f son:



x y z

1 1 0 =xyz =0

1 0 1

Las expresiones de las aplicaciones p, f e i son:


 
1 0 0
p(ei ) =
0 1 0
 
1 0
f (ei ) =
0 1

1 0
i(ei ) = 0 1
0 0
Ejemplos. 37

de tal forma que


1 0 0
i f p = 0 1 0
0 0 0
Observacion 3.4.3 se puede comprobar que la matriz diagonal de A es precisamenete
la resultante de i f p

1 1 0 0 0 0
1 0 1 0 3 0

0 1 1 0 0 3
y como se estudiara en captulos posteriores al ser A simetrica entonces siempre
podemos encontrar una base respecto de la cual sea diagonal con 1 y 0 en ella.

Ejemplo 3.4.7 Dadas las formas lineales sobre R3


f1 (x, y, z) = x + 2y 3z
f2 (x, y, z) = 2x + 3y 4z
f3 (x, y, z) = 2x 2y + z
queremos probar que B = {f1 , f2 , f3 } forma base del dual y hallar una base B 0 de
R3 tal que (B 0 ) = B .

Solucion.
Sea B = {e1 , e2 , e3 } base de R3 y sea B = {e1 , e2 , e3 } su base dual puesto
que
fi = fi (e1 )e1 + fi (e2 )e2 + fi (e3 )e3 con i = 1, 2, 3
resulta que la matriz de coordenadas por columnas, de los fi respecto a B es

1 2 2
Q= 2 3 1
3 4 1
como det Q 6= 0 entonces {f1 , f2 , f3 } son LI y por lo tanto forman base.
Respecto al segundo apartado vemos que la matriz de base de B a B 0 es Q

t 1 1 1 1
Q1 = 10 7 2
3
8 5 1
si C = {u1 , u2 , u3 }
1 1 1
u1 = e1 + e2 + e3
3 3 3
10 7 2
u2 = e1 + e2 e3
3 3 3
8 5 1
u3 = e1 + e2 e3
3 3 3
38 Determinantes y Sistemas

Ejemplo 3.4.8 Sea V un Respacio vectorial. B = {e1 , e2 , e3 } es una base y sea


C = {u1 , u2 , u3 } tal que

u1 = 2e1 + e3
u2 = 3e3
u3 = e2 e3

demostrar que:

1. C es base de V.

2. Hallar las ec del cambio de B a C,

3. Hallar las ec del cambio de B a C ,

4. Obtener coordenadas de 3e1 + e2 e3 respecto de C .

Solucion.
En primer lugar comprobamos que

2 0 0
det A = det 0 0 1 6= 0 = LI i.e. forman base.
1 3 1

la matriz de cambio de base de B a C es


0
x 2 0 0 x
y0 = 0 0 1 y
z0 1 3 1 z
B C

Las ecuaciones de cambio de B a C son:


0 1 t
x 2 0 0 x
y0 = 0 0
1 y


z0 1 3 1 z

x0
1 1

2 6 0 x
y0 = 0 1
1 y
3
z 0 0 1
0 z
3

Por ultimo las coordenadas de u = 3e1 + e2 e3 respecto de C son:

u (u1 ) = 3e1 (u1 ) + e2 (u1 ) e3 (u1 )


u (u2 ) = 3e1 (u2 ) + e2 (u2 ) e3 (u2 )
u (u3 ) = 3e1 (u3 ) + e2 (u3 ) e3 (u3 )

entonces como
u1 = 2e1 + e3
u2 = 3e3
u3 = e2 e3
Ejemplos. 39

vemos que

u (u1 ) = 3e1 (2e1 + e3 ) + e2 (2e1 + e3 ) e3 (2e1 + e3 )


u (u2 ) = 3e1 (3e3 ) + e2 (3e3 ) e3 (3e3 )
u (u3 ) = 3e1 (e2 e3 ) + e2 (e2 e3 ) e3 (e2 e3 )

y teniendo en cuenta que ei (ej ) = ij = {1, 0} vemos por lo tanto que

(u (u1 ) , u (u2 ) , u (u3 )) = (5, 3, 2)

otra forma de calcular estas coordenadas son:



3 5
At 1 = 3
1 2

2 0 1 3 5
0 0 3 1 = 3
0 1 1 1 2
como comprobamos.

Ejemplo 3.4.9 Sea f : R4 R3 tal que

f (x, y, z, t) = (x y, 2y z, 2z t)

Calcular:

1. Bases de ker f, Im f y R4 / ker f.



2. Sea g : R3 R tal que las coordenadas de (g f ) R4 respecto de la base
dual de la canonica son (2, 0, 1, 1). Calcular las coordenadas de g respecto de
la base dual
{(1, 0, 0) , (1, 1, 0) , (1, 1, 1)}

Solucion.
Ya de forma rutinaria pasamos a calcular las bases.

1 1 0 0
M (f, B) = 0 2 1 0
0 0 2 1
cuyo rango es 3.
BIm f = {(1, 0, 0) , (1, 2, 0) , (0, 1, 2)}
mientras que ker f es:

xy =0
2y z = 0 = Bker f = {(1, 1, 2, 4)}
2z t = 0

por lo tanto

BR4 / ker f = {(e1 + ker f ) , (e2 + ker f ) , (e3 + ker f )}


40 Determinantes y Sistemas

f (ei + ker f ) = f (ei ) = f (ei ) = yi


entonces
1 0 0
M (f , B) = 0 1 0
0 0 1

Con respecto al segundo apartado consideramos g : R3 R i.e. g R3
tal que
f - 3
R4 R
@
@
@ g
gf @
@ ?
R
R
Sea
B = {(1, 0, 0) , (1, 1, 0) , (1, 1, 1)} = {v1 , v2 , v3 }
y
g = u1 + u2 + u3
con B = {u1 , u2 , u3 } tal que g f = 2h1 + h3 h4 = (2, 0, 1, 1) . Recordamos que
ui (vj ) = ij . Pasamos a calculas las formas ui :

a=1 a=0 a=0
u1 = a + b = 0 , u2 = a + b = 1 , u3 = a+b=0
a+b+c=0 a+b+c=0 a+b+c=1

u1 = x y, u2 = y z, u3 = z
como g = u1 + u2 + u3 entonces
g = x0 y 0 + y 0 z 0 + z 0
  

y
(g f ) (x, y, z, t) = g (f (x, y, z, t)) = g (x y, 2y z, 2z t) = 2h1 + h3 h4
eligiendo
x0 = x y, y 0 = 2y z, z 0 = 2z t
entonces
x0 y 0 + y 0 z 0 + z 0 =
  

(x y 2y + z) + (2y z 2z + t) + (2z t) =

x = 2
(3 + 2) y = 0
( 3 + 2) z = 1
( ) t = 1
por lo tanto
= 2, =3 y =4
Ejemplos. 41

Ejemplo 3.4.10 Sea V etc.. tal que BV = {ei }3i=1 y sea B 0 = {(1, 3, 1) , (2, 0, 1) , (1, 2, 2)}
i.e. B 0 = {vi }3i=1 queremos comprobar:
1. B 0 es base de V,
2. Determinar (B 0 ) , (referenciada a la base dual de B)
3. L = L(v1 , v2 ) entonces determinar L y las ecuaciones implicitas de L.
Solucion.
Comprobamos de forma trivial que B 0 es base de V si detB ({vi }3i=1 ) 6= 0 i.e.

1 3 1 1 3
1
A= 2 0 1 2
0 1 6= 0
1 2 2 1 2 2
donde A es la matriz de paso de B B 0 .
(B 0 ) = {fi }3i=1 / fi (vj ) = ij entonces tenemos:

a




(1, 3, 1) b =1
c




a a 3b + c = 1



f1 : (2, 0, 1) b
= 0 = 2a + c = 0
c a + 2b 2c = 0




a




(1, 2, 2) b = 0





c
lo hacemos para f2 y f3 obteniendo:

a 3b + c = 0 a 3b + c = 0
f2 : 2a + c = 1 , f2 : 2a + c = 0
a + 2b 2c = 0 a + 2b 2c = 1

de esta forma obtenemos:


2 3 4
f1 = x y z
7 7 7
4 1 1
f2 = x + y z
7 7 7
3 1 6
f3 = x y z
7 7 7
A A0 t
comprobamos que si B B 0 y B (B 0 ) entonces A0 = A1 i.e.

1 3 1 2 3 4
0 1
A= 2 0 1 7 A =
4 1 1
7
1 2 2 3 1 6

Sea L = L(v1 , v2 ) entonces determinar L y las ecuaciones implicitas de L.


Como L = L {v1 , v2 } entonces L = {f (vi ) = 0}. Como dim V = 3 y dim L = 2
entonces dim L = 1. Calculamos
f (v1 ) = a 3b + c = 0
f (v2 ) = 2a + c = 0
42 Determinantes y Sistemas

entonces resolviendo el sistemilla en (a, b, c) obtenemos:

BL = {3, , 6}

mientras que las ecuaciones de L son:

x 3y + z = 0
2x + z = 0

y por ultimo las ecuaciones de L son:



x y z

1 3 1 = 3x + y + 6z = 0

2 0 1

Ejemplo 3.4.11 Sea V etc.. tal que BV = {u1 , u2 , u3 }. Sea L la variedad de V


engendrada por
w1 = (1, 1, 3)
L: w2 = (1, 1, 1)
w3 = (2, 3, 7)

resepcto de BV . Calcular:

1. Extraer de {wi }3i=1 una base de L y prolongarla a una base de V. Hallar su dual.

2. Determinar L asi como una base suya.

3. Obtener una variedad L1 suplementaria de L en V .

4. Hallar dim y las ec. implicitas de (L1 ) .

Solucion.
Vemos de forma trivial que

1 1 3
det {wi }3i=1 = 0

i.e. 1 1 1 = 0

B 2 3 7

por lo tanto los vectores  que generan


 L i.e. {wi }3i=1 son LD. Ahora bien {wi }2i=1
son LI entonces L = L {wi }2i=1 por lo tanto BL = {w1 , w2 } comprobando de esta
forma que dim L = 2 de tal forma que L V. Una base de V se obtiene de forma
trivial simplemente agragandole un vector BV0 = {w1 , w2 , e3 }.Para calcualr una base
B = {u1 , u2 , u3 } y (BV0 ) = {w1 , w2 , e3 } como en ejemplos anteriores vemos que si
A A0
la matriz de paso de una base a otra es A i.e. B B 0 entonces B (B 0 ) de tal
forma que
1 1 0 1 1 4
1
A= 1 1 0 7 A0 = 1 1 2
2
3 1 1 0 0 2
Ejemplos. 43

entonces (BV0 ) = {w1 , w2 , e3 } donde

1
w1 = [x + y]
2
1
w2 = [x + y]
2
1
e3 = [4x y + z]
2
Las ecuaciones de L son:

x + y + 3z = 0
L =
x + y z = 0

observandose que V = L L . La base BL la obtenemos de



x y z

1
1 3 = 2x y + z = 0
1 1 1

As pues (2u1 u2 + u3 ) es una base de (BL ) .


El subespacio vectorial L1 V / L1 = {u1 , u2 } es un suplemanetario de L
en V ya que {u1 , u2 } y (2u1 u2 + u3 ) son LI

Por ultimo como dim L1 = 2 entonces (dim L1 ) = 3 2 = 1. Las ecuaciones


implicitas de (L1 ) son: 
x=0
(L1 ) :
y=0
ecuaciones cuyos coeficientes son las coordenadas respecto de B de una base de L1 .

Ejemplo 3.4.12 Sea f : R3 R4 cuyas ecuaciones respecto de las bases canonicas


son:
y1 1 2 1
x1
y2 2 1 4

y3 =
x2
3 2 5
x3
y4 2 4 2

1. Hallar f t ,

2. Determinar ker f t , Im f t ,

3. Sea (x, y, z, t) = 2x y +t / 1 (R4 ) hallar f t () .

Solucion.
Sean BR 3 y BR 4 duales de las bases canonicas respectivas y (x1 , x2 , x3 ),
(y1 , y2 , y3 , y4 ) coordenadas respecto de dichas bases entonces f t es:

y
3 2 1

x1 1 2
y2
x2 = 2 1 2 4 y3
x3 1 4 5 2
y4
44 Determinantes y Sistemas

por lo tanto ker f t es:



y1 2y2 + 3y3 2y4 = 0
ker f t : 2y1 + y2 2y3 + 4y4 = 0
y1 4y2 + 5y3 + 2y4 = 0

donde
Bker f t = {( 2, 4, 3, ) / , R} ,
observandose que
dim ker f t = dim Im f t
entonces una base de ker f t esta formada por las formas lineales {u1 , u2 } las coor-
denadas respecto de BR 4 son {(1, 4, 3, 0) , (2, 0, 0, 1)} . Una base de Im f t esta for-
mada por las formas {v1 , v2 } R3 cuyas coordenadas respecto de la base BR 3 son
{(1, 2, 1) , (2, 1, 4)} .
Las ecuaciones implcitas de Im f t resultan de:

x y z

1 2 1 = 3x 2y + z = 0

2 1 4

Por ultimo las coordenadas de respecto de BR 4 = {e1 , .., e4 } son:

{ (e1 ) , ...., (e4 )} / BR4 = {e1 , .., e4 }

entonces dichas coordenadas son: (2, 1, 0, 1) . Las coordenadas de f t respecto de


BR 3 son:

2
x1 1 2 3 2 2
1

x2 = 2 1 2 4 0 = 7
x3 1 4 5 2 8
1
entonces f t () (x, y, z) = 2x + 7y + 8z (x, y, z) R3 .
Captulo 4
CLASIFICACION DE ENDOMORFISMOS. MATRICES DE JORDAN

4.1 Clasificacion de endomorfismos.


Sea f : V W una aplicacion entre espacios vectoriales, nos interesa escoger una
base respecto de la cual f tenga una expresion matricial sencilla.

Definicion 4.1.1 Valor propio y vector propio. Sea f End(V ) tal que f (v) = v.

f (v) v = 0 v ker(f I)

K es valor propio de f sii ker(f I) 6= ~0, (f ). Denotamos por n oVi =


ker(f i I). Vi V y sean 1 , 2 (f )/ 1 6= 2 entonces V1 V2 = ~0 .

Observacion 4.1.1 V = ker(f I), sea x ker(f I) (f I)(x) =


f (x) x f (x) = x i.e. x V .
Vi V como es inmediato de ver ya que, sean x, y V y , K, entonces

f (x + y) = f (x) + f (y) = x + y = (x + y) V
f (x + y) = (x + y) V

y por ultimo. n o
Si 1 , 2 (f )/ 1 6= 2 entonces V1 V2 = ~0 ya que si tomo x
n1o V2 i.e. x V1 y x V2 entonces f (x) = 1 x = 2 x entonces (1 2 ) x =
V
~0 1 = 2 como queriamos hacer ver.

Definicion 4.1.2 Multiplicidad del valor propio a la dimension de ker(f I)

Proposicion 4.1.1 K es autovalor de f sii det(f I) = 0.

Demostracion. (f ) ker(f I) 6= ~0 det(f I) = 0.

Definicion 4.1.3 Polinomio caracteristico. Sea f End(V ) tal que A = M(f, B)


es su matriz.
pf () = det(A I) = 0

Proposicion 4.1.2 El polinomio caracteristico no depende de la base.

Proposicion 4.1.3 Los vectores propios de valores propios diferentes son LI.
46 Clasificacion de Endomorfismos. Matrices de Jordan

Demostracion.PSea L = L(x1 , ..., xr ) V . Supongamos que BL = {x1 , ..., xp }


p ~
con p <P r. Sea xr = r=1 i xi con xr 6= 0, entonces existe un i 6= 0, tal que
f (xr ) = r=1 i f (xi ) y f lineal, entonces r xr = pr=1 (i i ) xi . Si r = 0 entonces
p P
(i i ) 6= 0
p
X
~0 = (i i ) xi
r=1

entonces (i i ) 6= 0 lo que implica queP{x1 , ..., xp } son


 LD lo cual es contrdictorio !.
1 p 1 Pp
Si r 6= 0 entonces r K/ xr = r=1 i i r xi tal que xr = r=1 i xi con
i 6= 0 definimos i = i 1 r de tal que i 1r = 1 entonces i = r != p = r.

Corolario 4.1.1 El numero de valores propios diferentes es menor igual que la di-
mension del espacio V . Si hay exactamente n diferentes entonces f es diagonalizable.

Ejemplo 4.1.1 Sea f End(V ) tal que A = M(f, B) es su matriz.


  3 4

1 3 4
A= = p() = 5 5 =0
3
4
5 4 3 5 5

el polinomio caractersco es
2 1 = 0
y las soluciones por lo tanto (i.e. los autovalores) son:

() = {1, 1}

su matriz diagonal es:  


1 0
D=
0 1
y los vectores propios los calculamos

ker(A I)

i.e.       
1 3 4 1 0 v1
i =0
5 4 3 0 1 v2
resultando que para = 1 su autovector es v = (2, 1) mientras que para = 1
w = (1, 2). De esta forma se observa que

A = B 1 DB

donde  
2 1
B=
1 2
 3 4
  1   
5 5 2 1 1 0 2 1
4 =
5 35 1 2 0 1 1 2
Polinomio mnimo. 47

Proposicion 4.1.4 Si r es la multiplicidad del autovalor , y s es la multiplicidad


del cero k del polinomio caracterstico, entonces r s.

Teorema 4.1.1 Un endomorfismo f es diagonalizable sii su polinomio caracterstico


se descompone en factores lineales y la multiplicidad de cada uno de sus ceros coincide
con su multiplicidad como autovalor de f .

Demostracion. (f ) = {1 , ......, r }Pdonde p() = (1 )s1 (2 )s2 ...... (r )sr


i.e. p() = i=1 (i )si de tal forma que ri=1 si n = dim V
Qr


dim (V1 ) = s1 7 {e11 , ......, ers1 }
B = {e11 , ......, ers1 , ......, ersr }
V
dim (Vr ) = sr 7 {er1 , ......, ersr }
comprobando que

(11 e11 + ...... + 1s1 ers1 ) + ..... + (r1 er1 + ...... + rsr ersr ) = ~0

entonces ri=1 vi = ~0 = v1 = ... = vr = ~0


P

v1 = 0 = 11 = ...... = 1s1 = 0

vr = 0 = r1 = ...... = rsr = 0
por lo que la matriz resultante es de la forma:

1
..
.


1

M (f, BV ) =
..
.


r

..
.
r
como queramos hacer ver.

4.2 Polinomio mnimo.


Queremos descomponer V (dim V = n) en suma directa de subespacios, de tal forma
que podemos obtener bases de cada uno de ellos y poder as expresar el endomorfismo.
Consideramos las potencias de f : f r / r = 0, 1, ..., n, ... donde

f 0 = I, f 1 = f, ....., f r = f f r1

a0 f 0 + a1 f 1 + ..... + ar f r = 0
las potencias de f r no pueden ser todas LI. Definimos,
f : K [x] End(V )
p(x) 7 p(f ) = a0 I + a1 f + ..... + ar f r
tal que 
ker f := {p(x) K [x] / p(f ) = 0} := mf (x)
48 Clasificacion de Endomorfismos. Matrices de Jordan


Definicion 4.2.1 El conjunto de polinomios p(x) ker f se denominan anu-
ladores de f , N (f ), y a mf (x) polinomio mnimo de f. Verificandose mf (x) N (f ).

Fijamos un vector ~u V y consideramos


~u : K [x] (V )
p(x) 7 p(f )(~u)
tal que n o
ker (~u ) := p(x) K [x] / p(f )(~u) = ~0 := m~u (x)

Definicion 4.2.2 m~u (x) es el polinomio mnimo de f en ~u.

Proposicion 4.2.1 Sea m~u (x) s el polinomio mnimo de u


s1
= a0 + a1x + ..... + as x s1
(u), f t (u) son LD.

entonces u, f (u), ....., f (u) son LI y u, f (u), ....., f

4.3 Subespacios invariantes.


Sea f End(V ). Un subespacio F V se llama invariante por f si f (F ) F. Sea

f 0 := f|F : F F
v 7 f (v)

Proposicion 4.3.1 mf 0 divide a mf .

Corolario 4.3.1 Sean F, G V dos subespacios, tal que (mF , mG ) = 1, entonces


F G = .

Proposicion 4.3.2 Para todo p(x) K [x], ker p(f ), Im p(f ) son subespacios in-
variantes por f.

Supongamos que mf (x) se descompone en producto de factores primos entre


si, i.e.
mf (x) = p(x)q(x)
consideramos los subespacios invariantes ker p(f ), ker q(f ) entonces p(x) y q(x) son
anuladores de f restringidos a estos espacios, entonces
n o
ker p(f ) ker q(f ) = ~0

observandose que 
ker p(f ) Im q(f )
=
ker q(f ) Im p(f )

n = dim ker p(f ) + dim Im p(f ) dim ker p(f ) + dim ker q(f )
= dim (ker p(f ) ker q(f )) n

V = ker p(f ) ker q(f )

Teorema 4.3.1 Primer teorema de descomposicion. Si mf (x) = m1 (x)n1 ......mr (x)nr


tal que (mi (x), mj (x)) = 1 i, j entonces V = V1 .... Vr de tal forma que el poli-
nomio minimo de la restriccion de f a Vi es mi (x)ni . Esta descomposicion es unica.
Vi = ker (mi (f )ni ) .
Subespacios invariantes. 49
n o
Demostracion. Por induccion: Si mf (x) = m1 (x)n1 entonces V = V1 ~0
tal que V1 = ker (m1 (f )n1 ) . Supongo ahora que mf (x) = m1 (x)n1 ......mr1 (x)nr1
entonces V = V1 .... Vr1 tal que mfi (x) = mi (x)ni donde Vi = ker (mi (f )ni ) .
Para el caso r entonces tenemos que:

mf (x) = [m1 (x)n1 ......mr1 (x)nr1 ]mr (x)nr


| {z }
p(x)

de tal forma que (p(x), mr (x)nr ) = 1, entonces V = L Vr tal que L = ker [p(f )]
y Vr = ker (mr (f )nr ) donde f 0 = f|L mf 0 (x) = p(x), y fr = f|Vr mfr (x) =
mr (x)nr . El subespacio L esta formado por L n= oV1 .... Vr1 ya que mL (x) =
m1 (x)n1 ......mr1 (x)nr1 donde i, j Vi Vj = ~0 , con Vi = ker (mi (f )ni ) de esta
forma V = V1 .... Vr .
La descomposicion de V en suma directa de subespacios invariantes, reduce
el estudio del comportamiento de f al estudio de sus restricciones a cada uno de estos
subespacios.

Ejemplo 4.3.1 Sea A dada por


3 4
 
A= 5 5
4
5 35

tal que A = M(f, B) etc.... Vemos que:

A0 = I, A1 = A, A2 = I

entonces (X 2 1) es su polinomio anulador.

mf (x) = x 1 mf (f ) = f I = 0 = f = I

mf (x) = x + 1 mf (f ) = f + I = 0 = f = I
ninguno de estos casos es el nuestro, entonces

mf (x) = (x 1)(x + 1)

y por lo tanto V = V1 V2 donde


V1 = ker(f 1 I) = (2, 1) f|V1 = IV1

V2 = ker(f 2 I) = (1, 2) f|V2 = IV2

Teorema 4.3.2 De diagonalizacion. Un endomorfismo es diagonalizable sii su poli-


nomio minimo se descompone en factores lineales no repetidos.
Demostracion. f diagonalizable, entonces existe una base B de V tal que
la matriz de f respecto de dicha base es diagonal i.e.

1
M (f, B) =
..
.
r
50 Clasificacion de Endomorfismos. Matrices de Jordan

donde (f ) = {1 , ....., r }, BV = {vi } formada de vectores propios. El espacio V se


descompone en suma directa de subespacios i.e. V = V1 ..... Vr tal que V1 =
ker [f 1 I] con lo que mf (x) = (x 1 ) y asi sucesivamente i.e. Vr = ker [f r I]
con lo que mf (x) = (x r ) de tal forma que el polinomio minimo sera

r
Y
mf (x) = (x i )
i=1

Si mf (x) = ri=1 (xi ) entonces el espacio V se descompone en suma directa


Q
de subespacios propios i.e. V = V1 ..... Vr tal que Vr = ker [f r I] pero esto
implica que existe una base de V formada por vectores propios de cada una de estos
autovalores de tal forma que la expresion matricial del endomorfismo respecto de esta
base es diagonal.

4.4 Grado del polinomio mnimo.


Proposicion 4.4.1 grad(mf (x)) n

Observacion 4.4.1 Los ceros del polinomio caracteristico pf (x) son tambien ceros
del polinomio mf (x).

Proposicion 4.4.2 a es un cero de mf (x) sii lo es de pf (x).

Teorema 4.4.1 Si el polinomio minimo y el caracteristico se descomponen en fac-


tores lineales, entonces el polinomio caracteristico es un anulador de f i.e. pf (f ) = 0.

Teorema 4.4.2 Cayle-Hamilton. El polinomio minimo divide siempre al carac-


teristico.

Demostracion. Sea V tal que dim V = n y M(f, B) = A ; B(x) = (A xI)


y sea B 0 (x) = adj [B(x)] cada termino de esta matriz va a ser un polinomio de grado
como mucho n1. Entonces B 0 (x) = B0 +B1 x+.....+Bn1 xn1 donde B(x)B 0 (x) =
det [B(x)]I. donde det [B(x)] = pf (x) y por lo tanto B(x)B 0 (x) = pf (x)I. Supongo
que pf (x) = a0 + .... + (1)n xn ,

B(x) B 0 (x) = (A xI) B0 + B1 x + ..... + Bn1 xn1 = pf (x) I




(a0 + .... + (1)n xn ) I = a0 I + .... + (1)n xn I


(A xI) B0 + B1 x + ..... + Bn1 xn1 = AB0 + (AB1 B0 I) x + ............. + (Bn1 I)xn =


= (a0 I) + .... + ((1)n I) xn

identificando termino a termino se observa que:

I AB0 = a0 I
A AB1 B0 = a1 I

An1 ABn1 Bn2 = an1 I
An Bn1 = (1)n I
Grado del polinomio mnimo. 51

multiplicando cada fila por lo se indica a la izquierda entonces

AB0 = a0 I
A2 B1 AB0 = a1 A

n
A Bn1 A n1 Bn2 = an1 A n1

An Bn1 = (1)n An

sumamos entonces
0 = a0 I + .... + ((1)n An )
de esta forma demostramos que M(pf (f ), BV ) = 0 Mnn y A = M(f, BV ) de esta
forma pf (f ) = 0(x) [End(V )] = pf (x) N (f ) y ademas (mf (x)/pf (x)) como
queriamos hacer ver.

Observacion 4.4.2 Este teorema proporciona un metodo practico para calcular el


polinomio minimo de un endomorfismo f. Sea A = M(f, B), el polinomio carac-
teristico pA (x) lo descomponemos en factores irreducibles y buscamos el menor de
sus divisores q(x)tal que q(f ) = 0, entonces q(f ) = mf (x).

Sea mf (x) el polinomio monico de grado mas pequeno entre los del conjunto
ker(~u ). Se tiene que
q(x) ker(~u ) mf (x) | q(x)

Teorema 4.4.3 Sea pf el polinomio caracteristico del endomorfismo f . El polinomio


minimo es:
pf (x)
mf = ,
q(x)
donde q(x) es el maximo comun divisor de los menores de orden (n 1) de la matriz
A xIn .

Ejemplo 4.4.1 Consideremos el endomorfismo

f : R4 R4

tal que su expresion matricial es la siguiente:



1 0 0 0
0 1 0 0
M (f, B) = 0 0

1 1
0 0 1 1

cuyo polinomio caracterstico es:

p(x) = (X 1)2 X 2 2X + 2


mientras que el polinomio minimo es:

m(x) = (X 1) X 2 2X + 2

52 Clasificacion de Endomorfismos. Matrices de Jordan

ya que los determinantes de los menores de orden 3 de la matriz A xI4 son:

q1 (x) = (1 x)3
q2 (x) = (1 x)2
q3 (x) = (1 x)2
q4 (x) = (1 x) 2 2x + x2


por ejemplo veamos como hemos calculado q4 (x) :



1 0 0 1 0 0 1x 0 0
0 1 1 x 0
1 0 = 0 1x 1
0 1 1 0 0 1 0 1 1 x

1x 0 0
1 = (1 x) 2 2x + x2 = q4 (x)

0
1 x
0 1 1x

por lo tanto
q(x) = m.c.d (qi (x))4i=1 = (1 x)
de tal forma que el polinomio minimo es:

pf (x)
= (X 1) X 2 2X + 2 ,

mf =
q(x)

como queramos hacer ver.

4.5 Matriz canonica de un endomorfismo. (Jordan).


Vamos a descomponer cada subespacio Vi en suma de subespacios invariantes sobre
los cuales la actuacion de f es muy clara. Los subespacios f ciclicos. Un subespacio
F V es f ciclico si existe un vector u V / F = {u, f (u), ...., } F es invariante
por f (dim F = gradmf (x)) . si este polinomio es:

a0 + a1 x + ..... + as1 xs1 + xs

entonces
u, f (u), ...., f s1 (u)


es base de F y en esta base la matriz de la restriccion de f es:



0 ao
1 0
a2
. . .
.

0 1
. .

..
. 1 as1

Teorema 4.5.1 Segundo teorema de descomposicion. Sea f End(V ). Entonces


podemos descomponer V en suma directa de subespacios f ciclicos.
Matriz canonica de un endomorfismo. (Jordan). 53

Supomgamos que mf (x) se descompone en factores lineales y V = V1 ....Vr .


Si tomo Vi un vector ui con polinomio minimo (x ai )si entonces

(ui , (f ai I) ui , ....., (f ai I)si1 ui )

son LI con dim Vi = si , estos vectores forman base. La matriz de f restringida a Vi


en esta base es:
ai 0 0

1 ..
ai .

.. ..
J(ai , si ) = .

1 .
..


0 . 0
0 1 ai

Teorema 4.5.2 Si el polinomio minimo de f se descompone en factores lineales,


entonces existe una base de V en la que la matriz de f es de la forma:

J(a0 ,s0 )
.. ..

. .

.
.

J =
. J(ai ,si )

.. ..


. .

J(ar ,sr )

que es la matriz canonica de Jordan.

Los elementos de la diagonal son precisamente los autovalores. Para obtener


una base de V en la cual la matriz de f sea la matriz canonica de Jordan procedemos
de la siguiente manera: Sea

p(x) = (x 1 )1 .....(x r )r
P
el polinomio caracteristico de f , tal que i = dim V y sea

m(x) = (x 1 )s1 .....(x r )sr

el polinomio minimo de f tal que si i i. Los si estan caracterizos de la siguiente


manera:
n o
~0 ker (f i I) ker (f i I)2 ...... ker (f i I)i

tal que
ker (f i I)si = ker (f i I)t = Vi
X
V = Vi
54 Clasificacion de Endomorfismos. Matrices de Jordan

4.6 Ejemplos.
Empezamos con un esquema.

1. Calculo de los autovalores () i.e.

det (A I) = 0

fundamental, tener encuanta


P la multiplicidad de cada uno de los autovalores
(i ) de tal forma que (i ) = n = dim V.
2. Para cada autovalor i () vamos a conocer las cajas de Jordan a que da
lugar
rang (A i I) = rang (J i I) = ki
i.e.
ki n + (i ) = no de 1 en la caja de i

Si esto no funciona entonces deberemos calcular los numeros de Segre, i.e.,


para cada i () con multiplicidad (i ) = pi calculamos las dimensiones de los
espacios

ker (A i I) = 0 S1 = I1
2
ker (A I) = 0 S2 = I2 I1
.. ..
. .
ker (A I)pi = 0 Sp = Ip Ip1

donde Ii = dim V rang (A I)i = dim ker (A I)i de tal forma que

q1 + q2 + ....... + qp = S1
q2 + ....... + qp = S2
..
.
q p = Sp

donde qi indica el numero de cajas de orden i.

Ejemplo 4.6.1 Calcular la forma de Jordan de la matriz



1 2 3 0 0
0 1 2 0 0

A= 0 0 1 2 0
0 0 0 2 1
0 0 0 0 1

Solucion. Siguiendo el esquema anteriormente expuesto tenemos que

p() = ( 1)4 ( 2)
P
y que por lo tanto () = (1, 2) donde (1) = 4 y (2) = 1 (vemos que (i ) =
a
4+1 = dim V = 5) tambien podemos comprobar (th Caley-Hamilton) que el polinmio
minimo coincide con el caracteristico i.e.

mf (X) = (X 1)4 (X 2)
Ejemplos. 55

por lo que la matriz no es diagonalizable y debemos aplicar sin remedio el metodo de


Jordan.
Calculamos por lo tanto las dimensiones de los subespacios (A I)i

1. rang (A I) = 4 como se ve facilmete, por lo tanto dim ker(A I) = 1



0 2 3 0 0 x
0 2y + 3z = 0
0 2 0 0 y


0 2z = 0
0 0 2 0 z = 0 =


0 2t = 0
0 0 1 1 t
t+f =0
0 0 0 0 0 f
Bker(AI) = (1, 0, 0, 0, 0)

2. rang (A I)2 = 3 como se ve facilmete, dim ker(A I)2 = 2



0 0 4 6 0 x
0 4z + 6t = 0
0 0 4 0 y


0 4t = 0
0 0 2 2 z = 0 = 2t + 2f = 0

0 0 0 1 1 t
t+f =0
0 0 0 0 0 f
Bker(AI)2 = {(1, 0, 0, 0, 0) , (0, 1, 0, 0, 0)} = {e1 , e2 }

3. rang (A I)3 = 2 como se ve facilmete entonces dim ker(A I)3 = 3



0 0 0 14 6 x
0 0 0 4 14t + 6f = 0
4 y


0 0 0 2 4t + 4f = 0
2 z = 0 = 2t + 2f = 0

0 0 0 1 1 t
t+f =0
0 0 0 0 0 f
Bker(AI)3 = {e1 , e2 , e3 }
con e3 = (0, 0, 1, 0, 0)
4. rang (A I)4 = 1 como se ve facilmete y por lo tanto dim ker(A I)4 = 4

0 0 0 14 14 x
0 0 14t + 14f = 0
0 4 4 y


0 0 4t + 4f = 0
0 2 2 z = 0 =


0 0 2t + 2f = 0
0 1 1 t
t+f =0
0 0 0 0 0 f
Bker(AI)4 = {e1 , e2 , e3 , (0, 0, 01, 1)}

5. rang(A 2I) = 4 y por lo tanto dim ker(A 2I) = 1



1 2 3 0 0 x x + 2y + 3z = 0
0 1 2 0 0 y y + 2z = 0

0
0 1 2 0 z = 0 =
z + 2t = 0
0 0 0 0 1 t f =0
0 0 0 0 1 f f = 0
Bker(A2I) = {(14, 4, 2, 1, 0)}
56 Clasificacion de Endomorfismos. Matrices de Jordan

De esta forma los numeros de Segre son:


q1 + q2 + q3 + q4 = 1 I1 = 1 = S1
q2 + q3 + q4 = 1 I2 = 2 = S2 = I2 I1 = 1
q3 + q4 = 1 I3 = 3 = S3 = 1
q4 = 1 I4 = 4 = S4 = 1
i.e. q4 = 1 esto quiere decir que solo habra una unica caja pero de orden 4. Por lo
tanto la matriz de Jordan de A sera:

1 0 0 0 0
1 1 0 0 0

JA = 0 1 1 0 0

0 0 1 1 0
0 0 0 0 2
Pasamos ahora a calcular la base. Tomamos un vector u4 E4 E3 donde E4 =
ker(A I)4 etc... y el resto de los vectores los voy tomando de
u4 E4 E3 = (0, 0, 0, 1, 1)
u3 = (A I)a4 = (0, 0, 2, 0, 0)
u2 = (A I)a3 = (A I)2 a4 = (6, 4, 0, 0, 0)
u1 = (A I)a2 = (A I)3 a4 = (8, 0, 0, 0, 0)
de tal forma que los vectores {u1 , u2 , u3 , u4 } formen base. Se comprueba que A =
CJC 1 o J = C 1 AC

1 2 3 0 0 14 8 6 0 0 2 0 0 0 0 0 0 0 1 1
0 1 2 0 0 4 0 4 0 0 0 1 1 0 0 1 3 0 1 1
8 16
1

0 0 1 2 0 = 2
0 0 2 0
0 0 1 1 0 0
4 0 1 1

1
2 1 1
0 0 0 2 1 1 0 0 0 1 0 0 0 1 1 0 0
0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1

Ejemplo 4.6.2 Calcular la forma de Jordan de la matriz



1 0 2 6
0 1 1 3
A= 0 0

1 3
0 0 0 2
Solucion. Siguiendo el esquema expuesto al principio de la seccion
vemos que el polinomio caracterstico es:
p () = ( 1)3 ( 2)
mientras que el polinomio minimo es:
mf (X) = (X 1)2 (X 2)
el conjunto de autovalores esta formado por: () = (1, 2) de tal forma que (1) = 3
mientras que (2) = 1.
Pasamos a calcular los subespacios invariantes.
Ejemplos. 57

1. rang (A I) = 2 entonces dim ker (A I) = 2

2. rang (A I)2 = 1 entonces dim ker (A I) = 3 = (1)

Por lo tanto los numeros de Segre en este caso son:

q1 + q2 = 2 I1 = 2 = S1
q2 = 1 I2 = 3 = S2 = I2 I1 = 1

por lo tanto habra dos cajas, una de oreden 2 y la otra de orden 1 i.e.

1 1 0 0
0 1 0 0
JA =
0

0 1 0
0 0 0 2

La base estara formada por los siguientes vectores:

u1 ker (A I) = (1, 0, 0, 0)
u2 ker (A I)2 = (0, 0, 1, 0)
u3 = (A I) u2 = (2, 1, 0, 0)
u4 ker (A 2I) = (0, 0, 3, 1)

de tal forma que A = CJC 1


1
1 0 2 6 0 2 0 1 2 0 0 0 0 2 0 1
0
1 1 3 0 1 0 0
=
0
1 1 0

0 1 0 0

0 0 1 3 3 0 1 0 0 0 1 0 3 0 1 0
0 0 0 2 1 0 0 0 0 0 0 1 1 0 0 0

Ejemplo 4.6.3 Calcular la forma de Jordan de la matriz



0 3 1
A = 2 1 1
2 1 1

Solucion.
En primer lugar calculamos el polinomio caracterstico, siendo este:

p () = ( 2) ( + 2)2

mientras que el polinomio minimo es:

mf (X) = (X 2) (X + 2)2

el conjunto de autovalores esta formado por: () = (2, 2) con (2) = 2 y


(2) = 1. Pasamos a calcular los subespacios invariantes.
58 Clasificacion de Endomorfismos. Matrices de Jordan

1. rang (A 2I) = 2 por lo tanto dim ker (A 2I) = 1 = (2). Las ecuaciones del
ker (A 2I) son

2 3 1 x 2x + 3y + z = 0
2 3 1 y = 0 = 2x 3y z = 0
2 1 3 z 2x y 3z = 0

Bker(A2I) = {1, 1, 1}

2. rang (A + 2I) = 2, entonces dim ker (A + 2I) = 1 6= (2) Las ecuaciones del
ker son:

2 3 1 x 2x + 3y + z = 0
2 1 1 y = 0 = 2x + y z = 0
2 1 1 z 2x y + z = 0

Bker(A+2I) = {1, 1, 1}

3. rang (A + 2I)2 = 1, entonces dim ker (A + 2I)2 = 2 = (2)



8 8 0 x 8x + 8y = 0
8 8 0 y = 0 = 8x + 8y = 0
8 8 0 z 8x 8y = 0

Bker(A+2I)2 = {(1, 1, 0) , (0, 0, 1)}

4. Los numeros de Segre nos dicen:

q1 + q2 = 1
q2 = 1

por lo tanto la matriz de Jordan sera de la forma:



2 0 0
JA = 0 2 1
0 0 2
los vectores de la base son:

v1 ker (A 2I) = (1, 1, 1)


v2 = ker (A + 2I) v3 = (1, 1, 1)
v3 ker (A + 2I)2 = (0, 0, 1)
1 1

0 3 1 1 1 0 2 0 0 2 2 0
2 1 1 = 1 1 0 0 2 1 12 12 0
2 1 1 1 1 1 0 0 2 0 1 1

Ejemplo 4.6.4 Calcular la forma de Jordan de la matriz



2 1 1
A = 1 1 0
0 1 3
Ejemplos. 59

Solucion.
El polinomio caracterstico es:

p () = ( + 2)3 = mf (X)

por lo tanto
() = {2} / () = 3
los subespacios invariantes de este autovalor son:

1. rang(A + 2I) = 2 por lo tanto dim ker(A + 2I) = 1



0 1 1 x
1 yz =0
1 0 y = 0 =
x + y = 0
0 1 1 z

Bker(A+2I) = {(1, 1, 1)}

2. rang(A + 2I)2 = 1 entonces dim ker(A + 2I)2 = 2



1 0 1 x
1 0 1 y = 0 = x + z = 0
1 0 1 z

Bker(A+2I)2 = {(1, 0, 1) , (0, 1, 0)}

3. rang(A + 2I)3 = 0 entonces dim ker(A + 2I)3 = 3

Bker(A+2I)3 = {(1, 0, 0) , (0, 1, 0) , (0, 0, 1)}

Los numeros de Segre nos dicen:

q1 + q2 + q3 = 1
q2 + q3 = 1
q3 = 1

i.e
2 1 0
JA = 0 2 1
0 0 2
y que la matriz de paso esta formada por los siguientes vectores:

v3 E3 = (1, 0, 0)
v2 = (A + 2I)v3 = (0, 1, 0)
v1 = (A + 2I)v2 = (1, 1, 1)

2 1 1 1 0 1 2 1 0 0 0 1
1 1 0 = 1 1 0 0 2 1 0 1 1
0 1 3 1 0 0 0 0 2 1 0 1
60 Clasificacion de Endomorfismos. Matrices de Jordan

Ejemplo 4.6.5 Calcular la forma de Jordan de la matriz



0 1 1 0
0 1 0 1
A= 1

1 0 0
0 2 0 1

Solucion.
El polinomio caracterstico coincide con el polinomio mnimo

p () = 4 + 22 + 1 = mf ()

los autovalores son:

() = {i, i} / (i) = 2, (i) = 2

Calculamos los subespacios.

1. rang(A iI) = 3 por lo tanto dim ker(A iI) = 1



i 1 1 0 z1 iz1 + z2 z3 =0
0 1 i 0 1 z2 z 2 iz2 + z4 =0
= 0 =
1 1 i 0 z3 z1 + z2 iz3 =0
0 2 0 1i z4 2z2 + z4 iz4 =0

las ecuaciones del ker = {z1 = iz3 , z3 = z3 , z2 = 0, z4 = 0}

Bker(AiI) = {(1, 0, i, 0)}

2. rang(A iI)2 = 2 por lo tanto dim ker(A iI)2 = 2



2 2 2i 2i 1 z1 2z1 2z2 2iz2 + 2iz3 + z4 =0
0 2 + 2i 0 2i z2
2z2 + 2iz2 2iz4 =0

2i = 0 =
2i 2 1 z3 2iz1 2iz2 2z3 + z4 =0
0 4i 0 2 2i z4 4iz2 2z4 2iz4 =0

las ecuaciones del ker = z4 = iz2 + z2 , z3 = iz1 12 iz2 + 12 z2 , z1 = z1 , z2 = z2




Bker(AiI)2 = {(1, 1 + i, 0, 2) , (0, 1 + i, 1, 2i)}


otra base es:
Bker(AiI)2 = {(i, 0, 1, 0) , (0, 1 + i, 1, 2i)}

3. rang(A + iI) = 3 por lo tanto dim ker(A + iI) = 1



i 1 1 0 z1 iz1 + z2 z3 =0
0 1 + i 0 1 z2 z 2 + iz2 + z4 =0
= 0 =
1 1 i 0 z3 z1 + z2 + iz3 =0
0 2 0 1+i z4 2z2 + z4 + iz4 =0

las ecuaciones del ker = {z3 = z3 , z2 = 0, z4 = 0, z1 = iz3 }

Bker(A+iI) = {(i, 0, 1, 0)}


Ejemplos. 61

4. rang(A + iI)2 = 2 por lo tanto dim ker(A + iI)2 = 2



2 2 + 2i 2i 1 z1 2z1 2z2 + 2iz2 2iz3 + z4 =0
0 2 2i 0 2i z2 2z2 2iz2 + 2iz4 =0
= 0 =
2i 2i 2 1 z3 2iz1 + 2iz2 2z3 + z4 =0
0 4i 0 2 + 2i z4 4iz2 2z4 + 2iz4 =0

las ecuaciones del ker = z1 = z1 , z2 = z2 , z3 = iz1 + 12 iz2 + 12 z2 , z4 = iz2 + z2




Bker(A+iI)2 = {(i, 0, 1, 0) , (1 + i, 2, 0, 2 2i)}

Por lo tanto la matriz de Jordan es:



i 1 0 0
0 i 0 0
JA =
0 0 i 1
0 0 0 i

donde la matriz de paso esta formada por los vectores:

v2 ker(A iI)2 = (0, 1 + i, 1, 2i)


v1 = (A iI)v2 = (i, 0, 1, 0)
v4 ker(A + iI)2 = (1 + i, 2, 0, 2 2i)
v3 = (A + iI)v4 = (1 i, 0, 1 + i, 0)

resulta entonces que:


0 1 1 0
0 1 0 1
=
1 1 0 0
0 2 0 1
12 i 12 1 1

i 0 1 i 1 + 1i i 1 0 0 2 4
1
0 1+i
0 2 0 i
0 0

0 2 0 14 1
4i


1
1 1 1+i 0 0 0 i 1

4 + 14 i 0 1
4 1
4i
1
8 +
1
8i

1
0 2i 0 2 2i 0 0 0 i 0 4 14 i 0 1
4i
si la matriz la resolvemos en R entonces:

(0, 1, 1, 0)
(0, 1 + i, 1, 2i) =
(0, 1, 0, 2)


(0, 0, 1, 0)
(i, 0, 1, 0) =
(1, 0, 0, 0)

de tal forma que,


1
0 1 0 0 0 1 1 0 0 1 0 0 0 1 1 0
0 0 1 1 0 1 0 1 0 0 1 1 1 0 0 1
=
1 0 1 0 1 1 0 0 1 0 1 0 0 0 0 1
0 0 0 2 0 2 0 1 0 0 0 2 0 0 1 0
62 Clasificacion de Endomorfismos. Matrices de Jordan

Si por ejemplo tomamos

(1 i, 0, 1 + i, 0) {(1, 0, 1, 0) , (1, 0, 1, 0)}

(1 + i, 2, 0, 2 2i) {(1, 2, 0, 2) , (1, 0, 0, 2)}


1
1 1 1 1 0 1 1 0 1 1 1 1 0 1 1 0
0 1 1 0 0 1
0 0 2 0 0 1
0 0 2 0

=
1 1 0 0 1 1 0 0 1 1 0 0 0 0 0 1
0 0 2 2 0 2 0 1 0 0 2 2 0 0 1 0

Ejemplo 4.6.6 Calcular la forma de Jordan de la matriz



2 0 3
A = 0 1 0
1 0 1

Solucion. Operando de forma rapida vemos que el polinomio carac-


terstico coincide con el mnimo siendo

p () = 3 + 1 = mf ()

el conjunto de autovales esta formado por:

1 1 1 1
 
() = 1, i 3, + i 3
2 2 2 2

calculamos los subespacios:

1. rang (A + I) = 2 por lo que la base del ker sera



3 0 3 x
0 0 x=z=0
0 y = 0 =
y=
1 0 0 z

Bker(A+I) = {(0, 1, 0)}

1
 
2. rang A 2 12 i 3 I = 2
3

+ 12 i 3

2 0 3 x
3 1
0 2 + 2i 3 0 y = 0 =
3 1
1 0 2 + 2i 3 z
3 1

2 x + 2 ix 3 3z = 0
1
2 3 + i 3y = 0 =
x 32 z + 12 iz 3 = 0

las ecuaciones del ker = z = z, y = 0, x = 32 z 12 iz 3


3 1
 
Bker(A( 1 1 i3)I ) = i 3, 0, 1
2 2 2 2
Ejemplos. 63

1
 
3. rang A + 12 i 3 I = 2
2
3 1
2 2i 3 0 3 x
0 32 12 i 3 0 y = 0 =
1 0 23 12 i 3 z
3 1

2 x 2 ix 3 3z = 0
1
2 3 i 3y = 0 =
x 32 z 12 iz 3 = 0

las ecuaciones del ker = z = z, y = 0, x = 32 z + 12 iz 3


3 1
 
Bker(A( 1 + 1 i3)I ) = + i 3, 0, 1
2 2 2 2

Por lo tanto la forma de Jordan de la matriz A sera:



1

0 0
JA = 0 12 + 12 i 3 0
1 1
0 0 2 2i 3

de tal forma que


2 0 3
A = 0 1 0 =
1 0 1
1

12 i 3 1
+ 12 i 3

1

0 2 2
0 0 0 1 0 
1 1 1
= 1 0 0 0 2 + 2i 3 0 1 0 2i 1 + i 3  3
0 13 i 3 1
3 i 3 0 0 1
2 1
2 i 3 1 0 1
2 i 1 + i 3 3
La forma de Jordan real de A es:
1
1 1

1

0 0
0 3/2 2 3 2 0 3 0 3/2 2 3
1 1 0 1
0
2 2 3 = 1 0 0 0 1 0 0
1 1 1
0 2 3 2
0 1 0 1 0 0 1 0

Ejemplo 4.6.7 Calcular la forma de Jordan de



7 10 8 14
7 9 8 16
A= 8 10 9 18

3 4 3 5

Solucion.
El polinomio caracterstico es

p(X) = X 4 + 2X 3 + 2X 2 + 2X + 1 = mf (X)

asi pues
(X) = {i, i, 1, 1}
calculamos los subespacios correspondientes viendo que:
64 Clasificacion de Endomorfismos. Matrices de Jordan

1. rang(A iI) = 3 por lo tanto



7 i 10 8 14 x 7x ix + 10y 8z + 14t = 0
7 8
9 i 16 = 0 7x + 9y iy 8z + 16t = 0
y

8 10 9 i 18 z 8x + 10y 9z iz + 18t = 0
3 4 3 5i t 3x + 4y 3z + 5t it = 0

las ecuaciones del ker = x = 2t it, y = 52 t 12 it, z = 3t, t = t




 
5 1
Bker(AiI) = 2 i, i, 3, 1
2 2

2. rang(A + iI) = 3 por lo tanto



7 + i 10 8 14 x 7x + ix + 10y 8z + 14t = 0
7 8
9 + i 16 = 0 7x + 9y + iy 8z + 16t = 0
y

8 10 9 + i 18 z 8x + 10y 9z + iz + 18t = 0
3 4 3 5+i t 3x + 4y 3z + 5t + it = 0

las ecuaciones del ker = x = 2t + it, y = 25 t + 12 it, z = 3t, t = t




 
5 1
Bker(AiI) = 2 + i, + i, 3, 1
2 2

3. rang(A + I) = 3entonces

6 10 8 14 x 6x + 10y 8z + 14t = 0
7 10 8 16
= 0 7x + 10y 8z + 16t = 0
y

8 10 8 18 z 8x + 10y 8z + 18t = 0
3 4 3 6 t 3x + 4y 3z + 6t = 0

las ecuaciones del ker = {y = 3t, t = t, z = 4t, x = 2t}

Bker(A+I) = {(2, 3, 4, 1)}

4. rang(A + I)2 = 2 por lo tanto



12 16 10 16 x 12x + 16y 10z + 16t = 0
12 14 8 14 y
12x + 14y 8z + 14t = 0

12 12 6
=0
12 z 12x + 12y 6z + 12t = 0
4 4 2 4 t 4x + 4y 2z + 4t = 0

las ecuaciones del ker = {t = 2x y, z = 2x, y = y, x = x}

Bker(A+I)2 = {(1, 2, 2, 0) , (0, 1, 0, 1)}

La forma de Jordan es:



i 0 0 0
0 i 0 0
JA =
0 0 1 1

0 0 0 1
Ejemplos. 65

mientras que la matriz de paso es:


 
5 1
v1 = 2 i, i, 3, 1 ker(A iI)
2 2
 
5 1
v2 = 2 + i, + i, 3, 1 ker(A + iI)
2 2
v4 = (1, 2, 2, 0) ker(A + I)2
v3 = (A + I)v4 = (3, 5, 6, 1)

alternativamente obtenemos:

1 32 12 i 1 + 12 i 32 12 i

1 + 3i 1 3i 2 3 i 0 0 0
2 + 3i 2 3i 3 4 3 1 1 3 1
0 i 0 0 1 2 + 2i 1 2i 2 + 2i


3 + 3i 3 3i 4 6 0 0 1 1 0 0 1 3
1 + i 1 i 1 2 0 0 0 1 1 2 1 0

mientras que la matriz real de Jordan es:


1
1 3 2 3 7 10 8 14 1 3 2 3 0 1 0 0
2 3 3 4 7 9 8 16 2 3 3 4 1 0 0 0
=
3 3 4 6 8 10 9 18 3 3 4 6 0 0 1 1
1 1 1 2 3 4 3 5 1 1 1 2 0 0 0 1

Ejemplo 4.6.8 Calcular la forma de Jordan de la matriz



6 6 4 4
4 2 0 4
A= 0 2 2

2
4 4 4 2

Solucion.
El polinomio caracterstico es:

P (X) = X 4 + 8X 2 + 16

asi que los autovalores son (X) = {2i, 2i, 2i, 2i} , de esta forma los subespacios
son:

1. rang(A 2iI) = 2

6 2i 6 4 4 x 6x 2ix + 6y + 4z + 4t = 0
4 2 2i 0 4 y 4x 2y 2iy 4t = 0
= 0 =
0 2 2 2i 2 z 2y 2z 2iz + 2t = 0
4 4 4 2 2i t 4x 4y 4z 2t 2it = 0

las ecuaciones del ker = x = 23 y 12 iy z iz, y = y, z = z, t = y + z + iz




  
3 1
Bker(A2iI) = i, 1, 0, 1 , (i, 1 i, 1, 0)
2 2
66 Clasificacion de Endomorfismos. Matrices de Jordan

2. rang(A + 2iI) = 2

6 + 2i 6 4 4 x 6x + 2ix + 6y + 4z + 4t = 0
4 2 + 2i 0 4 y 4x 2y + 2iy 4t = 0
= 0 =
0 2 2 + 2i 2 z 2y 2z + 2iz + 2t = 0
4 4 4 2 + 2i t 4x 4y 4z 2t + 2it = 0

las ecuaciones del ker = y = y, z = z, t = y + z iz, x = 32 y + 12 iy z + iz ,




  
3 1
Bker(A+2iI) = + i, 1, 0, 1 , (i, 1 + i, 1, 0)
2 2

Por lo tanto la forma de Jordan es:



2i 0 0 0
0 2i 0 0
JA =
0 0 2i 0
0 0 0 2i

donde la matriz de paso esta formada por los vectores:


1 5 1 5
2 2i i 2 + 2i i
i 0
1 1 1 1 1 1 1 1 i 0

2 + 2i 2 2i 2 2i
+ i
2 2
2i i 2i i

mientras que la forma real de Jordan es:


1
1/2 5/2 0 1 6 6 4 4 1/2 5/2 0 1
0
1 0 0 4 2
0 4 0
1 0 0 =
1/2 1/2 1/2 1/2 0 2 2 2 1/2 1/2 1/2 1/2
0 2 0 1 4 4 4 2 0 2 0 1

0 2 0 0
2 0 0 0
=
0

0 0 2
0 0 2 0
Captulo 5
FORMAS BILINEALES Y CUADRATICAS.

5.1 Formas bilineales.


Definicion 5.1.1 Aplicacion bilineal. Sea (V, K) definimos

b : V V K
u, v 7 b(u, v)

verificnado:

1. b(u + v, w) = b(u, w) + b(v, w), b(u, v) = b(u, v)

2. b(u, v + w) = b(u, v) + b(u, w), b(u, v) = b(u, v)

Observacion 5.1.1 Se dice que la aplicacion b es bilineal si K = R y sesquilineal si


K = C.

1. Simetrica si b(u, w) = b(w, u)

2. antisimetrica si b(u, w) = b(w, u)

3. alternada si b(u, u) = 0

Se observa que (2) (3) .

Denotamos por B (V ) el conjunto de todas las formas bilineales sobre V.


B (V ) tiene estructura de espacio vectorial definiendo las siguientes operaciones:

(f + g) (u, v) = f (u, v) + g (u, v)


(kf ) (u, v) = kf (u, v)

f, g B (V ) y k K

Teorema 5.1.1 Sea V un espacio vectorial definido sobre un cuerpo K y sea BV =


{1 , ..., n } una base del espacio dual de V , entonces BB = {fij ; i, j = 1, ..., n} tal
que
fij (u, v) = i (u)j (v)
entonces dim B (V ) = n2

Definicion 5.1.2 Expresion analitica de la forma bilineal, unicidad respecto de una


base. Sea BV = {v1 , ...., vn } base de V y BW = {w1 , ...., wr } base de W , y sea
b : V W K una forma bilineal.

A = M(b, B) = aij = b(vi , wj )


68 Formas Bilineales y Cuadraticas.

determinan la forma bilineal b y

b(x, y) = xAy t

donde x V e y W.

Cambio de base.
C D
Sean BV BV0 bases de V tal que la matriz de paso es C y sean BW BW
0

bases de W tal que la matriz de paso es D, i.e.

(x1 , ....., xn ) = x01 , ....., x0n C




(y1 , ....., yn ) = (y1 , ....., yn ) D

entonces
y10

y1
.. t ..
. =D .
yn yn0
como
y10

b(x, y) = x A y t = x01 , ....., x0n C A Dt ... = x0 B y 0t


  

yn0

donde B = CADt .

Observacion 5.1.2 Sea


b : V V K
u, v 7 b(u, v)
C
y sea BV BV0 entonces
B=CACt
tal que det C 6= 0 entonces decimos que A y B son congruentes.

Corolario 5.1.1 Si A = M(b, B) y A0 = M(b, B 0 ) entonces A = P t A0 P .

Definicion 5.1.3 Matrices congruentes. Dos matrices A = M(b, B) y A0 = M(b, B 0 )


son congruentes si P M tal que A = P t A0 P donde la matriz P es no singular
i.e det (P ) 6= 0 y propiedades.

Teorema 5.1.2 Dos matrices son congruentes sii ! b y dos bases de V, B y B 0 tal
que A = P t A0 P.

Proposicion 5.1.1 Dos matrices congruentes tienen el miso rango.

Definicion 5.1.4 Rango de una aplicacion bilineal es el rango de su matriz. Se


clasifican en:

1. b es degenerada si rang (b) < dim V.

2. b es no degenerada o regular si rang (b) = dim V


Formas bilineales. 69

Veamos mas a fondo estas definiciones: Sea


b : V V K
u, v 7 b(u, v)
y sean
d : V W y s : W V
de tal forma que

a V, [d(a)] (y) = b(a, y) y W


b W, [s(b)] (x) = b(x, b) x V

sean ahora las bases BV = {v1 , ..., vn } BW = {w1 , ...., wr } y BV = {f1 , ..., fn } BW
=

{g1 , ...., gr }. Sea A = (aij )nr / aij = b(vi , wj ) entonces M(d) = A y M(s) = At .
Tenemos entonces las siguientes definiciones:

1. Decimos que b es degenerada por la derecha si a V, a 6= 0 / y W =


b(a, y) = 0.

2. Decimos que b es degenerada por la izquierda si b W, b 6= 0 / x V =


b(x, b) = 0.

3. Decimos que b es ordianria si no es degenerada ni por la derecha ni por la


izquierda.

Proposicion 5.1.2 Decimos que:

1. b es degenerada por la derecha d es un monomorfismo.

2. b es degenerada por la izquierda s es un monomorfismo.

3. si V = W , b es ordianria s y d son isomorfismos.

Corolario 5.1.2 Decimos que:

1. b es degenerada por la derecha rang(A) = dim(V ) = n.

2. b es degenerada por la izquierda rang(A) = dim(W ) = r.

3. si V = W , b es ordianria det A 6= 0.

Definicion 5.1.5 Sea (V, R) y b es simetrica si b(u, v) = b(v, u). Sea (V, C) y b
hermitica i.e. b(u, v) = b(v, u).

Observacion 5.1.3 Tabla resumen:

R C
bilineal sesquilineal
simetrica hermitica

Lema 5.1.1 b es simetrica sii existe una base tal que la matriz de b respecto de dicha
base es simetrica i.e. b es simetrica si B / A = M(b, B) de tal forma que A = At .
Una forma sesquilineal es hermitica sii A = At .
70 Formas Bilineales y Cuadraticas.

Definicion 5.1.6 Sea (V, K), dim V = n y sea

b : V V K
u, v 7 b(u, v)

entonces uv b(u, v) = 0.

Definicion 5.1.7 Sea J V entonces

J = {w V / v J; b(w, v) = 0 }

Observacion 5.1.4 J 6= y que J V. Si W, U V se dice que W U si


W U .

Definicion 5.1.8 Subespacio


n o isotropico. Decimos que L V es un subespacio
~
isotropico si L L 6= 0 .

Definicion 5.1.9 Vector isotropico. Decimos que v V es isotropico si b(v, n


v) o
=0

i.e. es ortogonal de si mismo. Si v L V es isotropico entonces L L 6= 0 .~

Observacion 5.1.5 V = W W sii W es no isotropico.

Observacion 5.1.6 Sea b forma bilineal simetrica definida y B = {v1 , ....., vn } una
base ortogonal respecto a b i.e. vi vj b(vi , vj ) = 0 i 6= j. Entonces la expresion
matricial de la forma b respecto de dicha base es diagonal.

b(v1 , v1 ) 0 0
..
0 .
.

M(b, B) = ..
b(v ,
i iv )

0 0
0 0 b(vn , vn )

Proposicion 5.1.3 Si b es una forma bilineal simetrica definida, entonces existe una
base ortogonal del espacio V.

Definicion 5.1.10 Decimos que la forma b es definida si:

1. definida positiva si b(vi , vi ) > 0

2. definida negativa si b(vi , vi ) < 0.

Proposicion 5.1.4 Sea b : V V K una forma bilineal definida. Si B =


{v1 , ....., vn } es una base ortogonal entonces B 0 = {e1 , ....., en } es una base ortonormal
/
vi
ei = p
|b(vi , vi )|

Observacion 5.1.7 Si b definida positiva entonces existe una baseB tal que M(b, B) =
I. Si b definida negativa entonces existe una base B tal que M(b, B) = I
Formas bilineales. 71

5.1.1 Diagonalizacion de formas bilineales.


Proposicion 5.1.5 Sea b una forma bilineal definida ordinaria (o regular i.e. V =
L L ) entonces existe una base BV /

1
..
.

1
M(b, B) =

1

..
.
1

i.e. es una matriz diagonal con todos los terminos de la diagonal {1} .

Demostracion. La demostracion es un poco pesadita y esta dividida en


cuatro fases. Primero comprobar que la aplicacion b es ordinaria, segundo que el
espacio se descompone en suma directa de subespacios no isotropos, tercera que
existe la base que hace la matriz diagonal y por ultimo que ponemos normalizarla.

1. La aplicacion b es ordinaria, entonces b(x, x) 6= 0. Supongamos lo contrario


x V b(x, x) = 0, tomo un x 6= 0 fijo y y V

b((x + y), (x + y)) = b(x, x) + b(y, y) + 2b(x, y) = 0


= 2b(x, y) = 0 !

entonces la forma b es ordinaria.

2. Si x V , la forma b es ordinaria i.e. b(x, x)


n o 6= 0 entonces L = L(x) es
~
no isotropo, i.e. V = L L . Si L L 6= 0 entonces exsite un vector
z L L tal que z L y z L . Sea z = x entonces b(z, z) = 0 / z L ,
b(z, z) = 2 b(x, x) = 0 = 0 ya quenaloser b ordinaria b(x, x) 6= 0 x V,
entonces z = 0 y por lo tanto L L = ~0 .

3. Existe la base BV . Por induccion sobre la dimension del espacio. Si dim V = 1


es inmediato que existe BV = {x} , entonces supongamos que en todo espacio
vectorial de dim V = n 1 y forma bilineal del mismo existe BV en las
condiciones dadas. Si dim V = n entonces x V / b(x, x) 6= 0 y por lo
tanto puedo descomponer el espacio V en suma de subespacio no isotropos i.e.
V = L L de tal forma que dim L = 1 y dim L = n 1. Veamos que la
forma b restringida al subespacio L es bilineal simetrica y definida de L .
Sea BL = {v2 , ....., vn } base de L (base ortogonal respecto de bL ) entonces
tambien lo es respecto de b. Si llamo a v1 = x entonces BV = {v1 , v2 , ....., vn }
base de V ortogonal respecto de b i.e. b(vi , vj ) = 0, i 6= j de tal forma que

b(v1 , v1 ) 0
M(b, B) =
.. ..
. b(vi , vi ) .
0 b(vn , vn )
72 Formas Bilineales y Cuadraticas.

4. Es inmediato que B 0 = {e1 , e2 , ....., en } tal que b(ei , ei ) = 1, tal que


vi
ei = p
|b(vi , vi )|

como queriamos hacer ver.

Ejemplo 5.1.1 Sea V = R3 y b tal que su expresion matricial es:



0 1 1
A = M(b, B) = 1 0 1
1 1 0

al ser el rango de la matriz 3 ya que el determinante de la matriz es distinto de


cero entonces la forma b es ordinaria por lo que existe x V / b(x, x) 6= 0 entonces
podemos descomponer el espacio V en suma directa de subespacios no isotropos i.e.
V = L L . Sea v1 = (1, 1, 0) entonces b(v1 , v1 ) = 2 6= 0 entonces L = L(v1 ). El
espacio L esta formado por el conjunto de vectores de x V tal que b(v1 , x) = 0
i.e.
L = {x V / b(v1 , x) = 0} con v1 L

0 1 1 x
(1, 1, 0) 1 0 1 y = 0
1 1 0 z

x = 2
x + y + 2z = 0 y=
z=

de tal forma que una base de L estara formada por los vectores BL = {(1, 1, 0) , (2, 0, 1)}
comprobamos que b(vi , vi ) 6= 0 y que b(vi , vj ) = 0 viendo que los vectores v2 y v3 no
son ortogonales con respecto a b, luego tenemos que buscar un vector v3 = (x, y, z)
que sea ortogonal a v2 = (1, 1, 0) y continue perteneciendo a L i.e debe verificar

x + y + 2z = 0
xy =0

esta ultima ecuacion la hemos obtenido al imponer que b(v2 , v3 ) = 0, i.e.



0 1 1 x
(1, 1, 0) 1 0 1
y = 0 = x y.
1 1 0 z

Al resolver las ecuaciones obtenemos que v3 = (1, 1, 1) comprobando que b(v3 , v3 ) 6=


0. Hemos obtenido una base B 0 = {(1, 1, 0), (1, 1, 0) , (1, 1, 1)} de V respecto de la
cual b tiene una expresion diagonal

2 0 0
M(b, B 0 ) = 0 2 0 Pt AP=D
0 0 2
Formas bilineales. 73

1 1 0 0 1 1 1 1 1 2 0 0
1 1 0 1 0 1 1 1 1 = 0 2 0
1 1 1 1 1 0 0 0 1 0 0 2
vi
Si normalizamos i.e. si ei = obtenemos una nueva base B 00 tal que
|b(vi ,vi )|

1 0 0
M(b, B 00 ) = 0 1 0
0 0 1

comprobamos que:
 
00 1 1 1
B = (1, 1, 0), (1, 1, 0) , (1, 1, 1)
2 2 2
ya que
b(v1 , v1 ) = 2, b(v2 , v2 ) = 2 = b(v3 , v3 )
como podemos comprobar facilmente:

1 1 0 0 1 1 1 1 1 1 0 0
1 1
1 1 0 1 0 1 1 1 1 = 0 1 0
2 1 1 1 1 1 0 2 0 0 1 0 0 1

por ultimo resaltamos que la matriz original A (de rango 3) es diagonlaizable y que
su matriz diagonal es:
1 1
0 1 1 3 3 1 1 0 0 1 2 1
1 0 1 = 1 1 0 0 2 0 1 1 1
3 3
2 1
1 1 0 3 3 1 0 0 1 1 1 0

donde el polinomio caracteristico es: p(X) = X 3 3X 2, el minimo p(X) = 2


X + X 2 , los autovectores son (X) = {2, 1, 1} y los subespacios caracteristicos:

V2 = {(1, 1, 1)} y V1 = {(1, 0, 1) , (1, 1, 0)}

Definicion 5.1.11 Radical o nucleo de b. Sea b : V V K una forma bilineal


simetrica definimos el nucleo de b como:

N = {v V / b(v, w) = 0, w V }

tambien se llama nucleo. Se n


define
o el radical por la derecha y por la izquierda. La
~
forma b es ordinaria sii N = 0 .

Proposicion 5.1.6 Sea B = {v1 , ....., vn } una base de V, entonces u rad(b) sii
b(u, vi ) = 0. Ademas:

1. rad(b) V

2. dim(rad(b)) = dim V rang(b)

3. b es no degenerada sii rad(b) = {0}


74 Formas Bilineales y Cuadraticas.

Definicion 5.1.12 Definimos la forma

b : V /N V /N K
(x + N, y + N ) 7 b(x + N, y + N ) = b(x, y)

Proposicion 5.1.7 La aplicacion b es bilineal simetrica y ordinaria en V /N .

Proposicion 5.1.8 Sea b una forma bilineal simetrica de V en K, entonces existe


una base ortogonal de b /

1
..

.

M(b, B) =
1

. .
.
0

Demostracion. Sea b : V /N V /N R ordinaria. Sabemos que existe


una base orotogonal de V /N

B 0 = {v1 + N, ....., vr + N } / b(vi + N, vi + N ) = 1

pero como b(vi +N, vi +N ) = b(vi , vi ) = 1 i = 1, ..., r. Sea BN = {vr+1 , ...., vn } una
base cualquiera del nucleo / b(vj , vk ) = 0. Tomo como base B = {v1 , ...., vr , vr+1 , ...., vn }
de tal forma que

b(vi , vi ) = 1 i = 1, ..., r
b(vj , vk ) = 0 j, k = r + 1, ..., n

entonces la matriz de b respecto de sta base es de la forma:



1
..
.




1


1

M(b, B) =
..
.


1


0

..
.
0

como queriamos hacer ver.

Ejemplo 5.1.2 Sea la matriz A asociada al forma bilinela b



1 1 2
A= 1 2 3
2 3 5
Formas bilineales. 75

queremos ver la forma diagonal que tiene respecto de la base B que debemos encontrar.
En primer lugar debemos calcular el nucleo de b i.e.

1 1 2 x x + y + 2z = 0
1 2 3 y = 0 x + 2y + 3z = 0
2 3 5 z 2x + 3y + 5x = 0

encontrando que unna base del nucleo esta generada por


BN = {, , }
podemos tomar como base por ejemplo BN = {1, 1, 1} . Tomamos ahora un v1 =
(1, 0, 0)
/ N y compruebo que efectivamente b(v1 , v1 ) 6= 0, i.e.

1 1 2 1
(1, 0, 0) 1 2 3
0 =1
2 3 5 0
y busco un v2 tal que v1 v2 y b(v2 , v2 ) 6= 0 (v2 tampoco puede pertener al nucleo
N ) i.e.
1 1 2 x
(1, 0, 0) 1
2 3 y = 0 x + y + 2z = 0
2 3 5 z
como v2 / N entonces el vector v2 puede ser de la forma v2 {(, , 0) , (2, 0, )}
si por ejempl otomamos v2 = (2, 0, 1) entonces la base formada por los vectores
B = {(1, 0, 0) , (2, 0, 1) , (1, 1, 1)} hace que la matriz de b respecto de ella sea de
la forma:
1
1
0
como se comprueba con facilidad.

Proposicion 5.1.9 Todas las matrices asociadas a una misma forma bilinela simetrica
tienen el mismo rango.
Teorema 5.1.3 Inercia o de Silvester. Es invariante el numero de {1, 1, 0} en la
matriz diagonal asociada a la forma b.
Demostracion. Sea b la forma tal que con respecto de la base
B = {v1 , ....., vp , vp+1 , ......., vr , vr+1 , ......., vn }
tiene una expresion metricial de la forma

m1
..
.




mp


mp+1

M(b, B) =
..
.


mr


0

..
.
0
76 Formas Bilineales y Cuadraticas.

y sea B 0 = w1 , ..., wp0 , wp0 +1 , ...., wr0 , wr0 +1 , ...., wn0





d1
..
.




dp0


dp0 +1

0
M(b, B ) =
..
.


dr0


0

..
.
0

tenemos que demostrar que p = p0 . Sabemos que el rango de bes r y que N =


L(vr+1 , ...., vn ) = L(wr0 +1 , ...., wn0 ).
Supongamos que p < p0 . Sea L = L (vp+1 , ...., vr , vr+1 , ...., vn ) y sea x L /
x = 0v1 + .... + 0vp + xp+1 vp+1 + .... + xr vr + 0vr+1 + .... + 0vn de tal forma que

b(x, x) = mp+1 x2p+1 .... mr xr 0

x L = x / N si x 6= 0 entonces b(x, x) < 0. Sea M = L (w1 , ......., wn0 ) y sea


y M tal que

y = y1 w1 + ... + yp0 wp0 + yp0 +1 wp0 +1 + ... + yn0 wn0

tal que
b(y, y) = y12 d1 + ... + yp20 dp0 0
con y
/ N si y 6= 0 entonces b(x, x) > 0. Atendiendo a ls formulas de Grassmann,
vemos que

dim(L + M ) = dim L + dim M dim(L M ) = (r p) + n r + p0 dim(L M ) =




= n + p0 p dim(L M ) n


entonces la dim(L M ) > 0, ya que (p0 p) 0 por hipotesis. Entonces existe un


z 6= 0 tal que z L M , con z L, z / N entonces b(z, z) < 0 y z M, z / N
entonces b(z, z) > 0 pero esto es imposible entonces p p0 .
Supoongamos ahora que p0 < p haciendo el mismo razonamiento que antes
llegariamos a la conclusion de que p p0 y por lo tanto concluimos que necesariamente
p = p0 como queriamos demostrar.

5.2 Formas cuadraticas.


Asociada a toda forma bilineal aparece su forma cuadratica definida de la siguiente
manera.

Definicion 5.2.1 Sea b : V V K una forma bilineal, definimos su forma


cuadratica como la aplicacion q tal que
q : V K
v 7 b(v, v)
y verificando:
Ejemplos. 77

1. 2b(v, w) = q(v + w) q(v) q(w) forma polar de b,


2. en el caso hermitico
4b(v, w) = q(v + w) q(v w) + i (q(v + iw) q(v iw))

3. q(v) = b(v, v)

Definicion 5.2.2 Forma polar. La forma bilineal simetrica bq determinada por q se


llama forma polar de q. rang(q) = rang(b) = rang(A).

Definicion 5.2.3 Definida etc...




def. positiva q(v) > 0
semidef. pos q(v) 0

q

def. negativ q(v) < 0
semidef. neg q(v) 0

Definicion 5.2.4 Decimos que es indefinida si q(v) > 0 y q(w) < 0.

Criterio 5.2.1 Criterio de Sylvester sobre la positividad de una forma bilineal.

1. Para que una forma cuadratica b(x, x) sea definida positiva es necesario y su-
ficiente que sean positivos todos los menores angulares de la matriz A =
M(b, B) i.e. los menores

a11 a12
1 = a11 > 0, 2 = > 0, ....., n = |A| > 0
a21 a22
deben ser positivos.
2. Para que una forma sea definida negativa es necesario y suficiente que se veri-
fique
a11 a12
1 = a11 < 0, 2 = > 0....., n = |A| 0
a21 a22
i.e. que se alternen los signos de los menores angulares de la matriz A siendo
de signo negativo el primero i.e. 1 = a11 .

5.3 Ejemplos.
Ejemplo 5.3.1 Diagonalizar la aplicacion bilineal dada por

2 5 0
A = 5 1 3
0 3 6
Solucion.
En primer lugar calculaomos el polinomio caracteristico viendo que es igual a
p(X) = X 3 + 5X 2 42X 144
y que por lo tanto los autovalores son:
(X) = {8, 6, 3}
pasando a calcular cada uno de los subespacios:
78 Formas Bilineales y Cuadraticas.

1. rang(A + 8I) = 2 entonces dim ker(A + 8I) = 1 como se ve en:



10 5 0 x 10x 5y = 0
5 7 3 y = 0 = 5x + 7y + 3z = 0
0 3 2 z 3y + 2z = 0

la ecuacion del ker es y = y, z = 32 y, x = 12 y , mientras que una base es:




Bker(A+8I) = {(1, 2, 3)}

2. rang(A 6I) = 2

4 5 0 x 4x 5y = 0
5 7 3 y = 0 = 5x 7y + 3z = 0
0 3 12 z 3y 12z = 0

las ecuaciones del ker son: y = y, x = 45 y, z = 14 y , mientras que una base es:


Bker(A6I) = {(5, 4, 1)}

3. rang(A + 3I) = 2

5 5 0 x 5x 5y = 0
5 2 3 y = 0 = 5x + 2y + 3z = 0
0 3 3 z 3y 3z = 0

las ecuaciones del ker son:{x = z, z = z, y = z} ,mientras que una base es:

Bker(A+3I) = {(1, 1, 1)}

Por lo tanto la matriz diagonal sera:



3 0 0
DA = 0 6 0
0 0 8

y la matriz de paso esta formada por los vectores:

B = {(5, 4, 1) , (1, 1, 1) , (1, 2, 3)}

de tal forma que


1
2 5 0 5 1 1 6 0 0 5 1 1
5 1 3 = 4 1 2 0 3 0 4 1 2
0 3 6 1 1 3 0 0 8 1 1 3

mientras que P t AP = D

5 4 1 2 5 0 5 1 1 252 0 0
1 1 1 5 1 3 4 1 2 = 0 9 0
1 2 3 0 3 6 1 1 3 0 0 112
Ejemplos. 79

con
1 5 2 1

5 1 1 42 21 42
4 1 1 1 1
2 = 3 3 3

1 1 3
1 1 3 14 7 14
observamos ademas cada autovector es ortogonal i.e.

 2 5 0 5
1 1 1 5 1 3 4 = 0
0 3 6 1

etc... . Si normalizamos la base i.e. si


 
00 1 1 1
B = (5, 4, 1) , (1, 1, 1) , (1, 2, 3)
252 3 112

esta es la base buscada. Por lo tanto la matriz diagonal queda P t AP = D: (se han
simplificado las expresiones para que no aparezcan raices en el denominador)
5
2
1
5
1

1
42 7 21 7 7 42 2 5 0 42 7 3 28 7 1 0 0
1 1 1 2 1 1

3 3 3 5 1 3
21 7 3 14 7
= 0 1 0
1 1 3 3 6 1 1 3 0 1
14 7 28 7
28 7
0 42 7 3 28 7 0

Podemos comprobar que esta matriz es diagonalizable y que la matriz diagonal


es:
1
2 5 0 5 1 1 6 0 0 5 1 1
5 1 3 = 4 1 2 0 3 0 4 1 2
0 3 6 1 1 3 0 0 8 1 1 3

el polinomio caracteristico y el minimo coinciden:

p(X) = X 3 + 5X 2 42X 144 = mf (X),

los autovalores son (f ) = {6, 3, 8}, y sus correspondientes autovectores son:

V6 = {(5, 4, 1)} , V3 = {(1, 1, 1)} , V8 = {(1, 2, 3)}

Observacion 5.3.1 En este caso coincide que la matriz es diagonlaizable, pero como
veremos exsiten casos de aplicaciones bilinelaes no diagonalizables y sin embargo
existir bases respecto de las cuales la forma es diagonal.

Ejemplo 5.3.2 Dada la forma bibilineal A, queremos encontrar una base respecto
de la cual la expresion del endomorfismo tenga una expresion diagonal 1, 0.

3 6 4
A= 6 9 6
4 6 4
80 Formas Bilineales y Cuadraticas.

Solucion.
el espacio hay que descomponerlo

V = L L ker f

en primer lugar observamos que A tiene rango 2 por lo tanto el ker A 6= 0



3 6 4 x 3x + 6y + 4z = 0
6 9 6 y = 0 = 6x + 9y + 6z = 0
4 6 4 z 4x + 6y + 4z = 0

las euaciones del ker son, z = 23 y, x = 0, y = y , y una base es




Bker A = {(0, 2, 3)}

Tomamos un vector cualquiera e1 = {(1, 0, 0)} de tal forma que L = L(e1 )



 3 6 4 1
1 0 0 6 9 6 0 = 3
4 6 4 0

i.e. fL > 0 y calculamos el subespacio ortogonal a L i.e.



 3 6 4 x
1 0 0 6 9 6 y = 3x + 6y + 4z
4 6 4 z

L = {3x + 6y + 4z = 0}
las ecuaciones de L son
x = 2 43


L = y=
z=

por ejemplo una base de L puede ser

BL = {(2, 1, 0) , (0, 2, 3)}

comprobando que

 3 6 4 2
2 1 0 6 9 6 1 = 3
4 6 4 0

observando que (0, 2, 3) ker f. De esta forma si

B = {(1, 0, 0) , (2, 1, 0) , (0, 2, 3)}

tenemos que
3 0 0
M (f, B) = 0 3 0
0 0 0
Ejemplos. 81

si normalizamos entonces

1 0 0
M (f, B 0 ) = 0 1 0
0 0 0
siendo     
0 1 2 1
B = , 0, 0 , , , 0 , (0, 2, 3)
3 3 3

Ejemplo 5.3.3 Sea (mismo enunciado que antes)



1 2 3 0
2 3 6 0
A= 3

6 5 2
0 0 2 1

Solucion.

V = L L ker f
Vemos que dim ker f = 1 ya que

1 2 3 0 x x + 2y + 3z = 0
2 3 6 0 y 2x + 3y + 6z = 0
= 0 =
3 6 5 2
z 3x + 6y + 5z + 2t = 0
0 0 2 1 t 2z t = 0

las ecuaciones del ker : {z = z, y = 0, x = 3z, t = 2z}, una base esta formada por

Bker f = {(3, 0, 1, 2)}

El subespacio L esta generado por e1 i.e. L = L (e1 ) de tal forma que



1 2 3 0 1
 2 3 6 0 0
1 0 0 0 3 6 5
= 1
2 0
0 0 2 1 0

Calculamos el esoacio ortogonal L



1 2 3 0 x
 2 3 6 0 y

1 0 0 0 3 6
= x + 2y + 3z
5 2 z
0 0 2 1 t

L = {x + 2y + 3z = 0}
las ecuaciones parametricas de


x = 2 3
y=

L =
z=

t=

82 Formas Bilineales y Cuadraticas.

una base estara formada por:

BL = {(2, 1, 0, 0) , (3, 0, 1, 0) , (0, 0, 0, 1)}

observando que

1 2 3 0 2
 2 3 6 0
1 = 1

2 1 0 0
3 6 5 2 0
0 0 2 1 0

1 2 3 0 3
 2 3 6 0 0
3 0 1 0
3
= 4
6 5 2 1
0 0 2 1 0

1 2 3 0 0
 2 3 6 0 0
0 0 0 1 = 1
3 6 5 2
0
0 0 2 1 1
Podemos tomar la base formaba por




B = (1, 0, 0, 0), (2, 1, 0, 0) , (0, 0, 0, 1), (3, 0, 1, 2)
| {z } |
{z } | {z }

L L ker f

V = L L ker f
de tal forma que
L L ker f
son ortogonales entre si y respecto de la forma A.

Ejemplo 5.3.4 Dada la forma bilineal



3 1 2
B= 1 2 1
2 1 0

Solucion.
vemos que la forma cuadratica asociada es:

q = 3x2 + 2xy 4xz + 2y 2 + 2yz

y que existe un vector e3 = (0, 0, 1) tal que

b(e3 , e3 ) = 0

i.e
 3 1 2 0
0 0 1 1 2 1 0 = 0
2 1 0 1
Ejemplos. 83

sin embargo rangB = 3. Nos piden calcular la ecuacion del subespacio generado por
los vectores L = L {(1, 3, 0) , (1, 1, 2)} . De forma trivial calculamos que

x y z
L = det 1 3 0 = 0 = 3x y + 2z
1 1 2

siendo BL = {(1, 3, 0) , (1, 1, 2)} , las ecuaciones del subespacio ortogonal son por lo
tanto
 3 1 2 x
1 3 0 1 2 1 y = 6x + 7y + z
2 1 0 z

 3 1 2 x
1 1 2 1 2 1 y = 6x + 3y + 3z
2 1 0 z

 x = 3
6x + 7y + z = 0
L := = y = 4
6x + 3y + 3z = 0
z = 10

siendo BL = {(3, 4, 10)} . Comprobando trivialmente que ambos espacios son NO


isotropos i.e. L L = ~0, simplemente viendo que los vectores son LI i.e.

3 4 10
det 1 3 0 = 66 6= 0
1 1 2

Ejemplo 5.3.5 Probar que la matriz A no es diagonalizable pero sin embargo existe
una matriz P invertible / P t AP es diagonal.
La matriz A esta dada por

8 i 2 i 2
A= i2 3 1
i 2 1 3

Solucion.
Vemos que el polinomio caracterstico es:

p(X) = X 3 14X 2 + 60X 72 = mf (X)

y que por lo tanto (f ) = {2, 6, 6} , vemos ahora que la dimension de cada uno de
los subespacios invariantes no coincide con la multiplicidad de su correspondiente
autovalor ya que dim(ker(f 2I)) = 1 pero dim(ker(f 6I)) = 1 y para que sea
diagonalizable deberia ser 2. Sin embargo podemos comprobar que la forma de Jordan
es:

0 2i 2 12 i 2

8 i 2 i 2 2 0 0 0 1 1
i 2
3 1 = 12 2 1
2 0 6 1 18 i2 18 18
1 1
i 2 1 3 2 2 2 0 0 6 21 i 2 1
2
1
2
84 Formas Bilineales y Cuadraticas.

Entonces vamos a operar como en ejercicios anteriores. Sea la matriz



8 i 2 i 2
A = i2 3 1
i 2 1 3

de rango
3 entonces
 la forma bilineal es ordinaria. Tomamos un vector cualquiera
v1 = 8, i 2, i 2 , siendo L = L(v1 ), de tal forma que b(v1 , v1 ) = 432

 8 i 2 i 2 8
8 i 2 i 2 i2 3 1 i2 = 432
i 2 1 3 i 2

de esta forma buscamos una descomposicion del espacio tal que V = L L . El


subespacio L esta generado por:

 8 i 2 i 2 x
8 i 2 i 2 i2 3 1 y =0
i 2 1 3 z

i 2 i 2
x = 5 5
60x + 12i 2y + 12i 2z = 0 y=

z=
n   o
luego una base de L esta generada por: BL = i 5 2 , 1, 0 , i 5 2 , 0, 1 com-
probamos que son ortogonales i.e. b(v2 , v3 ) = 0

i 2

  8 i 2 i 2 5 29
i 5 2 1 0 i2 3 1 0 =
25
i 2 1 3 1

como no son ortogonales debemos buscar un vector v3 L / b(v2 , v3 ) = 0 i.e.



60x + 12i 2y + 12i 2z = 0
3 17 7
i 2x + y + z = 0
5 5 5
resoviendo este sistema encontramos que

10
 
79
v3 = i 2, 1,
29 29

comprobamdo ahora que:


10

  8 i 2 i 2 29 i 2
i 52 1 0 i 2
3 1 1 =0
79
i 2 1 3 29

de esta forma hemos obtebido una base de V


(
  !  )
i 2 10 79
BV = 8, i 2, i 2 , , 1, 0 , i 2, 1,
5 29 29
Ejemplos. 85

de tal forma que P t AP = D veamoslo:



i 2 10

8 i 2 i 2 8 i 2 i 2 8 29 i 2
1i 2 5
1 0 i2 3 1 i 2 1 1 =

5
10 79
29 i 2 1 29 i 2 1 3 i 2 0 79
29


432 0 0
79
= 0 25 0
17 064
0 0 841

si normalizamos esta base i.e.


vi
ei = p
|b(vi , vi )|

entonces obtenemos la siguiente matriz:



1 0 0
0 1 0
0 0 1

por ultimo resaltar que la matriz encontrada P es invertible como se puede comprobar:
1 5 15
145

8 i 2 i 2 36 79 i 2 2844 i 2
1i 2 1 0 = 1 85 29
1422
5 36 i2 79
10 79 1 35 551
29 i 2 1 29 36 i 2 79 1422

Ejemplo 5.3.6 Sea la forma cuadratica definida sobre R respecto de la base canonica:

q(x) = x21 3x22 4x23 + x24 + 2x1 x2 , R

queremos hallar la forma polar de q, y escribir la matriz respecto de la base canonica.


Definir el rango de q segun los valores de , y por ultimo descomponer q en suma
de cuadrados y encontrar su signatura.

Solucion.
Vemos que la forma forma pola de q es:

2f (x, y) = q(x + y) q(x) q(y)

i.e.
h i
2f (x, y) = (x1 + y1 )2 3 (x2 + y2 )2 4 (x3 + y3 )2 + (x4 + y4 )2 + 2 (x1 + y1 ) (x2 + y2 )
x21 3x22 4x23 + x24 + 2x1 x2 y12 3y22 4y32 + y42 + 2y1 y2
   

= x1 y1 + x4 y4 3x2 y2 4x3 y3 + y1 x2 + x1 y2
= x1 (y1 + y2 ) + x2 (y1 3y2 ) 4x3 y3 + x4 y4
86 Formas Bilineales y Cuadraticas.

por lo tanto

y1 + y2
y1 3y2
(x1 , x2 , x3 , x4 ) por lo tanto
4y3
y4

1 0 0 y1
3 0 0 y2

(x1 , x2 , x3 , x4 )
0 0 4 0 y3
0 0 0 y4

de esta forma obtenemos que:



1 0 0
3 0 0
M(f, B) =
0 0 4 0
0 0 0

el determinante es det (A) = 12 + 42 = 4(3 + 2 ) pudiendo distinguir los sigu-


ientes casos.

1. si 6= 0 entonces el rango de A es 4

2. si = 0 entonces el rango de A es 3

Por ultimo podemos ver que

q(x) = (x1 + x2 )2 + 2 3 (x2 )2 4 (x3 )2 + (x4 )2 =




= x21 3x22 4x23 + x24 + 2x1 x2

la signatura depende de por lo tanto

1. si 6= 0 entonces la signatura es: (+, , , sig ())

2. si = 0 entonces la signatura es: (+, , , 0) .

Ejemplo 5.3.7 Dada la forma bilinela A



1 0 1 0
0 2 1 0
A= 1

1 0 1
1 0 3 4
queremos:

1. ver que el subespacio L es no isotropo tal que



xyz =0
L=
2x y t = 0
Ejemplos. 87

2. Ecuaciones y base de L

3. M (f, B 0 ) / B 0 = {BL , BL }

Solucion.
En primer lugar vemos que r(A) = 4. Una base del subespacio L esta dada
por:

x=
xyz =0 y=

L= = L =
2x y t = 0
z =
t = 2

BL = {(1, 0, 1, 2) , (0, 1, 1, 1)}


Como en ejemplos anteriores el subespacio L viene dado por:

1 0 1 0 x
 0 2 1 0 y
1 0 1 2 1
= 2x + y + 7z + 7t = 0
1 0 1 z
1 0 3 4 t

1 0 1 0 x
 0 2 1 0 y

0 1 1 1 1
= y 4z 3t = 0
1 0 1 z
1 0 3 4 t

asi pues las ecuaciones de L




x = 7 5
2x + y + 7z + 7t = 0 y = 4 + 3

L = = L =
y 4z 3t = 0 z=

t=

BL = {(7, 4, 1, 0) , (5, 3, 0, 1)}


simplemente comprobamos que el determinante de todos estos vectores es 6= 0

7 5 1 0

4 3 0 1
= 24
1
0 1 1

0 1 2 1

por ultimo
23 13 0 0
10 8 0 0
M (f, B 0 ) =
6= 0 6= 0 81 66

6= 0 6= 0 47 42
vemos que hemos elegido los vectores de L por la izquierda y que como A no es
simetrica entonces vi Avjt 6= vj Avit .
88 Formas Bilineales y Cuadraticas.
Captulo 6
ESPACIOS VECTORIALES EUCLDEOS.

6.1 Espacios vectoriales eucldeos.


Definicion 6.1.1 Producto escalar. Forma bilineal simetrica (sesquilineal hermtica)
que verifica las siguientes propiedades:
g : V V K
u, v 7 g(u, v)

1. simetrica g(u, v) = g(v, u)

2. def. positiva g(u, v) 0

3. nula g(v, v) = 0 sii v = 0

Definicion 6.1.2 Espacio euclideo (resp. unitario) (V, g) con g producto escalar.

Definicion 6.1.3 Norma. (V, kk) es una aplicacion

kk : V R
v 7 kvk
verificando:

1. kvk = 0 v = 0

2. kkvk = |k| kvk

3. kv + uk kvk + kuk triangular.

Proposicion 6.1.1 Desidualdad de Cauchy-Schwarz.

|g(u, v)|2 g (u, u) g (v, v)

Proposicion 6.1.2 El prodcuto escalar induce una norma.


p
kuk = g(u, u)

Definicion 6.1.4 Metrica en (V, g)

d : V V R
u, v d(u, v)
se observa que
d(u, v) = kv uk
verificando:
90 Espacios vectoriales eucldeos.

1. d(u, v) = 0 u = v

2. d(u, v) = d(v, u)

3. d(u, w) d(u, v) + d(v, w)

Definicion 6.1.5 Angulo entre vectores.

g(u, v)
cos =
kuk kvk

de tal forma que se define


g(u, v) = kuk kvk cos

Definicion 6.1.6 Vector unitario sii g(u, u) = 1 y decimos que uv (vectores oro-
togonales) sii g(u, v) = 0

Proposicion 6.1.3 Todo conjunto de vectores ortogonales dos a dos es LI

Proposicion 6.1.4 Todo (V, g) tiene al menos una base ortogonal.

Teorema 6.1.1 Gramm-Schmidt. En (V, g) existe siempre una base ortonormal de


vectores.

Demostracion. Por induccion sobre la dimension del espacio V . Sea B =


{e1 , ......, en } una base cualquiera del espacio V. Consideramos los subespacios

V1 = he1 i V2 = he1 , e2 i ...... Vn = he1 , ......, en i = V

El subespacio V1 tiene una base ortonormal que es:


e1
u1 = p
g(e1 , e1 )

supongamos que B 0 = {u1 , ......, ur } es una base ortonormal de Vr . Construyamos una


base ortonormal de Vr+1 = hu1 , ......, ur , er+1 i de la siguiente manera: sea

u0r+1 = er+1 k 1 u1 + ..... + k r ur




ortogonal a cada ui con i = 1, ..., r

0 = g(u0r+1 , ui ) = g(er+1 , ui ) k i

entonces
k i = g(er+1 , ui )
de esta forma los vectores u1 , ......, ur , u0r+1 son LI y por lo tanto forman base de


Vr+1 . Tomo ahora


u0r+1
ur+1 = q
g(u0r+1 , u0r+1 )

de esta forma la base {u1 , ......, ur , ur+1 } es ortonormal. Por induccion completamos
el razonamiento hasta obtener una base de V.
Espacios vectoriales eucldeos. 91


Observacion 6.1.1 Este toerema es fundamental para varias de las ramas de la
matematica como el analisis de Fourier etc... veamos un ejemplo.
Ejemplo 6.1.1 En el espacio C([a, b]) consideramos el producto interior definido por
Z b
hf, gi = f (x)g(x)dx
a
y comprobamos que en C([, ]) la base de funciones B = {1, cos t, sin t, cos 2t, sin 2t, ....}
son ortogonales dos a dos con respecto al producto interior anteriormente definido i.e.
Z
hcos nt, sin mti = 0 = (cos nt sin mt) dt =
Z
1
Z
1
sin (m + n) tdt sin (n m) tdt
2 2
Pensemos ahora en el desarrollo de Fourier de la funcion f (x) = x2 en el intervalo
x (, )

a0 X
f (x) + (ak cos kx + bk sin kx)
2
k=1
considerando la base de funciones B = {1, cos x, sin x, cos 2x, sin 2x, ....}, como la
funcion la funcion es par entonces se observa que bk = 0. La idea es la de ir calculando
las respectivas proyecciones de la funcion f con respecto a cada uno de los elementos
de la base i.e. R 2 2 3
hf, 1i x dx 3 2
proy1 f = = R = =
h1, 1i 1dx
2 3
en la teoria de series de Fourier se define
1 1 2 2 2
Z Z
a0 = f (x)dx = x dx =
3
vamos viendo la analgia, i.e. a20 = proy1 f, mientra que el termino ak se define como:
1 1 2
Z Z
ak = f (x) cos kxdx = x cos kxdx

mientras que la proyeccion de f con respecto a cos x se define como
R 2 R 2
hf, cos xi x cos xdx x cos xdx
proycos x f = = R 2
=
hcos x, cos xi cos xdx

i.e. a1 = proycos x f, y asi sucesivamente de tal forma que


f (x) proy1 f + proycos x f cos x + .....

Proposicion 6.1.5 Si una forma bilineal (resp. sesquilineal) tiene una matriz iden-
tidad en una base B entonces dicha forma bilineal o sesquilineal es un producto escalar
Proposicion 6.1.6 Sea b una aplicacion bilineal (resp. sesquilineal) con matriz A =
M(b, B) / B = {ei }ni=1 . Designamos por Br el menor formado por las r primeras
filas y las r primeras columnas de A. Entonces b es un producto escalar sii A es
simetrica (resp. hermitica) y det Br > 0 r.
92 Espacios vectoriales eucldeos.

6.2 Espacio Dual.


Sea (V, g) un espacio vectorial euclideo (resp.unitario) de dimension finita, u V la
aplicacion
v : V K
v 7 uv
es lineal, podemos definir asi

: V V
v 7 v

que es lineal y biyectiva

Teorema 6.2.1 Isomorfia, espacio dual. Sea (V, g) espacio euclideo entonces se
establece el isomorfismo canonico entre el espacio V y su dual.

: V V
v 7 v

6.3 Subespacio ortogonal.


Sea (V, g) un espacio vectorial euclideo (resp.unitario) de dimension finita y sea W
V definimos el subespacio ortogonal a W como el conjunto

W = {v V / g(u, v) = 0 u W }

Proposicion 6.3.1 Espacio ortogonal y suma directa

V = W W

verificandose:
dim W = dim V dim W
por las formulas de Grassmamm.

Demostracion. Sea {u1 , ......, ur } una base ortonormal de W, la podemos


completar hasta obtener una base de V dada por {u1 , ......, ur , er+1 , ...., en } aplicando
el teorema de Gram-Schimdt conseguimos una vase ortonormal de V {u1 , ......, un } de
tal forma que {ur+1 , ......, un } forman base de W de esta forma podemos expresar
cualquier vector v V como

v = v 1 u1 + ...... + v r ur + v r+1 ur+1 + ...... + v n un W + W


 

y por lo tanto V = W W como queriamos hacer ver.

6.4 Producto vectorial.


Sea (V, g) un espacio vectorial euclideo / dim V = 3 y sea BV = {e1 , e2 , e3 } una
base ortonormal de V . Fijados v, u V la aplicacion V R que asigna a cada
7 detB (u, v, ) es lineal y por lo tanto un elemento del dual V . Sea x el vector
correspondiente a este elemento a traves del isomorfismo V V que asigna a cada
x 7 x = detB (u, v, ) i.e. , x = detB (u, v, ). x es por definicion el producto
vectorial de u y v i.e. x = u v.
Aplicaciones entre espacios euclideos. 93

Proposicion 6.4.1 Se verifica:

1. (u v) = detB (u, v, ) ,

2. u v = v u,

3. (ku) v = k (u v) ,

4. (u + u0 ) v = u v + u0 v,

5. u v es ortogonal tanto a u como a v,

6. u v = 0 sii son LD,

7. Si u v 6= 0 entonces {u, v, u v} forman base de V e inducen la misma


orientacion que BV = {e1 , e2 , e3 } .

Proposicion 6.4.2 Se verifica:

1. e1 e2 = e3 , e2 e3 = e1 , e3 e1 = e2 ,

2. Si u = ei uj y v = ei v j entonces
P P

e1 u1 v 1


u v = e2 u2 v 2
e3 u3 v 3

Proposicion 6.4.3 Identidad de Jacobi:

(u v) + (u ) v + ( u) v = ~0.

Proposicion 6.4.4 (u1 u2 ) (v1 v2 ) = (v1 v1 ) (u2 u2 ) (u1 v2 ) (u2 v1 )

Proposicion 6.4.5 ku vk2 = kuk2 kvk2 (u v)2

6.5 Aplicaciones entre espacios euclideos.


6.5.1 Aplicaciones adjuntas y autoadjuntas
Definicion 6.5.1 Aplicacion adjunta o traspuesta de f . Sea (V, g) un espacio vec-
torial euclideo o unitario. Un endomorfismo h se llama aplicacion adjunta de f
End(V ) si
g(v, h(u)) = g(f (v), u) u, v V

Observacion 6.5.1 Si existe entonces es unica. h es la aplicacion traspuesta de f


i.e. h = f t .

Proposicion 6.5.1 Si h es la aplicacion adjunta de f End(V ) tal que dim V = n


(finita) entonces

ker h = (Im f )
Im g = (ker f )
94 Espacios vectoriales eucldeos.

Proposicion 6.5.2 Sea A = M(f, B) / f : V V , entonces la matriz de la


t
aplicacion adjunta de f es At en el caso real y A en el caso complejo.

Definicion 6.5.2 Aplicacion autoadjunta (o simetrica) f End(V ) es una apli-


cacion lineal que coincide con su adjunta i.e. / f = f t

g(u, f (v)) = g(f (u), v) u, v V

Proposicion 6.5.3 Si A es la matriz de f en una base ortonormal, f es autoadjunta


sii
A = At (A simetrica) en R
t
A = A (A hermitica) en C

6.5.2 Diagonalizacion de aplicaciones autoadjuntas y hermiticas.


Toda matriz simetrica real o compleja es la matriz de una aplicacion autoadjunta en
una base ortonormal. El problema de diagonalizar esas matrices equivale, pues, al de
encontrar una base de vectores propios de una aplicacion autoadjunta.

Proposicion 6.5.4 Sea (V, g) es un espacio euclideo o unitario y sea f : V V


una aplicacion autoadjunta (i.e. simetrica o hermitica resp.) entonces el polinomio
caracteristico pf () = det(f I) tiene raices reales (tanto en R como en C) i.e.
los autovalores de una matriz simetrica t real son reales.

Demostracion.
1. Caso unitario:
si f (u) = u / u 6= ~0 entonces

g(u, u) = g(u, u) = g(f (u), u) = g(u, f (u)) = g(u, u) 6= ~0

entonces = sii R.

2. Caso euclideo:
Sea A la matriz de la aplicion simetrica f y B una una base ortogonal. Si
considero A como matriz compleja entonces es hermitica entonces seria la matriz
de cierta aplicacion f : V V entre espacios unitarios. puesto que f y f
tiene la misma matriz, su polinomio caracteristico sera el mismo y sabemos
que en el caso complejo R entonces solo puede pasar que R.
Como vemos los autovalores de una matriz simetrica son siempre reales.

Veamos una nueva demostracion:


Sea
A = (aij ) / aij = aji i.e. A = At
considero un endomorfismo f : Cn Cn tal que la matriz de dicho endomorfismo
respecto de cierta base B es precisamente A i.e. A = M(f, B). Sean 1 , 2 (f )
tal que 1 6= 2 y sea x V1 e y V2 i.e. f (x) = 1 x , f (y) = 2 y donde
x = (x1 , ...., xn )

f (x) = xi A
f (y) = yj A
Aplicaciones entre espacios euclideos. 95

si

xi Ayjt = z C =1 xi yjt = z
yj Axti = z C =2 yj xti = z

ademas hay que tener en cuenta que

xi yjt = yj xti

i.e
1 xi yjt = z = 2 yj xti
reagrupando
(1 2 ) xi yjt = 0
esto se cumple para cualesquiera valores propios de f dsitintos.
Si existe (f ) tal que C entonces su conjungado tambien es autovalor
de f i.e. (f ). Entonces eligiendo adecuadamente un x V e y V tal que
y = x i.e. f (y) = x y V aplicamos el resultado anterior i.e. (1 2 ) xi yjt =
0 al caso , observando que

xi xtj = 0


h i
|xi |2 = 0

pero esto solo puede pasar si = pero esto es imposible si estamos en C asi que
R.

Proposicion 6.5.5 Autovalores distintos engendran subespacios ortogonales.

Demostracion. Por la proposicion anterior, si consideramos el resultado


principal valido para cualesquiera valores propios de f dsitintos i.e. (1 2 ) xi yjt = 0
con 1 , 2 (f ) tal que 1 6= 2 y sea x V1 e y V2 i.e. f (x) = 1 x , f (y) = 2 y
donde x = (x1 , ...., xn ) entonces como 1 6= 2 se deduce de (1 2 ) xi yjt = 0 que
xi yjt = 0 i.e. V1 V2 como queriamos demostrar.

Teorema 6.5.1 Sea (V, g) (resp. unitario) y f End(V ); f : V V autoadjunta


entonces existe una base de vectores propios ortogonales.

Demostracion. Por induccion sobre la dimension del espacio V .


Si dim V = 1 entonces todo vector es vector propio ].
Si dim V = n entonces pf () = det(f I) C [] tiene siempre una raiz.
Sea v un vector unitario de valor propio , f (v) = v. El subespacio

F = hvi = {u V / g(u, v) = 0}

es invariante por f. En efecto, si u F

g(f (u), v) = g(u, f (v)) = g(u, v) = g(u, v) = 0

de donde f (u) F. Por hipotesis de induccion, existe una base ortonormal de vectores
propios de F, {u2 , ......, un }. Entonces si tomamos u1 = v vemos que el conjunto de
vectores {u1 , u2 , ......, un } es base ortonormal de vectores propios de f tal y como
queriamos hacer ver.
96 Espacios vectoriales eucldeos.

Teorema 6.5.2 Espectral. Si (V, g) es un espacio euclideo y f : V V una


aplicacion autoadjunta entonces existe una base de vectores propios ortonormal.
Tambien lo podemos enunciar de la siguiente manera:
Sea f : V V una aplicacion autoadjunta en (V, g) de dimension finita,
entonces existen E1 , ..., Er proyecciones ortogonales sobre V y r escalares {1 , ..., r }
tales que:
P
1. f = i i Ei
P
2. i i Ei = IV

3. Ei Ej = 0 i 6= j

Demostracion. La demostracion es la misma que la expuesta anteriormente


en el caso C solo que aqui pf () = det(f I) R [] tiene raices en R esto es lo
que demuestra la anterior proposicion.
Veamos otra demostracion.

Si dim V = 1 entonces x V ; V = L(x) y f (x) = x L(x) tomando


x
v1 = forma la base de V ; BV = {v1 }
kxk
Supongamos cierto si dim V = n 1 veamos que pasa si dim V = n. Sea
(f ) entonces x 6= 0 tal que f (x) = x de tal forma que (x V ). Sea
L = L(x) y dim(L) = 1, sea W = L de tal forma que V = L L entonces
dim(L ) = n 1.
Veamos ahora que f|W : W W es un subespacio invariante i.e f (W ) W,
donde estamos denotanto W = L , para ello tomamos un vector z W y nos
preguntamos si la imagen por f de dicho vector pertenece al subespacio W i.e. si z
W =f (z) W ? vemos z W g (z, x) = 0 / x L, entonces g(f (z), x) =
0?

f (z) = (z1 , ....., zn ) A


f (z)x = (z1 , ....., zn ) Axt = (x1 , ...., xn ) At z t
f (x)z = xz = 0 f (z) W

luego f (W ) W. Por lo tanto f|W : W W es un endomorfismo tal que dim(W ) =


n 1. Sea BW = {v2 , ....., vn } una base ortonormal de W tal que

D = M(f|W , BW )

es simetrica. Aplicando la hipotesis de induccion BW = {u2 , ....., un } de vectores


propios de f|W que por el metodo de ortonormalizacion de G-M la convierto en
ortonormal de vectores propios. Tomando ahora como
v1
u1 = BL0 = {u1 }
kv1 k

luego
BV0 = {u1 , u2 , ....., un }
base ortonormal de vectores propios de V.

At = A
Aplicaciones entre espacios euclideos. 97

Observacion 6.5.2 La matriz de cambio pertenece al grupo ortogonal.

Ejemplo 6.5.1 Consideramos la matriz diagonal



2 0 0 0
0 3 0 0
A= 0

0 3 0
0 0 0 5
y sean

1 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0
0 1 0 0
0 0 0 0
E1 =
0 , E2 = , E3 =
0 0 0 0 0 1 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 1

vemos que cada Ei es un proyector ya que Ei2 = Ei

A = 2E1 + 3E2 + 5E3

E1 + E2 + E3 = I
Ei Ej = 0


6.5.3 Aplicaciones ortogonales. Aplicaciones unitarias
Definicion 6.5.3 (V, g) espacio vectorial euclideo (o unitario). Sea f End(V );
f : V V una aplicacion, decimos que es ortogonal en el caso real y unitaria en el
caso complejo si
g(f (u), f (v)) = g(u, v) u, v V

Proposicion 6.5.6 Toda aplicacion que conserve el producto el producto escalar es


lineal.

Proposicion 6.5.7 Si f es ortogonal o unitaria entonces:

1. kf (u)k = kuk u V

2. u, v son ortogonales sii f (u), f (v) lo son

3. f es biyectiva

4. Si k es un valor propio de f , entonces |k| = 1.

5. Autovaloes distintos engendran subespacios ortogonales.

Proposicion 6.5.8 Sea f End(V ); f : V V tal que A = M(f, B) donde


B = {e1 , ...., en } . f es ortogonal (resp. unitaria) sii

g(f (ei ), f (ej )) = g(ei , ej )


At GA = G

donde G es la matriz del producto escalar en la base B.


98 Espacios vectoriales eucldeos.

Corolario 6.5.1 Sea f End(V ); f : V V tal que A = M(f, B) donde B es


una base ortonormal, entonces

f ortonormal At A = I
f unitaria At A = I

Definicion 6.5.4 A es ortonormal si At A = I i.e. A1 = At = det A = 1

t
Definicion 6.5.5 A es unitaria si At A = I i.e. A1 = A = |det A| = 1

Las aplicaciones ortogonales de un espacio vectorial euclideo de dimension


finita forman un grupo que denominamos el grupo ortogonal O(n). Este grupo es
isomorfo al de las aplicaciones ortogonales. Las aplicaciones unitarias forman el
grupo U (n) grupo unitario de orden n.
6.5.4 Diagonalizacion de matrices unitarias.
Teorema 6.5.3 Sea (V, g) espacio unitario y sea f End(V ) una aplicacion uni-
taria, entonces existe siempre una base ortonormal de V formada por vectores propios
de f .

Demostracion. Por induccion sobre la dimension del espacio.


Supongamos que existe una base B = {vi } con i = 1, ..., n en la que f tiene
una matriz triangular, es decir

f (vi ) hv1 , ......, vi i

Sea {w1 , ...., wn } una base ortonormal obtenida a partir de la anterior por el metodo
de Gram-Schmidt. Como wi hv1 , ......, vi i resulta que

f (wi ) hf (v1 ), ......, f (vi )i = hv1 , ......, vi i = hw1 , ......, wi i

y por lo tanto la matriz de f en la base {w1 , ...., wn } tambien es triangular. Veamos


que {w1 , ...., wn } son vectores propios; w1 claramente es un vector propio. Supong-
amos que {w1 , ...., wk } son vectores propios y sea

f (wk+1 ) = a0 w1 + ...... + ak wk + ak+1 wk+1

entonces tenemos que si


f (wi ) = bi wi

para i = 1, ...., k

0 = wk+1 wi = f (wk+1 )f (wi ) = f (wk+1 ) bi wi = ai bi





pero bi = 1 entonces bi 6= 0 de donde ai = 0 i = 1, ..., k entonces

f (wk+1 ) = ak+1 wk+1

i.e. wk+1 es tambien vector propio.


Ejemplos. 99

6.5.5 Forma canonica de una matriz ortogonal.


Teorema 6.5.4 Sea (V, g) espacio euclideo y f : V V tal que A = M(f, B)
donde B es una base ortonormal tal que

1
..

.


1

..
A= .


A1

..

.

An

donde las matrices Ai son del tipo


 
a b
Ai = / a2 + b2 = 1
b a

6.6 Ejemplos.
Ejemplo 6.6.1 Se considera en R3 la forma bilineal simetrica definida por

f (x, y) = x1 y1 + (x2 x3 ) (y2 y3 ) + (x1 + x3 ) (y1 + y3 )

queremos ver que f es un producto escalar, calcular la matriz de f respecto de la base


canonica y por ultimo calcular la base ortonormal de

B = {(1, 1, 1) , (0, 1, 1) , (0, 2, 0)}

Solucion. La matriz de la aplicacion f respecto de la base canonica es



2 0 1
M (f, B) = 0 1 1 = gij
1 1 2

para ver que se trata de un producto escalar tenemos que ver que se trata de una forma
bilineal simetrica y definida positiva, es obvio que es bilineal y simetrica solo queda
ver que es definida positiva pero es sencillo si tenemos encuenta que el determinante
de todos los menores angulares es positivo e incluso el determinante de det A = 1.
De esta forma garantizamos que A es un producto escalar.
Para ortonormalizar la base procedemos mediante el metodo de Gramm-
Schmidt de la siguiente manera.

B = {(1, 1, 1) , (0, 1, 1) , (0, 2, 0)}

tomamos el primero de los vectores

v1 = (1, 1, 1) = e1

el segundo vector e2 lo calculamos como sigue:

e2 = v2 + e1 / g(e2 , e1 ) = 0
100 Espacios vectoriales eucldeos.

g(v2 , e1 )
i.e. g(e2 , e1 ) = 0 = g(e1 , v2 ) + g(e1 , e1 ) =
g(e1 , e1 )
de esta forma obtenemos que
 
g(v2 , e1 ) 2
= =
g(e1 , e1 ) 5
donde
2 0 1
 1
g(v2 , e1 ) = 0 1 1 0 1 1 1 = 1
1 1 2 1

 2 0 1 1
g(e1 , e1 ) = 1 1 1 0 1 1 1 =5
1 1 2 1
por lo tanto
   
2 2 7 3
e2 = v2 + e1 = (0, 1, 1) + (1, 1, 1) = , ,
5 5 5 5
de igual forma calcularemos el vector e3

e3 = v3 + e1 + e2 / g(ei , ej ) = 0,

por lo tanto
g(v3 , e1 ) g(v3 , e2 )
= y =
g(e1 , e1 ) g(e2 , e2 )
en este caso

 2 0 1 1
g(v3 , e1 ) = 0 2 0 0 1 1 1 = 0 = = 0
1 1 2 1
2
 2 0 1 5
g(v3 , e2 ) = 0 2 0 0 1 1 75 = 4
1 1 2 35
2
2 0 1 5 21
g(e2 , e2 ) = 25 75 35 0 1 1 75 =

5
1 1 2 35
g(v3 , e2 ) 20
= =
g(e2 , e2 ) 21
   
20 2 7 3 8 2 4
e3 = v3 + e1 + e2 = (0, 2, 0) , , = , ,
21 5 5 5 21 3 7
por lo que la base ortogonal resulta ser:
    
0 2 7 3 8 2 4
B = (1, 1, 1) , , , , , ,
5 5 5 21 3 7
ahora solo queda normalizarla i.e.
( )
00 ei
B = p
g(ei , ei )
Ejemplos. 101

1    
1 2 7 3 1 8 2 4
B 00 = (1, 1, 1) , q , , ,q , ,
5 21 5 5 5 4 21 3 7
5 21
ya que
8

2 0 1 21
8 2 4
 2 4
g(e3 , e3 ) = 21 3 7
0 1 1 3 =
4 21
1 1 2 7
por lo tanto nuestra base ortonormal es:

1    
1 2 7 3 1 8 2 4
B 00 = (1, 1, 1) , q , , ,q , ,
5 21 5 5 5 4 21 3 7
5 21

Ejemplo 6.6.2 Buscar una base ortonormal del siguiente subespacio F de C4 .

F = x + iy z = 0 (x, y, z, t) C4


Solucion.
En primer lugar vamos a calcular las ecuaciones parametricas del subespacio
F, siendo estas:

x=

y=

F = = BL = {(1, 0, 1, 0) , (0, 1, i, 0) , (0, 0, 0, 1)}

z = + i
z=

mediante G-M obtenemos la base buscada.


Sea v1 = u1 = (1, 0, 1, 0)
v2 = v1 +u2 si hacemos g(v1 , v2 ) = 0 = g(u 2 ,v1 )
g(v1 ,v1 ) entonces obtenemos:

g(u2 , v1 ) i
= = = v2 = (i, 2, i, 0)
g(v1 , v1 ) 2

v3 = v1 + v2 + u3 imponiendo que g(v1 , v3 ) = 0 y g(v3 , v2 ) = 0 obtenemos


que
g(u3 , v1 ) g(u3 , v2 )
= =0 y = =0
g(v1 , v1 ) g(v2 , v2 )
luego v3 = (0, 0, 0, 1). Una vez obtenida la base ortogonal solo queda normalizarla.
 
1 1
B = (1, 0, 1, 0) , (i, 2, i, 0) , (0, 0, 0, 1)
2 2

Ejemplo 6.6.3 Sea


2 2 0
A = 2 3 2
0 2 5
calcular una base ortonormal (igual que en el primer ejemplo).
102 Espacios vectoriales eucldeos.

Solucion.

Al ser un ejercicio puramente mecanico solo se indica la solucion siendo esta:


 
1
B = (1, 0, 0) , (1, 1, 0) , (2, 2, 1)
2
OBS: la matriz A es una forma bilineal simetrica definida positiva de tal
forma que por ejemplo la expresion g(v1 , v1 ) se ha calculado con respecto a dicha
matriz i.e. g(v1 , v1 ) = v1 Av1t = 2.

Ejemplo 6.6.4 Sea F R3 generado por los siguientes vectores

F = L {(1, 0, 1) , (0, 1, 1) , (0, 0, 0) , (1, 1, 0)}

calcular F y F .

Solucion. Vemos que



x+z =0

F = yz =0 (x, y, z) R3 = BF = {(1, 1, 1)}
x+y =0

F = (x, y, z) R3

/ h(x, y, z) , (1, 1, 1)i = 0 = F
i.e. x=y+z

Ejemplo 6.6.5 Sea F R4 generado por


 
x+y+z =0
F = (x, y, z, t) R4
z+t=0

calcular bases ortonormales de F y F . Calculese la matriz en la base canonica de


la proyeccion ortogonal sobre el subespacio F.

Solucion. Tomando una base cualquiera de F i.e. F = {(1, 1, 0, 0) , (1, 0, 1, 1)}


y aplicando el metodo de G-M obtenemos
 
1 1
BF = (1, 1, 0, 0) , (1, 1, 2, 2)
2 10

OBS: vemos que v2 = v1 + u2 entonces = 12 con respecto al producto


escalar ordinario de R4 .
Vemos trivialmente que
 
xy =0 4
F = (x, y, z, t) R
xz+t=0

y que por lo tanto por G-M obtenemos que


 
1 1
BF = (0, 0, 1, 1) , (2, 2, 1, 1)
2 10
Ejemplos. 103

Por ultimo, para calcular la proyeccion ortogonal de v = (x, y, z, t) R4 ,


sobre F consideramos la base ortonormal (b1 , b2 ) de F . Sabemos que

p(x) = hx | b1 i b1 + hx | b2 i b2

entonces no tenemos mas que desarrollar la expresion:


 
1 1 1
hx | b1 i b1 = (x, y, z, t) (1, 1, 0, 0) (1, 1, 0, 0) = (x y, x + y, 0, 0)
2 2 2

 
1 1
hx | b2 i b2 = (x, y, z, t) (1, 1, 2, 2) (1, 1, 2, 2) =
10 10
1
= (x + y 2z + 2t, x + y 2z + 2t, 2x 2y + 4z 4t, 2x + 2y 4z + 4t)
10
por lo tanto
hx | b1 i b1 + hx | b2 i b2 =
3 2 1 1
xy x + y 2z + 2t 5x 5y 5z + 5t
1 x + y
1
x + y 2z + 2t 25 x +
3
5y 1
5z + 1
5t

= + =
2 0 10 2x 2y + 4z 4t 15 x 1
5y + 2
5z 2
5t

1 1 2 2
0 2x + 2y 4z + 4t 5x + 5y 5z + 5t
de tal forma que la matriz de la proyeccion en la base caconica toma la siguiente
expresion:
3 2 1 1
1 2 3 1 1
M(p, B) =
5 1 1 2 2
1 1 2 2

Ejemplo 6.6.6 Encontrar una matriz P tal que P t AP sea diagonal siendo A

5 2 2 5 2i 4
A = 2 2 4 y A = 2i 8 2i
2 4 2 4 2i 5

Solucion. Empezemos con la primera matriz



5 2 2
A = 2 2 4
2 4 2

en primer lugar caluclamos el polinimio caracteristico siendo este:

p(X) = X 3 9X 2 + 108

y por lo tanto los autovalores son: (f ) = {3, 6, 6} , el polonomio minimo en este


caso es:
mf (X) = 18 3X + X 2
Los subespacios propios son:
104 Espacios vectoriales eucldeos.

1. V3 = ker (A + 3I)

8 2 2 x 8x 2y + 2z = 0
2 5 4 y = 0 = 2x + 5y + 4z = 0
2 4 5 z 2x + 4y + 5z = 0

BV3 = {(1, 2, 2)}

2. V6 = ker (A 6I) (la dimension de este esapcio coincide con la multiplicidad


del autovalor)

1 2 2 x x 2y + 2z = 0
2 4 4 y = 0 = 2x 4y + 4z = 0
2 4 4 z 2x + 4y 4z = 0

BV6 = {(2, 0, 1) , (2, 1, 0)}

Comprobamos que
1
5 2 2 1 2 2 3 0 0 1 2 2
2 2 4 = 2 0 1 0 6 0 2 0 1
2 4 2 2 1 0 0 0 6 2 1 0

donde 1 1 2
29

1 2 2 9 9
2 0 1 = 29 4
9
5
9

2 1 0 92 5
9
4
9
si aplicamos el metodo de G-M obtendremos una base ortonormal, siendo esta
 
1 1 1
B= (1, 2, 2) , (2, 0, 1) , (2, 5, 4)
3 5 3 5
lo unico que hay que ver es que v2 V6
hv1 , u2 i 4
v2 = v1 + u2 / = = = v2 = (2, 5, 4)
hv1 , v1 i 5
de esta forma
1 2 1 2 2
3

23

3 3 5 2 2 3 5 5 3 0 0
2 1 2 5
5 5 0 5 2 2 4 0 =

0 6 0
5 3

3 5
2
15 5 13 5 4
15 5
2 4 2 23 1 4
0 0 6
5 3 5

observandose que P t = P 1 .
Con respecto a la segunda matriz operamos de igual forma i.e.

5 2i 4
A = 2i 8 2i
4 2i 5

vemos que el polinomio caracteristico es:

p(X) = X 3 18X 2 + 81X


Ejemplos. 105

mientras que el minimo es:


mf (X) = 9X + X 2
de esta forma comprobamos que los autovalores son:

(f ) = {0, 9, 9}

asi los subespacios caracteristicos son:

1. V0 = ker(A)

5 2i 4 x 5x 2iy 4z = 0
2i 8 2i y = 0 == 2ix + 8y + 2iz = 0
4 2i 5 z 4x 2iy + 5z = 0

y = 12 iz, z = z, x = z de esta forma una base es:



cuya solucion es:

BV0 = {(2, i, 2)}

2. V9 = ker(A 9I)

4 2i 4 x 4x 2iy 4z = 0
2i 1 2i y = 0 == 2ix y + 2iz = 0
4 2i 4 z 4x 2iy 4z = 0

4x 2iy 4z = 0
2ix y + 2iz = 0
4x 2iy 4z = 0
cuya solucion es: {y = 2ix + 2iz}, de esta forma una base es:

BV9 = {(1, 2i, 0) , (0, 2i, 1)}

Al igual que antes aplicamos el metodo de G-M para obtener una base ortonor-
mal respecto de A. De esta forma
 
1 1 1
B= (2, i, 2) , (1, 2i, 0) , (4, 2i, 5)
3 5 3 5

lo unico que hay que ver es que v2 V9

hv1 , u2 i 4
v2 = v1 + u2 / = = = v2 = (4, 2i, 5)
hv1 , v1 i 5

recordamos que:

(a + bi) (c + di) = (ac bd) + (ad + bc) i


X
hx | yi = xi y i x, y Cn
i
106 Espacios vectoriales eucldeos.

Ejemplo 6.6.7 Sea


2 0 0 2
0 1 3 0
A=
0 3

1 0
2 0 0 2
calcular una base ortonormal de vectores propios y la descomposion espectral.

Solucion.
Vemos que el polinomio caracteristico es:

p(X) = X 4 6X 3 + 32X

mientras que el minimo es:

mf (X) = 8X 2X 2 + X 3

de esta forma comprobamos que los autovalores son:

(f ) = {0, 2, 4, 4}

asi los subespacios caracteristicos son:

1. V0 = ker(A)

2 0 0 2 x 2x 2t = 0


0 1 3 0 y y 3z = 0

= 0 =
0 3 1 0 z 3y +z =0

2 0 0 2 t 2x + 2t = 0

cuya solucion es: {y = 0, z = 0, x = x, t = x} , asi una base es:

BV0 = {(1, 0, 0, 1)}

2. V4 = ker(A 4I)

2 0 0 2 x
2x 2t = 0
0 3 3 0 y
3y 3z = 0
= 0 =
0 3 3 0 z 3y 3z = 0

2 0 0 2 t 2x 2t = 0

cuya solucion es : {x = t, y = z} , asi una base del subespacio es:

BV4 = {(1, 0, 0, 1) , (0, 1, 1, 0)}

3. V2 = ker(A + 2I)

4 0 0 2 x 4x 2t = 0


0 3 3 0 y 3y 3z = 0

= 0 =
0 3 3 0 z 3y + 3z = 0

2 0 0 4 t 2x + 4t = 0

cuya solucion es : {y = z, t = 0, x = 0, z = z} , asi una base es:

BV2 = {(0, 1, 1, 0)}


Ejemplos. 107

De esta forma la base busca es:


 
1 1 1 1
B = (1, 0, 0, 1) , (1, 0, 0, 1) , (0, 1, 1, 0) , (0, 1, 1, 0)
2 2 2 2

Si v es un vector y {pi }3i=1 son las proyecciones ortogonales sobre cada uno
de los subespacios (V0 , V4 , V2 ):

p1 = hv | a1 i a1
p2 = hv | a2 i a2 + hv | a3 i a3
p3 = hv | a4 i a4

entonces
1 1
p1 = hv | a1 i a1 = h(x, y, z, t) | (1, 0, 0, 1)i (1, 0, 0, 1) = (x + t, 0, 0, x + t)
2 2
1
p2 = hv | a2 i a2 + hv | a3 i a3 = (x t, y z, z y, t x)
2
1
p3 = hv | a4 i a4 = (0, y + z, z + y, 0)
2

como queriamos ver.

Ejemplo 6.6.8 Sea A la expresion matricial de un endomorfismo en C.



1+i 0 1+i
A= 0 2i 0
1 i 0 1 + i

Comprobar que es normal, calcular una base de autovectores y calcular la descom-


posicion espectral.
t
Solucion. Decimos que A es normal sii AA = A A donde A = A .
En este caso:

1+i 0 1+i 1 i 0 1 + i 4 0 0
0 2i 0 0 2i 0 = 0 4 0
1 i 0 1 + i 1i 0 1i 0 0 4

1 i 0 1 + i 1+i 0 1+i 4 0 0
0 2i 0 0 2i 0 = 0 4 0
1i 0 1i 1 i 0 1 + i 0 0 4
AA = A A

La base de autoves esta formada por:

p(X) = X 3 4iX 2 2X 2 + 8iX 4X + 8


mf (X) = 4i + (2 2i) X + X 2
(f ) = {2, 2i, 2i}

Los subespacios caracteristicos son:


108 Espacios vectoriales eucldeos.

1. V2i = {ix z = 0} , entonces una base de este espacio esta formada por (ya
normalizada):  
1
BV2i = (1, 0, i) , (0, 1, 0)
2
2. V2 = {ix + z = 0, y = 0} , entonces una base de este espacio esta formada por:
 
1
BV2 = (1, 0, i)
2

De esta forma:

p1 = hv | a1 i a1 + hv | a2 i a2
p3 = hv | a3 i a3

entonces
1
p1 = hv | a1 i a1 + hv | a2 i a2 = (x iz, y, ix + z)
2
1
p3 = hv | a3 i a3 = (x + iz, 0, ix + z)
2

Ejemplo 6.6.9 En R4 con el producto escalar ordinario calcular las coordenadas del
vector proyeccion ortogonal de u = (1, 3, 1, 0) sobre el subespacio L
 
x 2y + t = 0
L= (x, y, z, t) R4
y + z 2t = 0

asi como la distancia de u al subespacio L.

Solucion.
las ecuaciones de L son:


x = 2
y=

L=

z = + 2
t=

u=x+z / x = proyL (u) y d(u, L) = kzk


BL = {(2, 1, 1, 0) , (1, 0, 2, 1)}


x=
y = 2 + 2x + y z = 0


L =

z = x + 2z + t = 0
t = 2

BL = {(1, 2, 0, 1) , (0, 1, 1, 2)}






BV = (2, 1, 1, 0) , (1, 0, 2, 1), (1, 2, 0, 1) , (0, 1, 1, 2)
|
{z } | {z }

BL B L
Ejemplos. 109

2 1 1 0 x 1
1
0 2 1 y
3
=
1 2 0 1 z 1
0 1 1 2 t 0


2x y + z = 1 x = 6/5
x 2z + t = 3 y = 3/10


x + 2y + t = 1
z = 11/10
y + z 2t = 0 t = 2/5

entonces:
 
6 3 21 6 3 3
proyL (u) = x = (2, 1, 1, 0) + (1, 0, 2, 1) = , , ,
5 10 10 5 5 10
 
11 2 11 9 2 3
z = (1, 2, 0, 1) (0, 1, 1, 2) = , , ,
10 5 10 5 5 10
1
d(u, L) = kzk = 470
10

También podría gustarte