Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Alg Lin Itig Ap PDF
Alg Lin Itig Ap PDF
DE INGENIERIA INFORMATICA
Apuntes de
ALGEBRA LINEAL
para la titulaci
on de
INGENIERIA TECNICA
EN INFORMATICA
DE GESTION
Portada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Contenido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1 Matrices y determinantes 7
1.1 Notacion y definiciones . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Aritmetica de matrices . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Transformaciones elementales. . . . . . . . . . . . . . . . . . . 13
1.3.1 Transformaciones elementales fila. . . . . . . . . . . . . 14
1.3.2 Transformaciones elementales columna. . . . . . . . . . 15
1.4 Algoritmo de Gauss-Jordan. . . . . . . . . . . . . . . . . . . . 17
1.5 Determinante de una matriz cuadrada. . . . . . . . . . . . . . 22
1.5.1 Propiedades de los determinantes . . . . . . . . . . . . 23
1.6 Factorizacion triangular. . . . . . . . . . . . . . . . . . . . . . 25
1.7 Inversa de una matriz cuadrada . . . . . . . . . . . . . . . . . 27
1.7.1 Calculo de la matriz inversa. . . . . . . . . . . . . . . . 28
1.8 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 29
1.9 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 32
3
4 Contenido
4 Ortogonalidad. 145
4.1 Formas bilineales. . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.2 Producto escalar. . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.3 Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
4.4 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 157
4.5 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 164
Contenido 5
Bibliografa 203
1. Matrices y determinantes
1.1 Notaci
on y definiciones
Definici
on 1.1 [Matriz]
Definici
on 1.2 [Orden de una matriz]
aij = bij i = 1, 2, . . . , m y j = 1, 2, . . . , n
7
8 Matrices y determinantes
Definici
on 1.3 [Matrices fila y columna]
A = (a1 a2 an ) R1n
Definici
on 1.4 [Matriz cuadrada]
Definici
on 1.5 [Matrices diagonales, escalares y unidad]
Definici
on 1.6 [Matrices triangulares y escalonadas]
0 0 0 0
1.2 Aritm
etica de matrices
Suma de matrices
Propiedades
Asociativa:
A, B, C Rmn = (A + B) + C = A + (B + C).
Conmutativa: A, B Rmn = A + B = B + A.
Elemento neutro: Existe la matriz 0 Rmn denominada matriz
nula y cuyos elementos son todos nulos, tal que
A Rmn = A + 0 = 0 + A = A.
A + (A) = A + A = 0
Propiedades
R y A, B Rmn = (A + B) = A + B.
Producto de matrices
Propiedades:
Asociativa:
Distributiva:
n
Trasposicio
a0ij = aji 1 i m 1 j n
Propiedades
(AT )T = A.
Xn n
X
(A + B)T = AT + B T o generalizando, ( Ai )T = ATi .
i=1 i=1
n
Y 1
Y
(AB)T = B T AT o generalizando, ( Ai )T = ATi .
i=1 i=n
Definici
on 1.7 [Matriz sime
trica]
A simetrica A = AT
Transformaciones elementales. 13
Definici
on 1.8 [Matriz antisime
trica]
Definici
on 1.9 [Matriz ortogonal]
Definici
on 1.10 [Traza de una matriz]
tr (A + B) = tr A + tr B.
tr (A) = tr A.
Transformaciones Fij
1 0 2 3
a a
Para intercambiar
las filas 2 y 3 aplicamos F23 cuya matriz es
1 0 0
F23 = 0 0 1 (en I3 se han permutado las filas segunda y tercera).
0 1 0
1 0 0 2 1 3 4 2 1 3 4
F23 A = 0 0 1 4 2 1 5 = 1 0 2 3
0 1 0 1 0 2 3 4 2 1 5
Transformaciones Fi ()
0 0 1
Transformaciones elementales. 15
0 0 1 1 0 2 3 1 0 2 3
pudiendose ver que ha quedado multiplicada por 3 la segunda fila de la
matriz A.
Transformaciones Fij ()
0 0 1
de la matriz I3 ).
1 0 0 2 1 3 4 2 1 3 4
F21 (2)A = 2 1 0 4 2 1 5 = 0 0 5 3
0 0 1 1 0 2 3 1 0 2 3
observandose que se ha producido en la matriz A el efecto deseado.
Transformaciones Cij
Transformaciones Ci ()
Transformaciones Cij ()
Demostraci
on. Probaremos el teorema de forma constructiva.
Procedemos despues con a22 (el elemento a22 resultante de las transfor-
maciones anteriores) al igual que procedimos con a11 anteriormente, es
decir, si a22 6= 0 lo utilizamos para hacer ceros por debajo de el en la
segunda columna. Si fuese a22 = 0 vemos si existe por debajo de el algun
elemento ai2 6= 0 y, en caso de haberlo, realizamos la transformacion F2i ,
etc.
0 0 5 3
que es una matriz escalonada. Dado que
1
F23 F31 ( )F21 (2)A = U = F A = U
2
con
1 0 0 1 0 0 1 0 0
1
F = F23 F31 ( )F21 (2) = 0 0 1 0 1 0 2 1 0
2
0 1 0 1/2 0 1 0 0 1
1 0 0
F = 1/2 0 1
2 1 0
Algoritmo de Gauss-Jordan. 19
Definici
on 1.11 [Matriz escalonada cano
nica]
Se denomina matriz escalonada can onica a una matriz escalonada con la pro-
piedad de que el primer elemento no nulo de una fila es un uno y ademas, es
el u
nico elemento no nulo de su columna.
Teorema 1.2 Toda matriz puede ser reducida mediante transformaciones ele-
mentales fila a una escalonada can
onica.
Demostraci on. Basta con observar que una vez obtenida la matriz U , si en
una fila hay alg
un elemento no nulo, la dividimos por el primer elemento no
nulo de ella mediante Fi () y lo utilizamos para hacer ceros todos los de su
columna (que se encontraran por encima de el).
0 0 5 3 0 0 5 3
1 1/2 3/2 2 1 0 2 3 1 0 2 3
F12 ( 12 ) F3 ( 15 )
0 1 1 2 0 1 1 2 0 1 1 2
0 0 5 3 0 0 5 3 0 0 1 3/5
1 0 0 9/5 1 0 0 9/5
F13 (2) F23 (1)
0 1 1 2 0 1 0 7/5
0 0 1 3/5 0 0 1 3/5
Los elementos que utilizamos para anular a los demas elementos de una co-
lumna se denominan pivotes. Si en un determinado paso del proceso de pasar
de A a U alguna columna es de ceros, diremos que el correspondiente pivote
es nulo.
Ejemplo 1.9 Si nos fijamos en la matriz del Ejemplo 1.7 que transformamos,
mediante transformaciones elementales fila (ver Ejercicio 1.8) en la escalonada
canonica
1 0 0 9/5
0 1 0 7/5
0 0 1 3/5
0 0 1 0
Teorema 1.4 Una condicion necesaria y suficiente para que una matriz cua-
drada posea inversa es que su forma escalonada can
onica sea la matriz unidad.
Algoritmo de Gauss-Jordan
Este teorema nos permite calcular la matriz inversa, de una matriz dada,
mediante transformaciones elementales (filas o columnas, pero no ambas si-
multaneamente).
1 2 0
1 0 0 1 3 0 1 0 0 1 3 0
F31 (1) F12 (3)
(I3 | A) = 0 1 0 0 1 1 0 1 0 0 1 1
0 0 1 1 2 0 1 0 1 0 1 0
Algoritmo de Gauss-Jordan. 21
A R mn
i := 1, j := 1
i > m ? SI
j := j + 1
j > n ? STOP
NO
NO
asi 0, SI
s > i?
aij = 0?
SI NO
A:= Eis A k := i + 1
aki
SI NO A := E ki ( )A
i := i + 1 k > m ? aii
k := k + 1
1 3 0 1 0 3 1 3 0 1 0 3
F32 (1) F13 (3)
0 1 0 0 1 1 0 1 0 0 1 1
1 0 1 0 1 0 1 1 1 0 0 1
2 0 3 1 0 0 2 0 3 1 0 0
F23 (1)
0 1 0 0 1 1 1 0 1 0 1 0 =
1 1 1 0 0 1 1 1 1 0 0 1
2 0 3
A1 = 1 0 1
1 1 1
ya que:
F23 (1)F13 (3)F32 (1)F12 (3)F31 (1)(A) = I3 =
2 0 3
[F23 (1)F13 (3)F32 (1)F12 (3)F31 (1)]A = I3 = 1 0 1 A = I3
1 1 1
2 0 3
A1 = 1 0 1
1 1 1
22 Matrices y determinantes
Definici
on 1.12 [Submatrices y menores de una matriz]
Definici
on 1.13 [Menor complementario y Adjunto de aij ]
det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31 a12 a21 a33 a11 a23 a32
Regla de Sarrus
1.6 Factorizaci
on triangular.
El Teorema 1.1 nos garantizaba la existencia de una matriz F tal que F A = U
siendo U una matriz triangular superior.
Ampliaremos ahora ese resultado mediante el siguiente teorema.
2 1 3
Ejemplo 1.13 Considerese la matriz A = 4 2 5
6 5 4
2 1 3 2 1 3 2 1 3
F21 (2) F31 (3) F23 0
A 0 0 1 0 0 1 0 2 5 = U
6 5 4 0 2 5 0 0 1
F = F23 F31 (3)F21 (2) = F21 (3)F23 F21 (2) = F21 (3)F32 (2)F23
1 0 0
F = L1 P con L1 = F21 (3)F31 (2) = 3 1 0 =
2 0 1
1 0 0 1 0 0
L = 3 1 0 y P = F23 = 0 0 1
2 0 1 0 1 0
1 3
2 0 0 1 2 2
0
A su vez U = 0 2 0 0 1 52 = DU .
0 0 1 0 0 1
Es decir: P A = LDU .
Demostraci
on.
1
Si A posee inversa A1 se verifica que det A1 = .
det A
A1 A = I det(A1 A) = det I =
1
det A1 det A = 1 = det A1 =
det A
1.7.1 C
alculo de la matriz inversa.
Proposici on 1.9 La suma de los productos de los elementos de una lnea por
los adjuntos de una paralela es cero.
n
X
akj Aij = 0 si k 6= i
j=1
A Adj AT = det A I.
Un total de n3 n2 operaciones.
El proceso es O(n3 )
0 0 1
n:
Solucio
0 1 1 0 1 1 0 1 2
A2 = 0 1 1 0 1 1 = 0 1 2
0 0 1 0 0 1 0 0 1
30 Matrices y determinantes
0 1 1 0 1 2 0 1 3
A3 = AA2 = 0 1 1 0 1 2 = 0 1 3
0 0 1 0 0 1 0 0 1
Probemos por induccion en n que
0 1 n
An = 0 1 n
0 0 1
Para n = 1 se verifica.
0 1 n
Si An = 0 1 n =
0 0 1
0 1 1 0 1 n
An+1 = AAn = 0 1 1 0 1 n =
0 0 1 0 0 1
0 1 n+1
= 0 1 (n + 1)
0 0 1
por lo que
0 1 n
An = 0 1 n n Z+
0 0 1
1
1
1
Ejercicio 1.2 Dada la matriz A = In .. 1 1 1 , probar
n
.
1
que:
a) Es simetrica.
b) A2 = A.
c) tr A = n 1.
T
n: Denotemos por un =
Solucio 1 1 1
Ejercicios resueltos 31
1
a) A = In un uTn
n
1 1 1
AT = (In un uTn )T = InT (un uTn )T = In un uTn = A
n n n
por lo que A es simetrica.
b)
1 1 2 1
A2 = (In un uTn )(In un uTn ) = In2 un uTn + 2 un uTn un uTn =
n n n n
2 1 2 1
= In un uTn + 2 un n uTn = In un uTn + un uTn =
n n n n
1
= In un uTn = A = A2 = A
n
1 1
c) tr A = tr In tr (un uTn ) = n n = n 1.
n n
Solucio n: Cuando al escalonar la matriz hacemos ceros por debajo del ele-
mento a11 todos los elementos de la matriz ai j con i, j 2 solo pueden resultar
0, 2 o 2, por lo que al desarrollar por la primera columna nos queda un de-
terminante con todos sus elementos pares y, por tanto, el determinante es
par.
Puede verse en el siguiente ejemplo
1 1 1 1 1 1
0 2
1 1 1 = 0 0 2 =
2 2
1 1 1 0 2 2
a2 a1 a3 a1 an a1
a2 (a2 a1 ) a3 (a3 a1 ) an (an a1 )
= .. .. ... .. =
. . .
n2 n2 n2
a2 (a2 a1 ) a3 (a3 a1 ) an (an a1 )
1 1 1
a2 a3 an
= (a2 a1 )(a3 a1 ) (an a1 ) .. .. .. ..
. . . .
n2 n2
n2
a2 a3 an
que es otro Vandermonde de un orden inferior en el que falta a1 , por lo que
resultara el producto de (a3 a2 ) (an a2 ) por un nuevo Vandermonde de
otro orden inferior en el que falte ahoraY a2 y as sucesivamente, por lo que el
determinante buscado resulta ser (aj ai )
1i<jn
Sol : Es conmutativo.
Ejercicio 1.6 Hallar todas las matrices cuadradas de orden 2 cuyo cuadrado
sea nulo.
Ejercicios propuestos 33
!
ac a2
Sol : .
c2 ac
Sol : V,V,V,F.
Ejercicio 1.9 Demostrar que una matriz cuadrada de orden n puede des-
componerse de forma u nica como suma de una matriz simetrica y otra anti-
simetrica. Realizar la descomposicion de la matriz
2 7 0
A= 5 4 1
2 5 5
2 6 1 0 1 1
Sol : A = 6 4 2 + 1 0 3 .
1 2 5 1 3 0
a) A2 es simetrica.
34 Matrices y determinantes
Sol : 2, x3 3x + 2, x3 + 3x2 .
Sol : 276 y 4.
Ejercicio 1.16 Sabiendo que los n umeros 23715, 23529, 21359, 19437 y 17453
son m
ultiplos de 31, probar que el determinante de la matriz
2 3 7 1 5
2 3 5 2 9
A= 2 1 3 5 9
1 9 4 3 7
1 7 4 5 3
es divisible por 31, sin calcular el determinante.
Ejercicios propuestos 35
Ejercicio 1.17 Hallar los posibles valores del determinante de una matriz A
en cada uno de los casos siguientes:
a) A es idempotente, es decir A2 = A.
Sol : a) 1, b) 1 y c) 0.
Sol : n! y (n 1)!.
Sol : x3 (x + 4) = 0 = 0, 0, 0, 4.
Sol : n + 1 y 2n 1.
36 Matrices y determinantes
Uno de los problemas fundamentales del Algebra Lineal es la resolucion si-
multanea de ecuaciones lineales, siendo el caso mas simple aquel en el que el
n
umero de incognitas coincide con el n
umero de ecuaciones.
Desde los textos de secundaria se proponen dos metodos para resolver tales
sistemas de ecuaciones lineales: eliminaci
on y determinantes.
El primer metodo, eliminacion, consiste en sustraer m ultiplos de la primera
ecuacion de las restantes, de tal manera que sea posible eliminar una misma
incognita en el resto de las ecuaciones, con lo que se obtiene un sistema con una
ecuacion y una incognita menos. El proceso se repite una y otra vez hasta que
solo queda una ecuacion con una incognita, que se resuelve inmediatamente.
No es difcil recorrer los pasos seguidos en sentido contrario y calcular el resto
de las incognitas. El procedimiento permite ademas detectar aquellos casos en
que no existe solucion o, por el contrario, existe infinidad de ellas.
El segundo metodo, determinantes, mas complicado, introduce la idea de los
determinantes y mediante la regla de Cramer se obtienen las soluciones como
cocientes de dos determinantes. Su estudio no sera abordado en esta asigna-
tura. El coste de calculo de dicho metodo lo hace viable para tama
no n = 2 o 3,
pero cuando se trata de resolver sistemas con un n umero grande de incognitas,
se utiliza el metodo de eliminacion, de coste bastante inferior.
Esta primera parte corresponde al Algebra Clasica que se ocupa, fundamen-
talmente, de la resolucion de ecuaciones y sistemas de ecuaciones. La segunda
parte corresponde al Algebra Moderna, que estudia las llamadas estructuras
algebraicas. Estas se pueden interpretar como sistemas de elementos entre los
que se definen operaciones similares a las que podemos realizar con n umeros.
El estudio abstracto de tales estructuras permite su aplicacion casi inmediata
37
38 Sistemas de ecuaciones lineales. Espacios vectoriales.
2.1 Notaci
on y definiciones
Se denomina sistema de m-ecuaciones lineales con n-inc ognitas a un
sistema de ecuaciones de la forma:
a11 x1 + a12 x2 + + a1n xn = b1
a21 x1 + a22 x2 + + a2n xn = b2
S ..
.
a x + a x + + a x = b
m1 1 m2 2 mn n m
Los sistemas lineales admiten una sencilla representacion matricial. As, po-
demos denotar Ax = b siendo:
a11 a12 a1n x1 b1
a21 a22 a2n x2 b2
A= .. .. ... .. x= .. y b= ..
. . . . .
am1 am2 amn xn bm
2.2 M
etodo de eliminaci
on gaussiana
Este metodo de resolucion de sistemas de ecuaciones admite una facil progra-
macion, lo que permite resolver un sistema con la ayuda del ordenador.
La idea del metodo consiste en aplicar a la matriz ampliada del sistema trans-
formaciones elementales sobre las filas (no pueden realizarse transformaciones
columna) obteniendo, de esta forma, sistemas equivalentes al dado pero cada
vez mas manejables. Mediante transformaciones, se consigue obtener un sis-
tema equivalente al dado que tiene por matriz de los coeficientes una matriz
escalonada. La notacion quedara simplificada empleando matrices ampliadas
para representar en todo momento a los sistemas lineales equivalentes que
resultan tras las transformaciones.
Vamos a iniciar el metodo con un ejemplo de orden tres.
2 2 1 7
2 2 1 7 0 3 2 8
0 3 2 8 0 0 4 4
2x + y + z =
1
00
S y 2z = 4
4z = 4
y 2 = 4 = y = 2
Por u
ltimo, sustituyendo ambos resultados en la primera ecuacion, se obtiene
2x + 2 + 1 = 1 = x = 1
Este proceso para obtener los valores de las incognitas, se conoce con el nombre
de sustitucion regresiva.
c) La u
ltima columna contiene solo a la u
ltima de las incognitas.
1 1 0 1 1 1 0 1 0 0 1 0
Metodo de eliminacion gaussiana 43
1 1 1 1
F32 (1)
0 0 1 0
0 0 0 0
La presencia de la ultima fila de ceros indica que existan dos ecuaciones pro-
porcionales en el u
ltimo paso (la segunda y tercera ecuaciones son identicas)
por lo que puede ser eliminada del sistema equivalente:
(
x + y + z = 1
z = 0
2 3 2 1 2 3 2 1
1 2 2 3 1 2 2 3
F32 (1)
0 1 2 8 0 1 2 8
0 1 2 5 0 0 0 3
44 Sistemas de ecuaciones lineales. Espacios vectoriales.
Determinado si el n
umero de pivotes coincide con el de variables.
Indeterminado si el n
umero de pivotes es menor que el de variables.
En el primer paso hay que realizar una operacion por cada termino de la
primera ecuacion para cada una de las n 1 ecuaciones que hay debajo:
n(n 1) = n2 n operaciones.
3 1 0 2 3 1 0 2
2 1 1 1 2 1 1 1
F32 ( 53 )
3/2 3/2
0 3/2 0 3/2 3/2 3/2
0 0 4 6 0 0 2 3
Los pivotes se encuentran sobre las tres primeras columnas por lo que to-
maremos como variables dependientes x, y, z, resultando t la u
nica variable
independiente.
El sistema homogeneo es compatible; presenta infinitas soluciones que podemos
expresar, parametricamente, como
1 1 3
x= y= z= t=
2 2 2
0 0 24 36
Aunque no se sigue el metodo de Gauss-Jordan en sentido estricto, los sistemas
resultantes tambien son equivalentes. En nuestro ejemplo, las dos u
ltimas filas
son proporcionales a las obtenidas anteriormente.
x 1 a1 + x 2 a2 + + x n an = b (2.5)
Suma de vectores.
x, y Rn = x + y Rn
Asociativa:
x, y, z Rn = (x + y) + z = x + (y + z)
Elemento neutro:
0 Rn tal que 0 + x = x + 0 x Rn
Elemento opuesto:
Conmutativa:
x, y, z Rn = x + y = y + x
R y x Rn = x Rn
, R y x Rn = (x) = ()x
Espacios Vectoriales 49
Distributivas:
(x + y) = x + y
, R y x, y Rn =
( + )x = x + x
Elemento unidad:
x Rn = 1 x = x
Definici
on 2.1 Espacio vectorial
(
(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
Sin embargo, si en R2 consideramos:
(x, y) = (x, 0)
0 = 0 R.
x = (x + 0) = x + 0 = 0 = 0
0x = 0 x V .
x = (0 + )x = 0x + x = 0x = 0
x = 0 = = 0 o x = 0.
1 x = 1 0 = 1x = 0 = x = 0
Espacios Vectoriales 51
x = y y 6= 0 = x = y.
x = y y 6= 0 = x + (y) = 0 =
1 x + 1 (y) = 0 = x + (y) = 0 = x = y
x = x y x 6= 0 = = .
x = x y x 6= 0 = x x = 0 =
( )x = 0 = = 0 = =
()x = (x) = x.
()x = (0 )x = 0x x = 0 x = x.
(x) = (0 x) = 0 x = 0 x = x.
Definici
on 2.2 [Combinacio
n lineal de vectores]
Definici
on 2.3 [Sistemas ligados y sistemas libres]
1 x1 + 2 x2 + + k xk = 0
1 i1 i+1 k
xi = x1 xi1 xi+1 xk =
i i i i
1 x1 + + r xr = 0 con alg
un i 6= 0 =
1 x1 + + r xr + 0xr+1 + + 0xk = 0 con i 6= 0.
on lineal de los vectores {x1 , x2 , . . . , xm }
d) Si un vector x es una combinaci
y cada uno de estos depende linealmente de {y1 , y2 , . . . , yk } entonces,
x depende linealmente de {y1 , y2 , . . . , yk }
m
X m
X k
X k X
X m k
X
x= i x i = i ij yj = ( i ij )yj = j yj
i=1 i=1 j=1 j=1 i=1 j=1
Definici
on 2.6 [Base de un espacio vectorial]
Teorema 2.2 Todo espacio vectorial V finito y no nulo posee, al menos, una
base.
u1 = 11 v1 + + 1p vp
..
.
un = n1 v1 + + np vp
n
X
Entonces, como i ui = 0 i = 0 i = 1, 2, . . . , n por ser B un
i=1
sistema libre se tiene que
1 (11 v1 + + 1p vp ) + + n (n1 v1 + + np vp ) = 0
Definici
on 2.7 [Dimensio
n de un espacio vectorial]
Definici
on 2.8 [Coordenadas de un vector]
n
X n
X n
X
Entonces, xx = xi ui y i ui = (xi yi )ui = 0 y al ser {ui }i=1, 2,..., n
i=1 i=1 i=1
un sistema libre, xi yi = 0 i, por lo que xi = yi i = 1, 2, . . . , n.
Es decir, las coordenadas de un vector respecto de una base son u
nicas.
58 Sistemas de ecuaciones lineales. Espacios vectoriales.
Definici
on 2.9 [Base cano
nica]
De entre todas las bases del espacio vectorial (Rn , +, ) hay una que recibe el
nombre especial de base canonica y suele denotarse por
e1 = (1, 0, 0, . . . , 0)
e2 = (0, 1, 0, . . . , 0)
C = {e1 , e2 , . . . , en } siendo ..
.
e = (0, 0, 0, . . . , 1)
n
x1 e1 + x2 e2 + . . . + xn en
n
X
Es un sistema libre de vectores pues de xi ei = 0 (vector nulo) se
i=1
deduce que
(x1 , x2 , . . . , xn ) = (0, 0, . . . , 0) x1 = 0, x2 = 0, . . . , xn = 0
Dado que B es una base y por tanto un sistema libre, la expresion anterior es
equivalente al sistema
1 x11 + 2 x21 + . . . + m xm1 = 0
1 x12
+ 2 x22 + . . . + m xm2 = 0
.. .. .. ..
. . . .
x
1 1n + 2 x2n + . . . + m xmn = 0
que podemos expresar de la forma
x11 x21 xm1 0
x12 x22 xm2 0
.. + 2 .. + + m ..
1 = ..
. . . .
x1n x2n xmn 0
As pues, los vectores {x1 , x2 , . . . , xn } son linealmente independientes si, y solo
si, lo son los vectores de Rn :
{(x11 , x12 , . . . , x1n ), (x21 , x22 , . . . , x2n ), . . . , (xm1 , xm2 , . . . , xmn )}
Definici
on 2.10 Llamamos rango de un conjunto de vectores al mayor n
u-
mero de ellos linealmente independientes.
Demostraci
on. Para transformaciones elementales columna tenemos:
Definici
on 2.11 [Rango fila y rango columna de una matriz]
rgf A = rgc A
Demostraci
on.
Podemos entonces hablar de rango de una matriz sin especificar si se trata del
rango fila o del rango columna y lo representaremos por rg A.
Por otra parte ha quedado demostrado que el rango de una matriz coincide
con el n
umero de pivotes en cualquier forma escalonada obtenida a partir de
dicha matriz.
rg A = rg AT
62 Sistemas de ecuaciones lineales. Espacios vectoriales.
Demostraci
on.
rg AT = rgf AT = rgc A = rg A
Proposici
on 2.10
x, y L = x + y L
L subespacio vectorial de V
x L y K = x L
Demostraci
on.
x, y L = x + y L
x L y K = x L
Ejemplo 2.5
b) L = {x = (, ) : R} es subespacio vectorial de R2 .
c) L = {x = (, 3) : R} es subespacio vectorial de R2 .
64 Sistemas de ecuaciones lineales. Espacios vectoriales.
Definici
on 2.13 [Variedad lineal engendrada por un conjunto de
vectores]
de donde
k p k p
X X X X
x + y = i xi + j yj = (i )xi + (j )yj ,
i=1 j=1 i=1 j=1
Propiedades
Sea V Rn un espacio vectorial y sean H, H 0 V . Se cumplen:
H L (H ).
H H 0 = L (H ) L (H 0 ).
k
X
x L (H) = x = i xi con xi H H 0 =
i=1
k
X
x= i xi con xi H 0 = x L (H 0 ) = L (H) L (H 0 )
i=1
Variedades lineales 65
L (L (H )) = L (H ).
p
X
xi L (H) = xi = ij xj con xj H
j=1
k p p k p
X X X X X
x= i ij xj = ( i ij )xj = j xj con xj H
i=1 j=1 j=1 i=1 j=1
L (L (H)) = L (H).
Supongamos x L1 e y L2 (y 6 L1 , x 6 L2 ). Entonces, x + y 6 L1 y
x + y 6 L2 por lo que x + y 6 L1 L2 y por tanto, L1 L2 no es una variedad
lineal.
Suma
L = L1 + L2 = {x1 + x2 : x1 L1 y x2 L2 }
Propiedades
x, y L = z = x + y L = L1 + L2 L
Recprocamente si L1 + L2 L
x L1 = x = x + 0 con x L1 0 L2 = L1 L1 + L2 L
y L2 = y = 0 + y con 0 L1 y L2 = L2 L1 + L2 L
L1 + L2 es la variedad lineal m
as peque
na que contiene a las variedades
L 1 y L2 .
Sea L = L1 + L2 y sea L0 una variedad lineal de V tal que L1 , L2 L0 .
Veamos entonces que L L0 .
x L = x = x1 + x2 con x1 L1 , x2 L2 = x1 L0 , x2 L0
y por ser L0 una variedad lineal x1 + x2 L0 = x L0 = L L0 .
Suma directa
Como x1 y1 L1 y x2 y2 L2 , x1 y1 = x2 y2 L1 L2 = {0}
x1 y1 = x2 y2 = 0 x1 = y1 , x2 = y2
y por tanto, la descomposicion es u
nica.
68 Sistemas de ecuaciones lineales. Espacios vectoriales.
Recprocamente si la descomposicion es u
nica, como
(
x = x + 0 con x L1 0 L2
x L 1 L2 x = x + 0 = 0 + x
x = 0 + x con 0 L1 x L2
Definici
on 2.14 [Ecuaciones parame
tricas de una variedad lineal]
r
X n
X
x L = x = i u i x L V = x = xj vj
i=1 j=1
Definici
on 2.15 [Ecuaciones implcitas de una variedad]
de donde
x1 = 1 + 3
x2 = 21 2
x3 = 1 + 2 3 Ecuaciones parametricas de L.
x4 = 2
x5 = 3
70 Sistemas de ecuaciones lineales. Espacios vectoriales.
7x1 + 3x2 + x3 + 2x4 = 0
0 4 3x1 + x2 + x3
0
1 0 1 1 x1
0 1 2 1 x2 2x1
0 0 4 0 3x1 + x2 + x3
0 0 2 0 2x1 + x2 + x4 2F4 + F3
0 0 1 0 x5 4F5 + F3
1 0 1 1 x1
0 1 2 1 x2 2x1
0 0 4 0 3x1 + x2 + x3
0 0 0 0 7x1 + 3x2 + x3 + 2x4
0 0 0 0 3x1 + x2 + x3 + 4x5
Como puede observarse se han obtenido las mismas ecuaciones implcitas para
L. Por otra parte, puesto que los pivotes del escalonamiento se encuentran
en las tres primeras columnas de la matriz, una base de L esta formada por
los tres primeros vectores del sistema generador inicial. Esto nos llevara a
construir las mismas ecuaciones parametricas que en la resolucion anterior.
n
Ecuaciones del subespacio interseccio
b11 x1 + b12 x2 + . . . b1n xn = 0
b21 x1 + b22 x2 + . . . b2n xn = 0
L2 : .. .. .. ..
. . . .
b x + b x + ... b x = 0
s1 1 s2 2 sn n
L1 = < (1, 1, 0, 1), (0, 1, 1, 0) > y L2 = < (1, 0, 0, 0), (0, 1, 0, 1) >
(
x1 x2 + x3 = 0
Las ecuaciones implcitas de L1 son
x1 x4 = 0
Como los pivotes se encuentran sobre las dos primeras columnas, los dos vec-
tores del sistema generador de L1 son linealmente independientes y por tanto
constituyen una base de L1 . A partir de esta base obtenemos las ecuaciones
parametricas
x 1 = 1
x = +
2 1 2
Las ecuaciones parametricas de L1 son
x 3 = 2
x 4 = 1
Como los pivotes se encuentran sobre las dos primeras columnas, los dos vec-
tores del sistema generador de L2 son linealmente independientes y por tanto
constituyen una base de L2 . A partir de esta base obtenemos las ecuaciones
parametricas
x 1 = 1
x =
2 2
Las ecuaciones parametricas de L2 son
x3 = 0
x 4 = 2
1 1 1 0 1 1 1 0
0 1 1
1 0 1
1 1
0 0 1 0
0 0 1 0
0 0 1 0
F43 (1) 0 0 0 0
x1 x2 + x3 = 0
Las ecuaciones implcitas de L1 L2 son x2 x3 x4 = 0
x3 = 0
1 0 1 0 x1 1 0 1 0 x1
0 1 1 1 x2 x1
0 1 1 1 x2 x1
0 0 1 1 x3 x2 + x1 0 0 1 1 x3 x2 + x1
0 0 1 1 x4 x1 F43 (1) 0 0 0 0 x4 + x3 x2
{u1 , u2 , . . . , uk }
Este proceso podra continuarse n k veces, por lo que podran encontrarse los
n k vectores indicados.
r
X
x H1 x = i ui
i=1
on. x H1 H2
Demostraci p
X
x H2 x =
j vj
j=1
r p
X X
0 = xx = i ui j vj y como {u1 , . . . , ur , v1 , . . . , vp } es un sistema
i=1 j=1
libre, 1 = = r = 1 = = p = 0 x = 0 H1 H2 = {0}.
B 2 = {u1 , u2 , . . . , ur , b1 , . . . , bmr }
b) B genera a H1 + H2 ya que
x H1 + H2 = x = u + v con u H1 v H2 =
u = 1 u1 + + r ur + r+1 a1 + + n anr
=
v = 1 u1 + + r ur + r+1 b1 + + m bmr
r
X nr
X mr
X
x= (i + i )ui + i ai + i bi =
i=1 i=r+1 i=r+1
n n n n
! n n
!
X X X X X X
x= i u i = j v j = j aij ui = aij j ui =
i=1 j=1 j=1 i=1 i=1 j=1
n
X
i = aij j i = 1, 2, . . . , n
j=1
o en forma matricial,
1 a11 a1n 1
.. .. . . . ..
. = . . .. . es decir xB = PB0 B xB0
n an1 ann n
PB0 B es una matriz regular ya que sus columnas son las coordenadas de
los vectores de una base y estos son linealmente independientes.
Cambio de bases 79
(PB0 B )1 = PBB0
B = {u1 , u2 , u3 , u4 } y B 0 = {v1 , v2 , v3 , v4 }
donde v1 = u1 2u2 + u3 , v2 = u1 u3 , v3 = u2 + u4 , v4 = u2 + u3 .
Dado que
v1 = u1 2u2 + u3 = v1 = (1, 2, 1, 0)B
v2 = u 1 u3 = v2 = (1, 0, 1, 0)B
v3 = u 2 + u4 = v3 = (0, 1, 0, 1)B
v4 = u 2 + u3 = v4 = (0, 1, 1, 0)B
y la ecuacion matricial del cambio de base xB = PB0 B xB0 viene dada por
x01
x1 1 1 0 0
x2 2 0 1 1 x02
=
x03
x3 1 1 0 1
x4 0 0 1 0 x04
x = (0, 0, 1, 1)B
Ejemplo 2.9
1 3 3 2 1 3 3 2 1 3 3 2
A= 2 6 9 5 0 0 3 1 0 0 3 1 = U
1 3 3 0 0 0 6 2 0 0 0 0
Ejemplo 2.10 El espacio fila de la matriz A del Ejemplo 2.9 tiene dimension
2 y una base viene dada por
Observese que el espacio fila de una matriz A coincide con el espacio columna
de AT .
Espacios fundamentales asociados a una matriz. 83
Cuando hemos definido los espacios fila y columna de una matriz A hemos
dicho que eran los espacios generados por las filas y las columnas de A respec-
tivamente, es decir, son espacios vectoriales por definicion.
No ocurre lo mismo cuando definimos el espacio nulo, ya de la definicion nos
lleva a preguntarnos
A(x + y) = Ax + Ay = 0 + 0 = 0
N (A) = N (U )
Ejemplo 2.11 Para hallar una base del espacio nulo de la matriz del Ejem-
84 Sistemas de ecuaciones lineales. Espacios vectoriales.
(
x1 + 3x2 + 3x3 + 2x4 = 0
Las ecuaciones implcitas de N (A) son
3x3 + x4 = 0
b) Si rg A = r = dim N (A) = n r.
Demostraci
on.
Observaciones
De b) se deduce que
n:
Solucio
a) Para que existan dicha matrices debe verificarse que
! ! !
1 2 b11 0
=
3 m b21 0
! ! !
1 2 b11 b12 0 0
= =
3 m b21 b22 0 0
! ! !
1 2 b12 0
=
3 m b22 0
Ejercicio 2.2 Se dice que una matriz M R33 es magica si las ocho sumas
siguientes son iguales:
3
X 3
X 3
X
aij (j = 1, 2, 3) aij (i = 1, 2, 3) aii a13 + a22 + a31
i=1 j=1 i=1
Ejercicios resueltos 87
Designando por s el valor de estas sumas y por M (s) a las matrices corres-
pondientes:
n:
Solucio
s/3 2s/3
s/3 2s/3
En el caso de las antisimetricas y dado que cualquier matriz antisimetrica
tiene nulos los elementos de su diagonal principal se tiene que
es decir solo existen matrices magicas antisimetricas del tipo M (0) que
seran de la forma
0
0
0
88 Sistemas de ecuaciones lineales. Espacios vectoriales.
0 1 2 1 2 1 3 0
1 1 0 1 2 1 0 2
B1 = B2 =
0 0 1 1 0 1 1 1
3 0 2 1 1 0 1 1
Ejercicio 2.6 Sea B = {u, v, w} una base del espacio vectorial V . Sean
u0 = 2u v + w, v 0 = u + w y w0 = 3u v + 3w.
n:
Solucio
1 1 3
0
los vectores de B respecto de la base B se tiene que
BxB = B 0 xB0 = xB0 = B 01 BxB
y teniendo en cuenta que B = I por tratarse de una base referida a ella
misma (base canonica) se tiene que
1 0 1
PBB0 = B 01 = 2 3 1
1 1 1
con
xB0 = PBB0 xB
1
2 2 1 3 2 2
1
zB =PBB0 3 = 1 0 1 3 = 1
1 1 1 3 1 4
92 Sistemas de ecuaciones lineales. Espacios vectoriales.
Se pide:
b) Dimension y base de L.
n:
Solucio
a) x L = x = (x1 , x2 , x3 , x4 ) = 1 u1 + 2 u2 + 3 u3 + 4 u4 =
1 2 3 2 1 x2
2 4 6 4 2 x2
=
1 0 1 4 3 x3
3 2 5 6 4 x4
Escalonando la matriz ampliada obtenemos
1 2 3 2 x1 1 2 3 2 x1
2 4 6 4 x2 0 0 0 0 x2 + 2x1
1 0 1 4 x3 0 2 2 6 x3 x1
3 2 5 6 x4 0 4 4 12 x4 3x1
1 2 3 2 x1
0 0 0 0 x2 + 2x1
0 2 2 6 x3 x1
0 0 0 0 (x4 3x1 ) 2(x3 x1 )
por lo que las ecuaciones implcitas de L son
( (
x2 + 2x1 = 0 2x1 + x2 = 0
=
(x4 3x1 ) 2(x3 x1 ) = 0 x1 + 2x3 x4 = 0
Ejercicios resueltos 93
dim L = dim R4 n
umero de ecuacioes implcitas = 4 2 = 2
Una base de L puede ser, por ejemplo, B L = {u1 , u2 } que son linealmente
independientes.
u1 = (1, 0)
u2 = (0, 1)
u3 = u1 + u2 = (1, 1)
u4 = 4u1 + 3u2 = (4, 3)
2 1 1 1 2 1 1 1 2 1 1 1
4 0 2 1 0 2 0 3 0 2 0 3
0 3 1 2 0 3 1 2 0 0 1 5/2
de donde
5 3
x5 = t x4 = t x2 = t x1 = t
2 2
o bien, haciendo t = 2, las ecuaciones parametricas de L son
x1 = 2 x2 = 3 x3 = x4 = 5 x5 = 2
94 Sistemas de ecuaciones lineales. Espacios vectoriales.
= 0, = 1 = (0, 0, 1, 0, 0)
= 1, = 0 = (2, 3, 0, 5, 2)
1 0 0 0 0
0 1 0 0 0
1 0
0 0 0 0 1 = = 5 6= 0
0 5
0 0 1 0 0
2 3 0 5 2
L0 =< e1 , e2 , e5 >
respecto de B, y
G =< v1 , v2 , v3 , v4 >
n:
Solucio
a) F
dim F = dim R5 n
umero de ecuaciones implcitas = 5 2 = 3
x1 = + 2 x2 = + x3 = 2 x4 = x5 = 2
= 1, = 0, = 0 = (1, 1, 2, 0, 0)
= 0, = 1, = 0 = ( 2, 1, 0, 1, 0)
= 0, = 0, = 1 = (1, 1, 0, 0, 2)
Una base de F viene dada por
b) G
Como nos dan un sistema generador de G vamos a ver que vectores son
linealmente independientes.
1 0 0 1 0 1 0 0 1 0
0 1 1 4 1 0 1 1 4 1
1 1 0 4 0 0 1 0 3 0
3 2 4 1 4 0 2 4 2 4
1 0 0 1 0 1 0 0 1 0
0 1 1 4 1 0 1 1 4 1
=
0 0 1 1 1 0 0 1 1 1
0 0 6 6 6 0 0 0 0 0
solo los tres primeros vectores son linealmente independientes, por lo que
una base de G es
B G = {v1 , v2 , v3 } y dim G = 3
96 Sistemas de ecuaciones lineales. Espacios vectoriales.
x1 = + x2 = + x3 = x4 = + 4 4 x5 =
c) F G
1 1 1 1 0 1 1 1 1 0
0 2 1 2 1 0 2 1 2 1
1 3 1 1 0 0 2 0 2 0
0 0 1 0 1 0 0 1 0 1
Ejercicios resueltos 97
1 1 1 1 0 1 1 1 1 0
0 2 1 2 1 0 2 1 2 1
=
0 0 1 0 1 0 0 1 0 1
0 0 1 0 1 0 0 0 0 0
solo las tres primeras son independientes, obteniendose que las ecuaciones
implcitas de F G son
x1 + x2 + x3 x4 =0
2x2 + x3 + 2x4 x5 = 0
x3 + x5 = 0
dim(F G) = dim R5 n
umero de ecuaciones implcitas = 5 3 = 2
Llamando x4 = y x5 = se obtiene que
x1 + x2 + x3 =
x1 = 2
2x2 + x3 = 2 + = x2 =
x3 = = x3 =
= 1, = 0 = ( 2, 1, 0, 1, 0)
= 0, = 1 = (1, 0, 1, 0, 1)
por lo que una base de F G es
B F G = {(2, 1, 0, 1, 0), (1, 0, 1, 0, 1)}
d) F + G
1 0 0 1 0 1 0 0 1 0
0 1 1 4 1 0 1 1 4 1
0 0 6 6 6 0 0 1 1 1
0 0 3 5 1 0 0 0 2 2
0 0 1 1 1 0 0 0 0 0
0 0 1 3 1 0 0 0 2 2
1 0 0 1 0
0 1 1 4 1
0 0 1 1 1
0 0 0 1 1
0 0 0 0 0
0 0 0 0 0
Es decir, una base de F + G es
y por tanto,
dim(F + G) = 4
Teniendo en cuenta que cualquier vector de F + G es combinacion lineal
de los vectores de la base, se tiene que las ecuaciones parametricas de
F + G son
x1 = x2 = x3 = + x4 = + 4 + x5 = +
1 0 0 0 x1 1 0 0 0 x1
0 1 0 0 x2 0 1 0 0 x2
0 1 1 0 x3 0 1 1 0 x3
1 4 1 1 x4 0 4 1 1 x4 + x1
0 1 0 1 x5 0 1 0 1 x5
1 0 0 0 x1
0 1 0 0 x2
0 0 1 0 x3 x2
0 0 1 1 x4 + x1 + 4x2
0 0 0 1 x5 x2
Ejercicios propuestos 99
1 0 0 0 x1
0 1 0 0 x2
0 0 1 0 x3 x2
0 0 0 1 x4 + x1 + 4x2 + x3 x2
0 0 0 1 x5 x2
1 0 0 0 x1
0 1 0 0 x2
0 0 1 0 x3 x2
0 0 0 1 x4 + x1 + 4x2 + x3 x2
0 0 0 0 x5 x2 (x4 + x1 + 4x2 + x3 x2 )
de donde x5 x2 (x4 + x1 + 4x2 + x3 x2 ) = 0, es decir, la ecuacion
implcita de F + G es
x1 + 4x2 + x3 + x4 x5 = 0
Sol :
Sol :
Si m 6= 5 Incompatible.
Ejercicios propuestos 101
Sol :
Si 6= 4 y 6= 6 3 2 Incompatible.
Sol : (x, y, z) = (1 , , ).
6 9 8 5
1 0 0 2 3 3 2
Sol : L = 0 1 0 U x = c 0 5 7 x = 2 de
3 0 1 0 0 1 1
solucion (1, 1, 1).
Sol :
2
Si 6= 2 y 6= 24 Comp. det. con (x, y, z) = (12, 3, 2).
+ 24
Si = 2 Comp. indet. con (x, y, z) = (5, 2, 6).
Si = 24 Incompatible.
Sol : a = 3/5.
Sol :
Sol : rg A = rg B = rg C = 2.
b) Probar que si B = {(0, 1, 0), (0, 1, 1)} y C = {(0, 1, 1), (0, 1, 2), (0, 2, 1)}
entonces A = L (B) = L (C).
Sol : Para ver que A es una variedad lineal de R3 basta ver que cualquier
combinacion lineal de vectores de A tambien pertenece a A. Para probar que
A = L (B) = L (C) basta ver que las tres son variedades de dimension 2
generadas por los vectores e2 y e3 de la base canonica de R3 .
A = {(1, 0, 1)}, B = {(1, 0, 0), (0, 1, 1)} y C = {(1, 0, 0), (0, 0, 1)}
Ejercicio 2.26 Sea Pn [x] el conjunto de los polinomios de grado menor o igual
que n con coeficientes reales.
104 Sistemas de ecuaciones lineales. Espacios vectoriales.
Probar que forman una base de R4 y hallar, respecto de ella, las coordenadas
de v = (1, 1, 1, 1).
u1 = e1 e2 + e3 e4
u
2 = e1 + e2 + e3 + e4
L2 :
u3 = e2 + e3 + e4
u4 = e1 + e2 + e4
(
dim L1 = 2, B 1 = {v1 , v2 } y v3 = v2 2v1
Sol :
dim L2 = 4, B 2 = {u1 , u2 , u3 , u4 }
Ejercicios propuestos 105
a) u = (3, 1, 0)
Sol :
a) Si = 1 y = 1 0 6= 1 y 6= 1 L1 L2 = {0} y Li + L2 = R4 .
b) Si = 1 y 6= 1 L1 L2 = {0} L1 + L2 x1 x2 + x4 = 0 con
B L1 +L2 = {(1, 1, 0, 0), (0, 1, 0, 1), (0, 0, 1, 0)} y dim(L1 + L2 ) = 3.
c) Si 6= 1
y = 1 B L1 L2 = {(9, 13, 2, 4)} y dim(L1 L2 ) = 1 con
x1 + x2 + x4 = 0
L1 L2 2x3 + x4 = 0 y L 1 + L 2 = R4 .
4x1 + 2x2 x3 3x4 = 0
Sol :
Definici
on 3.1 [Aplicacio
n]
Una aplicacion f entre dos conjuntos X e Y es cualquier regla que nos permite
asignar a cada elemento x del conjunto inicial X un u nico elemento y del
conjunto final Y . Se denota por f : X Y .
x = y = f (x) = f (y)
n de las aplicaciones
Clasificacio
Inyectiva si
109
110 Aplicaciones lineales.
Definici
on 3.2 [Aplicacio
n lineal]
, K y x, y V = f (x + y) = f (x) + f (y).
Demostraci
on.
Homomorfismo si U 6= V .
Endomorfismos si U = V .
Isomorfismos si U 6= V y f es biyectiva.
Automorfismos si U = V y f es biyectiva.
Definiciones y propiedades 111
Ejemplo 3.1
f [(a, b, c) + (a0 , b0 , c0 )] = f (a + a0 , b + b0 , c + c0 ) =
= (2(a + a0 ), b + b0 ) =
= (2a, b) + (2a0 , b0 ) =
= (2a, b) + (2a0 , b0 ) =
= f (a, b, c) + f (a0 , b0 , c0 )
por lo que f es un homomorfismo (vease el Teorema 3.1).
Definici
on 3.3 [Imagen de una aplicacio
n lineal]
Definici
on 3.4 [Nu
cleo de una aplicacio
n lineal]
Se denomina n
ucleo de f y se denota por Ker f al conjunto
Proposici
on 3.2 [Propiedades de las aplicaciones lineales]
Sea f una aplicacion lineal entre los espacios vectoriales E y E 0 definidos sobre
el mismo cuerpo K. Se verifican las siguientes propiedades:
112 Aplicaciones lineales.
f (x) = f (x) x E.
2) Si U es un subespacio vectorial de E, f (U ) lo es de E 0
x, y f (U ) = u, v U : f (u) = x, f (v) = y
, K dado que u, v U = u + v U =
f (U ) es un subespacio vectorial de E 0 .
3) Si V es un subespacio vectorial de E 0 , f 1 (V ) lo es de E
f (x + y) V = x + y f 1 (V ) =
f 1 (V ) es un subespacio vectorial de E.
por lo que
x f (E) = y E : f (y) = x
n
X Xn n
X
y E = y = i ui = x = f (y) = f ( i ui ) = i f (ui ) =
i=1 i=1 i=1
Demostraci
on.
Definici
on 3.5 [Rango de una aplicacio
n lineal]
rg f = dim(Img f )
El rango de una aplicacion lineal f es, por tanto, el rango del conjunto de
vectores {f (u1 ), . . . , f (un )} donde {u1 , . . . , un } constituye una base de U .
Una aplicacion lineal f entre dos espacios vectoriales definidos sobre un mismo
cuerpo K es inyectiva si, y solo si, Ker f = {0}.
Demostraci
on.
Si f es inyectiva:
)
f (x) = 0
x Ker f = = f (x) = f (0) = x = 0 =
f (0) = 0
Ker f = {0}
Si Ker f = {0}
f (x) = f (y) = f (x y) = 0 = x y Ker f =
= x y = 0 = x = y
f es inyectiva.
Demostraci
on.
Por ser para cualquier sistema libre, ha de verificarse para {u} con u 6= 0.
Al ser {f (u)} un sistema libre es f (u) 6= 0 = u 6 Ker f de donde se
deduce que
u 6= 0 = u 6 Ker f Ker f = {0} =
f es inyectivo.
Definiciones y propiedades 115
Demostraci
on.
f es sobreyectiva.
Demostraci
on. Sean dim U = n y dim V = m.
Si {a1 , a2 , . . . , ar } es una base de Ker f podemos ampliarla hasta formar una
base {a1 , a2 , . . . , ar , b1 , . . . , bnr } de U .
Los vectores {b1 , b2 , . . . , bnr } constituyen una base de un subespacio vectorial
H de U complementario del Ker f
1 b1 + + nr bnr Ker f
Como ademas 1 b1 + + nr bnr H se tiene que
Xn n
X n
X
f (x) = f ( xi ui ) = f (xi ui ) = xi f (ui )
i=i i=i i=i
Proposici
on 3.8 Una aplicaci on lineal f : U V queda definida cuando
conocemos los transformados f (ui ) de una base B = {u1 , . . . , un } de U .
Ecuaciones del n
ucleo y la imagen de una aplicacion lineal 117
n n n m
X X X X
f (x) = f ( x i ui ) = xi f (ui ) = xi aij vj
i=1 i=1 i=1 j=1
x U = m
X
0
x0j vj
f (x) V = x = f (x) =
j=1
m
X n
X m
X m
X n
X
x0j vj = xi aij vj = ( xi aij )vj =
j=1 i=1 j=1 j=1 i=1
x01 = a11 x1 + a21 x2 + an1 xn
n
x0 = a12 x1 + a22 x2 + an2 xn
2
X
0
xj = aij xi 1 j m = ..
i=1
.
x0 = a x + a x + a x
m 1m 1 2m 2 nm n
Hay que tener en cuenta que no todas las ecuaciones resultantes tienen que ser
independientes, por lo que nos quedaremos con las ecuaciones independientes
del sistema.
Dado que las columnas de la matriz A son los transformados de una base de
U sabemos que constituyen un sistema generador de Img f = f (U ), por lo que
las columnas linealmente independientes constituyen una base de la imagen.
f (1, 0, 0, 0) = (2, 0, 1)
f (0, 1, 0, 0) = (1, 3, 1)
f (0, 0, 1, 0) = (0, 0, 0)
f (0, 0, 0, 1) = (0, 0, 0)
tiene de ecuaciones
x1
x01 2 1 0 0
x2
x02 = 0 3 0 0
x3
x03
1 1 0 0
x4
siendo
dim(Img f ) = rg f = rg A = 2
dim(Ker f ) = dim R4 rg A = 4 2 = 2
Matrices equivalentes. 119
Unas ecuaciones implcitas de Ker f vienen dadas por las ecuaciones indepen-
dientes del sistema Ax = 0, es decir, si escalonamos la matriz del sistema
2 1 0 0 1 1 0 0 1 1 0 0
0 3 0 0 0 3 0 0 0 3 0 0
1 1 0 0 2 1 0 0 0 1 0 0
1 1 0 0 1 1 0 0 1 0 0 0
0 3 0 0 0 1 0 0 0 1 0 0
0 1 0 0 0 1 0 0 0 0 0 0
Es decir, las ecuaciones implcitas de Ker f son
(
x1 = 0
Ker f
x2 = 0
por lo que los vectores e3 y e4 constituyen una base del n
ucleo.
B Ker f = {(0, 0, 1, 0), (0, 0, 0, 1)}
Las columnas linealmente independientes de la matriz A, es decir, los vectores
de R3 (2, 0, 1) y (1, 3, 1) constituyen una base de Img f .
B Img f = {(2, 0, 1), (1, 3, 1)}
A0 = Q1 AP
120 Aplicaciones lineales.
Definici
on 3.6 [Matrices equivalentes]
A = Q1 BP
A0 = P 1 AP
Definici
on 3.7 [Matrices semejantes]
Dos matrices cuadradas A y B, del mismo orden, se dice que son semejantes
si existe otra matriz regular P tal que
B = P 1 AP
x f 1 (L) = f (x) L
x f 1 (L) f (x) L Ax L
Matricialmente tendramos:
122 Aplicaciones lineales.
x1 ! !
y1 2x1 x2
Ax = y A x2 = =
y2 x1 + x3
x3
! x1!
y1 2 1 0
= x2 y = Ax
y2 1 0 1
x3
!
y
1
L 3y1 y2 = 0 3 1 = 0 By = 0
y2
por lo que
By = B(Ax) = 0 = (BA)x = 0 =
! x1 x1
2 1 0
3 1 x2 = 0 = 7 3 1 x2 = 0
1 0 1
x3 x3
Es decir: f 1 (L) 7x1 3x2 x3 = 0.
Es obvio que vamos a obtener tantas ecuaciones implcitas para f 1 (L) como
tena L, sin embargo, nada garantiza que esas ecuaciones sean linealmente
independientes y habra que eliminar las que no lo fuesen.
Definici
on 3.8 [Suma de aplicaciones lineales]
Proposici
on 3.11 La aplicaci
on suma f + g as definida es una aplicaci
on
lineal.
Operaciones con aplicaciones lineales. 123
Demostraci
on.
(f + g)(u + v) = f (u + v) + g(u + v) =
= f (u) + f (v) + g(u) + g(v) =
= [f (u) + g(u)] + [f (v) + g(v)] =
= [(f + g)(u)] + [(f + g)(v)]
Definici
on 3.9 [Producto por un escalar]
(f )(u) = f (u) u U.
Proposici
on 3.13 La aplicaci
on f as definida es una aplicaci
on lineal.
Demostraci
on. La demostracion es similar a la del caso de la suma.
Definici
on 3.10 [Composicio
n de aplicaciones]
OJO, NO ES UN ERROR!
Decimos f compuesta con g para indicar que primero hay que aplicar f y,
al resultado obtenido, aplicarle g, por lo que se trata de g[f (u)] y por tanto,
debemos escribir f a la derecha de g y no al reves.
Es evidente que no es lo mismo f g que g f .
x03 7 2 11 x3
Analogamente,
! ! !
x01 14 13 x1
f g : R2 R2 = =
x02 16 22 x2
Solucio n: Para que quede determinada una aplicacion lineal debemos co-
nocer los transformados de una base, por lo que, en primer lugar, debemos
establecer una base de R4 como una ampliacion de la base de Ker f .
1 0 0 1
1 3 0 2 1 0
= = 3 6= 0
0 0 1 0 1 3
0 0 0 1
126 Aplicaciones lineales.
f (1, 0, 0, 1) = (0, 0, 0)
f ( 1, 3, 2, 0) = (0, 0, 0)
f ( 0, 0, 1, 0) = (1, 1, 1)
f ( 0, 0, 0, 1) = (0, 2, 1)
Es decir
1 1 0 0
0 0 1 0
0 3 0 0
A = 0 0 1 2 =
0 2 1 0
0 0 1 1
1 0 0 1
1
1 1 0 0
0 0 1 0
0 3 0 0
A= 0 0 1 2 =
0 2 1 0
0 0 1 1
1 0 0 1
0 2/3 1 0
A = 2 0 1 2 siendo x0 = Ax
1 1 1 1
f (v1 ) = 2w1 w2 + w3 + w4
f (v2 ) = w2 2w3 + w4
f (v3 ) = 4w1 w2 + 3w4
n:
Solucio
xV = x = x1 v1 + x2 v2 + x3 v3
x = f (x) W = x0 = x01 w1 + x02 w2 + x03 w3 + x04 w4
0
x0 = (2x1 + 4x3 )w1 + (x1 + x2 x3 )w2 + (x1 2x2 )w3 + (x1 + x2 + 3x3 )w4
Al ser u
nicas las coordenadas de un vector respecto de una base, las
ecuaciones de f son
x01 = 2x1 + 4x3
x02 = x1 + x2 x3
x03 = x1 2x2
x04 = x1 + x2 + 3x3
2x1 + 4x3 =0
x1 + x2 x3 =0
x1 2x2 =0
x1 + x2 + 3x3 =0
2 0 4 1 0 2 1 0 2 1 0 2
1 1 1 1 1 1 0 1 1 0 1 1
1 2 0 1 2 0 0 2 2 0 0 0
1 1 3 1 1 3 0 1 1 0 0 0
es decir, las ecuaciones implcitas de Ker f son
(
x1 + 2x3 = 0
Ker f
x2 + x3 = 0
Sus ecuaciones parametricas vienen dadas por
x1 = 2 x2 = x3 =
1 0 1
se tiene
! 1 0 3
0 1
x0B0 = ABB0 xB = x0B0 = ABB0 2 1 1 xB =
2 1
1 0 1
!1 1 0 3
0 1
x0B0 = ABB0 2 1 1 xB x0B0 = ABB0 xB
2 1
1 0 1
es decir
!1 ! 1 0 3
0 1 2 1 0
ABB0 = 2 1 1 =
2 1 0 0 3
1 0 1
!
3/2 1/2 1
=
0 1 5
Se pide:
n:
Solucio
1
3 1 1 0 3 3 + +
A = 6 2 2 1 0 1 = 6 2 2 6 + 2 + 2
9 3 3 0 1 0 9 3 3 9 + 3 + 3
Ejercicios resueltos 131
a11 = 1 = 3 = 1 = = 2
a33 = 3 = 9 + 3 + 3 = 3 = 9 + 3 + 6 = 3 = = 2
por lo que
1 2 1
A= 2 4 2
3 6 3
b) El n
ucleo viene determinado por Ax = 0, por lo que solo tiene una
ecuacion implcita
Ker f x1 + 2x2 + x3 = 0
Sus ecuaciones parametricas son
x1 = 2 x2 = x3 =
= 1, = 0 = (2, 1, 0)
= 0, = 1 = (1, 0, 1)
es decir, una base del n
ucleo es
x1 = x2 = 2 x3 = 3
(
x01 2x02 = 0
2. (1, 0, 0, 1) f 1 (L), siendo L
x02 x03 = 0
3. g(0, 0, 1) = (1, 1, 1)
4. Ker g f x1 x2 + x3 2x4 = 0
Determinar:
a) f , g y g f .
n:
Solucio
a)
0
x1 = 2
(
x01 2x02 = 0
L = x02 = = B L = {(2, 1, 1)}
x02 x03 = 0
0
x3 =
(1, 0, 0, 1) f 1 (L) = f (1, 0, 0, 1) L = f (1, 0, 0, 1) = (2, , )
)
f (1, 0, 0, 1) = (2, , )
= f (e4 ) = (2 1, 2, + 3)
f (1, 0, 0, 0) = (1, 2, 3)
Podemos decir por tanto, que
1 2 1 2 1
Af = 2 1 3 2
3 3 3 + 3
0 0 1 0 0 1
de donde
1
0 0 1 3 0 0 0 0 1
Ag = 0 0 1 3 1 0 = Ag = 0 0 1
0 0 1 0 0 1 0 0 1
2 + 1 0
Ademas, Ag + 2 = 0 =
3 0
0 0 1 2 + 1 3 0
0 0 1 + 2 = 3 = 0 = = 3
0 0 1 3 + 3 0
por lo que
1 2 1 5
Af = 2 1 3 1
3 3 3 6
La matriz asociada a la aplcacion compuesta g f es Agf = Ag Af
3 3 3 6
Agf = 3 3 3 6
3 3 3 6
134 Aplicaciones lineales.
x1 = x2 = x3 =
x1 = x2 = x3 = x4 =
0 3 9
por lo que
B gf (L1 ) = {(1, 1, 1)}
a) Probar que R3 = L1 L2 .
n:
Solucio
x1 = x2 = x3=
L 1 L 2 = R3
f (1, 1, 0) = (, , )
b) f (L1 ) L2 =
f (0, 0, 1) = (, , )
0 1 0 1
136 Aplicaciones lineales.
1
1 1 0 0 1 1
Af = 0 1 0 1 = 0
1 0 1 0 + 1 1
c)
1 1 1 1
0 1 1 0
+ 1 1 2 2 0
1 1 0
1 1 0 1 1 0
0 0 0 0 0 0
de donde se deduce que el rango de los endomorfismos no puede ser 3,
es decir
rg f 2
Para que rg f = 1 han de ser = = 0, en cuyo caso nos queda el
endomorfismo cuya matriz asociada es
1 1 0
Af = 0 0 0 con rg f = 1
1 1 0
d) )
(1, 1, 1) Ker f =
f (1, 1, 1) = ( 0, 0, 0)
=
f (1, 0, 1) = (3, 2, 1)
1 1 1 1 0 3
0 1 0 = 0 2 =
+ 1 1 1 1 0 1
+ 1 0 3 (
+=0
+ = 0 2 =
+ = 2
+ +1 0 1
es decir, = 1 y = 1, por lo que la solucion es u
nica
2 1 1
Af = 1 0 1
0 1 1
Ejercicios propuestos 137
0 1 1 x3 0
x1 = + 2
1
f (L1 ) 3x1 + x2 + 2x3 = 0 = x2 = 3
x3 = 3
= 1 = 0 = (1, 3, 0)
= B f 1 (L1 ) = {(1, 3, 0), (2, 0, 3)}
= 0 = 1 = (2, 0, 3)
0 1 1 1 2
f (x, y, z) = (2x + y, z, 0)
b) Hallar el rango de f .
Sol :
1 0 0
1 1 1
a) x0 = Ax con A = .
1 2 4
1 3 9
b) (1, 2, 7, 16).
b) Determinar f 2 .
1 1 1
Sol : Las ecuaciones de f son x0 = Ax con A = 0 0 0 y f 2 es el
1 1 1
endomorfismo nulo.
Sol :
b) f 1 (L) 2x1 + x2 + x3 = 0.
c) f 1 (L) = R3 .
17 17 6
8 8 3
Sol : A =
0 0 0
11/3 11/3 4/3
L3 = f 1 (f (L1 ) + L1 )
Sol :
1 a 0
a) A = 1 0 1 .
a 1 a
b) f es automorfismo a R.
d) a = 0.
1. f (x1 , x2 , x3 ) = (x1 + x3 , x1 x2 + x3 , x2 )
2. g(1, 0, 0) = (1, 1, 1)
Se pide:
1 1 1 1 1 1
(
x1 2x2 = 0
Img f g , B Ker f g = {(1, 1, 0), (1, 0, 1)}
x2 x3 = 0
L =< (1, 4, 1, 1), (2, 3, 2, 3) > R =< (0, 1, 0, 0), (1, 0, 1, 2) >
x2 x4 = 0
M =< (1, 1, 1, 3), (3, 2, 3, 4), (3, 2, 3, 4) > K:
2x + 3x = 0
2 4
f : R4 R3 , f (x1 , x2 , x3 , x4 ) = (x1 + x2 , x1 + x3 , x2 + x4 )
d) Dada la base de R3 , B = {(1, 0, 1), (0, 1, 1), (1, 1, 0)}, hallar la matriz de
f1 respecto a la base canonica de R4 y B de R3 .
(
= 0 = biyectiva
Sol : B Ker f2 = {(2, 4, 1, 4)},
6= 0 = solo sobreyectiva
0 1 1/2 1/2
f0 (L) =< (1, 0, 0), (0, 0, 1) >, ACB (f1 ) = 0 0 1/2 1/2
1 0 1/2 1/2
c) Siendo H la variedad lineal generada por los vectores (1, 1, 1) y (2, 2, 0),
hallar una base de f 1996 (H).
1 1 0
B f (L)H = {(1, 1, 2)}
4. Ortogonalidad.
Para los vectores geometricos hay otros conceptos como los de longitud o
norma, angulo de dos vectores, etc., que no se contemplan al hacer la an-
terior abstraccion y que, por tanto, hasta ahora no tienen significado alguno
en un espacio vectorial abstracto.
145
146 Ortogonalidad.
Sea V un espacio vectorial real. Una forma bilineal b sobre V es una aplicaci
on
b : V V R tal que:
b(x + x0 , y) = b(x, y) + b(x0 , y)
x, y, x0 , y 0 V
= b(x, y + y 0 ) = b(x, y) + b(x, y 0 )
R
b(x, y) = b(x, y) = b(x, y)
Definici
on 4.2 [Matriz asociada a una forma bilineal]
Xn n
X n
X
b(x, y) = b( x i ui , xj uj ) = xi yj b(ui , uj )
i=1 j=1 i,j=1
y en forma matricial
b(u1 , u1 ) b(u1 , u2 ) b(u1 , un ) y1
b(u2 , u1 ) b(u2 , u2 ) b(u2 , un ) y2
b(x, y) = ( x1 x2 xn ) .. .. ... .. ..
. . . .
b(un , u1 ) b(un , u2 ) b(un , un ) yn
b(x, y) = xT A y
siendo A = b(ui , uj ) .
1i,jn
Definici
on 4.4 [Espacio vectorial eucldeo]
n
X n
X n
X
h x, y i = h xi ui , xj uj i = xi yj h ui , uj i
i=1 j=1 i,j=1
por lo que el producto escalar queda determinado si, y solo si, se conocen los
c productos h ui , uj i = aij de los vectores de la base B, siendo
n
X
h x, y i = xi aij yj = xT Ay
i,j=1
donde
h u1 , u1 i h u1 , u2 i h u1 , un i
h u2 , u1 i h u2 , u2 i h u2 , un i
A= .. .. ... ..
. . .
h un , u1 i h un , u2 i h un , un i
Dicha matriz A recibe el nombre de matriz de Gram correspondiente al pro-
ducto escalar considerado respecto de la base B.
Demostraci
on.
y V (A z)T y = 0 z T AT y = z T A y = h z, y i = 0
Definici
on 4.5 [Norma de un vector]
Proposici
on 4.3 [Propiedades de la norma]
Desigualdad de Cauchy-Schwartz:
x, y V = |h x, y i| kxk kyk
Desigualdad de Minkowski:
x, y V = kx + yk kxk + kyk
x, y V = kxk kyk kx yk
Definici
on 4.6 [Angulo de dos vectores]
4.3 Ortogonalidad
Definici
on 4.7 [Vectores ortogonales]
Demostraci
on.
Si x y
kx + yk2 = h (x + y), (x + y) i = h x, x i + h x, y i + h y, x i + h y, y i
kx + yk2 = h (x + y), (x + y) i = h x, x i + h x, y i + h y, x i + h y, y i
Como h x, y i = h y, x i
se obtiene que
h x, y i = 0 = x y.
h x, y i = 0 x H y y H 0
H = {x V : h x, y i = 0 y H}
on. Si z H H 0 = z H y z H 0 .
Demostraci
)
z H z H0
0
= h z, z i = 0 = z = 0 = H H 0 = {0}
HH
n
X m
X n X
X m
h y, z i = h i xi , j x0j i = i j h xi , x0j i
i=1 j=1 i=1 j=1
(
i = 1, 2, . . . , n
H H 0 = h xi , x0j i = 0 = h y, z i = 0
j = 1, 2, . . . , m
y por tanto, L (H) L (H 0 ).
Ortogonalidad 153
y H = h x1 + x2 , y i = h x1 , y i + h x2 , y i = 0 + 0 = 0
Es decir,
y H x1 + x2 y x1 + x2 H
por lo que H es una variedad lineal de V .
1 x1 + + k xk + + n xn = 0 =
h 1 x1 + + k xk + + n xn , xk i = h 0, xk i = 0 k = 1, 2, . . . , n =
1 h x1 , xk i + + k h xk , xk i + + n h xn , xk i = 0
Como H es ortogonal y h xk , xk i =
6 0
h xi , xk i = 0 i 6= k = k h xk , xk i = 0 = k = 0 k = 1, 2, . . . , n
B 1 = {u1 , . . . , un } y B 2 = {v1 , . . . , vn }
154 Ortogonalidad.
h x1 , y1 i = h x2 , y2 i xT1 A1 y1 = xT2 A2 y2
xT1 = xT2 P T y y1 = P y 2
obtenemos la igualdad
es decir, que
)
h ui , uj i = 0 si i 6= j
B es ortonormal
h ui , ui i = 1 i = 1, . . . , n
ya que kw1 k =
6 0 por ser w1 = v1 6= 0.
Tomando ahora w3 = v3 + 32 w2 + 31 w1 con h w1 , w3 i = h w2 , w3 i = 0,
tenemos
h w2 , v3 i h w1 , v3 i
32 = 31 =
kw2 k2 kw1 k2
Si hemos calculado, en general w1 , w2 , . . . , wk , hacemos entonces,
w2 = v2 + w1
h v2 + w1 , w1 i = h v2 , w1 i + h w1 , w1 i = 0
Dado que
! !
2 1 1
h v2 , w1 i =
2 0 =2
1 2 1
! ! = 2 + 2 = 0
2 1 1
h w1 , w1 i =
1 1 =2
1 2 1
= 1 = w2 = v2 w1 = (1, 1)
Por lo que
1 1 1 1
B = {( , ), ( , )}
2 2 6 6
es una base ortonormal de V .
! dado que la matriz de paso de la base B a la base B es
Observese ahora que
1 1
P = 1
2 6
la matriz del producto escalar referida a la base B viene
2
1
6
dada por
! ! !
1 12 2 1 1 1
PTAP = 2 2 6
=
1 1 1 2 12 1
6 6 6
! !
1 12 1 1
2 2 6
= =
3 3 1
2
1
6 6 6
!
1 0
=
0 1
Es decir, se trata del producto escalar canonico.
b) A partir de B 0 = {(1, 1, 1), (0, 1, 1), (0, 2, 0)} de R3 hallar una base
ortonormal.
n:
Solucio
a) La matriz de Gram es
h e1 , e1 i h e1 , e2 i h e1 , e3 i 2 0 1
A = h e1 , e2 i h e2 , e2 i h e2 , e3 i = 0 1 1
h e1 , e3 i h e2 , e3 i h e3 , e3 i 1 1 2
158 Ortogonalidad.
b) Denotemos por v10 , v20 y v30 a los vectores de la base B 0 y vamos, en primer
lugar, a ortogonalizarlos por el metodo de Gram-Schmidt (despues los
normalizaremos).
u01 = v1 = (1, 1, 1)
h v20 , u01 i
u02 = v20 + u01 con u02 u01 = =
h u01 , u01 i
2 0 1 1
h v20 , u01
i = (0 1 1) 0 1 1 1 = 2
1 1 2 1
2 0 1 1
0 0
h u1 , u1 i = (1 1 1) 0 1 1 1 = 5
1 1 2 1
2 1
u02 = v20 + u01 = (0, 1, 1) + (1, 1, 1) = (2, 7, 3) (2, 7, 3)
5 5
h v 0 , u0 i
u03 u01 = = h u30 , u10 i
1 1
u03 = v30 + u01 + u02 con
0 0
u0 u0 = = h v30 , u20 i
3 2 h u2 , u2 i
2 0 1 1
0 0
h v3 , u1 i = (0 2 0) 0 1 1 1 = 0 = = 0
1 1 2 1
2 0 1 2
h v30 , u02 i = (0 2 0) 0 1 1 7 = 20
1 1 2 3
2 0 1 2
h u02 , u02 i = (2 7 3) 0 1 1 7 = 105
1 1 2 3
20
u03 = v30 + u01 + u02 = (0, 2, 0) (2, 7, 3) =
105
10
= (4, 7, 6) (4, 7, 6)
105
p
ku01 k = h u01 , u01 i = 5
p
ku02 k = h u02 , u02 i = 105
Ejercicios resueltos 159
2 0 1 4
h u03 , u03 i = 4 7 6 0 1 1 7 = 21
1 1 2 6
p
ku03 k = h u03 , u03 i = 21
Normalizando los vectores obtenemos
u01 1 1 1
u1 = 0
= ( , , )
ku1 k 5 5 5
0
u 2 7 3
u2 = 20 = ( , , )
ku2 k 105 105 105
u0 4 7 6
u3 = 30 = ( , , )
ku3 k 21 21 21
por lo que la base ortonormal buscada es
1 1 1 2 7 3 4 7 6
B = {( , , ), ( , , ), ( , , )}
5 5 5 105 105 105 21 21 21
h x, y i = x1 y1 + x2 y2 + x3 y3 + 2x4 y4
se considera el subespacio
Calcular:
n:
Solucio
a) h u1 , u1 i = ku1 k2 = 1
h u1 , u2 i = 0
h 2u1 u3 , u1 i = 0 = 2h u1 , u1 i h u3 , u1 i = 0 = h u1 , u3 i = 2
h u2 , u2 i = ku2 k2 = 1
h 2u1 u3 , u2 i = 0 = 2h u1 , u2 i h u3 , u2 i = 0 = h u2 , u3 i = 0
h u3 , u3 i = ku3 k2 = 5
h e1 , e3 i h e2 , e3 i h e3 , e3 i 2 0 5
Ejercicios resueltos 161
b)
u1
v1 = = u1
ku1 k
h u 2 , v1 i 0
v20 = u2 + v1 con v20 v1 = = = = 0 =
h v 1 , v1 i 1
v20 u2
v20 = u2 + 0 v1 = u2 = v2 = 0
= = u2
kv2 k ku2 k
v30 = u3 + v1 + v2 con
h u 3 , v1 i h u3 , u1 i 2
v30 v1 = = = = = 2
h v 1 , v1 i h u1 , u1 i 1
h u 3 , v 2 i h u 3 , u2 i
v30 v2 = = = =0
h v 2 , v2 i h u2 , u2 i
por lo que
v30 = u3 2 v1 + 0 v2 = u3 2u1
B = {u1 , u2 , u3 2u1 }
x y = x1 y1 + x1 y2 + x2 y1 + x2 y2 x2 y3 x3 y2 + x3 y3
n:
Solucio
0 1 1 y3
0 1 1
u1 = e1 = (1, 0, 0)
h e2 , u1 i eT Au1
u2 = e1 + u1 con u2 u1 = = = 2T = 1
h u1 , u1 i u1 Au1
u2 = e2 u1 = (0, 1, 0) (1, 0, 0) = (1, 1, 0) (1, 1, 0)
u3 = e3 + u1 + u2 con
h e3 , u1 i uT1 Ae3
u 3 u 1 = = = =0
h u1 , u1 i uT1 Au1
he ,u i uT Ae 1
u3 u2 = = 3 2 = T2 3 =
h u2 , u2 i u2 Au2 2
1 1 1
u3 = e3 u2 = (0, 0, 1) (1, 1, 0) = (1, 1, 2) (1, 1, 2)
2 2 2
Ejercicios resueltos 163
x1 = 3 x2 = 2 x3 = 2
dim(LT + M T ) = 2
1 1 3
metodo de Gram-Schmidt, obtener una base ortonormal asociada a la base
{e1 + e2 , e2 , e1 + e3 }.
1 0 1
Sol :
c) Ortonormalizar la base B.
35 p
Sol : arc cos , a = 7/5, {3x2 , 15x2 20x, 42x2 140x + 105}.
6
0 0 1
Sol :
a) a=1.
(
x1 + x2 = 0
b) L
x1 + x3 = 0
f (x1 , x2 , x3 ) = (x1 + x2 + x3 , x1 x2 + x3 , x2 )
0 0 1
0 1
Sol :
a) > 1.
b) = 2.
Sol :
(
6x1 + 2x2 + x3 = 0
a) L
2x1 + 9x2 + 9x3 = 0
b) B = {(1, 0, 0), ( 3, 2 3, 0), ( 5, 6 5, 6 5)}.
Sol :
a) = 1 y = 2.
0 1
ortogonal.
0 0 a
Sol :
a) a > 0.
b) a = 1.
(
5x1 + 4x2 = 0
c) L B L = {(4a, 5a, 2)}.
3x1 + 2x2 + ax3 = 0
0 1 a
son ortogonales.
Sol :
a) a > 1.
b) a = 2.
Definici
on 5.1 [Autovalores y autovectores]
A0 = P 1 AP
A = P A0 P 1 = x = Ax = (P A0 P 1 )x = P A0 (P 1 x) =
P 1 (x) = A0 (P 1 x) = (P 1 x) = A0 (P 1 x)
Llamando y = P 1 x tenemos que A0 y = y.
171
172 Autovalores y autovectores
x = A0 x = P 1 AP x = P x = AP x = A(P x) = (P x) con P x 6= 0
a) Si es un autovalor de A, el conjunto V = {x V : Ax = x} es un
subespacio vectorial de V denominado subespacio propio de A asociado
al autovalor .
1 6= 2 = V1 V2 = {0}
Demostraci
on.
a) x, y V y , K =
A(x + y) = Ax + Ay = x + y = (x + y) =
x + y V = V es un subespacio vectorial de V .
b)
x V1 = Ax = 1 x
x V1 V2 = y =
x V2 = Ax = 2 x
1 x = 2 x = (1 2 )x = 0 con 1 6= 2 = x = 0 =
V1 V2 = {0}.
1 x1 + + r1 xr1 + r xr = 0 (5.1)
se tiene que
r
X r
X r
X
A i xi = 0 = i Axi = 0 = i i xi = 0
i=1 i=1 i=1
1 1 x1 + + r1 r1 xr1 + r r xr = 0 (5.2)
Multiplicando la ecuacion (5.1) por r obtenemos:
1 r x1 + + r1 r xr1 + r r xr = 0 (5.3)
1 (1 r ) = 0, , r1 (r1 r ) = 0
i 6= j si i 6= j = 1 = = r1 = 0
que llevados a la ecuacion (5.1) nos queda
r xr = 0 con xr 6= 0 = r = 0
Es decir,
1 x1 + + r1 xr1 + r xr = 0 = i = 0 1 i r
Si es autovalor de A
det(I A) = 0
Si det(I A) = 0
(I A)x = 0 = Ax = x = es autovalor de A.
Si = 0 es autovalor de A
Si T no es inyectivo
Ax = x = Ax kx = x kx = (A kI)x = ( k)x =
autovalor de A asociado a x = Ax = x =
V = Ker(I T )
y por tanto
4 4 2
Ejemplo 5.1 Dada la matriz A = 0 2 1 , = 6 es un autovalor aso-
3 2 1
ciado al autovector x = (1, 1/6, 2/3) ya que
4 4 2 1 6 1
0 2 1 1/6 = 1 = 6 1/6 Ax = 6x
3 2 1 2/3 4 2/3
176 Autovalores y autovectores
El subespacio propio asociado al autovalor 6 viene dado por las soluciones del
sistema
2 4 2 x1 0 x1 = 6
(6I A)x = 0 0 4 1 x2 = 0 = x2 =
3 2 5 x3 0 x3 = 4
p() = det(I A)
B = P 1 AP = I B = P 1 P P 1 AP = P 1 (I A)P =
Teorema 5.6 Los autovalores de una matriz son las races de su polinomio
caracterstico.
Demostraci
on. Es consecuencia directa de la primera propiedad de los auto-
valores.
Una consecuencia inmediata de los resultados anteriores es que tanto los au-
tovalores como los autovectores son valores intrnsecos de la transformacion y
no dependen de la matriz que la represente, es decir, no dependen de la base
que se tome del espacio V .
1 = 1 y 2 = 1
178 Autovalores y autovectores
(0, y)
6
]J
J
f (x) J
x
J
J
-
(x, 0) (x, 0)
Espejo
Tomemos ahora como base de R2 las direcciones de las bisectrices de los cua-
drantes (vease la Figura 5.2).
@
@ 6
@
@J]J
f@(x)
J
x
@J
@J
-
@
@
@
@
@
@
Espejo @
@
En resumen, los autovalores son los mismos, y los autovectores tambien son
los mismos, lo u
nico que ha cambiado de los autovectores son sus coordenadas
porque hemos cambiado de base, pero siguen siendo los mismos vectores.
Definici
on 5.3 [Multiplicidad aritme
tica de un autovalor]
1 dim V
1 0 2
Ejemplo 5.3 Si A = 2 1 3 , su polinomio caracterstico
1 2 0
p() = 3 + a1 2 + a2 + a3
verifica que
a1 = (1)1 (1 1 + 0) = 0
!
1 0 1 2 1 3
a2 = (1)2 + + = 1 2 6 = 9
2 1 1 0 2 0
1 0 2
3
a3 = (1) 2 1 3 = 4
1 2 0
El polinomio caracterstico de A es entonces
p() = 3 9 4
5.3 Diagonalizaci
on por semejanza
Definici
on 5.4 [Matriz diagonalizable]
Demostraci
on. Si A es diagonalizable existe una matriz P , no singular, tal
1
que P AP = D.
Al ser A y B representaciones de T son semejantes, es decir, existe una matriz
Q no singular tal que A = Q1 BQ.
B es diagonalizable.
Demostraci
on.
AP = A(x1 x2 xn ) = (Ax1 Ax2 Axn ) = (1 x1 2 x2 n xn ) =
1 0 0
0 2 0
= (x1 x2 xn )
.. .. . . = PD
..
. . . .
0 0 n
AP = P D = P 1 AP = D.
Observese que si x es un autovector asociado al autovalor , cualquier vector
x proporcional a el sigue siendo autovector de A asociado a , por lo que la
matriz P no es unica, a menos que busquemos una matriz P cuyas columnas
tengan todas norma 1.
La respuesta, en este caso es SI, pero para probarlo debemos ver algunos
resultados previos.
Una matriz D Knn es diagonal si, y s olo si, admite por autovectores a los
n
vectores ei de la base canonica de K . Adem as, cada ei es autovector de D
asociado al autovalor di (elemento i-esimo de la diagonal).
Demostraci
on.
d1 0 0
0 d2 ... 0
D= .. .. ... .. = Dei = di ei =
. . .
0 0 dn
di es autovalor de D y ei es un autovector asociado a di .
Recprocamente, si e1 , . . . , en son autovectores de D asociados a 1 , . . . , n
respectivamente, Dei = i ei i = 1, . . . , n.
Ahora bien, Dei = i-esima columna de D y por tanto
1 0 0
0 2 . . . 0
D= .. .. . . .. = D es diagonal.
. . . .
0 0 n
Demostraci
on. Si A es diagonalizable existe una matriz P no singular tal
1
que P AP = D
Como A y D son semejantes, poseen los mismos autovalores y dado que D
tiene n autovalores (di i = 1, . . . , n), A tambien tiene n autovalores.
Una matriz A Knn es diagonalizable si, y s olo si, existe una base de Kn
constituida por autovectores de A, es decir, si A admite n autovectores lineal-
mente independientes.
Demostraci
on. La condicion suficiente quedo probada en el Teorema 5.10.
Veamos entonces que si A es diagonalizable posee n autovectores linealmente
independientes.
A diagonalizable = P no singular tal que P 1 AP = D con D diagonal.
Al ser D diagonal, admite n autovalores (di i = 1, . . . , n) y n autovectores
linealmente independientes (ei i = 1, . . . , n, vectores de la base canonica de
Kn ).
Por ser A y D semejantes poseen el mismo polinomio caracterstico y por
tanto, los mismos autovalores con las mismas multiplicidades aritmeticas.
Dado que P es no singular
5.3.2 Diagonalizaci
on de matrices sim
etricas.
Hemos visto bajo que condiciones es diagonalizable una matriz cuadrada. En
esta seccion veremos que si la matriz considerada es simetrica siempre es dia-
gonalizable y ademas la matriz de paso puede ser ortogonal. Es decir, toda
matriz simetrica puede ser diagonalizada de la forma D = P T AP .
Teorema 5.16 Los autovalores de una matriz simetrica son todos reales.
(2 1 )v1T v2 = 0
Teorema 5.18 Toda matriz real y simetrica es diagonalizable con una matriz
de paso ortogonal.
0 0 2
Su polinomio caracterstico es
p() = 3 82 + 20 16 = ( 2)2 ( 4)
Los autovectores asociados a = 2 vienen dados por las soluciones del sistema
1 1 0 x1 0 x1 =
(2I A)x = 0 1 1 0 x2 = 0 = x2 =
0 0 0 x3 0 x3 =
= 1 = 0 = v1 = (1, 1, 0)
Para = V2 = < v1 , v2 >
= 0 = 1 = v2 = (0, 0, 1)
Los autovectores asociados a = 4 vienen dados por las soluciones del sistema
1 1 0 x1 0 x1 =
(4I A)x = 0 1 1 0 x2 = 0 = x2 =
0 0 2 x3 0 x3 = 0
Por lo que
V4 = < v3 > con v3 = (1, 1, 0)
Una base ortonormal de V3 viene dada por el vector
v3
u3 = = ( 1/ 2, 1/ 2, 0)
kv3 k
B = {u1 , u2 , u3 }
1/
2 0 1/ 2
por lo que P = 1/ 2 0 1/ 2 con P 1 = P T es decir, P ortogonal.
0 1 0
Se verifica entonces que
2 0 0
P T AP = D = 0 2 0
0 0 4
188 Autovalores y autovectores
Am = P Dm P 1
A1 = (P DP 1 )1 = P D1 P 1 .
d1 0 1/d1 0
.. . . .. . .. ..
. = D = ..
1
Si D = . . . . =
0 dn 0 1/dn
1/d1 0
.. .. ..
A1
1
=P . . . P
0 1/dn
0 0 1 0 0 1
no son semejantes, pero poseen los mismos autovalores.
0 0 0 x3 0
)
x1 = 0
= (0, 0, 1)
x2 = 0
es decir, no admite una base de autovectores y por tanto, no es diagonalizable,
mientras que B si lo es (ya es una matriz diagonal), por lo que A y B no son
semejantes.
Ejercicio 5.2 Sabiendo que v1 = (0, 1, 1), v2 = (1, 1, 0), v3 = (1, 0, 1) son
los vectores propios de una aplicacion lineal f : R3 R3 , determinar la matriz
asociada a dicha aplicacion sabiendo que su primera columna es (1 2 3)T .
3 c 1 0 1 c+ 3c 3
Se debe verificar entonces que
a+=0
b+ c+
= = b + = c +
1 1
1a 2b
= = a + b = 3
1 1
3 c = 0 = c = 3
1 3
= = + = 4
1 1
2 = 0 = = 2
El sistema obtenido de 6 ecuaciones con 6 incognitas nos da como solucion
a = 1, b = 4, c = 3, = 1, = 2, = 3
por lo que la matriz buscada es
1 1 1
2 4 2
3 3 3
190 Autovalores y autovectores
1 a 0 1
0 1 1 2
Ejercicio 5.3 Dada la matriz A = . Se pide:
0 0 1 0
0 0 0 1
n:
Solucio
a) El polinomio caracterstico es
1 a 0 1
0 1 1 2
p() = |I A| = = ( 1)2 ( + 1)2
0 0 +1 0
0 0 0 +1
3 1 2 3 1 4
Sol :
p() = 3 42 + 5 2
m() = 2 3 + 2
A 1 = 2 v1 = (0, 0, 1)
2 = 3 = 1 ( 10 3 10 2 2
, 0, ), (0, , )
10 10 2 2
(
p() = m() = 3 62 + 12 8
B
1 = 2 = 3 = 2 (1, 1, 1)
0 2 3
192 Autovalores y autovectores
3 0
Sol : No se diagonalizable si = 1 y = 0 o si = 5 y = 0.
3
Ejercicio 5.8 Se considera el endomorfismo
f de R que, respecto de la base
3 2 0
canonica, tiene por matriz A = 1 0 0
0 0 3
Sol :
a) 2, 1 y 3.
b) Es diagonalizable. B = {( 2/5, 1/5, 0), ( 2/2, 2/2, 0), (0, 0, 1)}.
Sol : a = f = 0.
0 0 0 5 0 0 3/11 1/2
Ejercicio 5.11 Diagonalizar por semejanza, con matriz de paso ortogonal, las
siguientes matrices:
4 0 4 6
0 1 1 0 1 1 1
0 0
A= 1 0 1 B= C= 1 1
4 0 0 2
1 1 0 1 1
6 0 2 5
Sol :
1/2 1/6 1
1/3 0 0
A: P = / 2 1/6 1/3 y D = 0 1 0 .
1
0 2/6 1/3 0 0 2
2/3 0 1/3 2/3 3 0 0 0
0 1/3 0 0
0 1
0 0
B: P = y D= .
2/3 0 2/3 /3
1 0 0 0 0
1/3 0 2/3 2/3 0 0 0 12
1/3 1/2 1/6 +1 0 0
C: P = / 3 / 2 1/ 6 y D = 0 +1 0 .
1 1
1/3 0 2/6 0 0 2
0 0 1
B = {(0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1), ( 1/7, 2/7, 1/7, 1/7)}
0 0 2 8 2 11
Sol :
Ejercicios propuestos 195
2/2 0 2/2 2 0 0
A: P = 2/2 0 2/
2 y D = 0 2 0 .
0 1 0 0 0 4
2/3 1/3 2/3 9 0 0
B: P = 2/3 2/3 1/3 y D = 0 9 0 .
1/3 2/3 2/3 0 0 18
Sol :
1 0 2 1 0 0
a) = 0, P = 0 1 1 , D = 0 1 0 .
0 0 0 0 0 0
a) Determinar la matriz A.
Sol :
a) a = b = d = e = f = 0, c = 4 y g = 5.
1 = 0
v1 = ( 0, 1, 0, 0)
= 0
2
v2 = (4, 0, 3, 5)
b) Autovalores y autovectores
3 = 5
v3 = ( 3, 0, 4, 0)
0, 3,
4 = 10 v4 = ( 4, 5)
0 0 0 0 0 4 3 4
0 0 0 0 1 0 0 0
c) D = y P =
0 0 5 0 0 3 4 3
0 0 0 10 0 5 0 5
0 6 3 0 2 3
b) (0, 0, 0, 1) N (f ).
c) f (L) L0 .
e) rg(f ) = 2.
Sol :
5 4 2
a) A = 4 5 2 .
2 2 8
2 1 1 0 0 0
b) Es diagonalizable. P = 2 1 0 y D = 0 9 0 .
1 0 2 0 0 9
2 0 2 2
Ejercicio 5.22 Dada la matriz A = 1 2 se pide:
+ 0 + 2
Sol :
a) Es diagonalizable si 6= .
0 0 2 2
b) D = 0 0 y P = 0 1 1 .
0 0 1 1
Ker f = L1 L2 ; f (L) = L0 ;
P 2
ij aij = 14; aij 0 i, j, siendo aij los
elementos de la matriz asociada a f respecto de las bases canonicas.
Sol :
1 2 0
0 0 1 1 1 1 1
a) Af = 2 2 1 1 y Ag = .
0 1 0
1 1 0 0
2 1 0
1 0 0
Sol :
a) R.
1 0 0 2/2 2/2 0
b) D = 0 1 0 y P = 0 0 1 .
0 0 1 2/
2 2/
2 0
c) n = 2.
200 Autovalores y autovectores
3 1 0
Ejercicio 5.25 Sea la matriz 3 0 . Hallar
0 0 2
Sol :
a) 0.
b) = 0.
c) < 0.
5 0 0 1 1 0
d) D = 0 1 0 y P = 2 2 0 .
0 0 2 0 0 1
Sol :
0 0 1 1 0 1
d) V0 y V1 .
1 +1
Ejercicio 5.27 Sea la matriz A = 0 1 +1
+ 2 1
Sol :
a) = 1 y = 0.
1 0 0 0 0 2/2
b) D = 0 1 0 y P = 1 0 0 .
0 0 1 0 1 2/
2
c) No.
Bibliografa
[1] J. de Burgos. Algebra Lineal. Ed. McGraw-Hill, Madrid, 1993.
[2] B. de Diego, E. Gordillo y G. Valeiras. Problemas de Algebra Lineal. Ed.
Deimos, Madrid, 1986.
[3] F. Granero Rodrguez. Algebra y Geometra Analtica. Ed. McGraw-Hill,
Madrid, 1985.
[4] J. Heinhold y B. Riedmtller. Algebra y Geometra Analtica (2 vol
umenes).
Ed. Reverte, Barcalona, 1980.
[5] B. Noble y J. W. Daniel. Algebra Lineal Aplicada. Ed. Prentice-Hall, 1989.
[6] C. Pita Ruiz. Algebra Lineal. Ed. McGraw-Hill, Madrid, 1992.
[7] J. Rojo. Algebra Lineal. Ed. AC, 1986.
[8] G. Strang. Algebra Lineal y sus aplicaciones. Fondo Educativo Interame-
ricano, Mexico, 1986.
[9] J.R. Torregrosa Sanchez y C. Jordan Lluch. Algebra Lineal y sus aplica-
ciones. Serie Schaum. Ed. McGraw-Hill, Madrid, 1987.
203