Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ITULO I
ALGEBRA LINEAL.
1
Tema 1. Espacios Vectoriales.
Notaremos por R al cuerpo de los n umeros reales.
Denici on 1.1. Sea E un conjunto no vaco en el que se tiene denida una ley de com-
posici on interna (llamada suma):
E E
+
E
(, ) +
que verica las siguientes propiedades:
1. Asociativa: (+) + = +(+) para cualesquiera , , E.
2. Conmutativa: + = + para cualesquiera , E.
3. Existencia de elemento neutro: Existe un elemento en E, llam emoslo 0, tal que
+0 = para todo E.
4. Elemento opuesto: Para todo E, existe un elemento en E, llam emoslo , tal
que +() = 0.
Se dice entonces que (E, +) es un grupo aditivo conmutativo o abeliano.
Denici on 1.2. Dado E un conjunto no vaco, E es un espacio vectorial sobre R si existe
una ley de composici on interna + respecto de la cual (E, +) es un grupo conmutativo, y
existe una ley de composici on externa
RE E
(, x) x
vericando las siguientes propiedades:
1. (x +y) = x +y, R, x, y E.
2. (+)x = x +x, , R, x E.
3. (x) = ()x, , R, x E.
4. 1x = x, x E.
A los elementos de E se les llamar a vectores y a los elementos de R escalares.
3
4 Captulo I.
Algebra Lineal.
Ejemplos 1.3.
1. E =R.
2. E =R
n
, con la siguientes operaciones:
Para cada x = (x
1
, . . . , x
n
), y = (y
1
, . . . , y
n
) R
n
, R,
x +y = (x
1
+y
1
, . . . , x
n
+y
n
), x = (x
1
, . . . , x
n
).
El siguiente resultado se deduce de manera inmediata de la denici on de espacio vec-
torial.
Proposici on 1.4. (Propiedades elementales). Sea E un e.v. Entonces:
1. 0x = 0 para todo x E.
2. 0 = 0 para todo R.
3. Si x = 0, entonces = 0 o x = 0.
4. ()x =(x) = (x) para cualesquiera R, x E.
Denici on 1.5. Sea E un e.v. y F E. Se dice que F es un subespacio vectorial de E
si, con las operaciones suma y producto (por escalar) heredadas de E, F es un espacio
vectorial, esto es, para cualesquiera x, y F, R, se tiene que x +y F, x F.
La siguiente caracterizaci on de subespacio vectorial es inmediata.
Proposici on 1.6. Dado E un e.v. y F E, F es un subespacio vectorial de E si, y s olo si,
x +y F, para cualesquiera , R, x, y F.
Tema 1. Espacios Vectoriales. 5
Denici on 1.7. Sea E un e.v., x
1
, . . . , x
n
una familia nita de vectores de E y x E. Se
dice que x es una combinaci on lineal de la familia anterior si existen
1
, . . . ,
n
R tales
que
x =
1
x
1
+ +
n
x
n
.
Ejemplos 1.8.
1. El 0 de un e.v. es siempre combinaci on lineal de cualquier familia de vectores.
2. En R
2
cualquier vector es combinaci on lineal de los vectores (1, 0), (0, 1):
(a, b) = a(1, 0) +b(0, 1).
Denici on 1.9. Sea E un e.v. y e
1
, . . . , e
n
una familia nita de vectores de E. Conside-
remos el siguiente subconjunto de E:
F :=x E : x es combinaci on lineal de e
1
, . . . , e
n
.
F es un subespacio vectorial de E, y se le llama subespacio (vectorial) engendrado o
generado por e
1
, . . . , e
n
. Se nota as:
F =e
1
, . . . , e
n
) o F = line
1
, . . . , e
n
.
A la familia e
1
, . . . , e
n
se le llama sistema de generadores de F.
Denici on 1.10. Sea E un e.v. y e
1
, . . . , e
n
una familia de vectores de E. Se dice que los
vectores e
1
, . . . , e
n
son linealmente independientes (l.i.) si
1
e
1
+ +
n
e
n
= 0
i
= 0, i = 1, . . . , n.
Se dice que e
1
, . . . , e
n
son linealmente dependientes (l.d.) si no son linealmente
independientes, es decir, existen
1
, . . . ,
n
R, con alguno distinto de cero, tales que
1
e
1
+ +
n
e
n
= 0.
Presentamos a continuaci on una sencilla caracterizaci on de la dependencia lineal.
6 Captulo I.
Algebra Lineal.
Proposici on 1.11. Sea E un e.v. y e
1
, . . . , e
n
una familia de vectores de E. Los vec-
tores e
1
, . . . , e
n
son l.d. si, y s olo si, existe i 1, . . . , n tal que x
i
es combinaci on lineal de
e
1
, . . . , e
i1
, e
i+1
, . . . e
n
.
DEMOSTRACI
i
(
1
e
1
+ +
i1
e
i1
+
i+1
e
i+1
+ +
n
e
n
).
Recprocamente, supongamos que e
i
=
1
e
1
+ +
i1
e
i1
+
i+1
e
i+1
+ +
n
e
n
. En-
tonces,
1
e
1
+ +
i1
e
i1
+
i+1
e
i+1
+ +
n
e
n
e
i
= 0.
Ejemplos 1.12.
1. En R
3
, los vectores (1, 0, 0), (0, 1, 0) son l.i.
2. En R
3
, los vectores (1, 0, 0), (0, 1, 0), (2, 2, 0) son l.d.
Denici on 1.13. Sea E un e.v. Una base de E es un sistema de generadores de E cuyos
vectores son l.i.
Teorema 1.14. Sea E un e.v. y B =e
1
, . . . , e
n
una base de E. Entonces, para cada x E,
existen x
1
, . . . , x
n
R, unicos, tales que x = x
1
e
1
+ +x
n
e
n
.
DEMOSTRACI
ON. 1. Es inmediato.
2. Sea e
1
, . . . , e
n
un sistema de generadores de E. Dado y Im( f ), existe x E tal
que f (x) = y. Por otra parte, existen
1
, . . . ,
n
R tales que x =
n
i=1
i
e
i
. Luego, por ser
f lineal, y =
n
i=1
1
f (e
i
).
12 Captulo I.
Algebra Lineal.
3. Supongamos que f es inyectiva, y consideremos una familia de vectores l.i. e
1
, . . . , e
n
.
Sean
1
, . . . ,
n
R tales que
n
i=1
i
f (e
i
) = 0. Entonces
n
i=1
i
e
i
Ker( f ). Por el Teorema
2.8,
n
i=1
i
e
i
= 0. Por ser los vectores e
1
, . . . , e
n
l.i., se tiene que
i
= 0, i = 1, . . . , n.
Recprocamente, Por el Teorema 2.8, hay que probar que Ker( f ) = 0. En efecto, sea
x Ker( f ) ( f (x) = 0). Ya que 0 es l.d., se tiene que x es tambi en l.d., luego se ha de
cumplir que x = 0.
4. Es consecuencia inmediata de los apartados 2 y 3.
Observaci on. Como consecuencia del apartado 2 del teorema anterior, tenemos que toda
aplicaci on lineal queda determinada cuando se conocen las im agenes de los vectores de
una base del dominio.
Teorema 2.10. Sea E un e.v. Entonces dim(E) = n si, y s olo si, E es isomorfo a R
n
(E
=R
n
).
DEMOSTRACI
i=1
x
i
e
i
_
,
donde x =
n
i=1
x
i
u
i
y e
1
, . . . , e
n
es la base can onica de R
n
. (Obs ervese que f est a bien
denida, por la unicidad de las coordenadas de x). Es trivial demostrar que f es lineal.
Veamos que f es inyectiva. En efecto, sea x Ker( f ). Entonces, por la denici on de f ,
x
i
= 0, i = 1, . . . , n. Luego, x = 0 y f es inyectiva por el Teorema 2.8. Para demostrar
la sobreyectividad, dado (x
1
, . . . , x
n
) R
n
, basta tomar x =
n
i=1
x
i
u
i
y tener en cuenta la
denici on de f .
Recprocamente, sea f : R
n
E un isomorsmo. Ya que dim(R
n
) = n y f lleva
bases de R
n
a bases de E (Teorema 2.9), se tiene que dim(E) = n.
Tema 2. Aplicaciones Lineales. 13
Teorema 2.11. Sean E, F e.v. y f : E F una aplicaci on lineal. Entonces
dim(E) = dim((Ker( f )) +dim((Im( f )).
DEMOSTRACI
i=1
i
e
i
+
p
j=1
j
x
j
= 0.
Entonces,
0 = f
_
m
i=1
i
e
i
+
p
j=1
j
x
j
_
=
p
j=1
j
y
j
.
Ya que y
1
, . . . , y
p
son l.i., se tiene que
i
= 0, i = 1, . . . p. Por tanto,
m
i=1
i
e
i
= 0.
Luego, por la independencia lineal de e
1
, . . . , e
m
, obtenemos que
i
= 0, i = 1, . . . , m.
Finalmente, veamos que e
1
, . . . , e
m
, x
1
, . . . , x
p
es un sistema de generadores de E. En
efecto, sea x E. Entonces, existen
1
, . . . ,
p
R tales que
f (x) =
p
j=1
j
y
j
= f
_
p
j=1
j
x
j
_
.
Por tanto, x
p
j=1
j
x
j
Ker( f ). Por consiguiente, existen
1
, . . .
m
R tales que
x
p
j=1
j
x
j
=
m
i=1
i
e
i
,
como queramos demostrar.
Tema 3. Matrices.
Denici on 3.1. Llamaremos matriz A de m las y n columnas:
A =
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . . . . . . . . . . .
a
m1
a
m2
. . . a
mn
_
_
_
_
= (a
i j
)
A mn se le llama orden de la matriz. Notaremos M
mn
(R) al conjunto de todas las
matrices de orden mn de n umeros reales.
A continuaci on establecemos las operaciones que se pueden realizar con matrices:
1. Suma: Dadas A = (a
i j
), B = (b
i j
) M
mn
(R), se dene
A+B = (a
i j
+b
i j
).
2. Producto por escalar: Dada A = (a
i j
) M
mn
(R) y R, se dene
A = (a
i j
).
3. Producto: Dadas A M
mn
(R), B M
np
(R), se dene A B = (c
i j
) M
mp
(R)
as:
c
i j
=
n
k=1
a
ik
b
k j
, i = 1, . . . m, j = 1, . . . p.
Observaci on: En general, el producto de matrices no es conmutativo. Basta considerar,
por ejemplo:
A =
_
1 0
1 1
_
, B =
_
2 1 0
1 3 2
_
A toda aplicaci on lineal se le puede asociar una matriz. En efecto, sean E, F e.v., B =
e
1
, . . . , e
n
una base de E, B
/
=e
/
1
, . . . , e
/
m
una base de F y f : E F una aplicaci on
lineal. Supongamos que
f (e
1
) = a
11
e
/
1
+a
21
e
/
2
+ +a
m1
e
/
m
f (e
2
) = a
12
e
/
1
+a
22
e
/
2
+ +a
m2
e
/
m
.
.
.
f (e
n
) = a
1n
e
/
1
+a
2n
e
/
2
+ +a
mn
e
/
m
15
16 Captulo I.
Algebra Lineal.
Dado x E, x =
n
i=1
x
i
e
i
, f (x) =
m
j=1
y
j
e
/
j
. Por otra parte, se tiene
f (x) =
n
i=1
x
i
f (e
i
) =
n
i=1
x
i
_
m
j=1
a
i j
e
/
j
_
=
m
j=1
_
n
i=1
a
i j
x
i
_
e
/
j
Por tanto,
y
1
= a
11
x
1
+a
12
x
2
+ a
1n
x
n
y
2
= a
21
x
1
+a
22
x
2
+ a
2n
x
n
.
.
.
y
m
= a
m1
x
1
+a
m2
x
2
+ a
mn
x
n
Llamaremos matriz de f asociada a las bases B y B
/
,
M( f , B, B
/
) =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
.
Entonces, la expresi on matricial de f queda as:
Y = M( f , B, B
/
)X,
donde
X =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
, Y =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
.
La demostraci on de los dos siguientes resultados la omitimos por trivial.
Proposici on 3.2. Sean E, F e.v., B, B bases de E y F, respectivamente, y f , g : E F
aplicaciones lineales. Entonces:
M( f +g, B, B
/
) = M( f , B, B
/
) +M(g, B, B
/
).
Tema 3. Matrices. 17
Proposici on 3.3 . Sean E, F, G e.v., B, B, B bases de E, F, G, respectivamente, y
f : E F, g : F G aplicaciones lineales. Entonces:
M(g f , B, B
//
) = M(g, B
/
, B
//
) M( f , B, B
/
).
Presentamos en el siguiente listado algunos tipos de matrices importantes:
Ejemplos 3.4.
1. Matriz cuadrada: m = n (el mismo n umero de las que de columnas). Se llama n
al orden de la matriz y se nota M
n
(R) al conjunto de matrices cuadradas de orden
n.
2. Matriz unidad: Dado n, se dene
I
n
=
_
_
_
_
_
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
0 0 . . . 1
_
_
_
_
_
En otras palabras, I
n
= (a
i j
) M
n
(R), donde
a
i j
=
_
1 si i = j
0 si i ,= j
3. Matriz escalar: Es de la forma aI
n
, es decir,
_
_
_
_
_
a 0 . . . 0
0 a . . . 0
.
.
.
.
.
.
.
.
.
0 0 . . . a
_
_
_
_
_
donde a R.
4. Matriz diagonal: Es de la forma
_
_
_
_
_
a
1
0 . . . 0
0 a
2
. . . 0
.
.
.
.
.
.
.
.
.
0 0 . . . a
n
_
_
_
_
_
donde a
1
,
2
, . . . , a
n
R.
18 Captulo I.
Algebra Lineal.
5. Matriz triangular.
a) Superior:
_
_
_
_
_
_
_
a
11
a
12
. . . a
1n
0 a
22
. . . a
2n
0 0 . . . a
3n
.
.
.
.
.
.
.
.
.
0 0 . . . a
nn
_
_
_
_
_
_
_
Esto es, a
i j
= 0, para i > j.
b) Inferior:
_
_
_
_
_
a
11
0 . . . 0
a
21
a
22
. . . 0
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
Es decir, a
i j
= 0, para i < j.
6. Matriz inversible o regular: A M
n
(R) es inversible o regular si existe B
M
n
(R) tal que A B = B A = I
n
. La matriz B es unica y se llama matriz inver-
sa de A, y se nota B = A
1
.
Sean E un e.v. y B = e
1
, . . . , e
n
y B
/
= e
/
1
, . . . , e
/
n
dos bases de E. Dado x E,
supongamos conocidas las coordenadas x
1
, . . . , x
n
de x respecto de la base B. Nos pre-
guntamos entonces cu ales ser an las coordenadas de x respecto de la base B
/
. Notemos
x
/
1
, . . . , x
/
n
a esas coordenadas y supongamos que conocemos las coordenadas de cada e
i
respecto de la base B
/
:
e
1
= a
11
e
/
1
+a
21
e
/
2
+ +a
n1
e
/
n
e
2
= a
12
e
/
1
+a
22
e
/
2
+ +a
n2
e
/
n
.
.
.
e
n
= a
1n
e
/
1
+a
2n
e
/
2
+ +a
nn
e
/
n
En tal caso,
x =
n
j=1
x
j
e
j
=
n
j=1
x
j
_
n
i=1
a
i j
e
/
i
_
=
n
i=1
_
n
j=1
a
i j
x
j
_
e
/
i
.
Por lo tanto, se tiene
x
/
i =
n
j=1
a
i j
x
j
, i = 1, . . . n.
Tema 3. Matrices. 19
Si llamamos P = (a
i j
), matricialmente nos quedara lo siguiente:
X
/
= P X,
donde
X =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
, X
/
=
_
_
_
_
_
x
/
1
x
/
2
.
.
.
x
/
n
_
_
_
_
_
.
La matriz P se llama matriz de cambio de base de B a B
/
.
El cambio de base tambi en se puede tratar desde el punto de vista de aplicaciones
lineales. En efecto, sea I : E E la aplicaci on identidad, esto es, I(x) = x, para todo
x E. Entonces se tiene que
P = M(I, B, B
/
).
Para calcular ahora la matriz Q de cambio de base de B
/
a B, basta tener en cuenta que
la matriz P es inversible, por ser I una aplicaci on biyectiva, y tendramos que
Q = P
1
= M(I, B
/
, B).
Tratamos a continuaci on el cambio de base para aplicaciones lineales.
Sean E, F e.v., B, B
/
bases de E, C,C
/
bases de F y f : E F una aplicaci on lineal.
Queremos saber la relaci on entre M = M( f , B,C) y M
/
= M( f , B
/
,C
/
). Para ello, notemos
P y Q a las matrices de cambio de base de B a B
/
y de C a C
/
, respectivamente. Tenemos
el siguiente diagrama conmutativo:
(E, B)
f
(F,C)
I
E
I
F
(E, B
/
)
f
(F,C
/
)
Entonces, por la Proposici on 3.3,
M
/
= Q M P
1
.
Denici on 3.5. Dada A = (a
i j
) M
mn
(R), se llama matriz traspuesta de A a la matriz
A
t
= (b
i j
) M
nm
(R), donde b
i j
= a
ji
. Obs ervese que se trata simplemente de cambiar
las por columnas.
20 Captulo I.
Algebra Lineal.
Proposici on 3.6.
1. (A+B)
t
= A
t
+B
t
, para cualesquiera A, B M
mn
(R).
2. (A B)
t
= B
t
A
t
, para cualesquiera A M
mn
(R), B M
np
(R).
3. Si A M
n
(R) es inversible, entonces A
t
tambi en es inversible con (A
t
)
1
= (A
1
)
t
.
Denici on 3.7. Sea A = (a
i j
) M
n
(R). Se dene el determinante de A, y se nota [A[,
como sigue:
1. n = 2: [A[ = a
11
a
22
a
12
a
21
.
2. n = 3 (regla de Sarrus): [A[ = a
11
a
22
a
33
+a
12
a
23
a
31
+a
21
a
32
a
13
a
13
a
22
a
31
a
12
a
21
a
33
a
11
a
23
a
32
.
3. n cualquiera: LLamemos A
i j
a la matriz de orden n 1 que se obtiene de A elim-
inando la la i y la columna j. Se dene el cofactor del elemento a
i j
como
i j
=
(1)
i+j
[A
i j
[. Entonces,
[A[ =
n
j=1
a
i j
i j
.
Enumeramos a continuaci on las propiedades de los determinantes.
Proposici on 3.8. Sean A, B M
n
(R).
1. El determinante de A no depende de la la respecto a la que se desarrolle, esto es,
[A[ =
n
j=1
a
i j
i j
, i = 1, . . . , n.
2. El determinante de A se puede calcular desarrollando por columnas, es decir,
[A[ =
n
i=1
a
i j
i j
, j = 1, . . . , n.
3. [A[ =[A
t
[.
4. [A B[ =[A[ [B[.
Tema 3. Matrices. 21
5. Si A tiene una la o una columna de ceros, entonces [A[ = 0.
6. Si en Ase multiplica una la o una columna por un escalar, entonces el determinante
obtenido es el siguiente:
a
11
. . . a
1n
.
.
.
.
.
.
a
i1
. . . a
in
.
.
.
.
.
.
a
n1
. . . a
nn
= [A[.
7. Si A tiene dos las o dos columnas iguales o proporcionales, entonces [A[ = 0.
8. Si en una la o en una columna de A aparece la suma de dos t erminos, entonces se
obtiene el siguiente determinante:
a
11
. . . a
1n
.
.
.
.
.
.
b
i1
+c
i1
. . . b
in
+c
in
.
.
.
.
.
.
a
n1
. . . a
nn
a
11
. . . a
1n
.
.
.
.
.
.
b
i1
. . . b
in
.
.
.
.
.
.
a
n1
. . . a
nn
a
11
. . . a
1n
.
.
.
.
.
.
c
i1
. . . c
in
.
.
.
.
.
.
a
n1
. . . a
nn
, a la matriz
de cofactores de A.
Teorema 3.10. Dada A M
n
(R), A es inversible si, y s olo si, [A[ , =0. En caso armativo,
A
1
=
1
[A[
(A
)
t
.
22 Captulo I.
Algebra Lineal.
DEMOSTRACI
)
t
=
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
n1
. . . a
nn
_
_
_
_
_
_
11
. . .
n1
.
.
.
.
.
.
1n
. . .
nn
_
_
_
=
=
_
_
_
_
_
[A[ 0 . . . 0
0 [A[ . . . 0
.
.
.
.
.
.
.
.
.
0 0 . . . [A[
_
_
_
_
_
=[A[ I
n
.
Tema 4. Sistemas de ecuaciones lineales.
Denici on 4.1. Dada A M
mn
(R), un menor de orden k (1 k mnm, n) de A
es el determinante de una matriz cuadrada (de orden k) construida intersecando k las y
columnas de A. Al mayor de los ordenes de los menores no nulos se le llama rango de la
matriz A, y se nota r(A).
Teorema 4.2. El rango de una matriz coincide con el n umero de las (o columnas) lineal-
mente independientes.
Denici on 4.3. Un sistema de ecuaciones lineales se dene as:
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
_
_
(1)
La nomenclatura usada es la siguiente:
x
i
, i = 1, . . . , n, se llaman inc ognitas del sistema.
a
i j
, 1 i m, 1 j n, son los coecientes del sistema.
b
j
, j = 1, . . . , m, son los t erminos independientes del sistema.
23
24 Captulo I.
Algebra Lineal.
Denici on 4.4. Una soluci on del sistema (1) es un vector (x
1
, . . . , x
n
) R
n
que verique
las m ecuaciones. Resolver el sistema (1) es encontrar el conjunto S de todas las solu-
ciones de dicho sistema. Puede ocurrir varias cosas:
1. S = / 0. En tal caso, el sistema se dice incompatible (SI).
2. S ,= / 0. Entonces el sistema se llama compatible. En esta situaci on existen dos al-
ternativas:
a) S es un conjunto unitario (el sistema tiene una unica soluci on). Entonces ten-
emos un sistema compatible determinado (SCD).
b) S tiene m as de un elemento (el sistema tiene m as de una soluci on). Entonces
se tiene un sistema compatible indeterminado (SCI).
Presentamos ahora la interpretaci on matricial de un sistema de ecuaciones lineales.
Para ello, dado el sistema (1), se llama matriz asociada a este sistema a la matriz de
coecientes A = (a
i j
). Si ahora notamos
X =
_
_
_
x
1
.
.
.
x
n
_
_
_
, B =
_
_
_
b
1
.
.
.
b
m
_
_
_
el sistema (1) quedara as:
A X = B.
A continuaci on damos la interpretaci on vectorial de un sistema de ecuaciones lineales.
Sean E, F e.v., con dim(E) =n y dim(F) =m, B y B
/
bases de E y F, respectivamente,
y f : E F una aplicaci on lineal. Notemos A =M( f , B, B
/
). Dado x E, sean x
1
, . . . , x
n
sus coordenadas respecto de la base B, y dado b F, sean b
1
, . . . , b
m
sus coordenadas
respecto de la base B
/
. Entonces, resolver el sistema (1) es encontrar x E tal que f (x) =
b. Pueden ocurrir las siguientes cosas:
1. b / Im( f ). Entonces tenemos un SI.
2. b Im( f ). Entonces se tiene un sistema compatible.
Observaciones:
Tema 4. Sistemas de ecuaciones lineales. 25
1. Si f es sobreyectiva, entonces el sistema es compatible, ya que Im( f ) = F.
2. Si f es inyectiva, tenemos dos casos:
a) Si b Im( f ), entonces se tiene un SCD.
b) Si b / Im( f ), entonces tenemos un SI.
3. Si f es biyectiva, entonces estamos ante un SCD.
Denici on 4.5. El sistema (1) es llamado un sistema de Cramer si m=n (mismo n umero
de ecuaciones que de inc ognitas) y [A[ , = 0.
Damos ahora un m etodo para resolver un sistema de Cramer.
Proposici on 4.6. (Regla de Cramer). Supongamos que (1) es un sistema de Cramer.
Entonces, (1) es un SCD y su soluci on es:
x
1
=
b
1
a
12
. . . a
1n
.
.
.
.
.
.
.
.
.
b
n
a
n2
. . . a
nn
[A[
, x
2
=
a
11
b
1
a
13
. . . a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
b
n
a
n3
. . . a
nn
[A[
, . . . , x
n
=
a
11
. . . a
1n1
b
1
.
.
.
.
.
.
.
.
.
a
n1
. . . a
nn1
b
n
[A[
DEMOSTRACI
)
t
B.
Ahora, unos sencillos c alculos nos permiten obtener el resultado deseado.
Estudiamos ahora la resoluci on de un sistema de ecuaciones lineales en general. En el
sistema (1), llamamos matriz ampliada a la matriz
A =
_
_
_
a
11
. . . a
1n
b
1
.
.
.
.
.
.
.
.
.
a
m1
. . . a
mn
b
m
_
_
_
Esto es, a nadimos a la matriz A la columna de t erminos independientes.
26 Captulo I.
Algebra Lineal.
Teorema 4.7. (Teorema de Rouch e-Frobenius). El sistema (1) es compatible si, y s olo
si, r(A) = r(
A) = r. En tal caso, pueden ocurrir dos cosas:
1. Si r < n, entonces estamos ante un SCI.
2. Si r = n, entonces se tiene un SCD.
Pasamos a continuaci on a la resoluci on de un sistema compatible. Para facilitar la
notaci on, suponemos que las r primeras las y las r primeras columnas de la matriz A son
linealmente independientes (estamos teniendo en cuenta el Teorema 4.2), esto es,
a
11
. . . a
1r
.
.
.
.
.
.
a
r1
. . . a
rr
,= 0.
Pueden ocurrir dos cosas:
1. r = m (recordemos que m es el n umero de ecuaciones del sistema (1)).
1.1 r = m = n. Tenemos un sistema de Cramer.
1.2 r = m < n. Las inc ognitas x
1
, . . . , x
r
se llaman inc ognitas principales y
x
r+1
, . . . , x
n
se llaman inc ognitas dependientes (par ametros). Ahora el sis-
tema (1) queda convertido en el siguiente Sistema de Cramer:
a
11
x
1
+ +a
1r
x
r
= b
1
(a
1r+1
x
r+1
+ +a
1n
x
n
)
.
.
.
a
r1
x
1
+ +a
rr
x
r
= b
r
(a
rr+1
x
r+1
+ +a
rn
x
n
)
La soluci on queda en funci on de nr par ametros.
2. r < m. Ya que las r primeras las son linealmente independientes, entonces el sis-
tema (1) queda reducido al sistema formado por las llamadas ecuaciones princi-
pales:
a
11
x
1
+ +a
1n
x
n
= b
1
.
.
.
a
r1
x
1
+ +a
rn
x
n
= b
r
Con lo cual estamos en el caso anterior.
Pasamos a estudiar un caso particular de sistemas de ecuaciones lineales: los sistemas
homog eneos.
Tema 4. Sistemas de ecuaciones lineales. 27
Denici on 4.8. Un sistema de ecuaciones lineales se dice homog eneo si todos los t ermi-
nos independientes son nulos:
a
11
x
1
+ +a
1n
x
n
= 0
.
.
.
a
m1
x
1
+ +a
mn
x
n
= 0
_
_
()
Al ser nulos los t erminos independientes, es claro que r(A) = r(
A), con lo cual todo
sistema homog eneo es compatible. Adem as, es claro que (0, . . . , 0) es una soluci on de
dicho sistema, llamada soluci on trivial. Llamando r = r(A), se tiene:
1. Si r = n, entonces () es un SCD y la unica soluci on es la trivial.
2. Si r < n, entonces () es un SCI.
Pasamos a la resoluci on de sistemas compatibles. La idea es transformar el sistema
dado en otro sistema equivalente (esto es, un sistema con las mismas soluciones) m as
sencillo de resolver. El m etodo m as cl asico es el llamado m etodo de Gauss, que con-
siste en pasar de un sistema a otro cuya matriz de coecientes sea una matriz triangular
superior. Ve amoslo con varios ejemplos:
Ejemplos 4.9.
1. Discutir y resolver el siguiente sistema:
x +y +z = 11
2x y +z = 5
3x +2y +z = 24
Sea A la matriz de coecientes. Entonces, [A[ = 5 ,= 0. Luego, tenemos un sistema
de Cramer (SCD). El sistema en coecientes quedara as:
_
_
1 1 1
2 1 1
3 2 1
11
5
24
_
_
Multiplicamos la 1
a
la por 2 y la sumamos a la 2
a
la. As mismo, multiplicamos
la 1
a
la por 3 y la sumamos a la 3
a
la, qued andonos lo siguiente:
_
_
1 1 1
0 3 1
0 1 2
11
17
9
_
_
28 Captulo I.
Algebra Lineal.
Ahora intercambiamos la 2
a
y la 3
a
la:
_
_
1 1 1
0 1 2
0 3 1
11
9
17
_
_
Si multiplicamos la 2
a
la por 3 y la sumamos a la 3
a
la, nos queda:
_
_
1 1 1
0 1 2
0 0 5
11
9
10
_
_
Por lo tanto, el sistema resultante es el siguiente:
x +y +z = 11
y 2z = 9
5z = 10
Luego,
5z = 10 z = 2 ,
y 4 =9 y = 5 ,
x +5+2 = 11 x = 4 .
2. Discutir y resolver el siguiente sistema:
2x 4y +6z = 2
y +2z = 3
x +3y +z = 4
Sea A la matriz de coecientes y
A la matriz ampliada. Es f acil comprobar que
r(A) = r(
A) = 2 < 3, luego tenemos un SCI con 32 = 1 par ametro. El sistema en
coecientes es el siguiente:
_
_
2 4 6
0 1 2
1 3 1
2
3
4
_
_
Dividimos por 2 la 1
a
:
_
_
1 2 3
0 1 2
1 3 1
1
3
4
_
_
Tema 4. Sistemas de ecuaciones lineales. 29
Ahora multiplicamos por -1 la 1
a
y la sumamos a la 3
a
:
_
_
1 2 3
0 1 2
0 1 2
1
3
3
_
_
Observemos que la 3
a
se obtiene simplemente cambiando de signo la 2
a
la. Por
tanto, nos queda el siguiente sistema:
x 2y +3z = 1
y +2z = 3
Entonces, llamando z = , tenemos:
y =32 ,
x 2(32) +3 x =75 .
Sean E un e.v. con dim(E) = n, F un subespacio suyo con dim(F) = r, B una base de
E y u
1
, . . . , u
r
una base de F. Para cada i = 1, . . . , r, sean (a
1i
, . . . , a
ni
) las coordenadas
de u
i
respecto de la base B. Dado x F, notemos (x
1
, . . . , x
n
) a las coordenadas de x
respecto de la base B, y (
1
, . . . ,
r
) a sus coordenadas respecto de la base u
1
, . . . , u
r
.
Entonces,
x
1
= a
11
1
+a
12
2
+ +a
1r
r
x
2
= a
21
1
+a
22
2
+ +a
2r
r
.
.
.
x
n
= a
n1
1
+a
n2
2
+ +a
nr
r
Las ecuaciones anteriores reciben el nombre de ecuaciones param etricas de F. Lla-
memos A = (a
i j
). Observamos que r(A) = r (u
1
, . . . , u
r
son l.i.). Por otra parte, por el
Teorema de Rouch e-Frobenius, x F si, y s olo si, r(A) = r(
A). Supongamos que r(A) =
r(
A) = r y que las r primeras columnas de A son linealmente independientes, esto es,
a
11
. . . a
1r
.
.
.
.
.
.
a
r1
. . . a
rr
,= 0.
Entonces, todos los menores de orden r +1 de la matriz
A son nulos. En particular,
tenemos que
a
11
. . . a
1r
x
1
.
.
.
.
.
.
.
.
.
a
r1
. . . a
rr
x
r
a
r+11
. . . a
r+1r
x
r+1
=0,
a
11
. . . a
1r
x
1
.
.
.
.
.
.
.
.
.
a
r1
. . . a
rr
x
r
a
r+21
. . . a
r+2r
x
r+2
=0,
a
11
. . . a
1r
x
1
.
.
.
.
.
.
.
.
.
a
r1
. . . a
rr
x
r
a
n1
. . . a
nr
x
n
=0.
30 Captulo I.
Algebra Lineal.
Aparecen entonces nr ecuaciones, llamadas ecuaciones caractersticas o implci-
tas de F. Para calcular las ecuaciones param etricas a partir de las ecuaciones caractersti-
cas, s olo hay que resolver el sistema homog eneo formado por estas ultimas ecuaciones.
Ejemplos 4.10.
1. Calcular las ecuaciones cartesianas del subespacio de R
4
generado por los sigu-
ientes vectores:
(1, 1, 0, 0), (0, 1, 1, 0), (2, 1, 1, 0), (3, 3, 0, 0).
Consideremos la matriz
_
_
_
_
1 0 2 3
1 1 1 3
0 1 1 0
0 0 0 0
. .
A
x
1
x
2
x
3
x
4
_
_
_
_
. .
A
Se comprueba de manera inmediata que r(A) = 3. Luego,
1 0 2 x
1
1 1 1 x
2
0 1 1 x
3
0 0 0 x
4
= 0.
Calculando el determinante anterior, la ecuaci on caracterstica es:
x
4
= 0.
2. Calcular las ecuaciones param etricas y una base del subespacio de R
5
de ecuaciones
cartesianas:
x
1
+x
2
x
3
= 0
x
3
+x
5
= 0
x
4
2x
1
= 0
LLamando x
1
= y x
3
= , obtenemos las siguientes ecuaciones param etricas:
x
1
=
x
2
=+
x
3
=
x
4
= 2
x
5
=
Tema 4. Sistemas de ecuaciones lineales. 31
Ahora, tomando =1, =0, obtenemos el vector (1, 1, 0, 2, 0) y para =0, =
1, (0, 1, 1, 0, 1). Dichos vectores forman una base del subespacio.
Tema 5. Espacios vectoriales eucldeos.
Denici on 5.1. Un producto escalar en un espacio vectorial E es una aplicaci on , ) :
E E R que verica las siguientes propiedades:
1. x, y) 0 para cualesquiera x, y E.
2. x, x) = 0 si, y s olo si, x = 0.
3. x, y) =y, x) para cualesquiera x, y E.
4. x, y +z) =x, y) +x, z) para cualesquiera x, y, z E.
5. x, y) = x, y), para todo R, para cualesquiera x, y E.
Al par (E, , )) se le llama espacio vectorial eucldeo.
De la anterior denici on se deducen las siguientes propiedades inmediatas:
Proposici on 5.2. Sea (E, , )) un espacio vectorial eucldeo. Entonces:
1. 0, x) = 0 para todo x E.
2. Dado x E, si x, y) = 0 para todo y E, entonces x = 0.
Ejemplo 5.3. La aplicaci on , ) : R
n
R
n
R denida por
x, y) =
n
i=1
x
i
y
i
x, y R
n
,
donde x = (x
1
, . . . , x
n
), y = (y
1
, . . . , y
n
), es un producto escalar en R
n
, llamado produc-
to escalar usual. (N otese que para n = 1, este producto escalar no es otra cosa que el
producto de n umeros reales).
33
34 Captulo I.
Algebra Lineal.
Sea (E, , )) un espacio vectorial eucldeo con dim(E) = n y sea B =e
1
, . . . , e
n
) una
base de E. Dados x, y E, si x =
n
i=1
x
i
e
i
, y =
n
j=1
y
j
e
j
, entonces tenemos
x, y) =
n
i=1
x
i
e
i
,
n
j=1
y
j
e
j
)
n
i=1
x
i
e
i
,
n
j=1
y
j
e
j
) =
n
i=1
x
i
_
n
j=1
y
j
e
i
, e
j
)
_
=
n
i, j=1
x
i
y
j
e
i
, e
j
).
Si ahora consideramos la matriz de orden n, A = (a
i j
), donde a
i j
= e
i
, e
j
) para i, j =
1, . . . n, entonces tenemos que a
ii
> 0, i = 1, . . . , n y que a
i j
= a
ji
, i, j = 1, . . . , n (esto es,
la matriz A es sim etrica) y el producto escalar quedara:
x, y) = (x
1
, . . . , x
n
) A
_
_
_
y
1
.
.
.
y
n
_
_
_
.
A nadiendo una peque na hip otesis a la matriz A, el recproco tambi en es cierto, como
vemos a continuaci on.
Teorema 5.4. Sean E un espacio vectorial n-dimensional, B = e
1
, . . . , e
n
una base de E
y A = (a
i j
) M
n
(R) vericando las siguientes propiedades:
1. a
ii
> 0, i = 1, . . . , n.
2. A es sim etrica.
3. [A
i
[ >0, i =1, . . . , n donde, para cada i 1, . . . , n, A
i
es la submatriz de Aformada
por las i primeras las y columnas.
Entonces la aplicaci on , ) : E E R denida por
x, y) = (x
1
, . . . , x
n
) A
_
_
_
y
1
.
.
.
y
n
_
_
_
x, y E,
donde x =
n
i=1
x
i
e
i
, y =
n
j=1
y
j
e
j
, es un producto escalar en E.
Tema 5. Espacios vectoriales eucldeos. 35
Ejemplo 5.5. Si consideramos R
3
con la base can onica, comprobar que la matriz
A =
_
_
2 1 1
1 2 1
1 1 2
_
_
dene un producto escalar y dar su expresi on.
Denici on 5.6. Sea (E, , )) un espacio espacio vectorial eucldeo. Se dene la norma de
un vector x E, |x| :=
_
x, x).
Ejemplo 5.7. En R
n
con el producto escalar usual, la norma de un vector x = (x
1
, . . . , x
n
)
sera |x| =
_
?x
2
1
+ x
2
n
.
Recogemos en el siguiente resultado algunas propiedades de la norma.
Proposici on 5.8. Sea (E, , )) un espacio vectorial eucldeo. Se verican las siguientes
armaciones:
1. |x| 0 para todo x E.
2. |x| = 0 si, y s olo si x = 0.
3. |x| =[[|x| para todo R, para todo x E.
4. Desigualdad de Schwarz: [x, y)[ |x||y| para cualesquiera x, y E.
5. Desigualdad triangular: |x +y| |x|+|y| para cualesquiera x, y E.
En lo que sigue, E denotar a un espacio vectorial eucldeo.
Denici on 5.9. Un vector x E se dice unitario si |x| = 1.
Denici on 5.10. Dos vectores x, y E se dicen ortogonales si x, y) =0, y se notar a xy.
36 Captulo I.
Algebra Lineal.
Ejemplo 5.11. En R
n
, los vectores de la base can onica son unitarios y ortogonales entre
s.
Teorema 5.12. (Teorema de Pit agoras). Sean x, y E con xy. Entonces
|x +y|
2
=|x|
2
+|y|
2
.
DEMOSTRACI
ON.
|x +y|
2
=x +y, x +y) =x, x) +2x, y) +y, y) =|x|
2
+|y|
2
.
Denici on 5.13. Supongamos que dim(E) = n y sea B = e
1
, . . . , e
n
una base de E.
Se dice que B es una base ortogonal si e
i
e
j
para i ,= j. Si adem as e
i
es unitario, i
1, . . . , n, se dice que la base B es ortonormal.
Si tenemos una base ortogonal, podemos conseguir de manera trivial un base ortonor-
mal, sin m as que dividir cada vector por su norma. Vamos a ver que tambi en podemos
conseguir una base ortonormal a partir de una base cualquiera dada.
Proposici on 5.14. Si e
1
, . . . , e
n
es una familia de vectores ortogonales no nulos de E,
entonces e
1
, . . . , e
n
son linealmente independientes.
DEMOSTRACI
ON. Sea
1
e
1
+ +
n
e
n
= 0. Entonces, dado i 1, . . . , n, se tiene
0 =
1
e
1
+ +
n
e
n
, e
i
) =
i
|e
i
|
2
.
Por tanto,
i
= 0 para todo i 1, . . . , n.
Tema 5. Espacios vectoriales eucldeos. 37
Teorema 5.15. (M etodo de ortogonalizaci on de Gramm-Schmidt). Supongamos que
dim(E) =n y sea B =e
1
, . . . , e
n
una de E. Se construye una base ortogonal u
1
, . . . , u
n
in
=
u
i
,e
n
)
u
i
,u
i
)
.
Denici on 5.16. Sea U un subconjunto de E. Se llama ortogonal de U al conjunto
U
=x E : xy y U,
esto es, al conjunto formado por los vectores ortogonales a todos los vectores de U.
Proposici on 5.17. Sea U un subconjunto de E.
1. U
es un subespacio vectorial de E.
2. Si U es un subespacio vectorial de E y u
1
, . . . , u
m
es una base de U, entonces,
dado x E, x U
).