Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Matrices
Matrices
1 Matrices y determinantes 3
1.1 Denicion de matriz y algunos tipos de matrices . . . . . . . . . . . . . . . 3
1.2 Operaciones con matrices y propiedades de las operaciones . . . . . . . . . . 6
1.2.1 Igualdad de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Suma de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Propiedades de la suma de matrices . . . . . . . . . . . . . . . . . . 6
1.2.4 Producto de una matriz por un escalar del mismo cuerpo . . . . . 7
1.2.5 Propiedades del producto de una matriz por un escalar del mismo
cuerpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.6 Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.7 Propiedades del producto de matrices . . . . . . . . . . . . . . . . . 8
1.2.8 Estructura algebraica de las matrices M
mn
en IK . . . . . . . . . . 9
1.2.9 Analisis de otras propiedades del producto de matrices . . . . . . . . 9
1.3 Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Transformaciones de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1 Traspuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.2 Conjugada de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 Potencia de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 Operaciones elementales y equivalencia . . . . . . . . . . . . . . . . . . . . . 15
1.6.1 Operaciones elementales . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6.2 Equivalencia por las, equivalencia por columnas y equivalencia . . . 15
1.6.3 Inversa de una operacion elemental . . . . . . . . . . . . . . . . . . . 16
1.6.4 Matrices equivalentes por las, equivalentes por columnas y equiva-
lentes: una relacion de equivalencia . . . . . . . . . . . . . . . . . . . 16
1.6.5 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6.6 Operacion elemental como producto por una matriz elemental . . . . 17
1.6.7 Inversa de una matriz elemental . . . . . . . . . . . . . . . . . . . . 18
1.6.8 Varios resultados sobre equivalencia de matrices . . . . . . . . . . . 19
1.7 Formas escalonadas por las de una matriz . . . . . . . . . . . . . . . . . . 20
1.7.1 Deniciones de forma escalonada por las y forma canonica por las 20
1.7.2 Algoritmo de Eliminacion Gaussiana Simple . . . . . . . . . . . . . . 20
1.7.3 Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.7.4 Matrices equivalentes a la identidad: aplicacion para obtener la inversa 23
1.8 Forma escalonada y forma canonica de una matriz . . . . . . . . . . . . . . 24
1.9 Matrices de intercambio, de Jordan, de Toeplitz y de Hankel . . . . . . . . 26
1.10 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.10.1 Denicion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.10.2 Calculo de un determinante de orden n, por adjuntos . . . . . . . . . 29
1.10.3 Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . 30
1.11 Determinante e inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.11.1 Calculo de la inversa de una matriz, por adjuntos . . . . . . . . . . . 32
1.11.2 Algunas propiedades de matrices inversibles . . . . . . . . . . . . . . 33
1
CONTENIDOS 2
1.12 Relacion equivalencia con la identidad, determinante, rango y existencia de
inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.13 Determinantes notables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.13.1 Determinante de la matriz de Vandermonde . . . . . . . . . . . . . . 37
1.13.2 Jacobiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.13.3 Hessiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.13.4 Wronskiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.14 Repaso sobre vectores de IR
n
. . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.14.1 Denicion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.14.2 Combinacion lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.14.3 Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . 41
1.15 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.16 Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Cap
tulo 1
Matrices y determinantes
1.1 Denicion de matriz y algunos tipos de matrices
Una matriz es una ordenacion rectangular de elementos dispuestos en las y columnas
encerrados entre corchetes, por ejemplo
B =
_
_
3 2 3 1
1 4 0 0
0 1 1 1
_
_
C =
_
_
2 +i 1 i 0 3i
3 2i 2 + 6i 2 i
0 i 1 +i 2 + 0i
_
_
Las matrices se representan por letras may usculas A,B,C, ... y sus elementos por min usculas
con dos subndices, a
ij
. Los subndices indican, por este orden, la la y la columna en la
que se sit ua el elemento.
A =
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . . . . . . . . . . .
a
m1
a
m2
. . . a
mn
_
_
Se denota tambien A = {a
ij
}
Una matriz de m las y n columnas se dice que es una matriz de orden m n, y esto
tambien se denota as: A
mn
. El primer ndice se reere siempre al n umero de las y el
segundo al n umero de columnas.
Las matrices que trataremos tendran elementos de un cuerpo IK. Consideraremos el cuerpo
de los n umeros reales, IR, o el cuerpo de los n umeros complejos, C. Ambos son cuerpos
conmutativos (tanto la suma como la multiplicacion cumplen la propiedad conmutativa).
Hablaremos de matrices en IR si a
ij
IR y de matrices en C si a
ij
C.
La matriz ejemplo B se puede considerar como una matriz en el cuerpo de los n umeros
reales, IR, o tambien en el cuerpo de los n umeros complejos, C, sin mas que tener en
cuenta que todo real es un elemento de C con parte imaginaria nula.
La matriz ejemplo C es una matriz en el cuerpo de los n umeros complejos. No es una
matriz en el cuerpo de los reales ya que tiene elementos que no son n umeros reales.
Denimos a continuacion algunos tipos de matrices.
1) Matriz la es una matriz de orden 1 n, A = [a
11
a
12
. . . a
1n
]
2) Matriz columna es una matriz de orden m1, B =
_
_
b
11
b
21
.
.
.
b
m1
_
_
A una matriz columna se le denomina tambien vector.
3
CAP
_
_
_
* diagonal principal
triangulo superior
triangulo inferior
Matriz triangular superior. Matriz cuadrada que tiene el triangulo inferior nulo.
O lo que es lo mismo, a
ij
= 0 para i > j.
Matriz triangular inferior. Matriz cuadrada que tiene el triangulo superior nulo.
O lo que es lo mismo, a
ij
= 0 para i < j
Matriz diagonal. Es aquella que es triangular superior y triangular inferior a la vez.
Entre estas cabe destacar la matriz escalar, matriz cuya diagonal principal tiene
todos los elementos iguales. La matriz unidad es una matriz escalar cuya diagonal
principal esta formada solo por unos. La matriz unidad tambien se denomina matriz
identidad. La matriz identidad de orden n se denota como I
n
. Uno es el el. neutro
de la multiplicacion en el cuerpo.
Matriz simetrica. Una matriz A
n
es simetrica si a
ij
= a
ji
para todos los valores
de i y de j.
Matriz antisimetrica o hemisimetrica. Una matriz A
n
es antisimetrica si a
ij
=
a
ji
para todos los valores de i y de j. Evidentemente, para los elementos de la
diagonal principal se concluye a
ii
= a
ii
, por tanto a
ii
= 0 para i = 1, 2, . . . n.
CAP
_
_
1 0
2 1
1 1
_
_
=
_
_
1 0
1 0
2 1
_
_
+
_
_
1 0
2 1
1 1
_
_
=
_
_
0 0
1 1
1 2
_
_
1.2.3 Propiedades de la suma de matrices
Tanto para las matrices en IR como para las matrices en C (separadamente), se cumplen
las siguientes propiedades.
1) Operacion cerrada: A, B M, A+B M
2) Asociativa: A, B, C M, A+ (B +C) = A+ (B +C)
3) Elemento neutro: 0 M/ A M, A+ 0 = A
4) Conmutativa: A, B M, A+B = B +A
5) Existencia de elemento opuesto:
A M A / A+ (A) = 0
A es la que hemos denominado anteriormente matriz opuesta.
El elemento opuesto de a IR es a IR
El elemento opuesto de a +bi C es a bi C. (Signo opuesto en la parte real y en la
parte imaginaria).
CAP
k=1
a
ik
b
kj
i = 1, . . . , m j = 1, . . . , p
El algoritmo puede entenderse facilmente observando el siguiente esquema:
_
_
_
_
_
_
_
_
la i columna j c
ij
mn n p mp
Es decir, c
ij
= a
i1
b
1j
+a
i2
b
2j
+... +a
in
b
nj
Ejemplo 1.9 Multiplicar las siguientes matrices:
_
2 3 1
0 1 2
_
_
_
1 0
1 2
2 3
_
_
=
_
2 1 + 3 1 + 1 2 2 0 + 3 2 + 1 3
0 1 +1 1 +2 2 0 0 +1 2 +2 3
_
=
_
3 9
5 8
_
Ejemplo 1.10 Multiplicar entre s por pares, las matrices A = [ 1 2 3 ] , B =
_
_
1
2
3
_
_
y
C =
_
2 2
3 1
_
A B = [ 1 2 3 ]
_
_
1
2
3
_
_
= [ 1 1 + 2 2 + 3 3 ] = 14
B A =
_
_
1
2
3
_
_
[ 1 2 3 ] =
_
_
1 2 3
2 4 6
3 6 9
_
_
AC, CA, CB, BC no son operaciones posibles
1.2.7 Propiedades del producto de matrices
Siempre que los productos sean posibles, se verican las siguientes propiedades:
1) Asociativa: A, B, C M A (B C) = (A B) C
2) Distributiva respecto a la suma de matrices:
A, B, C M A (B +C) = (A B) + (A C)
(A+B) C = A C +B C
3) Pseudoasociativa (asociativa entre el producto externo y el producto interno en M)
A, B M y K (A B) = (A) B = A (B)
CAP
nn
Tenemos por una parte que el producto es de orden m p, y por otra que p = m (para
poder multiplicar B por A) y que el producto es de orden n n. Para que C y C
sean
del mismo orden se requiere m = p = n. Por tanto A y B han de ser matrices cuadradas
de orden n.
Se dice que dos matrices cuadradas de orden n conmutan o que son conmutativas o que
son permutables si se cumple la igualdad A B = B A. Tambien se utiliza la denominacion
conmutante o permutante.
En algunos casos se verica que A B = B A, entonces se dice que las matrices cuadradas
de orden A y B son anticonmutativas o antipermutables. Tambien se utiliza la denomi-
nacion anticonmutante o antipermutante
Ejemplo 1.13 Ejemplo de dos matrices cuadradas del mismo orden que no son permuta-
bles ni antipermutables.
A =
_
1 2
3 1
_
B =
_
4 1
5 0
_
A B =
_
1 2
3 1
_ _
4 1
5 0
_
=
_
14 1
17 3
_
B A =
_
4 1
5 0
_ _
1 2
3 1
_
=
_
7 9
5 10
_
CAP
k=1
a
ik
d
kj
= a
ij
d
jj
c
ij
=
n
k=1
d
ik
a
kj
= d
ii
a
ij
1.3 Inversa de una matriz
Dada una matriz A M
n
decimos que F es la inversa de A si: A F = F A = I.
La inversa de A se denota como A
1
, es decir F = A
1
, y se tiene entonces A A
1
=
A
1
A = I A
1
M
n
No todas las matrices cuadradas tienen inversa. Una matriz A que posee inversa se de-
nomina matriz regular o matriz inversible. De una matriz que no tiene inversa se dice
que es no inversible o singular.
Propiedades
Dadas A y B inversibles y IK, = 0 se cumple:
1) A
1
es unica
2) (A
1
)
1
= A
3) A B es inversible, y (A B)
1
= B
1
A
1
4) ( A)
1
=
1
A
1
Dem.
1) Sea A
1
la inversa de A, y B otra matriz tal que A B = I. Premultiplicando la ultima
expresion por A
1
obtenemos:
A
1
A B = A
1
I B = A
1
concluimos que B es la misma matriz que A
1
.
2) A
1
A = AA
1
= I (A
1
)
1
= A
3) Consideramos el producto B
1
A
1
ABB
1
A
1
= AIA
1
= AA
1
= I y
B
1
A
1
AB = B
1
IB = B
1
B = I
(AB)
1
= B
1
A
1
4) A
1
A
1
=
1
AA
1
= 1I = I y
1
A
1
A = 1I = I
(A)
1
=
1
A
1
Observaciones:
Una consecuencia de la propiedad 3 es que el producto de tres matrices inversibles de
orden n es inversible, y la inversa es el producto de las inversas en el orden contrario. La
generalizacion a productos de mas matrices es obvia.
(A B C)
1
= ((A B) C)
1
= C
1
(A B)
1
= C
1
B
1
C
1
CAP
k=1
a
jk
b
ki
=
n
k=1
a
t
kj
b
t
ik
=
n
k=1
b
t
ik
a
t
kj
La pen ultima igualdad se obtiene por cumplir la propiedad conmutativa el producto de
elementos del cuerpo IK.
El primer termino de la igualdad es el elemento (i, j) de (A B)
t
y el ultimo termino es el
elemento (i, j) de la matriz B
t
A
t
. Concluyendo entonces que (AB)
t
= B
t
A
t
Cuando A es cuadrada tenemos:
Una matriz A
n
es simetrica si y solo si A = A
t
.
En efecto A
n
es simetrica si y solo si a
ij
= a
ji
, y como a
ji
= a
t
ij
, tenemos que
a
ij
= a
t
ij
y por tanto A = A
t
Ejemplo 1.21 A =
_
_
1 2 3
2 1 2
3 2 0
_
_
es una matriz simetrica
Una matriz A
n
es antisimetrica o hemisimetrica si y solo si A = A
t
.
En efecto A
n
es antisimetrica o hemisimetrica si y solo si a
ij
= a
ji
, y como a
ji
=
a
t
ij
, tenemos que a
ij
= a
t
ij
y por tanto A = A
t
Ejemplo 1.22 A =
_
_
0 2 3
2 0 2
3 2 0
_
_
es una matriz antisimetrica
Dada una matriz cuadrada A
n
, A+A
t
es una matriz simetrica.
Veamos la demostracion: Denimos C = A+A
t
c
ij
= a
ij
+a
t
ij
= a
t
ji
+a
ji
= a
ji
+a
t
ji
= c
ji
(La tercera igualdad se cumple por la propiedad conmutativa de la suma de los
elementos del cuerpo IK).
CAP
_
2 3
1 5
__
=
1
2
_
0 4
4 0
_
=
_
0 2
2 0
_
_
2 1
1 5
_
+
_
0 2
2 0
_
=
_
2 1
3 5
_
Propiedad adicional
Dada A
mn
, las matrices AA
t
y A
t
A son ambas simetricas.
Demostracion: (AA
t
)
t
= (A
t
)
t
A
t
= AA
t
(A
t
A)
t
= A
t
(A
t
)
t
= A
t
A
Matriz ortogonal
Una matriz cuadrada se dice ortogonal si AA
t
= A
t
A = I
Propiedades
a) A
1
= A
t
b) La inversa y la traspuesta de una matriz ortogonal es ortogonal
c) El producto de dos o mas matrices ortogonales es ortogonal
Dem.
a) Por la denicion de inversa
b1) Sea A ortogonal,
A
1
(A
1
)
t
= A
t
(A
t
)
t
= A
t
A = I y
(A
1
)
t
A
1
= (A
t
)
t
A
t
= AA
t
= I, por tanto A
1
es ortogonal.
b2) Sea A ortogonal,
A
t
(A
t
)
t
= A
t
A = I y
(A
t
)
t
A
t
= AA
t
= I, por tanto A
t
es ortogonal.
c) Lo demostramos para el producto de dos matrices. Sean A y B ortogonales
(AB) (AB)
t
= ABB
t
A
t
= AIA
t
= AA
t
= I
(AB)
t
AB = B
t
A
t
AB = B
t
IB = B
t
B = I
CAP
_
1 2 2
0 4 1
1 0 1
2 1 2
_
_
queremos obtener la matric C
que tiene intercambiadas las las 2 y 4. Determina la matriz elemental B tal que B.A = C
B =
_
_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_
_
Comprobacion:
_
_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_
_
.
_
_
1 2 2
0 4 1
1 0 1
2 1 2
_
_
=
_
_
1 2 2
2 1 2
1 0 1
0 4 1
_
_
1.6.7 Inversa de una matriz elemental
Toda matriz elemental tiene inversa, y la inversa de una matriz elemental es elemental
(corresponde a la operacion elemental inversa).
La inversa de F
ij
es F
ij
La inversa de F
ij()
es F
ij()
La inversa de F
i()
es F
i(1/)
Analogamente para columnas, sin mas que sustituir F por C.
Comprobaciones para matrices elementales correspondientes a operaciones elementales por
las:
F
ij
F
ij
I = I F
ij
F
ij
= I
F
ij()
F
ij()
I = I F
ij()
F
ij()
= I
F
ij()
F
ij()
I = I F
ij()
F
ij()
= I
F
i()
F
i(1/)
I = I F
i()
F
i(1/)
= I
F
i(1/)
F
i()
I = I F
i(1/)
F
i()
= I
Y analogamente para las o.e. por columnas
Ejemplos:
E
23
E
F
23
=
_
_
1 0 0
0 0 1
0 1 0
_
_
_
_
1 0 0
0 0 1
0 1 0
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
CAP
_
_
3 0 0
0 1 0
0 0 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
E
F
31(2)
E
F
31(2)
=
_
_
1 0 0
0 1 0
2 0 1
_
_
_
_
1 0 0
0 1 0
2 0 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
1.6.8 Varios resultados sobre equivalencia de matrices
A y B equivalentes por las implica que existen F
1
, F
2
, ..., F
a
/
F
a
... F
2
F
1
A = B
A y B equivalentes por columnas implica que existen C
1
, C
2
, ..., C
b
/
A C
1
C
2
... C
b
= B
A y B equivalentes implica que existen F
1
, F
2
, ... , F
a
, C
1
, C
2
, ... , C
b
/
F
a
... F
2
F
1
A C
1
C
2
... C
b
= B
Ya que las relaciones anteriores son simetricas, tambien podramos haber escrito:
A y B equivalentes por las implica que existen F
1
, F
2
, ..., F
s
/
F
s
... F
2
F
1
B = A
A y B equivalentes por columnas implica que existen C
1
, C
2
, ..., C
t
/
B C
1
C
2
... C
t
= A
A y B equivalentes implica que existen F
1
, F
2
, ... , F
s
, C
1
, C
2
, ... , C
t
/
F
s
... F
2
F
1
B C
1
C
2
... C
t
= A
Pero en realidad las F y las F
,
pues obviamente:
F
a
... F
2
F
1
A = B (F
1
)
1
(F
2
)
1
... (F
a
)
1
F
a
... F
2
F
1
A = (F
1
)
1
(F
2
)
1
... (F
a
)
1
B
(F
1
)
1
(F
2
)
1
... (F
a
)
1
B = A
(Por ser las matrices elementales inversibles).
Por otra parte, por ser el producto de inversibles inversible, tenemos:
A y B equivalentes por las implica que existe P inversible / P A = B
(A = P
1
B)
Notese que manteniendo la notacion anterior:
_
P = F
a
... F
2
F
1
P
1
= F
1
1
F
1
2
... F
1
a
A y B equivalentes por columnas implica que existe Q inversible / A Q = B
(A = BQ
1
)
_
Q = C
1
C
2
... C
b
Q
1
= C
1
b
... C
1
2
C
1
1
A y B equivalentes implica que existen P y Q inversibles / P A Q = B
(A = P
1
BQ
1
)
CAP
_
0 0 2 3
0 0 0 1
0 2 6 4
0 1 4 0
0 0 1 2
_
_
mediante elimi-
nacion gaussiana simple.
A =
_
_
0 0 2 3
0 0 0 1
0 2 6 4
0 1 4 0
0 0 1 2
_
_
0 2 6 4
0 0 0 1
0 0 2 3
0 1 4 0
0 0 1 2
_
_
0 2 6 4
0 0 0 1
0 0 2 3
0 1 1 4 3 0 2
0 0 1 2
_
_
=
F
13
F
41(1/2)
_
_
0 2 6 4
0 0 0 1
0 0 2 3
0 0 1 2
0 0 1 2
_
_
0 2 6 4
0 0 2 3
0 0 0 1
0 0 1 2
0 0 1 2
_
_
_
_
0 2 6 4
0 0 2 3
0 0 0 1
0 0 1 1 2 3/2
0 0 1 1 2 3/2
_
_
=
F
23
F
42(1/2)
F
52(1/2)
_
_
0 2 6 4
0 0 2 3
0 0 0 1
0 0 0 7/2
0 0 0 1/2
_
_
0 2 6 4
0 0 2 3
0 0 0 1
0 0 0 0
0 0 0 0
_
_
= A
esc filas
A
f
A
esc filas
F
43(7/2)
F
53(1/2)
3 cols. pivotales: la 2
a
, la 3
a
y la 4
a
. Los pivotes respectivos son 2, 2 y 1.
5) Una vez obtenida la matriz equivalente por las escalonada, debemos continuar el
proceso transformando en unos los elementos pivote y en ceros los elementos de las
columnas pivotales situados por encima del elemento pivote.
a) Para hacer unos los elementos pivote se escalan las las no nulas, a n de que todos
los pivotes tomen el valor 1.
b) Para obtener los ceros por encima de los elementos pivote los pasos son los siguientes:
b.1) Considerando la ultima la no nula, que llamamos la r, como auxiliar, y con las
correspondientes operaciones elementales sobre las las, consigamos mediante reemplaza-
CAP
_
0 2 6 4
0 0 2 3
0 0 0 1
0 0 0 0
0 0 0 0
_
_
0 1 3 2
0 0 1 3/2
0 0 0 1
0 0 0 0
0 0 0 0
_
_
0 1 3 0
0 0 1 0
0 0 0 1
0 0 0 0
0 0 0 0
_
_
F
1(1/2)
F
23(3/2)
F
2(1/2)
F
13(2)
_
0 1 0 0
0 0 1 0
0 0 0 1
0 0 0 0
0 0 0 0
_
_
= A
can filas
, A
f
A
can filas
F
12(3)
Las columnas pivotales son las mismas: la segunda, la tercera y la cuarta. Los pivotes
ahora son todos 1 y cada columna pivotal tiene ceros por encima de los elementos pivote.
1.7.3 Rango de una matriz
Se denomina rango de una matriz A
mn
al n umero de columnas pivotales o n umero de
las no nulas de cualquier forma escalonada por las de la matriz. En efecto todas las
formas escalonadas por las de una matriz tienen el mismo rango.
Propiedades:
El rango de la matriz I
n
es n, pues la matriz ya es escalonada por las y tiene n las no
nulas (o lo que es lo mismo, n columnas pivotales).
Debido a que la equivalencia por las cumple la propiedad transitiva, todas las matrices
equivalentes por las entre s tienen el mismo rango.
Dada una matriz A
mn
el rango ha de ser menor o igual que m y menor o igual que n.
Por comodidad se suele obtener el rango de una matriz A a partir de una forma escalo-
nada por las de A.
Un resultado muy importante que no vamos a demostrar es el siguiente:
rgA = rgA
t
Ejemplo 1.25 rg
_
1 1
0 3
_
= 2 , rg
_
_
1 2 1 1
0 2 1 2
0 0 0 0
_
_
= 2 , rg
_
_
4 1 1 2
0 1 2 3
0 0 0 9
_
_
= 3
CAP
_
_
1 5 0
0 6 1
0 2 0
_
_
_
_
1 5 0
0 6 1
0 0 1/3
_
_
rgA = 3
F
21(2)
F
32(1/3)
1.7.4 Matrices equivalentes a la identidad: aplicacion para obtener la
inversa
Partiendo de A
n
, A
can las
= I
n
F
a
. . . F
2
F
1
A = I
(F
a
. . . F
2
F
1
)
1
(F
a
. . . F
2
F
1
) A = (F
a
. . . F
2
F
1
)
1
I
A = (F
a
. . . F
2
F
1
)
1
I = (F
a
. . . F
2
F
1
)
1
A inversible y A
1
= F
a
. . . F
2
F
1
I
Concluimos que efectuando la misma secuencia de operaciones elementales por las y en
el mismo orden que llevan de A a I, la matriz I se transforma en A
1
.
Este metodo de determinacion de la inversa de una matriz se conoce como metodo de
Gauss-Jordan. El esquema es el siguiente:
[ A | I ] . . . [ I | A
1
]
operaciones elementales por las
Ademas tenemos el importante resultado de que A
can las
= I
n
rgA=n
Ejemplo 1.27 Determina la inversa de A =
_
_
1 2 1
2 0 2
2 3 0
_
_
por el metodo de Gauss-Jordan,
si es que dicha inversa existe.
A =
_
_
1 2 1 1 0 0
2 0 2 0 1 0
2 3 0 0 0 1
_
_
_
_
1 2 1 1 0 0
0 4 0 2 1 0
0 1 2 2 0 1
_
_
_
_
1 2 1 1 0 0
0 1 2 2 0 1
0 4 0 2 1 0
_
_
_
_
1 2 1 1 0 0
0 1 2 2 0 1
0 4 0 2 1 0
_
_
_
_
1 2 1 1 0 0
0 1 2 2 0 1
0 0 8 6 1 4
_
_
la2 = la2 - 2 * la1
la3 = la3 - 2 * la1
Se intercambian las las 2 y 3
la 2 = la 2 * (-1)
la3 = la3 + 4* la2
Observamos que el rango es 3, igual al orden de la matriz A, por tanto A tiene inversa.
La submatriz de la izquierda es ya triangular superior, pero falta hacer 1 uno de los
pivotes.
Aplicando la3 = 1/8 * la3 tenemos:
CAP
_
_
1 2 1 1 0 0
0 1 2 2 0 1
0 0 1 3/4 1/8 1/2
_
_
la2 = la2 - 2*la3
la1 = la1 - la 3
_
_
1 2 0 1 3/4 1/8 1/2
0 1 0 2 3/2 0 1/4 1 + 1
0 0 1 3/4 1/8 1/2
_
_
=
_
_
1 2 0 1/4 1/8 1/2
0 1 0 1/2 1/4 0
0 0 1 3/4 1/8 1/2
_
_
la1 = la1 - 2*la2
_
_
1 0 0 1/4 1 1/8 + 1/2 1/2
0 1 0 1/2 1/4 0
0 0 1 3/4 1/8 1/2
_
_
=
_
_
1 0 0 3/4 3/8 1/2
0 1 0 1/2 1/4 0
0 0 1 3/4 1/8 1/2
_
_
Resultado: La matriz inversa de A es A
1
=
_
_
3/4 3/8 1/2
1/2 1/4 0
3/4 1/8 1/2
_
_
1.8 Forma escalonada y forma canonica de una matriz
Forma escalonada de la matriz A
mn
es cualquier matriz equivalente a A y escalonada.
Para una matriz dada existen innitas formas escalonadas. Al requerir que la matriz sea
simplemente equivalente, y no equivalente por las, estan permitidas tanto las o.e. por
las como las o.e. por columnas.
Ejemplo. Para A =
_
_
0 2 3
4 2 1
1 2 3
_
_
A =
_
_
0 2 3
4 2 1
1 2 3
_
_
_
_
1 2 3
4 2 1
0 2 3
_
_
_
_
1 2 3
0 6 11
0 2 3
_
_
_
_
1 2 3
0 6 11
0 6 9
_
_
_
_
1 2 3
0 6 11
0 0 2
_
_
F
13
F
21(4)
F
3(3)
F
32(1)
_
_
1 2 3
0 6 11
0 0 1
_
_
_
_
1 0 3
0 6 11
0 0 1
_
_
_
_
1 0 0
0 6 11
0 0 1
_
_
F
3(1/2)
C
21(2)
C
31(3)
Las cuatro ultimas matrices son formas escalonadas de la matriz A
Notese que si U es forma escalonada de A, aparte de ser escalonada cumple que existiran
P y Q inversibles tales que PAQ = U. Esas matrices inversibles corresponden a los
productos de las matrices elementales aplicadas.
P = F
a
... F
2
F
1
Q = C
1
C
2
... C
b
Una forma escalonada por las es un caso particular de forma escalonada, que corresponde
a tomar Q = I
Forma canonica de la matriz A
mn
es la forma escalonada de A que tiene la expresion:
_
_
I
r
|
|
_
_
, siendo r el rango de A
CAP
_
_
1 2 1
0 0 1
0 0 2
_
_
_
_
1 2 1
0 0 1
0 0 0
_
_
_
_
1 2 0
0 0 1
0 0 0
_
_
_
_
1 2 0
0 0 1
0 0 0
_
_
Forma esc.
por las
Forma canon.
por las
C
21(2)
C
23
_
_
1 0 0
0 0 1
0 0 0
_
_
_
_
1 0 0
0 1 0
0 0 0
_
_
Forma canon.
Ejemplo 1.29 Obten la forma canonica de A =
_
_
0 1 2 0 0 2
0 0 0 1 2 1
0 0 0 1 2 1
_
_
.
A =
_
_
0 1 2 0 0 2
0 0 0 1 2 1
0 0 0 1 2 1
_
_
_
_
0 1 2 0 0 2
0 0 0 1 2 1
0 0 0 0 0 0
_
_
_
_
1 0 2 0 0 2
0 0 0 1 2 1
0 0 0 0 0 0
_
_
F
32(1)
C
12
C
31(2)
C
61(2)
_
_
1 0 0 0 0 0
0 0 0 1 2 1
0 0 0 0 0 0
_
_
_
_
1 0 0 0 0 0
0 0 0 1 0 0
0 0 0 0 0 0
_
_
_
_
1 0 0 0 0 0
0 1 0 0 0 0
0 0 0 0 0 0
_
_
C
54(2)
C
24
C
64(1)
Notese con este ejemplo como no siempre se puede llegar a una forma escalonada aplicando
simplemente operaciones elementales por columnas.
CAP
_
0 0 . . . 0 1
0 0 . . . 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 1 . . . 0 0
1 0 . . . 0 0
_
_
Podramos decir tambien que es la reexion, respecto de la horizontal (o respecto de la
vertical), de la matriz identidad.
Otra denicion posible sera la de la matriz cuadrada en la que todos los elementos son
cero excepto los de la diagonal secundaria, que valen todos 1.
Veamos un ejemplo de como opera sobre una matriz dada, pre-multiplicando o post-
multiplicando:
E
4
=
_
_
0 0 0 1
0 0 1 0
0 1 0 0
1 0 0 0
_
_
_
_
0 0 0 1
0 0 1 0
0 1 0 0
1 0 0 0
_
_
.
_
_
1 2 3 4
5 6 7 8
9 0 1 2
3 4 5 6
_
_
=
_
_
3 4 5 6
9 0 1 2
5 6 7 8
1 2 3 4
_
_
Coloca las las en orden inverso
_
_
1 2 3 4
5 6 7 8
9 0 1 2
3 4 5 6
_
_
.
_
_
0 0 0 1
0 0 1 0
0 1 0 0
1 0 0 0
_
_
=
_
_
4 3 2 1
8 7 6 5
2 1 0 9
6 5 4 3
_
_
Coloca las columnas en orden inverso
Matriz de Jordan completa de orden n: J
n
() =
_
_
0 0 . . . 0 0 0
1 0 . . . 0 0 0
0 1 . . . 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 0 0
0 0 0 . . . 1 0
0 0 0 . . . 0 1
_
_
Matriz de Jordan de orden n, cuando en la subdiagonal primera hay aleatoriamente
unos o ceros, por ejemplo:
_
_
0 0 0 0 0
1 0 0 0 0
0 1 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 1
_
_
Deniendo J
n
como: J
n
J
n
(0) =
_
_
0 0 0 . . . 0 0 0
1 0 0 . . . 0 0 0
0 1 0 . . . 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 1 0 0
0 0 0 . . . 0 1 0
_
_
(Jordan completa)
CAP
_
0 0 0 . . . 0 0 0
0 0 0 . . . 0 0 0
1 0 0 . . . 0 0 0
0 1 0 . . . 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 1 0 0
_
_
, con rango n 2, y que
al obtener J
3
n
, . . . , J
n1
n
, siguen bajando las las que tienen unos de forma que rango
J
k
n
= n k, llegando nalmente a J
n
n
= , con rango 0.
Otra forma de describir el efecto del exponente es que si este es 1, los unos se encuentran
en la subdiagonal primera, y si es k se encuentran en la subdiagonal k-esima, de forma
que para el exponente n tendramos la subdiagonal n-esima, que ya se encuentra fuera
de la matriz, obteniendose por tanto la matriz nula.
Tambien se demuestra facilmente que en la matriz (J
n
)
t
los unos ocupan la supradiagonal
primera, y que en las sucesivas matrices (J
t
n
)
k
, aumentando k, suben las las que tienen
unos, o dicho de otra forma, sube la supradiagonal que continene los unos.
Analogamente, rg(J
t
n
)
k
= n k y (J
t
n
)
n
=
Se demuestra facilmente que (J
t
n
)
k
= (J
k
n
)
t
La matriz de Toeplitz de orden n, de parametros
1
. . .
2n1
, tiene la forma.
T
n
(
1
, . . . ,
2n1
) =
_
n
n+1
n+2
. . .
2n2
2n1
n1
n
n+1
. . .
2n3
2n2
n2
n1
n
. . .
2n4
2n3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
3
4
. . .
n
n+1
1
2
3
. . .
n1
n
_
_
Su expresion general, como combinacion lineal de otras mas simples es:
T
n
(
1
, . . . ,
2n1
) =
n
I
n
+
n1
i=1
ni
J
i
n
+
n+i
(J
i
n
)
t
La matriz de Hankel de orden n, de parametros
1
. . .
2n1
, tiene la forma:
H
n
(
1
, . . . ,
2n1
) =
_
1
2
3
. . .
n1
n
2
3
4
. . .
n
n+1
3
4
5
. . .
n+1
n+2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
n1
n
n+1
. . .
2n3
2n2
n
n+1
n+2
. . .
2n2
2n1
_
_
Esta matriz es la reexion respecto de la horizontal de la matriz de Toeplitz. Se puede
comprobar facilmente que E
n
T
n
= H
n
, con los mismos parametros
i
.
CAP
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . . . . . . . . . . .
a
n1
a
n2
. . . a
nn
IK
Este n umero se calcula sumando todos los productos que se obtienen al multiplicar n
elementos de la matriz de todas las formas posibles, con la condicion de que en cada
producto exista un unico elemento de cada la y un unico elemento de cada columna;
cada uno de estos productos llevara su signo o el contrario seg un la permutacion formada
por los subndices la de los n factores y la formada por los subndices columna de los n
factores, sean o no de la misma clase.
Cada sumando tiene esta forma:
a
1 i
a
2 j
. . . a
n1 l
a
n k
siendo i, j . . . l, k una permutacion de 1, 2 . . . n. Por simplicidad hemos tomado para las
las el orden natural.
El n umero de permutaciones (ordenaciones) de n elementos distintos 1, 2 . . . n1, n es n!,
por tanto el n umero de sumandos es n!.
Dos permutaciones son de la misma clase (distinta clase) cuando para pasar de una otra se
necesita un n umero par (impar) de intercambios (tambien llamados inversiones o trasposi-
ciones).
Cuando el determinante es de una matriz de orden 2 se obtiene:
a
11
a
12
a
21
a
22
= a
11
a
22
a
12
a
21
=
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
= a
11
a
22
a
33
a
11
a
23
a
32
a
12
a
21
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
13
a
22
a
31
CAP
3
3
33
d
d
t
t
t
r
r
rr
con signo +
; con signo
2 1 3
0 1 2
1 2 3
= 6 + 0 2 3 8 0 = 7
2 +i 4 i
6 5i
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . . . . . . . . . . .
a
n1
a
n2
. . . a
nn
_
_
, se llama menor complementario de un
elemento a
ij
y se denota m
ij
al determinante de la matriz de orden n 1 que resulta de
suprimir en A la la i y la columna j.
Se denomina adjunto de un elemento a
ij
y se denota A
ij
, al producto del menor comple-
mentario m
ij
de a
ij
por el signo que resulte de calcular (1)
i+j
:
A
ij
= (1)
i+j
m
ij
Se puede demostrar una propiedad interesante (la propiedad X en la lista que damos mas
adelante): el valor del determinante de una matriz A es igual a la suma de los productos
de los elementos de una lnea (la o columna) de A por sus respectivos adjuntos. Es decir
elegida una la i |A| =
n
j=1
a
ij
A
ij
o
elegida una columna j |A| =
n
i=1
a
ij
A
ij
CAP
1 0 2 0
1 2 0 1
1 1 4 1
3 1 3 2
= 1 A
11
+1 A
21
+(1) A
31
+3 A
41
= 1 (1)
1+1
2 0 1
1 4 1
1 3 2
+1 (1)
2+1
0 2 0
1 4 1
1 3 2
+ (1) (1)
3+1
0 2 0
2 0 1
1 3 2
+ 3 (1)
4+1
0 2 0
2 0 1
1 4 1
2 0 1
1 4 1
1 3 2
0 2 0
1 4 1
1 3 2
0 2 0
2 0 1
1 3 2
0 2 0
2 0 1
1 4 1
= . . .
1.10.3 Propiedades de los determinantes
I) El valor de un determinante no vara cuando cambiamos ordenadamente sus las por
sus columnas. |A|=|A
t
|.
II) Si se intercambian entre s dos lneas paralelas el determinante cambia de signo.
III) Si todos los elementos de una lnea tienen un factor com un, el determinante puede
obtenerse como el producto de ese factor com un por el determinante que resulta de eliminar
ese factor com un en la correspondiente lnea (dividiendo los elementos de esa lnea por el
factor com un).
por ejemplo
1 a 0
2 a 1
3 a 4
= a
1 1 0
2 1 1
3 1 4
IV) Si los elementos de una lnea (la o columna) son nulos, el determinante es nulo.
(Consecuencia inmediata de la propiedad III, puesto que el escalar que sera factor com un
es el cero).
V) Un determinante con dos lneas paralelas iguales es nulo. (Consecuencia inmediata de
II).
VI) Si la matriz A tiene dos lneas paralelas proporcionales el determinante de A es nulo.
Consecuencia de III y V, pues al sacar factor com un quedaran dos lneas iguales.
a
11
a
11
a
21
a
21
a
11
a
11
a
21
a
21
= 0
VII) Si los elementos de una lnea estan formados por una suma de r sumandos, el deter-
minante se puede descomponer en suma de r determinantes que tienen las restantes lneas
iguales y en el lugar de aquella, otra formada por los primeros, segundos, terceros, etc,
sumandos.
a +b +c 5 0
d +e +f 1 1
g +h +i 0 4
a 5 0
d 1 1
g 0 4
b 5 0
e 1 1
h 0 4
c 5 0
f 1 1
i 0 4
2 +a 1
a 6
2 1
0 6
a 1
a 6
2 1
0 6
+a
1 1
1 6
CAP
a
12
+a
13
a
12
a
13
a
22
+a
23
a
22
a
23
a
32
+a
33
a
32
a
33
a
12
a
12
a
13
a
22
a
22
a
23
a
32
a
32
a
33
a
13
a
12
a
13
a
23
a
22
a
23
a
33
a
32
a
33
= 0 + 0 = 0
IX) Si a los elementos de una lnea se le suman los correspondientes a otra paralela mul-
tiplicados por un n umero, el determinante no vara.
a
11
+a
12
a
12
a
13
a
21
+a
22
a
22
a
23
a
31
+a
32
a
32
a
33
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
a
12
a
12
a
13
a
22
a
22
a
23
a
32
a
32
a
33
= |A| + 0 = |A|
Esta propiedad es muy util para simplicar el calculo de determinantes
X) La suma de los elementos de una lnea multiplicados por sus respectivos adjuntos es
igual al valor del determinante.
XI) La suma de los elementos de una lnea multiplicados por los adjuntos de otra paralela
es nula.
XII) El determinante de las matrices triangulares y diagonales es el producto de los ele-
mentos de la diagonal principal. De esta propiedad se deduce de forma inmediata que el
determinante de la matriz identidad es 1.
XIII) Dadas A
n
, B
n
1) |A B| = |A| |B|
2) |A| =
n
|A|
3) Si A es inversible su determinante es distinto de cero, y |A
1
| =
1
|A|
= |A|
1
Generalizacion del apartado 1) (C cuadrada de orden n)
|A B C| = |(A B) C| = |(A B)| |C| = |A| |B| |C|
y lo mismo para mas de tres factores
Demostracion del apartado 3)
AA
1
= I y obteniendo los determinantes: |AA
1
| = |I| = 1
por el apartado 1) |AA
1
| = |A||A
1
|
por tanto |A||A
1
| = 1 y ello implica:
|A| = 0 y |A
1
| = 0 y |A
1
| =
1
|A|
Aplicando las propiedades anteriormente expuestas podemos simplicar enormemente el
calculo de determinantes.
Ejemplo 1.32 Calcula el valor del siguiente determinante.
|A| =
1 2 1 2 1
0 0 1 1 1
1 1 0 2 0
0 0 1 1 2
1 2 2 1 1
1 2 1 2 1
0 0 1 1 1
1 1 0 2 0
0 0 1 1 2
1 2 2 1 1
=
F
31(1)
F
51(1)
1 2 1 2 1
0 0 1 1 1
1 + (1) 1 + (2) 0 + (1) 2 + (2) 0 + (1)
0 0 1 1 2
1 + (1) 2 + (2) 2 + (1) 1 + (2) 1 + (1)
1 2 1 2 1
0 0 1 1 1
0 1 1 0 1
0 0 1 1 2
0 0 1 1 0
0 1 1 1
1 1 0 1
0 1 1 2
0 1 1 0
0 1 1 1
1 1 0 1
0 1 1 2
0 1 1 0
1 1 1
1 1 2
1 1 0
= 1(1 + 2 1 + 2) = 2
1.11 Determinante e inversa
1.11.1 Calculo de la inversa de una matriz, por adjuntos
Dada una matriz cuadrada A
n
, se llama matriz adjunta de A a la matriz que resulta de
sustituir cada elemento por su adjunto. A la matriz adjunta de A se la denota como adjA
adjA = {A
ij
}
Consideremos el producto de matrices A adj(A
t
),
A adj(A
t
) =
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . . . . . . . . . . .
a
n1
a
n2
. . . a
nn
_
_
A
11
A
21
. . . A
n1
A
12
A
22
. . . A
n2
. . . . . . . . . . . .
A
1n
A
2n
. . . A
nn
_
_
(se prueba facilmente que adj(A
t
) = (adjA)
t
)
Recordando que el producto de los elementos de una lnea de A por sus adjuntos respectivos
es el determinante de A, y que el producto de los elementos de una lnea por los adjuntos
de otra paralela es nulo, tenemos:
A adj(A
t
) =
_
_
|A| 0 . . . 0
0 |A| . . . 0
. . . . . . . . . . . .
0 0 . . . |A|
_
_
= |A|I
Si |A| = 0, podemos pasar |A| al primer miembro, dividiendo, y obtenemos:
A
adj(A
t
)
|A|
= I
CAP
1 5 0
2 4 1
0 2 0
1 5 0
0 6 1
0 2 0
1 5 0
0 6 1
0 0 1/3
= 2 A es regular
o rg A = 3 pues en la EG quedan 3 pivotes, por tanto A regular
Por tener tres columnas pivotales A es equivalente por las a I
3
(solo hace falta escalar
las las para hacer unos los pivotes y realizar la eliminacion de Gauss-Jordan).
|B| =
1 5 4
2 4 2
0 2 2
1 5 4
0 6 6
0 2 2
1 5 4
0 6 6
0 0 0
= 0 B no es regular
o rg B=2 pues en la EG quedan 2 pivotes, por tanto B no es regular
|B| = 0 B no es equivalente a I
3
(|I| = 1).
Ejemplo 1.35 Determina el valor de c para que la matriz A =
_
_
1 2 1
2 c 2
2 3 0
_
_
sea inversible,
analizando si A es equivalente por las a la matriz identidad.
A =
_
_
1 2 1
2 c 2
2 3 0
_
_
_
_
1 2 1
0 c 4 0
0 1 2
_
_
_
_
1 2 1
0 1 2
0 c 4 0
_
_
_
_
1 2 1
0 1 2
0 0 2(c 4)
_
_
la2 = la2 - 2 * la1
la3 = la3 - 2 * la1
Se intercambian las las 2 y 3
la3 = la3 + la2 (c-4) (Esta operacion se puede realizar aunque c sea 4)
_
_
1 2 1
0 1 2
0 0 2(c 4)
_
_
_
_
1 2 1
0 1 2
0 0 2(c 4)
_
_
= B
la 2 = la 2 * (-1)
Si c = 4 queda la matriz
_
_
1 2 1
0 1 2
0 0 0
_
_
que no puede transformarse mediante operaciones
elementales por las en I
3
CAP
_
1 1 1 ... 1
a
1
a
2
a
3
... a
n
a
2
1
a
2
2
a
2
3
... a
2
n
... ... ... ... ...
a
n1
1
a
n1
2
... ... a
n1
n
_
_
|V
n
| =
1i<jn
(a
j
a
i
)
La matriz de Vandermonde y su determinante tienen como aplicacion mas importante la
interpolacion de funciones discretas mediante polinomios.
1.13.2 Jacobiano
Dadas n funciones de IR
n
en IR, con n variables x
1
, x
2
, . . . , x
n
,
_
_
f
1
(x
1
, x
2
, . . . , x
n
)
f
2
(x
1
, x
2
, . . . , x
n
)
. . .
f
n
(x
1
, x
2
, . . . , x
n
)
para las que existen las derivadas parciales respecto de todas las variables, se dene el
jacobiano de las n funciones como el siguiente determinante funcional:
J =
f
1
x
1
f
1
x
2
... ...
f
1
x
n
... ... ... ... ...
... ... ... ... ...
... ... ... ... ...
f
n
x
1
f
n
x
2
... ...
f
n
x
n
2
f
x
2
1
2
f
x
1
x
2
... ...
2
f
x
1
x
n
... ... ... ... ...
... ... ... ... ...
... ... ... ... ...
2
f
x
n
x
1
2
f
x
n
x
2
... ...
2
f
x
2
n
f
1
f
2
... f
n
f
1
f
2
... f
n
... ... ... ...
... ... ... ...
f
n1
1
f
n1
2
... f
n1
n
_
x
1
x
2
.
.
.
x
n
_
_
Los elementos x
1
, x
2
, . . . , x
n
se denominan primera, segunda, ...., enesima componente
de x. Tambien se admite la notacion x = (x
1
, x
2
, . . . , x
n
)
IR
2
IR
2
= {
_
x
1
x
2
_
/ x
1
IR, x
2
IR}.
x,
x
IR
2
, IR
x =
_
x
1
x
2
_
con x
1
, x
2
IR
x
=
_
x
1
x
2
_
con x
1
, x
2
IR
Suma: x +
x
=
_
x
1
x
2
_
+
_
x
1
x
2
_
=
_
x
1
+x
1
x
2
+x
2
_
IR
2
Producto por un escalar: x =
_
x
1
x
2
_
=
_
x
1
x
2
_
IR
2
IR
2
tambien se puede expresar as : IR
2
= {(x
1
, x
2
) / x
1
IR, x
2
IR}.
Suma: (x
1
, x
2
) + (x
1
, x
2
) = (x
1
+x
1
, x
2
+x
2
)
Multiplicacion por un escalar: (x
1
, x
2
) = (x
1
, x
2
)
El elemento neutro, tambien llamado vector nulo de IR
2
, es el vector (0,0).
El opuesto de un vector dado x = (x
1
, x
2
) es el vector x = (x
1
, x
2
).
Descripcion geometrica de IR
2
Considerando el sistema de referencia cartesiano bidimensional con ejes perpendiculares
X e Y que se cortan en (0, 0), puesto que cada punto del plano esta determinado por un
par ordenado de n umeros o coordenadas, podemos identicar el vector x =
_
x
1
x
2
_
con el
punto geometrico P = (x
1
, x
2
).
Analogamente se tiene la representacion del vector x =
_
x
1
x
2
_
como el segmento orientado
con origen en (0, 0) y extremo en (x
1
, x
2
).
Esta relacion biunvoca entre vectores y puntos, una vez denido el origen (0, 0), permite
identicar el plano XY con IR
2
.
La suma de dos vectores tiene una representacion geometrica interesante, vericandose el
resultado conocido como REGLA DEL PARALELOGRAMO: u+v corresponde al cuarto
vertice (opuesto a
0) del paralelogramo cuyos otros vertices vienen dados por u, v y
0.
La suma de vectores se puede interpretar como suma de desplazamientos: para sumar
v al vector u, se sit ua el origen de v en el extremo de u, trasladandolo paralelamente, y el
vector suma tiene origen en
0 y extremo en el del vector v trasladado.
CAP
_
_
2
2
3
_
_
=
_
_
4
0
5
_
_
1.14.2 Combinacion lineal
Denicion 1.1 Dado un conjunto de vectores {v
1
, v
2
, . . . , v
p
} de IR
n
, llamamos combi-
nacion lineal de estos vectores a cualquier vector v IR
n
que se pueda escribir en la forma
v = c
1
v
1
+c
2
v
2
+. . . +c
p
v
p
, con c
1
, c
2
, . . . , c
p
IR.
A los escalares c
1
, c
2
, . . . c
p
se les llama pesos o coecientes de la combinacion lineal. Los
pesos pueden ser cualquier real, incluyendo el cero.
Son por ejemplo combinaciones lineales de los vectores v
1
y v
2
los siguientes vectores:
3v
1
+v
2
,
1
2
v
1
=
1
2
v
1
+ 0v
2
,
0 = 0v
1
+ 0v
2
Ejemplo 1.39 En la gura se muestran combinaciones lineales seleccionadas de los vec-
tores v
1
= (1, 1) y v
2
= (2, 1) IR
2
. Estima las combinaciones lineales de los vectores
v
1
y v
2
que generan a los vectores u y w.
u 1.8v
1
+ 1.2v
2
w 3v
1
+ 0.5v
2
1.14.3 Dependencia e independencia lineal
Un conjunto de vectores {v
1
, v
2
, . . . , v
p
} IR
n
es linealmente dependiente (tambien
llamado ligado) si existen unos escalares (
1
,
2
, . . . ,
p
), no todos nulos, tales que
1
v
1
+
2
v
2
+. . . +
p
v
p
=
0
Un conjunto es linealmente independiente (tambien llamado libre) si y solo si no
es linealmente dependiente. Expresado de otra forma, un conjunto {v
1
, v
2
, . . . , v
p
} es
linealmente independiente si la ecuacion vectorial
1
v
1
+
2
v
2
+. . . +
p
v
p
=
_
2 0
1 2
4 1
0 3
_
_
Ejercicio 1.2 Obten AC y B
2
+B, siendo A,B y C las siguientes matrices en el cuerpo IR
A =
_
1 2 0
0 1 2
_
B =
_
5 0
2 3
_
C =
_
_
2 0
1 4
0 3
_
_
Ejercicio 1.3 Dada la matriz A en IR, A =
_
2 1
1 2
_
, comprobar que se puede vericar
una relacion de la forma A
2
+A+I = 0, con , IR
Ejercicio 1.4 Dada la matriz A =
_
1 2
3
_
en IR, calcula, en funcion de , las matrices
B de orden 2 tales que AB=0
Ejercicio 1.5 Dada la matriz A =
_
1 0
2 1
_
en IR, hallar todas las matrices permutables
con ella.
Ejercicio 1.6 Considera el siguiente sistema constituido por 4 masas puntuales:
Punto Masa
x
1
= (5, 4, 3) m
1
= 2g
x
2
= (4, 3, 2) m
2
= 5g
x
3
= (4, 3, 1) m
3
= 2g
x
4
= (9, 8, 6) m
4
= 1g
Calcula el centro de gravedad x del sistema, sabiendo que:
x =
m
1
x
1
+. . . +m
k
x
k
m
1
+. . . +m
k
Traspuestas, simetricas, antisimetricas, descomposicion sim + antisim
Ejercicio 1.7 Dadas las matrices en IR,
A =
_
2 1 2
1 0 2
_
B =
_
_
1 0
1 2
2 1
_
_
C =
_
2 1
2 3
_
a) Determina AB, AC, CA
b) las traspuestas de estos productos
Ejercicio 1.8 Sea la matriz A =
_
2 0
1 1
_
en IR. Calcula A
2
3AA
t
+ (A
t
)
2
Ejercicio 1.9 Descomponer la matriz A =
_
1 2
1 3
_
en IR como suma de una matriz
simetrica y otra antisimetrica.
CAP
2 1 0 3
5 1 4 2
1 1 3 0
0 2 3 1
a b c 2a 2a
2b b c a 2b
2c 2c c a b
= (a +b +c)
3
Ejercicio 1.15 Demostrar que,
1 a b +c
1 b c +a
1 c a +b
n 1 1 . . . 1
n 2 1 . . . 1
n 1 3 . . . 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
n 1 1 . . . n
1 1 1 . . . 1
1 1 . . . 1
1 1 . . . 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 . . .
0 1 1 . . . 1
1 0 1 . . . 1
1 1 0 . . . 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 . . . 0
3 1 2 6
4 2 1 3
2 0 3 1
2 4 2 5
1 2 1 3
1 1 3 1
2 1 1 1
2 4 1 0
1 0 5 1
2 1 0 a
4 3 10 7
3 2 7 0
_
1 2 2 1
2 a 1 2
0 4 1 b
1 4 1 2
_
_
Matrices equivalentes por las: Inversas por Gauss-Jordan,
formas escalonada y reducida por las, rango
Ejercicio 1.21 Calcula, si existen, las inversas de las siguientes matrices, aplicando el
metodo de Gauss-Jordan.
A =
_
_
1 2 2
1 1 1
1 0 1
_
_
B =
_
_
1 1 2
1 3 4
2 5 9
_
_
C =
_
_
1 0 2
3 1 1
2 1 3
_
_
D =
_
_
1 2 1
2 4 3
3 5 2
_
_
E =
_
_
2 1 0
1 1 1
4 1 3
_
_
Ejercicio 1.22 Dada A =
_
_
1 0 0
0 1 1/2
0 0 1/2
_
_
, se nala cual de las expresiones siguientes co-
rresponde a la forma general de la matriz (A
k
)
1
, k 1:
a)
_
_
1 0 0
0 1 2
k
1
0 0 2
k
_
_
b)
_
_
1 0 0
0 1 2
1k
0 0 2
k
_
_
c)
_
_
1 0 0
0 1 1
0 0 2
k
_
_
(Calcula la matriz inversa mediante Gauss-Jordan)
Ejercicio 1.23 Calcula el rango de las siguientes matrices
A =
_
_
1 3 5 0 2
2 6 0 1 4
2 6 10 0 4
0 0 10 1 8
_
_
, B =
_
_
3 3 1 0
2 1 1 1
1 11 1 2
0 2 0 1
1 1 1 3
_
_
C =
_
_
1 1 2 2 1
1 2 0 3 1
1 0 4 1 3
2 1 6 3 4
_
_
D =
_
_
1 2 3 1 5
2 1 3 0 1
1 1 2 0 2
4 4 8 1 8
_
_
Ejercicio 1.24 Dada las matrices A =
_
_
1 2 3 0
2 4 3 2
3 2 1 3
6 8 7 5
_
_
y B =
_
_
2 4 6
2 6 6
2 4 8
_
_
, deter-
mina para cada una de ellas:
a) Una forma escalonada por las
b) La forma reducida por las
c) El rango
d) El determinante
e) La inversa si existe
CAP
_
1 0 5 1
2 1 0 a
4 3 10 7
3 2 7 0
_
_
Ejercicio 1.26 Determina el rango de las siguientes matrices, en funcion del parametro
que contienen:
A =
_
_
1 1 s
1 s s
1 2 s
1 1 2
_
_
B =
_
_
1 2 0 s 1
1 3 s 0 3
0 1 s 2 s
0 1 1 s s
_
_
C =
_
_
1 3 3 0
1 2 3 3
0 0 a 1
0 1 a 2
0 0 a a
_
_
D =
_
_
1 2 a 3
1 1 a a
2 1 3 0
1 1 2 1
_
_
Varios
Ejercicio 1.27 Sea A =
_
_
3 0
0 1 4
0 k
2
1
_
_
, siendo , k IR. Calcula, en
funcion de y k, los valores de tales que |A| = 0
Ejercicio 1.28 Hallar todas las matrices A de tama no 2 2 tales que A
t
= A y (A
t
)
2
=
A
2
.
Ejercicio 1.29 Hallar todas las posibles matrices de orden 2 que son a la vez simetricas
e idempotentes.
CAP
1 0 3
1 4 2
2 3 1
+ 1
2 0 3
5 4 2
0 3 1
+ 3
2 1 3
5 1 2
0 2 1
= 5
14
Sumando a la la 1 las las 2 y 3 obtenemos:
|A| =
a +b +c a +b +c a +b +c
2b b c a 2b
2c 2c c a b
= (a +b +c)
1 1 1
2b b c a 2b
2c 2c c a b
1 0 0
2b b c a 0
2c 0 c a b
= (a +b +c)
3
La ultima matriz es triangular y por tanto su determinante es el producto de los elementos
de la diagonal.
15
A =
1 a b +c
1 b c +a
1 c a +b
n 1 1 . . . 1
n 2 1 . . . 1
n 1 3 . . . 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
n 1 1 . . . n
=
Haciendo las operaciones F
i1
(1) para i = 2, . . . , n obtenemos:
n 1 1 . . . 1
0 1 0 . . . 0
0 0 2 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . n 1
= n!
1 1 1 . . . 1
1 1 . . . 1
1 1 . . . 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 . . .
=
Haciendo las operaciones F
i1
(1) i = 2, . . . , n obtenemos:
1 1 1 . . . 1
0 + 1 2 . . . 2
0 0 + 1 . . . 2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . + 1
= ( + 1)
n1
0 1 1 . . . 1
1 0 1 . . . 1
1 1 0 . . . 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 . . . 0
0 1 1 . . . 1
1 1 0 . . . 0
1 0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0 0 . . . 1
n 1 0 0 . . . 0
1 1 0 . . . 0
1 0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0 0 . . . 1
= (n 1)(1)
n1
CAP
3 1 2 6
4 2 1 3
2 0 3 1
2 4 2 5
= 116
1 2 1 3
1 1 3 1
2 1 1 1
2 4 1 0
= 63
1 0 5 1
2 1 0 a
4 3 10 7
3 2 7 0
= 108 36a
18
A
t
=
_
_
1 1 3
2 2 1
1 3 1
_
_
adjA
t
=
_
_
1 1 4
10 4 2
7 7 0
_
_
|A| = 14 A
1
= 1/14
_
_
1 1 4
10 4 2
7 7 0
_
_
19
|A| = 2 i
2
= 3 adjA
t
=
_
2 i
i 1
_
A
1
=
_
2/3 i/3
i/3 1/3
_
20
|A| =
1 2 2 1
2 a 1 2
0 4 1 b
1 4 1 2
1 2 2 1
2 a 1 2
0 4 1 b
1 4 1 2
1 2 2 1
0 a 4 5 0
0 4 1 b
0 6 3 3
= 1
a 4 5 0
4 1 b
6 3 3
a 4 5 0
4 1 b
6 3 3
a 4 5 0
4 1 b b
6 0 3
_
_
1 0 0 1 0 0
0 1 0 0 1 1
0 0 1 0 0 2
_
_
Por tanto la inversa es: A
1
=
_
_
1 0 0
0 1 1
0 0 2
_
_
Las tres opciones son compatibles con A
1
. Veamos que sucede para k = 2.
(A.A)
1
= A
1
.A
1
=
_
_
1 0 0
0 1 1
0 0 2
_
_
.
_
_
1 0 0
0 1 1
0 0 2
_
_
=
_
_
1 0 0
0 1 3
0 0 4
_
_
Las unica opcion compatible con (A
2
)
1
es la (a).
23
A =
_
_
1 3 5 0 2
2 6 0 1 4
2 6 10 0 4
0 0 10 1 8
_
_
rango 2, B =
_
_
3 3 1 0
2 1 1 1
1 11 1 2
0 2 0 1
1 1 1 3
_
_
rango 4
C =
_
_
1 1 2 2 1
1 2 0 3 1
1 0 4 1 3
2 1 6 3 4
_
_
rango 2 D =
_
_
1 2 3 1 5
2 1 3 0 1
1 1 2 0 2
4 4 8 1 8
_
_
rango 3
CAP
_
1 2 3 0
2 4 3 2
3 2 1 3
6 8 7 5
_
_
1 2 3 0
0 0 3 2
0 4 8 3
0 4 11 5
_
_
1 2 3 0
0 4 8 3
0 0 3 2
0 0 3 2
_
_
1 2 3 0
0 4 8 3
0 0 3 2
0 0 0 0
_
_
De aqu sacamos cuatro respuestas: La ultima matriz es una forma escalonada de
A, el rango de A es 3, el determinante de A es nulo y A no tiene inversa.
Pasamos ahora a calcular la forma reducida por las.
_
_
1 2 3 0
0 4 8 3
0 0 3 2
0 0 0 0
_
_
1 2 3 0
0 1 2 3/4
0 0 1 2/3
0 0 0 0
_
_
1 2 0 2
0 1 0 4/3 3/4
0 0 1 2/3
0 0 0 0
_
_
=
_
_
1 2 0 2
0 1 0 7/12
0 0 1 2/3
0 0 0 0
_
_
1 0 0 2 7/6
0 1 0 7/12
0 0 1 2/3
0 0 0 0
_
_
=
_
_
1 0 0 5/6
0 1 0 7/12
0 0 1 2/3
0 0 0 0
_
_
La ultima matriz calculada es la forma reducida por las de A
B =
_
_
2 4 6
2 6 6
2 4 8
_
_
_
_
2 4 6
0 2 0
0 0 2
_
_
= B
e
De aqu sacamos dos respuestas: La ultima matriz es una forma escalonada de B y
el rango de B es 3. Por ser el rango igual al orden de la matriz sabemos ademas que
el determinante de B sera distinto de 0 y que B es inversible.
Al pasar de B a B
e
solo hemos realizado la operacion de sumar a una la un m ultiplo
de otra (dos veces). Como esta operacion no vara el determinante, |B| = |B
e
| =
2 2 2 = 8
A continuacion obtenemos la inversa de B por el metodo de Gauss-Jordan:
_
_
2 4 6 | 1 0 0
2 6 6 | 0 1 0
2 4 8 | 0 0 1
_
_
_
_
2 4 6 | 1 0 0
0 2 0 | 1 1 0
0 0 2 | 1 0 1
_
_
_
_
2 4 0 | 4 0 3
0 2 0 | 1 1 0
0 0 2 | 1 0 1
_
_
_
_
2 0 0 | 6 2 3
0 2 0 | 1 1 0
0 0 2 | 1 0 1
_
_
_
_
1 0 0 | 3 1 3/2
0 1 0 | 1/2 1/2 0
0 0 1 | 1/2 0 1/2
_
_
B
1
=
_
_
3 1 3/2
1/2 1/2 0
1/2 0 1/2
_
_
CAP
_
a
2
+b
2
= a [I]
(a +c)b = b (a +c 1)b = 0 [II]
_
_
_
b = 0 [II i]
c = 1 a [II ii]
b
2
+c
2
= c [III]
[II i] ([I] y [III])
_
_
_
a
2
a = a(a 1) = 0
c
2
c = c(c 1) = 0
_
a = 0 c = 0
a = 0 c = 1
a = 1 c = 0
a = 1 c = 1
_
_
Caso 1 : a = 0, b = 0, c = 0
_
0 0
0 0
_
Caso 2 : a = 0, b = 0, c = 1
_
0 0
0 1
_
Caso 3 : a = 1, b = 0, c = 0
_
1 0
0 0
_
Caso 4 : a = 1, b = 0, c = 1
_
1 0
0 1
_
[II ii] : Tenemos c = 1 a
Mediante [I] podemos despejar b en funcion de a como: b =
a a
2
=
a(1 a)
Comprobamos que se cumple la ecuacion [III]:
a a
2
+ (1 a)
2
= a a
2
+ 1 2a +a
2
= 1 a = c
Quedaran las matrices de la forma:
_
a +
a a
2
+
a a
2
1 a
_
_
a
a a
2
a a
2
1 a
_
en ambos casos con a a
2
0 a a
2
0 a 1
De los 4 casos anteriores [II i] hemos de aniadir el Caso 1 y el Caso 4.
No es necesario aniadir el Caso 2 ni el Caso 3 puesto que ambos ya estan incluidos
en las expresiones generales encontradas.
Por tanto las soluciones se pueden sintetizar en los siguientes casos:
_
a +
a a
2
+
a a
2
1 a
_
con 0 a 1,
_
a
a a
2
a a
2
1 a
_
con 0 < a < 1,
_
0 0
0 0
_
,
_
1 0
0 1
_