Está en la página 1de 18

Algebra

Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.


http://www.departamento.us.es/da

Captulo 2

Algebra
matricial
Estas notas estan basadas en las realizadas por el profesor Manuel Jesus
Gago Vargas

para la asignatura Metodos matematicos: Algebra


lineal de la Licenciatura en Ciencias y
Tecnicas Estadsticas.

2.1. Adicion y trasposicion


Nota 2.1.1. Como en el anterior tema, consideraremos fijado un cuerpo k de coeficientes.
Nos referiremos a los elementos del cuerpo como numeros
o escalares.

Alguna de las definiciones de este tema seran especficas para el caso en que k es el
cuerpo C de los numeros complejos. En ese caso se advertira especficamente.
Si es necesario pondremos el orden de la matriz como subndice. As escribiremos
Amn para indicar que la matriz A es de orden m n.
Denotaremos tambien [A]ij a entrada de la fila i y la columna j en la matriz A.
Dos matrices A y B son iguales si tienen el mismo orden y las entradas correspondientes son iguales, [A]ij = [B]ij .

Suma de matrices
Si A y B son matrices de orden mn, la suma de A y B se define como
la matriz de orden m n notada por A + B, cuyas entradas verifican
[A + B]ij = [A]ij + [B]ij para cada i, j.
La matriz A, llamada opuesta de A, se define como
[A]ij = [A]ij .
La diferencia de A y B es
A B = A + (B).

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

Propiedades de la suma de matrices


Sean A, B y C matrices de orden m n. Se verifican las siguientes
propiedades:
A + B es una matriz de orden m n.
(A + B) + C = A + (B + C).
A + B = B + A.
La matriz 0mn que tiene todas sus entradas nulas verifica A +
0 = A.
La matriz A es de orden m n y verifica A + (A) = 0.

Multiplicacion por un escalar


El producto de un escalar por una matriz A de orden m n, notada
por A, se define como la matriz de orden m n que verifica
[A]ij = [A]ij .

Propiedades de la multiplicacion por un escalar


Sean A, B matrices de orden m n, y , escalares.
A es una matriz m n.
()A = (A).
(A + B) = A + B.
( + )A = A + A.
1A = A.

Nota 2.1.2. Se tienen propiedades analogas para A = A.


35

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

Trasposicion
La traspuesta de una matriz Amn es la matriz notada por At de orden
n m definida como
[At ]ij = [A]ji .

Nota 2.1.3. Es evidente que (At )t = A.


Para el caso en que k = C es el cuerpo de los numeros complejos definimos dos
operaciones mas. Recuerdese que el conjugado de un numero complejo = a + ib es
= a ib.

Conjugada traspuesta
La matriz conjugada de una matriz Amn es la matriz de orden m n
notada por A definida como
[A]ij = [A]ij .
La matriz conjugada traspuesta de una matriz Amn es la matriz de
orden n m notada por A y definida como
[A ]ij = [A]ji .
t

Es decir, A = A .

Nota 2.1.4. Se tiene que (A ) = A. En el caso de matrices reales, cuyas entradas pertenecen a R, se tiene que A = A y A = At .

Propiedades de la matriz traspuesta


Sean A y B matrices del mismo orden y un escalar. Entonces
(A + B)t = At + B t y (A + B) = A + B .
(A)t = At y (A) = A .

36

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

Simetras
Sea A una matriz cuadrada.
Decimos que A es simetrica si A = At , esto es, [A]ij = [A]ji .
Decimos que A es anti-simetrica si A = At , esto es, [A]ij =
[A]ji .
Si ademas A es una matriz compleja:
Decimos que A es hermitiana si A = A , esto es, aij = aji .
Decimos que A es anti-hermitiana si A = A , esto es, aij =
aji .
Ejercicio 2.1.1. Probar que si A es una matriz hermitiana entonces las entradas de la
diagonal, [A]ii , son numeros reales.

2.2. Multiplicacion de matrices


Multiplicacion de matrices

Dos matrices A y B se dicen ajustadas para multiplicacion en el


orden AB cuando el numero de columnas de A es igual al numero
de filas de B, esto es, si A es de orden mp y B es de orden pn.
Para matrices ajustadas Amp y Bpn , la matriz producto AB, de
orden m n, se define como
[AB]ij = [A]i1 [B]1j +[A]i2 [B]2j +. . .+[A]ip [B]pj =

p
X

[A]ik [B]kj

k=1

Nota 2.2.1. Puede ocurrir dos matrices A y B esten ajustadas para la multiplicacion en el
orden AB pero no en el orden BA. Es decir, que exista el producto AB, pero que no BA.
DE MATRICES NO ES CONMUTATIVA ). ConsiEjercicio 2.2.1. (L A MULTIPLICACI ON
dere lo que ocurre al tomar
 

3
A= 1 2 , B=
,
4
y calcular AB y BA. Observese que ni siquiera son matrices del mismo orden.
Pero aunque fueran matrices cuadradas el producto no es conmutativo en general. Por
ejemplo, sean las matrices




1 1
2 1
.
C=
, D=
0 1
2 3
37

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

Comprobar que CD y DC son distintas.

Filas y columnas de un producto


Supongamos que Amp y Bpn .
[AB]i = Ai B; esto es, la i-esima fila de AB es la i-esima fila
de A multiplicada por B.
[AB]j = ABj ; esto es, la j-esima fila de AB es A multiplicada
por la j-esima fila de B.
P
[AB]i = [A]i1 B1 + [A]i2 B2 + . . . + [A]ip Bp = pk=1 [A]ik Bk .
P
[AB]j = A1 [B]1j +A2 [B]2j +. . .+Ap [B]pj = pk=1 Ak [B]kj .

Nota 2.2.2. Las dos u ltimas ecuaciones indican que las filas de AB son combinacion
lineal de las filas de B, y que las columnas de AB son combinacion lineal de las columnas
de A.

Sistemas lineales
Todo sistema de m ecuaciones y n incognitas

a11 x1 + a12 x2 + . . . + a1n xn

a21 x1 + a22 x2 + . . . + a2n xn


..

a x + a x + ... + a x
m1 1

m2 2

mn n

=
=

b1
b2

= bm ,

se puede escribir en forma matricial como Ax = b, donde

x1
a11 a12 . . . a1n

x2
a21 a22 . . . a2n

A = ..
.. , x = .. , b =
..
.
.

.
.
.
.
.
xn
am1 am2 . . . amn

b1
b2
..
.
bm

Recprocamente, toda ecuacion matricial Amn xn1 = bm1 representa un sistema lineal de m ecuaciones y n incognitas.

38

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

2.3. Propiedades de la multiplicacion matricial


Propiedades distributiva y asociativa
Para matrices ajustadas se verifica
A(B + C) = AB + AC.
(D + E)F = DF + EF .
A(BC) = (AB)C.

Matriz identidad
La matriz de orden n n con unos en la diagonal y ceros en el resto

1 0 ... 0
0 1 ... 0

In = .. .. . . ..
. .
. .
0 0 ... 1
se denomina matriz identidad de orden n. Para toda matriz A de orden
m n se verifica
AIn = A y Im A = A.

Nota 2.3.1. El subndice de In se elimina cuando el tamano es obvio por el contexto.

Trasposicion y producto
Para matrices ajustadas A y B se verifica que
(AB)t = B t At
y
(AB) = B A .

Ejercicio 2.3.1. Probar las propiedades anteriores.


Nota 2.3.2. Para cada matriz Amn
las matrices AAt y At A son simetricas, y
si A es una matriz compleja, las matrices AA y A A son hermitianas.
39

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

Ejercicio 2.3.2. Llamamos traza de A al numero


Tr(A) = [A]11 + [A]22 + . . . + [A]nn =

n
X

[A]ii .

i=1

Probar que para dos matrices Amn y Bnm se verifica


Tr(AB) = Tr(BA).
Nota 2.3.3. De lo anterior se deduce que Tr(ABC) = Tr(BCA) = Tr(CAB), pero, en
general, Tr(ABC) 6= Tr(BAC).

Multiplicacion por bloques


Supongamos que A y B se particionan en submatrices, tambien llamados bloques, como sigue:

A11 A12 . . . A1r


B11 B12 . . . B1t
A21 A22 . . . A2r
B21 B22 . . . B2t

A = ..
,
B
=
..

..
..
..
.. .
..
..
.

.
.
.
.
.
.
.
As1 As2 . . . Asr
Br1 Br2 . . . Brt
Si los pares (Aik , Bkj ) son ajustados para el producto, entonces decimos que A y B tienen una particion ajustada. Para tales matrices, el
producto AB se forma combinando los bloques exactamente de la misma forma como se hace con los escalares en la multiplicacion ordinaria.
Esto es, el bloque (i, j) en AB es
Ai1 B1j + Ai2 B2j + . . . + Air Brj .

Ejemplo 2.3.1. Consideremos las matrices particionadas

1 2 1 0
1 0


3 4 0 1
0 1
C
I

A=
,B =
1 0 0 0 =
1 2
I 0
0 1 0 0
3 4
donde
I=

1 0
0 1

yC =

1 2
3 4

0


0
I 0
=
,
C C
2
4

0
0
1
3


Mediante la multiplicacion por bloques, el producto AB es facil de obtener:

2
4
1
2

 


6 8 3 4
2C C
I 0
C I

=
=
AB =
1 0 0 0
I 0
C C
I 0
0 1 0 0
40

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

2.4. Inversa de una matriz


Inversa de una matriz
Para una matriz cuadrada Ann , la matriz Bnn que verifica las condiciones
AB = In y BA = In
se denomina inversa de A, y la denotaremos por B = A1 . No todas
la matrices cuadradas tienen inversa. Una matriz cuadrada sin inversa
se llama singular, y una matriz con inversa se denomina no singular o
regular.

Proposicion 2.4.1. La inversa de una matriz, si existe, es u nica.


P RUEBA : Supongamos que X1 y X2 son inversas de una matriz no singular A. Entonces
X1 = X1 I = X1 (AX2 ) = (X1 A)X2 = IX2 = X2 .
2

Ecuaciones matriciales

Si A es una matriz no singular de orden n, entonces existe una


u nica solucion para X en la ecuacion matricial Ann Xnp =
Bnp , y la solucion es
X = A1 B.
Un sistema de n ecuaciones y n incognitas se puede escribir como
una ecuacion matricial Ann xn1 = bn1 . Por lo anterior, si A es
no singular, el sistema tiene solucion u nica igual a x = A1 b.

Nota 2.4.1. Sin embargo, debemos hacer hincapie en que la representacion de la solucion
como x = A1 b es conveniente desde el punto de vista teorico o de notacion. En la
practica, un sistema no singular Ax = b nunca se resuelve calculando A1 y despues el
producto A1 b. Se realizan mas operaciones as que aplicando las tecnicas de eliminacion
descritas en el tema anterior.
El siguiente resultado nos permite distinguir entre matrices singulares y no singulares.
41

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

Existencia de inversa
Para una matriz cuadrada A de orden n, son equivalentes:
1. A1 existe (A es no singular).
2. rango(A) = n.
Gauss-Jordan
3. A In .
4. Ax = 0 implica que x = 0.

P RUEBA : El hecho de 2) 3) es una consecuencia directa de la definicion de rango. La


equivalencia 2) 4) la hemos visto en el tema anterior. Solamente falta por establecer
1) 2) para completar la prueba.

1) 2). Consideremos la matriz X = X1 X2 . . . Xn . Esta matriz X
verifica la ecuacion AX = I si y solamente si Xj es solucion del sistema Ax = Ij .
Si A es no singular, entonces sabemos que existe una solucion u nica de AX = I, y por
tanto cada sistema Ax = Ij tiene solucion u nica. Pero sabemos que un sistema tiene
solucion u nica si y solamente si el rango de la matriz de coeficientes es igual al numero
de incognitas, esto es, rango(A) = n.
2) 1). Si rango(A) = n, entonces cada sistema Ax = Ij es compatible, porque
rango([A|Ij ]) = n = rango(A). Ademas, la solucion es u nica, por lo que la ecuacion
matricial AX = I tiene una u nica solucion. Nos gustara decir ya que X = A1 , pero nos
hace falta primero probar que XA = I, esto es, XA I = 0. Como
A(XA I) = AXA A = IA A = 0,
se sigue que cada columna de XA I es una solucion del sistema homogeneo Ax = 0,
que es compatible determinado. Por tanto, XA I = 0 y XA = I = AX.
2

Nota 2.4.2. C ALCULO


DE LA MATRIZ INVERSA USANDO G AUSS -J ORDAN . En la demostracion anterior hemos probado ademas que si Ann es una matriz para la que existe
Xnn con AX = In , entonces X = A1 .
Para construir un algoritmo que nos devuelva A1 cuando Ann es no singular, recordemos que determinar A1 es equivalente a resolver la ecuacion matricial AX = I, que
es lo mismo que resolver los n sistemas de ecuaciones definidos por
Ax = Ij , j = 1, 2, . . . , n.
En otras palabras, si X1
entonces X =
 , X2 , . . . , Xn son las respectivas soluciones, 1
X1 X2 . . . Xn resuelve la ecuacion AX = I y de aqu X = A .
Si A es no singular, el metodo de Gauss-Jordan reduce la matriz ampliada [A|Ij ] a
[I|Xj ], y sabemos que Xj es la u nica solucion de Ax = Ij . En otras palabras,
Gauss-Jordan
[A|Ij ] [I|[A1 ]j ].
Pero mejor que resolver cada sistema Ax = Ij de forma independiente, podemos resolverlos simultaneamente aprovechando que todos tienen la misma matriz de coeficientes.
42

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

En otras palabras, si aplicamos Gauss-Jordan a la matriz ampliada [A|I1 |I2 | . . . |In ] obtenemos
Gauss-Jordan
[A|I1 |I2 | . . . |In ] [I|[A1 ]1 |[A1 ]2 | . . . |[A1 ]n ],
o, de manera mas compacta,
Gauss-Jordan
[A|I] [I|A1 ].
Que ocurre si intentamos invertir una matriz singular con este procedimiento? El resultado anterior nos indica que una matriz singular A no puede ser reducida mediante
Gauss-Jordan a la matriz I porque una fila de ceros aparecera en algun momento. Por
ello, no tenemos que saber a priori si la matriz que tenemos es o no singular, pues resultara evidente en el proceso de calculo.

Calculo de la inversa
La eliminacion de Gauss-Jordan se puede usar para el calculo de la
inversa de una matriz A mediante la reduccion
GaussJordan

[A|I] [I|A1 ].
La u nica posibilidad de que este metodo falle es que aparezca una fila
de ceros en el lado izquierdo de la matriz ampliada, y esto ocurre si y
solamente si la matriz A es singular.

Ejemplo 2.4.1. Calculemos, si existe, la inversa de la matriz

1 1 1
A = 1 2 2 .
1 2 3
Aplicamos el metodo de Gauss-Jordan para obtener

1 1 1 |

1 2 2 |
[A|I] =
1 2 3 |

1 0 0 |
2

0 1 1 | 1

0 0 1 |
0

1 0 0
1 1 1

0 1 0
0 1 1

0 0 1
0
1 2

1 0
1 0 0

1 0
0 1 0

1 1
0 0 1

Por tanto , la matriz es no singular y

A1

2 1
0
2 1 .
= 1
0 1
1
43

|
1 0 0
| 1 1 0
| 1 0 1

|
2 1
0
| 1
2 1 .
|
0 1
1

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

Propiedades de la inversion de matrices


Para matrices no singulares A y B del mismo orden, se verifica que
(A1 )1 = A.
El producto AB es no singular y (AB)1 = B 1 A1 .
(A1 )t = (At )1 y, si A es compleja, (A1 ) = (A )1 .

P RUEBA : La primera propiedad es inmediata. Para la segunda basta comprobar que


(AB)(B 1 A1 ) = A(BB 1 )A1 = AA1 = I,
de donde AB es no singular y (AB)1 = B 1 A1 . Para la u ltima propiedad se comprueba
que
At (A1 )t = (A1 A)t = I t = I,
de donde At es no singular y (At )1 = (A1 )t . Analogamente se prueba que (A1 ) =
(A )1 .
2

2.5. Matrices elementales y equivalencia


Nota 2.5.1. O PERACIONES ELEMENTALES POR COLUMNAS. Es evidente que las mismas operaciones elementales por filas descritas en el tema anterior pueden realizarse por
columnas. Tenemos entonces tres tipos de operaciones analogas a las operaciones elementales por filas:
Tipo I. Intercambiar las columnas i y j.
Tipo II. Reemplazar la columna i por un multiplo no nulo de ella misma.
Tipo III. Reemplazar la columna j por la suma de ella misma con un multiplo de
la columna j.
Analogamente a lo visto para las filas existen unas matrices especiales llamadas formas
escalonadas por columnas y formas escalonadas reducidas por columnas. La trasposicion
de matrices nos permite definir rapidamente estos conceptos:
Una matriz se dice que es una forma escalonada por columnas si su traspuesta es
una forma escalonada por filas.
Una matriz se dice que es una forma escalonada reducida por columnas si su
traspuesta es una forma escalonada reducida por filas.
Igualmente se puede comprobar que toda matriz puede ser transformada. mediante operaciones por columnas en una forma escalonada por columnas y en una forma escalonada
reducida por columnas. Por u ltimo, dos matrices se dicen equivalentes por columnas si
puede transformarse una en otra mediante operaciones elementales por columnas.
Observese que las operaciones elementales por columnas no transforman la matriz
de un sistema lineal en la matriz de otros sistema lineal equivalente.
44

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

Teorema 2.5.1. Toda matriz A es equivalente por columnas a una unica


forma escalonada reducida por columnas.
P RUEBA : Sabemos que la matriz At es equivalente por filas a una u nica forma escalonada
reducida por filas.
2
Nota 2.5.2. Sean los vectores columna de orden m 1, ei , que tienen todas sus entradas
nulas salvo un 1 en la posicion i, con i = 1, . . . , m. Observese que la multiplicacion de
una matriz Amn por un vector columna ej resulta Aej = Aj . Analogamente, si ahora
ei es de orden n 1, la multiplicacion del traspuesto de e ste con la matriz A resulta
eti A = Ai .
Observese que la matriz identidad tiene por columnas a estos ej y por filas a eti .
Vamos a ver que las operaciones elementales que usamos para la eliminacion Gaussiana pueden interpretarse como productos por ciertas matrices de estructura muy sencilla.

Matrices elementales de tipo I


Decimos que una matriz cuadrada E es elemental tipo I si se obtiene
a partir de la matriz identidad In mediante una operacion elemental por
filas de tipo I. Es decir, si E se obtiene de In al intercambiar las filas i y
j.
En este caso todas las entradas de la matriz E son nulas, salvo [E]kk =
1, k 6= i, j, [E]ij = 1 y [E]ji = 1. Si atendemos a las filas de E
observamos que Ek = etk si k 6= i, j, Ei = etj y Ej = eti .

Proposicion 2.5.2. (M ULTIPLICACI ON

POR UNA MATRIZ ELEMENTAL DE TIPO

I).

La multiplicacion de una matriz elemental de tipo I a la izquierda de una matriz


produce en e sta una operacion elemental por filas de tipo I.
La multiplicacion de una matriz elemental de tipo I a la derecha de una matriz
produce en e sta una operacion elemental por columnas de tipo I.
P RUEBA : Basta probar el primer punto, pues el segundo, ademas de ser analogo, se
deduce del primero por trasposicion de matrices.
Sean entonces Amn y Emm la matriz obtenida de a identidad al intercambiar las
filas i y j. Vamos a describir la multiplicacion EA por filas, es decir,
[EA]k = Ek A, k = 1, . . . m.
Si k 6= i, j sabemos que Ek = etk , de donde calculamos la fila kesima de EA:
[EA]k = Ek A = etk A = Ak , con k 6= i, j.
Ademas Ei = etj y Ej = eti . Luego las filas iesima y jesima de EA son
[EA]i = Ei A = etj A = Aj y [EA]j = Ej A = eti A = Ai .
Es decir, la matriz EA es la que se obtiene de A al intercambiar las filas i y j

45

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

Proposicion 2.5.3. Si E es una matriz elemental de tipo I entonces E es no singular y su


inversa es ella misma. Es decir, EE = I.
P RUEBA : La demostracion es consecuencia del resultado anterior. Si E es la matriz que
se obtiene de la identidad al intercambiar las filas i y j, el producto a la izquierda de E
por ella misma vuelve a intercambiar las filas i y j, obteniendo EE = I.
2

Matrices elementales de tipo II


Decimos que una matriz cuadrada E es elemental tipo II si se obtiene
a partir de la matriz identidad In mediante una operacion elemental por
filas de tipo II. Es decir, si E se obtiene de In al sustituir la fila i por un
multiplo no nulo de ella.
En este caso todas las entradas de la matriz E son nulas, salvo [E]kk =
1, k 6= i, [E]ii = con 6= 0. Si atendemos a las filas de E observamos
que Ek = etk si k 6= i, Ei = eti con 6= 0.

Proposicion 2.5.4. (M ULTIPLICACI ON

POR UNA MATRIZ ELEMENTAL DE TIPO

II).

La multiplicacion de una matriz elemental de tipo II a la izquierda de una matriz


produce en e sta una operacion elemental por filas de tipo II.
La multiplicacion de una matriz elemental de tipo II a la derecha de una matriz
produce en e sta una operacion elemental por columnas de tipo II.
Ejercicio 2.5.1. Dejamos la prueba de la proposicion anterior como ejercicio.
Proposicion 2.5.5. Si E es una matriz elemental de tipo II entonces E es no singular y
su inversa es otra matriz elemental tipo II.
P RUEBA : Es facil comprobar que si E es la matriz que se obtiene de la identidad al
multiplicar la fila i por 6= 0 entonces E 1 es la matriz que se obtiene de la identidad al
multiplicar por 1/ la fila i.
2

Matrices elementales de tipo III


Decimos que una matriz cuadrada E es elemental tipo III si se obtiene
a partir de la matriz identidad In mediante una operacion elemental por
filas de tipo III. Es decir, si E se obtiene de In al sustituir la fila j por la
suma de ella misma con un multiplo de la fila i.
En este caso todas las entradas de la matriz E son nulas, salvo [E]ii =
1, i = 1, . . . n y [E]ji = . Si atendemos a las filas de E observamos
que Ek = etk si k 6= k, Ei = eti + etj .

Proposicion 2.5.6. (M ULTIPLICACI ON

POR UNA MATRIZ ELEMENTAL DE TIPO

46

III).

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

La multiplicacion de una matriz elemental de tipo III a la izquierda de una matriz


produce en e sta una operacion elemental por filas de tipo III.
La multiplicacion de una matriz elemental de tipo III a la derecha de una matriz
produce en e sta una operacion elemental por columnas de tipo III.
Ejercicio 2.5.2. Dejamos la prueba de la proposicion anterior como ejercicio.
Proposicion 2.5.7. Si E es una matriz elemental de tipo III entonces E es no singular y
su inversa es otra matriz elemental tipo III.
P RUEBA : Es facil comprobar que si E es la matriz que se obtiene de la identidad al
reemplazar la fila j por la suma de ella misma con la fila i por , entonces E 1 es la
matriz que se obtiene de la identidad al reemplazar la fila j por la suma de ella misma con
la fila i por .
2
Ejemplo 2.5.1. Consideremos la sucesion de operaciones para reducir

1 2 4
A= 2 4 8
3 6 13
a su forma escalonada reducida por filas EA .

1 2 4
1 2 4
A = 2 4 8 R2 2R1 0 0 0
3 6 13
R3 3R1
0 0 1

1 2 4
1 2 0
Cambia R2 y R3
0 0 1 R1 4R2 0 0 1 = EA
0 0 0
0 0 0
La reduccion se puede ver como una sucesion
matrices elementales correspondientes.

1 4 0
1 0 0
1 0
0
1 0 0 0 1 0 1
0
0 1
0 1 0
3 0

de multiplicaciones a izquierda por la

0
1 0 0
0 2 1 0 A = EA .
1
0 0 1

Producto de matrices elementales


Una matriz A es no singular si y solamente si A es el producto de matrices elementales de tipos 1, 2, o 3.
P RUEBA : Si A es no singular, el metodo de Gauss-Jordan reduce A a la matriz I mediante
operaciones por fila. Si E1 , E2 , . . . , Ek son las correspondientes matrices elementales,
entonces
Ek E2 E1 A = I, o bien A = E11 E21 Ek1 .
Como la inversa de una matriz elemental es una matriz elemental, esto prueba que A se
puede expresar como producto de matrices elementales.
Recprocamente, si A = E1 E2 Ek es un producto de matrices elementales, entonces A es no singular, pues es el producto de matrices no singulares.
2

47

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

Equivalencia de matrices

Cuando una matriz B se puede derivar de una matriz A mediante


operaciones elementales de filas y columnas, escribiremos A
B, y diremos que A y B son matrices equivalentes. Otra forma
de expresarlo es que
A B B = P AQ para matrices no singulares P y Q.
Analogamente se define la equivalencia por filas:
f
A B B = P A para P matriz no singular,
y la equivalencia por columnas:
c
A B B = AQ para Q matriz no singular.

Ejercicio 2.5.3. Estas relaciones son de equivalencia.


La forma escalonada reducida por filas EA es lo mas lejos que podemos llegar mediante transformaciones por filas. Sin embargo, si permitimos ademas el uso de transformaciones por columnas, la reduccion es mucho mayor.

Forma normal de rango


Si A es una matriz de orden m n y rango(A) = r, entonces


Ir 0
A Nr =
.
0 0
Nr se denomina forma normal de rango de A.

f
P RUEBA : Como A EA , existe una matriz no singular P tal que P A = EA . Si
rango(A) = r, entonces las columnas basicas de EA son las r columnas unitarias. Mediante intercambio de columnas aplicados a EA , podemos poner estas r columnas en la
parte superior izquierda. Si Q1 es el producto de las matrices elementales que hacen estos
intercambios, entonces


Ir J
.
P AQ1 = EA Q1 =
0 0
Ahora multiplicamos ambos lados de esta ecuacion por la matriz no singular
Q2 =

Ir J
0 I
48

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

y nos queda
P AQ1 Q2 =

Ir 0
0 0

Entonces A Nr .

Nota 2.5.3. De hecho Nr es la forma escalonada reducida por columnas de la forma


escalonada reducida por filas de A.
Ejemplo 2.5.2. Veamos que


A 0
= rango(A) + rango(B).
rango
0 B
Si rango(A) = r y rango(B) = s, entonces A Nr y B Ns , y

 

Nr 0
A 0
,

0 Ns
0 B
de donde
rango

A 0
0 B

= r + s.

f
c
Dadas matrices A y B, como decidimos si A B, A B o A B?
Test de equivalencia
Sean A y B matrices de orden m n. Entonces
A B si y solamente si rango(A) = rango(B).
f
A B si y solamente si EA = EB .
c
A B si y solamente si EAt = EBt .
En consecuencia, el producto por matrices no singulares no altera el
rango.
P RUEBA : Si rango(A) = rango(B), entonces A Nr y B Nr , de donde A Nr
B. Recprocamente, si A B, y rango(A) = r, rango(B) = s, tenemos que A Nr y
B Ns , por lo que Nr Ns , y esto implica que r = s.
f
f
f
Supongamos ahora que A B. Como B EB , entonces A EB . Como la forma
escalonada reducida por filas es u nica, se sigue que EB = EA . Recprocamente, si EA =
EB , entonces
f
f
A EA = EB B.
Para las columnas, basta considerar que
c
A B AQ = B (AQ)t = B t
f
Qt At = B t At B t .
2
49

Algebra
Lineal y Geometra I. Curso 2010/11. Departamento de Algebra.
http://www.departamento.us.es/da

Rango y trasposicion
rango(A) = rango(At ) y rango(A) = rango(A ).

P RUEBA : Sea rango(A) = r, y sean P y Q matrices no singulares tales que




Ir
0r(nr)
P AQ = Nr =
.
0(mr)r 0(mr)(nr)
Entonces Nrt = Qt At P t . Como Qt y P t son no singulares, se sigue que At Nrt , y
entonces


Ir
0r(mr)
t
t
rango(A ) = rango(Nr ) = rango
= r = rango(A).
0(nr)r 0(nr)(mr)
Para probar que rango(A) = rango(A ), escribimos Nr = Nr = P AQ = P AQ. Es facil
1
ver que K = K 1 , de donde Nr A y rango(A) = rango(A). Entonces
t

rango(A ) = rango(A ) = rango(A) = rango(A).


2

50

También podría gustarte