Está en la página 1de 29

Tema 2: Matrices, determinantes y sistemas de ecuaciones

lineales
Matrices
Una matriz con coeficientes sobre un cuerpo K (normalmente K  R) consiste en una
colección de números (o escalares) del cuerpo K ordenados por filas y columnas. Si la
matriz tiene m filas y n columnas se dirá que es de orden m  n.
Ejemplo: Las siguientes son matrices con coeficientes sobre R:

0 −1 3
A de orden 2  3 B 3 7 de orden 1  2
3 7 6

5 3 −3
0
0 0 0
C de orden 4  3 D 2 de orden 3  1
−2 8 8
8
5 0. 5 0

3 0 0
2 1
E de orden 2  2 F 5 −4 0 de orden 3  3
0 −3
1 −8 0

Sea A una matriz. Para indicar la fila y columna que ocupa cada elemento usaremos la
notación A  a ij , donde el índice i indica la fila y el índice j la columna. De este modo
estamos diciendo que el elemento a ij de la matriz A es el que ocupa la fila i y la columna j,
considerando esto para todos los posibles i y j. Así los elementos de la matriz A  a ij  del
ejemplo anterior son:
a 11  0 a 12  −1 a 13  3 a 21  3 a 22  7 a 23  6
Recordemos que R n está formado por todos los vectores de n coordenadas, todas ellas
números reales. Similarmente ocurre con K n tomando esta vez escalares del cuerpo K en
vez de números de R.
Para una matriz A de orden m  n denotaremos por F i la fila i-ésima de la matriz, la
cual puede interpretarse como un vector de K n al que llamaremos vector-fila de A;
igualmente denotaremos por C j a la columna j-ésima de la matriz, que puede interpretarse
como un vector de K m al que llamaremos vector-columna de A.
Una submatriz de otra es una matriz que se obtiene a partir de la inicial cogiendo unas
cuantas filas y unas cuantas columnas.
Se dice que una matriz es cuadrada si tiene el mismo número de filas que de columnas
(como la matriz E del ejemplo anterior). En esta situación si la matriz tiene n filas y n
columnas, podremos decir que es de orden n  n ó simplemente de orden n. Se llama
diagonal principal de una matriz (generalmente cuadrada) a los elementos de la forma a ii
para todo i posible, es decir, los elementos que tienen el mismo índice fila que columna. La
suma de los elementos de la diagonal principal se llama traza de la matriz (la diagonal
principal de la matriz E del ejemplo anterior está formada por el a 11  2 y el a 22  −3; por
eso la traza de la matriz vale −1). Una matriz cuadrada se dice que es triangular inferior
(respectivamente triangular superior) cuando todo elemento que esté situado por encima
(respectivamente por debajo) de la diagonal principal es nulo (la matriz E del ejemplo
anterior es triangular superior, mientras que la matriz F es triangular inferior). A una matriz
cuadrada que es triangular tanto inferior como superior, es decir, si cumple que los
elementos que no están en la diagonal principal son nulos, se le llama matriz diagonal. La
matriz diagonal de orden n que tiene todos los elementos de la diagonal principal iguales a
1 se llama matriz identidad (o matriz unidad) de orden n, y la denotaremos por I n , o
simplemente por I si está claro el tamaño. La matriz nula es la matriz que tiene todos sus
coeficientes son nulos. La matriz opuesta de una matriz A se denota por −A y consiste en
cambiar de signo todos sus coeficientes. La traza de una matriz cuadrada es la suma de los
elementos de la diagonal principal. Veamos algunos ejemplos:

5 7 −3
5 −3
6 −5 0
−3 5 es submatriz de al coger las filas 1, 3 y 4 y las columnas 1 y 3
−3 8 5
−5 7
−5 0 7

11 0 0
−3 0
y 0 0 0 son matrices diagonales
0 4
0 0 5

1 0 0
1 0
es la matriz identidad de orden 2 y 0 1 0 de orden 3
0 1
0 0 1

0 0 0
es la matriz nula de orden 2  3
0 0 0

0 4 −3 0 −4 3
La opuesta de la matriz es
−1 2 0 1 −2 0

1 3 0
La traza de la matriz 2 −4 −4 es 1 − 4  5  2
6 4 5

Operaciones con matrices


Fijados m y n, al conjunto de las matrices de orden m  n con coeficientes sobre un
cuerpo K lo denotaremos por M mn K.
Suma
Sean A  a ij  y B  b ij  dos matrices del mismo orden (m  n). Se define la suma de
las dos matrices como la matriz A  B  c ij , también de orden m  n, que cumple que
c ij  a ij  b ij
para cada par de índices i, j. Esto se traduce en que sumamos A y B coeficiente a
coeficiente. Observemos que esto sólo tiene sentido si las dos matrices son del mismo
orden. Por ejemplo
0 1 3 2 0 −3 2 1 0
 
−1 5 6 2 0 4 1 5 10
Propiedades:
 Propiedad asociativa: ∀A, B, C ∈ M mn K se tiene que
A  B  C  A  B  C
 (Propiedad conmutativa) ∀ A, B ∈ M mn K se tiene que
AB  BA
 (Elemento neutro) La matriz nula 0 ∈ M mn K, cumple que dada cualquier otra
matriz B ∈ M mn K se tiene que
B0  B
 (Elemento opuesto) Dada A ∈ M mn K se cumple que
A  −A  0
Entonces M mn K es un grupo abeliano con la suma ””, por cumplir estas
propiedades.
Producto de una matriz por un escalar
Sea A  a ij  una matriz de orden m  n y  ∈ R. Se define el producto del escalar por
la matriz como la matriz   A  d ij  (o simplemente A, omitiendo el símbolo de
multiplicar) de orden m  n, que cumple que
d ij  a ij
para todo i, j posibles. Por ejemplo
0 1 3 0 3 9 2 −1 3 −8 4 −12
3  −4 
−1 5 6 −3 15 18 9 0 8 −36 0 −32
Propiedades
 Pseudodistributivas:
1. ∀A, B ∈ M mn K, ∀ ∈ K se tiene que
A  B  A  B
2. ∀A ∈ M mn K, ∀,  ∈ K se tiene que
  A  A  A
 Pseudoasociativa: ∀A ∈ M mn K, ∀,  ∈ K se tiene que
  A  A
 Pseudoelemento neutro: ∀A ∈ M mn K se tiene que
1A  A
(donde 1 es el neutro para la multiplicación en el cuerpo K).
Observación: Como se ve en el Tema 2 el conjunto M mn K está dotado, con la suma
y el producto por escalares que aquí se han detallado, de estructura de espacio vectorial.
Producto de matrices
Dadas dos matrices A  a ij  y B  b ij  de orden m  n y n  p, respectivamente, se
define el producto de ambas matrices como la matriz A  B  c ij  (en adelante AB, sin
punto) de orden m  p que cumple que
n
c ij ∑ a ik b kj  a i1 b 1j  a i2 b 2j . . . a in b nj
k1
para todo i, j posibles. Recordando que el producto escalar (euclídeo) de dos vectores
a 1 , a 2 , . . . , a n , b 1 , b 2 , . . . , b n  de R n está dado por
n
a 1 , a 2 , . . . , a n   b 1 , b 2 , . . . , b n  ∑ a k b k  a 1 b 1  a 2 b 2 . . . a n b n
k1
el producto matricial puede interpretarse del siguiente modo: para obtener el elemento del
producto AB que está situado en la fila i, columna j, hay que hacer el producto escalar
del vector-fila F i de A por el vector-columna C j de B (esto vale también para matrices
consideradas sobre un cuerpo arbitrario K, no necesariamente R).
Notemos que si m ≠ p no tiene sentido hacer el producto BA. Incluso aunque m  p, y
entonces tenga sentido el producto en orden inverso, la matriz AB tendría orden m  m y la
matriz BA sería de orden n  n, luego ambas no podrían ser iguales, ya que tendrían distinto
orden, si m ≠ n. Es más, aún poniéndonos en la situación en que n  m  p (así A, B, AB y
BA son cuadradas de orden n) el producto no tiene por qué ser conmutativo, es decir, es
posible que AB ≠ BA.
Dada una matriz cuadrada A se define la potencia n-ésima de A como la matriz
n veces A

A n A  A . . . A
es decir, el producto de n veces A. Así A 1  A, A 2  A  A, A 3  A  A  A, etc.
Ejemplos:
1. Dadas
0 −2 3 −1 0
A B
1 −3 4 −2 1
la matriz producto es
0 −2 3 −1 0 −8 4 −2
AB  
1 −3 4 −2 1 −9 5 −3
2. Para la matriz A anterior se tiene que
0 −2 0 −2 0 −2 0 −2
A4  A  A  A  A  
1 −3 1 −3 1 −3 1 −3

−2 6 −2 6 −14 30
 
−3 7 −3 7 −15 31
Propiedades
1. Asociativa: Dadas matrices A de orden m  n, B de orden n  p y C de orden p  q se
tiene
ABC  ABC
y entonces podremos escribir simplemente ABC.
2. Relación con el producto por escalares: Dadas matrices A de orden m  n y B de
orden n  p y dado cualquier escalar  se tiene
AB  AB  AB
y entonces lo escribiremos de cualquiera de las formas siguientes AB  AB  AB.
3. Distributivas:
Dadas matrices A, B de orden m  n, C de orden n  p y D de orden q  m se tiene
A  BC  AC  BC y DA  B  DA  DB
4. Se tiene que
A0  0 y 0A  0
para cualquier matriz A, tomando la matriz nula del tamaño correspondiente en cada
caso.
5. Elemento neutro: Para cualquier matriz A se cumple que
IA  A y AI  A
tomando I la matriz identidad del tamaño adecuado en cada caso.
6. No conmutativa: En general se tiene AB ≠ BA, para matrices A y B de órdenes m  n
y n  m, respectivamente.
Trasposición de matrices
Dada una matriz A  a ij  de orden m  n se llama matriz traspuesta de A, a la matriz
A t  b ij  de orden n  m cuyos elementos son
b ij  a ji
para cada i, j. Observemos que cualquier matriz tiene traspuesta, no necesita ser cuadrada.
En la práctica para calcular la traspuesta de una matriz hay que tener en cuenta que las filas
de A son las columnas de A t , o equivalentemente, las columnas de A las filas de A t .
2 −2
2 0 −3
A A  t
0 1
−2 1 4
−3 4
Una matriz cuadrada A se dice que es simétrica si
A  At
Por ejemplo, es simétrica la matriz
1 −3 0
−3 5 4
0 4 −2

Sistemas escalonados. Método de Gauss


En toda la parte de Álgebra Lineal nos van a aparecer con frecuencia (en matrices,
sistemas de ecuaciones, sistemas de vectores de algunos de los espacios R n , espacios
vectoriales....) sistemas escalonados. Estos sistemas se caracterizan porque se puede elegir
una ordenación en la que cada fila (ecuación o vector) tiene más ceros iniciales que la/el
anterior, exceptuando las filas (ecuaciones o vectores) nulas que pudieran aparecer al
final.
1 −3 0 3 7
0 0 4 5 0
matriz escalonada
0 0 0 1 −4
0 0 0 0 0
Ejemplo: El sistema de ecuaciones lineales

x 1  2x 2  3

− 2x 2  −4

− x3  0

está escalonado, pues si representamos los coeficientes de modo matricial vemos que la
matriz de coeficientes
1 2 0
0 −2 0
0 0 −1
está escalonada. Resolver un sistema de ecuaciones escalonado es bien sencillo. Para éste
en concreto obtenemos en la última ecuación x 3  0, de la segunda x 2  2, y sustituyendo
esto en la primera que x 1  −1.
Nota: Un sistema de ecuaciones lineales se caracteriza porque las incógnitas del sistema
(en este caso x 1 , x 2 y x 3 ) aparecen en cada una de las ecuaciones del sistema sumando,
restando o multiplicadas por un número (no aparecen ni multiplicando ni dividiendo ni
realizando otro tipo de operaciones diferentes de la suma, resta o multiplicación por
números).
Ejemplo: El sistema de vectores de R 6
v 1  0, 0, 3, 4, 5, 4 v 2  0, 2, 3, 4, 5, −3 v 3  0, 0, 0, 0, 1, −6 v 4  0, 0, 0, 0, 0, 2
es escalonado si se elige el orden v 2 , v 1 , v 3 , v 4 . Observemos la representación matricial
con esta ordenación de los vectores:
0 2 3 4 5 −3
0 0 3 4 5 4
0 0 0 0 1 −6
0 0 0 0 0 2
El método de triangulación o escalonación de Gauss, que utilizaremos en estos
temas, se utiliza para pasar de un estado inicial (sea en forma de matriz, de sistema de
ecuaciones lineales, o de sistema de vectores) a otro estado que se denomina la
escalonación del sistema inicial. Se hace uso de 3 tipos de transformaciones (denominadas
transformaciones elementales) para la escalonación. Éstas son:
1. Cambiar el orden de las filas, ecuaciones o vectores.
2. Sumarle a una fila, ecuación o vector múltiplos de otras/os.
3. Multiplicar una fila, ecuación o vector por algún escalar no nulo.
Observación: Podemos utilizar las siguientes notaciones cuando realicemos alguna
trasformación elemental (usaremos preferentemente notación para matrices):
1. Si intercambiamos las filas F i y F j pondremos
Fi  Fj
2. Si le añadimos a la fila F j  veces la fila F i pondremos
F j  F i
3. Si multiplicamos la fila F i por  pondremos
F i
Observación: Estas transformaciones también pueden hacerse sobre las columnas, al
menos para el caso de matrices, sobreentendiendo las notaciones correspondientes
(cambiando la F de fila por la C de columna).
Ejemplo: Escalonemos (por filas) la matriz
2 1 −1 0
1 0 −3 1
−1 −1 −2 1
En primer lugar cambiamos de orden las dos primeras filas:
1 0 −3 1
F1  F2 2 1 −1 0
−1 −1 −2 1
Después le añadimos la primera fila a la segunda y a la tercera (a la segunda multiplicada
por −2 y la tercera por 1) y obtenemos
1 0 −3 1
F 2 − 2F 1
0 1 5 −2
F3  F1
0 −1 −5 2
Ahora nos fijamos únicamente en las dos últimas filas y le sumamos a la tercera la segunda.
Nos da
1 0 −3 1
F3  F2 0 1 5 −2
0 0 0 0
Ya tenemos escalonada la matriz inicial.
Ejemplo: Escalonar el siguiente sistema de ecuaciones lineales
x 1  2x 2  5x 3  3
3x 1  6x 2  15x 3  9
− 2x 2  x 3  −6
Matricialmente se tiene
1 2 5 3
3 6 15 9
0 −2 1 −6
Le añadimos la primera fila multiplicada por −3 a la segunda y obtenemos
1 2 5 3
F 2 − 3F 1 0 0 0 0
0 −2 1 −6
Cambiando las dos últimas llegamos a la matriz
1 2 5 3
F3  F2 0 −2 1 −6
0 0 0 0
que representa al sistema

x1  2x 2  5x 3  3

− 2x 2  x3  − 6

0  0

el cual está ya escalonado.


Ejemplo: Escalonemos el sistema de vectores
−1, 0, 1, 1, 1, 0, 3, 2, 2, 1, −1, 0
Para ello hagamos operaciones sobre la matriz cuyas filas son estos vectores:
−1 0 1 1
1 0 3 2
2 1 −1 0
En primer lugar le añadimos la primera fila a la segunda (multiplicada por 1) y a la tercera
(multiplicada por 2),
−1 0 1 1
F2  F1
0 0 4 3
F 3  2F 1
0 1 1 2
Después cambiamos de orden la segunda y tercera filas y obtenemos la escalonación
−1 0 1 1
F2  F3 0 1 1 2
0 0 4 3
Entonces el sistema de vectores escalonado obtenido es
−1, 0, 1, 1, 0, 1, 1, 2, 0, 0, 4, 3

Una variante del método de Gauss es el de Gauss-Jordan, que consigue, además de


ceros por debajo de la diagonal como lo hace el método de Gauss, también ceros por
encima y unos en la misma diagonal.
Ejemplo: Escalonar el siguiente sistema de ecuaciones lineales mediante el método de
Gauss-Jordan:
x 1  2x 2  5x 3  3
3x 1  6x 2  14x 3  9
− 2x 2  x 3  −4

Le añadimos a la segunda −3 veces la primera y obtenemos


x 1  2x 2  5x 3  3

F 2 − 3F 1 − x3  0

− 2x 2  x 3  −4

Cambiando de orden las dos últimas filas tenemos


x 1  2x 2  5x 3  3

F2  F3 − 2x 2  x 3  −4

− x3  0

sistema que ya está escalonado. Ahora le añadimos la tercera fila a la segunda y primera
multiplicada por 1 y 5, respectivamente y tenemos

x 1  2x 2 3
F2  F3
− 2x 2  −4
F 1  5F 3
− x3  0

Seguidamente le sumamos la segunda ecuación a la primera y tenemos

x1  −1

F1  F2 − 2x 2  −4

− x3  0

Finalmente se multiplica la segunda ecuación por − 12 y la tercera por −1 para quedar así:
x1  −1
− F2
1
2
x2  2
−F 3
x3  0

Rango
El rango de una matriz A es un número que será denotado por rA ó RA. Esto
podemos calcularlo, aplicando el método de Gauss para escalonar las filas
(respectivamente, las columnas) de A, teniendo en cuenta que rA es el número de filas
no nulas que resultan después de escalonar la matriz. Esto se debe a que las
transformaciones elementales que se realizan a las filas o columnas de una matriz no varían
su rango.
Definición: a) Si tenemos una matriz cuyas filas son F 1 , F 2 , . . . , F n , se llama
combinación lineal de las filas (en adelante CL) a todo vector v que se pueda poner de la
forma
n
v ∑  i F i   1 F 1   2 F 2 . . .  n F n
i1
para cualesquier números  1 ,  2 , . . . ,  n . En esta situación se dice que v es CL de
F1, F2, . . . , Fn.
b) Se dice las filas son linealmente dependientes (en adelante LD), o que hay una
relación de dependencia lineal entre ellas, si alguna es CL de los demás. En caso contrario
se dirá que son linealmente independientes (LI).
Ejemplo: En la situación de una matriz A con cuatro filas si:
 F 2   1 F 1   3 F 3   4 F 4 se diría que F 2 es CL de F 1 , F 3 y F 4 .
 F 1  3F 2 − 2F 3  F 4 se diría que F 1 es CL de F 2 , F 3 y F 4 .
 F 3  F 2 − 7F 4 (observemos que  1  0) se diría que F 3 es CL de F 1 , F 2 y F 4 .
En los tres ejemplos anteriores las filas son LD, porque existe una relación de
dependencia lineal entre ellas.
En el proceso del cálculo del rango de una matriz mediante el método de escalonación
de Gauss podemos, o bien dejar las filas nulas que nos vayan apareciendo al final (tal y
como está concebido inicialmente el método de Gauss) o bien ir eliminando estas filas
(pues luego éstas no cuentan para el rango). Lo mismo podemos hacer con las filas entre las
que haya alguna relación de dependencia lineal, eliminando alguna que sea combinación
lineal de las demás.
Ejemplo: Vamos a hallar el rango de la matriz
2 2 3 2 0
1 1 2 0 −1
1 1 2 0 −1
2 2 2 1 0
En primer lugar cambiamos de orden la primera y segunda filas, para así operar mejor
con el 1 que tiene la segunda fila como primer coeficiente. Tendríamos entonces
1 1 2 0 −1
2 2 3 2 0
F1  F2
1 1 2 0 −1
2 2 2 1 0
donde añadimos la primera fila a las restantes, multiplicándola por números adecuados (a la
segunda y cuarta se la añadimos multiplicada por −2 y a la tercera por −1). Entonces
tenemos
1 1 2 0 −1
F 2 − 2F 1
0 0 −1 2 2
F3 − F1
0 0 0 0 0
F 4 − 2F 1
0 0 −2 1 2
Ahora procederíamos igual con las tres últimas filas. En ellas es nulo el primer coeficiente
(porque lo hemos eliminado antes) y casualmente el segundo. Empezamos pues por el
tercero. Esta vez no hace falta cambiarlas de orden y lo único que tenemos que hacer es
añadir un múltiplo de la segunda fila a las demás para hacer ceros. En este caso basta
añadirle a la cuarta fila −2 veces la segunda para obtener
1 1 2 0 −1
0 0 −1 2 2
F 4 − 2F 2
0 0 0 0 0
0 0 0 −3 −2
Ahora procedemos con la tercera y cuarta filas, donde nos interesa cambiarlas de orden:
1 1 2 0 −1
0 0 −1 2 2
F3  F4
0 0 0 −3 −2
0 0 0 0 0
Ejemplo: Vamos a hallar el rango de la matriz
1 0 3 −2 0
−1 3 0 2 3
−1 1 −2 −2 1
0 1 1 0 −1
En primer lugar eliminamos la cuarta columna pues es -2 veces la primera
1 0 3 0
−1 3 0 3
−1 1 −2 1
0 1 1 −1
Ahora eliminamos la cuarta fila, pues es suma de la primera y la tercera
1 0 3 0
−1 3 0 3
−1 1 −2 1
Ahora añadimos la primera fila a las restantes. En este caso basta con sumarles a ambas
la primera fila. Entonces tenemos
1 0 3 0
F2  F1
0 3 3 3
F3  F1
0 1 1 1
Ahora eliminamos la segunda fila, pues es triple de la tercera y queda la matriz escalonada
1 0 3 0
0 1 1 1
que nos indica que el rango es 2.

Inversa
Una matriz cuadrada A de orden n se dice que es invertible cuando existe otra matriz
cuadrada del mismo orden B de modo que
AB  BA  I n
En esta situación la matriz B es única cumpliendo lo anterior, y se llamará la matriz inversa
de A y escribiremos
B  A −1
Nota: Puede comprobarse que B es la inversa de A si y sólo si AB  I n si y sólo si
BA  I n , es decir, es suficiente con que uno de los dos productos resulte la matriz
identidad.
Propiedad: Una matriz cuadrada de orden n es invertible si y sólo si tiene rango n.
La inversa de una matriz invertible A puede calcularse de varias formas. Una de ellas es
directamente, planteando un sistema de ecuaciones (que se puede resolver escalonándolo
por Gauss), obtenido a partir de la suposición de que los coeficientes de A −1 son
indeterminados, y hacer el producto AA −1  I n (ó A −1 A  I n ). Este método no es muy
adecuado, pues hay que resolver n sistemas de n ecuaciones con n incógnitas. Es mejor el
método de Gauss-Jordan que se explica a continuación.
Método de Gauss-Jordan para el cálculo de la inversa
Este método para el cálculo de la inversa de una matriz es en general bastante eficiente.
Supongamos que tenemos una matriz A, cuadrada de orden n, que se sabe que es invertible.
Pongamos la matriz A y a continuación, a la derecha, la matriz identidad de orden n.
Usualmente se ponen ambas formando una matriz de orden n  2n y se separan por una
línea vertical, quedando en la forma A|I n . Aplicamos a la matriz A el método de
Gauss-Jordan (variante del método de Gauss), consistente en hacer operaciones por fila
hasta obtener la matriz identidad. El resultado de aplicarle a la matriz identidad que hay a la
derecha de A esas mismas operaciones nos proporciona precisamente A −1 .
Observación: Si le aplicamos el método de Gauss-Jordan a una matriz no invertible
observaremos que es imposible obtener la matriz identidad en la parte izquierda.
Ejemplo: Hallar la inversa de la matriz
1 0 1
A 2 −1 0
3 2 6
Pondríamos entonces
1 0 1 1 0 0
2 −1 0 0 1 0
3 2 6 0 0 1
y aplicamos transformaciones, por ejemplo por fila. Añadimos a la segunda fila −2 veces la
primera y a la tercera fila −3 veces y obtenemos
1 0 1 1 0 0
F 2 − 2F 1
0 −1 −2 −2 1 0
F 3 − 3F 1
0 2 3 −3 0 1
Añadimos a la tercera fila 2 veces la segunda y llegamos a
1 0 1 1 0 0
F 3  2F 2 0 −1 −2 −2 1 0
0 0 −1 −7 2 1
Una vez que estamos con una matriz triangular superior se hacen operaciones para hacerla
diagonal. Primero cambiamos el signo de las dos últimas filas, por lo que tenemos
1 0 1 1 0 0
−F 2
0 1 2 2 −1 0
−F 3
0 0 1 7 −2 −1
Ahora añadimos a la segunda fila −2 veces la tercera y se obtiene que
1 0 1 1 0 0
F 2 − 2F 3 0 1 0 −12 3 2
0 0 1 7 −2 −1
Finalmente a la primera fila le restamos la tercera y nos sale
1 0 0 −6 2 1
F1 − F3 0 1 0 −12 3 2
0 0 1 7 −2 −1
Entonces la matriz inversa de A es
−6 2 1
A −1  −12 3 2
7 −2 −1
Ejemplo: Hallar la inversa de la matriz
1 1 0
B −3 0 1
2 −1 −2
Pondríamos entonces
1 1 0 1 0 0
−3 0 1 0 1 0
2 −1 −2 0 0 1
y aplicamos transformaciones, por ejemplo por fila. Añadimos a la segunda fila −2 veces la
primera y a la tercera fila −3 veces, y obtenemos
1 1 0 1 0 0
F 2  3F 1
0 3 1 3 1 0
F 3 − 2F 1
0 −3 −2 −2 0 1
Ahora le añadimos a la tercera fila −1 por la segunda:
1 1 0 1 0 0
F3  F2 0 3 1 3 1 0
0 0 −1 1 1 1
Una vez que estamos con una matriz triangular superior, se hacen operaciones para hacerla
diagonal. Primero añadimos a la segunda fila 2 veces la tercera:
1 1 0 1 0 0
F 2  2F 3 0 3 0 4 2 1
0 0 −1 1 1 1
Multiplicando la segunda fila por 1
3
y la tercer por −1 sale:
1 1 0 1 0 0
− 13 F 2 4 2 1
0 1 0 3 3 3
−F 3
0 0 1 −1 −1 −1
finalmente añadimos a la primera fila −1 por la segunda:
1 0 0 − 13 − 23 − 13
F1 − F2 0 1 0 4
3
2
3
1
3
0 0 1 −1 −1 −1
Entonces la matriz inversa de B es
− 13 − 23 − 13
B −1  4
3
2
3
1
3

−1 −1 −1
Recordemos los pasos que se siguen para transformar una matriz A en la matriz
identidad:
1. Hacer ceros por debajo de la diagonal principal.
2. Convertir los elementos de la diagonal en 1.
3. Hacer ceros por encima de la diagonal principal.
Nota: Los dos últimos pasos pueden entremezclarse.

Determinantes
La definición rigurosa del concepto de determinante requiere una serie de herramientas
matemáticas que no creemos necesario tratar. El determinante está englobado dentro de lo
que se denominan las aplicaciones multilineales.
El determinante de una matriz cuadrada A de orden n con coeficientes sobre un cuerpo
K es un escalar del cuerpo. Lo vamos a denotar por |A| (reemplazando los paréntesis usados
para delimitar la matriz por líneas verticales), por detA o también por detF 1 , F 2 , . . . . , F n ,
donde se supone que F 1 , F 2 , . . . , F n ∈ K n son los vectores-fila de A (igualmente se podría
usar la notación detC 1 , C 2 , . . . , C 2  a partir de los vectores-columna C 1 , C 2 , . . . , C n ∈ K n ).
Diremos indistintamente que es el determinante de la matriz o de los vectores que están en
las filas o columnas.
La definición exacta de determinante es un tanto técnica y no se va a incluir aquí
(aunque puede verse en buena parte de los textos de Álgebra). Vamos a dar las fórmulas
para el cálculo de los determinantes de orden 1, 2 y 3, y a continuación enunciaremos
algunas propiedades de los determinantes que nos permiten calcular también los
determinantes de orden superior.
Orden 1  |a|  a

a b
Orden 2   ad − bc
c d

a 11 a 12 a 13
Orden 3  a 21 a 22 a 23 
a 31 a 32 a 33

 a 11 a 22 a 33  a 21 a 32 a 13  a 31 a 12 a 23 − a 13 a 22 a 31 − a 23 a 32 a 11 − a 33 a 12 a 21
Esta última fórmula se hace más sencilla de recordar si tenemos en cuenta que aparecen 6
sumandos, 3 de los cuales resultan de multiplicar los elementos que aparecen en la diagonal
principal y los de cada una de las 2 diagonales ”paralelas” a ésta, y los otros tres resultan de
multiplicar los elementos que aparecen en cada una de las 3 ”diagonales opuestas”. Esto se
conoce como Regla de Sarrus.
Ejemplo:
2 −3 0
1 −1 4 
−2 3 5

 2  −1  5  1  3  0  −2  −3  4 − 0  −1  −2 − 4  3  2 − 5  −3  1 


 −10  0  24 − 0 − 24  15  5
Propiedades de los determinantes
Sea A una matriz cuadrada de orden n, y supongamos que sus filas son
F 1 , F 2 , . . . , F n ∈ K n . Entonces se cumplen las siguientes propiedades:
1. Si F i  F ′i  F ′′i , para ciertas filas F ′i , F ′′i ∈ K n , entonces
detF 1 , . . . , F i , . . . , F n   detF 1 , . . . , F ′i , . . . , F n   detF 1 , . . . , F ′′i , . . . , F n 
2. Para todo  ∈ K se tiene que
detF 1 , . . . , F i , . . . , F n    detF 1 , . . . , F i , . . . , F n 
3. Para todo i, j ∈ 1, 2, . . . , n (i ≠ j) se tiene que
detF 1 , . . . , F j , . . . , F i , . . . , F n   − detF 1 , . . . , F i , . . . , F j , . . . , F n 
4. Para todo i, j ∈ 1, 2, . . . , n (i ≠ j) se tiene que
detF 1 , . . . , F i  F j , . . . , F n   detF 1 , . . . , F i , . . . , F n 
para todo i, j ∈ 1, 2, . . . , n (i ≠ j) y todo  ∈ K.
5. detF 1 , . . . , F n   0 si y sólo si los vectores F 1 , F 2 , . . . , F n son LD. De esto se deduce
que:
6. A es invertible si y sólo si det A ≠ 0. Además en esta situación
detA −1   1
det A
7. Si A es una matriz triangular superior o inferior (en particular si es una matriz
diagonal) entonces det A es el producto de los elementos de la diagonal.
8. det A  detA t 
9. detA  B  det A  det B para
toda matriz cuadrada B de orden n.
Observación: Las 5 primeras propiedades pueden enunciarse también en términos de
las columnas de la matriz.
Ejemplo: Vamos a calcular el siguiente determinante
1 0 2 3
2 −3 2 5
0 2 2 −3
1 1 2 4
Vamos a hacer ceros usando el elemento a 11  1. Así tenemos
1 0 2 3
F 2 − 2F 1 0 −3 −2 −1
F4 − F1 0 2 2 −3
0 1 0 1
(habiéndole añadido a la segunda, tercera y cuarta filas la primera multiplicada por −2, 0 y
−1). Ahora cambiamos la segunda y cuarta filas para simplificar la eliminación, y queda
1 0 2 3
0 1 0 1
F2  F4 −
0 2 2 −3
0 −3 −2 −1
Le añadimos ahora la segunda fila a la tercera y cuarta, multiplicada por −2 y 3
respectivamente, y llegamos a
1 0 2 3
F 3 − 2F 2 0 1 0 1

F 4  3F 2 0 0 2 −5
0 0 −2 2
Finalmente le sumamos la tercera fila a la cuarta y tenemos
1 0 1 3
0 1 0 1
F4  F3 −
0 0 2 −5
0 0 0 −3
con lo que el valor del determinante es −1  1  2  −3  6.
En la siguiente sección veremos que no es necesario escalonar la matriz para obtener el
determinante.

Menor, menor complementario, adjunto


Se llama menor de una matriz A (no necesariamente cuadrada) al determinante de
cualquier submatriz cuadrada suya.
En una matriz cuadrada A de orden n se llama menor complementario del elemento a ij
al determinante de orden n − 1 de la submatriz resultante de eliminar en A la fila i y la
columna j, que son en las que está situado el elemento. Finalmente se llama adjunto del
elemento a ij a su menor complementario multiplicado por −1 ij , es decir, se multiplica
por 1 o por −1, dependiendo de que la suma de los índices fila y columna del elemento sea
par o impar. Al adjunto del elemento a ij en la matriz A lo denotaremos por A ij . En el
0 −3
ejemplo anterior el adjunto de a 31  3 es A 31   15 y el adjunto de
5 0
2 0 3 −4
Algunos menores de la matriz A  0 6 2 −1 son
−5 −6 0 7

2 0 −4
2 −4
0 6 −1  −48 y  −6
−5 7
−5 −6 7

1 0 −3
En la matriz 1 5 0
3 −3 2

0 −3 0 −3
el menor complementario de a 31  3 es  15 y su adjunto vale A 31   15
5 0 5 0

0 −3 0 −3
Y el menor complementario de a 21  1 es  −9 su adjunto vale A 21  − 9
−3 2 −3 2

Cálculo del determinante desarrollando por adjuntos


Sea A una matriz cuadrada de orden n. Entonces se tiene
n n
det A ∑ a lj A lj  a l1 A l1  a l2 A l2 . . . a ln A ln ∑ a ik A ik  a 1k A 1k  a 2k A 2k . . . a nk A nk
j1 i1
Lo anterior lo que nos dice es que mediante la F l o la columna C k podemos calcular el
determinante de la matriz sumando los productos de los elementos de esa fila o columna
por sus respectivos adjuntos. Por ejemplo si tenemos una matriz A  a ij  de orden 3
tendríamos (fijándonos por ejemplo en la primera fila o la segunda columna)
det A  a 11 A 11  a 12 A 12  a 13 A 13  a 12 A 12  a 22 A 22  a 32 A 32
Es muy útil esta regla a la hora de calcular determinantes grandes, sobre todo si aparece
alguna fila o columna con muchos elementos nulos (si es posible todos los elementos
excepto uno). Por ejemplo si queremos calcular el determinante
3 0 −4
|A|  −2 0 1
−5 −2 4
vamos a desarrollar por los adjuntos de la segunda columna y tendremos
3 −4
|A|  a 12 A 12  a 22 A 22  a 32 A 32  0A 12  0A 22  −2A 32  −2A 32  −2  −   23 − 8  −
−2 1
Por supuesto no siempre estaremos en esta situación de tener bastantes ceros, pero
aplicando las propiedades de los determinantes podremos llegar a una matriz con muchos
ceros. Por ejemplo si queremos calcular ahora el determinante
4 2 −4
|A|  1 3 4
2 0 6
le añadimos a la última columna −3 veces la primera y nos queda
4 2 −16
1 3 1
2 0 0
determinante que puede calcularse ahora fácilmente desarrollando por los adjuntos de la
tercera fila, para obtener
2 −16
|A|  a 31 A 31  a 32 A 32  a 33 A 33  2  0A 32  0A 33  22  48  100
3 1

Rango de una matriz utilizando menores


En el apéndice estará explicado con más detalle la relación entre los menores de una
matriz y su rango. Lo que nos interesa fundamentalmente es la siguiente propiedad:
Propiedad: Sea A un matriz de orden m  n (no necesariamente cuadrada). El rango de
A es el mayor orden para el que existen menores no nulos de ese orden dentro de A. En
particular se tiene que si encontramos un menor de orden r no nulo, entonces rA ≥ r.

Cálculo de la inversa de una matriz mediante


adjuntos
Vamos a dar otro método para calcular la inversa de una matriz. Supongamos que
A  a ij  es una matriz cuadrada invertible. Sabemos que |A| ≠ 0. Calculamos ahora lo que
vamos a llamar matriz adjunta de A, y que la vamos a denotar por
AdjA  b ij 
cuyos coeficientes son los adjuntos respectivos de los elementos de A, es decir, b ij  A ij
para todo i, j posible. Entonces se cumple que
A −1  1 AdjA t
|A|
De este modo la matriz inversa de A resulta de hallar la traspuesta de la adjunta y dividir
por el determinante. Da lo mismo tomar la traspuesta de la adjunta que la adjunta de la
traspuesta, así que también tendremos
A −1  1 AdjA t 
|A|
Ejemplo: Hallar la inversa de la matriz
1 1 3
A 1 2 −1
0 1 1
Como |A|  5 y

2 −1 1 −1 1 2

1 1 0 1 0 1

A 11 A 12 A 13 3 −1 1
1 3 1 3 1 1
AdjA  A 21 A 22 A 23  − −  2 1 −1
1 1 0 1 0 1
A 31 A 32 A 33 −7 4 1

1 3 1 3 1 1

2 −1 1 −1 1 2

tenemos que
3 2 −7
3
5
2
5
− 75
A −1  1 AdjA t  1 −1 1 4  − 1 1 4
|A| 5 5 5 5
1 −1 1 1
5
− 1
5
1
5

Ejemplo: Hallar la inversa de la matriz 2x2 invertible


a b
A
c d
Es sencillo obtener por la fórmula anterior que
−1 1 d −b
A 
ad − bc −c a
Por ejemplo, la inversa de la matriz
−3 6 8 −6
 1
−1
A es A
−7 8 18 7 −3

Determinante de Vandermonde
Es un determinante especial que se usa en determinadas situaciones como a la hora de
hallar el polinomio interpolador de Lagrange o bien al resolver ciertas reglas de cuadratura
para aproximar numéricamente integrales. Pongamos y resolvamos el caso 3x3:
1 1 1
a b c
a2 b2 c2
Realicemos las siguientes operaciones por fila (y en ese orden):
1 1 1 1 1 1
F 3 − aF 2
 0 b−a c−a  0 b−a c−a
F 2 − aF 1
0 b − ba c − ca
2 2
0 bb − a cc − a

1 1 1
b−a c−a 1 1
 0 b−a c−a   b − ac − a  c − ab − ac − b
bb − a cc − a b c
0 bb − a cc − a
En resumen el desarrollo del determinante de Vandermonde donde la primera fila esté
formada por elementos a 1 , a 2 , . . . a n es
 a j − a i 
ij

es decir, el producto de todas las diferencias entre los a ′i s siempre que pongamos como
minuendo el que tiene el subíndice mayor.

Sistemas de ecuaciones lineales


Un sistema de ecuaciones de la forma
a 11 x 1  a 12 x 2 . . . . a 1n x n  b 1
a 21 x 1  a 22 x 2 . . . . a 2n x n  b 2
∗
......
a m1 x 1  a m2 x 2 . . . . a mn x n  b m
donde los a ij y los b i son escalares del cuerpo K y los x j representan las incógnitas del
sistema (también escalares del cuerpo K, en este caso, indeterminados), se llamará sistema
de ecuaciones lineales o sistema lineal sobre el cuerpo K. Se dirá que el sistema tiene m
ecuaciones y n incógnitas. A los a ij se les llama coeficientes del sistema, a los b i términos
independientes. Agrupando los elementos anteriores tenemos
A  a ij   matriz de coeficientes, de orden m  n

b1
b2
B  vector de términos independientes, de orden m  1
...
bm

x1
x2
X  vector de las incógnitas, de orden n  1
...
xn

Definimos la matriz ampliada A|B, de orden m  n  1, como la que se forma


añadiendo la columna B a la matriz A. Si ponemos el vector de términos independientes y el
de las incógnitas en forma de columna obtenemos la forma matricial del sistema AX  B.
Una solución del sistema de ecuaciones lineales (*) es un vector
S  s 1 , s 2 , . . . , s n  ∈ K n tal que al sustituir cada incógnita x j por el correspondiente s j se
verifican todas las ecuaciones, o equivalentemente, si se cumple la relación matricial
AS t  B (S t denota el traspuesto del vector-fila S, es decir, lo hemos puesto en forma de
vector-columna).
Según el número de soluciones los sistemas pueden ser compatibles (SC), si tienen
alguna solución, o incompatibles (SI), si no tienen ninguna solución. Un sistema
compatible puede tener solución única, en cuyo caso se dice que es compatible
determinado (SCD), o tener más de una solución, en cuyo caso se dice que es compatible
indeterminado (SCI). De hecho cuando el cuerpo es infinito (como ocurre con el caso
K  R) los SCI no sólo tienen más de una solución sino que tienen infinitas.
En los SCI al conjunto de todas las soluciones se le llama solución general y ésta
quedará en función de una serie de parámetros. Al menor número de parámetros que se
necesitan para expresar la solución general lo llamaremos grado de indeterminación o
grados de libertad del sistema.
Diremos que un sistema AX  B es homogéneo si B es el vector nulo, es decir, si todos
los términos independientes son nulos. Éstos siempre serán SC pues el vector nulo es
siempre una solución (la solución que se obtiene al coger todas las incógnitas con valor 0).
Entonces un sistema homogéneo es SCI si y sólo si tiene alguna solución no nula.
Al conjunto de las soluciones de un sistema homogéneo AX  0 lo denotaremos por
ker A y lo llamaremos núcleo de la matriz A.

Sistemas equivalentes. Método de Gauss para


resolver sistemas lineales
Llamaremos discutir un sistema a determinar si es SI, SCD o SCI. Por discutir y
resolver se entenderá que hay además que dar la solución o soluciones, si es SC. Para ello
lo que podemos hacer es utilizar el método de Gauss que consiste en aplicar
transformaciones elementales hasta escalonar el sistema. Recordemos las transformaciones
elementales que utilizábamos sobre matrices, sistemas o vectores:
1. Cambiar de orden las ecuaciones.
2. Multiplicar una ecuación por un escalar no nulo.
3. Sumar a una ecuación un múltiplo de otra.
Además, aquí es posible también:
4. Cambiar de orden las incógnitas.
Estas transformaciones convierten el sistema lineal inicial en otro equivalente, es decir,
con las mismas soluciones. Una vez escalonado el sistema se resuelve de forma sencilla,
pues:
 Si al final (o en algún momento previo) nos sale un absurdo, es decir, una ecuación
que no es posible que se cumpla (como 0  1, o algo similar) entonces estamos con un
SI.
 Si no estamos en la situación anterior (podremos escalonar hasta el final), estaremos
con un SC y puede ocurrir que:
- Todas las incógnitas correspondan con pivotes (se llaman pivote de cada fila al
primer coeficiente no nulo que aparece. Esto es para la matriz de coeficientes. Si
lo miramos en el sistema se corresponden con la primera incógnita que aparece en
cada ecuación). En definitiva lo que ocurrirá es que, después de escalonar y
eliminar las ecuaciones (o filas) nulas, tendremos igual número de ecuaciones que
de incógnitas. En tal caso tenemos un SCD en el que la solución del sistema se
puede hallar despejando el valor de las incógnitas, de abajo hacia arriba.
- Haya alguna incógnita del espacio que no corresponda a ningún pivote. En este
caso tenemos un SCI, y las incógnitas que no correspondan a pivotes van a ser los
parámetros del sistema. El número de parámetros (que por el método de Gauss son
ya el número mínimo necesario para expresar la solución general del sistema) será
los grados de libertad del sistema.
Durante este proceso también pueden ir eliminándose ecuaciones ”triviales” de la forma
0  0 (porque estas ecuaciones siempre se cumplen y no aportan nada nuevo) o bien
ecuaciones que sean CL de otras.
Ejemplos:
1. Discutir y resolver (en su caso) el siguiente sistema lineal
x − y  3z  −1
5x − 3y  10z  2
2y − 5z  3

Añadiéndole a la segunda ecuación la primera multiplicada por −5 obtenemos


(observemos que como son ecuaciones y no filas, empleamos E 1 y E 2 en vez de F 1 y
F 2 para referirnos a ellas)
x − y  3z  −1

E 2 − 5E 1 2y − 5z  7

2y − 5z  3

Si ahora le restamos a la tercera la segunda se tiene


x − y  3z  −1

E3 − E2 2y − 5z  7

0  −4

En este caso hemos obtenido una ecuación contradictoria (un absurdo) 0  −4, con lo
que deducimos que es un SI.
2. Discutir y resolver (en su caso) el siguiente sistema lineal

x − z  −1
−2x  y  z  −5
4x − y − 3z  3
Obtenemos que la matriz ampliada del sistema es
1 0 −1 −1
−2 1 1 −5
4 −1 −3 3
Le añadimos a la segunda fila la primera multiplicada por 2, y a la tercera multiplicada
por −4 y obtenemos
1 0 −1 −1
E 2  2E 1
0 1 −1 −7
E 3 − 4E 1
0 −1 1 7
Eliminando entonces la tercera ecuación (es proporcional a la segunda) llegamos a la
matriz
1 0 −1 −1
0 1 −1 −7
que representa al sistema

x − z  −1

y − z  −7

que es equivalente al sistema inicial. Como ya está escalonado y no nos ha aparecido


ninguna ecuación contradictoria estamos con un SC. Además sólo hay 2 pivotes (los
correspondientes a las incógnitas x e y), con lo que sobra un incógnita, z, que será el
único parámetro en este caso, de manera que tenemos un SCI (ya que hay algún
parámetro). Así, poniendo z   y despejando en las ecuaciones obtenemos que
y  −7  z  −7  . Y en la primera ecuación tenemos que x  z − 1   − 1. Así la
solución general de este SCI es
x  −1
y  −7   con  ∈ R.
z
3. Discutir y resolver (en su caso) el siguiente sistema lineal
x 1  2x 2  5x 3  3
3x 1  6x 2  14x 3  9
− 2x 2  x 3  −4

De nuevo le añadimos a la segunda y tercera filas un múltiplo adecuado de la primera y


obtenemos
x 1  2x 2  5x 3  3

E 2 − 3E 1 − x3  0

− 2x 2  x 3  −4

Cambiando de orden las dos últimas filas tenemos


x 1  2x 2  5x 3  3

E2  E3 − 2x 2  x 3  −4

− x3  0

sistema que ya está escalonado. Como no hemos obtenido ninguna ecuación absurda
estamos con un SC. Y como las tres variables corresponden a pivotes (x 1 en la primera
ecuacion, x 2 en la segunda y x 3 en la tercera), no va a haber ningún parámetro, de
modo que tenemos un SCD. El valor de las incógnitas se halla despejando de abajo a
arriba las variables, o, si empleamos Gauss-Jordan transformando previamente la
matriz en una matriz ”diagonal”. Así, le añadimos la tercera fila a la segunda y primera
multiplicada por 1 y 5, respectivamente y tenemos

x 1  2x 2 3
E2  E3
− 2x 2  −4
E 1  5E 3
− x3  0

Finalmente le sumamos la segunda ecuación a la primera y tenemos

x1  −1

E1  E2 − 2x 2  −4

− x3  0

de donde obtenemos que x 1  −1, x 2  2 y x 3  0.


Teorema de Rouché-Fröbenius
Teorema: Un sistema de ecuaciones lineales es compatible si y sólo si el rango de la
matriz de coeficientes coincide con el de la matriz ampliada. En este caso, el sistema es
compatible determinado si este rango coincide con el número de incógnitas del espacio.
Cuando el sistema es compatible indeterminado los grados de libertad se calculan como la
diferencia entre el número de incógnitas y el rango.
Como consecuencia del Teorema de Rouché-Fröbenius obtenemos que un sistema
homogéneo AX  0 tiene solución no nula (ker A ≠ 0) si y sólo si rA  n.

Método de Cramer
Teorema: Supongamos que tenemos un sistema de ecuaciones lineales AX  B con
matriz de coeficientes A cuadrada de orden n, y del que se sabe que es SCD. Entonces la
solución del sistema x 1 , x 2 , . . . , x n  cumple que x i  |M i|
|A|
para todo i, donde M i es la matriz
obtenida a partir de A sustituyendo la columna i-ésima por la columna de términos
independientes B.
El método de Cramer también puede utilizarse para resolver un SCI del siguiente modo:
Supongamos que rA  rA|B  k  n y elegimos un menor no nulo de A de orden k.
Se dejan a la izquierda las incógnitas que forman parte del menor; el resto de incógnitas se
pasarán a la derecha y serán los parámetros. Las ecuaciones que no forman parte del menor
pueden eliminarse pues son CL de las restantes. La solución general del sistema puede
obtenerse por Cramer, imaginando que tenemos el SCD en el que se consideran como
incógnitas únicamente las que están a la izquierda, es decir, las que corresponden a los
pivotes (la matriz de coeficientes de este sistema será de orden k  k pues no formarán parte
de ella los coeficientes de las incógnitas que van a ser ahora parámetros, ni tampoco los de
las ecuaciones que hemos eliminado).
El método de Cramer es en general poco útil en la práctica, pues cuando el orden del
sistema es relativamente grande hay que hacer demasiadas operaciones para resolverlo (ya
cuando estamos con 3 ecuaciones y 3 incógnitas es más recomendable el de Gauss).
Ejemplo: Discutir los siguientes sistemas lineales utilizando el Teorema de Rouché y
resolverlos (en su caso) por el método de Cramer:
1.
x1  x2 − x3  2
3x 1 − x 2  2x 3  2
−x 1 − x 2 − 3x 3  −2

Como
1 1 −1
3 −1 2  16 ≠ 0
−1 −1 −3
se tiene que el rango tanto de la matriz de coeficientes como el de la matriz ampliada
valen 3. Por ello estamos con un SCD. Entonces la solución es
2 1 −1
x1  1 2 −1 2  16  1
16 16
−2 −1 −3

1 2 −1
x2  1 3 2 2  16  1
16 16
−1 −2 −3

1 1 2
x3  1 3 −1 2  0 0
16 16
−1 −1 −2
2.
x 1 − x 2  3x 3  −1
2x 1  x 2 − x 3  2
3x 1  2x 3  1

Es fácil comprobar que el rango tanto de la matriz de coeficientes como de la matriz


ampliada es 2. Por ello estamos con un SCI. Como las dos primeras filas de la matriz
ampliada son LI la última es necesariamente CL de ellas dos. De este modo podemos
eliminar la última y quedarnos con el sistema
x 1 − x 2  3x 3  −1
2x 1  x 2 − x 3  2
que es equivalente al primero. Podemos quedarnos con un menor de orden dos no nulo
(por ejemplo el que corresponde a las dos primeras filas y columnas) y poniendo el
sistema en la forma
x 1 − x 2  −1 − 3x 3
2x 1  x 2  2  x 3
para el que imaginamos que tiene sólo dos ecuaciones y dos incógnitas, y cuyas
soluciones podemos hallarlas en función de x 3 por Cramer:
−1 − 3x 3 −1
2  x3 1
x1   1 − 2x 3
3
1 −1
2 1
1 −1 − 3x 3
2 2  x3
x2   4  7x 3
3
1 −1
2 1
Ejemplo: Discutir y resolver (en su caso) el siguiente sistema de ecuaciones lineales en
función del parámetro a
x 1  2x 2  5x 3  3
x 1  3x 2  8x 3  5
− 2x 2  ax 3  4

Añadiéndole la primera fila a las demás obtenemos


x 1  2x 2  5x 3  3
x 2  3x 3  2

− 2x 2  ax 3  4

Le añadimos ahora la segunda fila a la tercera y tenemos


x 1  2x 2  5x 3  3
x 2  3x 3  2

a  6x 3  8

Entonces la discusión se hace teniendo en cuenta que el parámetro aparece en alguno de los
pivotes una vez que el sistema está escalonado. x 1 y x 2 son las variables que corresponden a
pivotes. El coeficiente a  6 puede ser nulo (si a  −6) con lo que en ese caso la variable x 3
no sería un pivote, es más tendríamos una ecuación de la forma 0  8. Así que en ese caso
(a  −6) tenemos un SI. Y cuando a ≠ −6 tendremos que la variable x 3 sí que es un pivote
(pues su coeficiente a  6 es no nulo) y estamos con un SC. Además al no sobrar ninguna
variable, ya que todas se corresponden con pivotes, tendríamos un SCD, cuya solución
(dependiente de a) se hallaría despejando como hacemos habitualmente: x 3  a6 8
,
x 2  2 − 3 a6 y x 1  3 − 22 − 3 a6  − 5 a6 .
8 8 8

Otro modo de discutir este sistema es utilizando el Teorema de Rouché-Froebenius,


calculando los rangos de las matrices asociadas. Para esto puede ser útil el determinante
(que en este caso tiene sentido pues la matriz de coeficientes es cuadrada; en el caso de que
sea cuadrada la matriz ampliada también se puede utilizar; pero en cualquier otro caso no),
hallando el de la matriz de coeficientes
1 2 5 1 2 5
1 3
|A|  1 3 8  0 1 3 1  a6
−2 a
0 −2 a 0 −2 a
Cuando |A| ≠ 0 (para a ≠ −6) el rango de la matriz A es 3, y como el rango de la matriz
ampliada no puede ser mayor (al tener 3 filas) tendríamos rA  rA|B  3 número de
incógnitas. Entonces tenemos que si |A| ≠ 0 (a ≠ −6) el rango de la matriz A es 3, y como
el rango de la matriz ampliada no puede ser mayor (al tener 3 filas) tendríamos
rA  rA|B  3 número de incógnitas. En este caso tendríamos un SCD, cuya única
solución, dependiente de cada valor a ≠ −6, se podrá hallar por el método anterior o
utilizando la fórmula de Cramer (éste es uno de los pocos casos en los que puede resultar
útil este método). Y en el caso en que |A|  0 (a  −6) tenemos que hacerlo de forma
directa. Pero se ve fácilmente que rA  2 y rA|B  3, con lo que tendríamos un SI.
El resultado de la discusión ha sido entonces: Si a ≠ −6 SCD y si a  −6 SI.

También podría gustarte