Está en la página 1de 59

Fascı́culos de Álgebra Lineal

Tercer Fascı́culo:

Sistemas de Ecuaciones Lineales


y Determinantes de orden n

Neptalı́ Romero
Universidad Centroccidental Lisandro Alvarado
Decanato de Ciencias y Tecnologı́a
Unidad de Investigación en Ciencias Matemáticas
Departamento de Matemáticas

Abril, 2006
Índice general

3. Sistemas de Ecuaciones Lineales 3


3.1. Reseña histórica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
3.2. Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.3. Sistemas de Ecuaciones Lineales Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.4. Criterio de solución de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . 13
3.5. Más propiedades de los sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . 18
3.5.1. Sistemas de ecuaciones lineales homogéneos . . . . . . . . . . . . . . . . . . . . . . 18
3.5.2. Sistemas de ecuaciones lineales no homogéneos . . . . . . . . . . . . . . . . . . . . 23
3.6. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4. Determinantes de orden n 30
4.1. Nota histórica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2. Determinates: una definición recursiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2.1. Determinates de matrices 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2.2. Determinante de matrices 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3. Determinantes de orden superior: Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3.1. Operaciones elementales por fila y cálculo de determinantes . . . . . . . . . . . . . 44
4.3.2. Más propiedades del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4. Algunas aplicaciones de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4.1. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4.2. Adjunta clásica e inversión de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.4.3. Determinación del rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 55
4.5. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

2
3
Sistemas de Ecuaciones Lineales

3.1. Reseña histórica


Los sistemas de ecuaciones lineales, tal y como lo entendemos en la actualidad, constituyen una
herramienta matemática fundamental para resolver una gran cantidad de problemas provenientes tanto
de la misma Matemática como de otras ciencias. En particular, en la Ingenierı́a es común encontrarse
con problemas en los que la primera aproximación para obtener soluciones de un determinado problema
pasa por un planteamiento de aproximación lineal del mismo, el cual conduce, en un elevado número de
casos, a sistemas de ecuaciones lineales.
En realidad el uso de las ecuaciones lineales y sistemas de ecuaciones lineales es bastante antiguo.
En diferentes excavaciones arqueológicas realizadas en la antigua Babilonia (hoy parte de Irak), fueron
hayadas tablillas construidas en arcilla donde son expuestas, y resueltos, sistemas de ecuaciones lineales.
De lo cual se deduce, obviamente, que los babilonios ya manejaban tales herramientas para resolver
algunos problemas de su quehacer cotidiano. En una de tales tablillas se encuentra el siguiente problema
(traducción e interpretación por delante):

“la cuarta parte de la anchura más la longitud es igual a cinco


manos; y la anchura más la longitud son diez manos”

En la nomenclatura moderna, si hacemos x igual a la anchura, y igual a la longitud, y le asignamos 1 al


1
valor de la “mano”, entonces escribimos: 4x + y = 5
x + y = 10
Los egipcios también dejaron evidencias, en sus papiros, del uso de los sistemas de ecuaciones lineales;
famosos son los denominados papiros de Rhind (1650 AC) y de Moscú (1850 AC). En muchos de tales
papiros se da cuenta de una manera retórica tanto la formulación como la solución de este tipo de
problemas; por ejemplo en el papiro de Rhind se encuentra el siguiente problema:

“Un montón y un séptimo del mismo es igual a 24”

lo que en términos modernos escribimos x + 17 x = 24, donde x (la incógnita) representa el “montón”.
Los antiguos griegos también tuvieron conocimiento de los sistemas de ecuaciones lineales. Thymaridas
de Paros (400 AC - 350 AC) fue uno de los Pitagóricos que además de ser un teórico de los números
primos, encontró una solución general de un tipo de sistemas de ecuaciones lineales conocidas como la flor
de Thymaridas, ver http://www-groups.dcs.st-and.ac.uk/∼history/Mathematicians/Thymaridas.html.
Diofanto de Alejandrı́a 1 conocido como el padre del Álgebra; es mejor conocido por su “Arithmeti-
ca”, un trabajo sobre soluciones de ecuaciones algebraicas y la teorı́a de números; allı́ resuelve proble-
mas relativos a sistemas de ecuaciones los cuales transformaba en una ecuación lineal; ver el sitio web
http://www-groups.dcs.st-and.ac.uk/∼history/Mathematicians/Diophantus.html.
1 Poco se conoce sobre la vida de Diofanto, salvo la edad a la que falleció, gracias al siguiente epitafio redactado en
forma de problema y conservado en la antologı́a griega: “Transeúnte, esta es la tumba de Diofanto: es él quien con esta
sorprendente distribución te dice el número de años que vivió. Su niñez ocupó la sexta parte de su vida; después, durante
la doceava parte su mejilla se cubrió con el primer bozo. Pasó aún una séptima parte de su vida antes de tomar esposa y,
cinco años después, tuvo un precioso niño que, una vez alcanzada la mitad de la edad de su padre, pereció de una muerte
desgraciada. Su padre tuvo que sobrevivirle, llorándole, durante cuatro años. De todo esto se deduce su edad”.

3
4 3. Sistemas de Ecuaciones Lineales

Los sistemas de ecuaciones lineales también están presentes en varios documentos indios. Sin embargo,
no son conocido métodos generales para su resolución; de hecho tales documentos revelan soluciones para
algunas clases especiales de sistemas de ecuaciones lineales.
El libro chino “El arte matemático”, de autor desconocido y que data del siglo III AC, contiene algunos
problemas donde se resuelven sistemas de ecuaciones lineales. En los métodos empleados allı́ se expone
de manera rudimentaria un tratamiento matricial para resolver ese tipo de problemas. Justamente este
método (depurado y con lenguaje moderno) de resolución de los sistemas de ecuaciones lineales constituye
una buena parte del objetivo de esta parte del texto, el cual incluye el denominado método de reducción
de Gauss-Jordan.

3.2. Definiciones y ejemplos


En lo que sigue denotamos por K tanto al cuerpo de los números reales como de los números complejos;
cuando sea necesario se hará especı́fica tal designación.

Definición 3.1. Una ecuación lineal con n incógnitas y coeficientes en K, es cualquier expresión del tipo

a1 x1 + a2 x2 + · · · + an xn = b, (3.1)

donde x1 , x2 , · · · , xn representan las denominadas incógnitas, o variables desconocidas de la ecuación;


mientras que a1 , a2 , · · · , an , b son valores constantes en K: a1 , a2 , · · · , an son denominados coeficientes y
b es el término independiente de la ecuación.

Definición 3.2. Una solución de la ecuación lineal (3.1) es cualquier n-úpla2 (t1 , · · · , tn ) ∈ Kn tal que al
sustituir sus valores ordenadamente en (3.1), esa identidad se satisfaga; esto es, se cumpla a 1 t1 + a2 t2 +
· · · + an tn = b.

Ejemplo 3.1.

1. La expresión 2x + y − 3z = 2 es una ecuación lineal con coeficientes y término independiente en R,


y cuyas incógnitas son x, y y z. La 3-úpla (1, 0, 0) es una solución de tal ecuación, ası́ como lo son:
(0, 2, 0), (0, 0, − 32 ). No obstante, (1, 1, 1) no es solución. En particular esto permite concluir que no
todas las 3-úplas de R3 son soluciones de esta ecuación.

2. La ecuación (1 + i)z + 2w = 1 − i tiene como coeficientes a los números complejos 1 + i y 2, su


término independiente es 1 − i y sus incógnitas son las variables z y w. Soluciones de esta ecuación
pueden ser, por ejemplo, las 2-úplas en C2 : ( 1−i 1−i
1+i , 0), (0, 2 ) y (−1, 1)

Comentario 3.1.

1. Toda ecuación lineal a1 x1 + a2 x2 + · · · + an xn = b, con a1 , · · · , an , b ∈ K donde al menos uno de


los coeficientes sea no nulo, admite solución. Para demostrar esta afirmación supongamos que el
coeficiente ar es diferente de 0, entonces es simple verificar que la n-úpla (0, · · · , 0, abr , 0, · · · , 0) ∈ Kn
que coloca 0 en todas las coordenadas, excepto en r-ésima donde vale abr , es una solución de tal
ecuación.
2 Para cualquier entero positivo n, la expresión Kn denota al producto cartesiano de K consigo mismo n veces; sus

elementos son denominados n-úplas. Claramente podemos entender los elementos de Kn como matrices unifilas con n
columnas; y también como matrices unicolumnas con n filas
3.2. Definiciones y ejemplos 5

Note que si todos los coeficientes son nulos y el término independiente es diferente de 0, entonces
la ecuación no tiene solución; es decir, la ecuación lineal 0 x1 + 0 x2 + · · · + 0 xn = b con b 6= 0 no
tiene solución. Pues si se supone que (t1 , · · · , tn ) es solución, entonces

0 = 0 t1 + 0 t2 + · · · + 0 tn = b 6= 0.

2. Toda ecuación lineal a1 x1 + a2 x2 + · · · + an xn = b, con a1 , · · · , an , b ∈ K, se expresa como la


ecuación matricial:  
x1
  .   
a1 · · · an  ..  = b ; (3.2)
xn
 
x1
a la matriz unifila a1 · · · an la llamamos matriz coeficiente; la matriz unicolumna  ...  es la
   

xn
 
matriz incógnita y la matriz b es la matriz independiente.
Definición 3.3. Un sistema de ecuaciones lineales con m ecuaciones y n incógnitas es cualquier colección
de m ecuaciones lineales con n incógnitas. Es cualquier expresión del tipo:

a11 x1 + a12 x2 + · · · + a1n xn = b1





a21 x1 + a22 x2 + · · · + a2n xn = b2


.. , (3.3)


 .

am1 x1 + am2 x2 + · · · + amn xn = bm

donde: a11 , · · · , a1n , a21 , · · · , a2n , · · · , am1 , · · · , amn ∈ K son sus coeficientes, b1 , · · · , bm son los términos
independientes y x1 , x2 , · · · , xn son las incógnitas (o variables) del sistema de ecuaciones lineales (3.3).
El sistema de ecuaciones lineales (3.3) se dice homogéneo si cada uno de los términos independientes
es igual a 0; caso contrario se le denomina no homogéneo.
En el comentario 3.1 mostramos que toda ecuación lineal puede expresarse matricialmente; similarmen-
te ocurre con los sistemas de ecuaciones lineales. En efecto, el sistema (3.3) se representa matricialmente
mediante la expresión:

a11 a12 ··· a1n x1 b1


    
 a21 a22 ··· a2n   x2   b2 
   
..   ..  =  ..  ; (3.4)
 
 . ..
 .. . ··· .  .   . 
am1 am2 ··· amn xn bm

a11 a12 ··· a1n


 
 a21 a22 ··· a2n 
esto es, una ecuación matricial A X = B, donde A =  . ..  ∈ Mm×n (K) se le denomina
 
..
 .. . ··· . 
am1 am2 ··· amn
x1
 
 x2 
matriz del sistema; X =  .  se llama matriz de las incógnitas (o vector incógnita); mientras que
 
 .. 
xn
6 3. Sistemas de Ecuaciones Lineales

b1
 
 b2 
B =  .  es la matriz o vector de los términos independientes del sistema (3.3).
 
 .. 
bm
De esta forma, podemos redefinir matricialmente un sistema de ecuaciones lineales con m ecuaciones
y n incógnitas como sigue:
Definición 3.4. Un sistema de ecuaciones lineales con m ecuaciones y n incógnitas es cualquier ecuación
matricial A X = B, donde A ∈ Mm×n (K) y B ∈ Mm×1 (K) son los datos de la ecuación A X = B, y X es
la matriz o vector de las incógnitas. Tal ecuación se dice homogénea si B = O, y no homogénea si B 6= O.
Ejemplo 3.2. Los sistemas de ecuaciones lineales
(1 + i)x + y − z = i


 2x + z = 2 

2x + y − z = 1 x − 3iy + z = 2 − i
 
, −3y + z = 3 y .
−x + 3y + 2z = 2 (2 + i)x + iy = 0
x + y − 2z = 0
 


x + (1 + 2i)y + z = 1
tienen como representaciónes matriciales, respectivamente, a:
1+i 1 −1   i
   
      
  x   2 0 1 x 2 x
2 1 −1   1   1 −3i   y  = 2 − i  .
1   
y = , 0 −3 1   y  = 3  y 
−1 3 2 2  2+i i 0   0 
z 1 1 −2 z 0 z
1 1 + 2i 1 1
Definición 3.5. Una solución del sistema de ecuaciones lineales (3.3) es cualquier n-úpla (t 1 , · · · , tn ) en
Kn que sea solución simultánea de cada una de las ecuaciones lineales que conforman el sistema (3.3);
esto es, que para i = 1, · · · , m se cumpla ai1 t1 + ai2 t2 + · · · + ain tn = bi .
El conjunto solución del sistema (3.3) está constituido por todas las n-úplas de K n que son solución
del sistema de ecuaciones lineales dado.
Vamos a traducir en términos matriciales el concepto de conjunto solución de un sistema de ecuaciones
lineales. Consideremos el sistema de ecuaciones lineales (3.3); como bien sabemos este sistema se escribe
matricialmente mediante la ecuación lineal matricial
A X = B, con A ∈ Mm×n (K) y B ∈ Mm×1 (K), (3.5)
donde A, X y B son como antes. Entonces una solución de esta ecuación matricial es cualquier matriz
unicolumna (o vector unicolumna) X0 ∈ Mn×1 (K) tal que A X0 = B. Ası́ que en adelante adoptamos la
notación S(A, B) para representar al conjunto solución del sistema de ecuaciones lineales de m ecuaciones
y n incógnitas cuyas matrices de coeficientes e independientes son A y B, respectivamente; en otras
palabras:
S(A, B) = {X ∈ Mn×1 (K) : A X = B}
es el conjunto solución de (3.5), y por tanto de (3.3).
Ejemplo 3.3.
1. Todo sistema de ecuaciones lineales homogéneo siempre tiene solución. En efecto, consideremos el
sistema de ecuaciones lineales homogéneo de m ecuaciones y n incógnitas expresado matricialmente
por A X = O, donde A ∈ Mm×n (K) y O ∈ Mm×1 es la matriz nula de orden m × 1. Considere
X0 = On×1 la matriz unicolumna nula de orden n × 1, luego por las propiedades que tiene el
producto de matrices sigue que A X0 = O; es decir X0 es solución de A X = O. Por tanto S(A, O)
es no vacı́o pues al menos contiene a la solución trivial X0 = On×1 .
3.2. Definiciones y ejemplos 7

2. Dado que toda ecuación lineal con n incógnitas se considera como un sistema de ecuaciones li-
neales con una ecuación y n incógnitas, entonces es inmediato que podemos construir sistemas de
ecuaciones lineales que no tienen solución. Sin embargo se pueden construir ejemplos un poco más
elaborados (incluso con interpretación geométrica) donde se muestre esta situación.
Consideremos por ejemplo dos recta paralelas y verticales en R2 ; para simplificar, un par de tales
rectas son expresadas por las ecuaciones x = 0 y x = 1; o si se quiere: x+0 y = 0 y x+0 y = 1. Luego
el sistema formado por estas dos ecuaciones no tiene solución pues no existe un par ordenado
(x, y) ∈ R2 que satisfaga al mismo tiempo ambas ecuaciones; es decir, las rectas no se intersectan.
Una situación similar ocurre con el sistema de ecuaciones lineales dado por las ecuaciones: x + y = 0
y x + y = 1; éstas representan
 rectas paralelas en R2 que no se intersectan; de allı́ que el sistema
x+y =0
de ecuaciones lineales no tenga solución.
x+y =1
Puede ocurrir también que un determinado número de rectas en R2 tengan un único punto en
común; por ejemplo consideremos en R2 las rectas x + y = 1 y x= 0. Tales rectas se cortan
   sólo en

x+y =1 1 1 x 1
el punto (0, 1); de manera que el conjunto solución del sistema ,o = ,
x=0 1 0 y 0
 
1
tiene como conjunto solución al conjunto unitario {(0, 1)}, o matricialmente a .
0
Para concluir con este ejemplo, existen rectas en R2 que tienen más de un punto en común; es decir,
la intersección de las mismos contiene más de un punto.Un caso particular de esta afirmación es
x+y =1
el siguiente. Considere el sistema de ecuaciones lineales . Note que un punto (x, y)
2x + 2y = 2
satisface 2x + 2y = 2 si, y sólo si, también cumple x + y = 1 (¡una ecuación es múltiplo de la
otra!). Luego cualquier solución de una de las ecuaciones es también solución de la otra, y por tanto
del sistema por ellas formado. Ahora bien, la ecuación lineal x + y = 1 tiene infinitas soluciones:
cualquier punto de R2 son la recta definida por esa ecuación es solución.
Concluimos haciendo la siguiente observación: existen ecuaciones lineales que no admiten solu-
ción; hay otros que tiene una única solución, y existen otros cuyo conjunto solución tiene infinitos
elementos.

Ejemplo 3.4. Los sistemas de ecuaciones lineales, tal y como lo expresamos al comienzo de la sección,
son empleados para representar diferentes tipos de problemas. Veamos algunos ejemplos:

1. Una empresa recicladora de desechos produce dos tipos de cartón: liso y corrugado. La confección
del cartón se produce en dos talleres: A y B. En el primer taller, por cada kilogramo de desechos
se producen 0, 2 kg de cartón liso y 0, 2 kg del corrugado; mientras que en el taller B la producción
por cada kilogramo de desechos es de 0, 4 kg del liso y 0, 3 kg del corrugado. El problema que se
plantea es el siguiente: ¿qué cantidad de desechos debe procesar cada taller para producir 50 kg de
cartón liso y 35 kg del corrugado?
En primer lugar debemos identificar las variables del problema; es decir, las incógnitas. Claramente
estas variables son las cantidades de desechos que debe procesar cada taller. Por tanto intruducimos
la siguiente notación:

x es la cantidad de desechos, en kilogramos, que debe procesarse en el taller A; mientras que


y es la cantidad de desechos, en kilogramos, que debe procesarse en el taller B.
8 3. Sistemas de Ecuaciones Lineales

Los datos de la producción de los diferentes tipos de cartón elaborados por los talleres A y B se
A B
 
Liso 0, 2 0, 4
expresan matricialmente mediante la matriz 2 × 2: . Esta matriz expresa
Corrugado 0, 2 0, 3
justamente los datos del problema; por ejemplo la entrada ubicada en la fila 1 y columna 2 indica
que en el taller B se produce, por cada kilogramo de desechos, 0,4 kilogramos de cartón liso. De
hecho, cada columna indica la producción por taller.
Luego, la cantidad de cartón liso que se produce de ambos talleres, a partir de x kilogramos de
desechos en el taller A y de y kilogramos de desechos en el taller B, se expresa mediante la ecuación
lineal 0, 2 x + 0, 4 y; mientras que la cantidad de cartón corrugado producido a partir de las mismas
cantidades de desechos x e y en los dos talleres se expresa por la ecuación lineal 0, 2 x + 0, 3 y.
Consecuentemente, para dar  respuesta al problema planteado se debe analizar la solución del sis-
0, 2 x + 0, 4 y = 50
tema de ecuaciones lineales ; lo que matricialmente se expresan mediante
0, 2 x + 0, 3 y = 35
    
0, 2 0, 4 x 50
= .
0, 2 0, 3 y 35

2. Veamos ahora el siguiente problema, cuyo planteamiento es de común empleo en el Álgebra Lineal,
pues trata sobre el problema de combinaciones lineales. En M3×1 (C) consideremos las matrices
     
i 0 1
unicolumnas: A = 0 , B = 1 + i y C = 1. Queremos saber si C es combinación lineal de
2 1 i
A y B; esto es, queremos averiguar si existen escalares u, v ∈ C tales que C = u A + v B. En otras
palabras, deseamos responder si existen escalares u, v ∈ C tales que se cumpla la identidad:
       
1 i 0 iu
1 = u 0 + v 1 + i = (1 + i)v  ;
i 2 1 2u + v

obviamente esta identidad ocurre si, y sólamente si, las matrices del extremo izquierdo y del extremo
derecho deben ser iguales. De acá entonces que C es combinación lineal de las matrices A y B si,
 iu = 1
y sólamente si, el sistema de ecuaciones lineales (1 + i)v = 1 tiene solución. Este problema se
2u + v = i

   
i 0   1
u
expresa matricialmente por 0 1 + i = 1 .
v
2 1 i
De momento nos conformaremos con haber conocido estos dos ejemplos donde se plantean problemas
cuyo análisis conduce al estudio de sistemas de ecuaciones lineales; luego abordaremos el problema de
cómo analizar sus soluciones, en caso que éstas existan.
Vimos anteriormente que pueden existir sistemas de ecuaciones lineales cuyo conjunto solución tiene
diferentes cardinales: puede ser vacı́o, cuando el sistema no tiene solución; puede tener solución única y
también hay sistemas que tienen infinitas soluciones. Tales formas del conjunto solución introduce una
clasificación de los sistemas de ecuaciones lineales, esta clasificación se expone en la siguiente definición:

Definición 3.6. Dado un sistema de ecuaciones lineales con m ecuaciones y n incógnitas como (3.3), o
matricialmente por A X = B con A ∈ Mm×n (K) e B ∈ Mm×1 (K); se dice que:
3.3. Sistemas de Ecuaciones Lineales Equivalentes 9

1. el sistema (3.3), o A X = B, es soluble, o compatible, si su conjunto solución es no vacı́o. Siendo


soluble, se le llama compatible determinado, si su solución es única; y compatible indeterminado si
admite más de una solución;

2. el sistema (3.3), o A X = B, es no soluble, o incompatible, si su conjunto solución es vacı́o; es decir,


no existe X ∈ Mn×1 (K) tal que A X = B.
El siguiente recuadro resume la definición que clasifica los sistemas de ecuaciones lineales en términos de
su conjunto solución:

Incompatible: no tiene solución.



Compatible determinado: solución única.
Compatible: tiene solución.
Compatible indeterminado: infinitas soluciones.

Un aspecto importante de resaltar para los sistemas de ecuaciones lineales que tienen más de una
solución es establecido en el siguiente teorema.
Teorema 3.1. Dadas A ∈ Mm×n (K) y B ∈ Mm×1 (K); si el sistema A X = B tiene más de una solución;
es decir, es compatible indeterminado, entonces admite infinitas soluciones.
Demostración: Supongamos que X1 , X2 ∈ Mn×1 (K) son soluciones diferentes de A X = B; esto es,
A X1 = B y A X2 = B. Consideremos todos los escalares α, β ∈ K tales que α + β = 1. Claramente el
conjunto de pares ordenados (α, β) que satisfacen esta condición es un conjunto infinito, ¡tiene tantos
puntos como una recta!
Veamos que para cualesquiera sean los escalares α, β ∈ K con α + β = 1, αX1 + βX2 es también
solución de A X = B. En efecto:

A (αX1 + βX2 ) = A (αX1 ) + A( βX2 ) = α (A X1 ) + β (A X2 ) = α B + β B = (α + β) B = B.

De esta forma, un sistema de ecuaciones lineales con más de una solución, admite infinitas soluciones.

3.3. Sistemas de Ecuaciones Lineales Equivalentes


Definición 3.7. Dado un sistema de ecuaciones lineales con m ecuaciones y n incógnitas

a11 x1 + a12 x2 + · · · + a1n xn = b1





 a21 x1 + a22 x2 + · · · + a2n xn = b2

.. (3.6)


 .

am1 x1 + am2 x2 + · · · + amn xn = bm

y su representación matricial A X = B. Se conoce como matriz ampliada de (3.6) a la matriz de orden


b1
 
 b2 
m × (n + 1) obtenida de la matriz del sistema A, anexándole como última columna a B =  . ; tal
 
 .. 
bm
a11 a12 ··· a1n b1
 
 a21 a22 ··· a2n b2 
matriz ampliada se denota mediante [A|B] =  . .
 
.. ..
 .. . ··· . 
am1 am2 ··· amn bm
10 3. Sistemas de Ecuaciones Lineales

Ejemplo 3.5. Los sistemas de ecuaciones lineales


  
x+y =0 x+y =1 x=0
, y ;
x+y =1 x=0 z=0
tienen, respectivamente, como matrices ampliadas a:
     
1 1 0 1 1 1 1 0 0 0
, y .
1 1 1 1 0 0 0 0 1 0
Definición 3.8. Dos sistemas de ecuaciones lineales A X = B y C X = D, con
a11 a12 · · · a1n b1
   
 a21 a22 · · · a2n   b2 
A= . ..  ∈ Mm×n (K), B =  ..  ∈ Mm×1 (K) y
   
.. ..
 .. . . .   . 
am1 am2 · · · amn bm
c11 c12 · · · c1n d1
   
 c21 c22 · · · c2n   d2 
C= . ..  ∈ Mm×n (K), D =  ..  ∈ Mm×1 (K),
   
.. ..
 .. . . .   . 
cm1 cm2 · · · cmn dm
se dicen equivalentes si sus matrices ampliadas [A|B] y [C|D] son equivalentes por filas.
Como bien sabemos, dos matrices del mismo orden son equivalentes por filas si, y sólo si, existe una
secuencia finita de operaciones elementales por filas de manera que al aplicarle a una de tales matrices
esa secuencia de oef, se obtiene la otra matriz. Igualmente es conocido que la equivalencia por filas
entre matrices del mismo orden es una relación de equivalencia; luego los sistemas de ecuaciones lineales
A X = B y C X = D, con A, B, C y D como arriba, son equivalentes si sus matrices ampliadas tienen
la misma forma canónica de Gauss-Jordan. Recuerde que dos matrices del mismo orden son equivalentes
por filas si, y sólo si, ambas tienen la misma forma canónica de Gauss-Jordan. Esto sin dudas establece
un criterio para decidir cuando dos sistemas de ecuaciones lineales son o no equivalentes.
Ejemplo 3.6.
1. Consideremos los sistemas de ecuaciones lineales:
 
 x + 2y + z = 0  x + 2y + z = 0
x−y+z =1 y −2x + 2y − 2z = −2
2x + y + 2z = 1 4x + 2y + 4z = 2
 

son equivalentes. En efecto, sus matrices ampliadas son respectivamente:


   
1 2 1 0 1 2 1 0
 1 −1 1 1  y  −2 2 −2 −2  ;
2 1 2 1 4 2 4 2
veamos que sus formas canónicas de Gauss-Jordan son iguales:
   
1 2 1 0 1 2 1 0
f2 −→f2 −f1
 1 −1 1 1  −−−−−−−−→  0 −3 0 1 
f3 −→f3 −2 f1
2 1 2 1 0 −3 0 1
   2 
1
f2 ←→− 3 f2
1 2 1 0 1 0 1 3
1  f −→f −2 f
− 31
1 1 2
−−−−−−−−→ 0  1 0 −3 −−−−−−−−→ 0  1 0 ,
f3 −→f3 +3 f2
0 −3 0 1 0 0 0 0
3.3. Sistemas de Ecuaciones Lineales Equivalentes 11

 2 
1 0 1 3
por lo que la matriz  0 1 0 − 31  es la forma canónica de Gauss-Jordan de la matriz ampliada
0 0 0 0
del primer sistema de ecuaciones lineales. Similarmente:
   
1 2 1 0 1 2 1 0
f2 −→f2 +2 f1
 −2 2 −2 −2  −−−−−−−−→  0 6 0 −2 
f3 −→f3 −4 f1
4 2 4 2 0 −6 0 2
   2 
1
f2 ←→ 6 f2
1 2 1 0 1 0 1 3
f1 −→f1 −2 f2
−−−−−−→  0 1 0 − 31  −−−−−−−−→  0 1 0 − 31  ;
f3 −→f3 +6 f2
0 −6 0 2 0 0 0 0
luego la matriz ampliada del segundo sistema de ecuaciones lineales tiene la misma forma canónica
de Gauss-Jordan; con lo cual ambos sistemas son equivalentes.
 
x=0 x+y+z =0
2. Los sistemas y no son equivalentes. Note que las matrices ampliadas
z=0 x−y+z =0
   
1 0 0 0 1 1 1 0
de estos sistemas son y , respectivamente. La primera de ellas
0 0 1 0 1 −1 1 0
ya es una forma canónica de Gauss-Jordan. En cuanto a la segunda, dado que:
     
1 1 1 0 f2 −→f2 −f1 1 1 1 0 f1 −→f1 −f2 1 0 1 0
−−−−−−−−→ −−−−−−−→ ,
1 −1 1 0 1
f2 ←→− f2 0 1 0 0 0 1 0 0
2

entonces las matrices ampliadas de estos sistemas tienen diferentes formas canónicas de Gauss-
Jordan por lo cual no son equivalentes.
Comentario 3.2.
a11 x1 + a12 x2 + · · · + a1n xn = b1



a21 x1 + a22 x2 + · · · + a2n xn = b2


1. Consideremos el sistema .. y su matriz ampliada [A|B].


 .

am1 x1 + am2 x2 + · · · + amn xn = bm
Sobre esta matriz apliquemos una operación elemental del Tipo I: fi −→ α fi , para algún 1 ≤ i ≤ m
y algún α 6= 0 en K; resulta de esta operación una matriz [A1 |B1 ] ∈ Mm×(n+1) (K) que tiene
todas sus filas iguales a la de [A|B], excepto la fila i que ha sido multiplicada por el escalar α;
de manera que [A1 |B1 ] es la matriz ampliada del sistema de ecuaciones lineales donde todas las
ecuaciones son iguales a las del sistema original, excepto la i-ésima ecuación que es α a i1 x1 +
α ai2 x2 +· · ·+α ain xn = α bi . Ahora si aplicamos una operación elemental por filas fi −→ fi +α fj ,
con 1 ≤ i, j ≤ m y algún α 6= 0 en K, entonces el sistema de ecuaciones lineales correspondiente
a la matriz obtenida tiene las mismas ecuaciones del sistema original, excepto la i-ésima que es
(ai1 + α aj1 )x1 + (ai2 + α aj2 )x2 + · · · + (ain + α ajn )xn = bi + α bj . Finalmente, si en [A|B]
intercambiamos dos de sus filas, la matriz que se obtiene corresponde es la matriz ampliada de un
sistema que se diferencia del original sólo en la ubicación de las ecuaciones lineales que han sido
intercambiadas. Este simple análisis permite concluir lo siguiente:

“dos sistemas de ecuaciones lineales son equivalentes si, y sólo si, las ecuaciones de uno de
los sistemas es combinación lineal de las ecuaciones del otro sistema de ecuaciones lineales;
es decir, las ecuaciones de uno se escribe como suma de múltiplos de las ecuaciones del otro
sistema de ecuaciones lineales”
12 3. Sistemas de Ecuaciones Lineales

Veamos como expresar simbólicamente lo anteriormente expuesto. Supongamos que los sistemas
de ecuaciones lineales A X = B y C X = D, con A, C ∈ Mm×n (K) y B, D ∈ Mm×1 (K), son
equivalentes; esto es, existe una secuencia finita e1 , · · · , ek de operaciones elementales por filas, y
sus matrices elementales correspondientes, E1 , · · · , Ek , tales que
e
1 2 e ek−1 e
k
[A|B] −→ [E1 A|E1 B] −→ · · · −−−→ [Ek−1 · · · E1 A|Ek−1 · · · E1 B] −→ [C|D];

es decir
C = Ek · · · E1 A y D = Ek · · · E1 B. (3.7)
Ahora bien, si para cada i = 1, · · · , m denotamos por A(i) y C(i) la i-ésima fila de A y C, respecti-
b1 d1
   
 b2   d2 
vamente, y si B =  .  y D =  . , entonces como cada fila de [C|D], [C(i) |di ] con i = 1, · · · , m,
   
 ..   .. 
bm dm
es combinación lineal de las filas de [A|B], entonces para cada i = 1, · · · , m existen escalares
αi1 , · · · , αim ∈ K tales que

C(i) = αi1 A(1) + · · · + αim A(m) y di = αi1 b1 + · · · + αim bm . (3.8)

El lector podrá notar que (3.8) y (3.7) dicen la misma cosa.

2. Un sistema de ecuaciones lineales homogéneo no puede ser equivalente a uno que sea no homogéneo;
esto sigue del hecho, la matriz ampliada del sistema de ecuaciones lineales homogéneo tiene la
última columna nula; por tanto, cualesquiera sean las operaciones elementales por filas aplicadas
a tal matriz, la nueva matriz continuará teniendo la última columna nula; sin embargo, para el
sistema no homogéneo, como la última columna es no nula, al aplicar operaciones elementales por
filas, la matriz resultante, aunque modifique su última columna, ésta seguirá siendo no nula. Luego
las formas canónicas de Gauss-Jordan de ambas matrices ampliadas son diferentes: sus últimas
columnas son distintas.
Teorema 3.2. Sean A, C ∈ Mm×n (K) y B, D ∈ Mm×1 (K). Si los sistemas de ecuaciones lineales
A X = B y C X = D son equivalentes, entonces S(A, B) = S(C, D).
Demostración: Dado que los sistemas son equivalentes, entonces existe una secuencia de matrices ele-
mentales E1 , · · · , Ek , con inversas F1 , · · · , Fk , respectivamente, tales que:

C = E k · · · E1 A y D = E k · · · E1 B (3.9)
A = F1 · · · Fk C y B = F1 · · · Fk D. (3.10)

Supongamos que S(A, B) es no vacı́o. Sea P ∈ S(A, B); esto es AP = B, mostraremos que CP = D; es
decir, P ∈ S(C, D), con lo cual S(A, B) ⊂ S(C, D). En efecto, de (3.9) sigue que

CP = (Ek · · · E1 A) P = (Ek · · · E1 ) A P = Ek · · · E1 B = D.

De esta forma P ∈ S(C, D) y S(A, B) ⊂ S(C, D). Análogamente, usando (3.10), se muestra que si
P ∈ S(C, D), entonces P ∈ S(A, B); por tanto sigue S(C, D) ⊂ S(A, B) y de allı́ la igualdad de los
conjuntos solución de cada uno de los sistemas lineales.
Finalmente, si S(A, B) = ∅, entonces también debe ocurrir que S(C, D) = ∅; de lo contrario, si
P ∈ S(C, D), se muestra como arriba que P ∈ S(A, B); lo cual es una contracción ya que hemos supuesto
S(A, B) = ∅; ası́ S(A, B) = S(C, D) = ∅.
3.4. Criterio de solución de sistemas de ecuaciones lineales 13

Nota: Dejamos al lector la siguiente interrogante, si los sistemas de ecuaciones lineales con m ecuaciones
y n incógnitas: A X = B y C X = D tienen los mismos conjuntos solución, S(A, B) = S(C, D). ¿Es cierto
que [A|B] y [C|D] son equivalentes por filas?

3.4. Criterio de solución de sistemas de ecuaciones lineales


En esta sección mostraremos un resultado mediante el cual podemos decidir la categorı́a del sistema;
es decir, si es compatible o no; y en caso de serlo, si es determinado o no. Este es un famoso resultado
conocido en la actualidad como Teorema de Rouché-Frobenius, detrás del cual existe una interesante
historia que relatamos brevemente a continuación.
El clásico resultado al que nos referimos establece resumidamente que:

“un sistema de ecuaciones lineales tiene solución si, y sólo si, los rangos de la matriz del
sistema y su matriz ampliada son iguales”

Su historia se remonta aproximadamente a finales del siglo XIX y comienzos del siglo XX. En 1875
Rouché 3 publicó el criterio arriba descrito en un artı́culo de dos páginas, “Sur la discussion des equations
du premier degré”. Sin embargo no es hasta 1880 cuando Rouché publica una versión completa de este
teorema en el Journal de l’École Polytechnique. Rouché no fue el primero en demostrar tal criterio,
luego de haber sido publicado su artı́culo, Georges Fontené 4 publicó una nota en Nouvelles Annales
de Mathématiques en la cual sostenı́a que él ya habı́a dado una demostración de tal resultado. Cuando
Frobenius 5 discute este criterio en su artı́culo Zur Theorie der linearen Gleichungen, publicado en 1905,
da créditos a ambos, tanto a Rouché como a Fontené, sobre la autorı́a del criterio. En el mundo de
habla hispana, este criterio es conocido como el teorema de Rouché-Frobenius, quizás por la influencia
de la denominación dada por el matemático español-argentino Julio Rey Pastor es sus libros de texto;
no obstante, también conocido como teorema de Rouché-Fontené e incluso como teorema de Kronecker-
Capelli 6 debido a la creencia de que Kronecker, en sus cursos de Berlin, habı́a planteado tal resultado,
y sus alumnos Frobenius y Capelli pudieron haberlo enunciado en forma más completa.

Teorema 3.3 (Teorema de Rouché-Frobenius). Todo sistema de ecuaciones lineales con m ecua-
ciones y n incógnitas A X = B, con A ∈ Mm×n (K) y B ∈ Mm×1 (K), es compatible si, y sólo si,
rg(A) = rg([A|B]). Además, en tal caso:

1. si rg(A) = rg([A|B]) = n, entonces el sistema es compatible determinado; y

2. si rg(A) = rg([A|B]) = r < n, entonces el sistema es compatible indeterminado, y sus soluciones


dependen de n − r parámetros.

Demostración: Supongamos inicialmente que el sistema es compatible; es decir, el conjunto solución


S(A, B) es no vacı́o. Entonces rg(A) = rg([A|B]), pues si rg(A) 6= rg([A|B]), dado que [A|B] tiene una
3 Eugène Rouché (1832-1910) matemático francés con importantes contribuciones en la teorı́a de funciones de variables
complejas, Análisis Matemático, Probabilidades, y Álgebra Lineal, entre otros. El lector interesado en leer un poco más sobre
la historia de E. Rouché pues consultar: http://www-groups.dcs.st-and.ac.uk/∼ history/Mathematicians/Rouche.html
4 Se conoce poco sobre este matamático francés
5 Ferdinand Georg Frobenius (1849-1917) importante matemático alemán con fundamentales contribuciones al desarrollo

del Álgebra Abstracta; ver el sitio web: http://www-groups.dcs.st-and.ac.uk/∼ history/Mathematicians/Frobenius.html


6 Leopold Kronecker (1823-1891) matemático nacido en una población de Prussi, hoy Polonia. Con importantes con-

tribuciones en el desarrollo de la Teorı́a de Conjuntos, Álgebra Matricial y Teorı́a de Determinantes, Teorı́a de Grupos y
Álgebra Abstracta; también realizó estudios en Astronomı́a, Meteorologı́a y Quı́mica. Algo más sobre Leopold Kronecker
en: http://turnbull.mcs.st-and.ac.uk/∼history/Mathematicians/Kronecker.html
14 3. Sistemas de Ecuaciones Lineales

columna más que A, entonces rg(A) + 1 = rg([A|B]); esto es, si [C|D] es la forma canónica de Gauss-
Jordan de [A|B] (o cualquier forma escalonada equivalente por filas a [A|B]), entonces [C|D] tiene una
fila no nula más que la forma canónica de Gauss-Jordan de A, que es la matriz C (¿por qué?). Por tanto
S(A, B) = S(C, D); pero la última fila no nula de [C|D] es [0 0 · · · 0 1], por lo que el sistema de ecuaciones
lineales correspondiente a [C|D] tiene como una de sus ecuaciones a 0 x1 + 0 x2 + · · · + 0 xn = 1; la cual
es no admite solución; pues 0 6= 1; ver primer item del comentario 3.1 en la página 4. Luego C X = D no
tiene solución lo cual es una contradicción. Ası́ queda demostrado que si A X = B, con A ∈ M m×n (K) y
B ∈ Mm×1 (K), es compatible, entonces rg(A) = rg([A|B]).
Supongamos ahora que rg(A) = rg([A|B]). Dado que el rango de una matriz es siempre menor o igual
que el mı́nimo entre su número de filas y su número de columnas, entonces sólo puede ocurrir que: o
rg(A) = rg([A|B]) = n, o bien rg(A) = rg([A|B]) < n. Sea [C|D] la forma canónica de Gauss-Jordan
de [A|B], por tanto C es la forma canónica de A. Por hipótesis, como rg(A) = rg([A|B]), entonces C y
[C|D] tienen el mismo número de filas no nulas (¡y de filas nulas, obviamente!). Analicemos ahora cada
caso.
• Caso rg(A) = rg([A|B]) = n:
Si el número de filas no nulas de C y [C|D] es n, entonces m ≥ n y como el número de columnas de A
es n se tiene que    
1 0 ··· 0 1 0 · · · 0 d1
 0 1 ··· 0   0 1 · · · 0 d2 
   
 . . . .  . . .
 .. .. . . ..   .. .. . . ... .. 

   . 
C =  0 0 · · · 1  y [C|D] =  0 0 · · · 1 dn  ;
   
 0 0 ··· 0   0 0 ··· 0 0 
   
.. .. .. 
   
  
 .   . . 
0 0 ··· 0 0 0 ··· 0 0
pues los primeros elementos no nulos de cada una de las filas no nulas de una forma escalonada (¡los
pivotes!) están ubicados en forma ascendente respecto de la numeración de las columnas, recuerde la
definición de matriz escalonada reducida por filas y la forma general de tales matrices. Esto implica que
el sistema de ecuaciones lineales
 

 x1 + 0x2 + 0x3 + · · · + 0xn = d1 
 x1 = d 1
 0x1 + x2 + 0x3 + · · · + 0xn = d2

  x2 = d 2


 
.. ..

 

 


 . 

 .
0x1 + 0x2 + · · · + 0xn−1 + xn = dn = xn = d n
 0x1 + 0x2 + 0x3 + · · · + 0xn = 0  0=0

 

 
. ..
 
.

 




 . 


 .
0x1 + 0x2 + 0x3 + · · · + 0xn = 0 0=0
 

d1 
  

 
 d 2  
 
tiene como conjunto solución al conjunto unitario S(C, D) =  .  ; sigue por tanto del teorema 3.2
 

  .. 

 

dn
d1 
  

 
 d 2  
 
que A X = B es compatible determinado y S(A, B) =  .  .
 
 . 
 . 


 

dn
3.4. Criterio de solución de sistemas de ecuaciones lineales 15

• Caso rg(A) = rg([A|B]) < n:


Supongamos que rg(A) = rg([A|B]) = r < n. Sean j1 < · · · < jr las columnas donde están ubicados los
primeros elementos no nulos de las respectivas filas no nulas de cualquier forma escalonada equivalente
por filas a A y [A|B]. Sean C y [C|D] las formas canónicas de Gauss-Jordan de las matrices A y [A|B]
respectivamente. De la definición de matriz escalonada reducida por filas sigue que [C|D] es de la forma
 
0 ··· 0 1 ∗ ∗ 0 ··· 0 ··· ∗ d1
0 ··· ··· ··· ··· ∗ d2 
 
 0 0 0 1 0
.. .. .. .. .. .. .. .. .. .. .. .. 
 


 . . . . . . . . . . . . 
[C|D] = 
 0 ··· 0 0 ··· 0 0 ··· 1 ··· ∗ dr  ,

 
 0 ··· 0 0 ··· 0 0 ··· 0 ··· 0 0 
.. .. .. .. .. .. .. .. .. .. .. .. 
 

 . . . . . . . . . . . . 
0 ··· 0 0 ··· 0 0 ··· 0 ··· 0 0

donde los dı́gitos 1 encerrados en cı́rculos son las primeras entradas no nulas de las r filas no nulas de
C y [C|D], los cuales están, como mencionamos, en las columnas j1 < · · · < jr ; además, lo indicado por
* significa que en esa entrada está ocupada por algún escalar en K. De esta forma, las r ecuaciones no
nulas del sistema de ecuaciones lineales correspondiente a la matriz ampliada [C|D] son:

xj1 + c1j1 +1 xj1 +1 + c1j1 +2 xj1 +2 + · · · + c1jr −1 xjr −1 + c1jr +1 xjr +1 + · · · + c1n xn = d1



xj2 + c2j2 +1 xj2 +1 + · · · + c2jr −1 xjr −1 + c2jr +1 xjr +1 + · · · + c2n xn = d2


.. .


 .

xjr + crjr +1 xjr +1 + · · · + crn xn = dr

Observe que en la primera de estas ecuaciones no están presentes las incógnitas anteriores a x j1 ; es decir,
x1 , · · · , xj1 −1 ; tampoco están las incógnitas correspondientes a las columnas donde están las primeras
entradas no nulas de las restantes filas no nulas de C y [C|D]; éstas son xj2 , · · · , xjr . La segunda ecuación
no tiene las incógnitas desde x1 hasta xj2 −1 ni aquellas correspondientes a las primeras entradas no nulas
de las subsiguientes filas no nulas de C; recursivamente ocurre semejante situación para cada una de las
ecuaciones, hasta que en la r-ésima de estas ecuaciones no hay incógnitas desde la primera x 1 hasta la
xjr −1 . Esto permite escribir el anterior sistema de r ecuaciones con n incógnitas como:

xj1 = −c1j1 +1 xj1 +1 − c1j1 +2 xj1 +2 − · · · − c1jr −1 xjr −1 − c1jr +1 xjr +1 − · · · − c1n xn + d1



 xj2 = −c2j2 +1 xj2 +1 − · · · − c2jr −1 xjr −1 − c2jr +1 xjr +1 − · · · − c2n xn + d2

.. ; (3.11)


 .

xjr = −crjr +1 xjr +1 − · · · − crn xn + dr

en el cual las incógnitas xj1 , xj2 , · · · , xjr se escriben en términos de las n − r incógnitas restantes, las
que se acostumbran denominar variables o incógnitas libres (note que estas incógnitas o variables son
las que están enumeradas con los ı́ndices diferentes a los que tienen las columnas donde aparecen las
primeras entradas no nulas de C. En otras palabras, las incógnitas diferentes a xj1 , xj2 , · · · , xjr pue-
den tomar valores arbitrarios (¡son parámetros!); ası́ por ejemplo, si a todas las incógnitas distintas de
xj1 , xj2 , · · · , xjr , le asignamos el valor 0, entonces de (3.11) sigue que xj1 = d1 , xj2 = d2 , · · · , xjr = dr ;
es decir, P ∈ Mn×1 (K), con 0 en todas las entradas diferentes de j1 , j2 , · · · , jr , y en la entrada jk , con
k = 1, 2, · · · , r, tiene el valor dk , es solución de C X = D, pues obviamente C P = D. Por tanto P es
támbién solución de A X = B (¿por qué?). Si asignamos nuevos valores a las incógnitas (o variables
16 3. Sistemas de Ecuaciones Lineales

libres), por ejemplo, si jr < n, entonces hacemos todas iguales a 0, excepto la xn que le asignamos el
valor 1; de esta forma de (3.11) sigue que xj1 = −cj1 n + d1 , xj2 = −cj2 n + d2 , · · · , xjr = −cjr n dr ; con-
secuentemente Q ∈ Mn×1 (K), con 0 en todas las entradas diferentes de j1 , j2 , · · · , jr y n, con la n-ésima
entrada igual a 1 y en la entrada jk , con k = 1, · · · , r, vale −cjk n + dk , es solución de C X = D, la cual
es distinta de P . Por tanto el sistema A X = B es compatible indeterminado.

Observación 3.1. Haciendo uso del teorema de Rouché-Frobenius tenemos un excelente criterio para
conocer la naturaleza del conjunto solución de cualquier sistema de ecuaciones lineales. Dado que el rango
de una matriz es invariante por operaciones elementales por filas, el procedimiento de llevar a efecto
el análisis del conjunto solución empleando operaciones elementales por filas constituye una poderosa
herramienta para tales fines. Al proceso de reducir un sistema de ecuaciones lineales a una de sus formas
escalonadas, entre ellas obviamente la forma canónica de Gauss-Jordan, se le conoce con el nombre de
reducción de Gauss-Jordan, y también como reducción Gaussiana. Los siguientes ejemplos muestran este
proceso.
Ejemplo 3.7. Discutamos y resolvamos, en caso de ser posible, el sistema de
 ecuaciones lineales:
 x + 2y − z 1 2 −1 2 −1
   
= 1 1 1
−x + 5y − 4z = −2 . Es claro que A =  −1 5 −4  y [A|B] =  −1 5 −4 −2  son,
−3x + y − 2z = 2 −3 1 −2 −3 1 −2 2

respectivamente, la matriz del sistema y su ampliada. Dado que

1 2 −1
     
1 1 2 1 1 1 2 1 1
f2 −→f2 +f1 f3 −→f3 −f2
 −1 5 −4 −2  −−−−−−−−→  0 7 −5 −1  −−−−−−−→  0 7 −5 −1  ,
f3 −→f3 +3 f1
−3 1 −2 2 0 7 −5 5 0 0 0 6

y esta última matriz es escalonada y equivalente por filas a [A|B], entonces A X = B es incompatible
(¡no tiene solución!) pues rg(A) = 2 6= 3 = rg([A|B]).

 y+z = 2
Ejemplo 3.8. Analicemos ahora el sistema de ecuaciones lineales x + y + z = −1 . Dado que las
x+y = 2

   
0 1 1 0 1 1 2
matrices A =  1 1 1  y [A|B] =  1 1 1 −1  son, respectivamente, la matriz del sistema y
1 1 0 1 1 0 2
su ampliada; y como:

1 1 1 −1 1 −1
     
0 1 1 2 1 1
f2 ←→f1 f3 −→f3 −f1
 1 1 1 −1  − −−−−→  0 1 1 2  −−−−−−−→  0 1 1 2 
1 1 0 2 1 1 0 2 0 0 −1 3
1 1 1 −1 0 0 −3
   
1
f3 −→(−1)f3 f2 −→f2 −f3
−−−−−−−−→  0 1 1 2  −−−−−−−→  0 1 0 5 ,
f1 −→f1 −f2
0 0 1 −3 0 0 1 −3

entonces el sistema A X = B es compatible  determinado, tiene solución única. Como el sistema de


 x = −3
ecuaciones lineales dado es equivalente a y = 5 , entonces el conjunto solución de A X = B es
z = −3

 
 −3 
S(A, B) =  5  .
−3
 
3.4. Criterio de solución de sistemas de ecuaciones lineales 17

1 −1
 
1 1
Note que en la matriz  0 1 1 2  ya hemos podido realizar el análisis; tal matriz es escalo-
0 0 −1 3
nada equivalente por filas a [A|B], por tanto rg(A) = rg([A|B]) = 3 = número de incógnitas; de donde

 x + y + z = −1
el sistema A X = B es compatible determinado; y un sistema equivalente es y+z = 2 , de
z = −3

lo cual se deduce rápidamente que la única solución es la arriba mencionada.
Ejemplo 3.9. Consideremos el siguiente sistema de ecuaciones lineales de 3 ecuaciones y 5 incógnitas,
procedamos a conocer cómo es su conjunto solución.

 x1 + x 2 + x4 = −1
x1 + 2x2 + x3 + 2x4 + x5 = 0 .
x1 + x 2 + 2x4 + x5 = −1

0 −1
   
1 1 0 1 0 1 1 0 1
La matriz del sistema y su ampliada son: A = 1 2 1 2 1 y [A|B] = 1 2 1 2
   1 0 ;
1 1 0 2 1 1 1 0 2 1 −1
procedamos a obtener una forma escalonada.
 
1 1 0 1 0 −1 1 1 0 1 0 −1
 
f2 −→f2 −f1  
 1 2 1 2 1 0  −−−−−−−→  0 1 1 1 1 ;
1 
f3 −→f3 −f1 
1 1 0 2 1 −1 0 0 0 1 1 0
aun cuando no está en la forma canónica de Gauss-Jordan, podemos decidir acerca de la solubilidad
del sistema pues la última matriz es una forma escalonada equivalente por filas a [A|B]. En efecto,
rg(A) = rg([A|B])) = 3 < 5. Por tanto el sistema A X = B es compatible indeterminado; es decir, tiene
infinitas soluciones. Un sistema equivalente al original es:

 x1 + x 2 + x4 = −1
x2 + x 3 + x 4 + x 5 = 1 .
x4 + x 5 = 0

Dado que las columnas donde están las primeras entradas no nulas de cada una de las filas son: la
primera, segunda y cuarta, entonces escribimos las correspondientes
 incógnitas, x 1 , x2 , x4 , en términos
 1 x2 + x4 = −1
x +
de las variable libres, que en este caso son x3 y x5 ; esto es: x2 + x4 = 1 − x3 − x5 . Si a
x4 = −x5

las variables libres le asignamos
 valores paramétricos, digamos x 3 = α y x 5 = β, entonces el sistema
 x1 + x2 + x4 = −1
anterior se escribe como x2 + x4 = 1 − α − β ; y al proceder a resolver este sistema en forma
x4 = −β


 x1 = −2 + α + β
ascendente (de la última ecuación hacia la primera) tenemos x =1−α , por lo que cualquier
 2
x4 = −β
 
−2 + α + β
 1−α 
 
solución de A X = B es de la forma  α ; en otras palabras, el conjunto solución de A X = B
 
−β
 
 
β
18 3. Sistemas de Ecuaciones Lineales

  

 −2 + α + β 

 
 1 − α 

  


es S(A, B) =  α  : α, β ∈ R . Note que al asignarle valores particulares a los parámetros α
 
−β

   


   

 
 β 
 
−2
1
 
y β, se obtienen soluciones particulares de A X = B; por ejemplo, al hacer α = β = 0, resulta que  0 
 
0
 

0
es una de las infinitas soluciones del sistema de ecuaciones lineales A X = B.

3.5. Más propiedades de los sistemas de ecuaciones lineales


3.5.1. Sistemas de ecuaciones lineales homogéneos
Comenzaremos considerando un sistema de ecuaciones lineales homogéneos con m ecuaciones y n
incógnitas; es decir, A X = O, donde A ∈ Mm×n (K). Dado que la matriz ampliada de tal sistema tiene
como última columna la nula, entonces siempre se cumple que rg(A) = rg([A|O]); por tanto los sistemas
de ecuaciones lineales homogéneos siempre son compatibles, cosa que ya sabı́amos pues tales sistemas
tienen al menos una solución: la trivial X = O; en particular S(A, O) es siempre no vacı́o. La primera
propiedad que posee el conjunto solucion de A X = O se expresa en la siguiente proposición.

Proposición 3.1. Cualesquiera sean α ∈ K y P, Q ∈ S(A, O), con A ∈ Mm×n (K), se cumplen:

α P ∈ S(A, O) y Q + α P ∈ S(A, O);

es decir, el conjunto solución S(A, O) del sistema de ecuaciones lineales homogéneo A X = O tiene
estructura lineal: es cerrado respecto de las operaciones de multiplicación por escalares y la adición. Por
tal motivo, al conjunto S(A, O) se le conoce como el espacio solución del sistema homogéneo A X = O.

Demostración: Dado que A P = O y A Q = O, entonces de las propiedades de la multiplicación de


matrices sigue que:
A (α P ) = α (A P ) = α O = O; y

A (Q + α P ) = A Q + A (α P ) = O + α (A P ) = α O = O;

con lo cual la demostración está completa.

Esta simple propiedad tiene como consecuencia el siguiente corolario, cuya demostración queda como
un ejercicio para el lector.

Corolario 3.1. Dado el sistema de ecuaciones lineales homogéneo A X = O con A ∈ M m×n (K); si
P1 , · · · , Pk son soluciones de A X = O, entonces cualquier combinación lineal de ellas es también solución
del sistema A X = O; es decir, CL[{P1 , · · · , Pk }] ⊂ S(A, O).

Demostración: Se dejan los detalles al lector. Recordar que Q ∈ CL[{P1 , · · · , Pk }] si, y sólo si, existen
escalares α1 , · · · , αk en K tales que Q = α1 P1 + · · · + αk Pk .
3.5. Más propiedades de los sistemas de ecuaciones lineales 19

Note que si el sistema de ecuaciones lineales homogéneo A X = O con A ∈ Mm×n (K) es tal que el
rango de A es r < n, entonces del teorema de Rouché-Frobenius sigue que las soluciones de A X = O
dependen de n − r parámetros. El siguiente teorema es bastante más explı́cito, pues genera una fórmula
general de todas las soluciones de A X = O.

Teorema 3.4. Dado el sistema de ecuaciones lineales homogéneo A X = O con A ∈ M m×n (K); si
rg(A) = r < n, entonces existen n − r soluciones de A X = O, digamos P1 , · · · , Pn−r tales que
CL[{P1 , · · · , Pn−r }] = S(A, O); es decir, toda solución de A X = O se escribe como combinación li-
neal de las soluciones P1 , · · · , Pn−r ; esto es, para cada X ∈ S(A, O) existen escalares α1 , · · · , αn−r tales
que X = α1 P1 + · · · + αn−r Pn−r ; a tal expresión se le denomina solución general del sistema, mientras
que al conjunto {P1 , · · · , Pn−r } se le acostumbra denominar generador mı́nimo de S(A, O), o también
(quizás el más apropiado) base de S(A, O).

Antes de ofrecer una demostración de este teorema conviene que recordar para cualquier matriz
A ∈ Mm×n (K), si E ∈ Mm×m (K) es una matriz elemental por fila, entonces E A ∈ Mm×n (K) es la
matriz que se obtiene a partir de A al aplicarle la operación elemental por fila que define a E; esto es,
E A es la misma matriz A, excepto por: o una fila que ha sido multiplicada por un escalar no nulo, o una
fila de A que ha sido sustituida por ella más un múltiplo de otra, o bien, porque se han intercambiado
dos de las filas de A. De manera similar se definen las operaciones elementales por columnas y matrices
elementales por columna. En tal caso, si A ∈ Mm×n (K) y E ∈ Mn×n (K) es una matriz elemental por
columna, entonces A E ∈ Mm×n (K) es la matriz que se obtiene a partir de A al aplicarle la operación
elemental por columna que define a E; esto es, A E es la misma matriz A, excepto por: o una columna
de A que ha sido multiplicada por un escalar no nulo, o una columna de A ha sido sustituida por ella
más un múltiplo de otra columna, o bien, se han intercambiado dos de las columnas de A.

Supongamos que tenemos el sistema de ecuaciones lineales homogéneo A X = O, A ∈ M m×n (K), con
rg(A) = r < n. Luego es claro que el sistema de ecuaciones lineales dado tiene infinitas soluciones. En
la demostración del teorema de Rouché-Frobenius, vimos como al aplicar ciertas operaciones elementales
por filas a la matriz [A|B] se obtuvo la forma canónica de Gauss-Jordan [C|D]; en el caso homogéneo
no hace falta considerar la matriz ampliada del sistema, pues como la última columna es nula, ésta nada
aporta en la determinación de su rango; es decir, rg(A) = rg([A|O]). Suponiendo entonces que hemos
obtenido la forma canónica de Gauss-Jordan C, que sabemos es de la forma:
 
0 ··· 0 1 ∗ ∗ 0 ··· 0 ··· ∗
0 ··· ··· ··· ··· ∗
 
 0 0 0 1 0 
.. .. .. .. .. .. .. .. .. .. ..
 
 

 . . . . . . . . . . . 

C=
 0 ··· 0 0 ··· 0 0 ··· 1 ··· ∗
,
 (3.12)
 
 0 ··· 0 0 ··· 0 0 ··· 0 ··· 0 
.. .. .. .. .. .. .. .. .. .. ..
 
 
 . . . . . . . . . . . 
0 ··· 0 0 ··· 0 0 ··· 0 ··· 0

donde los dı́gitos 1, encerrados en cı́rculos, son las primeras entradas no nulas de las r filas no nulas de
C, los cuales están ubicados en las columnas indexadas con j1 < · · · < jr ; además, lo indicado con *
significa que en esa entrada está ocupada por algún escalar en K. Entonces, de la equivalencia por filas
de A y C, los sistemas A X = O y C X = O tienen las mismas soluciones; ver teorema 3.2. Ahora bien,
a partir de C podemos realizar un número finito de cambios en las columnas; que es aplicar un número
20 3. Sistemas de Ecuaciones Lineales

finito de operaciones elementales por columnas a la matriz C, para ası́ obtener la matriz
 
1 0 · · · 0 c1r+1 · · · c1n
 0 1 · · · 0 c2r+1 · · · c2n 
 
 . . .
 .. .. . . ... ..
.
..
.
.. 
.  " #
  Ir C 00
C 0 =  0 0 · · · 1 crr+1 · · · crn  = ; (3.13)
 
Om−r×r Om−r×n−r
 0 0 ··· 0 0 ··· 0 
 
 .. .. .. .. .. .. .. 
 
 . . . . . . . 
0 0 ··· 0 0 ··· 0

c1r+1 · · · c1n
 
 c2r+1 · · · c2n 
donde Ir es la matriz identidad de orden r; C 00 =  .. , Om−r×r y Om−r×n−r son,
 
.. ..
 . . . 
crr+1 · · · crn
respectivamente, las matrices nulas de orden m − r × r y m − r × n − r. Note que la matriz C 0 se
obtiene de C como C 0 = CE1 · · · Ek , donde las matrices E1 , · · · , Ek son ciertas matrices elementales por
columnas.
Lema 3.1. Sean A ∈ Mm×n (K), C, E1 , · · · , Ek ∈ Mn×n (K) y C 0 como arriba. Entonces se cumple
P ∈ S(C 0 , O) si, y sólo si, E1 · · · Ek P ∈ S(A, O); esto significa que los conjuntos solución de C 0 X = O
y A X = O están en correspondencia biunı́voca mediante la matriz invertible E 1 · · · Ek .
Demostración: La demostración es verdaderamente simple; queda como un ejercicio para el lector.

Note que analizar el conjunto solución de C 0 X = O se reduce a estudiar el sistema de ecuaciones


lineales homogéneas:
 x1 = −c1r+1 xr+1 − · · · − c1n xn


 x2 = −c2r+1 xr+1 − · · · − c2n xn

.. . (3.14)


 .

xr = −crr+1 xr+1 − · · · − crn xn
Observe que las n − r incógnitas xr+1 , · · · , xn son libres: podemos asignarles valores arbitrarios y ası́ ob-
tener soluciones de tal sistema. Luego, del lema anterior, al multiplicar tales soluciones, por la izquierda,
por E1 · · · Ek , obtenemos soluciones de A X = O. Este es el “espı́ritu” de la demostración del teorema 3.4,
que a continuación mostraremos; y que en realidad sirve exclusivamente para fines teóricos; por tanto, el
lector menos expimentado puede obviar su lectura.

Demostración del Teorema 3.4. Comencemos suponiendo que para el sistema (3.14) hemos obtenido
n − r soluciones, digamos P1 , · · · , Pn−r tales que para toda P ∈ S(C 0 , O), existen escalares α1 , · · · , αn−r
en K tales que
P = α1 P1 + · · · + αn−r Pn−r . (3.15)
Sabemos, por Rouché-Frobenius, que S(A, O) tiene infinitos elementos, de hecho la misma cantidad que
S(C 0 , O), pues la correspondencia que asocia a cada P ∈ S(C 0 , O) con E1 · · · Ek P ∈ S(A, O) es biyectiva.
Para cada i = 1, · · · , n−r sea Qi = E1 · · · Ek Pi . Consideremos cualquier solución Q de A X = O. Del lema
anterior sigue que Ek−1 · · · E1−1 Q es solución de C 0 X = O; por tanto, existen escalares α1 , · · · , αn−r ∈ K
tales que Ek−1 · · · E1−1 Q = α1 P1 + · · · + αn−r Pn−r . De donde:
Q = E1 · · · Ek (α1 P1 + · · · + αn−r Pn−r ) = E1 · · · Ek (α1 P1 ) + · · · + E1 · · · Ek (αn−r Pn−r )
= α1 E1 · · · Ek P1 + · · · + αn−r E1 · · · Ek Pn−r = α1 Q1 + · · · + αn−r Qn−r ;
3.5. Más propiedades de los sistemas de ecuaciones lineales 21

con lo cual toda solución de A X = O depende (es combinación lineal) de las n−r soluciones Q 1 , · · · , Qn−r
de A X = O. Ası́ la demostración de la proposición está completa, excepto que debemos mostrar que
existen n − r soluciones P1 , · · · , Pn−r de C 0 X = O, de manera que para cada P ∈ S(C 0 , O), existen
escalares α1 , · · · , αn−r ∈ K tales que se cumple (3.15). En efecto; recordemos que C 0 X = O es justamente
el sistema (3.14). Las deseadas n − r soluciones de C 0 X = O, o de (3.14), las obtendremos asignándole
a las variables libres xr+1 , · · · , xn los valores particulares dados por la siguiente tabla:
N o /variable xr+1 xr+2 ··· xn−1 xn
1 1 0 ··· 0 0
2 0 1 ··· 0 0
.. .. .. .. .. .. ;
. . . . . .
n−r−1 0 0 ··· 1 0
n−r 0 0 ··· 0 1
sigue entonces de (3.14) que

−c1r+1
 
−c1r+2
 
−c1n

−c2r+1  −c2r+2  −c2n 
     
 .   .   . 
 ..   ..   .. 
     
−c  −c  −c 
 rr+1   rr+2   rn 
P1 =  , P =   , · · · , Pn−r = 
 1  2  0   0 

     
 0   1   0 
 ..   ..   .. 
     
 .   .   . 
0 0 1
son soluciones de C 0 X = O. Observe que haciendo
xr+1 = α1 , xr+2 = α2 , · · · , xn = αn−r ,

−c1r+1 α1 − · · · − c1n αn−r

−c2r+1 α1 − · · · − c2n αn−r 
 
 .. 

 . 

−c α − · · · − c α
 
rr+1 1 rn n−r
toda solución P de C 0 X = O se escribe como P =  , y dado que
 
 α1 
 
 α 2 
..
 
 
 . 
αn−r

−c1r+1
 
−c1r+2
 
−c1n

−c2r+1  −c2r+2  −c2n 
     
 .   .   . 
 ..   ..   .. 
     
−crr+1  −crr+2  −crn 
     
P = α1   + α2  + · · · + αn−r  = α1 P1 + α2 P2 + · · · + αn−r Pn−r ,
 1   0   0 
 
     
 0   1   0 
 ..   ..   .. 
     
 .   .   . 
0 0 1
la demostración está completa.
22 3. Sistemas de Ecuaciones Lineales

Comentario 3.3. Es conveniente aclarar que la forma como se han asignados los valores a las variables
libres no es única; existen muchas otras formas de hacerlo (de hecho infinitas); pero la elegida en la
demostración es la manera canónica de hacerlo. De allı́ que las n − r soluciones obtenidas son conocidas
como las soluciones canónicas del sistema de ecuaciones lineales (3.14). En realidad, lo que hemos hecho
ha sido suponer que el sistema obtenido, a partir de la reducción a la forma canónica de Gauss-Jordan
de la matriz del sistema homogéneo dado, es tal que los pivotes de esa forma canónica están ubicados en
las primeras n − r columnas; por eso los cambios de columnas efectuados. No obstante, en la práctica no
es necesario realizar tales cambios de columnas, simplemente se deben tener presente las columnas (las
cuales determinan las variables que no son libres) donde están los pivotes; las variables que corresponden
a las columnas restantes son a las cuales se les asignarán los valores canónicos. Los siguientes ejemplos
muestran el procedimiento descrito.
x + 2y + z − w = 0



x + 2y − 2z − w = 0

Ejemplo 3.10. Analicemos el conjunto solución del sistema . Dado que

 2x + 4y − 7z − 2w = 0

5x + 10y − z − 5w = 0
 
1 2 1 −1 1 2 1 −1 1 2 0 −1
   
f2 ←→ − 13 f2
 1 2 −2 −1  f2 −→f2 −f1  0 0 −3 0  f1 −→ f1 − f3

0 0 1 0 ,

 2 4 −7 −2  −−f− −−−−−−−−−→ 
   −−− −− −−−− − − −


0 0 −9 0  f3 −→ f3 + 9 f2 
 
3 −→ f3 − 2 f1 0 0 0 0 

5 10 −1 −5 f 4 −→ f 4 − 5 f 1 0 0 −6 0 f4 −→ f4 + 6 f2
0 0 0 0

el sistema tiene infinitas soluciones pues el rango de la matriz del sistema es 2 < 4, que es el número
de
 incógnitas. Note que las variables libres son y y w; además, el sistema original es equivalente a
x + 2y − w = 0
. Siguiendo entonces con el procedimiento anterior, construimos una tabla de valores
z=0
(los canónicos sobre tales variables libres) para obtener una base del espacio solución del sistema de
N o /variable y w
ecuaciones lineales homogéneo dado. Tal tabla es 1 1 0 ; la cual origina dos soluciones,
2 0 1
−2 1
   
1 0 
a saber: P1 =  0  y P2 = 0; ası́, toda solución del sistema de ecuaciones lineales homogéneas dado
  

0 1
x −2 1
     
y  1 0 
es de la forma X =   z  = α  0  + β 0, que es la solución general del sistema dado.
    

w 0 1
Otra interesante propiedad para los sistemas de ecuaciones lineales homogéneos con igual número de
ecuaciones que de incógnitas (los sistemas de ecuaciones lineales cuadrados) se expresa en el siguiente
resultado.
Teorema 3.5. Dada A ∈ Mm×m (K); las siguientes afirmaciones son equivalentes:

1. A es invertible.

2. A tiene rango igual a m.

3. A X = 0 tiene solucón única, la trivial.


3.5. Más propiedades de los sistemas de ecuaciones lineales 23

Demostración: Sigue como consecuencia de ya conocido sobre las relaciones entre la invertibilidad de
matrices y la forma canónica de Gauss-Jordan. Los detalles se dejan al lector.

3.5.2. Sistemas de ecuaciones lineales no homogéneos


Consideremos ahora A ∈ Mm×n (K), B ∈ Mm×1 (K) 6= O y el sistema de ecuaciones lineales no
homogéneo con m ecuaciones y n incógnitas, A X = B, de manera que admita infinitas soluciones; es
decir, rg(A) = rg([A|B]) = r < n. Obviamente el sistema de ecuaciones lineales homogéneo A X = O
también admite infinitas soluciones; de hecho, existen n − r soluciones básicas, digamos P 1 , · · · , Pn−r
tales que la solución general de A X = O se escribe como
X = α1 P1 + · · · + αn−r Pn−r , con α1 , · · · , αn−r variando en K.
Nuestro interés es mostrar una fórmula general para expresar cualquier solución del sistema no homogéneo
A X = B; y eso es lo que justamente expresa el siguiente teorema.
Teorema 3.6. Dadas A ∈ Mm×n (K), B ∈ Mm×1 (K) y P1 , · · · , Pn−r ∈ Mn×1 (K) como arriba. Si
Q0 ∈ Mn×1 (K) es cualquier solución particular de A X = B, entonces toda solución de A X = B se
escribe como
X = Q0 + α1 P1 + · · · + αn−r Pn−r , con α1 , · · · , αn−r variando en K;
la cual se denomina solución general de A X = B.
Demostración: Considere cualquier solución X ∈ Mn×1 (K) de A X = O. Dado que
A (X − Q0 ) = A X − A Q0 = B − B = O,
entonces X − Q0 es solución de A X = O, por tanto, del teorema 3.4 sigue que existen escalares
α1 , · · · , αn−r ∈ K tales que X − Q0 = α1 P1 + · · · + αn−r Pn−r , luego es obvio que la solución X de
A X = B se escribe como X = Q0 + α1 P1 + · · · + αn−r Pn−r .
x + 2y − z = 2



−x + y + z = 1

Ejemplo 3.11. Consideremos el sistema lineal no homogéneo . Dado que

 5x + 4y − 5z = 4

2x + y − 2z = 1
1 2 −1 2 1 2 −1 2 1 0 −1 1
     
f2 ←→ 31 f2
 −1 1 1 1  f2 −→f2 +f1  0 3 0 3  f1 −→ f1 − f2  0 1 0 1 
 5 4 −5 4  −−f− −−−−−−−−−→ 
   −−− −−−−−−−−−→  ,
3 −→ f3 − 5 f1
 0 −6 0 −6  f3 −→ f3 + 6 f2
 0 0 0 0 
2 1 −2 1 f4 −→ f4 − 2 f1 0 −3 0 −3 f4 −→ f4 + 3 f2 0 0 0 0
1 2 −1 1 2 −1 2
   
 −1 1 1    −1 1 1 1  
tenemos que rg   5 4 −5  = rg  5 4 −5 4  = 2 < 3; por lo que el sistema
   

2 1 −2 2 1 −2 1
dado tiene infinitas soluciones. Note que tal sistema dado, y su correspondiente sistema homogéneo
x + 2y − z = 0



−x + y + z = 0

, son equivalentes a los sistemas con dos ecuaciones (¡dos se trivializaron!):
 5x + 4y − 5z = 0


2x + y − 2z = 0
 
x−z =1 x−z =0
y . (3.16)
y=1 y=0
24 3. Sistemas de Ecuaciones Lineales

Empleando los argumentos descritos en las demostraciones de los teoremas 3.4 y 3.6, tenemos como
variable libre a z. Por tanto, una solución particular del sistema no homogéneo se obtiene asignándole
cualquier valor particular a la variable en el sistema no homogéneo equivalente al dado; en nuestro
 
1
caso asignamos z = 0, el cual produce la solución particular Q0 =  1 . Por otro lado, para obtener
0
la solución general del sistema de ecuaciones lineales homogéneo correspondiente al dado, se procede
como antes: asignándole los valores canónicos a las variables libres; que nuestro caso como es z, el valor
canónico es z = 1, que la sustituirlo en el sistema de ecuaciones lineales homogéneo en (3.16), tenemos
x + 2y − z = 0

1
  

−x + y + z = 0

como solución general de a α  0 , con α ∈ R; por lo que la solución general del
5x + 4y − 5z = 0
1



2x + y − 2z = 0
   
1 1
sistema no homogéneo original es X =  1  + α  0  con α variando en R.
0 1
Veamos ahora un par de ejemplos donde los sistemas de ecuaciones lineales constituyen la herramienta
matemática para su formulación y resolución.
     
−1 0 1 0 2 1
Ejemplo 3.12. Consideremos las matrices A = , A1 = , A2 = y A3 =
0 1 1 2 −1 1
 
1 −1
. Deseamos responder la siguiente interrogante: ¿Es A combinación lineal de A 1 , A2 y A3 ?
1 2
Obviamente para intentar responder esta pregunta es necesario entenderla; lo que se quiere es averiguar
si existe escalares α, β, γ tales que
         
−1 0 1 0 2 1 1 −1 α + 2β + γ β−γ
=α +β +γ = .
0 1 1 2 −1 1 1 2 α − β + γ 2α + β + 2γ

α + 2β + γ = −1



 β−γ =0
Lo cual equivale a analizar el sistema de ecuaciones lineales . En vista de que

 α−β+γ =0

2α + β + 2γ = 1

1 2 1 −1 1 2 1 −1 1 2 1 −1
     
 0 1 −1 0 
 −f−3−
−→f3 −f1  0 1 −1 0  f3 −→f3 +3 f2  0 1 −1 0 

 1 −1 −−−−−→   −−− −−−−−−−−−→  ;
1 0  f4 −→f4 −2 f1  0 −3 0 1  f4 −→ f4 + 3 f2
 0 0 0 1 
2 1 2 1 0 −3 0 3 f 4 −→ f 4 − 3 f 3 0 0 0 0

1 2 1 1 2 1 −1
   
 0 1 −1    0 1 −1 0  
de donde, rg  
 1 −1
 = 2 < 3 = rg  , por lo que el sistema de
1   1 −1 1 0 
2 1 2 2 1 2 1
α + 2β + γ = −1



 β−γ =0
ecuaciones lineales no homogéneas no tiene solución; consecuentemente es imposible

 α−β+γ =0

2α + β + 2γ = 1
escribir a A como combinación lineal de A1 , A2 y A3 .
3.5. Más propiedades de los sistemas de ecuaciones lineales 25

Ejemplo 3.13. Una empresa maderera tiene tres aserraderos: A, B y C. Cada una de ellos produce tres
tipos de maderas de calidad: alta, media y baja. Por cada tonelada métrica de materia prima:

el aserradero A produce 2 metros cúbicos de madera de alta calidad, 2 de calidad media y 4 metros
cúbicos de baja calidad;

el aserradero B produce 2 metros cúbicos de alta calidad, 4 de media calidad y 2 metros cúbicos de
baja calidad; mientras que

el aserradero C produce 4 metros cúbicos de madera de alta calidad, 2 de calidad media y 2 metros
cúbicos de baja calidad.

Si la empresa tiene una demanda de 1000 metros cúbicos de madera de alta calidad; 2000 de calidad
media y 1000 de madera de baja calidad, ¿cuántas toneladas métricas se requieren en cada aserradero
para satisfacer tal demanda?
A B C
 
Alta 2 2 4
La matriz Media  2 4 2  representa la producción de los tres tipos de madera en los tres aserra-
Baja 4 2 2
deros. Note que cada columna contiene la información, en metros cúbicos, de la producción de los tres
 
2
productos por cada aserradero; ası́ por ejemplo, la primera columna 2 representa la producción del
4
aserradero A; mientras que cada fila contiene la información de la producción de un tipo de madera en
 
los tres aserraderos; por ejemplo, la fila 2 4 2 expresa la producción, por metro cúbico, de madera
con calidad media en las tres aserraderos. Denotemos por

x la cantidad de toneladas métricas que requiere el aserradero A;

y es la cantidad requerida por el aserradero B; y

z la cantidad que necesita el aserradero C.

2 2 4 x 1000
    

Entonces el problema planteado se expresa por  2 4 2  y  = 2000; que es la ecuación matricial


4 2 2 z 1000

 2x + 2y + 4z = 1000
que representa el sistema de ecuaciones lineales no homogéneo 2x + 4y + 2z = 2000 . Dado que hemos
4x + 2y + 2z = 1000

efectuado el planteamiento del problema, ahora procederemos a resolverlo. Para ello reduciremos la matriz
 
2 2 4 1000
ampliada del sistema  2 4 2 2000 , ası́, mediante el teorema de Rouché-Frobenius conoceremos si
4 2 2 1000
el mismo tiene o no solución, y en caso de tenerla, si ésta es única o no.
     
2 2 4 1000 2 2 4 1000 2 0 6 0
f2 −→f2 −f1 f1 −→f1 −f2
 2 4 2 2000  −−−−−−−−→  0 2 −2 1000  −−−−−−−→  0 2 −2 1000  .
f3 −→f3 −2 f1 f3 −→f3 +f2
4 2 2 1000 0 −2 −6 −1000 0 0 −8 0

Claramente la última matriz anterior es una forma escalonada equivalente por filas a la matriz ampliada
del sistema, esto nos permite concluir que el rango de la matriz del sistema y su ampliada es igual a 3;
26 3. Sistemas de Ecuaciones Lineales

por tanto el problema planteado


 tiene solución única. Observe que el sistema de ecuaciones lineales inicial
 2x + 6z = 0
es equivalente al sistema 2y − 2z = 1000 De lo cual se deduce inmediatamente que su solución es
−8z = 0.

   
x 0
y  = 500; por lo que: los aserraderos A y C no necesitan materia prima para satisfacer tal demanda;
z 0
mientras que el aserradero C requiere de 500 toneladas métricas.
Ejemplo 3.14. Queremos conocer todas las funciones polinómicas p(x) = α + βx + γx 2 , con x variando
en R, que satisfacen las condiciones:
p(1) = 1 y p(−1) = 2.
Claramente los coeficientes α, β y γ de la función polinómica deben satisfacer simultáneamente las ecua-
ciones lineales α + β + γ = 1 y α − β + γ = 2, por lo que la solución al problema de encontrar tales
α+β+γ =1
funciones polinómicas, si es que existen, es estudiar el sistema de ecuaciones lineales .
α−β+γ =2
 
1 1 1 1
Dado que la matriz ampliada de este sistema es , entonces procedemos como antes:
1 −1 1 2
   
1 1 1 1 f2 −→f2 −f1 1 1 1 1
−−−−−−−→ .
1 −1 1 2 0 −2 0 1
   
1 1 1 1 1 1 1
De acá, rg = rg = 2 < 3, que es el número de incógnitas. Lue-
1 −1 1 1 −1 1 2

α+β+γ =1
go el sistema tiene infinitas soluciones; note que tal sistema de ecuaciones lineales
α−β+γ =2

α+β+γ =1
es equivalente al sistema . Por tratarse de un sistema no homogéneo con mas de una
−2β = 1
solución (de hecho infinitas), tenemos que para obtener la solución general del mismo se requiere de: una

α+β+γ =1
solución particular de y de la solución general del sistema de ecuaciones lineales ho-
−2β = 1

α+β+γ =0
mogéneo asociado . Observe que en la matriz escalonada arriba obtenida, los elementos
−2β = 0
pivotes están ubicados en la primera y segunda columna de tal matriz, luego la variable es representada
por la tercera columna es la variable libre; esto es, γ. Para obtener una solución particular del siste-
 1 
2
ma le asignamos a γ cualquier valor, por ejemplo si hacemos γ = 0, entonces  − 12  es una solución
0

α+β+γ =1
particular de y también del sistema original; ahora bien, al darle el valor canónico
−2β = 1
−1
 

α+β+γ =0
γ = 1 y sustituirlo en , se tiene que  0 , es una solución básica del sistema ho-
−2β = 0
1
 
α+β+γ =0 α+β+γ =1
mogéneo . Concluimos de esta manera que la solución general de es
α−β+γ =0 α−β+γ =2
 1 
−1
 
2
 − 1  + γ  0 , con γ variando en R.
2
0 1
3.6. Ejercicios Propuestos 27

Finalmente interpretemos este resultado para los propósitos de encontrar las funciones polinómicas
con las condiciones impuestas. El primer coeficiente, α, es 21 − γ; el segundo, β, es igual a − 12 ; y el tercer
coeficiente, γ, es libre. En otras palabras, las funciones polinómicas p(x) = α + βx + γx 2 que satisfacen
las condiciones impuestas son de la forma p(x) = ( 12 − γ) − 12 x + γx2 , donde γ asume cualquier en R.

3.6. Ejercicios Propuestos


1. Determine la representación matricial de cada uno de los siguientes sistemas de ecuaciones lineales:
y + z − 3w = 1

 
 2x − 3y + 4z = 2  x + 4z = 1


 x + 3y + 2w = 2
a) 3y − 2z = 0 , b) y − w = 0 , c) .
x + 2y − z + w = 1
x + 5z = −1 x + 3z = 1
  


w=0

2. Determine cada uno de los sistemas de ecuaciones lineales que son expresados matricialmente como
A X = B, donde:
 
1 0 0 1
1
 
2 −1  2 1 −2
   
0 2  1 
  1 
a) A =  3 −2 −1  , B =  −1  , b) A =  0 0 2 −1  , B =   2 .
  
0 0 1 0 −1 2 3 5
 
 
3
4 2 1 0

3. Decidir si los pares de sistemas de ecuaciones lineales dados son o no equivalentes:


2x + y + 2z = 1 x−y+z =1
 

 

 x−y+z =1  3y = −1
a) y

 3x + y = −1 
 4x + 3y + z = −1
 
x + 2y + z = 0 3x + 3z = 2
x + 2y − z + w = 0 3x + 2y + 2z + 2w =0
 

 

 2x + 3z + w = 0  3x − 2y + 7z + w =0
b) y

 x − 2y + 4z = 0 
 −4y + 5z − w =0
 
4x + 4y + z + 3w = 0 2x + 4y − 2z + 2w =0
x + 2y + z = 4 x + 2y + z = 4
 

 

2x + 5y + 2z = 9 x + 3y + z = 5
 
c) y

 x + 3y + 5z = 5 
 x + 2y + 2z = 6
 
−x − y − z = −3 x + 3y + 2z = 7
4. Decida sobre la compatibilidad de cada uno de los sistemas lineales. Determine, haciendo uso de
formas escalonadas o formas canónicas de Gauss-Jordan, la solución única cuando el sistema sea
compatible determinado, y su solución general en caso de ser compatible indeterminado.
2x + y + 2z = 1 3x + 2y + 2z + 2w = 0 x + 2y + z = 4
  

 
 

 x−y+z =1  3x − 2y + 7z + w = 0  x + 3y + z = 5
a) b) c)

 3x + y = −1 
 −4y + 5z − w = 0 
 x + 2y + 2z = 6
  
x + 2y + z = 0 2x + 4y − 2z + 2w = 0 x + 3y + 2z = 7
x + y + z + w = −2 3x + y − z = 0 5y − 4z = 0
  

 
 

x − y − z + w = −8 x − 2y − z = 0 2x + 3y − z = 0
  
d) e) f)

 x − y + z + w = −6 
 −x + y + z = 0 
 x−y+z =0
  
x+y−z+w =0 2x − y − 3z = 0 x + 9y − 5z = 0
28 3. Sistemas de Ecuaciones Lineales

5. Determine los valores de α ∈ R para los cuales los siguientes sistemas de ecuaciones lineales ho-
mogéneos dados a continuación tienen infinitas soluciones:
 
 2x − 3y + 5z = 0  2x + y − αz = 0
a) −x + 7y − z = 0 b) αx − y + z = 0
4x − 11y + αz = 0 x+y+z =0
 

6. Clasifique según el valor de los parámetros a, b, c los siguiente sistemas de ecuaciones lineales, según
sean: incompatible, compatible determinado o compatible indeterminado:
  
 x + 2y + z = a  y+z =2  x + 3y + 5z = 2
a) 2x + y + z = 1 b) x+y+z =a c) 2x − 4y + 2z = 0
3x + 3y + 2z = b x+y =2 5x − 11y + 9z = a
  
  
 x + y + az = 1  x − 2y + 3z = 1  ax + by + cz = 1
d) x + ay + z = 1 e) 2x + ay + 6z = 6 f) ax + y + bz = 1
ax + y + z = 1 −x + 3y + (a − 2)z = 0 ax + y + z = b
  

    
i 2 1 0 i 1
7. Decidir si A = es combinación lineal de los puntos A1 = , A2 = y
1+i 1 1 1 i 1
       
0 1 1 0 0 1 0 1
A3 = . ¿Es A combinación lineal de: B1 = , B2 = , B3 = y
1 0 0 0 1 1 1 0
 
0 0
B4 = ?
0 1

8. Encontrar, bajo las condiciones que se imponen a continuación, todas las funciones polinómicas
p(x) = a + bx + cx2 que satisface:

a) p(0) = 1, p(1) = 0 y p(−1) = 1 b) p(1) = p(−1) = 0

9. Hallar dos números tales que si se dividen el primero por 3 y el segundo por 4 la suma es 15;
mientras que si se multiplica el primero por 2 y el segundo por 5 la suma es 174.

10. El perı́metro de un rectángulo es de 28 metros. Si se aumenta en 2 metros su base y se disminuye


en 3 metros su altura, el área del nuevo rectángulo es un metro cuadrado adicional al área del
rectángulo original. Determinar, en caso que exista, las dimensiones del rectángulo original.

11. En un zoológico hay animales con 2 patas (aves) y bestias de 4 patas. Si en el número de cabezas
de tales animales alcanza la cantidad de 600, y el número de patas es 2000, ¿cuántas aves y cuántas
bestias hay en el zoológico?

12. Hallar, si es posible, el entero positivo de tres dı́gitos (abc) tal que: la suma de sus dı́gitos es 8, la
suma de los dos primeros dı́gitos menos el tercero es igual a 6, y tal número menos el número que
se obtiene al invertir de orden las cifras es 396.

13. Dos inversionistas con la misma cantidad de dinero, Bs. 20.000.000,00, realizarón la siguiente ope-
ración: el primero de ellos invirtió la cantidad A al 4 %, la cantidad B al 5 % y el resto al 6 % de
interés; mientras que el segundo inversionista colocó la cantidad A al 5 %, la cantidad B al 6 % y
el resto al 4 %. Determinar las cantidades A, B y C si se sabe que el primero de los inversionistas
recibió Bs. 1.050.000,00 por intereses, y el segundo Bs. 950.000,00.
3.6. Ejercicios Propuestos 29

14. Una empresa dispone de Bs. 29.000.000 para la subvención de sus 100 empleados en cursos de
capacitación laboral. Se dictarán tres cursos: A, B y C. La subvención por persona es como sigue:
para los que realizarán el curso A, es de Bs. 400.000; para los del curso B, Bs. 160.000 y Bs. 200.000
para los que hagan el curso C. Si la cantidad de empleados que realizará el curso A es cinco veces
mayor que la cantidad que realizará el curso B; ¿cuántos empleados realizarán cada curso?

15. Entre las ciudades A y B hay una distancia de 192 Km. Se sabe que un automóvil sube cuestas a
54 Km Km Km
h , las baja a 90 h , y en el terreno llano anda a 80 h . Si de A hacia B se emplean 2 horas y
30 minutos; y el recorrido de B hacia A se hace en 2 horas y 45 minutos; ¿cuál es la longitud del
trayecto llano entre las dos ciudades?

16. Las edades de tres hermanos: Juan, José y Julio, satisfacen las siguientes relaciones: la suma de
las edades de Juan y José menos la edad de Julio es la edad de Juan más 10 años; la suma de las
edades de Juan y Julio es dos veces la edad de José, mientras que la suma de las edades de Juan y
José es 60 años. Determine las edades de cada uno de ellos.
Suponga que en lugar de la condición “la suma de las edades de Juan y José es 60 años”, se tiene que
la suma de tales edades es de 24 años. ¿pueden existir tres personas que satisfagan las condiciones
impuestas?

17. Una empresa petrólera tiene tres refinerı́as: A, B y C. Cada una de ellas produce tres combustibles:
diesel, gasolina y turbosina. Se sabe además que por cada barril de crudo:

la refinerı́a A produce 20 litros de diesel, 40 litros de gasolina y 20 litros de turbosina;


la refinerı́a B produce 20 litros de diesel, 10 litros de gasolina y 10 litros de turbosina; y
la refinerı́a C produce 10 litros de diesel, 10 litros de gasolina y 30 litros de turbosina.

Si la empresa tiene una demanda de 820.000 litros de diesel; 450.000 litros de gasolina y 830.000 litros
de turbosina, ¿cuántos barriles de crudo debe procesar cada refinerı́a para satisfacer tal demanda?
¿Qué cantidad de combustible produce cada refineria con los barriles de crudo necesarios para
satisfacer la demanda?

18. Sea A ∈ Mm×n (K) con m < n. Demostrar que el sistema de ecuaciones lineales homogéneo A X = O
es compatible indeterminado. Es decir, si un sistema de ecuaciones lineales homogéneo tiene más
incógnitas que ecuaciones, entonces tiene infinitas soluciones.

19. Dadas A ∈ Mm×m (K), B ∈ Mm×1 (K). Demostrar que A X = B tiene solución única si, y sólo si,
A es invertible. En tal caso X = A−1 B es la solución del sistema.
4
Determinantes de orden n

4.1. Nota histórica


La noción de determinantes está intimamente relacionada a la de matrices, y por supuesto a los siste-
mas de ecuaciones lineales. Se tiene como un hecho que los comienzos de estos dos objetos matemáticos
datan del siglo II AC, aunque existen evidencias de sus usos rudimentarios desde el siglo IV antes de
nuestra era. Los inicios de una formulación teórica de los determinantes aparecen con diez años de dife-
rencia en Japón y Europa. En 1683 Takakazu Seki Kowa escribión Métodos de resolución de problemas
disimulados, donde introdujó y dió métodos generales, aunque basado en ejemplos, para calcular deter-
minantes (sin acuñar el término) de matrices de orden 2 × 2 hasta de orden 5 × 5. 1 . Diez años más tarde,
Gottfried Wilhelm Leibniz 2 , de manera independiente, hizo uso rudimentario de los determinantes para
estudiar sistemas de ecuaciones lineales; aunque su versión de los determinantes era menos general que
la de Seki. Leibniz usó la palabra resultante para los determinantes, demostró algunos resultados sobre
los resultantes, incluyendo en esencia lo que en la actualidad se conoce como la Regla de Cramer. En la
segunda mitad de siglo XVIII comenzaron a aparecer cada vez más publicaciones sobre determinantes,
aunque como herramientas consideradas para estudiar los problemas fundamentales de esas publicaciones.
Entre los matemáticos que escribieron sobre los determinantes para esa epoca mencionamos a: Cramer,
Bezout, Vendermont y Laplace. Este último afirmó que los métodos desarrollados por Cramer y Bezout,
donde hacian uso de los determinantes para estudiar sistemas de ecuaciones lineales, no eran apropiados;
en un artı́culo publicado en 1772, donde Laplace estudió las órbitas de los planetas, discutió la solución
de sistemas de ecuaciones lineales sin aportar especı́ficamente sus soluciones, pero usando determinantes.
Laplace también uso la palabra resultante, al igual que Leibniz, sin embargo se dice que no conocı́a sus
trabajos. Fue Augustin-Louis Cauchy 3 quien en 1812 introdujó el uso del término determinante en el
sentido moderno; aunque ya en 1801 Johann Carl Friedrich Gauss hacı́a uso de la palabra determinante
pero en un sentido diferente a empleado en nuestros dı́as. Se afirma que los trabajos sobre determinantes
de Cauchy son de los más completos; no obstante, Carl Gustave Jacobi 4 publicó tres artı́culos sobre
determinantes en 1841. Tales tratados fueron importantes pues por primera vez la definición del deter-
1 Takakazu Seki Kowa, matemático japonés (1642-1708) es reconocido por su prolifica contribución al desarrollo de la

matemática japonesa de la epoca. En 1674 Seki publicó Hatsubi Sampo en el cual resuelve, con metódico análisis, una serie
de problemas; lo que ciertamente aportó razones por las cuales Seki es considerado como un excelente maestro y cultor de
la Matemática. Seki se anticipó a muchos de los descubrimientos matemáticos de occidente; por ejemplo, además de ser el
primero en estudiar los determinantes, descubrió los números de Bernoulli antes que el propio Jacob Bernoulli.
2 G. W. Leibniz nació en Leipzig en 1646, falleciendo a la edad de 70 años en Hanover. En la actualidad Leibniz es

considerado el genio universal del siglo XVII y rival de Newton en la invensión del Cálculo. Aprendió a leer Latin y Griego
cuando apenas era un niño; antes de sus veinte años ya era un profundo conocedor de Matemática, Filosofı́a, Teologı́a
y Leyes. Aún siendo muy jóven comenzo a desarrollar las ideas de su “characteristica generalis”, la cual envuelve una
Matemática universal y que posteriormente floreció en la Lógica Simbólica de George Boole (1815-1864)
3 Este insigne matemático francés (1789-1857) es considerado el responsable, junto a Joseph Louis Lagrange (1736-1813)

y Carl Friedrich Gauss (1777-1855), de formalizar con la rigorusidad necesaria el Análisis Matemático en la primera mitad
del siglo IXX. Cauchy fue un escritor compulsivo en distintas áreas de la Matemática, incluso sea probable que esté en
segundo lugar, despúes de Leonard Euler (1707-1783), en el volumen de publicaciones.
4 El matemático C. G. Jacobi (1804-1851) además de haber sido un excelente investigador en Matemática, también

fue un excelente maestro en el área, llegando inclusive a ser considerado como el más destacado docente en Matemáticas
universitaria de su generación. Sus más celebres trabajos en tratan sobre funciones elı́pticas; aunque también escribió sobre
Teorı́a de Números, Ecuaciones Diferenciales Ordinarias y Parciales, Cálculo de Variaciones, el problema de los tres cuerpos
de la Mecánica Celeste, y otros problemas dinámicos.

30
4.2. Determinates: una definición recursiva 31

minante se hizo de manera algorı́tmica; además, las entradas en el determinante no eran exclusivas para
números, sino que incluyó también funciones. Estos tres artı́culos de Jacobi hicieron que la noción de
determinante fuese extensamente conocida. Finalmente, una definición axiomática de los determinantes
fue usada por Karl Weierstrass 5 en sus clases; después de fallecido, fueron publicadas, en 1903, sus
notas sobre el tema. En ese mismo ao, fueron publicados los apuntes de Kronecker sobre determinantes,
también luego de su muerte. Con estas dos publicaciones, la teorı́a moderna de determinantes quedo
completamente desarrollada. Además de los origenes de los cuales emergió esta teorı́a, el determinante
fue identificado con el área de paralelogramo o con el volumen de un paralelepı́pedo; de hecho es parte
fundamental en el desarrollo teórico de la teorı́a de integración por su empleo en las formas de volumen.
Por otra parte, en la teorı́a de formas multilineales (¡presentación que evitamos acá!) se demuestra que
la función determinante es justamente la generadora de las formas multilineales alternadas.

4.2. Determinates: una definición recursiva


Presentaremos la noción de determinante de una matriz cuadrada A ∈ Mn×n (K) de manera recurrente;
esto es, a partir de una definición cuando n = 1 y una “formula de recurrencia” soportadas sobre matrices
cuadradas de orden (n − 1) × (n − 1) se obtendrá la definición del determinante de A ∈ M n×n (K).
El propósito de este tratamiento es el de evitar un conjunto de tecnicismos que lucen inapropiados
para el nivel en el que son presentadas estas notas. Para lectores con mayor desarrollo matemático, esta
presentación seguramente resultará aburrida; por lo que nos atrevemos a sugerir como una lectura un poco
más avanzada sobre el tema, por ejemplo, el libro Álgebra Lineal de K. Hoffman y R. Kunze. Editorial
Prentice Hall International (1973).
En lo que sigue, K denota como siempre cualquiera de los cuerpos de escalares R o C, y M n×n (K)
es el conjunto de todas las matrices de orden n × n con cefiecientes en K. Cada vez que escribamos
a11 · · · a1n
 

A = [aij ] ∈ Mn×n (K), debe interpretarse como la matriz A =  ... .. .. .



. . 
an1 ··· ann

Definición 4.1. El determinante de una matriz A ∈ Mn×n (K) se define como sigue:

1. si A = [a] es 1 × 1, entonces su determinante es el escalar det A = a.

2. si n ≥ 2 y A = [aij ] ∈ Mn×n , entonces el determinante de A es el escalar dado por la fórmula:

det A = a11 det A11 − a21 det A21 + · · · + (−1)j+1 aj1 det Aj1 + · · · + (−1)n+1 an1 det An1 ; (4.1)

donde cada Aj1 (j = 1, · · · , n) denota la matriz de orden (n − 1) × (n − 1) obtenida de A al eliminar


la fila j y la columna 1.

Observe que el determinante asocia a cada matriz A ∈ Mn×n (K) un único número en K; por tanto,
esta correspondencia define una función, denotada por det, cuyo dominio es el conjunto M n×n (K) y toma
valores en K. El cálculo del valor que se le asigna a cada matriz, como puede observarse en la fórmula
5 Karl Weierstrass (1815-1897), matemático alemán conocido, entre otras cosas por sus aporte a la teorı́a de funciones
de variable compleja, aunque muchas fueron sus contribuciones al desarrollo de la matemática que hoy dı́a conocemos. Fue
un excelente conferencista, de hecho atraı́a a muchos estudiantes europeos. Los temas tratados en sus conferencias incluı́an
tópicos como: fı́sica-matemática, teorı́a de funciones analı́ticas, teorı́a de las funciones elı́pticas, y aplicaciones a problemas
en geometrı́a y mecánica. Luego de ser maestro de escuela, a los cuarenta años, y gracias a la calidad de sus publicaciones,
gano un puesto como profesor en la Universidad de Berlı́n.
32 4. Determinantes de orden n

(4.1) requiere ir haciendo los desarrollos de los determinantes de matrices cuadradas de ordenes cada vez
menor; no obstante, este procedimiento puede resultar bastante engorroso, e incluso difı́cil y fastidioso;
por lo que en el transcurso de estas notas mostraremos otros procedimientos que permitirán realizar este
cálculo como menos “esfuerzo”.
Antes de proceder a obtener fórmulas para el determinante de matrices de orden 2 × 2 y 3 × 3;
ofrecemos al lector otra notación para el valor de la función det; esta es, dada A = [a ij ] ∈ Mn×n (K),
también denotaremos al determinante de la matriz A por

a11 ··· a1n


det A = ... ..
.
.. .
.
an1 ··· ann

4.2.1. Determinates de matrices 2 × 2


 
a a12
Consideremos cualquier matriz de orden 2 × 2 con coeficientes en K, digamos A = 11 . Si-
a21 a22
guiendo la fórmula recursiva de la definición 4.1 tenemos:

a11 a12
det A = = a11 det A11 − a21 det A21 .
a21 a22

Dado que A11 = [a22 ] y A21 = [a12 ], sigue ası́, ver parte 1 de la definición, que:

a11 a12
det A = = a11 a22 − a12 a21 . (4.2)
a21 a22

Ejemplo 4.1. Haciendo uso de la fórmula anterior se deduce de manera muy simple que:

1 0
1. Si I2 es la matriz identidad de orden 2 × 2, entonces det I2 = = 1 · 1 − 0 · 0 = 1;
0 1

0 0
2. Si O2 es la matriz nula de orden 2 × 2, entonces det O2 = = 0 · 0 − 0 · 0 = 0;
0 0
 
1 2 1 2
3. Si A = , sigue que = 1 · 4 − 2 · 3 = −2;
3 4 3 4

−1 2−i
4. = (−1) · 4 − 3i · (2 − i) = −7 − 6i;
3i 4

5. Para cualquier número α ∈ K se cumple:

α a11 α a12 a a12


= (α a11 )a22 − a21 (α a12 ) = α(a11 a22 − a12 a21 ) = α 11 .
a21 a22 a21 a22

a11 a12 a a12


Análogamente, = α 11 . De esta forma, si una fila de una matriz A de orden
α a21 α a22 a21 a22
2 × 2 se multiplica por un escalar, entonces el determinante de la matriz resultante es igual al
producto de ese escalar por el determinante de la matriz original.
4.2. Determinates: una definición recursiva 33

   
a a12 b b12
6. Dadas A = 11 y B = 11 , entonces
a21 a22 a21 a22

a11 + b11 a12 + b12


= (a11 + b11 )a22 − a21 (a12 + b12 ) = a11 a22 + b11 a22 − a21 a12 − a21 b12
a21 a22
a11 a12 b b12
= + 11 = det A + det B.
a21 a22 a21 a22

De la misma forma
a11 a12 a a12 a a12
= 11 + 11 .
a21 + b21 a22 + b22 a21 a22 b21 b22
Esta propiedad junto a la anterior dicen que:

“la función determinantes de orden 2 es lineal en cada una de las filas; esto significa
que respecta tanto la multiplicación por escalares en cada fila como la adición en cada
una de las filas”

7. Otra importante propiedad es que al intercambiar las filas de una matriz de orden 2 × 2, el deter-
minante cambia de signo; esto es:

a21 a22 a a12


= − 11 .
a11 a12 a21 a22

   
a11 a12 a a21
8. Si A = y A = 11
t
es su matriz traspuesta, entonces es simple chequear que
a21 a22 a12 a22
det A = det At .
Haciendo uso de esta propiedad, dejamos como ejercicio para el lector la verificación de que las
propiedades enunciadas en los numerales 5 y 6 anteriores, también son ciertas al expresarlas en
términos de las columnas de las matrices; esto significa que también son verdades:

α a11 a12 a a12 a α a12


= α 11 = 11 ,
α a21 a22 a21 a22 a21 α a22
a11 + b11 a12 a a12 b a12 a11 a12 + b12 a a12 a b12
= 11 + 11 y = 11 + 11 .
a21 + b21 a22 a21 a22 b21 a22 a21 a22 + b22 a21 a22 a21 b22

Comentario 4.1. En virtud de las propiedades establecidas en los numerales 5, 6 y 7 anteriores, se


acostumbra decir que la función determinante en el espacio M2×2 (K) es lineal en cada una de sus filas
(propiedades 5 y 6), y que es una función alternada (propiedad enunciada en el numeral 7). Además, de
la propiedad 8 y también se dice que la función determinante en M2×2 (K) es alternada y lineal en cada
una de sus columnas.

• Determinantes y sistemas de ecuaciones lineales 2 × 2

Inicialmente la noción de determinante surgió de las fórmulas mediante las cuales se expresa la solución
de un sistema de ecuaciones lineales con solución única. De momento expondremos este uso para sistemas
de ecuaciones lineales de orden 2 × 2.
34 4. Determinantes de orden n


a11 x + a12 y = b1
Consideremos el sistema de ecuaciones lineales de 2 ecuaciones con 2 incógnitas: ,
a21 x + a22 y = b2
y supongamos que estesistema admite una única solución, en particular esto implica que la matriz del
a a12
sistema, A = 11 , es invertible; esto equivale a que a11 a22 −a12 a21 6= 0, ¡verifı́quelo!. Para resolverlo
a21 a22
 
a11 a12 b1
podemos emplear el método de eliminación de Gauss a la matriz ampliada . Si asumimos,
a21 a22 b2
por ejemplo, que a11 6= 0, entonces
 al multiplicar la segunda fila por y sumarla con la primera fila
a11 a12 b1
multiplicada por −a21 tenemos . Luego el sistema original tiene
0 a11 a22 − a12 a21 a11 b2 − a21 b1

a11 x + a12 y = b1
las mismas soluciones de . Por tanto, como a11 a22 − a12 a21 6= 0 se
(a11 a22 − a12 a21 )y = a11 b2 − a21 b1
tiene que
a11 b2 − a21 b1
y= .
a11 a22 − a12 a21
 
a11 a12
Observe que el denominador de esta expresión es justamente el determinante de la matriz .
a21 a22
Similarmente se obtiene que
a22 b1 − a12 b2
x= .
a11 a22 − a12 a21
Más adelante haremos un tratamiento más preciso de lo que acabamos de exponer, se trata del método
conocido como la Regla de Cramer, ver 4.4.1 en página 52.

• Determinantes y área de paralelogramos

La función determinante fue asociada al cálculo de área de un paralelogramo o al volumen de un pa-


ralelepı́pedo; finalmente tomó la forma definitiva de ser expresado como una forma multilineal alternada.
Veamos como aparece la función determinante en el cálculo del área de un paralelogramo. Conside-
remos en R2 dos puntos que no están sobre una misma recta; digamos: u = (a11 , a12 ) y v = (a21 , a22 );
para simplificar el análisis suponemos que las coordenadas de estos puntos son no negativas. Tales puntos
determinan en el plano un paralelogramo, ver figura 4.1. El mismo se construye traslando paralelamente

PSfrag replacements u

Figura 4.1: Paralelogramo determinado por los puntos no colineales u y v.

el segmento Ou hacia el punto v, y el segmento Ov hacia el punto u. Para la deducción de la fórmula del
4.2. Determinates: una definición recursiva 35

área del paralelogramo de arriba asumimos que el lector conoce la noción de distancia entre dos puntos
(x1 , y1 ) y (x2 , y2 ) de R2 , que es:

p
d((x1 , y1 ), (x2 , y2 )) = (x1 − x2 )2 + (y1 − y2 )2 ;

El paralelogramo P ası́ construido se inscribe en un rectángulo R, el cual, por la forma en que están
dispuestos los vértices de P , tiene sus vértices en los puntos: (0, 0), (x1 + x2 , 0), (x1 + x2 , y1 + y2 ) y
PSfrag replacements
(0, y1 , y2 ), tal y como se observa en la figura 4.2. Observe que el área del paralelogramo P (la sombreada)

A1 T3
y2
v
T1
T2
u
y1

T4 A2

x2 x1

Figura 4.2: Paralelogramo determinado por los puntos u y v, e inscrito en el rectángulo R.

es igual al área del rectángulo R, en el que está inscrito, menos la suma de las áreas de los triángulo
T1 , T2 , T3 , T4 y los rectángulos A1 , A2 . Note además que los rectángulos A1 y A2 tienen la misma área;
de igual forma, los triángulos T1 , T2 , y T3 , T4 . Sigue por tanto que:

2 4
!
X X
area de P = area de R − area de Ai + area de Ti
i=1 i=1
 
1 1 1 1
= (x1 + x2 )(y1 + y2 ) − x2 y1 + x2 y1 + x2 y2 + x2 y2 + x1 y1 + x1 y1
2 2 2 2
x1 y1
= x1 y2 − x2 y1 = .
x2 y2

4.2.2. Determinante de matrices 3 × 3

Al igual que en dimensión 2, el determinante de orden 3 está asociado al cálculo de las soluciones
de sistemas de ecuaciones lineales 3 × 3, que como hemos dicho será tratado más adelante; también
está asociado al cálculo del volumen de un paralelepı́pedo determinado por tres puntos no colineales en
R3 . Procedamos ahora a determinar la fórmula de la función determinante en el conjunto M 3×3 (K); para
 
a11 a12 a13
ello emplearemos la fórmula de recurrencia (4.1). Consideremos una matriz A =  a21 a22 a23 .
a31 a32 a33
36 4. Determinantes de orden n

Entonces de acuerdo a aquella fórmula recurrente tenemos:

a11 a12 a13


det A = a21 a22 a23
a31 a32 a33
a22 a23 a12 a13 a12 a13
= (−1)1+1 a11 + (−1)1+2 a21 + (−1)1+3 a31
a32 a33 a32 a33 a22 a23
= a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 a23 − a22 a13 ).

Reordenando y reagrupando términos tenemos la fórmula del determinante de orden 3:

a11 a12 a13


a21 a22 a23 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 . (4.3)
a31 a32 a33

1 −1 0
 

Ejemplo 4.2. Consideremos la matriz A =  2 −4 3 . Para calcular su determinante recurrimos a


0 −1 2
la fórmula (4.1); esto es:

1 −1 0
−4 3 −1 0 −1 0
det A = 2 −4 3 =1· −2· +0·
−1 2 −1 2 −4 3
0 −1 2
= (−8 + 3) − 2(−2 + 0) + 0(−3 − 0) = −1.

• Propiedades del determinante 3 × 3

Haciendo uso directo de la definición recursiva, o la misma fórmula (4.3), se demuestran las siguientes
propiedades para la función determinante sobre las matrices de orden 3×3 (los detalles se dejan al lector):
 
1 0 0
1. el determinante de la matriz identidad de orden 3, I3 = 0 1 0, su determinante es igual a 1;
0 0 1

2. el determinante 3 × 3 respeta la adición en cada una de sus filas; esto es:

a11 + b11 a12 + b12 a13 + b13 a11 a12 a13 b11 b12 b13
a21 a22 a23 = a21 a22 a23 + a21 a22 a23
a31 a32 a33 a31 a32 a33 a31 a32 a33

a11 a12 a13 a11 a12 a13 a11 a12 a13


a21 + b21 a22 + b22 a23 + b23 = a21 a22 a23 + b21 b22 b23
a31 a32 a33 a31 a32 a33 a31 a32 a33

a11 a12 a13 a11 a12 a13 a11 a12 a13


a21 a22 a23 = a21 a22 a23 + a21 a22 a23
a31 + b31 a32 + b32 a33 + b33 a31 a32 a33 b31 b32 b33
4.2. Determinates: una definición recursiva 37

3. el determinante 3 × 3 respeta la multiplicación por escalares en cada una de sus filas; es decir:

α a11 α a12 α a13 a11 a12 a13


a21 a22 a23 = α a21 a22 a23
a31 a32 a33 a31 a32 a33

a11 a12 a13 a11 a12 a13


α a21 α a22 α a23 = α a21 a22 a23
a31 a32 a33 a31 a32 a33
a11 a12 a13 a11 a12 a13
a21 a22 a23 = α a21 a22 a23
α a31 α a32 α a33 a31 a32 a33

Estas dos propiedades pueden resumirse en una sóla, y se dice que el determinante de matrices de
orden 3 × 3 es lineal en cada una de sus filas; esto se escribe como:

a11 + α b11 a12 + α b12 a13 + α b13 a11 a12 a13 b11 b12 b13
a21 a22 a23 = a21 a22 a23 + α a21 a22 a23
a31 a32 a33 a31 a32 a33 a31 a32 a33

a11 a12 a13 a11 a12 a13 a11 a12 a13


a21 + α b21 a22 + α b22 a23 + α b23 = a21 a22 a23 + α b21 b22 b23
a31 a32 a33 a31 a32 a33 a31 a32 a33
a11 a12 a13 a11 a12 a13 a11 a12 a13
a21 a22 a23 = a21 a22 a23 + α a21 a22 a23
a31 + α b31 a32 + α b32 a33 + α b33 a31 a32 a33 b31 b32 b33

4. el determinante 3 × 3 es una función alternada en sus filas; es decir, al intercambiar filas de la


matriz, el determinante cambia de signo:

a11 a12 a13 a21 a22 a23 a31 a32 a33 a11 a12 a13
a21 a22 a23 = − a11 a12 a13 = − a21 a22 a23 = − a31 a32 a33 . (4.4)
a31 a32 a33 a31 a32 a33 a11 a12 a13 a21 a22 a23
   
a11 a12 a13 a11 a21 a31
5. Cualquier A =  a21 a22 a23  y su traspuesta, At =  a12 a22 a32 , tienen el mismo
a31 a32 a33 a13 a23 a33
determinante: det A = det At .
Las propiedades que acabamos de enunciar para la función determinante definida sobre el conjunto sobre
M3×3 (K) las resumimos en el siguiente recuadro:

“la función determinantes de orden 3 es lineal en cada una de las filas, esto significa,
como en el caso de orden 2, que respeta tanto la multiplicación de escalares por filas,
como la adición de filas; también es alternada, es decir, al intercambiar dos de las
filas en la matriz, el determinante cambia de signo. Además, del hecho que una matriz
y su traspuesta tengan el mismo determinante, se tiene que las mismas propiedades
de linealidad y alternabilidad valen para las columnas”
38 4. Determinantes de orden n

Proposición 4.1. Para cualquier matriz A ∈ M3×3 (K) se cumplen:

1. Si A tiene una fila nula, entonces su determinante es 0.

2. Si A tiene al menos dos filas iguales, entonces su determinante es 0.

3. Si una de las filas de A es la suma de múltiplos de las otras dos filas, entonces det A = 0.

4. Si B es obtenida de A sustituyendo una de sus filas por la suma de esa fila y un múltiplo de otra
de sus filas, entonces det B = det A.

Demostración: 1. Si A tiene una fila nula, sigue inmediatamente de la fórmula (4.3) que det A = 0.
2. Supongamos, por ejemplo, que las filas iguales de A son la primera y la segunda. Sea B la matriz
obtenida de A intercambiando la primera y la segunda fila; obviamente B = A, y por la propiedad de
alternabilidad se tiene det A = − det A, de donde 2 det A = 0, y por tanto det A = 0.
3. Sin perder generalidad asumamos que la primera fila es la suma de múltiplos de la segunda y la tercera
fila; esto es,
(a11 , a12 , a13 ) = α(a21 , a22 , a23 ) + β(a31 , a32 , a33 ),

sigue entonces que

α a21 + β a31 α a22 + β a32 α a23 + β a33


det A = a21 a22 a23
a31 a32 a33
α a21 α a22 α a23 β a31 β a32 β a33
= a21 a22 a23 + a21 a22 a23 (¿por qué?)
a31 a32 a33 a31 a32 a33
a21 a22 a23 a31 a32 a33
= α a21 a22 a23 + β a21 a22 a23 = 0 + 0 = 0. (¿por qué?)
a31 a32 a33 a31 a32 a33

4. Sea B la matriz obtenida de A sustituyendo la primera fila por la suma de ella con un múltiplo de
otra de las filas de A, digamos la segunda, entonces

a11 + α a21 a12 + α a22 a13 + α a23


det B = a21 a22 a23
a31 a32 a33
a11 a12 a13 a21 a22 a23
= a21 a22 a23 + α a21 a22 a23 = det A (¿por qué?)
a31 a32 a33 a31 a32 a33

Luego la demostración de la proposición está completa.

• Operaciones elementales por filas y cálculo de determinantes

Las propiedades anteriores son bastantes útiles para realizar elcálculo del determinante de una matriz
por una vı́a distinta a la definición, este procedimiento se lleva a cabo empleando operaciones elemen-
tales por fila (¡y también por columna!). Primero mostraremos una propiedad interesante que tienen
4.2. Determinates: una definición recursiva 39

 
a11 a12 a13
las matrices triangulares. Recordemos que una matriz A = a21 a22 a23  es triangular superior si
a31 a32 a33
a21 = a31 = a32 = 0; y es triangular inferior si a12 = a13 = a23 = 0; esto es, son de la forma
   
a11 a12 a13 a11 0 0
 0 a22 a23  y a21 a22 0  , respectivamente.
0 0 a33 a31 a32 a33
Observe que
a11 a12 a13
a22 a23
0 a22 a23 = a11 = a11 a22 a33 ;
0 a33
0 0 a33
además, como una matriz y su traspuesta tienen el mismo determinante, entonces
a11 0 0 a11 a21 a31
a21 a22 0 = 0 a22 a32 = a11 a22 a33 ;
a31 a32 a33 0 0 a33
ası́, hemos demostrado el siguiente resultado:
Proposición 4.2. El determinante de una matriz triangular de orden 3 × 3 es el producto de los coefi-
cientes que están en la diagonal principal de dicha matriz.
Retornemos a las operaciones elementales por fila y el cálculo de determinantes de matrices de orden
3 × 3. Es bien conocido que las operaciones elementales por filas son de los siguientes tipos:
Tipo I Para cualquier i ∈ {1, 2, 3} y α 6= 0, podemos sustituir la fila i por el producto del escalar
α con ella misma; esto se denota por fi −→ α fi , lo cual significa que la fila i es sustituida α veces
la fila i.
   
2 1 0 f −→ 1 f 2 1 0 2 1 0 2 1 0
3 3
Ejemplo: 0 3 1 −−−−−2−→ 0 3 1. En consecuencia se tiene 0 3 1 = 2 0 3 1 ; o
0 0 2 0 0 1 0 0 2 0 0 1
2 1 0 2 1 0
equivalentemente 0 3 1 = 12 0 3 1 .
0 0 1 0 0 2

Tipo II Para cualquier par de ı́ndices i, j ∈ {1, 2, 3} con i 6= j, y cualquier escalara no nulo α,
fi −→ fi + α fj significa que la fila i es sustituida la suma de la fila i y α veces la fila j.
   
2 1 0 2 1 0
f2 −→f2 +2f3
Ejemplo: 0 3 1 −−−−−−−−→ 0 3 5. Haciendo uso de las propiedades anteriores se con-
0 0 2 0 0 2
2 1 0 2 1 0
cluye 0 3 1 = 0 3 5 .
0 0 2 0 0 2

Tipo III Cualesquiera sean los ı́ndices i, j ∈ {1, 2, 3} con i 6= j, el intercambio, o trasposición de
filas, denotada por fi ←→ fj , significa que la fila i y la fila j de la matriz se intercambian.
   
2 1 0 2 1 0 2 1 0 2 1 0
f2 ←→f3
Ejemplo: 0 3 1 −−−−−→ 0 0 2. Sigue por tanto que 0 3 1 = − 0 0 2 .
0 0 2 0 3 1 0 0 2 0 3 1
40 4. Determinantes de orden n

Veamos un ejemplo de como emplear las operaciones elementales por fila en el cálculo del determinante
de una matriz dada. Antes recordemos que mediante el uso de estas operaciones elementales siempre se
puede reducir una matriz cualquiera a una matriz triangular; o más precisamente a una forma escalonada.
Note que operaciones elementales del segundo tipo el valor del determinante no se altera.
 
0 1 3
Ejemplo 4.3. Calculemos el determinante de A =  0 1 −1 . Haciendo uso de las propiedades
2 1 4
anteriores tenemos que:

0 1 3 2 1 4 2 1 4
f1 ←→f3 f3 −→f3 −f2
0 1 −1 −−−−−→= − 0 1 −1 −−−−−−−→= − 0 1 −1 = −8.
2 1 4 0 1 3 0 0 4

• Regla de Sarrus
Es frecuente que ante una fórmula tan extensa para la determinación del determinante de una matriz
orden 3 × 3, ésta se olvide; por eso se empleen reglas nemotécnicas para obtener el determinante de
una matriz de orden 3 × 3; la más conocida es la denominada Regla de Sarrus. Esta regla se expresa
gráficamente en la siguiente figura. Allı́ se representa en el lado izquierdo los productos, siguiendo las
direcciones indicadas por las flechas, que tienen signo positivo; y en el lado derecho están señalados los
productos que tienen signo negativo en la fórmula (4.3).
PSfrag replacements

a11 a12 a13 a11 a12 a13

a21 a22 a23 a21 a22 a23

a31 a32 a33 a31 a32 a33

Figura 4.3: Regla de Sarrus para el cálculo del determinante de una matriz 3 × 3. Los productos indicados en el
gráfico de la izquierda tienen antepuesto el signo +, mientras que los de la derecha tienen el signo −.

4.3. Determinantes de orden superior: Propiedades


De acuerdo a la definición establecida para el determinante de cualquier matriz de orden n × n con
n ≥ 2; ver página 31; tenemos que si A = [aij ] ∈ Mn×n (K), entonces

det A = a11 det A11 − a21 det A21 + · · · + (−1)j+1 aj1 det Aj1 + · · · + (−1)n+1 an1 det An1 ; (4.5)

donde Aj1 (j = 1, · · · , n) es la matriz de orden (n − 1) × (n − 1) obtenida de A al eliminar la fila j y


la columna 1. Dado que ya conocemos una fórmula para el determinante de matrices 3 × 3, podemos
obtener la fórmula del determinante de una matriz de orden 4 × 4; y luego la fórmula del determinante
de matrices cuadradas de cualquier orden. Este es trabajo bastante difı́cil, aunque no imposible; de hecho
existen fórmulas que especifican el valor del determinante de una matriz de orden n × n cualquier sea el
4.3. Determinantes de orden superior: Propiedades 41

valor del entero positivo n. Una tal fórmula requiere del conocimiento de un objeto matemático conocido
como permutaciones, acá evitamos esa formulación; que en realidad es poco útil para realizar cálculos.
Sólo para percibir la dificultad, e inutilidad, de obtener la fórmula del determinante orden superior a
3, veamos como se puede obtener la fórmula del determinante de orden 4. Sabemos que la fórmula del
determinante de orden 3 × 3 contiene 6 sumando; cada uno de ellos (si se observa) es el producto de un
elemento en cada una de las filas de A:
a11 a12 a13
a21 a22 a23 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 ;
a31 a32 a33

a11 a12 a13 a14


 
a21 a22 a23 a24 
de esta forma, dado que el determinante de A = 
a31
 es, según (4.5), igual a:
a32 a33 a34 
a41 a42 a43 a44

a22 a23 a24 a12 a13 a14 a12 a13 a14 a12 a13 a14
det A = a11 a32 a33 a34 − a21 a32 a33 a34 + a31 a21 a22 a23 − a41 a21 a22 a23 .
a42 a43 a44 a42 a43 a44 a42 a43 a44 a32 a33 a34

Sigue por tanto que la fórmula del determinante de orden 4 × 4 tiene 6 · 4 = 24 (4!) sumandos; cada
uno de estos sumandos es el producto de un elemento en cada una de las filas de la matriz. De continuar
con este razonamiento concluiremos, usando inducción sobre el orden de la matriz, que la fórmula del
determinante de orden n × n tiene n! sumandos; donde cada sumando es el producto de un elemento en
cada una de las filas de la matriz; esto sin entrar en los detalles de descubrir el signo que precede a cada
uno de los sumandos en dicha fórmula. ¡Es una tarea ciertamente complicada!.
A pesar de no conocer una fórmula general, en términos de los coeficientes de la matriz, para el cálculo
del determinante de cualquier orden, aprenderemos a calcularlo a partir de propiedades generales y el uso
de operaciones elementales por fila y columna. Antes introducimos una definición.
Definición 4.2. Dada cualquier matriz A = [aij ] ∈ Mn×n (K), se conoce con el nombre de cofactor ij
de A al escalar cof A(i, j) = (−1)i+j det Aij , donde Aij es la matriz de orden (n − 1) × (n − 1) que se
obtiene de A al eliminar la fila i y la columna j.
 
1 i 0
Ejemplo 4.4. La matriz A =  2 1 −1  tiene 9 cofactores: cof A(i, j) con i, j = 1, 2, 3. En
0 −2 3
particular:

i 0 1 0
cof A(2, 1) = (−1)2+1 2 = −6i, y cof A(3, 2) = (−1)3+2 (−2) = −2.
−2 3 2 −1

Observe que haciendo uso de la fórmula recursiva (4.1) y esta definición de cofactor es simple deducir
que:
det A = a11 cof A(1, 1) + a21 cof A(2, 1) + · · · + an1 cof A(n, 1); (4.6)
esto es, el determinante de A = [aij ] ∈ Mn×n (K) es la suma de los productos de los coeficientes de la
primera columna de A por sus respectivos cofactores. Más tarde descubriremos que det A es también la
suma de los productos de los coeficientes de cualquier columna de A por sus respectivos cofactores, e
incluso igual a la suma de los productos de los coeficientes de cualquier fila de A por sus correspondientes
cofactores.
42 4. Determinantes de orden n

Teorema 4.1. Para cada n ≥ 1 siempre son válidas:


1. det In = 1, donde In es la matriz identidad de orden n.

2. Dada A ∈ Mn×n (K), si B ∈ Mn×n (K) se obtiene de A intercambiando dos de sus filas, entonces
fi ←→fj
det B = − det A (A −−−−−→ B).

3. Dada A ∈ Mn×n (K), si B ∈ Mn×n (K) se obtiene de A multiplicando una de sus filas por el escalar
f` −→α f`
α ∈ K, entonces det B = α det A (A −−−−−−→ B). Simbólicamente:

a11 ··· a1n a11 ··· a1n


.. .. .. .. .. ..
. . . . . .
α a`1 ··· α a`n = α a`1 ··· a`n .
.. .. .. .. .. ..
. . . . . .
an1 ··· ann an1 ··· ann

4. Dadas A ∈ Mn×n (K) y ` ∈ {1, · · · , n}, si las matrices B, C ∈ Mn×n (K) son tales que

B y C tienen las mismas filas de A, excepto posiblemente la fila `; y


la fila ` de C es la suma de la fila ` de A y la fila ` de B,

entonces det C = det A + det B. Esto es:


a11 ··· a1n a11 ··· a1n a11 ··· a1n
.. .. .. .. .. .. .. .. ..
. . . . . . . . .
a`1 + b`1 ··· a`n + b`n = a`1 ··· a`n + b`1 ··· b`n .
.. .. .. .. .. .. .. .. ..
. . . . . . . . .
an1 ··· ann an1 ··· ann an1 ··· ann

Demostración: Como se podrá observar, cada una de las partes del enunciado del teorema son propie-
dades válidas para la función determinante de orden n = 1, 2, 3. Por tanto, la demostración la haremos
por inducción sobre n.
Supongamos como hipótesis inductiva que los enunciados son ciertos para n = 1, 2, · · · , k − 1; demos-
traremos que también valen para n = k.
1. De la fórmula (4.6) tenemos que

det Ik = 1 · cof Ik (1, 1) + 0 · cof Ik (2, 1) + · · · + 0 · cof Ik (k, 1) = cof Ik (1, 1).

Pero cof Ik (1, 1) = (−1)1+1 det Ik−1 = 1.


2. Se deja como ejercicio para el lector.
3. Sean A = [aij ] y B = [bij ] ∈ Mk×k (K) como en el enunciado del teorema; esto es:

bij = aij siempre que i 6= `, y b`j = α a`j . (4.7)

Por definición tenemos que:

det B = b11 cof B(1, 1) + · · · + b`1 cof B(`, 1) + · · · + bk1 cof B(k, 1) (4.8)

Observe que la matriz B`1 , la obtenida de B al eliminar la fila ` y la columna 1, es igual a la matriz A`1 ;
por lo que cof B(`, 1) = cof A(`, 1). Por otra parte, para cada i ∈ {1, · · · , k} con i 6= `, la matriz B i1 ,
4.3. Determinantes de orden superior: Propiedades 43

obtenida de B eliminando la fila i y la columna 1, es idéntica a la matriz Ai1 , excepto que una de las filas
está multiplicada por el escalar α; por tanto, como Ai1 y Bi1 son de un orden (k − 1) × (k − 1), sigue de
la hipótesis inductiva que para cada i 6= ` se tiene det Bi1 = α det Ai1 ; en particular estas observaciones
implican cof B(i, 1) = α cof A(i, 1) para todo i 6= `.
De esta manera, al emplear las ecuaciones (4.7) y (4.8) se tiene

det B = a11 α cof A(1, 1) + · · · + α a`1 cof A(`, 1) + · · · + ak1 α cof A(k, 1)
= α(a11 cof A(1, 1) + · · · + a`1 cof A(`, 1) + · · · + ak1 cof A(k, 1)) = α det A.

4. Sean A = [aij ], B = [bij ] y C = [cij ] en Mk×k (K) y ` ∈ {1, · · · , k} como en el enunciado del teorema;
es decir, para cada i, j ∈ {1, · · · , k} se cumple:

bij = cij = aij siempre que i 6= ` y c`j = a`j + b`j . (4.9)

Note que la matriz C`1 , la obtenida de C eliminando la fila ` y la columna 1, es igual a A`1 = B`1 ; por
lo que cof C(`, 1) = cof A(`, 1) = cof B(`, 1). Además, para todo i ∈ {1, · · · , k} con i 6= ` las matrices,
(k − 1) × (k − 1), Ai1 , Bi1 y Ci1 satisfacen la hipótesis inductiva; luego para cada i 6= ` se tiene

det Ci1 = det Ai1 + det Bi1 y cof C(i, 1) = cof A(i, 1) + cof B(i, 1). (4.10)

Ası́, dado que det C = c11 cof C(1, 1) + · · · + c`1 cof C(`, 1) + · · · + ck1 cof C(k, 1), sigue de (4.9) y (4.10)
que det C = det A + det B.

Comentario 4.2. El resultado enunciado en el teorema que acabamos de demostrar dice de la función
determinante, det : Mn×n (K) → K, es igual a 1 en la matriz identidad, alternada (propiedad 2) y lineal
en cada una de las filas (propiedades 3 y 4). De hecho se puede demostrar que tal función de M n×n (K)
en K es la única que satisface estas propiedades. La demostración de esta última afirmación escapa al
nivel en que presentamos estas notas.

El siguiente corolario muestra otras propiedades adicionales de la función determinante que son con-
secuencia inmediata de las enunciadas en el teorema anterior.

Corolario 4.1. Dada cualquier matriz A ∈ Mn×n (K) se cumplen:

1. Si A tiene dos filas iguales, entonces det A = 0.

2. Si A tiene una fila nula, entonces det A = 0.

3. Si una de las filas de A es igual a la suma de múltiplos de otras de sus filas, entonces det A = 0.

4. Si la matriz B se obtiene de A sustituyendo cualquiera de sus filas por la suma de esa fila y un
fi −→fi +α fj
múltiplo de otra (A −−−−−−−−→ B), entonces det B = det A.

Demostración: Se deja como ejercicio para el lector.

Note que las partes 2 y 3 del teorema 4.1 y la última parte del corolario anterior establecen el efecto
sobre el determinante de una matriz cuadrada obtenida luego de aplicarle una operación elemental por
fila. Debido a su importancia lo escribimos de nuevo:
• Efecto de la operación elemental por fila del tipo I en el determinante:

fi −→α fi
A −−−−−−→ B =⇒ det B = α det A, con α 6= 0.
44 4. Determinantes de orden n

• Efecto de la operación elemental por fila del tipo II en el determinante:


fi −→fi +α fj
A −−−−−−−−→ B =⇒ det B = det A.
• Efecto de la operación elemental por fila del tipo III en el determinante:
fi ←→fj
A −−−−−→ B =⇒ det B = − det A.

4.3.1. Operaciones elementales por fila y cálculo de determinantes


Como se habrá podido notar, el cálculo del determinante de una matriz cuadrada de orden n > 3 se
va tornando cada vez más pesado. Este inconveniente obliga a estudiar métodos para minimizar estas
dificultades. Acá estudiaremos cómo empleo de las operaciones elementales por fila tal y como lo hicimos
para el cálculo de determinantes de matrices de orden 3 × 3.
Es bien conocido que toda matriz A ∈ Mn×m (K) puede reducirse mediante operaciones elementales
por fila a una matriz escalonada o escalonada reducida por filas. Recordemos que una matriz B = [b ij ]
en Mn×m (K) se dice escalonada siempre que satisfaga las siguientes condiciones:
1. las filas nulas de B ocupan las últimas posiciones,
2. si las filas no nulas de B son las primeras r, entonces para cada i ∈ {1, · · · , r} existe j i tal que:
2.1 1 ≤ j1 < · · · < jr ≤ m,
2.2 biji es el primer elemento no nulo de la fila i ∈ {1, · · · , r}; esto es, bij = 0 para todo 1 ≤ j < ji .
El elemento biji se conoce como pivote de la fila i; y
2.3 para todo k > i, bkji = 0; que es, debajo de los pivotes los elementos son de B son nulos.
La matriz B se dice escalonada reducida por filas, si: es escalonada, los elementos pivotes son todos iguales
a 1 y los coeficientes encima de los pivotes son todos nulos.
Tı́picamente una matriz escalonada es de la forma
 
0 · · · 0 b1j1 ∗ ∗ ∗ ··· ∗ ··· ∗
 0 ··· 0 0 · · · 0 b2j2 · · · ∗ ··· ∗ 
 
 . . . . . . . . . .. .. 
 .. .. .. .. .. .. .. .. .. . . 
 
 0 ··· 0 0 ··· 0 0 · · · brjr · · · ∗  ,
 
 0 ··· 0 0 ··· 0 0 ··· 0 ··· 0 
 
 .. .. .. .. .. .. .. .. .. .. .. 
 
 . . . . . . . . . . . 
0 ··· 0 0 ··· 0 0 ··· 0 ··· 0
donde lo señalado con * indica que tal posición puede estar ocupada por cualquier valor en K. Claramente
una matriz escalonada reducida por filas es de la forma
 
0 ··· 0 1 ∗ ∗ 0 ··· 0 ··· ∗
 0 ··· 0 0 ··· 0 1 ··· 0 ··· ∗ 
 
 . .. .. .. .. .. .. .. .. .. .. 
 .. . . . . . . . . . . 
 
 0 ··· 0 0 ··· 0 0 ··· 1 ··· ∗ .
 
 0 ··· 0 0 ··· 0 0 ··· 0 ··· 0 
 
 .. .. .. .. .. .. .. .. .. .. .. 
 
 . . . . . . . . . . . 
0 ··· 0 0 ··· 0 0 ··· 0 ··· 0
4.3. Determinantes de orden superior: Propiedades 45

Observe que si B es cuadrada y escalonada, entonces es una matriz triangular superior; además, si es
escalonada reducida por filas, entonces los elementos no nulos de la diagonal principal son todos iguales
a 1; en particular, si los todos los elementos de la diagonal principal son todos iguales a 1, entonces B es
la matriz identidad.
Es bien conocido que dada una matriz cuadrada A ∈ Mn×n (K), mediante una sucesión finita de
operaciones elementales por fila aplicadas sobre A, se obtiene una matriz triangular superior. Surge por
tanto la siguiente interrogante ¿cuál es la relación entre el determinante de A y el determinante de la
matriz triangular superior obtenida por este procedimiento?
Para dar respuesta a esta pregunta primero debemos conocer el valor del determinante de cualquier
matriz triangular superior. Ya hemos visto que para matriz triangulares de ordenes 2 × 2 y 3 × 3, su
determinante es justamente el producto de los coeficientes en la su diagonal principal. Esta es la propiedad
que queremos resaltar para matrices triangulares superiores de cualquier orden:
Teorema 4.2. Para cualquier matriz triangular superior A = [aij ] ∈ Mn×n (K) siempre se cumple que

a11 a12 ··· a1n


0 a22 ··· a2n
det A = .
.. .. .. .. = a11 a22 · · · ann .
. . .
0 0 ··· ann
Demostración: Sigue por inducción sobre el orden de la matriz. Se dejan los detalles al lector.

Al igual que con las matrices de ordenes 2 × 2 y 3 × 3, el determinante de matrices triangulares


inferiores de cualquier orden es también igual al producto de los coeficientes de la diagonal principal de la
matriz. Su demostración es muy simple, se obtiene por indución sobre el orden de la matriz y recurriendo
directamente a la definición recurrente de determinantes. Veamos, sea A = [aij ] ∈ Mn×n (K) una matriz
triangular inferior; esto es, todos los elementos por encima de la diagonal principal de A son iguales a 0:
aij = 0 para todo i < j. Al emplear la definición recursiva de determiantes tenemos

det A = a11 det A11 − a21 det A21 + · · · + (−1)n+1 det An1 ;

pero cada matriz Ai1 con i > 1 tiene la primera fila nula, por tanto su determinante es igual a 0; por otra
parte, la matriz A11 es también triangular inferior. Luego por inducción se concluye que el determinante
de A es el producto de los elementos en su diagonal principal; es decir:

a11 0 ··· 0
a21 a22 ··· 0
det A = . .. .. .. = a11 a22 · · · ann .
.. . . .
an1 an2 ··· ann
Antes de proseguir recuerde que operaciones elementales por filas del tipo II no alteran el valor del
determinante de la matriz obtenida luego de su aplicación.
En lo que sigue, si F es una secuencia finita de operaciones elementales por fila y A es una matriz
cualquiera, F(A) denotará la matriz obtenida de A al realizar tal secuencia de operaciones elementales.
Podemos ahora enunciar el siguiente teorema, cuya demostración es simple a partir del efecto que producen
las operaciones elementales por fila sobre el determinantes.
Teorema 4.3. Sean A ∈ Mn×n (K) y F es una secuencia finita de operaciones elementales por fila. Si en
F hay k intercambio de filas y ` operaciones elementales del tipo I, en las cuales intervienen los escalares
no nulos α1 , · · · , α` , entonces det A = (−1)k (α1 · · · α` )−1 det F(A).
46 4. Determinantes de orden n

2 1 3 −1
 
 0 1 −1 0 
Ejemplo 4.5. Calculemos el determinante de A =   1 2
.
1 1 
−1 2 1 −1
Haciendo uso de la obtención de una forma escalonada equivalente por filas a A y el efecto que producen
las operaciones elementales por filas, tenemos que:

1 2 1 1 1 2 1 1
f1 ↔f3 0 1 −1 0 f3 →f3 −2f1 0 1 −1 0
|A| −−−−→= − −−−−−−−→= −
2 1 3 −1 f4 →f4 +f1 0 −3 1 −3
−1 2 1 −1 0 4 2 0
1 2 1 1 1 2 1 1
f3 →f3 +3f2 0 1 −1 0 f4 →f4 +3f3 0 1 −1 0
−−−−−−−→= − −−−−−−−→= − = −18.
f4 →f4 −4f2 0 0 −2 −3 0 0 −2 −3
0 0 6 0 0 0 0 −9

Note que en general, si F es una secuencia finita cualquiera de operaciones elementales por fila,
entonces existe una constante β 6= 0 tal que, para cualquier matriz cuadrada apropiada A se cumple
det F(A) = β det A. De estas simples observaciones y el teorema 4.2 tenemos el siguiente resultado:

Teorema 4.4. Una matriz A ∈ Mn×n (K) es invertible si, y sólo si, det A 6= 0.

Demostración: Sabemos que una matriz A ∈ Mn×n (K) es invertible si, y sólo si, cualquier matriz
escalonada obtenida a partir de ella por operaciones elementales por fila tiene rango n. Pero una matriz
escalonada de orden n × n y con rango n es una matriz triangular superior con todas sus fila no nulas;
en particular, los coeficientes de su diagonal son todos diferentes de 0.
1 0 −1 3
 
 2 2 0 8 
Ejemplo 4.6. Determinemos si la matriz A =   es o no invertible; y en caso de serlo
 1 0 4 −1 
0 1 −5 1
calculemos su determinante. Para ello procedemos a reducir por filas a la matriz A.

1 0 −1 3 1 0 −1 3 1 0 −1 3
     
 2 2 0 8  f2 −→f2 −2f1  0 2 2 2  f3 −→f3 −f1  0 2 2 2 
 − −−−−−−−→  − −−−−−−→  
 1 0 4 −1   1 0 4 −1   0 0 5 −4 
0 1 −5 1 0 1 −5 1 0 1 −5 1
1 0 −1 3 1 0 −1 3
   
1 6
f4 −→f4 − 2 f2  0 2 2 2  4
 f −→f 4 + 5 3  0 2
f  2 2 
−−−−−−−−−→  −−−−−−−− −→  .
 0 0 5 −4  0 0 5 −4 
0 0 −6 0 0 0 0 − 245

De acá concluimos que A es invertible pues tiene rango 4; además, como las operaciones elementales
por fila empleadas fueron todas del tipo II, entonces det A = 1 · 2 · 5 · − 24
5 = −48. En la sección 4.4
aprenderemos a determinar la inversa de A empleando los cofactores de la matriz.

Observe que con este método se ha reducido sustancialmente el cálculo del determinante de la matriz
A; de haberlo efectuado siguiendo la definición recursiva, hubiesemos tenido que calcular cada uno de los
24 sumandos, con sus respectivos signos, que son el producto de un elemento por cada fila de A. Esta
diferencia es aún más notable cuando la matriz es de orden muy grande, pues al calcular el determinante
4.3. Determinantes de orden superior: Propiedades 47

por el desarrollo de cofactores se aumentarı́a considerablemente el número de operaciones a efectuar;


esto sin lugar a dudas requiere una importante inversión de tiempo, y de dinero si lo hacemos empleando
computadores. Ası́, la ventaja de utilizar operaciones elementales por fila para el cálculo de determinantes
es sencillamente obvia.

4.3.2. Más propiedades del determinante


Además de las propiedades (y sus consecuencias inmediatas) de linealidad en cada una de sus filas,
la alternabilidad y el hecho de que el determinante de cualquier matriz identidad sea 1; existen otras
importantes propiedades de la función determinante que son importantes conocer. En el siguiente teorema
se enuncian estas nuevas propiedades.
Teorema 4.5. Dadas matrices A, B ∈ Mn×n (K) siempre se cumplen:
1. det(AB) = det A det B.
2. det At = det A, donde At denota la matriz traspuesta de A.
3. Si A = [aij ], para cualquier i ∈ {1, · · · , n} vale

det A = (−1)i+1 ai1 det Ai1 + (−1)i+2 ai2 det Ai2 + · · · + (−1)i+n ain det Ain ;

fórmula conocida como desarrollo del determiante por medio de los cofactores de la fila i.
4. Si A = [aij ], para todo j ∈ {1, · · · , n} siempre se cumple

det A = (−1)j+1 a1j det A1j + (−1)j+2 a2j det A2j + · · · + (−1)j+n anj det Anj ;

que es el desarrollo del determiante por medio de los cofactores de la columna j.


La demostración que ofreceremoa de este teorema, que puede ser obviada en una primera lectura,
requiere del conocimiento de operaciones elementales por columnas, sus propiedades y relaciones con las
ya conocidas operaciones elementales por fila. Al igual que estas últimas, las operaciones elementales por
columna son de tres tipo:
Tipo I Sustituir una columna por el producto de ella y un escalar no nulo. Simbólicamente,
ci −→ α ci , lo cual significa que la columna i es sustituida α veces la columna i.
   
2 1 0 2 2 0
c −→2c2
Ejemplo: 0 3 1 −−2−−−−→ 0 6 1 .
0 0 2 0 0 2

Tipo II Sustituir una columna por la suma de ella con un múltiplo no nulo de otra columna de
la matriz. ci −→ ci + α cj significa que la columna i es sustituida la suma de la columna i y α veces
la columna j.
   
2 1 0 2 1 0
c2 −→c2 −3c3
Ejemplo: 0 3 1 −−−−−−−−→  0 0 1 .
0 0 2 0 −6 2

Tipo III Intercambio o trasposición de columnas, denotada por ci ←→ cj , significa que las
columnas i y j se intercambian.
   
2 1 0 2 0 1
c2 ←→c3
Ejemplo: 0 3 1 −−−−−→ 0 1 3.
0 0 2 0 2 0
48 4. Determinantes de orden n

De la misma forma que en el caso de operaciones elementales por fila, si C es una secuencia finita
de operaciones elementales por columna, entonces C(A) denota la matriz obtenida de A al realizar tales
operaciones elementales; al igual que en el caso de operaciones elementales por fila, existe una constante
γ 6= 0 tal que, para cualquier matriz cuadrada A se cumple det C(A) = γ det A.
Igualmente se puede mostrar que las operaciones elementales por columna definen una relación de
equivalencias; también pueden definirse formas escalonadas por columnas, formas escalonadas reducidas
por columnas, y una forma canónica de Gauss-Jordan por columnas. Dado que todo esto se hace se
manera similar a como fue hecho para operaciones elementales por filas, no entraremos en los detalles;
los cuales dejamos al lector.
El siguiente lema es fundamental para la demostración de la primera parte del teorema enunciado.

Lema 4.1. Sean A y B matrices cualesquiera de ordenes m × n y n × p respectivamente. Si F y C son


secuencias finitas de operaciones elementales por fila y columna, respectivamente, entonces:

1. F(AB) = F(A)B, y

2. C(AB) = AC(B).

Demostración: Daremos una demostración sobre para la primera parte; la segunda parte es semejante.
De hecho mostraremos la primera parte en el caso que F es una sóla operación elemental por fila; pues de
allı́ se concluye de forma muy simple la demostración cuando F es cualquier secuencia finita de operaciones
elementales por fila.
Si A = [aij ] ∈ Mm×n (K) y B = [bij ] ∈ Mn×p (K), entonces AB = [cij ] ∈ Mm×p (K), donde cada cij ,
con i ∈ {1, · · · , m} y j ∈ {1, · · · , p}, es dado por:

cij = ai1 b1j + ai2 b2j + · · · + ain bnj .

Supongamos inicialmente que F es fi ←→ fj . Luego F(AB) es la matriz obtenida de AB al inter-


cambiar sus filas i y j; esto es, la fila i de F(AB) es la n-upla (cj1 , cj2 , · · · , cjp ), mientras que la fila
j es (ci1 , ci2 , · · · , cip ), y las filas restantes son las mismas de AB. Por otra parte, la fila i de F(A) es
(aj1 , aj2 , · · · , ajp ), fila j es (ai1 , ai2 , · · · , aip ), y las restantes son las mismas de A. De acá que el coeficiente
k` de F(A)B con k ∈ / {i, j} sea ak1 b1` + ak2 b2` + · · · + akn bn` = ck` , en consecuencia la fila k (k ∈ / {i, j})
de F(A)B es la misma fila k de F(AB). Además, si k = i entonces es claro que el coeficiente k` de
F(A)B sea aj1 b1` + aj2 b2` + · · · + ajn bn` = cj` ; por lo que la fila i de F(A)B es la misma fila i de F(AB).
Similarmente se verifica que la fila j de F(A)B es la misma fila j de F(AB). Con esto se ha demostrado
que la parte del enunciado es cierto cuando F intercambia filas.
De manera análoga a la anterior se verifica la propiedad 1 del lema cuando F es cualquier operación
elemental por fila de los otros dos tipos. Se dejan los detalles al lector.

Demostración de la parte 1 del Teorema 4.5.


Sean F y C secuencias de operaciones elementales por fila y por columna, respectivamente, tales que
F(A) es escalonada reducida por filas y C(B) es escalonada reducida por columna; sean además, β, γ los
escalares no nulos que satisfacen det F(H) = β det H y det C(H) = γ det H para toda matriz cuadrada
H. Mostraremos el resultado para cada uno de los tres posibles casos:
Caso 1: A no invertible.
Bajo esta hipótesis es claro que F(A) tiene al menos una fila nula, por tanto det F(A) = 0 y en con-
secuencia det A = 0 y det A det B = 0. Por otra parte, dado que F(AB) = F(A)B, ver lema 4.1,
entonces F(AB) tiene al menos una fila nula, de allı́ que det F(AB) = 0 = β det(AB); sigue entonces
que det(AB) = 0 = det A det B.
4.3. Determinantes de orden superior: Propiedades 49

Caso 2: B no invertible.
La demostración en este caso es similar al anterior, pero ahora la matriz C(B) tiene al menos una columna
nula y C(AB) = A C(B).
Caso 3: A y B ambas invertibles.
En vista de que A y B son invertibles, F(A) = In = C(B). En particular esto implica que det A = β −1 .
Ahora bien, como F(AB) = F(A) B, entonces F(AB) = B y β det(AB) = det B; de donde se deduce
obviamente det(AB) = β −1 det B = det A det B.
1
Corolario 4.2. Si A ∈ Mn×n (K) es una matriz invertible, entonces det A−1 = .
det A
Demostración: Es inmediata a partir de: la parte 1 del teorema 4.5 que det In = 1, A−1 A = In y del
hecho que det A 6= 0.

Corolario 4.3. Si A1 , · · · , Ak ∈ Mn×n (K) son matrices cualesquiera, entonces se cumple la identidad
det(A1 · · · Ak ) = det A1 · · · det Ak . En particular el producto A1 · · · Ak es invertible si, y sólo si, cada una
de las matrices factores también lo es.
Demostración: Se hace por inducción sobre el entero positivo k; se dejan los detalles al lector.

Definición 4.3. Dos secuencias finitas F = oef (k) · · · oef (1) y C = oec(k) · · · oec(1) de operaciones
elementales por fila y columna, respectivamente, se dicen análogas, si para cada ` ∈ {1, · · · , k} se tiene
que oef (`) es fi ←→ fj (resp. fi −→ α fi , fi −→ fi + α fj ) si, y sólo si, oec(`) es ci ←→ cj (resp.
ci −→ α ci , ci −→ ci + α cj ).
Lema 4.2. Sea A ∈ Mn×n (K) una matriz cualquiera. Si F es una secuencia finita de operaciones ele-
mentales por fila tales que F(A) es triangular superior, entonces la secuencia análoga a F de operaciones
elementales por columna, C, hace que C(At ) sea triangular inferior y los elementos en su diagonal principal
son los mismos que en la diagonal principal de F(A).
Demostración: Se deja como ejercicio para el lector.

Lema 4.3. Sean A ∈ Mn×n (K) una matriz cualquiera, F una operación elemental por fila y C su
análoga por columna. Entonces C tiene el mismo efecto que F en el cálculo del determinante de A; esto
es, det C(A) = det F(A).
Demostración: Es simple verificar que cualquiera sea la operación elemental por fila F, y su corres-
pondiente análoga C, se cumplen F(A) = F(In ) A y C(A) = A C(In ). De acá que:
det F(A) = det F(In ) det A y det C(A) = det A det C(In ).
La matriz identidad es especial respecto de las operaciones elementales por fila y columna que se le
apliquen. Más explı́citamente, la matriz resultante al intercambiar dos de las filas de I n es el misma
que el intercambiar las correspondientes columnas; y la matriz que se obtiene al multiplicar una de las
filas de In por un escalar α 6= 0 es la misma que se obtiene al multiplicar la correspondiente columna
por el mismo escalar. Ası́ que si F es una de estas operaciones elementales por fila y C es su análoga
por columna, entonces F(In ) = C(In ); en particular det F(In ) = det C(In ). Por otro lado, si F es una
operación elemental por fila que sustituye una fila por la suma de ella más un múltiplo de otra, y si C
es su análoga por columna, entonces es simple chequear que C(In ) = [F(In )]t . Además, para este tipo de
operaciones elementales por fila, es fácil verificar que det[F(In )]t = 1 = det F(In ), entonces también se
tiene que det F(In ) = det C(In ).
Estas observaciones sobre el efecto de las operaciones elementales por fila y columna sobre I n junto
con las identidades de arriba implican el lema.
50 4. Determinantes de orden n

Comentario 4.3. Observe que el lema anterior junto con el teorema 4.1 (ver página 42) y el corolario
4.1 (ver página 43) nos dice que:
• Efecto de la operación elemental por columna del tipo I en el determinante:

c −→α c
i i
A −− −−−−→ B =⇒ det B = α det A, con α 6= 0.

• Efecto de la operación elemental por columna del tipo II en el determinante:

ci −→ci +α cj
A −−−−−−−−→ B =⇒ det B = det A.

• Efecto de la operación elemental por columna del tipo III en el determinante:

ci ←→cj
A −−−−−→ B =⇒ det B = − det A.

Demostración de la parte 2 del Teorema 4.5.


Sean F y C secuencias análogas de operaciones elementales por fila y columna tales que F(A) es triangular
superior y C(At ) es triangular inferior; ver lema anterior. Si en F y C hay m operaciones elementales del
tipo III y k del tipo I donde los escalares no nulos que intervienen son α1 , · · · , αk , entonces de los efectos
que tienen sobre el cálculo del determinante al aplicar operaciones elementales por fila o columna se tiene:

det A = (−1)m (α1 · · · αk )−1 det F(A) y det At = (−1)m (α1 · · · αk )−1 det C(At ).

Finalmente, dado que las matrices triangulares F(A) y C(At ) tienen la misma diagonal principal, sus
determinantes son iguales; esto obviamente implica que det A = det At .

Comentario 4.4. Haciendo uso entonces del hecho que el determinante de cualquier matriz cuadrada es
igual al determinante de su traspuesta, se deducen directamente las siguientes propiedades de linealidad
en cada una de las columnas de la matriz; ver partes 3 y 4 del teorema 4.1, donde se muestran las
correspondientes propiedades para las filas de la matriz:

a11 ··· α a1j ··· a1n a11 ··· a1j ··· a1n
a21 ··· α a2j ··· a2n a21 ··· a2j ··· a2n
1. .. .. .. .. .. = α .. .. .. .. .. para todo α 6= 0; y
. . . . . . . . . .
an1 ··· α anj ··· ann an1 ··· anj ··· ann

a11 ··· a1j + b1j ··· a1n a11 ··· a1j ··· a1n a11 ··· b1j ··· a1n
a21 ··· a2j + b2j ··· a2n a21 ··· a2j ··· a2n a21 ··· b2j ··· a2n
2. .. .. .. .. .. = .. .. .. .. .. + .. .. .. .. .. .
. . . . . . . . . . . . . . .
an1 ··· anj + bnj ··· ann an1 ··· anj ··· ann an1 ··· bnj ··· ann

Además, también se deducen del corolario 4.1:

1. Si A tiene dos columnas iguales, entonces det A = 0.

2. Si A tiene una columna nula, entonces det A = 0.

3. Si una de las columnas de A es igual a la suma de múltiplos de otras de sus columnas, entonces
det A = 0.
4.3. Determinantes de orden superior: Propiedades 51

1 1 1
Ejemplo 4.7. Vamos a calcular el determinante a b c el cual es conocido como determinante
a 2 b2 c2
de Vandermonde (ver sección de ejercicios propuestos). Haciendo uso de operaciones elementales por
columna tenemos:
1 1 1 1 0 0
c −→c −c
2 b−a c−a
a b c −− −−−2−−→
1
= a b−a c−a = 2 (¿por qué?)
c3 −→c3 −c1 b − a2 c2 − a 2
a2 b2 c2 a2 b2 − a 2 c2 − a 2
= (b − a)(c2 − a2 ) − (c − a)(b2 − a2 )
= (b − a)(c − a)(c − b).

Demostración de las partes 3 y 4 del Teorema 4.5.


Sabemos que: det A = det At y, por la definición 4.1,

det At = a11 det At11 − a12 det At21 + · · · + (−1)n+1 a1n det Atn1 ,

pues la primera columna de At es la primera fila de A. Por otra parte, es simple verificar que para todo
i, j en {1, · · · , n} se tiene Atij = Aji . Luego de la identidad anterior sigue que

det A = a11 det A11 − a12 det A12 + · · · + (−1)n+1 a1n det A1n ;

esto es, el determinante de A se obtiene también por el desarrollo de los cofactores de su primera fila.
Veamos que igualmente se obtiene por el desarrollo de los cofactores de cualquiera de sus otras filas. En
efecto, fijemos un ı́ndice de fila, digamos i ≥ 2, y sea B la matriz que se obtiene de A al realizar la
secuencia de operaciones elementales por fila:

fi ←→ fi−1 , fi−1 ←→ fi−2 , · · · , f2 ←→ f1 ;


 
ai1 ··· ain
 a11
 ··· a1n 

 . .. ..
 ..

 . . 

esto es, B = ai−11 ··· ai−1n . Es claro que det A = (−1)i−1 det B, pues se realizaron i − 1 cambio
 
ai+11 ··· ai+1n 
 
 .. .. .. 
 
 . . . 
an1 · · · ann
de filas. Al desarrollar el determinante de B por la primera fila tenemos:

det A = (−1)i−1 ai1 det B11 − ai2 det B12 + · · · + (−1)n+1 ain det B1n ,


pero (−1)i−1 = (−1)i+1 y B1j = Aij para todo j ∈ {1, · · · , n}, entonces de la anterior fórmula se obtiene

det A = (−1)i+1 ai1 det Ai1 + (−1)i+2 ai2 det Ai2 + · · · + (−1)i+n ain det Ain ,

que es justamente el desarrollo por cofactores de la fila i de A.


Finalmente, el desarrollo por cofactores de cualquiera de las columnas, digamos la j, de A es el
desarrollo por cofactores de la fila j de At . Como toda matriz cuadrada y su traspuesta tienen el mismo
determinante, entonces se concluye que el determiante de A también se obtiene mediante el desarrollo
por cofactores de cualquiera de sus columnas.
52 4. Determinantes de orden n

2 0 1 3

 2 3 1 2 
Ejemplo 4.8. Calculemos el determinante de la matriz A =   0 0 −1 4 . Observe que la segunda

0 0 0 2
columna de A es “casi nula”; por tanto procedemos a obtener det A a través del desarrollo por cofactores
de la segunda columna. Ası́:

2 0 1 3
2 1 3
2 3 1 2
= (−1)2+2 3 0 −1 4 = −12
0 0 −1 4
0 0 2
0 0 0 2

Observe que como la última fila es también casi nula, pero la matriz que resulta, al hacer el desarrollo
por cofactores de la última fila tendrı́amos:

2 0 1 3
2 0 1
2 3 1 2 2 0
= (−1)4+4 2 2 3 1 = 2 (−1)3+3 (−1) = −12.
0 0 −1 4 2 3
0 0 −1
0 0 0 2

4.4. Algunas aplicaciones de los determinantes


Trataremos en esta sección tres tópicos que son considerados clásicos: el primero de ellos corresponde
a un método para resolver sistemas de n ecuaciones lineales con n incognitas: Regla de Cramer; el segundo
es un método que permite obtener la inversa de matrices invertibles a partir de la adjunta clásica y el
desarrollo de determinantes por cofactores; finalmente estudiaremos la relación que existe entre el rango
de un matriz y los determinantes; se trata sobre un aporte teórico en la dirección de obtener el rango de
matrices, vale mencionar que no es muy útil para efectos prácticos; por tanto pueden ser obviados en una
primera lectura.

4.4.1. Regla de Cramer


Hacia finales del siglo XVII Leibniz mostró en una de sus publicaciones el método que en la actualidad
se conoce con el nombre de Regla de Cramer. No obstante, no es sino hasta 1750 cuando Gabriel Cramer
6
dió un método general para encontrar la solución única de sistemas de ecuaciones lineales compatibles
determinados con igual número de ecuaciones que de incógnitas. Esto surgió motivado por el problema
de encontrar la ecuación de curvas algebraicas planas a partir de un conjunto finito de puntos por donde
tal curva pasa.
Comenzamos considerando una matriz A invertible de orden n×n con coeficientes en K. Como sabemos
esta condición sobre A equivalente a det A 6= 0, y también a que el sistema de ecuaciones lineales AX = B
tiene solución única cualquiera sea B ∈ Mn×1 (K). El objetivo de la denominada Regla de Cramer es dar
una fórmula explı́cita a cada una de las componentes de la solución del sistema de ecuaciones lineales
AX = B.
6 Matemático suizo (1704-1752). Además de sus labores de enseñanza, Cramer produjo artı́culos de interés considerable,

los cuales cubrı́an una gran variedad de temas, entre ellos el estudio de problemas geométricos, historia de la matemática y
filosofı́a. Su trabajo no se limitó a áreas académicas, también laboró en la administración municipal; en cual se destacó uti-
lizando su amplio conocimiento matemático y cientı́fico. Una de las áreas de mayor destaque en el quehacer matemático de
Cramer se debe al trabajo editorial que publicó en 1750, en el que trató el estudio de las curvas algebraicas.
4.4. Algunas aplicaciones de los determinantes 53

a11 a12 ··· a1n b1


   
 a21 a22 ··· a2n   b2 
Dadas A =  yB= ; denotamos por A(j; b) la matriz de orden n × n
   
.. .. .. .. ..
 . . . .   . 
an1 an2 · · · ann bn
que se obtiene de A sustituyendo la columna j por el vector b; esto es,

a11 ··· a1j−1 b1 a1j+1 ··· a1n


 
 a21 ··· a2j−1 b2 a2j+1 ··· a2n 
A(j; b) =  . ..  .
 
.. .. .. .. ..
 .. . . . . . . 
an1 ··· anj−1 bn anj+1 ··· ann

El enunciado preciso del teorema que demostraremos es el siguiente:

Teorema 4.6 (Regla de Cramer). Las coordenadas de la solución del sistema de ecuaciones lineales
det A(j; b)
AX = B son dadas, para cada j = 1, · · · , n, por xj = .
det A
 
x1
(1) (n)  .. 
Demostración: Sean A , · · · , A las columnas de la matriz A, y X =  .  la solución del sistema
xn
de ecuaciones lineales AX = B. Una simple cuenta muestra que B = x1 A + · · · + xn A(n) . Para cada
(1)

i = 1 · · · , n, sea Bi la matriz cuyas columnas son:

A(1) , · · · , A(j−1) , xi A(i) , A(j) , · · · , A(n) .


(
0, si i 6= j
Sigue de las propiedades enunciadas en el comentario 4.4, ver página 50, que det B i = .
xj det A, si i = j
Por otra parte, usando de nuevo las propiedades en el comentario 4.4 se deduce

det A(j; b) = det B1 + · · · + det Bj−1 + det Bj + det Bj+1 + · · · + det Bn = xj det A;

det A(j; b)
de donde xj = , para cada j = 1, · · · , n. Por tanto la demostración está completa.
det A

Ejemplo 4.9. Consideremos el sistema de ecuaciones lineales AX = B donde:


   
1 2 3 2
A= 1 0 1  y b =  3 .
1 1 −1 1

Examinemos si es posible resolver tal sistema empleando la Regla de Cramer. El primer paso es averiguar
si la matriz A es invertible; esto es, si su determinante es diferente de 0:

1 2 3 1 2 3 f −→ 1 f 1 2 3 1 2 3
f3 −→f3 −f1 2 2 f3 −→f3 +f2
1 0 1 −−−−−−−→= 0 −2 −2 −−−−−2−→= −2 0 1 1 −−−−−−−→= −2 0 1 1 = 6;
f2 −→f2 −f1
1 1 −1 0 −1 −4 0 −1 −4 0 0 −3

luego det A 6= 0 y por tanto podemos utilizar la regla de Cramer pues el sistema AX = B tiene solución
54 4. Determinantes de orden n

única. Ahora bien, dado que

2 2 3 1 1 −1 1 1 −1
f3 ←→f1 f2 −→f2 −3f1
det A(1; b) = 3 0 1 −−−−−→= − 3 0 1 −−−−−−−−→= − 0 −3 4 = 15
f3 −→f3 −2f1
1 1 −1 2 2 3 0 0 5
1 2 3 1 2 3 1 2 3
f2 −→f2 −f1 f3 −→f3 −f2
det A(2; b) = 1 3 1 −−−−−−−→= 0 1 2 −−−−−−−→= 0 1 2 = −6, y
f3 −→f3 −f1
1 1 −1 0 1 −4 0 0 −6
1 2 2 1 2 2
f2 −→f2 −f1 −2 1
det A(3; b) = 1 0 3 −−−−−−−→= 0 −2 1 = = 3,
f3 −→f3 −f1 −1 −1
1 1 1 0 −1 −1

tenemos por la regla de Cramer que:

det A(1; b) 5 det A(2; b) det A(3; b) 1


x1 = = , x2 = = −1, y x3 = = ,
det A 2 det A det A 2
 5 
2
de donde X =  −1  es la solución del sistema AX = B.
1
2

4.4.2. Adjunta clásica e inversión de matrices


Sea A = [aij ] ∈ Mn×n (K). Recordamos que cualesquiera sean los ı́ndices i, j ∈ {1, · · · , n}, Aij denota
la matriz cuadrada de orden (n − 1) × (n − 1) obtenida de A suprimiendo la fila i y la columna j; y que
el cofactor ij de A es el escalar cof A(i, j) = (−1)i+j det Aij . Se acostumbra denominar ij-ésimo menor
de A al determinante det Aij .

Definición 4.4. Dada una matriz A ∈ Mn×n (K), se denominada adjunta clásica de A, a la matriz
Adj(A) = [bij ] ∈ Mn×n (K) tal que bij = (−1)i+j det(Aji ), para cada i, j ∈ {1, · · · , n}. Es decir, Adj(A)
es la traspuesta de la matriz de los cofactores de A.

2 1 −2
 

Ejemplo 4.10. Consideremos la matriz A =  1 −1 2 , veamos su adjunta clásica. Un simple


3 1 1
cálculo nos muestra que:

−1 2 1 2 1 −1
cof A(1, 1) = = −3, cof A(1, 2) = − = 5, cof A(1, 3) = = 4,
1 1 3 1 3 1
1 −2 2 −2 2 1
cof A(2, 1) = − = −3, cof A(2, 2) = = 8, cof A(2, 3) = − = 1,
1 1 3 1 3 1
1 −2 2 −2 2 1
cof A(3, 1) = = 0, cof A(3, 2) = − = −6, cof A(3, 3) = = −3,
−1 2 1 2 1 −1

−3 −3
 
0
en consecuencia la adjunta clásica de A es Adj(A) =  5 8 −6 .
4 1 −3

Una importante identidad que permite relacionar una matriz con su adjunta clásica es dada por:
4.4. Algunas aplicaciones de los determinantes 55

Proposición 4.3. Si A = [aij ] ∈ Mn×n (K), entonces para todo i, j = 1, · · · , n siempre se cumple
n
X
(−1)j+k aik det Ajk = δij det A, (4.11)
k=1
(
1, si i = j
donde δij es el delta de Kronecker, esto es, δij =
0, si i 6= j.

Demostración: Note que al considerar i = j en la ecuación (4.11) lo que se tiene es justamente la


fórmula del determinante por el desarrollo de la i-ésima fila de A; luego (4.11) es obviamente verdadera
en este caso. Supongamos entonces que i 6= j. Sea B la matriz cuyas columnas son las mismas de A,
excepto la columna j que es la misma columna i de A; como B tiene dos columnas iguales, entonces es
claro que det B = 0. Por otra parte, al desarrollar el determinante de B por la i-ésima fila resulta que
Pn
det B = k=1 (−1)j+k aik det Ajk , con lo cual queda demostrada la proposición.

Corolario 4.4. Toda matriz A ∈ Mn×n (K) satisface A Adj(A) = det A In . En particular, si A es inver-
1
tible, entonces A−1 = Adj(A).
det(A)
Demostración: Para demostrar la identidad señalada basta verificar que si A Adj(A) = [c ij ], entonces
(
det A, si i = j
cij = . Ahora bien, de la definición de multiplicación de matrices sigue inmediata-
0, si i 6= j
n
X
mente que, cualesquiera sean los ı́ndices i, j ∈ {1, · · · , n}, cij = (−1)j+k aik det(Ajk ). Por tanto de la
k=1
identidad (4.11) se concluye que A Adj(A) = det A In .
Finalmente,
 supongamos  que la matriz A es invertible. Dado que A Adj(A) = det A I n y det A 6= 0,
1 1
entonces A Adj(A) = In ; por lo que A−1 = Adj(A)
det A det A

2 1 −2
 

Ejemplo 4.11. Consideremos la matriz A =  1 −1 2  del ejemplo anterior; sabemos que su


3 1 1
−3 −3
 
0
adjunta clásica es Adj(A) =  5 8 −6 . Por otro lado, como A es invertible pues
4 1 −3

2 1 −2 1 −1 2 1 −1 2
3 −6
1 −1 2 =− 2 1 −2 =− 0 3 −6 =− = −9;
4 −5
3 1 1 3 1 1 0 4 −5

−3 −3
 
0
1
entonces A−1 =− 5 8 −6 .
9
4 1 −3

4.4.3. Determinación del rango de una matriz


Es bien conocido que para cualquier matriz A ∈ Mm×n (K), su rango es el número de filas no nulas
de cualquier forma escalonada equivalente por filas a A; igualmente, al usar operaciones elementales por
columnas se concluye que el rango de A también es igual al número de columnas no nulas de cualquier
56 4. Determinantes de orden n

forma escalonada por columnas equivalente a A. Presentaremos ahora otra forma de obtener el rango de
una matriz, este método está relacionado con los determinantes de ciertas submatrices de A.
Definición 4.5. Sea A ∈ Mm×n (K). Dados dos subconjuntos F = {i1 < · · · < ir } ⊂ {1, · · · , m} y
C = {j1 < · · · < js } ⊂ {1, · · · , n}, se define la submatriz de A de ı́ndices F y C, como la matriz
AF C ∈ Mr×s (K) obtenida de la matriz A suprimiendo las filas y columnas cuyos ı́ndices no están en los
conjuntos F y C, respectivamente.
1 2 −1 1 0 1
 

Ejemplo 4.12. Consideremos la matriz A =  −2 0 1 1 −1 2 ; si hacemos F = {1, 3} y


−4 4 1 5 −3 8
 
1 −1 1 0
C = {1, 3, 4, 5}, entonces AF C = .
−4 1 5 −3
Teorema 4.7. Dada A ∈ Mm×n (K) no nula, su rango es el mayor entero positivo r tal que A tiene una
submatriz AF C ∈ Mr×r (K) con det AF C 6= 0.
Demostración: Sean r ≥ 1 el rango de A y F la secuencia finita de operaciones elementales por fila
tales que F(A) es la forma canónica de Gauss-Jordan de A; es decir
 
0 ··· 0 1 ∗ ∗ 0 ··· 0 ··· ∗
 0 ··· 0 0 ··· 0 1 ··· 0 ··· ∗
 

 .. .. .. .. .. .. .. .. .. .. ..
 

 . . . . . . . . . . . 
 
F(A) =  0 ··· 0 0 ··· 0 0 ··· 1 ··· ∗
,

 
 0 ··· 0 0 · · · 0 0 · ·· 0 ··· 0 
 .. .. .. .. .. .. .. .. .. .. ..
 

 . . . . . . . . . . . 
0 ··· 0 0 ··· 0 0 ··· 0 ··· 0

claramente F(A) es escalonada reducida por filas y tiene exactamente r filas no nulas.
En A hay r filas que luego de aplicar la secuencia F producen las primeras r filas de F(A). Sean
1 ≤ i1 < · · · < ir ≤ m los ı́ndices de tales filas de A; y sean 1 ≤ j1 < · · · < jr ≤ n los ı́ndices de las
columnas de A (¡y de F(A)!) donde están los pivotes 1 de F(A). Ahora considere los conjuntos de
ı́ndices F = {i1 , · · · , ir } y C = {j1 , · · · , jr }. Note que las filas de la matriz AF C ∈ Mr×r (K) son parte
de las filas que producen las filas no nulas de la forma canónica de Gauss-Jordan de A; igualmente sus
columnas son justamente las columnas de esa forma canónica donde están sus pivotes; por tal motivo
F(AF C ) es la matriz identidad de orden r, por tanto det AF C 6= 0.
Por otro parte, si F 0 y C 0 son conjuntos de ı́ndices tales que AF 0 C 0 es de orden k×k con k > r, entonces
empleando los mismos argumentos anteriores se concluye que su forma canónica de Gauss-Jordan tiene
al menos una fila nula, de lo contrario el rango de A serı́a mayor que r; ası́ det A F 0 C 0 = 0.
De esta forma, el orden de la mayor submatriz de A cuyo determinante es diferente de 0 es r × r.

Ejemplo 4.13. El teorema que acabamos de demostrar es una herramienta meramente teórica, es bastan-
te inadecuado para fines prácticos. Veamos a través de un ejemplo la razón de esta afirmación. Considere-
1 2 −1 1
 
0 1
mos la matriz A =  −2 0 1 1 −1 2  del ejemplo anterior. Empleando operaciones elementales
−4 4 1 5 −3 8
por filas es muy simple verificar que A tiene rango 2. Sin embargo, al emplear el resultado anterior para
realizar esta verificación, tendrı́amos que verificar que las matrices A F C tienen determinante nulo, siem-
pre que los subconjuntos de ı́ndices F y C tengan ambos 3 elementos; es decir, cuando F = {1, 2, 3} y C es
4.5. Ejercicios Propuestos 57

cualquiera de los conjuntos {1, 2, 3}, {1, 2, 4}, {1, 2, 5}, {1, 2, 6}, {1, 3, 4}, {1, 3, 5}, {1, 3, 6}, {1, 4, 5}{1, 4, 6},
{1, 5, 6}, {2, 3, 4}, {2, 3, 5}, {2, 3, 6}, {2, 4, 5}, {2, 4, 6}, {3, 4, 5}, {3, 4, 6}, {3, 5, 6} y {4, 5, 6}; además de en-
contrar un par de conjunto de subı́ndices F y C con cardinalidad 2 cada uno de ellos, tales que
det AF C 6= 0.

4.5. Ejercicios Propuestos


1. Calcular el determinante de cada una de las siguientes matrices:

−i 1 − i
     
      2 0 a b 1 1 1
1 + i 2i a b 1 1
, , ,  −i −2 0  ,  −a 0 c , a b c .
2 − i −1 −b a a b
2+i 0 3i −b −c 0 a2 b2 c2

2. Demostrar que si A es una matriz de orden 2×2 (o 3×3) tiene determinante diferente de 0, entonces
A es invertible. ¿Es cierto el recı́proco?

3. Determine los valores de x para los cuales las siguientes matrices son invertibles:
 
      2 1 0
12 − x 4 2x 4 2x 4
, , y 1 x 1 .
8 8−x x 2 x 1
1 1−x 1−x

4. ¿Es cierto que si A y B son matrices 2 × 2 (o 3 × 3), entonces det(α A + β B) = α det A + β det B?

y+z x+z x+y


5. Demostrar mediante operaciones elementales por filas, o columnas, que x y z = 0.
1 1 1

6. a) Demostrar que si A es una matriz 2 × 2 y α es un escalar, entonces det(α A) = α 2 det A.


b) Demostrar que si A es una matriz 3 × 3 y α es un escalar, entonces det(α A) = α 3 det A.
 
a11 a12 a13
a22 a23 a a23 a a22
7. Dada A = a21
 a22 a23  demostrar que det A = a11 − a12 21 + a13 21 .
a32 a33 a31 a33 a31 a32
a31 a32 a33

8. Verificar que la ecuación de la recta en R2 que pasa por los puntos (x1 , y1 ) y (x2 , y2 ) con x1 6= x2
1 1 1
es expresada mediante el determinante x x1 x2 . Recordar que la recta de R2 que pasa por los
y y 1 y2
puntos (x1 , y1 ) y (x2 , y2 ) es el conjunto de puntos (x, y) tales que (x2 −x1 )(y −y1 ) = (y2 −y1 )(x−x1 )

9. Dados →−
x = (x1 , x2 , x3 ) y →
−y = (y1 , y2 , y3 ) en R3 , se define el producto cruz de →

x y→−
y como el vector
 
x x x x x x
de R3 →−
x ×→ −
y = 2 3
,− 1 3
, 1 2
. Demostrar que → −
x ×→ −
y es ortogonal a →
−x y→−
y.
y2 y3 y1 y3 y1 y2


e1 →−e2 →−
e3

− →
− →
− →
− →

¿Es x × y = y × x ? Es común encontrar en la literatura la notación x × y = x1 x2 x3 ; →

y1 y2 y3
esto debido a la fórmula del desarrollo del determinante por la primera fila.

10. Demostrar cada una de las siguientes proposiciones:


58 4. Determinantes de orden n

a) Si A y B son matrices 2 × 2, entonces det(AB) = det A det B.


b) Si A es una matriz 2 × 2 invertible, entonces det A−1 = (det A)−1 .
c) Sean A y B matrices 2 × 2. Se dice que A y B son similares si existe una matriz P invertible
tal que A = P B P −1 . Demostrar si A y B son matrices similares, entonces det A = det B.
11. Sean f11 , f12 , f21 , f22 : R → R funciones diferenciables. Se define la función F : R → R mediante
f (x) f12 (x)
F (x) = 11 para cada x ∈ R. Demostrar que
f21 (x) f22 (x)
0 0
f11 (x) f12 (x) f (x) f12 (x)
F 0 (x) = + 11
0 0 para cada x ∈ R.
f21 (x) f22 (x) f21 (x) f22 (x)

f11 (x) f12 (x) f13 (x)


Obtener una fórmula semejante si F (x) = f21 (x) f22 (x) f23 (x) .
f31 (x) f32 (x) f33 (x)
12. Utilizando operaciones elementales por fila, operaciones elementales por columna, desarrollos por
cofactores de fila o de columna, calcule el determinante de las siguientes matrices:
3 −1 −1 0 2 1 1 5 1 2 1 1
     
2 1 −1
 
 1 −2 −1 1   1 1 −4 −1 
 y  −1 1 0 1 

 −2 3 0 , ,
 2 0 0 −1  .

 −1 2 1 1   2 0 −3 1 
1 0 1
0 2 −1 0 3 6 1 0 0 1 1 1

13. Sea A un matriz antisimétrica de orden n × n; esto es, A = −At . Demuestre que para cualquier
matriz antisimétrica vale det A = (−1)n det A. Deducir de acá que si n es impar, entonces A es no
invertible
14. Demostrara que si A ∈ Mn×n (K), entonces det(αA) = αn det A para cualquier escalar α ∈ K.
15. Una matriz A ∈ Mn×n (R) se dice ortogonal si AAt = In . Demostrar que si A es ortogonal, entonces
det A = ±1.
16. Una matriz A ∈ Mn×n (C) se dice unitaria si AA∗ = In , donde A∗ = At , la traspuesta de su
conjugada. Demostrar que si A es unitaria, entonces | det A| = 1. (Sugerencia: Mostrar primero que
det A = det A. Recuerde
p que para un número complejo z = x + iy, su conjugado es z = x − iy y su
módulo es |z| = x + y 2 .)
2

17. Dos matrices cuadradas A y B, ambas del mismo orden, se dicen similares si existe una matriz
invertible P tal que A = P B P −1 . Demostrar que matrices similares tienen el mismo determinante.
18. Dadas matrices B ∈ Mr×r (K), C ∈ Mr×(n−r) (K), O ∈ M(n−r)×r (K) (la matriz nula de orden
 
B C
(n − r) × r) y D ∈ M(n−r)×(n−r) (K). Si A es la matriz por bloques A = , demostrar que
O D
det A = det B det D.
19. Para cada i = 1, · · · , r, sea Ai una matriz cuadrada
 de orden mi . Demostrar
 que el determinan-
A1 O ··· O O
 O A
 2 ··· O O  
 . . .. .. .. 
te de la matriz diagonal por bloques A =  ..  .. . . .  es el producto de los

 O O · · · Ar−1 O 
 
O O ··· O Ar
4.5. Ejercicios Propuestos 59

determinantes de las matrices A1 , · · · , Ar .

0 0 0 a14
 
 0 0 a23 a24 
20. Calcule el determinante de la matriz  0 a32
 . Generalize el resultado para matrices
a33 a34 
a41 a42 a43 a44
de orden n × n.
 
1 1 1 ··· 1

 x0 x1 x2 ··· xn 

x20 x21 x22 ··· x2n
 
21. Se conoce como Matriz de Vandermonde de orden n a la matriz   , de-
 .. .. .. .. .. 
. . . . .
 
 
xn0 xn1 xn2 ··· xnn
Y
muestre que su determinante es igual al producto (xi − xj ).
i>j

La matriz de Vandermonde aparece como la traspuesta de la matriz del sistema lineal que se obtiene
del siguiente problema: Dados n + 1 pares de (x0 , y0 ), · · · , (xn , yn ) en R2 , encontrar un polinomio
p(x) = a0 + a1 x + · · · + an xn tal que p(xi ) = yi para todo i = 0, · · · , n. Este es un problema clásico
de interpolación. ¿Cuándo existe un único polinomio que interpole los puntos dados?

22. Generalizar el ejercicio 11.

23. Utilice
 la Regla de Cramer para resolver
 los sistemas de ecuaciones lineales
 dados a continuación:
 2x − y + 3z = 1  2x + y − 3z = 1  x − y + 4z = −4
a) 3x + 2y − z = 0 b) x − 2y + z = 0 c) −8x + 3y + z = 0
x + 4y + z = 6 3x + 4y − 2z = −5 2x − y + z = 8
  

24. Encontrar la adjunta clásica de las siguientes matrices; en el caso de que alguna de ellas sea invertible,
determine su inversa.
−2 0 1 −2 0 1 −2 1
     
4
a)  0 4 1  b)  −3 2 1  c)  2 2 −1 
0 1 5 −1 2 1 3 0 0
−1 1−i
     
7 1 4 4 1 0 0
d)  −3 5 −2  e)  −2 3 2  f)  4 3i 1 
6 −3 0 6 0 3 2i 1 − 4i −1
cos θ 0 − sen θ
     
1 √1 1√ 1 0 0
g)  0 i 2 −i 2  h)  1 1 0  i)  0 1 0 .
1 −1 1 1 1 1 sen θ 0 cos θ

25. Invertir las matrices An (n ≥ 3) que a continuación se definen:  


1 1 0 ··· 0 0
1 1 0 0
 

1 1 0
 0 1 1 · · · 0 0 
 0 1 1 0   
a) A3 =  0 1 1  b) A4 =  c) A = . . . . . . . . . . . . . . . . . . . .
 
n
 
0 0 1 1 
 
1 0 1 0 0 0 · · · 1 1 
 
1 0 0 1
1 0 0 ··· 0 1

26. Demostrar que para cualquier matriz A ∈ Mn×n (K) se cumplen:


a) det(Adj(A)) = (det A)n−1 b) Adj(At ) = (Adj(A))t .

También podría gustarte