Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Fasciculo 3
Fasciculo 3
Tercer Fascı́culo:
Neptalı́ Romero
Universidad Centroccidental Lisandro Alvarado
Decanato de Ciencias y Tecnologı́a
Unidad de Investigación en Ciencias Matemáticas
Departamento de Matemáticas
Abril, 2006
Índice general
4. Determinantes de orden n 30
4.1. Nota histórica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2. Determinates: una definición recursiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2.1. Determinates de matrices 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2.2. Determinante de matrices 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3. Determinantes de orden superior: Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3.1. Operaciones elementales por fila y cálculo de determinantes . . . . . . . . . . . . . 44
4.3.2. Más propiedades del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4. Algunas aplicaciones de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4.1. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4.2. Adjunta clásica e inversión de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.4.3. Determinación del rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 55
4.5. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2
3
Sistemas de Ecuaciones Lineales
lo que en términos modernos escribimos x + 17 x = 24, donde x (la incógnita) representa el “montón”.
Los antiguos griegos también tuvieron conocimiento de los sistemas de ecuaciones lineales. Thymaridas
de Paros (400 AC - 350 AC) fue uno de los Pitagóricos que además de ser un teórico de los números
primos, encontró una solución general de un tipo de sistemas de ecuaciones lineales conocidas como la flor
de Thymaridas, ver http://www-groups.dcs.st-and.ac.uk/∼history/Mathematicians/Thymaridas.html.
Diofanto de Alejandrı́a 1 conocido como el padre del Álgebra; es mejor conocido por su “Arithmeti-
ca”, un trabajo sobre soluciones de ecuaciones algebraicas y la teorı́a de números; allı́ resuelve proble-
mas relativos a sistemas de ecuaciones los cuales transformaba en una ecuación lineal; ver el sitio web
http://www-groups.dcs.st-and.ac.uk/∼history/Mathematicians/Diophantus.html.
1 Poco se conoce sobre la vida de Diofanto, salvo la edad a la que falleció, gracias al siguiente epitafio redactado en
forma de problema y conservado en la antologı́a griega: “Transeúnte, esta es la tumba de Diofanto: es él quien con esta
sorprendente distribución te dice el número de años que vivió. Su niñez ocupó la sexta parte de su vida; después, durante
la doceava parte su mejilla se cubrió con el primer bozo. Pasó aún una séptima parte de su vida antes de tomar esposa y,
cinco años después, tuvo un precioso niño que, una vez alcanzada la mitad de la edad de su padre, pereció de una muerte
desgraciada. Su padre tuvo que sobrevivirle, llorándole, durante cuatro años. De todo esto se deduce su edad”.
3
4 3. Sistemas de Ecuaciones Lineales
Los sistemas de ecuaciones lineales también están presentes en varios documentos indios. Sin embargo,
no son conocido métodos generales para su resolución; de hecho tales documentos revelan soluciones para
algunas clases especiales de sistemas de ecuaciones lineales.
El libro chino “El arte matemático”, de autor desconocido y que data del siglo III AC, contiene algunos
problemas donde se resuelven sistemas de ecuaciones lineales. En los métodos empleados allı́ se expone
de manera rudimentaria un tratamiento matricial para resolver ese tipo de problemas. Justamente este
método (depurado y con lenguaje moderno) de resolución de los sistemas de ecuaciones lineales constituye
una buena parte del objetivo de esta parte del texto, el cual incluye el denominado método de reducción
de Gauss-Jordan.
Definición 3.1. Una ecuación lineal con n incógnitas y coeficientes en K, es cualquier expresión del tipo
a1 x1 + a2 x2 + · · · + an xn = b, (3.1)
Definición 3.2. Una solución de la ecuación lineal (3.1) es cualquier n-úpla2 (t1 , · · · , tn ) ∈ Kn tal que al
sustituir sus valores ordenadamente en (3.1), esa identidad se satisfaga; esto es, se cumpla a 1 t1 + a2 t2 +
· · · + an tn = b.
Ejemplo 3.1.
Comentario 3.1.
elementos son denominados n-úplas. Claramente podemos entender los elementos de Kn como matrices unifilas con n
columnas; y también como matrices unicolumnas con n filas
3.2. Definiciones y ejemplos 5
Note que si todos los coeficientes son nulos y el término independiente es diferente de 0, entonces
la ecuación no tiene solución; es decir, la ecuación lineal 0 x1 + 0 x2 + · · · + 0 xn = b con b 6= 0 no
tiene solución. Pues si se supone que (t1 , · · · , tn ) es solución, entonces
0 = 0 t1 + 0 t2 + · · · + 0 tn = b 6= 0.
xn
matriz incógnita y la matriz b es la matriz independiente.
Definición 3.3. Un sistema de ecuaciones lineales con m ecuaciones y n incógnitas es cualquier colección
de m ecuaciones lineales con n incógnitas. Es cualquier expresión del tipo:
donde: a11 , · · · , a1n , a21 , · · · , a2n , · · · , am1 , · · · , amn ∈ K son sus coeficientes, b1 , · · · , bm son los términos
independientes y x1 , x2 , · · · , xn son las incógnitas (o variables) del sistema de ecuaciones lineales (3.3).
El sistema de ecuaciones lineales (3.3) se dice homogéneo si cada uno de los términos independientes
es igual a 0; caso contrario se le denomina no homogéneo.
En el comentario 3.1 mostramos que toda ecuación lineal puede expresarse matricialmente; similarmen-
te ocurre con los sistemas de ecuaciones lineales. En efecto, el sistema (3.3) se representa matricialmente
mediante la expresión:
b1
b2
B = . es la matriz o vector de los términos independientes del sistema (3.3).
..
bm
De esta forma, podemos redefinir matricialmente un sistema de ecuaciones lineales con m ecuaciones
y n incógnitas como sigue:
Definición 3.4. Un sistema de ecuaciones lineales con m ecuaciones y n incógnitas es cualquier ecuación
matricial A X = B, donde A ∈ Mm×n (K) y B ∈ Mm×1 (K) son los datos de la ecuación A X = B, y X es
la matriz o vector de las incógnitas. Tal ecuación se dice homogénea si B = O, y no homogénea si B 6= O.
Ejemplo 3.2. Los sistemas de ecuaciones lineales
(1 + i)x + y − z = i
2x + z = 2
2x + y − z = 1 x − 3iy + z = 2 − i
, −3y + z = 3 y .
−x + 3y + 2z = 2 (2 + i)x + iy = 0
x + y − 2z = 0
x + (1 + 2i)y + z = 1
tienen como representaciónes matriciales, respectivamente, a:
1+i 1 −1 i
x 2 0 1 x 2 x
2 1 −1 1 1 −3i y = 2 − i .
1
y = , 0 −3 1 y = 3 y
−1 3 2 2 2+i i 0 0
z 1 1 −2 z 0 z
1 1 + 2i 1 1
Definición 3.5. Una solución del sistema de ecuaciones lineales (3.3) es cualquier n-úpla (t 1 , · · · , tn ) en
Kn que sea solución simultánea de cada una de las ecuaciones lineales que conforman el sistema (3.3);
esto es, que para i = 1, · · · , m se cumpla ai1 t1 + ai2 t2 + · · · + ain tn = bi .
El conjunto solución del sistema (3.3) está constituido por todas las n-úplas de K n que son solución
del sistema de ecuaciones lineales dado.
Vamos a traducir en términos matriciales el concepto de conjunto solución de un sistema de ecuaciones
lineales. Consideremos el sistema de ecuaciones lineales (3.3); como bien sabemos este sistema se escribe
matricialmente mediante la ecuación lineal matricial
A X = B, con A ∈ Mm×n (K) y B ∈ Mm×1 (K), (3.5)
donde A, X y B son como antes. Entonces una solución de esta ecuación matricial es cualquier matriz
unicolumna (o vector unicolumna) X0 ∈ Mn×1 (K) tal que A X0 = B. Ası́ que en adelante adoptamos la
notación S(A, B) para representar al conjunto solución del sistema de ecuaciones lineales de m ecuaciones
y n incógnitas cuyas matrices de coeficientes e independientes son A y B, respectivamente; en otras
palabras:
S(A, B) = {X ∈ Mn×1 (K) : A X = B}
es el conjunto solución de (3.5), y por tanto de (3.3).
Ejemplo 3.3.
1. Todo sistema de ecuaciones lineales homogéneo siempre tiene solución. En efecto, consideremos el
sistema de ecuaciones lineales homogéneo de m ecuaciones y n incógnitas expresado matricialmente
por A X = O, donde A ∈ Mm×n (K) y O ∈ Mm×1 es la matriz nula de orden m × 1. Considere
X0 = On×1 la matriz unicolumna nula de orden n × 1, luego por las propiedades que tiene el
producto de matrices sigue que A X0 = O; es decir X0 es solución de A X = O. Por tanto S(A, O)
es no vacı́o pues al menos contiene a la solución trivial X0 = On×1 .
3.2. Definiciones y ejemplos 7
2. Dado que toda ecuación lineal con n incógnitas se considera como un sistema de ecuaciones li-
neales con una ecuación y n incógnitas, entonces es inmediato que podemos construir sistemas de
ecuaciones lineales que no tienen solución. Sin embargo se pueden construir ejemplos un poco más
elaborados (incluso con interpretación geométrica) donde se muestre esta situación.
Consideremos por ejemplo dos recta paralelas y verticales en R2 ; para simplificar, un par de tales
rectas son expresadas por las ecuaciones x = 0 y x = 1; o si se quiere: x+0 y = 0 y x+0 y = 1. Luego
el sistema formado por estas dos ecuaciones no tiene solución pues no existe un par ordenado
(x, y) ∈ R2 que satisfaga al mismo tiempo ambas ecuaciones; es decir, las rectas no se intersectan.
Una situación similar ocurre con el sistema de ecuaciones lineales dado por las ecuaciones: x + y = 0
y x + y = 1; éstas representan
rectas paralelas en R2 que no se intersectan; de allı́ que el sistema
x+y =0
de ecuaciones lineales no tenga solución.
x+y =1
Puede ocurrir también que un determinado número de rectas en R2 tengan un único punto en
común; por ejemplo consideremos en R2 las rectas x + y = 1 y x= 0. Tales rectas se cortan
sólo en
x+y =1 1 1 x 1
el punto (0, 1); de manera que el conjunto solución del sistema ,o = ,
x=0 1 0 y 0
1
tiene como conjunto solución al conjunto unitario {(0, 1)}, o matricialmente a .
0
Para concluir con este ejemplo, existen rectas en R2 que tienen más de un punto en común; es decir,
la intersección de las mismos contiene más de un punto.Un caso particular de esta afirmación es
x+y =1
el siguiente. Considere el sistema de ecuaciones lineales . Note que un punto (x, y)
2x + 2y = 2
satisface 2x + 2y = 2 si, y sólo si, también cumple x + y = 1 (¡una ecuación es múltiplo de la
otra!). Luego cualquier solución de una de las ecuaciones es también solución de la otra, y por tanto
del sistema por ellas formado. Ahora bien, la ecuación lineal x + y = 1 tiene infinitas soluciones:
cualquier punto de R2 son la recta definida por esa ecuación es solución.
Concluimos haciendo la siguiente observación: existen ecuaciones lineales que no admiten solu-
ción; hay otros que tiene una única solución, y existen otros cuyo conjunto solución tiene infinitos
elementos.
Ejemplo 3.4. Los sistemas de ecuaciones lineales, tal y como lo expresamos al comienzo de la sección,
son empleados para representar diferentes tipos de problemas. Veamos algunos ejemplos:
1. Una empresa recicladora de desechos produce dos tipos de cartón: liso y corrugado. La confección
del cartón se produce en dos talleres: A y B. En el primer taller, por cada kilogramo de desechos
se producen 0, 2 kg de cartón liso y 0, 2 kg del corrugado; mientras que en el taller B la producción
por cada kilogramo de desechos es de 0, 4 kg del liso y 0, 3 kg del corrugado. El problema que se
plantea es el siguiente: ¿qué cantidad de desechos debe procesar cada taller para producir 50 kg de
cartón liso y 35 kg del corrugado?
En primer lugar debemos identificar las variables del problema; es decir, las incógnitas. Claramente
estas variables son las cantidades de desechos que debe procesar cada taller. Por tanto intruducimos
la siguiente notación:
Los datos de la producción de los diferentes tipos de cartón elaborados por los talleres A y B se
A B
Liso 0, 2 0, 4
expresan matricialmente mediante la matriz 2 × 2: . Esta matriz expresa
Corrugado 0, 2 0, 3
justamente los datos del problema; por ejemplo la entrada ubicada en la fila 1 y columna 2 indica
que en el taller B se produce, por cada kilogramo de desechos, 0,4 kilogramos de cartón liso. De
hecho, cada columna indica la producción por taller.
Luego, la cantidad de cartón liso que se produce de ambos talleres, a partir de x kilogramos de
desechos en el taller A y de y kilogramos de desechos en el taller B, se expresa mediante la ecuación
lineal 0, 2 x + 0, 4 y; mientras que la cantidad de cartón corrugado producido a partir de las mismas
cantidades de desechos x e y en los dos talleres se expresa por la ecuación lineal 0, 2 x + 0, 3 y.
Consecuentemente, para dar respuesta al problema planteado se debe analizar la solución del sis-
0, 2 x + 0, 4 y = 50
tema de ecuaciones lineales ; lo que matricialmente se expresan mediante
0, 2 x + 0, 3 y = 35
0, 2 0, 4 x 50
= .
0, 2 0, 3 y 35
2. Veamos ahora el siguiente problema, cuyo planteamiento es de común empleo en el Álgebra Lineal,
pues trata sobre el problema de combinaciones lineales. En M3×1 (C) consideremos las matrices
i 0 1
unicolumnas: A = 0 , B = 1 + i y C = 1. Queremos saber si C es combinación lineal de
2 1 i
A y B; esto es, queremos averiguar si existen escalares u, v ∈ C tales que C = u A + v B. En otras
palabras, deseamos responder si existen escalares u, v ∈ C tales que se cumpla la identidad:
1 i 0 iu
1 = u 0 + v 1 + i = (1 + i)v ;
i 2 1 2u + v
obviamente esta identidad ocurre si, y sólamente si, las matrices del extremo izquierdo y del extremo
derecho deben ser iguales. De acá entonces que C es combinación lineal de las matrices A y B si,
iu = 1
y sólamente si, el sistema de ecuaciones lineales (1 + i)v = 1 tiene solución. Este problema se
2u + v = i
i 0 1
u
expresa matricialmente por 0 1 + i = 1 .
v
2 1 i
De momento nos conformaremos con haber conocido estos dos ejemplos donde se plantean problemas
cuyo análisis conduce al estudio de sistemas de ecuaciones lineales; luego abordaremos el problema de
cómo analizar sus soluciones, en caso que éstas existan.
Vimos anteriormente que pueden existir sistemas de ecuaciones lineales cuyo conjunto solución tiene
diferentes cardinales: puede ser vacı́o, cuando el sistema no tiene solución; puede tener solución única y
también hay sistemas que tienen infinitas soluciones. Tales formas del conjunto solución introduce una
clasificación de los sistemas de ecuaciones lineales, esta clasificación se expone en la siguiente definición:
Definición 3.6. Dado un sistema de ecuaciones lineales con m ecuaciones y n incógnitas como (3.3), o
matricialmente por A X = B con A ∈ Mm×n (K) e B ∈ Mm×1 (K); se dice que:
3.3. Sistemas de Ecuaciones Lineales Equivalentes 9
Un aspecto importante de resaltar para los sistemas de ecuaciones lineales que tienen más de una
solución es establecido en el siguiente teorema.
Teorema 3.1. Dadas A ∈ Mm×n (K) y B ∈ Mm×1 (K); si el sistema A X = B tiene más de una solución;
es decir, es compatible indeterminado, entonces admite infinitas soluciones.
Demostración: Supongamos que X1 , X2 ∈ Mn×1 (K) son soluciones diferentes de A X = B; esto es,
A X1 = B y A X2 = B. Consideremos todos los escalares α, β ∈ K tales que α + β = 1. Claramente el
conjunto de pares ordenados (α, β) que satisfacen esta condición es un conjunto infinito, ¡tiene tantos
puntos como una recta!
Veamos que para cualesquiera sean los escalares α, β ∈ K con α + β = 1, αX1 + βX2 es también
solución de A X = B. En efecto:
De esta forma, un sistema de ecuaciones lineales con más de una solución, admite infinitas soluciones.
2
1 0 1 3
por lo que la matriz 0 1 0 − 31 es la forma canónica de Gauss-Jordan de la matriz ampliada
0 0 0 0
del primer sistema de ecuaciones lineales. Similarmente:
1 2 1 0 1 2 1 0
f2 −→f2 +2 f1
−2 2 −2 −2 −−−−−−−−→ 0 6 0 −2
f3 −→f3 −4 f1
4 2 4 2 0 −6 0 2
2
1
f2 ←→ 6 f2
1 2 1 0 1 0 1 3
f1 −→f1 −2 f2
−−−−−−→ 0 1 0 − 31 −−−−−−−−→ 0 1 0 − 31 ;
f3 −→f3 +6 f2
0 −6 0 2 0 0 0 0
luego la matriz ampliada del segundo sistema de ecuaciones lineales tiene la misma forma canónica
de Gauss-Jordan; con lo cual ambos sistemas son equivalentes.
x=0 x+y+z =0
2. Los sistemas y no son equivalentes. Note que las matrices ampliadas
z=0 x−y+z =0
1 0 0 0 1 1 1 0
de estos sistemas son y , respectivamente. La primera de ellas
0 0 1 0 1 −1 1 0
ya es una forma canónica de Gauss-Jordan. En cuanto a la segunda, dado que:
1 1 1 0 f2 −→f2 −f1 1 1 1 0 f1 −→f1 −f2 1 0 1 0
−−−−−−−−→ −−−−−−−→ ,
1 −1 1 0 1
f2 ←→− f2 0 1 0 0 0 1 0 0
2
entonces las matrices ampliadas de estos sistemas tienen diferentes formas canónicas de Gauss-
Jordan por lo cual no son equivalentes.
Comentario 3.2.
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
1. Consideremos el sistema .. y su matriz ampliada [A|B].
.
am1 x1 + am2 x2 + · · · + amn xn = bm
Sobre esta matriz apliquemos una operación elemental del Tipo I: fi −→ α fi , para algún 1 ≤ i ≤ m
y algún α 6= 0 en K; resulta de esta operación una matriz [A1 |B1 ] ∈ Mm×(n+1) (K) que tiene
todas sus filas iguales a la de [A|B], excepto la fila i que ha sido multiplicada por el escalar α;
de manera que [A1 |B1 ] es la matriz ampliada del sistema de ecuaciones lineales donde todas las
ecuaciones son iguales a las del sistema original, excepto la i-ésima ecuación que es α a i1 x1 +
α ai2 x2 +· · ·+α ain xn = α bi . Ahora si aplicamos una operación elemental por filas fi −→ fi +α fj ,
con 1 ≤ i, j ≤ m y algún α 6= 0 en K, entonces el sistema de ecuaciones lineales correspondiente
a la matriz obtenida tiene las mismas ecuaciones del sistema original, excepto la i-ésima que es
(ai1 + α aj1 )x1 + (ai2 + α aj2 )x2 + · · · + (ain + α ajn )xn = bi + α bj . Finalmente, si en [A|B]
intercambiamos dos de sus filas, la matriz que se obtiene corresponde es la matriz ampliada de un
sistema que se diferencia del original sólo en la ubicación de las ecuaciones lineales que han sido
intercambiadas. Este simple análisis permite concluir lo siguiente:
“dos sistemas de ecuaciones lineales son equivalentes si, y sólo si, las ecuaciones de uno de
los sistemas es combinación lineal de las ecuaciones del otro sistema de ecuaciones lineales;
es decir, las ecuaciones de uno se escribe como suma de múltiplos de las ecuaciones del otro
sistema de ecuaciones lineales”
12 3. Sistemas de Ecuaciones Lineales
Veamos como expresar simbólicamente lo anteriormente expuesto. Supongamos que los sistemas
de ecuaciones lineales A X = B y C X = D, con A, C ∈ Mm×n (K) y B, D ∈ Mm×1 (K), son
equivalentes; esto es, existe una secuencia finita e1 , · · · , ek de operaciones elementales por filas, y
sus matrices elementales correspondientes, E1 , · · · , Ek , tales que
e
1 2 e ek−1 e
k
[A|B] −→ [E1 A|E1 B] −→ · · · −−−→ [Ek−1 · · · E1 A|Ek−1 · · · E1 B] −→ [C|D];
es decir
C = Ek · · · E1 A y D = Ek · · · E1 B. (3.7)
Ahora bien, si para cada i = 1, · · · , m denotamos por A(i) y C(i) la i-ésima fila de A y C, respecti-
b1 d1
b2 d2
vamente, y si B = . y D = . , entonces como cada fila de [C|D], [C(i) |di ] con i = 1, · · · , m,
.. ..
bm dm
es combinación lineal de las filas de [A|B], entonces para cada i = 1, · · · , m existen escalares
αi1 , · · · , αim ∈ K tales que
2. Un sistema de ecuaciones lineales homogéneo no puede ser equivalente a uno que sea no homogéneo;
esto sigue del hecho, la matriz ampliada del sistema de ecuaciones lineales homogéneo tiene la
última columna nula; por tanto, cualesquiera sean las operaciones elementales por filas aplicadas
a tal matriz, la nueva matriz continuará teniendo la última columna nula; sin embargo, para el
sistema no homogéneo, como la última columna es no nula, al aplicar operaciones elementales por
filas, la matriz resultante, aunque modifique su última columna, ésta seguirá siendo no nula. Luego
las formas canónicas de Gauss-Jordan de ambas matrices ampliadas son diferentes: sus últimas
columnas son distintas.
Teorema 3.2. Sean A, C ∈ Mm×n (K) y B, D ∈ Mm×1 (K). Si los sistemas de ecuaciones lineales
A X = B y C X = D son equivalentes, entonces S(A, B) = S(C, D).
Demostración: Dado que los sistemas son equivalentes, entonces existe una secuencia de matrices ele-
mentales E1 , · · · , Ek , con inversas F1 , · · · , Fk , respectivamente, tales que:
C = E k · · · E1 A y D = E k · · · E1 B (3.9)
A = F1 · · · Fk C y B = F1 · · · Fk D. (3.10)
Supongamos que S(A, B) es no vacı́o. Sea P ∈ S(A, B); esto es AP = B, mostraremos que CP = D; es
decir, P ∈ S(C, D), con lo cual S(A, B) ⊂ S(C, D). En efecto, de (3.9) sigue que
CP = (Ek · · · E1 A) P = (Ek · · · E1 ) A P = Ek · · · E1 B = D.
De esta forma P ∈ S(C, D) y S(A, B) ⊂ S(C, D). Análogamente, usando (3.10), se muestra que si
P ∈ S(C, D), entonces P ∈ S(A, B); por tanto sigue S(C, D) ⊂ S(A, B) y de allı́ la igualdad de los
conjuntos solución de cada uno de los sistemas lineales.
Finalmente, si S(A, B) = ∅, entonces también debe ocurrir que S(C, D) = ∅; de lo contrario, si
P ∈ S(C, D), se muestra como arriba que P ∈ S(A, B); lo cual es una contracción ya que hemos supuesto
S(A, B) = ∅; ası́ S(A, B) = S(C, D) = ∅.
3.4. Criterio de solución de sistemas de ecuaciones lineales 13
Nota: Dejamos al lector la siguiente interrogante, si los sistemas de ecuaciones lineales con m ecuaciones
y n incógnitas: A X = B y C X = D tienen los mismos conjuntos solución, S(A, B) = S(C, D). ¿Es cierto
que [A|B] y [C|D] son equivalentes por filas?
“un sistema de ecuaciones lineales tiene solución si, y sólo si, los rangos de la matriz del
sistema y su matriz ampliada son iguales”
Su historia se remonta aproximadamente a finales del siglo XIX y comienzos del siglo XX. En 1875
Rouché 3 publicó el criterio arriba descrito en un artı́culo de dos páginas, “Sur la discussion des equations
du premier degré”. Sin embargo no es hasta 1880 cuando Rouché publica una versión completa de este
teorema en el Journal de l’École Polytechnique. Rouché no fue el primero en demostrar tal criterio,
luego de haber sido publicado su artı́culo, Georges Fontené 4 publicó una nota en Nouvelles Annales
de Mathématiques en la cual sostenı́a que él ya habı́a dado una demostración de tal resultado. Cuando
Frobenius 5 discute este criterio en su artı́culo Zur Theorie der linearen Gleichungen, publicado en 1905,
da créditos a ambos, tanto a Rouché como a Fontené, sobre la autorı́a del criterio. En el mundo de
habla hispana, este criterio es conocido como el teorema de Rouché-Frobenius, quizás por la influencia
de la denominación dada por el matemático español-argentino Julio Rey Pastor es sus libros de texto;
no obstante, también conocido como teorema de Rouché-Fontené e incluso como teorema de Kronecker-
Capelli 6 debido a la creencia de que Kronecker, en sus cursos de Berlin, habı́a planteado tal resultado,
y sus alumnos Frobenius y Capelli pudieron haberlo enunciado en forma más completa.
Teorema 3.3 (Teorema de Rouché-Frobenius). Todo sistema de ecuaciones lineales con m ecua-
ciones y n incógnitas A X = B, con A ∈ Mm×n (K) y B ∈ Mm×1 (K), es compatible si, y sólo si,
rg(A) = rg([A|B]). Además, en tal caso:
tribuciones en el desarrollo de la Teorı́a de Conjuntos, Álgebra Matricial y Teorı́a de Determinantes, Teorı́a de Grupos y
Álgebra Abstracta; también realizó estudios en Astronomı́a, Meteorologı́a y Quı́mica. Algo más sobre Leopold Kronecker
en: http://turnbull.mcs.st-and.ac.uk/∼history/Mathematicians/Kronecker.html
14 3. Sistemas de Ecuaciones Lineales
columna más que A, entonces rg(A) + 1 = rg([A|B]); esto es, si [C|D] es la forma canónica de Gauss-
Jordan de [A|B] (o cualquier forma escalonada equivalente por filas a [A|B]), entonces [C|D] tiene una
fila no nula más que la forma canónica de Gauss-Jordan de A, que es la matriz C (¿por qué?). Por tanto
S(A, B) = S(C, D); pero la última fila no nula de [C|D] es [0 0 · · · 0 1], por lo que el sistema de ecuaciones
lineales correspondiente a [C|D] tiene como una de sus ecuaciones a 0 x1 + 0 x2 + · · · + 0 xn = 1; la cual
es no admite solución; pues 0 6= 1; ver primer item del comentario 3.1 en la página 4. Luego C X = D no
tiene solución lo cual es una contradicción. Ası́ queda demostrado que si A X = B, con A ∈ M m×n (K) y
B ∈ Mm×1 (K), es compatible, entonces rg(A) = rg([A|B]).
Supongamos ahora que rg(A) = rg([A|B]). Dado que el rango de una matriz es siempre menor o igual
que el mı́nimo entre su número de filas y su número de columnas, entonces sólo puede ocurrir que: o
rg(A) = rg([A|B]) = n, o bien rg(A) = rg([A|B]) < n. Sea [C|D] la forma canónica de Gauss-Jordan
de [A|B], por tanto C es la forma canónica de A. Por hipótesis, como rg(A) = rg([A|B]), entonces C y
[C|D] tienen el mismo número de filas no nulas (¡y de filas nulas, obviamente!). Analicemos ahora cada
caso.
• Caso rg(A) = rg([A|B]) = n:
Si el número de filas no nulas de C y [C|D] es n, entonces m ≥ n y como el número de columnas de A
es n se tiene que
1 0 ··· 0 1 0 · · · 0 d1
0 1 ··· 0 0 1 · · · 0 d2
. . . . . . .
.. .. . . .. .. .. . . ... ..
.
C = 0 0 · · · 1 y [C|D] = 0 0 · · · 1 dn ;
0 0 ··· 0 0 0 ··· 0 0
.. .. ..
. . .
0 0 ··· 0 0 0 ··· 0 0
pues los primeros elementos no nulos de cada una de las filas no nulas de una forma escalonada (¡los
pivotes!) están ubicados en forma ascendente respecto de la numeración de las columnas, recuerde la
definición de matriz escalonada reducida por filas y la forma general de tales matrices. Esto implica que
el sistema de ecuaciones lineales
x1 + 0x2 + 0x3 + · · · + 0xn = d1
x1 = d 1
0x1 + x2 + 0x3 + · · · + 0xn = d2
x2 = d 2
.. ..
.
.
0x1 + 0x2 + · · · + 0xn−1 + xn = dn = xn = d n
0x1 + 0x2 + 0x3 + · · · + 0xn = 0 0=0
. ..
.
.
.
0x1 + 0x2 + 0x3 + · · · + 0xn = 0 0=0
d1
d 2
tiene como conjunto solución al conjunto unitario S(C, D) = . ; sigue por tanto del teorema 3.2
..
dn
d1
d 2
que A X = B es compatible determinado y S(A, B) = . .
.
.
dn
3.4. Criterio de solución de sistemas de ecuaciones lineales 15
donde los dı́gitos 1 encerrados en cı́rculos son las primeras entradas no nulas de las r filas no nulas de
C y [C|D], los cuales están, como mencionamos, en las columnas j1 < · · · < jr ; además, lo indicado por
* significa que en esa entrada está ocupada por algún escalar en K. De esta forma, las r ecuaciones no
nulas del sistema de ecuaciones lineales correspondiente a la matriz ampliada [C|D] son:
xj1 + c1j1 +1 xj1 +1 + c1j1 +2 xj1 +2 + · · · + c1jr −1 xjr −1 + c1jr +1 xjr +1 + · · · + c1n xn = d1
xj2 + c2j2 +1 xj2 +1 + · · · + c2jr −1 xjr −1 + c2jr +1 xjr +1 + · · · + c2n xn = d2
.. .
.
xjr + crjr +1 xjr +1 + · · · + crn xn = dr
Observe que en la primera de estas ecuaciones no están presentes las incógnitas anteriores a x j1 ; es decir,
x1 , · · · , xj1 −1 ; tampoco están las incógnitas correspondientes a las columnas donde están las primeras
entradas no nulas de las restantes filas no nulas de C y [C|D]; éstas son xj2 , · · · , xjr . La segunda ecuación
no tiene las incógnitas desde x1 hasta xj2 −1 ni aquellas correspondientes a las primeras entradas no nulas
de las subsiguientes filas no nulas de C; recursivamente ocurre semejante situación para cada una de las
ecuaciones, hasta que en la r-ésima de estas ecuaciones no hay incógnitas desde la primera x 1 hasta la
xjr −1 . Esto permite escribir el anterior sistema de r ecuaciones con n incógnitas como:
xj1 = −c1j1 +1 xj1 +1 − c1j1 +2 xj1 +2 − · · · − c1jr −1 xjr −1 − c1jr +1 xjr +1 − · · · − c1n xn + d1
xj2 = −c2j2 +1 xj2 +1 − · · · − c2jr −1 xjr −1 − c2jr +1 xjr +1 − · · · − c2n xn + d2
.. ; (3.11)
.
xjr = −crjr +1 xjr +1 − · · · − crn xn + dr
en el cual las incógnitas xj1 , xj2 , · · · , xjr se escriben en términos de las n − r incógnitas restantes, las
que se acostumbran denominar variables o incógnitas libres (note que estas incógnitas o variables son
las que están enumeradas con los ı́ndices diferentes a los que tienen las columnas donde aparecen las
primeras entradas no nulas de C. En otras palabras, las incógnitas diferentes a xj1 , xj2 , · · · , xjr pue-
den tomar valores arbitrarios (¡son parámetros!); ası́ por ejemplo, si a todas las incógnitas distintas de
xj1 , xj2 , · · · , xjr , le asignamos el valor 0, entonces de (3.11) sigue que xj1 = d1 , xj2 = d2 , · · · , xjr = dr ;
es decir, P ∈ Mn×1 (K), con 0 en todas las entradas diferentes de j1 , j2 , · · · , jr , y en la entrada jk , con
k = 1, 2, · · · , r, tiene el valor dk , es solución de C X = D, pues obviamente C P = D. Por tanto P es
támbién solución de A X = B (¿por qué?). Si asignamos nuevos valores a las incógnitas (o variables
16 3. Sistemas de Ecuaciones Lineales
libres), por ejemplo, si jr < n, entonces hacemos todas iguales a 0, excepto la xn que le asignamos el
valor 1; de esta forma de (3.11) sigue que xj1 = −cj1 n + d1 , xj2 = −cj2 n + d2 , · · · , xjr = −cjr n dr ; con-
secuentemente Q ∈ Mn×1 (K), con 0 en todas las entradas diferentes de j1 , j2 , · · · , jr y n, con la n-ésima
entrada igual a 1 y en la entrada jk , con k = 1, · · · , r, vale −cjk n + dk , es solución de C X = D, la cual
es distinta de P . Por tanto el sistema A X = B es compatible indeterminado.
Observación 3.1. Haciendo uso del teorema de Rouché-Frobenius tenemos un excelente criterio para
conocer la naturaleza del conjunto solución de cualquier sistema de ecuaciones lineales. Dado que el rango
de una matriz es invariante por operaciones elementales por filas, el procedimiento de llevar a efecto
el análisis del conjunto solución empleando operaciones elementales por filas constituye una poderosa
herramienta para tales fines. Al proceso de reducir un sistema de ecuaciones lineales a una de sus formas
escalonadas, entre ellas obviamente la forma canónica de Gauss-Jordan, se le conoce con el nombre de
reducción de Gauss-Jordan, y también como reducción Gaussiana. Los siguientes ejemplos muestran este
proceso.
Ejemplo 3.7. Discutamos y resolvamos, en caso de ser posible, el sistema de
ecuaciones lineales:
x + 2y − z 1 2 −1 2 −1
= 1 1 1
−x + 5y − 4z = −2 . Es claro que A = −1 5 −4 y [A|B] = −1 5 −4 −2 son,
−3x + y − 2z = 2 −3 1 −2 −3 1 −2 2
respectivamente, la matriz del sistema y su ampliada. Dado que
1 2 −1
1 1 2 1 1 1 2 1 1
f2 −→f2 +f1 f3 −→f3 −f2
−1 5 −4 −2 −−−−−−−−→ 0 7 −5 −1 −−−−−−−→ 0 7 −5 −1 ,
f3 −→f3 +3 f1
−3 1 −2 2 0 7 −5 5 0 0 0 6
y esta última matriz es escalonada y equivalente por filas a [A|B], entonces A X = B es incompatible
(¡no tiene solución!) pues rg(A) = 2 6= 3 = rg([A|B]).
y+z = 2
Ejemplo 3.8. Analicemos ahora el sistema de ecuaciones lineales x + y + z = −1 . Dado que las
x+y = 2
0 1 1 0 1 1 2
matrices A = 1 1 1 y [A|B] = 1 1 1 −1 son, respectivamente, la matriz del sistema y
1 1 0 1 1 0 2
su ampliada; y como:
1 1 1 −1 1 −1
0 1 1 2 1 1
f2 ←→f1 f3 −→f3 −f1
1 1 1 −1 − −−−−→ 0 1 1 2 −−−−−−−→ 0 1 1 2
1 1 0 2 1 1 0 2 0 0 −1 3
1 1 1 −1 0 0 −3
1
f3 −→(−1)f3 f2 −→f2 −f3
−−−−−−−−→ 0 1 1 2 −−−−−−−→ 0 1 0 5 ,
f1 −→f1 −f2
0 0 1 −3 0 0 1 −3
1 −1
1 1
Note que en la matriz 0 1 1 2 ya hemos podido realizar el análisis; tal matriz es escalo-
0 0 −1 3
nada equivalente por filas a [A|B], por tanto rg(A) = rg([A|B]) = 3 = número de incógnitas; de donde
x + y + z = −1
el sistema A X = B es compatible determinado; y un sistema equivalente es y+z = 2 , de
z = −3
lo cual se deduce rápidamente que la única solución es la arriba mencionada.
Ejemplo 3.9. Consideremos el siguiente sistema de ecuaciones lineales de 3 ecuaciones y 5 incógnitas,
procedamos a conocer cómo es su conjunto solución.
x1 + x 2 + x4 = −1
x1 + 2x2 + x3 + 2x4 + x5 = 0 .
x1 + x 2 + 2x4 + x5 = −1
0 −1
1 1 0 1 0 1 1 0 1
La matriz del sistema y su ampliada son: A = 1 2 1 2 1 y [A|B] = 1 2 1 2
1 0 ;
1 1 0 2 1 1 1 0 2 1 −1
procedamos a obtener una forma escalonada.
1 1 0 1 0 −1 1 1 0 1 0 −1
f2 −→f2 −f1
1 2 1 2 1 0 −−−−−−−→ 0 1 1 1 1 ;
1
f3 −→f3 −f1
1 1 0 2 1 −1 0 0 0 1 1 0
aun cuando no está en la forma canónica de Gauss-Jordan, podemos decidir acerca de la solubilidad
del sistema pues la última matriz es una forma escalonada equivalente por filas a [A|B]. En efecto,
rg(A) = rg([A|B])) = 3 < 5. Por tanto el sistema A X = B es compatible indeterminado; es decir, tiene
infinitas soluciones. Un sistema equivalente al original es:
x1 + x 2 + x4 = −1
x2 + x 3 + x 4 + x 5 = 1 .
x4 + x 5 = 0
Dado que las columnas donde están las primeras entradas no nulas de cada una de las filas son: la
primera, segunda y cuarta, entonces escribimos las correspondientes
incógnitas, x 1 , x2 , x4 , en términos
1 x2 + x4 = −1
x +
de las variable libres, que en este caso son x3 y x5 ; esto es: x2 + x4 = 1 − x3 − x5 . Si a
x4 = −x5
las variables libres le asignamos
valores paramétricos, digamos x 3 = α y x 5 = β, entonces el sistema
x1 + x2 + x4 = −1
anterior se escribe como x2 + x4 = 1 − α − β ; y al proceder a resolver este sistema en forma
x4 = −β
x1 = −2 + α + β
ascendente (de la última ecuación hacia la primera) tenemos x =1−α , por lo que cualquier
2
x4 = −β
−2 + α + β
1−α
solución de A X = B es de la forma α ; en otras palabras, el conjunto solución de A X = B
−β
β
18 3. Sistemas de Ecuaciones Lineales
−2 + α + β
1 − α
es S(A, B) = α : α, β ∈ R . Note que al asignarle valores particulares a los parámetros α
−β
β
−2
1
y β, se obtienen soluciones particulares de A X = B; por ejemplo, al hacer α = β = 0, resulta que 0
0
0
es una de las infinitas soluciones del sistema de ecuaciones lineales A X = B.
Proposición 3.1. Cualesquiera sean α ∈ K y P, Q ∈ S(A, O), con A ∈ Mm×n (K), se cumplen:
es decir, el conjunto solución S(A, O) del sistema de ecuaciones lineales homogéneo A X = O tiene
estructura lineal: es cerrado respecto de las operaciones de multiplicación por escalares y la adición. Por
tal motivo, al conjunto S(A, O) se le conoce como el espacio solución del sistema homogéneo A X = O.
A (Q + α P ) = A Q + A (α P ) = O + α (A P ) = α O = O;
Esta simple propiedad tiene como consecuencia el siguiente corolario, cuya demostración queda como
un ejercicio para el lector.
Corolario 3.1. Dado el sistema de ecuaciones lineales homogéneo A X = O con A ∈ M m×n (K); si
P1 , · · · , Pk son soluciones de A X = O, entonces cualquier combinación lineal de ellas es también solución
del sistema A X = O; es decir, CL[{P1 , · · · , Pk }] ⊂ S(A, O).
Demostración: Se dejan los detalles al lector. Recordar que Q ∈ CL[{P1 , · · · , Pk }] si, y sólo si, existen
escalares α1 , · · · , αk en K tales que Q = α1 P1 + · · · + αk Pk .
3.5. Más propiedades de los sistemas de ecuaciones lineales 19
Note que si el sistema de ecuaciones lineales homogéneo A X = O con A ∈ Mm×n (K) es tal que el
rango de A es r < n, entonces del teorema de Rouché-Frobenius sigue que las soluciones de A X = O
dependen de n − r parámetros. El siguiente teorema es bastante más explı́cito, pues genera una fórmula
general de todas las soluciones de A X = O.
Teorema 3.4. Dado el sistema de ecuaciones lineales homogéneo A X = O con A ∈ M m×n (K); si
rg(A) = r < n, entonces existen n − r soluciones de A X = O, digamos P1 , · · · , Pn−r tales que
CL[{P1 , · · · , Pn−r }] = S(A, O); es decir, toda solución de A X = O se escribe como combinación li-
neal de las soluciones P1 , · · · , Pn−r ; esto es, para cada X ∈ S(A, O) existen escalares α1 , · · · , αn−r tales
que X = α1 P1 + · · · + αn−r Pn−r ; a tal expresión se le denomina solución general del sistema, mientras
que al conjunto {P1 , · · · , Pn−r } se le acostumbra denominar generador mı́nimo de S(A, O), o también
(quizás el más apropiado) base de S(A, O).
Antes de ofrecer una demostración de este teorema conviene que recordar para cualquier matriz
A ∈ Mm×n (K), si E ∈ Mm×m (K) es una matriz elemental por fila, entonces E A ∈ Mm×n (K) es la
matriz que se obtiene a partir de A al aplicarle la operación elemental por fila que define a E; esto es,
E A es la misma matriz A, excepto por: o una fila que ha sido multiplicada por un escalar no nulo, o una
fila de A que ha sido sustituida por ella más un múltiplo de otra, o bien, porque se han intercambiado
dos de las filas de A. De manera similar se definen las operaciones elementales por columnas y matrices
elementales por columna. En tal caso, si A ∈ Mm×n (K) y E ∈ Mn×n (K) es una matriz elemental por
columna, entonces A E ∈ Mm×n (K) es la matriz que se obtiene a partir de A al aplicarle la operación
elemental por columna que define a E; esto es, A E es la misma matriz A, excepto por: o una columna
de A que ha sido multiplicada por un escalar no nulo, o una columna de A ha sido sustituida por ella
más un múltiplo de otra columna, o bien, se han intercambiado dos de las columnas de A.
Supongamos que tenemos el sistema de ecuaciones lineales homogéneo A X = O, A ∈ M m×n (K), con
rg(A) = r < n. Luego es claro que el sistema de ecuaciones lineales dado tiene infinitas soluciones. En
la demostración del teorema de Rouché-Frobenius, vimos como al aplicar ciertas operaciones elementales
por filas a la matriz [A|B] se obtuvo la forma canónica de Gauss-Jordan [C|D]; en el caso homogéneo
no hace falta considerar la matriz ampliada del sistema, pues como la última columna es nula, ésta nada
aporta en la determinación de su rango; es decir, rg(A) = rg([A|O]). Suponiendo entonces que hemos
obtenido la forma canónica de Gauss-Jordan C, que sabemos es de la forma:
0 ··· 0 1 ∗ ∗ 0 ··· 0 ··· ∗
0 ··· ··· ··· ··· ∗
0 0 0 1 0
.. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . .
C=
0 ··· 0 0 ··· 0 0 ··· 1 ··· ∗
,
(3.12)
0 ··· 0 0 ··· 0 0 ··· 0 ··· 0
.. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . .
0 ··· 0 0 ··· 0 0 ··· 0 ··· 0
donde los dı́gitos 1, encerrados en cı́rculos, son las primeras entradas no nulas de las r filas no nulas de
C, los cuales están ubicados en las columnas indexadas con j1 < · · · < jr ; además, lo indicado con *
significa que en esa entrada está ocupada por algún escalar en K. Entonces, de la equivalencia por filas
de A y C, los sistemas A X = O y C X = O tienen las mismas soluciones; ver teorema 3.2. Ahora bien,
a partir de C podemos realizar un número finito de cambios en las columnas; que es aplicar un número
20 3. Sistemas de Ecuaciones Lineales
finito de operaciones elementales por columnas a la matriz C, para ası́ obtener la matriz
1 0 · · · 0 c1r+1 · · · c1n
0 1 · · · 0 c2r+1 · · · c2n
. . .
.. .. . . ... ..
.
..
.
..
. " #
Ir C 00
C 0 = 0 0 · · · 1 crr+1 · · · crn = ; (3.13)
Om−r×r Om−r×n−r
0 0 ··· 0 0 ··· 0
.. .. .. .. .. .. ..
. . . . . . .
0 0 ··· 0 0 ··· 0
c1r+1 · · · c1n
c2r+1 · · · c2n
donde Ir es la matriz identidad de orden r; C 00 = .. , Om−r×r y Om−r×n−r son,
.. ..
. . .
crr+1 · · · crn
respectivamente, las matrices nulas de orden m − r × r y m − r × n − r. Note que la matriz C 0 se
obtiene de C como C 0 = CE1 · · · Ek , donde las matrices E1 , · · · , Ek son ciertas matrices elementales por
columnas.
Lema 3.1. Sean A ∈ Mm×n (K), C, E1 , · · · , Ek ∈ Mn×n (K) y C 0 como arriba. Entonces se cumple
P ∈ S(C 0 , O) si, y sólo si, E1 · · · Ek P ∈ S(A, O); esto significa que los conjuntos solución de C 0 X = O
y A X = O están en correspondencia biunı́voca mediante la matriz invertible E 1 · · · Ek .
Demostración: La demostración es verdaderamente simple; queda como un ejercicio para el lector.
Demostración del Teorema 3.4. Comencemos suponiendo que para el sistema (3.14) hemos obtenido
n − r soluciones, digamos P1 , · · · , Pn−r tales que para toda P ∈ S(C 0 , O), existen escalares α1 , · · · , αn−r
en K tales que
P = α1 P1 + · · · + αn−r Pn−r . (3.15)
Sabemos, por Rouché-Frobenius, que S(A, O) tiene infinitos elementos, de hecho la misma cantidad que
S(C 0 , O), pues la correspondencia que asocia a cada P ∈ S(C 0 , O) con E1 · · · Ek P ∈ S(A, O) es biyectiva.
Para cada i = 1, · · · , n−r sea Qi = E1 · · · Ek Pi . Consideremos cualquier solución Q de A X = O. Del lema
anterior sigue que Ek−1 · · · E1−1 Q es solución de C 0 X = O; por tanto, existen escalares α1 , · · · , αn−r ∈ K
tales que Ek−1 · · · E1−1 Q = α1 P1 + · · · + αn−r Pn−r . De donde:
Q = E1 · · · Ek (α1 P1 + · · · + αn−r Pn−r ) = E1 · · · Ek (α1 P1 ) + · · · + E1 · · · Ek (αn−r Pn−r )
= α1 E1 · · · Ek P1 + · · · + αn−r E1 · · · Ek Pn−r = α1 Q1 + · · · + αn−r Qn−r ;
3.5. Más propiedades de los sistemas de ecuaciones lineales 21
con lo cual toda solución de A X = O depende (es combinación lineal) de las n−r soluciones Q 1 , · · · , Qn−r
de A X = O. Ası́ la demostración de la proposición está completa, excepto que debemos mostrar que
existen n − r soluciones P1 , · · · , Pn−r de C 0 X = O, de manera que para cada P ∈ S(C 0 , O), existen
escalares α1 , · · · , αn−r ∈ K tales que se cumple (3.15). En efecto; recordemos que C 0 X = O es justamente
el sistema (3.14). Las deseadas n − r soluciones de C 0 X = O, o de (3.14), las obtendremos asignándole
a las variables libres xr+1 , · · · , xn los valores particulares dados por la siguiente tabla:
N o /variable xr+1 xr+2 ··· xn−1 xn
1 1 0 ··· 0 0
2 0 1 ··· 0 0
.. .. .. .. .. .. ;
. . . . . .
n−r−1 0 0 ··· 1 0
n−r 0 0 ··· 0 1
sigue entonces de (3.14) que
−c1r+1
−c1r+2
−c1n
−c2r+1 −c2r+2 −c2n
. . .
.. .. ..
−c −c −c
rr+1 rr+2 rn
P1 = , P = , · · · , Pn−r =
1 2 0 0
0 1 0
.. .. ..
. . .
0 0 1
son soluciones de C 0 X = O. Observe que haciendo
xr+1 = α1 , xr+2 = α2 , · · · , xn = αn−r ,
−c1r+1 α1 − · · · − c1n αn−r
−c2r+1 α1 − · · · − c2n αn−r
..
.
−c α − · · · − c α
rr+1 1 rn n−r
toda solución P de C 0 X = O se escribe como P = , y dado que
α1
α 2
..
.
αn−r
−c1r+1
−c1r+2
−c1n
−c2r+1 −c2r+2 −c2n
. . .
.. .. ..
−crr+1 −crr+2 −crn
P = α1 + α2 + · · · + αn−r = α1 P1 + α2 P2 + · · · + αn−r Pn−r ,
1 0 0
0 1 0
.. .. ..
. . .
0 0 1
la demostración está completa.
22 3. Sistemas de Ecuaciones Lineales
Comentario 3.3. Es conveniente aclarar que la forma como se han asignados los valores a las variables
libres no es única; existen muchas otras formas de hacerlo (de hecho infinitas); pero la elegida en la
demostración es la manera canónica de hacerlo. De allı́ que las n − r soluciones obtenidas son conocidas
como las soluciones canónicas del sistema de ecuaciones lineales (3.14). En realidad, lo que hemos hecho
ha sido suponer que el sistema obtenido, a partir de la reducción a la forma canónica de Gauss-Jordan
de la matriz del sistema homogéneo dado, es tal que los pivotes de esa forma canónica están ubicados en
las primeras n − r columnas; por eso los cambios de columnas efectuados. No obstante, en la práctica no
es necesario realizar tales cambios de columnas, simplemente se deben tener presente las columnas (las
cuales determinan las variables que no son libres) donde están los pivotes; las variables que corresponden
a las columnas restantes son a las cuales se les asignarán los valores canónicos. Los siguientes ejemplos
muestran el procedimiento descrito.
x + 2y + z − w = 0
x + 2y − 2z − w = 0
Ejemplo 3.10. Analicemos el conjunto solución del sistema . Dado que
2x + 4y − 7z − 2w = 0
5x + 10y − z − 5w = 0
1 2 1 −1 1 2 1 −1 1 2 0 −1
f2 ←→ − 13 f2
1 2 −2 −1 f2 −→f2 −f1 0 0 −3 0 f1 −→ f1 − f3
0 0 1 0 ,
2 4 −7 −2 −−f− −−−−−−−−−→
−−− −− −−−− − − −
→
0 0 −9 0 f3 −→ f3 + 9 f2
3 −→ f3 − 2 f1 0 0 0 0
5 10 −1 −5 f 4 −→ f 4 − 5 f 1 0 0 −6 0 f4 −→ f4 + 6 f2
0 0 0 0
el sistema tiene infinitas soluciones pues el rango de la matriz del sistema es 2 < 4, que es el número
de
incógnitas. Note que las variables libres son y y w; además, el sistema original es equivalente a
x + 2y − w = 0
. Siguiendo entonces con el procedimiento anterior, construimos una tabla de valores
z=0
(los canónicos sobre tales variables libres) para obtener una base del espacio solución del sistema de
N o /variable y w
ecuaciones lineales homogéneo dado. Tal tabla es 1 1 0 ; la cual origina dos soluciones,
2 0 1
−2 1
1 0
a saber: P1 = 0 y P2 = 0; ası́, toda solución del sistema de ecuaciones lineales homogéneas dado
0 1
x −2 1
y 1 0
es de la forma X = z = α 0 + β 0, que es la solución general del sistema dado.
w 0 1
Otra interesante propiedad para los sistemas de ecuaciones lineales homogéneos con igual número de
ecuaciones que de incógnitas (los sistemas de ecuaciones lineales cuadrados) se expresa en el siguiente
resultado.
Teorema 3.5. Dada A ∈ Mm×m (K); las siguientes afirmaciones son equivalentes:
1. A es invertible.
Demostración: Sigue como consecuencia de ya conocido sobre las relaciones entre la invertibilidad de
matrices y la forma canónica de Gauss-Jordan. Los detalles se dejan al lector.
2 1 −2 2 1 −2 1
dado tiene infinitas soluciones. Note que tal sistema dado, y su correspondiente sistema homogéneo
x + 2y − z = 0
−x + y + z = 0
, son equivalentes a los sistemas con dos ecuaciones (¡dos se trivializaron!):
5x + 4y − 5z = 0
2x + y − 2z = 0
x−z =1 x−z =0
y . (3.16)
y=1 y=0
24 3. Sistemas de Ecuaciones Lineales
Empleando los argumentos descritos en las demostraciones de los teoremas 3.4 y 3.6, tenemos como
variable libre a z. Por tanto, una solución particular del sistema no homogéneo se obtiene asignándole
cualquier valor particular a la variable en el sistema no homogéneo equivalente al dado; en nuestro
1
caso asignamos z = 0, el cual produce la solución particular Q0 = 1 . Por otro lado, para obtener
0
la solución general del sistema de ecuaciones lineales homogéneo correspondiente al dado, se procede
como antes: asignándole los valores canónicos a las variables libres; que nuestro caso como es z, el valor
canónico es z = 1, que la sustituirlo en el sistema de ecuaciones lineales homogéneo en (3.16), tenemos
x + 2y − z = 0
1
−x + y + z = 0
como solución general de a α 0 , con α ∈ R; por lo que la solución general del
5x + 4y − 5z = 0
1
2x + y − 2z = 0
1 1
sistema no homogéneo original es X = 1 + α 0 con α variando en R.
0 1
Veamos ahora un par de ejemplos donde los sistemas de ecuaciones lineales constituyen la herramienta
matemática para su formulación y resolución.
−1 0 1 0 2 1
Ejemplo 3.12. Consideremos las matrices A = , A1 = , A2 = y A3 =
0 1 1 2 −1 1
1 −1
. Deseamos responder la siguiente interrogante: ¿Es A combinación lineal de A 1 , A2 y A3 ?
1 2
Obviamente para intentar responder esta pregunta es necesario entenderla; lo que se quiere es averiguar
si existe escalares α, β, γ tales que
−1 0 1 0 2 1 1 −1 α + 2β + γ β−γ
=α +β +γ = .
0 1 1 2 −1 1 1 2 α − β + γ 2α + β + 2γ
α + 2β + γ = −1
β−γ =0
Lo cual equivale a analizar el sistema de ecuaciones lineales . En vista de que
α−β+γ =0
2α + β + 2γ = 1
1 2 1 −1 1 2 1 −1 1 2 1 −1
0 1 −1 0
−f−3−
−→f3 −f1 0 1 −1 0 f3 −→f3 +3 f2 0 1 −1 0
1 −1 −−−−−→ −−− −−−−−−−−−→ ;
1 0 f4 −→f4 −2 f1 0 −3 0 1 f4 −→ f4 + 3 f2
0 0 0 1
2 1 2 1 0 −3 0 3 f 4 −→ f 4 − 3 f 3 0 0 0 0
1 2 1 1 2 1 −1
0 1 −1 0 1 −1 0
de donde, rg
1 −1
= 2 < 3 = rg , por lo que el sistema de
1 1 −1 1 0
2 1 2 2 1 2 1
α + 2β + γ = −1
β−γ =0
ecuaciones lineales no homogéneas no tiene solución; consecuentemente es imposible
α−β+γ =0
2α + β + 2γ = 1
escribir a A como combinación lineal de A1 , A2 y A3 .
3.5. Más propiedades de los sistemas de ecuaciones lineales 25
Ejemplo 3.13. Una empresa maderera tiene tres aserraderos: A, B y C. Cada una de ellos produce tres
tipos de maderas de calidad: alta, media y baja. Por cada tonelada métrica de materia prima:
el aserradero A produce 2 metros cúbicos de madera de alta calidad, 2 de calidad media y 4 metros
cúbicos de baja calidad;
el aserradero B produce 2 metros cúbicos de alta calidad, 4 de media calidad y 2 metros cúbicos de
baja calidad; mientras que
el aserradero C produce 4 metros cúbicos de madera de alta calidad, 2 de calidad media y 2 metros
cúbicos de baja calidad.
Si la empresa tiene una demanda de 1000 metros cúbicos de madera de alta calidad; 2000 de calidad
media y 1000 de madera de baja calidad, ¿cuántas toneladas métricas se requieren en cada aserradero
para satisfacer tal demanda?
A B C
Alta 2 2 4
La matriz Media 2 4 2 representa la producción de los tres tipos de madera en los tres aserra-
Baja 4 2 2
deros. Note que cada columna contiene la información, en metros cúbicos, de la producción de los tres
2
productos por cada aserradero; ası́ por ejemplo, la primera columna 2 representa la producción del
4
aserradero A; mientras que cada fila contiene la información de la producción de un tipo de madera en
los tres aserraderos; por ejemplo, la fila 2 4 2 expresa la producción, por metro cúbico, de madera
con calidad media en las tres aserraderos. Denotemos por
2 2 4 x 1000
Claramente la última matriz anterior es una forma escalonada equivalente por filas a la matriz ampliada
del sistema, esto nos permite concluir que el rango de la matriz del sistema y su ampliada es igual a 3;
26 3. Sistemas de Ecuaciones Lineales
Finalmente interpretemos este resultado para los propósitos de encontrar las funciones polinómicas
con las condiciones impuestas. El primer coeficiente, α, es 21 − γ; el segundo, β, es igual a − 12 ; y el tercer
coeficiente, γ, es libre. En otras palabras, las funciones polinómicas p(x) = α + βx + γx 2 que satisfacen
las condiciones impuestas son de la forma p(x) = ( 12 − γ) − 12 x + γx2 , donde γ asume cualquier en R.
2. Determine cada uno de los sistemas de ecuaciones lineales que son expresados matricialmente como
A X = B, donde:
1 0 0 1
1
2 −1 2 1 −2
0 2 1
1
a) A = 3 −2 −1 , B = −1 , b) A = 0 0 2 −1 , B = 2 .
0 0 1 0 −1 2 3 5
3
4 2 1 0
5. Determine los valores de α ∈ R para los cuales los siguientes sistemas de ecuaciones lineales ho-
mogéneos dados a continuación tienen infinitas soluciones:
2x − 3y + 5z = 0 2x + y − αz = 0
a) −x + 7y − z = 0 b) αx − y + z = 0
4x − 11y + αz = 0 x+y+z =0
6. Clasifique según el valor de los parámetros a, b, c los siguiente sistemas de ecuaciones lineales, según
sean: incompatible, compatible determinado o compatible indeterminado:
x + 2y + z = a y+z =2 x + 3y + 5z = 2
a) 2x + y + z = 1 b) x+y+z =a c) 2x − 4y + 2z = 0
3x + 3y + 2z = b x+y =2 5x − 11y + 9z = a
x + y + az = 1 x − 2y + 3z = 1 ax + by + cz = 1
d) x + ay + z = 1 e) 2x + ay + 6z = 6 f) ax + y + bz = 1
ax + y + z = 1 −x + 3y + (a − 2)z = 0 ax + y + z = b
i 2 1 0 i 1
7. Decidir si A = es combinación lineal de los puntos A1 = , A2 = y
1+i 1 1 1 i 1
0 1 1 0 0 1 0 1
A3 = . ¿Es A combinación lineal de: B1 = , B2 = , B3 = y
1 0 0 0 1 1 1 0
0 0
B4 = ?
0 1
8. Encontrar, bajo las condiciones que se imponen a continuación, todas las funciones polinómicas
p(x) = a + bx + cx2 que satisface:
9. Hallar dos números tales que si se dividen el primero por 3 y el segundo por 4 la suma es 15;
mientras que si se multiplica el primero por 2 y el segundo por 5 la suma es 174.
11. En un zoológico hay animales con 2 patas (aves) y bestias de 4 patas. Si en el número de cabezas
de tales animales alcanza la cantidad de 600, y el número de patas es 2000, ¿cuántas aves y cuántas
bestias hay en el zoológico?
12. Hallar, si es posible, el entero positivo de tres dı́gitos (abc) tal que: la suma de sus dı́gitos es 8, la
suma de los dos primeros dı́gitos menos el tercero es igual a 6, y tal número menos el número que
se obtiene al invertir de orden las cifras es 396.
13. Dos inversionistas con la misma cantidad de dinero, Bs. 20.000.000,00, realizarón la siguiente ope-
ración: el primero de ellos invirtió la cantidad A al 4 %, la cantidad B al 5 % y el resto al 6 % de
interés; mientras que el segundo inversionista colocó la cantidad A al 5 %, la cantidad B al 6 % y
el resto al 4 %. Determinar las cantidades A, B y C si se sabe que el primero de los inversionistas
recibió Bs. 1.050.000,00 por intereses, y el segundo Bs. 950.000,00.
3.6. Ejercicios Propuestos 29
14. Una empresa dispone de Bs. 29.000.000 para la subvención de sus 100 empleados en cursos de
capacitación laboral. Se dictarán tres cursos: A, B y C. La subvención por persona es como sigue:
para los que realizarán el curso A, es de Bs. 400.000; para los del curso B, Bs. 160.000 y Bs. 200.000
para los que hagan el curso C. Si la cantidad de empleados que realizará el curso A es cinco veces
mayor que la cantidad que realizará el curso B; ¿cuántos empleados realizarán cada curso?
15. Entre las ciudades A y B hay una distancia de 192 Km. Se sabe que un automóvil sube cuestas a
54 Km Km Km
h , las baja a 90 h , y en el terreno llano anda a 80 h . Si de A hacia B se emplean 2 horas y
30 minutos; y el recorrido de B hacia A se hace en 2 horas y 45 minutos; ¿cuál es la longitud del
trayecto llano entre las dos ciudades?
16. Las edades de tres hermanos: Juan, José y Julio, satisfacen las siguientes relaciones: la suma de
las edades de Juan y José menos la edad de Julio es la edad de Juan más 10 años; la suma de las
edades de Juan y Julio es dos veces la edad de José, mientras que la suma de las edades de Juan y
José es 60 años. Determine las edades de cada uno de ellos.
Suponga que en lugar de la condición “la suma de las edades de Juan y José es 60 años”, se tiene que
la suma de tales edades es de 24 años. ¿pueden existir tres personas que satisfagan las condiciones
impuestas?
17. Una empresa petrólera tiene tres refinerı́as: A, B y C. Cada una de ellas produce tres combustibles:
diesel, gasolina y turbosina. Se sabe además que por cada barril de crudo:
Si la empresa tiene una demanda de 820.000 litros de diesel; 450.000 litros de gasolina y 830.000 litros
de turbosina, ¿cuántos barriles de crudo debe procesar cada refinerı́a para satisfacer tal demanda?
¿Qué cantidad de combustible produce cada refineria con los barriles de crudo necesarios para
satisfacer la demanda?
18. Sea A ∈ Mm×n (K) con m < n. Demostrar que el sistema de ecuaciones lineales homogéneo A X = O
es compatible indeterminado. Es decir, si un sistema de ecuaciones lineales homogéneo tiene más
incógnitas que ecuaciones, entonces tiene infinitas soluciones.
19. Dadas A ∈ Mm×m (K), B ∈ Mm×1 (K). Demostrar que A X = B tiene solución única si, y sólo si,
A es invertible. En tal caso X = A−1 B es la solución del sistema.
4
Determinantes de orden n
matemática japonesa de la epoca. En 1674 Seki publicó Hatsubi Sampo en el cual resuelve, con metódico análisis, una serie
de problemas; lo que ciertamente aportó razones por las cuales Seki es considerado como un excelente maestro y cultor de
la Matemática. Seki se anticipó a muchos de los descubrimientos matemáticos de occidente; por ejemplo, además de ser el
primero en estudiar los determinantes, descubrió los números de Bernoulli antes que el propio Jacob Bernoulli.
2 G. W. Leibniz nació en Leipzig en 1646, falleciendo a la edad de 70 años en Hanover. En la actualidad Leibniz es
considerado el genio universal del siglo XVII y rival de Newton en la invensión del Cálculo. Aprendió a leer Latin y Griego
cuando apenas era un niño; antes de sus veinte años ya era un profundo conocedor de Matemática, Filosofı́a, Teologı́a
y Leyes. Aún siendo muy jóven comenzo a desarrollar las ideas de su “characteristica generalis”, la cual envuelve una
Matemática universal y que posteriormente floreció en la Lógica Simbólica de George Boole (1815-1864)
3 Este insigne matemático francés (1789-1857) es considerado el responsable, junto a Joseph Louis Lagrange (1736-1813)
y Carl Friedrich Gauss (1777-1855), de formalizar con la rigorusidad necesaria el Análisis Matemático en la primera mitad
del siglo IXX. Cauchy fue un escritor compulsivo en distintas áreas de la Matemática, incluso sea probable que esté en
segundo lugar, despúes de Leonard Euler (1707-1783), en el volumen de publicaciones.
4 El matemático C. G. Jacobi (1804-1851) además de haber sido un excelente investigador en Matemática, también
fue un excelente maestro en el área, llegando inclusive a ser considerado como el más destacado docente en Matemáticas
universitaria de su generación. Sus más celebres trabajos en tratan sobre funciones elı́pticas; aunque también escribió sobre
Teorı́a de Números, Ecuaciones Diferenciales Ordinarias y Parciales, Cálculo de Variaciones, el problema de los tres cuerpos
de la Mecánica Celeste, y otros problemas dinámicos.
30
4.2. Determinates: una definición recursiva 31
minante se hizo de manera algorı́tmica; además, las entradas en el determinante no eran exclusivas para
números, sino que incluyó también funciones. Estos tres artı́culos de Jacobi hicieron que la noción de
determinante fuese extensamente conocida. Finalmente, una definición axiomática de los determinantes
fue usada por Karl Weierstrass 5 en sus clases; después de fallecido, fueron publicadas, en 1903, sus
notas sobre el tema. En ese mismo ao, fueron publicados los apuntes de Kronecker sobre determinantes,
también luego de su muerte. Con estas dos publicaciones, la teorı́a moderna de determinantes quedo
completamente desarrollada. Además de los origenes de los cuales emergió esta teorı́a, el determinante
fue identificado con el área de paralelogramo o con el volumen de un paralelepı́pedo; de hecho es parte
fundamental en el desarrollo teórico de la teorı́a de integración por su empleo en las formas de volumen.
Por otra parte, en la teorı́a de formas multilineales (¡presentación que evitamos acá!) se demuestra que
la función determinante es justamente la generadora de las formas multilineales alternadas.
Definición 4.1. El determinante de una matriz A ∈ Mn×n (K) se define como sigue:
det A = a11 det A11 − a21 det A21 + · · · + (−1)j+1 aj1 det Aj1 + · · · + (−1)n+1 an1 det An1 ; (4.1)
Observe que el determinante asocia a cada matriz A ∈ Mn×n (K) un único número en K; por tanto,
esta correspondencia define una función, denotada por det, cuyo dominio es el conjunto M n×n (K) y toma
valores en K. El cálculo del valor que se le asigna a cada matriz, como puede observarse en la fórmula
5 Karl Weierstrass (1815-1897), matemático alemán conocido, entre otras cosas por sus aporte a la teorı́a de funciones
de variable compleja, aunque muchas fueron sus contribuciones al desarrollo de la matemática que hoy dı́a conocemos. Fue
un excelente conferencista, de hecho atraı́a a muchos estudiantes europeos. Los temas tratados en sus conferencias incluı́an
tópicos como: fı́sica-matemática, teorı́a de funciones analı́ticas, teorı́a de las funciones elı́pticas, y aplicaciones a problemas
en geometrı́a y mecánica. Luego de ser maestro de escuela, a los cuarenta años, y gracias a la calidad de sus publicaciones,
gano un puesto como profesor en la Universidad de Berlı́n.
32 4. Determinantes de orden n
(4.1) requiere ir haciendo los desarrollos de los determinantes de matrices cuadradas de ordenes cada vez
menor; no obstante, este procedimiento puede resultar bastante engorroso, e incluso difı́cil y fastidioso;
por lo que en el transcurso de estas notas mostraremos otros procedimientos que permitirán realizar este
cálculo como menos “esfuerzo”.
Antes de proceder a obtener fórmulas para el determinante de matrices de orden 2 × 2 y 3 × 3;
ofrecemos al lector otra notación para el valor de la función det; esta es, dada A = [a ij ] ∈ Mn×n (K),
también denotaremos al determinante de la matriz A por
a11 a12
det A = = a11 det A11 − a21 det A21 .
a21 a22
Dado que A11 = [a22 ] y A21 = [a12 ], sigue ası́, ver parte 1 de la definición, que:
a11 a12
det A = = a11 a22 − a12 a21 . (4.2)
a21 a22
Ejemplo 4.1. Haciendo uso de la fórmula anterior se deduce de manera muy simple que:
1 0
1. Si I2 es la matriz identidad de orden 2 × 2, entonces det I2 = = 1 · 1 − 0 · 0 = 1;
0 1
0 0
2. Si O2 es la matriz nula de orden 2 × 2, entonces det O2 = = 0 · 0 − 0 · 0 = 0;
0 0
1 2 1 2
3. Si A = , sigue que = 1 · 4 − 2 · 3 = −2;
3 4 3 4
−1 2−i
4. = (−1) · 4 − 3i · (2 − i) = −7 − 6i;
3i 4
a a12 b b12
6. Dadas A = 11 y B = 11 , entonces
a21 a22 a21 a22
De la misma forma
a11 a12 a a12 a a12
= 11 + 11 .
a21 + b21 a22 + b22 a21 a22 b21 b22
Esta propiedad junto a la anterior dicen que:
“la función determinantes de orden 2 es lineal en cada una de las filas; esto significa
que respecta tanto la multiplicación por escalares en cada fila como la adición en cada
una de las filas”
7. Otra importante propiedad es que al intercambiar las filas de una matriz de orden 2 × 2, el deter-
minante cambia de signo; esto es:
a11 a12 a a21
8. Si A = y A = 11
t
es su matriz traspuesta, entonces es simple chequear que
a21 a22 a12 a22
det A = det At .
Haciendo uso de esta propiedad, dejamos como ejercicio para el lector la verificación de que las
propiedades enunciadas en los numerales 5 y 6 anteriores, también son ciertas al expresarlas en
términos de las columnas de las matrices; esto significa que también son verdades:
Inicialmente la noción de determinante surgió de las fórmulas mediante las cuales se expresa la solución
de un sistema de ecuaciones lineales con solución única. De momento expondremos este uso para sistemas
de ecuaciones lineales de orden 2 × 2.
34 4. Determinantes de orden n
a11 x + a12 y = b1
Consideremos el sistema de ecuaciones lineales de 2 ecuaciones con 2 incógnitas: ,
a21 x + a22 y = b2
y supongamos que estesistema admite una única solución, en particular esto implica que la matriz del
a a12
sistema, A = 11 , es invertible; esto equivale a que a11 a22 −a12 a21 6= 0, ¡verifı́quelo!. Para resolverlo
a21 a22
a11 a12 b1
podemos emplear el método de eliminación de Gauss a la matriz ampliada . Si asumimos,
a21 a22 b2
por ejemplo, que a11 6= 0, entonces
al multiplicar la segunda fila por y sumarla con la primera fila
a11 a12 b1
multiplicada por −a21 tenemos . Luego el sistema original tiene
0 a11 a22 − a12 a21 a11 b2 − a21 b1
a11 x + a12 y = b1
las mismas soluciones de . Por tanto, como a11 a22 − a12 a21 6= 0 se
(a11 a22 − a12 a21 )y = a11 b2 − a21 b1
tiene que
a11 b2 − a21 b1
y= .
a11 a22 − a12 a21
a11 a12
Observe que el denominador de esta expresión es justamente el determinante de la matriz .
a21 a22
Similarmente se obtiene que
a22 b1 − a12 b2
x= .
a11 a22 − a12 a21
Más adelante haremos un tratamiento más preciso de lo que acabamos de exponer, se trata del método
conocido como la Regla de Cramer, ver 4.4.1 en página 52.
PSfrag replacements u
el segmento Ou hacia el punto v, y el segmento Ov hacia el punto u. Para la deducción de la fórmula del
4.2. Determinates: una definición recursiva 35
área del paralelogramo de arriba asumimos que el lector conoce la noción de distancia entre dos puntos
(x1 , y1 ) y (x2 , y2 ) de R2 , que es:
p
d((x1 , y1 ), (x2 , y2 )) = (x1 − x2 )2 + (y1 − y2 )2 ;
El paralelogramo P ası́ construido se inscribe en un rectángulo R, el cual, por la forma en que están
dispuestos los vértices de P , tiene sus vértices en los puntos: (0, 0), (x1 + x2 , 0), (x1 + x2 , y1 + y2 ) y
PSfrag replacements
(0, y1 , y2 ), tal y como se observa en la figura 4.2. Observe que el área del paralelogramo P (la sombreada)
A1 T3
y2
v
T1
T2
u
y1
T4 A2
x2 x1
es igual al área del rectángulo R, en el que está inscrito, menos la suma de las áreas de los triángulo
T1 , T2 , T3 , T4 y los rectángulos A1 , A2 . Note además que los rectángulos A1 y A2 tienen la misma área;
de igual forma, los triángulos T1 , T2 , y T3 , T4 . Sigue por tanto que:
2 4
!
X X
area de P = area de R − area de Ai + area de Ti
i=1 i=1
1 1 1 1
= (x1 + x2 )(y1 + y2 ) − x2 y1 + x2 y1 + x2 y2 + x2 y2 + x1 y1 + x1 y1
2 2 2 2
x1 y1
= x1 y2 − x2 y1 = .
x2 y2
Al igual que en dimensión 2, el determinante de orden 3 está asociado al cálculo de las soluciones
de sistemas de ecuaciones lineales 3 × 3, que como hemos dicho será tratado más adelante; también
está asociado al cálculo del volumen de un paralelepı́pedo determinado por tres puntos no colineales en
R3 . Procedamos ahora a determinar la fórmula de la función determinante en el conjunto M 3×3 (K); para
a11 a12 a13
ello emplearemos la fórmula de recurrencia (4.1). Consideremos una matriz A = a21 a22 a23 .
a31 a32 a33
36 4. Determinantes de orden n
1 −1 0
1 −1 0
−4 3 −1 0 −1 0
det A = 2 −4 3 =1· −2· +0·
−1 2 −1 2 −4 3
0 −1 2
= (−8 + 3) − 2(−2 + 0) + 0(−3 − 0) = −1.
Haciendo uso directo de la definición recursiva, o la misma fórmula (4.3), se demuestran las siguientes
propiedades para la función determinante sobre las matrices de orden 3×3 (los detalles se dejan al lector):
1 0 0
1. el determinante de la matriz identidad de orden 3, I3 = 0 1 0, su determinante es igual a 1;
0 0 1
a11 + b11 a12 + b12 a13 + b13 a11 a12 a13 b11 b12 b13
a21 a22 a23 = a21 a22 a23 + a21 a22 a23
a31 a32 a33 a31 a32 a33 a31 a32 a33
3. el determinante 3 × 3 respeta la multiplicación por escalares en cada una de sus filas; es decir:
Estas dos propiedades pueden resumirse en una sóla, y se dice que el determinante de matrices de
orden 3 × 3 es lineal en cada una de sus filas; esto se escribe como:
a11 + α b11 a12 + α b12 a13 + α b13 a11 a12 a13 b11 b12 b13
a21 a22 a23 = a21 a22 a23 + α a21 a22 a23
a31 a32 a33 a31 a32 a33 a31 a32 a33
a11 a12 a13 a21 a22 a23 a31 a32 a33 a11 a12 a13
a21 a22 a23 = − a11 a12 a13 = − a21 a22 a23 = − a31 a32 a33 . (4.4)
a31 a32 a33 a31 a32 a33 a11 a12 a13 a21 a22 a23
a11 a12 a13 a11 a21 a31
5. Cualquier A = a21 a22 a23 y su traspuesta, At = a12 a22 a32 , tienen el mismo
a31 a32 a33 a13 a23 a33
determinante: det A = det At .
Las propiedades que acabamos de enunciar para la función determinante definida sobre el conjunto sobre
M3×3 (K) las resumimos en el siguiente recuadro:
“la función determinantes de orden 3 es lineal en cada una de las filas, esto significa,
como en el caso de orden 2, que respeta tanto la multiplicación de escalares por filas,
como la adición de filas; también es alternada, es decir, al intercambiar dos de las
filas en la matriz, el determinante cambia de signo. Además, del hecho que una matriz
y su traspuesta tengan el mismo determinante, se tiene que las mismas propiedades
de linealidad y alternabilidad valen para las columnas”
38 4. Determinantes de orden n
3. Si una de las filas de A es la suma de múltiplos de las otras dos filas, entonces det A = 0.
4. Si B es obtenida de A sustituyendo una de sus filas por la suma de esa fila y un múltiplo de otra
de sus filas, entonces det B = det A.
Demostración: 1. Si A tiene una fila nula, sigue inmediatamente de la fórmula (4.3) que det A = 0.
2. Supongamos, por ejemplo, que las filas iguales de A son la primera y la segunda. Sea B la matriz
obtenida de A intercambiando la primera y la segunda fila; obviamente B = A, y por la propiedad de
alternabilidad se tiene det A = − det A, de donde 2 det A = 0, y por tanto det A = 0.
3. Sin perder generalidad asumamos que la primera fila es la suma de múltiplos de la segunda y la tercera
fila; esto es,
(a11 , a12 , a13 ) = α(a21 , a22 , a23 ) + β(a31 , a32 , a33 ),
4. Sea B la matriz obtenida de A sustituyendo la primera fila por la suma de ella con un múltiplo de
otra de las filas de A, digamos la segunda, entonces
Las propiedades anteriores son bastantes útiles para realizar elcálculo del determinante de una matriz
por una vı́a distinta a la definición, este procedimiento se lleva a cabo empleando operaciones elemen-
tales por fila (¡y también por columna!). Primero mostraremos una propiedad interesante que tienen
4.2. Determinates: una definición recursiva 39
a11 a12 a13
las matrices triangulares. Recordemos que una matriz A = a21 a22 a23 es triangular superior si
a31 a32 a33
a21 = a31 = a32 = 0; y es triangular inferior si a12 = a13 = a23 = 0; esto es, son de la forma
a11 a12 a13 a11 0 0
0 a22 a23 y a21 a22 0 , respectivamente.
0 0 a33 a31 a32 a33
Observe que
a11 a12 a13
a22 a23
0 a22 a23 = a11 = a11 a22 a33 ;
0 a33
0 0 a33
además, como una matriz y su traspuesta tienen el mismo determinante, entonces
a11 0 0 a11 a21 a31
a21 a22 0 = 0 a22 a32 = a11 a22 a33 ;
a31 a32 a33 0 0 a33
ası́, hemos demostrado el siguiente resultado:
Proposición 4.2. El determinante de una matriz triangular de orden 3 × 3 es el producto de los coefi-
cientes que están en la diagonal principal de dicha matriz.
Retornemos a las operaciones elementales por fila y el cálculo de determinantes de matrices de orden
3 × 3. Es bien conocido que las operaciones elementales por filas son de los siguientes tipos:
Tipo I Para cualquier i ∈ {1, 2, 3} y α 6= 0, podemos sustituir la fila i por el producto del escalar
α con ella misma; esto se denota por fi −→ α fi , lo cual significa que la fila i es sustituida α veces
la fila i.
2 1 0 f −→ 1 f 2 1 0 2 1 0 2 1 0
3 3
Ejemplo: 0 3 1 −−−−−2−→ 0 3 1. En consecuencia se tiene 0 3 1 = 2 0 3 1 ; o
0 0 2 0 0 1 0 0 2 0 0 1
2 1 0 2 1 0
equivalentemente 0 3 1 = 12 0 3 1 .
0 0 1 0 0 2
Tipo II Para cualquier par de ı́ndices i, j ∈ {1, 2, 3} con i 6= j, y cualquier escalara no nulo α,
fi −→ fi + α fj significa que la fila i es sustituida la suma de la fila i y α veces la fila j.
2 1 0 2 1 0
f2 −→f2 +2f3
Ejemplo: 0 3 1 −−−−−−−−→ 0 3 5. Haciendo uso de las propiedades anteriores se con-
0 0 2 0 0 2
2 1 0 2 1 0
cluye 0 3 1 = 0 3 5 .
0 0 2 0 0 2
Tipo III Cualesquiera sean los ı́ndices i, j ∈ {1, 2, 3} con i 6= j, el intercambio, o trasposición de
filas, denotada por fi ←→ fj , significa que la fila i y la fila j de la matriz se intercambian.
2 1 0 2 1 0 2 1 0 2 1 0
f2 ←→f3
Ejemplo: 0 3 1 −−−−−→ 0 0 2. Sigue por tanto que 0 3 1 = − 0 0 2 .
0 0 2 0 3 1 0 0 2 0 3 1
40 4. Determinantes de orden n
Veamos un ejemplo de como emplear las operaciones elementales por fila en el cálculo del determinante
de una matriz dada. Antes recordemos que mediante el uso de estas operaciones elementales siempre se
puede reducir una matriz cualquiera a una matriz triangular; o más precisamente a una forma escalonada.
Note que operaciones elementales del segundo tipo el valor del determinante no se altera.
0 1 3
Ejemplo 4.3. Calculemos el determinante de A = 0 1 −1 . Haciendo uso de las propiedades
2 1 4
anteriores tenemos que:
0 1 3 2 1 4 2 1 4
f1 ←→f3 f3 −→f3 −f2
0 1 −1 −−−−−→= − 0 1 −1 −−−−−−−→= − 0 1 −1 = −8.
2 1 4 0 1 3 0 0 4
• Regla de Sarrus
Es frecuente que ante una fórmula tan extensa para la determinación del determinante de una matriz
orden 3 × 3, ésta se olvide; por eso se empleen reglas nemotécnicas para obtener el determinante de
una matriz de orden 3 × 3; la más conocida es la denominada Regla de Sarrus. Esta regla se expresa
gráficamente en la siguiente figura. Allı́ se representa en el lado izquierdo los productos, siguiendo las
direcciones indicadas por las flechas, que tienen signo positivo; y en el lado derecho están señalados los
productos que tienen signo negativo en la fórmula (4.3).
PSfrag replacements
Figura 4.3: Regla de Sarrus para el cálculo del determinante de una matriz 3 × 3. Los productos indicados en el
gráfico de la izquierda tienen antepuesto el signo +, mientras que los de la derecha tienen el signo −.
det A = a11 det A11 − a21 det A21 + · · · + (−1)j+1 aj1 det Aj1 + · · · + (−1)n+1 an1 det An1 ; (4.5)
valor del entero positivo n. Una tal fórmula requiere del conocimiento de un objeto matemático conocido
como permutaciones, acá evitamos esa formulación; que en realidad es poco útil para realizar cálculos.
Sólo para percibir la dificultad, e inutilidad, de obtener la fórmula del determinante orden superior a
3, veamos como se puede obtener la fórmula del determinante de orden 4. Sabemos que la fórmula del
determinante de orden 3 × 3 contiene 6 sumando; cada uno de ellos (si se observa) es el producto de un
elemento en cada una de las filas de A:
a11 a12 a13
a21 a22 a23 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 ;
a31 a32 a33
a22 a23 a24 a12 a13 a14 a12 a13 a14 a12 a13 a14
det A = a11 a32 a33 a34 − a21 a32 a33 a34 + a31 a21 a22 a23 − a41 a21 a22 a23 .
a42 a43 a44 a42 a43 a44 a42 a43 a44 a32 a33 a34
Sigue por tanto que la fórmula del determinante de orden 4 × 4 tiene 6 · 4 = 24 (4!) sumandos; cada
uno de estos sumandos es el producto de un elemento en cada una de las filas de la matriz. De continuar
con este razonamiento concluiremos, usando inducción sobre el orden de la matriz, que la fórmula del
determinante de orden n × n tiene n! sumandos; donde cada sumando es el producto de un elemento en
cada una de las filas de la matriz; esto sin entrar en los detalles de descubrir el signo que precede a cada
uno de los sumandos en dicha fórmula. ¡Es una tarea ciertamente complicada!.
A pesar de no conocer una fórmula general, en términos de los coeficientes de la matriz, para el cálculo
del determinante de cualquier orden, aprenderemos a calcularlo a partir de propiedades generales y el uso
de operaciones elementales por fila y columna. Antes introducimos una definición.
Definición 4.2. Dada cualquier matriz A = [aij ] ∈ Mn×n (K), se conoce con el nombre de cofactor ij
de A al escalar cof A(i, j) = (−1)i+j det Aij , donde Aij es la matriz de orden (n − 1) × (n − 1) que se
obtiene de A al eliminar la fila i y la columna j.
1 i 0
Ejemplo 4.4. La matriz A = 2 1 −1 tiene 9 cofactores: cof A(i, j) con i, j = 1, 2, 3. En
0 −2 3
particular:
i 0 1 0
cof A(2, 1) = (−1)2+1 2 = −6i, y cof A(3, 2) = (−1)3+2 (−2) = −2.
−2 3 2 −1
Observe que haciendo uso de la fórmula recursiva (4.1) y esta definición de cofactor es simple deducir
que:
det A = a11 cof A(1, 1) + a21 cof A(2, 1) + · · · + an1 cof A(n, 1); (4.6)
esto es, el determinante de A = [aij ] ∈ Mn×n (K) es la suma de los productos de los coeficientes de la
primera columna de A por sus respectivos cofactores. Más tarde descubriremos que det A es también la
suma de los productos de los coeficientes de cualquier columna de A por sus respectivos cofactores, e
incluso igual a la suma de los productos de los coeficientes de cualquier fila de A por sus correspondientes
cofactores.
42 4. Determinantes de orden n
2. Dada A ∈ Mn×n (K), si B ∈ Mn×n (K) se obtiene de A intercambiando dos de sus filas, entonces
fi ←→fj
det B = − det A (A −−−−−→ B).
3. Dada A ∈ Mn×n (K), si B ∈ Mn×n (K) se obtiene de A multiplicando una de sus filas por el escalar
f` −→α f`
α ∈ K, entonces det B = α det A (A −−−−−−→ B). Simbólicamente:
4. Dadas A ∈ Mn×n (K) y ` ∈ {1, · · · , n}, si las matrices B, C ∈ Mn×n (K) son tales que
Demostración: Como se podrá observar, cada una de las partes del enunciado del teorema son propie-
dades válidas para la función determinante de orden n = 1, 2, 3. Por tanto, la demostración la haremos
por inducción sobre n.
Supongamos como hipótesis inductiva que los enunciados son ciertos para n = 1, 2, · · · , k − 1; demos-
traremos que también valen para n = k.
1. De la fórmula (4.6) tenemos que
det Ik = 1 · cof Ik (1, 1) + 0 · cof Ik (2, 1) + · · · + 0 · cof Ik (k, 1) = cof Ik (1, 1).
det B = b11 cof B(1, 1) + · · · + b`1 cof B(`, 1) + · · · + bk1 cof B(k, 1) (4.8)
Observe que la matriz B`1 , la obtenida de B al eliminar la fila ` y la columna 1, es igual a la matriz A`1 ;
por lo que cof B(`, 1) = cof A(`, 1). Por otra parte, para cada i ∈ {1, · · · , k} con i 6= `, la matriz B i1 ,
4.3. Determinantes de orden superior: Propiedades 43
obtenida de B eliminando la fila i y la columna 1, es idéntica a la matriz Ai1 , excepto que una de las filas
está multiplicada por el escalar α; por tanto, como Ai1 y Bi1 son de un orden (k − 1) × (k − 1), sigue de
la hipótesis inductiva que para cada i 6= ` se tiene det Bi1 = α det Ai1 ; en particular estas observaciones
implican cof B(i, 1) = α cof A(i, 1) para todo i 6= `.
De esta manera, al emplear las ecuaciones (4.7) y (4.8) se tiene
det B = a11 α cof A(1, 1) + · · · + α a`1 cof A(`, 1) + · · · + ak1 α cof A(k, 1)
= α(a11 cof A(1, 1) + · · · + a`1 cof A(`, 1) + · · · + ak1 cof A(k, 1)) = α det A.
4. Sean A = [aij ], B = [bij ] y C = [cij ] en Mk×k (K) y ` ∈ {1, · · · , k} como en el enunciado del teorema;
es decir, para cada i, j ∈ {1, · · · , k} se cumple:
Note que la matriz C`1 , la obtenida de C eliminando la fila ` y la columna 1, es igual a A`1 = B`1 ; por
lo que cof C(`, 1) = cof A(`, 1) = cof B(`, 1). Además, para todo i ∈ {1, · · · , k} con i 6= ` las matrices,
(k − 1) × (k − 1), Ai1 , Bi1 y Ci1 satisfacen la hipótesis inductiva; luego para cada i 6= ` se tiene
det Ci1 = det Ai1 + det Bi1 y cof C(i, 1) = cof A(i, 1) + cof B(i, 1). (4.10)
Ası́, dado que det C = c11 cof C(1, 1) + · · · + c`1 cof C(`, 1) + · · · + ck1 cof C(k, 1), sigue de (4.9) y (4.10)
que det C = det A + det B.
Comentario 4.2. El resultado enunciado en el teorema que acabamos de demostrar dice de la función
determinante, det : Mn×n (K) → K, es igual a 1 en la matriz identidad, alternada (propiedad 2) y lineal
en cada una de las filas (propiedades 3 y 4). De hecho se puede demostrar que tal función de M n×n (K)
en K es la única que satisface estas propiedades. La demostración de esta última afirmación escapa al
nivel en que presentamos estas notas.
El siguiente corolario muestra otras propiedades adicionales de la función determinante que son con-
secuencia inmediata de las enunciadas en el teorema anterior.
3. Si una de las filas de A es igual a la suma de múltiplos de otras de sus filas, entonces det A = 0.
4. Si la matriz B se obtiene de A sustituyendo cualquiera de sus filas por la suma de esa fila y un
fi −→fi +α fj
múltiplo de otra (A −−−−−−−−→ B), entonces det B = det A.
Note que las partes 2 y 3 del teorema 4.1 y la última parte del corolario anterior establecen el efecto
sobre el determinante de una matriz cuadrada obtenida luego de aplicarle una operación elemental por
fila. Debido a su importancia lo escribimos de nuevo:
• Efecto de la operación elemental por fila del tipo I en el determinante:
fi −→α fi
A −−−−−−→ B =⇒ det B = α det A, con α 6= 0.
44 4. Determinantes de orden n
Observe que si B es cuadrada y escalonada, entonces es una matriz triangular superior; además, si es
escalonada reducida por filas, entonces los elementos no nulos de la diagonal principal son todos iguales
a 1; en particular, si los todos los elementos de la diagonal principal son todos iguales a 1, entonces B es
la matriz identidad.
Es bien conocido que dada una matriz cuadrada A ∈ Mn×n (K), mediante una sucesión finita de
operaciones elementales por fila aplicadas sobre A, se obtiene una matriz triangular superior. Surge por
tanto la siguiente interrogante ¿cuál es la relación entre el determinante de A y el determinante de la
matriz triangular superior obtenida por este procedimiento?
Para dar respuesta a esta pregunta primero debemos conocer el valor del determinante de cualquier
matriz triangular superior. Ya hemos visto que para matriz triangulares de ordenes 2 × 2 y 3 × 3, su
determinante es justamente el producto de los coeficientes en la su diagonal principal. Esta es la propiedad
que queremos resaltar para matrices triangulares superiores de cualquier orden:
Teorema 4.2. Para cualquier matriz triangular superior A = [aij ] ∈ Mn×n (K) siempre se cumple que
det A = a11 det A11 − a21 det A21 + · · · + (−1)n+1 det An1 ;
pero cada matriz Ai1 con i > 1 tiene la primera fila nula, por tanto su determinante es igual a 0; por otra
parte, la matriz A11 es también triangular inferior. Luego por inducción se concluye que el determinante
de A es el producto de los elementos en su diagonal principal; es decir:
a11 0 ··· 0
a21 a22 ··· 0
det A = . .. .. .. = a11 a22 · · · ann .
.. . . .
an1 an2 ··· ann
Antes de proseguir recuerde que operaciones elementales por filas del tipo II no alteran el valor del
determinante de la matriz obtenida luego de su aplicación.
En lo que sigue, si F es una secuencia finita de operaciones elementales por fila y A es una matriz
cualquiera, F(A) denotará la matriz obtenida de A al realizar tal secuencia de operaciones elementales.
Podemos ahora enunciar el siguiente teorema, cuya demostración es simple a partir del efecto que producen
las operaciones elementales por fila sobre el determinantes.
Teorema 4.3. Sean A ∈ Mn×n (K) y F es una secuencia finita de operaciones elementales por fila. Si en
F hay k intercambio de filas y ` operaciones elementales del tipo I, en las cuales intervienen los escalares
no nulos α1 , · · · , α` , entonces det A = (−1)k (α1 · · · α` )−1 det F(A).
46 4. Determinantes de orden n
2 1 3 −1
0 1 −1 0
Ejemplo 4.5. Calculemos el determinante de A = 1 2
.
1 1
−1 2 1 −1
Haciendo uso de la obtención de una forma escalonada equivalente por filas a A y el efecto que producen
las operaciones elementales por filas, tenemos que:
1 2 1 1 1 2 1 1
f1 ↔f3 0 1 −1 0 f3 →f3 −2f1 0 1 −1 0
|A| −−−−→= − −−−−−−−→= −
2 1 3 −1 f4 →f4 +f1 0 −3 1 −3
−1 2 1 −1 0 4 2 0
1 2 1 1 1 2 1 1
f3 →f3 +3f2 0 1 −1 0 f4 →f4 +3f3 0 1 −1 0
−−−−−−−→= − −−−−−−−→= − = −18.
f4 →f4 −4f2 0 0 −2 −3 0 0 −2 −3
0 0 6 0 0 0 0 −9
Note que en general, si F es una secuencia finita cualquiera de operaciones elementales por fila,
entonces existe una constante β 6= 0 tal que, para cualquier matriz cuadrada apropiada A se cumple
det F(A) = β det A. De estas simples observaciones y el teorema 4.2 tenemos el siguiente resultado:
Teorema 4.4. Una matriz A ∈ Mn×n (K) es invertible si, y sólo si, det A 6= 0.
Demostración: Sabemos que una matriz A ∈ Mn×n (K) es invertible si, y sólo si, cualquier matriz
escalonada obtenida a partir de ella por operaciones elementales por fila tiene rango n. Pero una matriz
escalonada de orden n × n y con rango n es una matriz triangular superior con todas sus fila no nulas;
en particular, los coeficientes de su diagonal son todos diferentes de 0.
1 0 −1 3
2 2 0 8
Ejemplo 4.6. Determinemos si la matriz A = es o no invertible; y en caso de serlo
1 0 4 −1
0 1 −5 1
calculemos su determinante. Para ello procedemos a reducir por filas a la matriz A.
1 0 −1 3 1 0 −1 3 1 0 −1 3
2 2 0 8 f2 −→f2 −2f1 0 2 2 2 f3 −→f3 −f1 0 2 2 2
− −−−−−−−→ − −−−−−−→
1 0 4 −1 1 0 4 −1 0 0 5 −4
0 1 −5 1 0 1 −5 1 0 1 −5 1
1 0 −1 3 1 0 −1 3
1 6
f4 −→f4 − 2 f2 0 2 2 2 4
f −→f 4 + 5 3 0 2
f 2 2
−−−−−−−−−→ −−−−−−−− −→ .
0 0 5 −4 0 0 5 −4
0 0 −6 0 0 0 0 − 245
De acá concluimos que A es invertible pues tiene rango 4; además, como las operaciones elementales
por fila empleadas fueron todas del tipo II, entonces det A = 1 · 2 · 5 · − 24
5 = −48. En la sección 4.4
aprenderemos a determinar la inversa de A empleando los cofactores de la matriz.
Observe que con este método se ha reducido sustancialmente el cálculo del determinante de la matriz
A; de haberlo efectuado siguiendo la definición recursiva, hubiesemos tenido que calcular cada uno de los
24 sumandos, con sus respectivos signos, que son el producto de un elemento por cada fila de A. Esta
diferencia es aún más notable cuando la matriz es de orden muy grande, pues al calcular el determinante
4.3. Determinantes de orden superior: Propiedades 47
det A = (−1)i+1 ai1 det Ai1 + (−1)i+2 ai2 det Ai2 + · · · + (−1)i+n ain det Ain ;
fórmula conocida como desarrollo del determiante por medio de los cofactores de la fila i.
4. Si A = [aij ], para todo j ∈ {1, · · · , n} siempre se cumple
det A = (−1)j+1 a1j det A1j + (−1)j+2 a2j det A2j + · · · + (−1)j+n anj det Anj ;
Tipo II Sustituir una columna por la suma de ella con un múltiplo no nulo de otra columna de
la matriz. ci −→ ci + α cj significa que la columna i es sustituida la suma de la columna i y α veces
la columna j.
2 1 0 2 1 0
c2 −→c2 −3c3
Ejemplo: 0 3 1 −−−−−−−−→ 0 0 1 .
0 0 2 0 −6 2
Tipo III Intercambio o trasposición de columnas, denotada por ci ←→ cj , significa que las
columnas i y j se intercambian.
2 1 0 2 0 1
c2 ←→c3
Ejemplo: 0 3 1 −−−−−→ 0 1 3.
0 0 2 0 2 0
48 4. Determinantes de orden n
De la misma forma que en el caso de operaciones elementales por fila, si C es una secuencia finita
de operaciones elementales por columna, entonces C(A) denota la matriz obtenida de A al realizar tales
operaciones elementales; al igual que en el caso de operaciones elementales por fila, existe una constante
γ 6= 0 tal que, para cualquier matriz cuadrada A se cumple det C(A) = γ det A.
Igualmente se puede mostrar que las operaciones elementales por columna definen una relación de
equivalencias; también pueden definirse formas escalonadas por columnas, formas escalonadas reducidas
por columnas, y una forma canónica de Gauss-Jordan por columnas. Dado que todo esto se hace se
manera similar a como fue hecho para operaciones elementales por filas, no entraremos en los detalles;
los cuales dejamos al lector.
El siguiente lema es fundamental para la demostración de la primera parte del teorema enunciado.
1. F(AB) = F(A)B, y
2. C(AB) = AC(B).
Demostración: Daremos una demostración sobre para la primera parte; la segunda parte es semejante.
De hecho mostraremos la primera parte en el caso que F es una sóla operación elemental por fila; pues de
allı́ se concluye de forma muy simple la demostración cuando F es cualquier secuencia finita de operaciones
elementales por fila.
Si A = [aij ] ∈ Mm×n (K) y B = [bij ] ∈ Mn×p (K), entonces AB = [cij ] ∈ Mm×p (K), donde cada cij ,
con i ∈ {1, · · · , m} y j ∈ {1, · · · , p}, es dado por:
Caso 2: B no invertible.
La demostración en este caso es similar al anterior, pero ahora la matriz C(B) tiene al menos una columna
nula y C(AB) = A C(B).
Caso 3: A y B ambas invertibles.
En vista de que A y B son invertibles, F(A) = In = C(B). En particular esto implica que det A = β −1 .
Ahora bien, como F(AB) = F(A) B, entonces F(AB) = B y β det(AB) = det B; de donde se deduce
obviamente det(AB) = β −1 det B = det A det B.
1
Corolario 4.2. Si A ∈ Mn×n (K) es una matriz invertible, entonces det A−1 = .
det A
Demostración: Es inmediata a partir de: la parte 1 del teorema 4.5 que det In = 1, A−1 A = In y del
hecho que det A 6= 0.
Corolario 4.3. Si A1 , · · · , Ak ∈ Mn×n (K) son matrices cualesquiera, entonces se cumple la identidad
det(A1 · · · Ak ) = det A1 · · · det Ak . En particular el producto A1 · · · Ak es invertible si, y sólo si, cada una
de las matrices factores también lo es.
Demostración: Se hace por inducción sobre el entero positivo k; se dejan los detalles al lector.
Definición 4.3. Dos secuencias finitas F = oef (k) · · · oef (1) y C = oec(k) · · · oec(1) de operaciones
elementales por fila y columna, respectivamente, se dicen análogas, si para cada ` ∈ {1, · · · , k} se tiene
que oef (`) es fi ←→ fj (resp. fi −→ α fi , fi −→ fi + α fj ) si, y sólo si, oec(`) es ci ←→ cj (resp.
ci −→ α ci , ci −→ ci + α cj ).
Lema 4.2. Sea A ∈ Mn×n (K) una matriz cualquiera. Si F es una secuencia finita de operaciones ele-
mentales por fila tales que F(A) es triangular superior, entonces la secuencia análoga a F de operaciones
elementales por columna, C, hace que C(At ) sea triangular inferior y los elementos en su diagonal principal
son los mismos que en la diagonal principal de F(A).
Demostración: Se deja como ejercicio para el lector.
Lema 4.3. Sean A ∈ Mn×n (K) una matriz cualquiera, F una operación elemental por fila y C su
análoga por columna. Entonces C tiene el mismo efecto que F en el cálculo del determinante de A; esto
es, det C(A) = det F(A).
Demostración: Es simple verificar que cualquiera sea la operación elemental por fila F, y su corres-
pondiente análoga C, se cumplen F(A) = F(In ) A y C(A) = A C(In ). De acá que:
det F(A) = det F(In ) det A y det C(A) = det A det C(In ).
La matriz identidad es especial respecto de las operaciones elementales por fila y columna que se le
apliquen. Más explı́citamente, la matriz resultante al intercambiar dos de las filas de I n es el misma
que el intercambiar las correspondientes columnas; y la matriz que se obtiene al multiplicar una de las
filas de In por un escalar α 6= 0 es la misma que se obtiene al multiplicar la correspondiente columna
por el mismo escalar. Ası́ que si F es una de estas operaciones elementales por fila y C es su análoga
por columna, entonces F(In ) = C(In ); en particular det F(In ) = det C(In ). Por otro lado, si F es una
operación elemental por fila que sustituye una fila por la suma de ella más un múltiplo de otra, y si C
es su análoga por columna, entonces es simple chequear que C(In ) = [F(In )]t . Además, para este tipo de
operaciones elementales por fila, es fácil verificar que det[F(In )]t = 1 = det F(In ), entonces también se
tiene que det F(In ) = det C(In ).
Estas observaciones sobre el efecto de las operaciones elementales por fila y columna sobre I n junto
con las identidades de arriba implican el lema.
50 4. Determinantes de orden n
Comentario 4.3. Observe que el lema anterior junto con el teorema 4.1 (ver página 42) y el corolario
4.1 (ver página 43) nos dice que:
• Efecto de la operación elemental por columna del tipo I en el determinante:
c −→α c
i i
A −− −−−−→ B =⇒ det B = α det A, con α 6= 0.
ci −→ci +α cj
A −−−−−−−−→ B =⇒ det B = det A.
ci ←→cj
A −−−−−→ B =⇒ det B = − det A.
det A = (−1)m (α1 · · · αk )−1 det F(A) y det At = (−1)m (α1 · · · αk )−1 det C(At ).
Finalmente, dado que las matrices triangulares F(A) y C(At ) tienen la misma diagonal principal, sus
determinantes son iguales; esto obviamente implica que det A = det At .
Comentario 4.4. Haciendo uso entonces del hecho que el determinante de cualquier matriz cuadrada es
igual al determinante de su traspuesta, se deducen directamente las siguientes propiedades de linealidad
en cada una de las columnas de la matriz; ver partes 3 y 4 del teorema 4.1, donde se muestran las
correspondientes propiedades para las filas de la matriz:
a11 ··· α a1j ··· a1n a11 ··· a1j ··· a1n
a21 ··· α a2j ··· a2n a21 ··· a2j ··· a2n
1. .. .. .. .. .. = α .. .. .. .. .. para todo α 6= 0; y
. . . . . . . . . .
an1 ··· α anj ··· ann an1 ··· anj ··· ann
a11 ··· a1j + b1j ··· a1n a11 ··· a1j ··· a1n a11 ··· b1j ··· a1n
a21 ··· a2j + b2j ··· a2n a21 ··· a2j ··· a2n a21 ··· b2j ··· a2n
2. .. .. .. .. .. = .. .. .. .. .. + .. .. .. .. .. .
. . . . . . . . . . . . . . .
an1 ··· anj + bnj ··· ann an1 ··· anj ··· ann an1 ··· bnj ··· ann
3. Si una de las columnas de A es igual a la suma de múltiplos de otras de sus columnas, entonces
det A = 0.
4.3. Determinantes de orden superior: Propiedades 51
1 1 1
Ejemplo 4.7. Vamos a calcular el determinante a b c el cual es conocido como determinante
a 2 b2 c2
de Vandermonde (ver sección de ejercicios propuestos). Haciendo uso de operaciones elementales por
columna tenemos:
1 1 1 1 0 0
c −→c −c
2 b−a c−a
a b c −− −−−2−−→
1
= a b−a c−a = 2 (¿por qué?)
c3 −→c3 −c1 b − a2 c2 − a 2
a2 b2 c2 a2 b2 − a 2 c2 − a 2
= (b − a)(c2 − a2 ) − (c − a)(b2 − a2 )
= (b − a)(c − a)(c − b).
det At = a11 det At11 − a12 det At21 + · · · + (−1)n+1 a1n det Atn1 ,
pues la primera columna de At es la primera fila de A. Por otra parte, es simple verificar que para todo
i, j en {1, · · · , n} se tiene Atij = Aji . Luego de la identidad anterior sigue que
det A = a11 det A11 − a12 det A12 + · · · + (−1)n+1 a1n det A1n ;
esto es, el determinante de A se obtiene también por el desarrollo de los cofactores de su primera fila.
Veamos que igualmente se obtiene por el desarrollo de los cofactores de cualquiera de sus otras filas. En
efecto, fijemos un ı́ndice de fila, digamos i ≥ 2, y sea B la matriz que se obtiene de A al realizar la
secuencia de operaciones elementales por fila:
det A = (−1)i−1 ai1 det B11 − ai2 det B12 + · · · + (−1)n+1 ain det B1n ,
pero (−1)i−1 = (−1)i+1 y B1j = Aij para todo j ∈ {1, · · · , n}, entonces de la anterior fórmula se obtiene
det A = (−1)i+1 ai1 det Ai1 + (−1)i+2 ai2 det Ai2 + · · · + (−1)i+n ain det Ain ,
2 0 1 3
2 3 1 2
Ejemplo 4.8. Calculemos el determinante de la matriz A = 0 0 −1 4 . Observe que la segunda
0 0 0 2
columna de A es “casi nula”; por tanto procedemos a obtener det A a través del desarrollo por cofactores
de la segunda columna. Ası́:
2 0 1 3
2 1 3
2 3 1 2
= (−1)2+2 3 0 −1 4 = −12
0 0 −1 4
0 0 2
0 0 0 2
Observe que como la última fila es también casi nula, pero la matriz que resulta, al hacer el desarrollo
por cofactores de la última fila tendrı́amos:
2 0 1 3
2 0 1
2 3 1 2 2 0
= (−1)4+4 2 2 3 1 = 2 (−1)3+3 (−1) = −12.
0 0 −1 4 2 3
0 0 −1
0 0 0 2
los cuales cubrı́an una gran variedad de temas, entre ellos el estudio de problemas geométricos, historia de la matemática y
filosofı́a. Su trabajo no se limitó a áreas académicas, también laboró en la administración municipal; en cual se destacó uti-
lizando su amplio conocimiento matemático y cientı́fico. Una de las áreas de mayor destaque en el quehacer matemático de
Cramer se debe al trabajo editorial que publicó en 1750, en el que trató el estudio de las curvas algebraicas.
4.4. Algunas aplicaciones de los determinantes 53
Teorema 4.6 (Regla de Cramer). Las coordenadas de la solución del sistema de ecuaciones lineales
det A(j; b)
AX = B son dadas, para cada j = 1, · · · , n, por xj = .
det A
x1
(1) (n) ..
Demostración: Sean A , · · · , A las columnas de la matriz A, y X = . la solución del sistema
xn
de ecuaciones lineales AX = B. Una simple cuenta muestra que B = x1 A + · · · + xn A(n) . Para cada
(1)
det A(j; b) = det B1 + · · · + det Bj−1 + det Bj + det Bj+1 + · · · + det Bn = xj det A;
det A(j; b)
de donde xj = , para cada j = 1, · · · , n. Por tanto la demostración está completa.
det A
Examinemos si es posible resolver tal sistema empleando la Regla de Cramer. El primer paso es averiguar
si la matriz A es invertible; esto es, si su determinante es diferente de 0:
1 2 3 1 2 3 f −→ 1 f 1 2 3 1 2 3
f3 −→f3 −f1 2 2 f3 −→f3 +f2
1 0 1 −−−−−−−→= 0 −2 −2 −−−−−2−→= −2 0 1 1 −−−−−−−→= −2 0 1 1 = 6;
f2 −→f2 −f1
1 1 −1 0 −1 −4 0 −1 −4 0 0 −3
luego det A 6= 0 y por tanto podemos utilizar la regla de Cramer pues el sistema AX = B tiene solución
54 4. Determinantes de orden n
2 2 3 1 1 −1 1 1 −1
f3 ←→f1 f2 −→f2 −3f1
det A(1; b) = 3 0 1 −−−−−→= − 3 0 1 −−−−−−−−→= − 0 −3 4 = 15
f3 −→f3 −2f1
1 1 −1 2 2 3 0 0 5
1 2 3 1 2 3 1 2 3
f2 −→f2 −f1 f3 −→f3 −f2
det A(2; b) = 1 3 1 −−−−−−−→= 0 1 2 −−−−−−−→= 0 1 2 = −6, y
f3 −→f3 −f1
1 1 −1 0 1 −4 0 0 −6
1 2 2 1 2 2
f2 −→f2 −f1 −2 1
det A(3; b) = 1 0 3 −−−−−−−→= 0 −2 1 = = 3,
f3 −→f3 −f1 −1 −1
1 1 1 0 −1 −1
Definición 4.4. Dada una matriz A ∈ Mn×n (K), se denominada adjunta clásica de A, a la matriz
Adj(A) = [bij ] ∈ Mn×n (K) tal que bij = (−1)i+j det(Aji ), para cada i, j ∈ {1, · · · , n}. Es decir, Adj(A)
es la traspuesta de la matriz de los cofactores de A.
2 1 −2
−1 2 1 2 1 −1
cof A(1, 1) = = −3, cof A(1, 2) = − = 5, cof A(1, 3) = = 4,
1 1 3 1 3 1
1 −2 2 −2 2 1
cof A(2, 1) = − = −3, cof A(2, 2) = = 8, cof A(2, 3) = − = 1,
1 1 3 1 3 1
1 −2 2 −2 2 1
cof A(3, 1) = = 0, cof A(3, 2) = − = −6, cof A(3, 3) = = −3,
−1 2 1 2 1 −1
−3 −3
0
en consecuencia la adjunta clásica de A es Adj(A) = 5 8 −6 .
4 1 −3
Una importante identidad que permite relacionar una matriz con su adjunta clásica es dada por:
4.4. Algunas aplicaciones de los determinantes 55
Proposición 4.3. Si A = [aij ] ∈ Mn×n (K), entonces para todo i, j = 1, · · · , n siempre se cumple
n
X
(−1)j+k aik det Ajk = δij det A, (4.11)
k=1
(
1, si i = j
donde δij es el delta de Kronecker, esto es, δij =
0, si i 6= j.
Corolario 4.4. Toda matriz A ∈ Mn×n (K) satisface A Adj(A) = det A In . En particular, si A es inver-
1
tible, entonces A−1 = Adj(A).
det(A)
Demostración: Para demostrar la identidad señalada basta verificar que si A Adj(A) = [c ij ], entonces
(
det A, si i = j
cij = . Ahora bien, de la definición de multiplicación de matrices sigue inmediata-
0, si i 6= j
n
X
mente que, cualesquiera sean los ı́ndices i, j ∈ {1, · · · , n}, cij = (−1)j+k aik det(Ajk ). Por tanto de la
k=1
identidad (4.11) se concluye que A Adj(A) = det A In .
Finalmente,
supongamos que la matriz A es invertible. Dado que A Adj(A) = det A I n y det A 6= 0,
1 1
entonces A Adj(A) = In ; por lo que A−1 = Adj(A)
det A det A
2 1 −2
2 1 −2 1 −1 2 1 −1 2
3 −6
1 −1 2 =− 2 1 −2 =− 0 3 −6 =− = −9;
4 −5
3 1 1 3 1 1 0 4 −5
−3 −3
0
1
entonces A−1 =− 5 8 −6 .
9
4 1 −3
forma escalonada por columnas equivalente a A. Presentaremos ahora otra forma de obtener el rango de
una matriz, este método está relacionado con los determinantes de ciertas submatrices de A.
Definición 4.5. Sea A ∈ Mm×n (K). Dados dos subconjuntos F = {i1 < · · · < ir } ⊂ {1, · · · , m} y
C = {j1 < · · · < js } ⊂ {1, · · · , n}, se define la submatriz de A de ı́ndices F y C, como la matriz
AF C ∈ Mr×s (K) obtenida de la matriz A suprimiendo las filas y columnas cuyos ı́ndices no están en los
conjuntos F y C, respectivamente.
1 2 −1 1 0 1
claramente F(A) es escalonada reducida por filas y tiene exactamente r filas no nulas.
En A hay r filas que luego de aplicar la secuencia F producen las primeras r filas de F(A). Sean
1 ≤ i1 < · · · < ir ≤ m los ı́ndices de tales filas de A; y sean 1 ≤ j1 < · · · < jr ≤ n los ı́ndices de las
columnas de A (¡y de F(A)!) donde están los pivotes 1 de F(A). Ahora considere los conjuntos de
ı́ndices F = {i1 , · · · , ir } y C = {j1 , · · · , jr }. Note que las filas de la matriz AF C ∈ Mr×r (K) son parte
de las filas que producen las filas no nulas de la forma canónica de Gauss-Jordan de A; igualmente sus
columnas son justamente las columnas de esa forma canónica donde están sus pivotes; por tal motivo
F(AF C ) es la matriz identidad de orden r, por tanto det AF C 6= 0.
Por otro parte, si F 0 y C 0 son conjuntos de ı́ndices tales que AF 0 C 0 es de orden k×k con k > r, entonces
empleando los mismos argumentos anteriores se concluye que su forma canónica de Gauss-Jordan tiene
al menos una fila nula, de lo contrario el rango de A serı́a mayor que r; ası́ det A F 0 C 0 = 0.
De esta forma, el orden de la mayor submatriz de A cuyo determinante es diferente de 0 es r × r.
Ejemplo 4.13. El teorema que acabamos de demostrar es una herramienta meramente teórica, es bastan-
te inadecuado para fines prácticos. Veamos a través de un ejemplo la razón de esta afirmación. Considere-
1 2 −1 1
0 1
mos la matriz A = −2 0 1 1 −1 2 del ejemplo anterior. Empleando operaciones elementales
−4 4 1 5 −3 8
por filas es muy simple verificar que A tiene rango 2. Sin embargo, al emplear el resultado anterior para
realizar esta verificación, tendrı́amos que verificar que las matrices A F C tienen determinante nulo, siem-
pre que los subconjuntos de ı́ndices F y C tengan ambos 3 elementos; es decir, cuando F = {1, 2, 3} y C es
4.5. Ejercicios Propuestos 57
cualquiera de los conjuntos {1, 2, 3}, {1, 2, 4}, {1, 2, 5}, {1, 2, 6}, {1, 3, 4}, {1, 3, 5}, {1, 3, 6}, {1, 4, 5}{1, 4, 6},
{1, 5, 6}, {2, 3, 4}, {2, 3, 5}, {2, 3, 6}, {2, 4, 5}, {2, 4, 6}, {3, 4, 5}, {3, 4, 6}, {3, 5, 6} y {4, 5, 6}; además de en-
contrar un par de conjunto de subı́ndices F y C con cardinalidad 2 cada uno de ellos, tales que
det AF C 6= 0.
−i 1 − i
2 0 a b 1 1 1
1 + i 2i a b 1 1
, , , −i −2 0 , −a 0 c , a b c .
2 − i −1 −b a a b
2+i 0 3i −b −c 0 a2 b2 c2
2. Demostrar que si A es una matriz de orden 2×2 (o 3×3) tiene determinante diferente de 0, entonces
A es invertible. ¿Es cierto el recı́proco?
3. Determine los valores de x para los cuales las siguientes matrices son invertibles:
2 1 0
12 − x 4 2x 4 2x 4
, , y 1 x 1 .
8 8−x x 2 x 1
1 1−x 1−x
4. ¿Es cierto que si A y B son matrices 2 × 2 (o 3 × 3), entonces det(α A + β B) = α det A + β det B?
8. Verificar que la ecuación de la recta en R2 que pasa por los puntos (x1 , y1 ) y (x2 , y2 ) con x1 6= x2
1 1 1
es expresada mediante el determinante x x1 x2 . Recordar que la recta de R2 que pasa por los
y y 1 y2
puntos (x1 , y1 ) y (x2 , y2 ) es el conjunto de puntos (x, y) tales que (x2 −x1 )(y −y1 ) = (y2 −y1 )(x−x1 )
9. Dados →−
x = (x1 , x2 , x3 ) y →
−y = (y1 , y2 , y3 ) en R3 , se define el producto cruz de →
−
x y→−
y como el vector
x x x x x x
de R3 →−
x ×→ −
y = 2 3
,− 1 3
, 1 2
. Demostrar que → −
x ×→ −
y es ortogonal a →
−x y→−
y.
y2 y3 y1 y3 y1 y2
→
−
e1 →−e2 →−
e3
→
− →
− →
− →
− →
−
¿Es x × y = y × x ? Es común encontrar en la literatura la notación x × y = x1 x2 x3 ; →
−
y1 y2 y3
esto debido a la fórmula del desarrollo del determinante por la primera fila.
13. Sea A un matriz antisimétrica de orden n × n; esto es, A = −At . Demuestre que para cualquier
matriz antisimétrica vale det A = (−1)n det A. Deducir de acá que si n es impar, entonces A es no
invertible
14. Demostrara que si A ∈ Mn×n (K), entonces det(αA) = αn det A para cualquier escalar α ∈ K.
15. Una matriz A ∈ Mn×n (R) se dice ortogonal si AAt = In . Demostrar que si A es ortogonal, entonces
det A = ±1.
16. Una matriz A ∈ Mn×n (C) se dice unitaria si AA∗ = In , donde A∗ = At , la traspuesta de su
conjugada. Demostrar que si A es unitaria, entonces | det A| = 1. (Sugerencia: Mostrar primero que
det A = det A. Recuerde
p que para un número complejo z = x + iy, su conjugado es z = x − iy y su
módulo es |z| = x + y 2 .)
2
17. Dos matrices cuadradas A y B, ambas del mismo orden, se dicen similares si existe una matriz
invertible P tal que A = P B P −1 . Demostrar que matrices similares tienen el mismo determinante.
18. Dadas matrices B ∈ Mr×r (K), C ∈ Mr×(n−r) (K), O ∈ M(n−r)×r (K) (la matriz nula de orden
B C
(n − r) × r) y D ∈ M(n−r)×(n−r) (K). Si A es la matriz por bloques A = , demostrar que
O D
det A = det B det D.
19. Para cada i = 1, · · · , r, sea Ai una matriz cuadrada
de orden mi . Demostrar
que el determinan-
A1 O ··· O O
O A
2 ··· O O
. . .. .. ..
te de la matriz diagonal por bloques A = .. .. . . . es el producto de los
O O · · · Ar−1 O
O O ··· O Ar
4.5. Ejercicios Propuestos 59
0 0 0 a14
0 0 a23 a24
20. Calcule el determinante de la matriz 0 a32
. Generalize el resultado para matrices
a33 a34
a41 a42 a43 a44
de orden n × n.
1 1 1 ··· 1
x0 x1 x2 ··· xn
x20 x21 x22 ··· x2n
21. Se conoce como Matriz de Vandermonde de orden n a la matriz , de-
.. .. .. .. ..
. . . . .
xn0 xn1 xn2 ··· xnn
Y
muestre que su determinante es igual al producto (xi − xj ).
i>j
La matriz de Vandermonde aparece como la traspuesta de la matriz del sistema lineal que se obtiene
del siguiente problema: Dados n + 1 pares de (x0 , y0 ), · · · , (xn , yn ) en R2 , encontrar un polinomio
p(x) = a0 + a1 x + · · · + an xn tal que p(xi ) = yi para todo i = 0, · · · , n. Este es un problema clásico
de interpolación. ¿Cuándo existe un único polinomio que interpole los puntos dados?
23. Utilice
la Regla de Cramer para resolver
los sistemas de ecuaciones lineales
dados a continuación:
2x − y + 3z = 1 2x + y − 3z = 1 x − y + 4z = −4
a) 3x + 2y − z = 0 b) x − 2y + z = 0 c) −8x + 3y + z = 0
x + 4y + z = 6 3x + 4y − 2z = −5 2x − y + z = 8
24. Encontrar la adjunta clásica de las siguientes matrices; en el caso de que alguna de ellas sea invertible,
determine su inversa.
−2 0 1 −2 0 1 −2 1
4
a) 0 4 1 b) −3 2 1 c) 2 2 −1
0 1 5 −1 2 1 3 0 0
−1 1−i
7 1 4 4 1 0 0
d) −3 5 −2 e) −2 3 2 f) 4 3i 1
6 −3 0 6 0 3 2i 1 − 4i −1
cos θ 0 − sen θ
1 √1 1√ 1 0 0
g) 0 i 2 −i 2 h) 1 1 0 i) 0 1 0 .
1 −1 1 1 1 1 sen θ 0 cos θ