Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Teoria PDF
Teoria PDF
Matrices y Determinantes
2.1 Introducción
Presentaremos en este tema las matrices y los determinantes, centrándonos en particular
en el caso de matrices constituidas por números reales.
13
14 MATRICES Y DETERMINANTES
4. La matriz opuesta de A = (aij ), que denotamos por: −A, es la que tiene como
componentes a los opuestos de los de A, es decir −A = (−aij ).
Para el caso particular de las matrices cuadradas, A ∈ Mn×n (R), definiremos a su vez:
2. A es triangular superior si aij = 0 para todas las componentes tales que i > j.
Es trivial comprobar que con estas definiciones (Mm×n (R), +, · R) verifica las ocho
propiedades de la definición de espacio vectorial. Evidentemente el elemento neutro de
la suma será la matriz nula, mientras que el elemento opuesto de una matriz no es más
que su matriz opuesta. La dimensión del espacio vectorial real (Mm×n (R), +, · R) es
obviamente igual a mn.
Desde otro punto de vista, una matriz A ∈ Mm×n (R) puede ser interpretada como
un sistema de m vectores (vectores fila) del espacio vectorial Rn , o bien como un sistema
de n vectores (vectores columna), de Rm , veamos:
a11 . . . a1n f⃗1 ( )
. ..
A = (aij ) =
.. ..
. . = ... = ⃗c1 . . . ⃗cn
am1 . . . amn f⃗m
{ }
siendo Sc = {⃗c1 , ⃗c2 , . . . , ⃗cn } y Sf = f⃗1 , . . . , f⃗m los sistemas de vectores columna y de
vectores fila de A respectivamente. ⃗c1 , . . . , ⃗cn ∈ Rm , f⃗1 , . . . , f⃗n ∈ Rn .
∑
p
cij = aih bhj = ai1 b1j + ai2 b2j + ... + aip bpj
h=1
Desde el punto de vista citado en el apartado anterior, mediante el cual “vemos” una
matriz de números reales como un sistema de vectores fila (o de vectores columna),
el producto de matrices puede interpretarse de la siguiente forma: para construir el
16 MATRICES Y DETERMINANTES
Dadas las condiciones del producto, tanto las filas de A como las columnas de B son vec-
tores del espacio vectorial Rp . Introduciremos ahora el producto escalar estándar en Rp ,
al que nos referiremos con mucho más detalle en un tema próximo. Si ⃗v1 = (x1 , . . . , xp )
y ⃗v2 = (x′1 , . . . , x′p ) son dos vectores del espacio vectorial Rp , entonces llamaremos pro-
ducto escalar estándar (o simplemente producto escalar) de ⃗v1 y ⃗v2 , y lo denotamos por
⃗v1 · ⃗v2 , (o alternativamente: ⟨⃗v1 |⃗v2 ⟩) al número real:
De esta forma, concluimos con que el producto de las matrices A y B puede expresarse
de la siguiente forma:
( ) ( )
1 2 1 2 3
Ejemplo: Sean A = yB= .
0 1 0 1 2
En primer lugar, es fácil concluir que no existe B · A, pues el número de columnas de B no
coincide con el número de filas de A. Sin embargo A · B sı́ que está bien definido y será una
matriz de orden 2 × 3 (nótese que: A2×2 · B2×3 = C2×3 ). Aplicando la definición:
( )( ) ( )
1 2 1 2 3 1 4 7
AB = =
0 1 0 1 2 0 1 2
A · (B + C) = A · B + A · C
Im · A = A , A · In = A
(A · B)t = B t · At
A2 = A · A , A3 = A · A · A , ...
Matrices Invertibles
Definición: Una matriz cuadrada A ∈ Mn×n (R) es invertible si existe otra matriz de
igual tamaño, llamada inversa de A y que denotaremos A−1 , que verifica:
A · A−1 = A−1 · A = In
18 MATRICES Y DETERMINANTES
(A · B)−1 = B −1 · A−1
• Intercambiar el orden entre las filas i-ésima y j-ésima de la matriz. Se denota por
Fij .
MATRICES Y DETERMINANTES 19
Proposición: Sea A una matriz A ∈ Mm×n (R). Sea E una matriz elemental (por filas)
de orden m × m. Entonces la matriz producto E · A es igual a la matriz que se obtiene
al realizar en A la transformación elemental por filas correspondiente a la matriz E.
Nota: Esta proposición es cierta para transformaciones por columnas, pero en ese caso
el producto debe realizarse por la derecha, es decir: A · E.
Proposición: Las matrices elementales son invertibles y sus inversas son de nuevo
matrices elementales del mismo tipo. Es fácil deducir (utilizando la proposición anterior)
cuáles son las inversas de las matrices elementales (tal y como se ha especificado antes
nos referiremos siempre, salvo que se especifique lo contrario, a matrices elementales por
filas).
- Matrices Eij . Si a la matriz Eij se le aplica la transformación elemental Fij se obtiene
obviamente la identidad, ası́ tendremos:
−1
Eij · Eij = I ⇒ Eij = Eij
- Matrices Eij (k). Si se aplica Fij (−k) a Eij (k) resulta nuevamente la identidad.
A′ = Ep · Ep−1 · . . . · E1 · A
La matriz:
P = Ep · Ep−1 · . . . · E1
A′ = P.A ⇔ A = P −1 .A′
escalonada por filas si su sistema de vectores fila es un sistema escalonado. Las técnicas
de eliminación gaussiana que planteamos entonces para los sistemas de vectores son ahora
igualmente válidas, y ası́, trivialmente, toda matriz (del tamaño que sea) es equivalente
por filas a una matriz escalonada por filas.
Teorema: Sea A ∈ Mn×n (R) una matriz cuadrada. La condición necesaria y suficiente
para que A sea una matriz invertible es que sea equivalente por filas a la matriz identidad.
Demostración: Como es lógico, separaremos la demostración en dos partes:
• A es invertible ⇒ A es equivalente por filas a la matriz identidad.
Por medio de elimación gaussiana la matriz A es equivalente por filas a una matriz escalonada U
(dado que es cuadrada, de hecho es triangular superior). Demostremos que entonces los elementos
diagonales de U deben ser no nulos necesariamente. Si alguno de los elementos diagonales fuera
nulo, entonces la última fila de U serı́a completamente nula, dado que está escalonada por filas.
Pero entonces U no podrı́a ser una matriz invertible (una matriz invertible no puede tener una fila
nula, pues su producto con otra matriz cualquiera generarı́a siempre una fila nula en el resultado,
lo cual impide la obtención de la matriz identidad). Sin embargo, tenemos que:
U = Ep · Ep−1 · . . . · E1 · A
I = Er · Er−1 · . . . · E1 · A ⇔ I = P · A , P = Er · Er−1 · . . . · E1
pero entonces es evidente que la matriz de paso P no es más que la matriz inversa de A, y en
consecuencia A es invertible. Q.E.D.
Se tiene que:
1 0 1 1 0 0 1 0 1 1 0 0 1 0 1
1 0 0
1 2 2 0 1 0 ∼ 0 1 1 0 0 1 ∼ 0 1 1 0 0 1 ∼
0 1 1 0 0 1 1 2 2 0 1 0 0 2 1 −1 1 0
1 0 1 1 0 0 1 0 1 1 0 0 1 0 0 0 1 −2
∼ 0 1 1 0 0 1 ∼ 0 1 1 0 0 1 ∼ 0 1 0 −1 1 −1
0 0 −1 −1 1 −2 0 0 1 1 −1 2 0 0 1 1 −1 2
0 1 −2
A−1 = −1 1 −1
1 −1 2
Factorización L · U
Una interesante aplicación de las matrices elementales es la descomposición L · U de una
matriz cuadrada A. Se trata de encontrar dos matrices, una triangular inferior, L, y
otra triangular superior, U , de tal manera que A = L · U . Esta descomposición tiene
especial utilidad en la resolución de sistemas de ecuaciones lineales, que veremos en un
tema posterior.
Como veremos a continuación, no siempre es posible esta descomposición. Analice-
mos el caso A ∈ M3×3 (R): buscamos una matriz L = (lij ) triangular inferior, lij = 0,
∀i < j, y tal que todos los elementos diagonales sean igual a 1: lii = 1, ∀i = 1, 2, 3:
a11 a12 a13 1 0 0 u11 u12 u13
a21 a22 a23 = l21 1 0 · 0 u22 u23
a31 a32 a33 l31 l32 1 0 0 u33
y ası́ l21 y l31 son calculables en términos de los coeficientes aij (siempre y cuando
a11 ̸= 0). Pasemos a la segunda fila:
a22 = l21 u12 + u22 ⇒ u22 = a22 − l21 u12 ; a23 = l21 u13 + u23 ⇒ u23 = a23 − l31 u13
1 −1 0 1 −1 0 1 −1 0
F21 (1) F32 (1)
A = −1 2 −1 ∼ 0 1 −1 ∼ 0 1 −1 = U
0 −1 2 0 −1 2 0 0 1
24 MATRICES Y DETERMINANTES
−1 −1
A1 = (F32 (1)F21 (1))−1 U = F21 (1)F32 (1)U = F21 (−1)F32 (−1)U ⇒ L = F21 (−1)F32 (−1)
1 0 0 1 −1 0
A = L · U = −1 1 0 0 1 −1
0 −1 1 0 0 1
Teorema del Rango: (primera versión). Dada una matriz A ∈ Mm×n (R), su rango
por filas y su rango por columnas coinciden.
∑
r
(i)
f⃗i = λk f⃗k , i = r + 1, ..., m
k=1
∑
r
(i)
aij = λk akj , i = r + 1, ..., m ; j = 1, ..., n
k=1
MATRICES Y DETERMINANTES 25
y por tanto cualquier columna puede expresarse como una combinación lineal de r vectores. Esto
significa que el rango del sistema de columnas, es decir r′ , es necesariamente menor o igual que
r, puesto que todas las columnas pertenecen a un subespacio generado por r vectores.
Repitiendo el mismo razonamiento pero comenzando el mismo con las columnas deducirı́amos
que r′ ≥ r, y ası́, en definitiva, tendremos que r = r′ . Q.E.D.
Sin embargo, para tamaños superiores, la definición no es tan trivial, de manera que
debemos recordar como paso previo algunos conceptos acerca del conjunto de permuta-
ciones posibles de los elementos de un conjunto dado.
Grupo Simétrico
Denominemos N al conjunto de los n primero número naturales: N = {1, 2, ..., n}.
Llamaremos Sn al conjunto de todas las permutaciones posibles de dichos números.
Definición: Llamaremos permutación σ de n elementos a toda aplicación biyectiva del
conjunto N = {1, 2, ..., n} en sı́ mismo:
( )
1 2 ... n
σ:N →N , σ≡
σ(1) σ(2) ... σ(n)
se trata por tanto de todo reordenamiento posible de los elementos que pertenecen al
conjunto N . Suele utilizarse una notación abreviada, escribiendo: σ = (σ(1) . . . σ(n)).
( ) ( ) ( )
σ4 = 2 3 1 σ5 = 3 1 2 σ6 = 3 2 1
Con cierta frecuencia se utiliza la notación τij para denotar la trasposición anterior.
Definicion de Determinante
Definición: Dada una matriz cuadrada A de números reales, A = (aij ), se llama
determinante de A, |A| o det(A), al número real:
∑
det(A) = |A| = sign(σ) a1σ(1) · a2σ(2) · ... · anσ(n)
σ∈Sn
Proposición. Desarrollo de un determinante por una fila o columna. Sea A ∈ Mn×n (R)
una matriz cuadrada, entonces se verifica:
∑
n
|A| = aij Aij ∀j = 1, . . . , n
i=1
∑n
|A| = aij Aij ∀i = 1, . . . , n
j=1
La primera expresión es lo que se conoce como desarrollo del determinante por la columna
j−ésima, mientras que la segunda es el desarrollo por la fila i−ésima. Esta propiedad de
los determinantes (llamada a veces Desarrollo de Lagrange) nos indica que es posible re-
ducir el cálculo de un determinante de orden n a una combinación lineal de determinantes
de orden n − 1 (los que aparecen en los adjuntos correspondientes). En particular, una
elección adecuada de la fila o columna por la que se va a desarrollar permite simplificar
mucho el cálculo final.