Está en la página 1de 26

TEMAS DE MATEMÁTICAS

(Oposiciones de Secundaria)
TEMA 19

DETERMINANTES. PROPIEDADES. APLICACIÓN AL CALCULO DEL RANGO


DE UNA MATRIZ.

1. Introducción.
1.1. Resultados previos.
2. Formas multilineales alternadas.
3. Determinantes.
3.1. Determinantes de N vectores.
3.2. Determinantes de un Endomorfismo.
3.2.1. Aplicación Adjunta de un Endomorfismo.
3.3. Determinante de una matriz.
3.3.1. Matriz Asociada a Ad(ϕ).
3.3.2. Desarrollo de un determinante por los adjuntos de una línea.
4. Aplicación al cálculo del rango de una matriz.
Bibliografía Recomendada.

1/26
TEMA 19
DETERMINANTES. PROPIEDADES. APLICACIÓN AL CALCULO DEL RANGO
DE UNA MATRIZ.

1. INTRODUCCIÓN.

El concepto de determinante es posible introducirlo de diferentes formas: Por medio


de aplicaciones multilineales alternadas, por inducción o mediante sumas de n!
sumandos para un determinante de orden n.

El tema se va a desarrollar utilizando la primera forma, ya que es la más rigurosa de


las tres. Tiene como ventaja sobre las otras que nos permite relacionar diversos
conceptos y presentar de forma sencilla pero rigurosa las propiedades de los
determinantes.

Hemos de destacar que a lo largo del tema la letra K denotará un cuerpo


conmutativo con característica de dos.

1.2. Resultados Previos.

En este apartado vamos a refrescar una serie de resultados sobre permutaciones que
necesitaremos para desarrollar el tema. Para encontrar las demostraciones y evitar
reiteración, remitimos al lector al tema 3 del temario.

DEF Llamaremos Sn al conjunto formado por todas las permutaciones posibles de los
elementos del conjunto {a 1 , a2 ,…., an }.

1→3
Sea {1, 2, 3} un conjunto. Una permutación de dicho conjunto puede ser 2 → 1
3→ 2
que se puede expresar como

1 2 3
 
3 1 2

El conjunto Sn podemos definir como una operación como sigue (la representaremos
en S3 )

 1 2 3  1 2 3   1 2 3 
 ·  =  
 3 1 2  1 3 2   2 1 3 

PROP El conjunto Sn junto con la operación de producto de permutaciones tiene


estructura de grupo.

DEF Una transposición es una permutación en la que todos los elementos quedan fijos
menos dos que intercambian su posición.

2/26
Las trasposiciones se pueden representar mediante una matriz de orden 1x2,
indicando los dos únicos elementos que intercambian su posición

1 2 3 
Si (2,3)∈S3 se puede escribir como  
1 3 2 

PROP Toda permutación se puede escribir como producto de trasposiciones.

PROP Si una permutación se descompone de dos formas distintas como producto de


trasposición, ambas descomposiciones verifican que tienen un número par (o impar) de
trasposiciones.

DEF Diremos que una permutación es par si se descomponen como un número par de
trasposiciones (e impar en caso contrario).

 E (σ ) = 1 si σ es par
Si σ ∈ S n ⇒ 
E (σ ) = −1 si σ es impar

DEF El número E(σ) con σ∈Sn recibe el nombre de signatura o signo de la


permutación.

PROP ∀σ∈Sn con σ una trasposición se verifica que E(σ) = -1.

n
Dada una aplicación f : Cx ... (. ..x C → G siendo C un conjunto cualquiera y G un
grupo, podemos definir

∀σ ∈ S n (σ ⋅ f )( x1 ,......, xn ) = f (xσ (1),......., xσ (n ) )

DEF Diremos que f es simétrica si ∀σ∈Sn se verifica σf = f

DEF Diremos que f es antisimétrica si ∀σ∈Sn se verifica σf = E(σ) · f

PROP ∀σ, σ´∈Sn (σ · σ´) · f = σ · (σ´f)

OBS Para saber si una aplicación es simétrica o antisimétrica, teniendo en cuenta la


proposición anterior y que toda permutación se descompone como producto de
trasposiciones, sólo es necesario conocer su actuación ante las trasposiciones.

n
PROP Dada f : Cx .Λ( x C → G y ∀τ ∈ S n trasposición:

1) f es simétrica ⇔ τf = f

2) f es antisimétrica ⇔ τf = − f

DEF Diremos que f es no degenerada si es una aplicación antisimétrica no nula.

3/26
2. FORMAS MULTILINEALES ALTERNADAS.

n
Sea V un K-espacio vectorial de dimensión n y Vn = Vx .Λ( x V. Sea W otro
K-espacio vectorial.

DEF Diremos que f: Vn → W n-lineal si es lineal en cada una de sus componentes.


ρ ρ ρ ρ ρ ρ ρ ρ ρ
f (v1 ,....., αvi + βvi ´,....., vn ) = αf (v1 ,....., vi ,...., v n ) + βf (v1 ,...., vi ´,...., vn )

Si W = K entonces f es una forma n-lineal sobre V.

PROP Sean V y W K-espacios vectoriales. Si f: Vn → W es n-lineal, se verifica

i) Si λ1 ,...., λn ∈ K ⇒ f (λ1v1 , λ2 v 2 ,...., λn v n ) = λ1 ·....·λn f (v1 ,...., v n )

n
ii) Si ∀i ∈ {1,..., n} vi = ∑ xij u j (vi es combinación lineal de {u1 ,…,un }) ⇒
j =1

( )
n n n
⇒ f (v1 ,...., v n ) = ∑ ·∑ ·.....·∑ λ1 j1 ·λ2 j 2 ·....·λnjn · f u j1 ,...., u j n
j1 =1 j 2 =1 j n =1

Dem.

i) f (λ1 v1 , λ2 v2 ,....., λn vn ) = λ1 f (v1 , λ2 v 2 ,...., λn v n ) = λ1 λ2 f (v1 , v2 ,...., λn vn ) = ....... =

= λ1 ·λ2 ·......·λn f (v1 , v2 ,...., v n )

Por ser lineal respecto de cada una de las variables.

n
ii) Como vi = ∑ λij u j ∀i ∈ {1,...., n}
j =1

 n n n 
f (v1v2 ,...., vn ) = f  ∑ λ1 j1 u j1 , ∑ λ2 j 2 u j2 ,...., ∑ λnjn u jn  =
 j1 =1 j2 =1 j n =1 

( )
n n n
= ∑ λ1 j1 ·∑ λ2 j2 ·.......·∑ λnjn · f u j1 , u j 2 ,...., u j n =
j1 =1 j 2 =1 j n =1

( )
n n n

∑ ·∑ ·......·∑ λ1 j1 ·λ2 j2 ·......·λnjn · f u j1 , u j2 ,...., u jn


j1 =1 j2 =1 j n =1

DEF Sea f: Vn → W n-lineal. Diremos que f es alternada (antisimétrica) si


f(v1 ,…, vn ) = 0 cuando vi = vj para algún i, j con i ≠ j. A estas aplicaciones se las
llama n-lineal alternada.

4/26
PROP Sea f: Vn → W n-lineal alternada y τ ∈Sn una trasposición ( τ = (ij ) ).

Entonces
f (vτ (1) , vτ (2 ) ,...., vτ (n ) ) = − f (v1 , v2 ,...., vn ) ∀(v1 ,...., vn ) ∈ V n

Dem.

Supongamos que i < j.

f (vτ (1) ,...., vτ ( n ) ) = f (v1 ,...., vi −1 , v j , vi +1 ,...., v j −1 , vi , v j +1 ,...., vn )

Por haber dos vectores repetidos (vi + vj en los lugares i y j) y ser f alternada se
verifica

0 = f (v1 ,...., vi −1 , vi + v j , vi +1 ,...., v j −1 , v j , v j +1 ,....., v n ) =

= f (v1 ,...., vi −1 , vi , vi +1 ,....., v j −1 , vi , v j +1 ,...., vn ) +

+ f (v1 ,...., vi −1 , vi , vi +1 ,...., v j −1 , v j , v j +1 ,...., vn ) +

+ f (v1 ,...., vi −1 , v j , vi +1 ,...., v j −1 , vi , v j +1 ,...., vn ) +

+ f (v1 ,..., vi −1 , v j , vi +1 ,...., v j −1 , v j , v j +1 ,...., vn ) =

= 0 + f (v1 ,...., vi ,....., v j ,...., v n ) + f (v1 ,...., v j ,...., vi ,...., vn ) + 0

Entonces

f (v1 ,...., v j ,...., vi ,...., vn ) = − f (v1 ,...., vi ,..., v j ,....., vn )

PROP Sea f: Vn → W n-lineal anternada y σ∈Sn . Entonces ∀(v1 ,…, vn =∈Vn

f (vσ (1 ) ,...., vσ ( n ) = ε(σ ) f (v1 ,..., vn ))

siendo ε(σ) la signatura de la permutación.

Dem.

f (vσ (1 ) ,...., vσ ( n ) ) = f (vτ1 ·τ 2 ·....· τ K (1 ) ,......., vτ 1τ 2 .... τ K (n ) ) =

σ = τ1 ·τ2 ·....·τK

ε(σ ) = (− 1)K

5/26
( ) ( )
= − f vτ 2 ..... τ K (1 ) ,......., vτ 2 ..... τ K ( n ) = (− 1) f vτ3 .... τ K (1 ) ,....., vτ3 ..... τ K ( n ) = ....... =
2

( )
= (− 1) f v1 ,...., vn = ε(σ) f (v1 ,...., v n )
K

PROP Sea f: Vn → W n-lineal y σ∈Sn , ∀(v1 ,…., vn )∈Vn se verifica que

f (vσ (1 ) ,......, vσ ( n ) ) = ε(σ ) f (v1 ,...., vn ) ⇒ f es alternada.

Dem.

Sea (v1 ,…, vn )∈Vn con vi = vj i ≠ j (i < j) y sea τ ∈ S n con τ = (ij )

( )
τ· f (v1 ,...., vn ) = f vτ (1 ) ,...., vτ ( n ) = f (v1 ,...., v j ,...., vi ,...., vn ) = f (v1 ,..., vi ,..., v j ,..., vn )

ya que vi = vj

Por hipótesis f (vτ (1) ,....., vτ ( n ) ) = − f (v1 ,...., vi ,...., v j ,...., vn )

Luego f (v1 ,..., vn ) = − f (v1 ,..., vn ) ⇒ 2 f (v1 ,...., vn ) = 0 ⇒ f (v1 ,...., v n ) = 0

PROP Sea f: Vn → W n-lineal alternada. Si {v1 ,…, vn ) es un conjunto linealmente


independiente de V, entonces f(v1 ,…, vn ) = 0

Dem.

Si {v1 ,…, vn } es L. D ⇒ ∃i∈{1,…, n}/vi es combinación lineal del resto.

n
vi = ∑ λj v j
j =1
j≠ i

 
 n

f (v1 ,...., vi ,...., vn ) = f  v1 ,...., vi −1 , ∑ λj v j , vi +1 ,...., vn  =
 j =1 
 j ≠1 

= ∑ λj · f (v1 ,...., vi −1 , v j , vi +1 ,...., vn ) =


n

j =1
j ≠i

En todos los sumandos aparecen repetidos los vj y como f es alternada, los


sumandos son cero.

n
= ∑ λj ·0 = 0
j =1
j ≠i

6/26
COROLARIO Si V es un K-espacio vectorial con dimV = p < n, entonces
cualquiera que sea el espacio vectorial W se verifica que toda aplicación n-lineal
alternada f: Vn → W es nula.

LEMA Sea f: Vn → W n-lineal alternada, (v1 ,…, vn )∈Vn y supongamos que


n
∀i∈{1,…., n} vi es combinación lineal de {u1 ,…., un }, vi = ∑ λij v j . Entonces
j =1

 
f (v1 ,...., vn ) =  ∑ ε(σ )λ1σ (1) ·.....·λnσ ( n ) · f (u1 ,...., un )
 σ ∈S n 

Dem.

( )
n n n
Sabemos que f (v1 ,....., vn ) = ∑ ·∑ ·.......·∑ λ1 j1 ·λ2 j 2 ·......·λnj n f u j1 , u j 2 ,...., u jn =
j1 =1 j 2 =1 j n =1

Si en el conjunto de índices {j1 ,….., jn } tenemos jS = jK con S ≠ K entonces


( )
f u j1 ,....., u jS ,....., u jK ,....., u j n = 0 por ser f alternada.

Luego los sumandos en donde se repita algún uji son cero y los podemos eliminar
de la suma. Al final nos queda j1 = σ(1), j 2 = σ(2),...., j n = σ(n ) con σ∈Sn

= ∑λ 1σ (1 )
·.....·λn σ (n ) f (uσ (1 ) ,....., uσ (n ) ) = ∑λ 1σ (1 )
·.....·λn σ (n ) ·ε(σ ) f (u1 ,...., un )
σ ∈S n σ ∈S n

TEOREMA Sea V un K-espacio vectorial de dimensión n. Sea B = {u1 ,….,un } base


de V y de w∈W (con W K-espacio vectorial). Existe una única aplicación n-lineal
alternada f: Vn → W tal que f(u1 ,…., un ) = w.

Dem.

• Unicidad.

Sean f, f´: Vn → W n-lineales alternadas / f(u1 ,…., un ) = w = f´(u1 ,…., un ).

n
Sea (v1 ,…., vn )∈V con vi = ∑ λij u jn

j =1

f (v1 ,...., vn ) = ∑ ε(σ )λ 1σ (1) ·......·λnσ ( n ) · f (u1 ,...., u n ) =


σ ∈S n

= ∑ ε(σ)λ 1σ (1 )
·....·λn σ (n ) · f ´(u1 ,...., un ) = f ´(v1 ,...., vn )
σ ∈S n

Como tienen igual dominio y rango y actúan igual sobre todos los elementos, son
iguales: f = f´

7/26
Por tanto, de existir la aplicación, ésta es única.

• Definición de f.

n
Sea w∈W, f: Vn → W ∀(v1 ,….., vn )∈Vn y ∀i∈{1,….., n}, vi = ∑ λij u j
j =1

 
f (v1 ,...., vn ) :=  ∑ ε(σ)λ1σ (1 ) ·.....·λnσ (n ) ·w
 σ ∈S n 

La imagen de la base es

 
f (u1 ,....., un ) =  ∑ ε(σ )δ1σ (1 ) ·.....·δn σ ( n ) ·w
 σ∈Sn 

Si σ ≠ 1Id ∃i / σ(i) ≠ i ⇒ δ iσ(i) = 0

Entonces f (u1 ,...., un ) = (δ11 ·δ22 ·.....·δnn )·w = w ya que δii = 1∀i

• f es n-lineal (elegimos la 1ª variable para comprobarlo y es análogo para el resto).

Sea v1 = ∑ λ1 j u j y v1 ´= ∑ µ j u j ⇒ v1 + v1´= ∑ (λ1 j + µ1 j )u j


n n n

j =1 j =1 j =1

 
f (v1 + v1´, v 2 ,...., vn ) =  ∑ ε(σ )·(λ1σ (1 ) + µ1σ (2 ) ·......·λn σ ( n ) )·w =
 σ ∈S n 

Como K es un cuerpo (se verifica la propiedad distributiva)

   
=  ∑ ε(σ )λ1σ (1) ·......·λn σ ( n )  +  ∑ ε(σ )µ1σ (1) ·λ1σ ( 2 ) ·.....·λnσ (n ) ·w =
 σ ∈S n   σ∈Sn 

   
=  ∑ ε(σ )λ1σ (1 )·.....·λn σ ( n )  w +  ∑ ε(σ )µ1σ (1 ) ·λ1σ (2 ) ·.....·λn σ ( n )  w =
 σ ∈S n   σ ∈S n 

= f (v1 , v2 ,...., v n ) + f (v1 ´, v2 ,...., vn )

De forma análoga se demuestra para el producto por un escalar. Por tanto f es lineal.

• f es alternada.

Sea (v1 ,....., vn ) ∈ V n con vi = vj i ≠ j. Sea τ = (ij )

8/26
∀σ ∈ S n ε(σ ⋅ τ) = ε(σ )·ε(τ ) = −ε(σ )

Como vi = vj ⇒ λiK = λjK ∀K ∈ {1,..., n} . Tenemos

λi στ (i ) = λi σ ( j ) = λj σ ( j )

λj στ ( j ) = λj σ (i ) = λi σ (i )

− ε(σ )λ1στ (1 ) ·......·λiσ (i ) ·....·λj στ ( j ) ·......·λn στ (n ) =

= −ε(σ )λ1σ (1 ) ·.....·λi σ ( j ) ·......·λj σ (i )·.....·λn σ ( n ) =

Como el producto en el cuerpo es conmutativo se puede escribir

= −ε(σ )λ1σ (1 ) ·.....·λi σ (i ) ·.....·λj σ ( j ) ·......·λnσ (n )

Luego este sumando es igual pero opuesto a

ε(σ )λ1σ (1 ) ·.....·λnσ ( n )

Pero como f (v1 ,...., vn ) = (∑ ε(σ )λ1σ (1 ) ·.....·λn σ (n ) )w

existen varios sumandos. ¿Cómo podemos demostrar que para cada sumando existe su
opuesto?

Pues definiendo la siguiente biyección

T: An → In t(σ) = στ

siendo An el conjunto de las permutaciones pares e In las impares. Luego

 
f (v1 ,...., vn ) =  ∑ ε(σ )λ1σ (1 ) ·.....·λn σ ( n ) + ∑ ε(σ )λ1σ (1) ·.....·λnσ (n ) w = 0
 σ ∈ An σ ∈I n 

ya que ε(σ ) = 0 si σ ∈ An y ε(σ ) = −1 si σ ∈ I n

Por tanto f es alternada.

3. DETERMINANTES.

3.1. Determinante de N vectores.

DEF Sea B = {u1 ,...., un } una base del K-espacio vectorial V. Se define el
determinante respecto de la base B como la única forma n-lineal alternada

9/26
detB : Vn → K

tal que detB(u1 , u2 ,…., un ) = 1

DEF Si (v1 , v2 ,…., vn )∈Vn , el determinante de los n vectores respecto de la base B es

det B (v1 , v2 ,...., vn ) = ∑ ε(σ)λ 1ω (1)


·λ2σ (2 ) ·......·λn σ (n )
σ ∈S n

Podemos definir el conjunto de todas las aplicaciones n-lineales como


Ln (V ,W ) = {f / f : V n → W n − lineal }

Este conjunto lo podemos dotar de estructura de K-espacio vectorial de la siguiente


manera:

Si f1 , f2 ∈Ln (V, W)

Suma: ( f1 + f2 )(v1 , v2 ,....., vn ) = f1 (v1, v2 ,...., v n ) + f 2 (v1 , v2 ,...., vn )

Producto escalar: (λf1 )(v1 , v2 ,...., v n ) = λ ⋅ f1 (v1 , v 2 ,.....,v n )

PROP Sea B = {u1 , u2 ,...., u n } una base de V. Se verifica:

i) Si f: Vn → K es una forma n-lineal alternada, existe a∈K tal que f = a·detB

ii) Si f: Vn → K es una forma n-lineal alternada y f(u1 , u2 ,…., un ) = 0 entonces


f = 0.

Dem.

i) Sea (v1 , v2 ,…., vn )∈Vn

f (v1 , v2 ,...., vn ) = ∑ ε(σ )λ 1σ (1 )


·....·λn σ ( n )· f (u1 ,...., un ) = det B (v1 ,...., vn )· f (u1 ,...., u n ) =
σ∈Sn

Si llamamos a = f(u1 ,…., un )

= a ⋅ det B (u1 , u 2 ,...., un ) = (a ⋅ det B )(u1 ,...., un )

Luego f = a·detB

ii) Si f(u1 ,…., un ) = 0 ⇒ f(u1 ,…., un ) = a = 0

y como f = a·detB ⇒ f = 0

PROP Sea B = {u1 ,...., un } base de V y sea {v1 ,...., vn } ∈ V . Los vectores {v1 ,...., vn } son
linealmente independientes si y solo si detB (v1 ,…., vn ) = 0

10/26
Dem.

“⇒”
Si {v1 ,..., vn } es un conjunto linealmente dependiente entonces existe una aplicación
n-lineal alternada tal que f (v1 ,...., vn ) = 0 .

Luego si f = a ⋅ det B ⇒ a ⋅ det B = 0 siendo a un escalar no nulo.

Entonces detB (v1 ,…., vn ) = 0

“⇐”
Sea det B (v1 ,...., vn ) = 0 y supongamos que {v1 ,...., vn } fuese linealmente
independientes.

Entonces {v1 ,...., vn } serían base de V ⇒ ∃a ∈ K / det B = a ⋅ det B ´ y como det B ´ = 1


tenemos que a = det B (v1 ,...., vn ) = 0

Pero esto es una contradicción con el hecho de que el determinante de una base es 1,
det B (u1 ,...., un ) = 1.

Luego nuestra hipótesis de que los vectores {v1 ,..., vn } son linealmente
independientes es falsa y por tanto son dependientes.

3.2. Determinantes de un endomorfismo.

DEF Sea V un K-espacio vectorial de dimensión n, sea B = {u1 ,....,u n } una base de V
y ϕ : V → V un endomorfismo. Llamaremos determinante de un endomorfismo a

det ϕB : V n → K n-lineal alternada

definida por det ϕB (v1 , v2 ,...., vn ) = det B (ϕ(v1 ), ϕ(v 2 ),.....,ϕ(v n ))

Puesto que ϕ es lineal, la función det ϕB es n-lineal. Y como detB es alternada


también lo es det ϕB (recordemos que si vi = vj ⇒ ϕ(vi) = ϕ(vj ))

Por un resultado anterior, al ser la función n-lineal y alternada, sabemos que

∃λ ∈ K / det ϕB = λ ⋅ det B

siendo λ el determinante de ϕ con respecto a la base B.

Como λ n va a depender de la base del espacio que tomemos la llamaremos


determinante de un endomorfismo que tomemos.

11/26
PROP Si B y B´ son bases de V y ϕ ∈ L(V ) ⇒ det B (ϕ) = det B ´ (ϕ)

Dem.

Sean B = {u1 ,...., un } y B´= {u1 ´,..., un ´} dos bases de V.

Como detB y detB´ son n-lineales alternadas, son proporcionales


∃µ ∈ K / det B´ = µ⋅ det B

det ϕB ´ = det B ´(ϕ ) ·det B ´ (λ = det B´ (ϕ))

det ϕB ´ (u1´,...., u n ´) = det B´ (ϕ) ⋅ det B ´ (u1 ´,..., u n ´) = det B´ (ϕ) (det B´ (u1´,......, un ´) = 1)
Entonces

det B ´ (ϕ) = det ϕB´ (u1 ´,....., un ´) = det B ´ (ϕ(u1 ´),....., ϕ(un ´)) = µ ⋅ det B (ϕ(u1 ´),...., ϕ(u n ´)) =

= µ ⋅ det ϕB (u1 ´,....., u n ´) = µ ⋅ det B (ϕ)·det B (u1´,....., un ´) = det B (ϕ)·µ·det B (u1 ´,....., un ´) =

= det B (ϕ)·det B ´ (u1´,....., u n ´) = det B (ϕ)

DEF Si ϕ∈L(V) con dimV = n, llamamos determinante de ϕ, det(ϕ), a detB (ϕ) para
alguna base B se V.

PROP Si ϕ, Ψ ∈ L(V ) ⇒ det (ϕ ο Ψ ) = det (ϕ) ⋅ det (Ψ )

Dem.

Sea B = {u1 ,....., un } base de V

det (ϕ ο Ψ ) = det B (ϕ ο Ψ ) = det ϕB οΨ (u1 ,....., un ) = det B (ϕ ο Ψ(u1 ),....., ϕ ο ϕ(un )) =

= det ϕB (Ψ(u1 ),...., Ψ(un )) = det B (ϕ) ⋅ det B (Ψ(u1 ),...., Ψ(un )) = det B (ϕ) ⋅ det ΨB (u1 ,...., u n ) =

= det B (ϕ) ⋅ det B (Ψ ) ⋅ det B (u1 ,...., un ) = det b (ϕ) ⋅ det B (Ψ ) = det (ϕ) ⋅ det (Ψ )

PROP Si ϕ ∈ L(V )

ϕ es automorfismo ⇔ det(ϕ) ≠ 0

Dem.

“⇒”
Sea ϕ automorfismo y B = {u1 ,...., un } base de V-

12/26
det (ϕ) = det B (ϕ) = det ϕB (u1 , , , , ,.u n ) = det B (ϕ(u1 ),...., ϕ(un )) ≠ 0

Es distinto de cero ya que al ser B base de V y ϕ automorfismo ⇒


{ϕ(u1 ),....,ϕ(u n )} es base de V ⇒ {ϕ(u1 ),....,ϕ(u n )} es linealmente independiente.
“⇐”
Sea det (ϕ) ≠ 0 y B = {u1 ,...., un } base de V.

0 ≠ det (ϕ) = det B (ϕ(u1 ),....., ϕ(un )) ⇒ {ϕ(u1 ),...., ϕ(u n )} es linealmente independiente
y como dimV = n ⇒ {ϕ(u1 ),...., ϕ(u n )} es base de V ⇒ ϕ es automorfismo, ya que
transforma una base en otra.

PROP Si ϕ ∈ GL(V ) ⇒ ∃det ϕ−1 = ( ) 1


det (ϕ)

Dem.

det (1v ) = det (ϕ ο ϕ−1 ) = det (ϕ) ⋅ det (ϕ−1 )



⇒

det (1v ) = det 1Bv (u1 ,...., un ) = det B (1v (u1 ),....,1v (un )) = det B (u1 ,...., un ) = 1

( )
⇒ det (ϕ) ⋅ det ϕ−1 = 1 ⇒ det ϕ−1 = ( ) 1
det (ϕ)

3.2.1. Aplicación Adjunta de un Endomorfismo.

NOTACIÓN La expresión det b (v;1 , v2 ,...., vˆ j ,....., vn )

Equivale a det B (v; v1 , v 2 ,....., v j −1 , v j +1 ,...., v n )

LEMA Sea V un K-espacio vectorial de dimensión n, B = {u1 ,...., un } base de V y


{v ,......., v , v} vectores de V.
1 n Se verifica.

⋅ det B (v , v1 ,...., vˆ j ,....., vn ) ⋅ v j = det B (v1 ,...., vn ) ⋅ v


n

∑ (− 1)
j −1

j =1

Dem.

Vamos a distinguir dos casos, según sea el conjunto {v1 ,...., vn } linealmente
independiente o dependiente.

n
a) Si {v1 ,....., vn } es L. I. ⇒ {v1 ,...., vn } es base ⇒ ∃λ1 ,...., λn ∈ K / v = ∑ λK vK
K =1

13/26
 
∑ (− 1) j −1 ⋅ det B (v, v1 ,....,vˆ j ,...., vn ) ⋅ v j = ∑ (− 1) j−1 ⋅ det B  ∑ λK vK , v1 ,..., vˆ j ,...., v n ·v j =
n n n

j =1 j =1  K =1 

 n
( 
)
n
= ∑ (− 1) j −1 · ∑ λK ·det B v K , v1 ,...., vˆ j ,..., vn ·v j =
j =1  K =1 

Si K = j nos encontramos con dos vectores iguales y el determinante es cero por ser
una aplicación alternada.

= ∑ (− 1) ·λj ·det B (v j ,v1 ,....., vˆ j ,...., vn )·v j =


n
j −1

j =1

Realizamos j – 1 trasposiciones y situamos el vector vj en su lugar

= ∑ (− 1) ·λj ·(− 1) ·det B (v1 ,..., v j ,...., vn )·v j = ∑ (− 1) ( ) ·λ ·det


n n
j −1 j −1 j −1 2
j B (v1 ,...., vn )·v j =
j =1 j =1

n n
= ∑ λj det B (v1 ,...., v n )·v j = det B (v1 ,...., vn )·∑ λj v j = det B (v1 ,...., vn )·v
j =1 j =1

b) Si {v1 ,...., vn } es L. D. ⇒ det B (v1 ,...., vn ) = 0 ⇒

⇒ det B (v1 ,...., vn )·v = 0

Comprobemos pues, que el primer miembro es nulo

·det B (v, v1 ,...., vˆ j ,...., vn )·v j = 0 (Comprobar)


n

∑ (− 1)
j −1

j =1

Como {v1 ,...., vn } L. D. ⇒ ∃vi que es combinación lineal del resto.

n
Supongamos que es el primero ⇒ v1 = ∑ λK vK
K =2

·det B (v, v1 ,...., vˆ j ,...., vn )·v j =


n

∑ (− 1)
j −1

j =1

= det B (v, vˆ1 , v2 ,...., vn )·v1 + ∑ (− 1) ·det (v , v1 ,..., vˆ j ,...., vn )·v j =


n
j −1

j =2

n n
 n 
= det B (v, vˆ1 , v2 ,....., vn )·∑ λK v K +∑ (− 1) j −1 ·det B  v, ∑ λK v K ,...., vˆ j ,..., vn ·v j =
K =2 j= 2  K=2 

14/26
j −1  
λK det B (v, vK ,...., vˆ j ,...., vn )·v j =
n n n
= ∑ λK ·det B ( v, ˆ
v1 , v 2 ,...., vn )·v K + ∑ ( − 1) ·  ∑
K=2 j= 2  K=2 

Si K = j nos encontramos con dos vectores iguales y el determinante es cero por ser
una aplicación alternada.

∑ λK ·det B (v , vˆ1,.v2 ,....., vn )·vK + ∑ (− 1) ·λj det B (v, v j , v2 ,...., vˆ j ,..., v n )·v j =
n n
j −1
=
K =2 j= 2

Para colocar vj en su sitio hemos de realizar j – 2 trasposiciones

·det B (v, v2 ,...., v j ,...., vn )·v j =


n n

∑ λK det B (v, vˆ1 , v2 ,...., v n )·vK + ∑ (− 1) ·λj ·(− 1)


j −1 j− 2
=
K=2 j =2

( ) ·λ ·det (v, v ,..., v ,..., v )·v


n n

∑ λK det B (v, vˆ1 , v2 ,...., v n )·vK + ∑ (− 1)· (− 1)


j −2 2
= j B 2 j n j =
K=2 j =2

n n
= ∑ λK det B (v, vˆ1 , v2 ,...., vn )·vK − ∑ λj det B (v, v2 ,...., vn )·v j = 0
K =2 j= 2

Vamos a construir ahora la aplicació n adjunta.

Sea V un K-espacio vectorial con dimV = n y B = {u1 ,...., un } base de V.

Tomemos ϕ∈L(V) y definamos la aplicación Ø: Vn → L(V) como

∀(v1 ,..., v n ) ∈ V n Ø (v1 ,..., vn ) ∈ L(V ) ⇒ Ø (v1 ,..., vn ) : V → V

Ø (v1 ,...., vn )(v ) = ∑ (− 1) ·det B (v; ϕ(v1 ),...., ϕ(vˆ j ),....,ϕ(v n ))·v j
n
j −1
∀v ∈ V
j =1

PROP Ø es la única aplicación n-lineal alternada que lleva la base a un endomorfismo.

Dem.

• Comprobemos que Ø está bien definida (Ø (v1 ,..., v n ) es un endomorfismo)

∀(v1 ,...., vn ) ∈ V n ∀λ, µ ∈ K ∀v, v´∈ V

Ø (v1 ,..., vn )(λv + µv´) = ∑ (− 1) ·det B (λv + µv´,ϕ(v1 ),...., ϕ(vˆ j ),...., ϕ(vn ))·v j =
n
j −1

j =1

[ ( ( ))
= ∑ (− 1) · λ·det B v, ϕ(v1 ),...., ϕ(vˆ j ),...., ϕ vn + µ det B (v´,ϕ(v1´),..., ϕ(vˆ j ),...., ϕ(vn )) ·v j = ]
n
j −1

j =1

15/26
det B (v, ϕ(v1 ),.,ϕ(vˆ j ),.., ϕ(v n ))v j + µ∑ (− 1) det B (v´, ϕ(v1 ),.., ϕ(vˆ j ),.., ϕ(vn ))·v j =
n n
= λ∑ (− 1)
j −1 j −1

j =1 j =1

= λ Ø (v1 ,..., vn )(v ) + µØ (v1 ,..., v n )(v´)

• Ø es n-lineal.

(Veámoslo para la 1ª variable, ya que el resto es análogo).

∀λ, µ ∈ K ∀ v1 , v1´∈ V ∀v ∈ V

Ø (λv1 + µv1´, v2 ,..., vn )(v )0 ∑ (− 1) ·det B (v, ϕ(λv1 + µv1´), ϕ(v2 ),..., ϕ(vˆ j ),..., ϕ(vn ))·v j =
n
j −1

j =1

det B (v, ϕ(λv1 + µv1 ´),..., ϕ(vˆ j ),...,ϕ(v n ))·v j =


n
= det B (v, ϕ(v2 ),..., ϕ(vn ))·(λv1 + µv1´) + ∑ (− 1)
j −1

j= 2

= λ·det B (v, ϕ(v 2 ),...,ϕ(v n ))v1 + µ·det B (v, ϕ(v2 ),..., ϕ(v n ))·v2 +

[
+ ∑ (− 1) · λdet B (v, ϕ(v1 ),..., ϕ(vˆ j ),..., ϕ(v n )) + µ det B (v, ϕ(v1 ´),..., ϕ(vˆ j ),..., ϕ(v n )) ·v j = ]
n
j −1

j =2

det B (v, ϕ(v1 ),., ϕ(vˆ j ),..,ϕ(v n ))v j + µ∑ (− 1) det B (v, ϕ(v1 ´),.., ϕ(vˆ j ),.., ϕ(vn ))v j =
n n
= λ∑ (− 1)
j −1 j −1

j =1 j =1

= λ Ø (v1 ,..., vn )(v ) + µØ (v1 ´, v2 ,.., vn )(v ) = [λ Ø (v1 ,..., vn ) + µ Ø (v1 ´,..., vn ) ](v )

• Ø es Alternada.

Sea vi = vK con i ≠ K y i < K

Hemos de comprobar que Ø(v1 ,…, vn ) = 0 (matriz nula)

Ø (v1 ,..., vn )(v ) = ∑ (− 1) ·det B (v, ϕ(v1 ),..., ϕ(vˆ j ),..., ϕ(vn ))·v j =
n
j −1
∀v ∈ V
j =1

Si j ≠ i, K ⇒ hay dos vectores iguales.

i −1
( ( )
= (− 1) ·det B v, ϕ v1 ,..., ϕ(vˆi ),..., ϕ(v n ) ·vi + (− 1) ) K −1
·det B (v, ϕ(v1 ),..., ϕ(vˆK ),..., ϕ(vn ))·vK =

Ahora desplazamos ϕ(vi) al lugar ϕ(vK). El número de trasposiciones es K-(i – 1)


y ambos determinantes son iguales.

16/26
Veamos el signo

[
= (− 1) + (− 1)
i −1 K −1
·(− 1)
K −i +1
]·det B (v, ϕ(vˆi ),..., ϕ(v n ))·vi =

= [(− 1) + (− 1) ·(− 1) ]
·(− 1) det B (v, ϕ(v1 ),...., ϕ(vˆi ),...,ϕ(v n ))·vi = 0
i −1 K −1 K +1 −i

Ya que: (− 1)i −1 + (− 1)K −1 ·(− 1)K +1 ·(− 1)−i = (− 1)i −1 + (− 1)−i = 0

DEF Llamaremos adjunta de ϕ respecto de B a la imagen de Ø de la base de V

adB(ϕ) = Ø(u1 ,…., un )

Y adB(ϕ)∈L(V)

PROP adB(ϕ) no depende de la base tomada

Dem.

Dadas B = {u1 ,..., un } y B´= {u1 ´,..., un ´} bases de V, hemos de comprobar que
adB(ϕ) = adB´ (ϕ). Sea Ø: Vn → L(V) respecto de B y Ø´: Vn → L(V) respecto de B´.

ad B´ (ϕ)(v ) = Ø´ (u1 ´,..., un ´)(v ) = ∑ (− 1) ·det B ´ (v, ϕ(u1 ´),...,ϕ(uˆ j ´),..., ϕ(u n ´))·u j ´=
n
j −1

j =1

Dadas B y B´ bases de V ∃! λ ∈ K / det B ´ = λ det B

= ∑ (− 1) ·λ·det B (v, ϕ(u1 ´),..., ϕ(uˆ j ´),..., ϕ(u n ´))·u j ´=


n
j −1

j =1

= λ∑ (− 1) ·det B (v, ϕ(u1´),.., ϕ(uˆ j ´),..., ϕ(u n ´))·u j ´= λ ⋅ Ø (u1 ´,..., u n ´)·(v ) =
n
j −1

j =1

= λ·det B (u1 ´,...., u n ´)·ad B (ϕ)(v ) = det B ´ (u1 ´,..., un ´)·ad B (ϕ)(v ) = ad B (ϕ)(v )

ya que det B ´ (u1´,...., u n ´) = 1

Por tanto adB´ (ϕ) = ad B(ϕ) y no depende de la base elegida.

DEF Sea ϕ∈L(V). Se define la aplicación adjunta de ϕ, ad(ϕ), como adB(ϕ) para
alguna base de B de V.

PROP Sea ϕ∈L(V), con dimV = n. Se verifica:

1) ϕ ο ad (ϕ) = det (ϕ) ο 1v

17/26
2) ad (ϕ) ο ϕ = det (ϕ) ο 1v

Dem.

1) ∀v ∈ V

(ϕ ο ad (ϕ))(v ) = ϕ(ad (ϕ)(v )) =

Sea B = {u1 ,..., un } una base de V.

 n 
= ϕ (Ø (u1 ,...,u n )(v ) ) = ϕ ∑ (− 1) ·det B (v, ϕ(u1 ),....,ϕ(uˆ j ),....,ϕ(u n ))·u j  =
j −1

 j =1 

= ∑ (− 1) ·det B (v, ϕ(u1 ),..., ϕ(uˆ j ),..., ϕ(un ))·ϕ(u j ) =


n
j −1

j =1

Aplicando el último Lema

= det B (ϕ(u1 ),..., ϕ(un ))·v = det B (ϕ)·det B (u1 ,..., u n )·v = det (ϕ)·v =

= (det (ϕ)·1v )(v )

Entonces ϕ ο ad (ϕ) = det (ϕ) ο 1v

2) (ad (ϕ) ο ϕ)(v ) = ad (ϕ)(ϕ(v )) = ϕ (u1 ,...., un )(ϕ(v )) =

= ∑ (− 1) ·det B (ϕ(v ), ϕ(u1 ),..., ϕ(uˆ j ),...., ϕ(u n ))u j =


n
j −1

j =1

= ∑ (− 1) ·det ϕB (v , u1 ,...., uˆ j ,..., un )·u j = ∑ (− 1) ·det (ϕ)·det B (v, u1 ,..., uˆ j ,..., u n )·u j =
n n
j −1 j −1

j =1 j =1

= det (ϕ)·det B (u1 ,..., un )(v ) = det (ϕ)·v = (det (ϕ) ο 1v )(v )

Entonces ad (ϕ) ο ϕ = det (ϕ) ο 1v

COROLARIO Si ϕ es un automorfismo entonces

ad (ϕ)
ϕ−1 = = det (ϕ)−1 ·ad (ϕ)
det (ϕ)

18/26
3.3. Determinante de una matriz.

DEF Sea A∈Mn (K). Se define el determinante de la matriz A, A , como el


determinante de las filas de A consideradas como elementos de Kn y respecto de al base
canónica de Kn .

Si A = (aij ) la fila i-ésima es ai • = (ai1 , ai 2 ,...., ain )

A = det B (a1• , a2• ,...., a n• ) = ∑ ε(σ )·a 1σ (1 )


·a2 σ ( 2 ) ·....·an σ ( n )
σ∈Sn

siendo B = {e1 , e2 ,...., en }

En el caso de una matriz cuadrada de orden 2

{ a
S 2 = 1S 2 , (1,2 ) ⇒  11 }a12 
 = a11 a12 − a12 a 21
 a21 a 22 

y en el caso de una matriz de orden 3

{
S3 = 1S 3 , (1,2 ), (1,3), (2,3), (1,2,3), (1,3,2 ) ⇒ }
 a11 a12 a13 
 
⇒  a21 a22 a 23  = a11a 22 a33 − a12 a21 a33 − a13 a22 a31 − a11a 23 a32 + a12 a 23 a31 + a13a32 a21
a a33 
 31 a32

PROP Si A∈Mn (K) ⇒ A = At

Dem.

Sea A = (aij ) y At = (bij ) con bij = a ji ∀1 ≤ i , j ≤ n

A= ∑ ε(σ )a 1σ (1)
·a2 σ ( 2 ) ·....·an σ ( n ) =
σ∈Sn

Sabemos que ∃σ −1 ∈ S n / σ −1 ο σ = 1Id

= ∑ ε(σ)·a( σ
−1
)
·σ (1 )σ (1)
·a(σ −1 ·σ )( 2 )σ ( 2 ) ·.....·a(σ −1 ·σ )(n )σ (n ) =
σ ∈S n

Podemos establecer una aplicación biyectiva

19/26
S n → Sn
σ → σ −1

y se verifica ε(σ ) = ε σ −1 ( )
= ∑ ε (σ )a
−1
−1
σ
−1 aσ −1 (2 )2 ·......·aσ −1 ( n )n =
(1)1
σ ∈S n

Sea β = σ −1

= ∑ ε(β )a a
β (1 )1 β ( 2 )2 .........a β (n )n = ∑ ε( β)·b 1 β (1 ) ·b2 β ( 2 ) ·......·bnβ ( n ) = At
β∈S n β∈S n

PROP Sea A∈Mn (K). Se verifica

1) Si un determinante tiene dos filas o dos columnas iguales el determinante es cero.

2) Si se multiplica una fila o columna por un escalar, queda el determinante


multiplicado por ese escalar.

3) Si a una fila o columna se le suma una combinación lineal del resto, el


determinante no varía.

Dem.

Inmediatas, sin más que tener en cuenta que las filas (o columnas) de A se
consideran vectores de Kn y que el determinante es una función n-lineal alternada.

PROP Sea ϕ∈L(V), B = {u1 ,...., un } base de V y A la matriz asociada a ϕ respecto de


B. Entonces

det (ϕ) = A

Dem.

det (ϕ) = det B (ϕ(u1 ),...., ϕ(un )) = ∑ ε(σ )b 1σ (1 )


·.....·bnσ (n ) =
σ ∈S n

Siendo (bj1 , bj2 ,….., bjn ) las coordenadas de ϕ(uj) respecto de B y la fila j-ésima de
A.

= A

OBS Si en lugar de escribir ϕ(uj ) por filas lo hiciésemos por columnas tendríamos
que es igual, det (ϕ) = At = A

20/26
COROLARIO Si A, B∈Mn (K) ⇒ A ⋅ B = A · B

Dem.

Sean ϕ, Ψ ∈ L(V ) con A matriz asociada a ϕ y B a Ψ

A · B = det (ϕ)·det (Ψ ) = det (ϕ ο ϕ) = A·B

COROLARIO A ≠ 0 ⇔ A es inversible

Dem.

Sea ϕ∈L(V) con A matriz asociada.

A es inversible ⇔ ϕ es automorfismo ⇔ det (ϕ) ≠ 0 ⇔ A ≠ 0

1
COROLARIO Si A es inversible, entonces A−1 =
A

Dem.

Sea ϕ∈L(V) con A matriz asociada

( )
det ϕ−1 =
1 
 1
det (ϕ)
−1
⇒ A =
A
A−1 es la matriz asociada a ϕ−1 

3.3.1. Matriz Asociada a Ad( ϕ ).

Sea ϕ∈L(V), A la matriz asociada a ϕ y denotemos por A(ad(ϕ)) a la matriz


asociada a Ad(ϕ).

Vamos a obtener A(ad(ϕ))

Sabemos que ϕ ο ad (ϕ) = det (ϕ)·1v

Luego A· A(ad (ϕ)) = A ·I n

Sea V un K-espacio vectorial de dimensión n y B = {u1 ,..., un } base de V. Sabemos


que ad (ϕ) = Ø (u1 ,...., u n ) y sea A(ad (ϕ)) = (bij )

21/26
Por una lado tenemos ad (ϕ)(u j ) = ∑ bij ui (escribiendo por columnas) y por otro
n

i =1

ad (ϕ)(u j ) = Ø (u1 ,..., u n )(u j ) = ∑ (− 1)i −1 ·det B (u j ,ϕ(u1 ),..., ϕ(uˆ j ),..., ϕ(u n ))·ui =
n

i =1

= ∑ (− 1)i −1 ·(− 1)i −1 ·det (ϕ(u1 ),..., ϕ(ui −1 ), u j , ϕ(u i +1 ),...,ϕ(u n ))·ui
n

i =1

Hemos obtenido dos expresiones del mismo vector, y como B es base, han de ser
iguales. Entonces

bij = det B (ϕ(u1 ),..., ϕ(u i −1 ), u j , ϕ(ui −1 ),..., ϕ(u n )) ∀1 ≤ i , j ≤ n

Ahora vamos a desarrollar el miembro de la derecha para obtener una expresión más
operativa par bij.

Definimos un endomorfismo auxiliar ϕij∈L(V) ∀1 ≤ i , j ≤ n como

ϕ(u K ) si K ≠ i
ϕij (u K ) = 
 u j si K = i

det B (ϕ(u1 ),.., ϕ(u i −1 ), u j , ϕ(u i +1 ),..., ϕ(u n )) = det B (ϕij (u1 ),..., ϕij (u i −1 ), ϕij (ui ), ϕij (ui +1 )...,ϕij (u n )) =

= det (ϕij ) = A(ϕij )

donde por A(ϕij) representamos la matriz asociada a la aplicación ϕij .

Sea A = (aij ) la matriz asociada de ϕ.

La matriz A(ϕij) es:

 A(ϕ11 ) A(ϕ12 ) ..... A(ϕ1 n ) 


 
 A(ϕ21 ) A(ϕ22 ) A(ϕ2 n ) 
A(ϕij ) = 
.....
..... ..... ..... ..... 
 
 A(ϕ ) A(ϕ ) A(ϕnn ) 
 n1 n2 .....

y teniendo en cuenta (ϕij)(uK) corresponden a la columna K, tenemos que

 a11 ..... a1 ,i −1 0 a1,i +1 ..... a1n 


 
 ..... ..... ..... ..... ..... ..... ..... 
A(ϕij ) =  a j 1 ..... a j ,i −1 1 a j ,i +1 ..... a jn 

 ..... ..... ..... ..... ..... ..... ..... 
a
 11 ..... an ,i −1 0 a n ,i +1 ..... ann 

22/26
El determinante es

1 a j1 ..... a j , i −1 a j , i +1 ..... a jn
0 a11 ..... a1, i −1 a1 ,i +1 ..... a1 n
A(ϕij ) = (− 1) ·(− 1) · .....
i −1 j −1
..... ..... ..... ..... ..... ..... =
..... ..... ..... ..... ..... ..... .....
0 a n1 ..... an , i −1 an , i +1 ..... a nn

Renombremos los elementos de la matriz A(ϕij ) = (Cij )1≤i , j ≤ n

 
= (− 1)i + j ·(− 1)−2 · ∑ ε(σ )·C1σ (1) ·.....·Cnσ (n )  =
 σ ∈S n 

Como el determinante de una matriz y su traspuesta coinciden

 
= (− 1)i + j · ∑ ε(σ)·Cσ (1)1 ·.....·Cσ (n )n  =
 σ ∈S n 

y al ser la primera columna toda nula menos su primer elemento resulta que

0 σ (1) ≠ 1
Cσ (1 )1 = 
1 σ(1) = 1

 
  i+ j  
= (− 1)  ∑ ε(σ)Cσ ( n )n  = (− 1) · ∑ ε(σ )Cσ ( 2 ) 2 ·....·Cσ (n )n  =
i+ j

 σσ ∈(1S)n=1   σ ∈S n −1 
 

= (− 1) · Dji
i+ j

siendo Dji la matriz que se obtiene de A eliminando la fila j y columna i

Por tanto bij = (− 1)i + j · Dij

DEF Sea A∈Mn (K) con A = (aij). Llamamos menor complementario de aij al
determinante de Dij.

DEF Sea A∈Mn (K) con A = (aij). Llamamos adjunto de aij a bij = (− 1)i + j · Dij

DEF Llamaremos matriz adjunta de A∈Mn (K) a A = (bij )

Con esta nueva terminologí a tenemos que

23/26
A(ad (ϕ)) = A t

OBS Si ϕ es un automorfismo y A es su matriz asociada, sabemos que A es inversible


y

ad (ϕ)
A−1 = A ϕ−1 = ( ) 1 t
· A ya que ϕ−1 =
A det (ϕ)

3.3.2. Desarrollo de un determinante por los adjuntos de una línea.

PROP Sea A∈Mn (K) con A = (aij). Si (bij) es la matriz de adjuntos se verifica:

n
1) A = ∑ aij ·bij (desarrollo por los adjuntos de la fila i)
j =1

n
2) A = ∑ aij bij (desarrollo por los adjuntos de la columna j).
i =1

Dem.

Vamos a realizar la demostración para 2) pues son análogas ya que A = At

2) A = ∑ ε(σ )a 1σ (1)
·a2 σ ( 2 ) ·....·an (σ )n =
σ∈Sn

Llevando el elemento que queremos sacar factor común a la fila 1 y columna 1


tenemos que

= a1 j ·(− 1) · ∑ ε(σ )a ·...·an σ ( n ) + a2 j ·(− 1) · ∑ ε(σ)a


j −1
·a3 σ (3 )·....·a nσ (n ) + .... +
j
2σ (2) 1σ (1 )
σ ∈S n σ ∈S n
σ (1 )= j σ ( 2 )= j

+ anj ·(− 1) ∑ ε(σ )a


n + j −2
· a
1σ (1) 2 σ ( 2 ) ·.....·an −1 ,σ ( n −1 ) =
σ ∈S n
σ (n )= j

σ( K ) K ≠ i
Definimos σi ∈ S n −1 como σi ( K ) = 
 i K =i

= a1 j ·(− 1) · ∑ ε (v )a ·a3σ 1 (3 ) ·.....·an σ 1 ( n ) + a2 j ·(− 1) ∑ ε(σ )a


1+ j 2+ j
1 2 σ 1 (2 ) · 2 ·a3σ 2 (3 ) ·...·an σ 2 ( n ) +
1σ 2 (1 )
σ ∈ S n−1 σ 2∈S n −1

+ .... + anj ·(− 1) · ∑ ε(σn )a1σ n (1 )·a2 σ n (2 )·....·an −1,σ n (n −2 ) =


n+ j

σ n∈ S n

n
= a1 j b1 j + a2 j b2 j + ... + anj bnj = ∑ aij bij
i =1

24/26
COROLARIO La suma de los productos de una fila por los adjuntos de una paralela
vale cero.

4. APLICACIÓN AL CALCULO DEL RANGO DE UNA MATRIZ.

Sabemos que las columnas de una matriz (o filas) de Mn (K) son linealmente
independientes (consideradas como vectores de Kn ) si y solo si su determinante es no
nulo.

DEF Dada una matriz A∈Mmxn (K) con A = (aij ) y m ≥ n se verifica:

rang A = n ⇔ A tiene al menos un menor de orden n no nulo.

Dem.

“⇒”
Si rang(A) = n ⇒ En A existen n filas linealmente independientes y por tanto su
determinante es no nulo.

“⇐”
Supongamos que A tiene un menor de orden n cuyo determinante es no nulo. Como
el intercambio de filas no altera el rango, podemos suponer sin pérdida de generalidad
que

a11 ..... a1 n
..... ..... ..... ≠ 0
a n1 ..... a nn

Por tanto las n primeras filas son linealmente independientes y rang (A) ≥ n

Pero como A tiene n columnas ⇒ rang(A) ≤ n

Entonces rang(A) = n

DEF Sea A una matriz de orden m x n y D un menor de orden p obtenido de dicha


matriz. Llamamos orlados del menor D a todos los menores de orden p + 1 que
contienen a D.

PROP Sea A∈Mmx(n+1)(K) con A = (aij).

 A tiene un menor D de orden n no nulo


Rang(A) = n ⇔ 
 Todos los orlados de D son nulos

Dem.

“⇒”
Si rang(A) = n, por la proposición anterior A tiene un menor D de orden n no nulo.

25/26
Como A tiene n + 1 columnas, la única columna que no está en el menor D es
combinación lineal de las otras. Y como esa columna estará en todos los orlados de D,
éstos serán nulos.

“⇐”
Por hipótesis, al ser D un menor no nulo de orden n, A tiene n filas linealmente
independientes.

Como todos los orlados son nulos, las demás filas serán combinación lineal de esas
n.

Luego rang(A) = n.

Bibliografía recomendada.

Curso de algebra y geometría. Juan de Burgos. Ed: Alhambra

Algebra lineal y geometria. Ed: Univ. de Barcelona

Algebra linea. Juan de Burgos. Ed: McGraw-Hill

Algebra lineal. F. Puerta. Ed: Univ. de Barcelona.1975

Linear Algebra. W. Greub. Ed: Springer-Verlag

26/26

También podría gustarte