Está en la página 1de 100

Apuntes de álgebra lineal

Jose S. Cánovas Peña

2 de febrero de 2008
Índice General

1 Aprendemos a hacer cuentas 1


1.1 Matrices. Primeras definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Suma de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 Multiplicación de una matriz por un escalar . . . . . . . . . . . . . . . . . . . 5
1.3 Matriz traspuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Rango de una matriz. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . 7
1.4.1 Tipos de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 El teorema de Rouché-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.3 Resolución de sistemas. Método de Gauss . . . . . . . . . . . . . . . . . . . . 11
1.5 Operaciones elementales en matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Cálculo de matrices inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.7 Determinantes de matrices cuadradas. Definición . . . . . . . . . . . . . . . . . . . . 20
1.7.1 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7.2 Cálculo de la matriz inversa usando determinantes. . . . . . . . . . . . . . . . 24
1.7.3 Resolución de sistemas de ecuaciones. Regla de Cramer . . . . . . . . . . . . . 25
1.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2 Espacio vectorial 35
2.1 Definiciones y propiedades básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3 Bases y dimensión de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

3 Aplicaciones lineales 51
3.1 Definiciones y propiedades básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2 Subespacios vectoriales asociados a una aplicación lineal . . . . . . . . . . . . . . . . 53
3.2.1 Imagen de una aplicación lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.2.2 Núcleo de una aplicación lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3 Matriz asociada a una aplicación lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.1 Matriz de la suma de aplicaciones lineales y del producto por escalares. . . . . 57
3.3.2 Matriz de la composición de aplicaciones lineales. . . . . . . . . . . . . . . . . 59
3.3.3 Matriz asociada a las aplicaciones lineales inversas. . . . . . . . . . . . . . . . 60
3.3.4 Matrices de cambio de base. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

i
Índice General

3.3.5 Matrices asociadas a una aplicación lineal en bases diferentes. . . . . . . . . . 63


3.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

4 Diagonalización de matrices cuadradas 69


4.1 Valores y vectores propios de una matriz. . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2 El polinomio característico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.3 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.3.1 Circuitos digitales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.3.2 Procesos de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

5 Espacio vectorial eucídeo 81


5.1 Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.2 Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.1 Método de ortonormalización de Gram-Schmidt . . . . . . . . . . . . . . . . . 85
5.2.2 Aplicación a la diagonalización ortogonal . . . . . . . . . . . . . . . . . . . . . 86
5.3 Subespacios ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.4 Endomorfismos con significado geométrico . . . . . . . . . . . . . . . . . . . . . . . . 91
5.4.1 Homotecias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.4.2 Proyecciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.4.3 Simetrías . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.4.4 Rotaciones en el plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

ii
Capítulo 1

Aprendemos a hacer cuentas

Sumario. Definición de matriz. Operaciones con matrices. Tipos de matrices.


Operaciones elementales. Matrices elementales. Rango de una matriz. Matrices
inversas. Definición de determinante. Propiedades básicas. Cálculo de la matriz
inversa mediante determiantes. Definición de sistema de ecuaciones lineales. Forma
matricial del sistema. Teorema de Rouché—Frobenius. Método de Gauss. Método de
Cramer.

1.1 Matrices. Primeras definiciones


Sea K el cuerpo de los números reales o números complejos (que a veces llamaremos escalares) y sean
m, n números naturales. Una matriz n × m es una aplicación A : {1, 2, ..., n} × {1, 2, ..., m} → K, es
decir, dados (i, j) ∈ {1, 2, ..., n} × {1, 2, ..., m}, A(i, j) = aij será un número real o complejo. Como el
dominio de la matriz (aplicación) A es finito, es más usual escribir una matriz de la siguiente forma
⎛ ⎞
a11 a12 ... a1m
⎜ a21 a22 ... a2m ⎟
A =⎜
⎝ ... ...
⎟.
... ... ⎠
an1 an2 ... anm

Se dirá entonces que la matriz A tiene n filas y m columnas. Denotaremos por Mn×m (K) al conjunto
de matrices de tamaño n × m con coeficientes en K. En caso de que n = m, es decir, tenemos el
mismo número de filas que de columnas, diremos que la matriz A es cuadrada. Por ejemplo, la
matriz ⎛ ⎞
1 2 3
A =⎝ 3 2 1 ⎠
1 1 0
es cuadrada al tener 3 filas y columnas. Como notación escribiremos las matrices de la forma
j=1,2,...,m
A = (aij )i=1,2,...,n o simplemente A = (aij ) si no hace falta especificar el número de filas y columnas.
La fila i—ésima de la matriz A será denotada por Ai = (ai1 , ai2 , ...aim ), 1 ≤ i ≤ n. Nótese que
cada fila de la matriz A es a su vez una matriz de una fila y m columnas. A su vez, la columna

1
Aprendemos a hacer cuentas

j—ésima de la matriz, 1 ≤ j ≤ m, la representaremos por


⎛ ⎞
a1j
⎜ a2j ⎟
Aj = ⎜ ⎟
⎝ ... ⎠ ,
anj

y será por tanto una matriz de n filas y una columna. Por ejemplo, en la matriz anterior la fila
A2 = (3, 2, 1) mientras que la columna es
⎛ ⎞
3
3
A = ⎝ 1 ⎠.
0

Dada la matriz A los elementos de la forma aii , 1 ≤ i ≤ min{n, m} forman la diagonal principal
de la matriz. Una matriz cuadrada que sólo tome valores no nulos en los elementos de la diagonal
principal se dirá diagonal . Por ejemplo, las matrices
⎛ ⎞
1 0 0 0 ⎛ ⎞
⎜ 0 2 0 0 ⎟ 2 0 0
A=⎜ ⎟ ⎝
⎝ 0 0 0 0 ⎠ , B = 0 −1 0 ,

0 0 π
0 0 0 −1

serán diagonales. Como vemos las matrices diagonales cumplen que sus elementos aij = 0 si i 6= j.
Si somos menos exigentes y sólo pedimos que o bien aij = 0 si i < j o bien aij = 0 si i > j tendremos
la matrices (no necesariamente cuadradas) triangulares. Por ejemplo las matrices
⎛ ⎞ ⎛ ⎞
µ ¶ 2 0 0 µ ¶ 2 0 1
1 0 0 ⎜ 0 2 0 ⎟ 1 1 1 ⎜ 0 2 7 ⎟

, ⎝ ⎟ , , ⎜ ⎟
1 2 0 6 8 0 ⎠ 0 2 0 ⎝ 0 0 0 ⎠
1 1 11 0 0 0

son triangulares.

1.2 Operaciones con matrices


1.2.1 Suma de matrices
Dadas las matrices A, B ∈ Mn×m (K), m, n ∈ N, se define la suma de ambas matrices como

A + B = (aij ) + (bij ) = (aij + bij ).

Por ejemplo ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
0 1 −2 1 1 −5 1 2 −7
⎜ 4 3 4 ⎟ ⎜ 8 ⎟ ⎜ ⎟
⎜ ⎟+⎜ 1 5 ⎟ = ⎜ 5 8 12 ⎟ .
⎝ 9 −4 −4 ⎠ ⎝ 2 −1 −1 ⎠ ⎝ 11 −5 −5 ⎠
1 1 1 1 1 2 2 2 3

2
Aprendemos a hacer cuentas

Démonos cuenta que no es posible sumar matrices de distinto tamaño, es decir, con distinto número
de filas o columnas. Por ejemplo no es posible calcular
⎛ ⎞
0 1 −2 ⎛ ⎞
⎜ 4 3 1 1 1
⎜ 4 ⎟ ⎟ ⎝ ⎠
⎝ 9 −4 −4 ⎠ + 8 2 2 .
0 1 1
1 1 1
La suma de matrices tiene las siguientes propiedades que se infieren directamente de las propie-
dades del cuerpo K y son las siguientes:

1. Propiedad asociativa. Dadas A, B, C ∈ Mn×m (K) se verifica que (A + B) + C = A + (B + C).


Para demostrar esta propiedad consideramos

(A + B) + C = ((aij ) + (bij )) + (cij ) = (aij + bij ) + (cij ) = ((aij + bij ) + cij )


= (aij + (bij + cij )) = (aij ) + (bij + cij ) = (aij ) + ((bij ) + (cij ))
= A + (B + C),

dado que la suma en el cuerpo K es asociativa.


2. Propiedad conmutativa. Dadas A, B ∈ Mn×m (K) se verifica que A + B = B + A. Para
demostrar esta propiedad consideramos

A + B = (aij ) + (bij ) = (aij + bij ) = (bij + aij ) = (bij ) + (aij ) = B + A,

dado que la suma en el cuerpo K es asociativa.


3. Elemento neutro. Se trata de la matriz 0 ∈ Mn×m (K), que es aquella que tiene cero en todas
sus componentes. Es claro entonces que dada A ∈ Mn×m (K) se verifica que A+0 = 0+A = A.
4. Elemento simétrico. Dado A ∈ Mn×m (K) existe un elemento −A de manera que A + (−A) =
(−A) + A = 0. Dada la matriz A = (aij ) se tiene que −A = (−aij ). Entonces es claro que

A + (−A) = (aij ) + (−aij ) = (0) = 0.

Por verificarse estas cuatro propiedades, se dice que el par formado por el conjunto de matrices
con la operación suma (Mn×m (K), +) es un grupo conmutativo.

1.2.2 Producto de matrices


Dadas
Pm las matrices A ∈ Mn×m (K) y B ∈ Mm×k (K), m, n, k ∈ N, se define el producto A · B =
( k=1 aik bkj ). Es decir, para poder multiplicar dos matrices en número de columnas de la primera
ha de coincidir con el número de filas de la segunda. Por ejemplo
⎛ ⎞
µ ¶ 1 1 1 µ ¶
1 0 2 ⎝ ⎠ 7 7 −5
· 2 0 2 =
−1 1 −2 −5 −7 7
3 3 −3
Las propiedades que cumple el producto de matrices son las siguientes.

3
Aprendemos a hacer cuentas

1. Propiedad asociativa. Dadas A ∈ Mn×m (K), B ∈ Mm×k (K), C ∈ Mk×l (K) se verifica que
(A · B) · C = A · (B · C). Para ver la demostración consideramos

Xm
(A · B) · C = ((aij ) · (bij )) · (cij ) = ( air brj ) · (cij )
r=1
X
k X
m X
m Xk
= ( air brs csj ) = ( air ( brs csj ))
s=1 r=1 r=1 s=1
X
k
= (aij ) · ( brs csj ) = A · (B · C).
s=1

2. En general no cabe plantearse si se cumple la propiedad conmutativa ya que como vemos en el


ejemplo anterior, no se puede hacer el producto en orden inverso porque el número de columnas
de la segunda matriz no coincide con el número de filas de la primera matriz. Ahora bien, en
caso de poder realizarse el producto, por ejemplo si las matrices son cuadradas la propiedad
conmutativa no se verifica como pone de manifiesto el siguiente ejemplo:
µ ¶ µ ¶ µ ¶
1 1 2 0 3 1
· =
1 1 1 1 3 1

mientras que µ ¶ µ ¶ µ ¶
2 0 1 1 2 2
· = .
1 1 1 1 2 2

3. Existe un elemento neutro, llamado identidad y que es la matriz diagonal que tiene 1 en
cada elemento de la diagonal principal. Si llamamos In ∈ Mn×n (K) a la matriz identidad y
A ∈ Mn×m (K), se verifica que In · A = A · Im = A. Si la matriz A es cuadrada, entonces
In · A = A · In = A.

4. No toda matriz cuadrada A no nula tiene matriz inversa, es decir, otra matriz A−1 tal que
A · A−1 = A−1 · A = In . En caso de existir µdiremos¶que la matriz A es invertible y que A−1
1 0
es su matriz inversa. Por ejemplo la matriz no tiene inversa ya que si esta existiera
1 0
tendría que verificarse que
µ ¶ µ ¶ µ ¶ µ ¶
1 0 a b a b 1 0
· = =
1 0 c d a b 0 1
µ ¶
1 0
y tendríamos que a = 1 y a = 0, lo cual es absurdo. Por ejemplo la matriz es
µ ¶ 0 2
1 0
invertible, siendo su inversa . Veremos posteriormente cómo caracterizar las matrices
0 12
invertibles y cómo se obtiene su inversa en caso de serlo.

5. Propiedad ditributiva del producto respecto de la suma de matrices. Dadas A ∈ Mn×m (K)
B, C ∈ Mm×k (K), se verifica que A · (B + C) = A · B + A · C. Para demostrar esta identidad

4
Aprendemos a hacer cuentas

consideramos
Xm
A · (B + C) = (aij ) · (bij + cij ) = ( air (brj + crj ))
r=1
X
m X
m
= ( air brj + air crj ) = (aij ) · (bij ) + (aij ) + (cij )
r=1 r=1
= A · B + A · C.

1.2.3 Multiplicación de una matriz por un escalar


Sean α ∈ K y A ∈ Mn×m (K), n, m ∈ N. Se define la multiplicación de α por A = (aij ) como la
matriz α · A = (αaij ). Por ejemplo
⎛ ⎞ ⎛ ⎞
1 2 2 4
2 · ⎝ 2 3 ⎠ = ⎝ 4 6 ⎠.
3 4 6 8
Veamos que propiedades tiene este producto.
1. Propiedad distributiva del producto respecto de la suma de matrices. Sean α ∈ K y A, B ∈
Mn×m (K), entonces se verifica que α · (A + B) = α · A + α · B. Para probar esta igualdad
consideramos
α · (A + B) = α · ((aij ) + (bij )) = α · (aij + bij ) = (α(aij + bij ))
= (αaij + αbij ) = (αaij ) + (βaij ) = α(aij ) + α(bij )
= α · A + α · B.

2. Propiedad distributiva del producto respecto de la suma de escalares. Sean α, β ∈ K y A ∈


Mn×m (K), entonces se cumple que (α + β) · A = α · A + β · A. Para demostrar la igualdad
tomamos
(α + β) · A = (α + β) · (aij ) = ((α + β)aij ) = (αaij + βaij )
= (αaij ) + (βaij ) = α · (aij ) + β · (aij ) = α · A + β · B.

3. Propiedad pseudoasociativa. Sean α, β ∈ K y A ∈ Mn×m (K), entonces se cumple que (αβ) ·


A = α · (β · A). Para demostrar la igualdad sea
(αβ) · A = (αβ) · (aij ) = ((αβ)aij ) = (α(βaij ))
= α · (βaij ) = α · (β · (aij )) = α · (β · A).

4. Para toda matriz A ∈ Mn×m (K) se verifica que 1 · A = A. Para demostrarlo consideramos
1 · A = 1 · (aij ) = (1aij ) = (aij ) = A.

Estas propiedades junto con las propiedades de la suma de matrices hace que la terna (Mn×m (K), +, ·)
tenga estructura de espacio vectorial, como veremos con mayor detalle en el tema dedicado a los es-
pacios vectoriales.

5
Aprendemos a hacer cuentas

1.3 Matriz traspuesta


j=1,2,...,m
Dada una matriz A = (aij )i=1,2,...,n ∈ Mn×m (K), se define su matriz traspuesta de A como una
t
matriz denotada A ∈ Mm×n (K) y que se contruye intercambiando las filas por las columnas de A,
j=1,2,...,n
esto es, At = (atij )i=1,2,...,m cumple atij = aji . Por ejemplo la traspuesta de
⎛ ⎞
2 3
⎝ 1 1 ⎠
2 1

será la matriz µ ¶
2 1 2
.
3 1 1
Veamos cúales son las propiedades de la trasposición de matrices.

Proposition 1 Sean α ∈ K, A, B ∈ Mm×n (K) y C ∈ Mn×l (K). Entonces

(a) (At )t = A.

(b) (α · A)t = α · At .

(c) (A + B)t = At + Bt .

(d) (A · C)t = Ct · At .

(e) Si A ∈ Mn×n (K) es una matriz invertible, entonces (A−1 )t = (At )−1 .

Demostración. La propiedad (a) es inmediata. Para probar (b) calculamos

α · At = α · (atij ) = α · (aji ) = (αaji ) = (α · A)t .

Para demostrar (c) calculamos

At + Bt = (atij ) + (btij ) = (aji ) + (bji ) = (aji + bji ) = ((aij + bij )t ) = (A + B)t .

Para la demostración de (d)


à n ! à n !
X X
Ct · At = (ctij ) · (atij ) = ctik atkj = ajk cki = (A · C)t .
k=1 k=1

Para demostar la última propiedad, sea A−1 la matriz inversa de A. Entonces A · A−1 = In . Si
aplicamos la propiedad anterior tenemos que

(A · A−1 )t = (A−1 )t · At = Itn = In ,

dado que In es una matriz diagonal y su inversa es ella misma. Ahora bien, tenemos que (A−1 )t ·At =
In , de donde deducimos que At es invertible y su matriz inversa (At )−1 = (A−1 )t .

6
Aprendemos a hacer cuentas

La matriz traspuesta se utiliza para definir dos tipos especiales de matrices. Una matriz cuadrada
A se dice simétrica si At = A y se dice antisimétrica si At = −A. Si una matriz A es simétrica se
verifica que
A = (aij ) = (atij ) = At ,
por lo que
aij = atij = aji .
Así, ejemplos de matrices simétricas son
⎛ ⎞
⎛ ⎞ 0 1 0 −1
1 1 0 ⎜ ⎟
⎝ 1 1 3 ⎠ , ⎜ 1 −1 4 0 ⎟ .
⎝ 0 4 4 3 ⎠
0 3 0
−1 0 3 0
Si por el contrario la matriz A es antisimétrica, entonces tenemos que

A = (aij ) = −(atij ) = −At ,

por lo que
aij = −atij = −aji ,
y si i = j, entonces 2aii = 0, por lo que aii = 0. Son ejemplos de matrices antisimétricas
⎛ ⎞
⎛ ⎞ 0 1 0 −1
0 1 0 ⎜
⎝ −1 0 −3 ⎠ , ⎜ −1 0 4 0 ⎟⎟.
⎝ 0 −4 0 3 ⎠
0 3 0
1 0 −3 0

1.4 Rango de una matriz. Sistemas de ecuaciones lineales


Sea A ∈ Mn×m (K) una matriz. Recordemos que las n filas de la matriz las denotamos por
A1 , A2 , ..., An y las m columnas por A1 , A2 , ..., Am . Las filas A1 , A2 , ..., An (resp. columnas
A1 , A2 , ..., Am ) son linealmente independientes si dada la expresión α1 ·A1 +α2 ·A2 +...+αn ·An = 0
(resp. α1 · A1 + α2 · A2 + ... + αm · Am = 0) se deduce que αi = 0 para todo 1 ≤ i ≤ n (resp. αi = 0
para todo 1 ≤ i ≤ m). Se llama rango de la matriz A, denotado r(A), al número máximo de filas o
columnas linealmente independientes que hay en A.
Consideremos la matriz µ ¶
1 1
A= .
0 1
Calculemos su rango tomando por ejemplo las dos filas A1 = (1, 1) y A2 = (0, 1). Planteamos
entonces la expresión

α1 · A1 + α2 · A2 = α1 · (1, 1) + α2 · (0, 1) = (α1 , α1 + α2 ) = (0, 0),

de donde obtenemos el examen ½


α1 = 0,
α1 + α2 = 0,
de donde obviamente α1 = α2 = 0.

7
Aprendemos a hacer cuentas

Remark 1 En principio habría que distinguir el rango por filas como el número máximo de filas li-
nealmente independientes y el rango por columnas definido intercambiando filas por columnas. Puede
probarse (ver por ejemplo [?]) que el rango por filas y por columnas coinciden. De esta manera cobra
sentido la definición establecida anteriormente.

En general, dada una matriz A = (aij ) ∈ Mn×m (K), calcular su rango supone, en el caso de
obtener el rango utilizando las columnas de la matriz, resolver expresiones de la forma

α1 · A1 + ... + αm · Am = 0,

o equivalentemente ⎛ ⎞ ⎛ ⎞
α1 0
A · ⎝ ... ⎠ = ⎝ ... ⎠ ,
αm 0
que en forma extendida se escribe como

⎨ a11 α1 + ... + am1 αm = 0,
......................................

a1n α1 + ... + amn αm = 0.

Esto nos da pie para introducir el concepto de sistema de ecuaciones lineales como una expresión
de la forma ⎧

⎪ a11 x1 + a12 x2 + · · · + a1m xm = b1

a21 x1 + a22 x2 + · · · + a2m xm = b2

⎪ .....................................................

an1 x1 + an2 x2 + · · · + anm xm = bn
donde los escalares aij ∈ K (1 ≤ i ≤ n, 1 ≤ j ≤ m) reciben el nombre de coeficientes del sistema, bi
(bi ∈ K) se denominan términos independientes y xj (1 ≤ j ≤ m) son las incógnitas del sistema. Si
se considera la matriz formada por los coeficientes
⎛ ⎞
a11 a12 · · · a1m
⎜ a21 a22 · · · a2m ⎟
⎜ ⎟
A = ⎜ .. .. .. ⎟
⎝ . . . ⎠
an1 an2 · · · anm

llamada matriz del sistema y los vectores columna


⎛ ⎞ ⎛ ⎞
x1 b1
⎜ ⎟ ⎜ .. ⎟ ∈ Kn ,
x = ⎝ ... ⎠ y b = ⎝ . ⎠
xm bn

denominados vector incógnita y vector de términos independientes respectivamente, el sistema ante-


rior puede reescribirse como:
A · x = b,
expresión denominada forma matricial del sistema. Obsérvese cómo la notación matricial permite
escribir los sistemas de ecuaciones lineales de forma manejable y compacta.

8
Aprendemos a hacer cuentas

Definition 1 Una solución del sistema anterior es una m-tupla de elementos x∗1 , . . . , x∗m ∈ K de
forma que al sustituir cada incógnita por el x∗j correspondiente se verifican todas las ecuaciones.
Usando la notación matricial, una solución será un vector x∗ ∈ Km tal que A · x∗ = b.
Por ejemplo consideremos el sistema

⎨ x1 + x2 + x3 = 3,
2x1 + x2 = 3,

x1 − x2 + x3 = 1,
o de forma matricial ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 x1 3
⎝ 2 1 0 ⎠ · ⎝ x2 ⎠ = ⎝ 3 ⎠ .
1 −1 1 x3 1
Veamos que la matriz (1, 1, 1)t , es decir x1 = x2 = x3 = 1, es solución del sistema. Para ello
multiplicamos ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 1 1+1+1 3
⎝ 2 1 0 ⎠ · ⎝ 1 ⎠ = ⎝ 2 + 1 ⎠ = ⎝ 3 ⎠.
1 −1 1 1 1−1+1 1

1.4.1 Tipos de sistemas


Según su estructura se distinguen dos tipos de sistemas de ecuaciones lineales.
• Los sistemas homogéneos son aquellos en que los términos independientes son todos nulos, es
decir, b = 0, manteniendo la notación anterior. Son los sistemas que hemos de resolver para
calcular el rango de una matriz.
• Cuando b 6= 0, es decir, alguno de los términos independientes es no nulo, el sistema se dice
que es no homogéneo.
Una característica importante de los sistemas homogéneos es que el vector nulo es siempre solución
de los mismos, algo que no ocurre en el caso no homogéneo donde no siempre los sistemas tienen
solución. Por ejemplo, el sistema ½
x1 + x2 = 1,
2x1 + 2x2 = 0,
que no puede tener solución porque entonces obtendríamos que 0 = 1, lo cual es absurdo.
La existencia o no de solución, induce otra clasificación en la clase de los sistemas de ecuaciones
lineales.

• Sistemas incompatibles. Un sistema se dice que es incompatible si no admite solución.


• Sistemas compatibles. Un sistema es compatible si tiene solución. Se distinguen a su vez dos
tipos de sistemas compatibles atendiendo al número de soluciones.
— Sistemas compatibles determinados. Son aquellos que tienen una única solución.
— Sistemas compatibles indeterminados. Son los que tienen más de una solución.
Veremos a continuación cómo caracterizar los distintos tipos de sistemas y cómo obtener la solu-
ción de los mismos en caso de existir.

9
Aprendemos a hacer cuentas

1.4.2 El teorema de Rouché-Frobenius


Dado un sistema de ecuaciones lineales, el primer paso consiste en determinar su carácter, es decir,
ver si es compatible y de qué tipo o incompatible. Este proceso es lo que se conoce como discutir
el sistema. Sea entonces el sistema A · x = b, con A ∈ Mn×m (K) y definamos la matriz A|b =
(A |b) ∈ Mn×(m+1) (K), es decir, la matriz que se obtiene añadiendo b como columna a la matriz A.
Recordemos que A1 , . . . , Am ∈ Kn son las columnas de la matriz A. Usando esta notación el sistema
puede reescribirse como:
x1 · A1 + x2 · A2 + · · · + xm · Am = b,
de donde se deduce que la existencia de solución es equivalente a que el vector b pueda obtenerse
como combinación lineal de A1 , . . . , Am . Entonces se tiene que:

• El sistema es incompatible, es decir, no existe solución alguna del sistema si y sólo si r(A) <
r(A|b).
• El sistema es compatible si y sólo si r(A) = r(A|b).

La anterior discusión del carácter del sistema en términos de los rangos de su matriz y de su
matriz ampliada es la tesis del conocido Teorema de Rouché-Frobenius.

Theorem 2 (Rouché-Frobenius) Sea A · x = b, con A ∈ Mn×m (K) y b ∈ Mn×1 (K). Se verifica


que el sistema es compatible si y sólo si r(A) = r(A|b).

Consideremos el siguiente ejemplo:



⎨ x1 + x2 + x3 = 1,
2x2 − 2x3 = 0,

x3 = 1.
De forma matricial el sistema se escribe como
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 x1 1
⎝ 0 2 −2 ⎠ · ⎝ x2 ⎠ = ⎝ 0 ⎠ .
0 0 1 x3 1
Como vemos, la matriz A del sistema es triangular. En este caso es fácil obtener la solución del
sistema ya que, como es fácil ver, x3 = 1, una vez obtenida x3 obtenemos de la segunda ecuación
x2 = x3 = 1, y finalmente, una vez obtenidos x2 y x3 obtenemos x1 = 1 − x2 − x3 = −1. Obtenemos
entonces resolviendo el sistema “de abajo a arriba”, teniendo por solución (−1, 1, 1).
Por otra parte, es fácil ver que el rango de la matriz
⎛ ⎞
1 1 1
A = ⎝ 0 2 −2 ⎠
0 0 1
es tres ya que vemos fácilmente que el sistema homogéneo
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 α1 0
⎝ 0 2 −2 ⎠ · ⎝ α2 ⎠ = ⎝ 0 ⎠
0 0 1 α3 0

10
Aprendemos a hacer cuentas

tiene por única solución α1 = α2 = α3 = 0, por lo que las columnas A1 , A2 y A3 son linealmente
independientes. El rango de la matriz
⎛ ⎞
1 1 1
B = ⎝ 0 2 −2 ⎠
0 0 0
es dos ya que una fila de ceros es siempre linealmente dependiente con cualesquiera otras filas. Nótese
que siempre es posible escribir

0 · (1, 1, 1) + 0 · (0, 2, −2) + α · (0, 0, 0) = (0, 0, 0)

para cualquier α ∈ R. Así, podemos “eliminar” la fila de ceros y calcular el rango de la matriz
µ ¶
1 1 1
C= ,
0 2 −2
que tendrá como máximo rango dos al tener únicamente dos filas. Como
µ ¶ µ ¶ µ ¶ µ ¶ µ ¶
1 2 1 1 1 1 α1 0
α1 · A + α2 · A = α1 · + α2 · = · =
2 2 0 2 α2 0

tiene por solución α1 = α2 = 0 ambas columnas son linealmente independientes y por tanto r(C) =
r(B) = 2.
Vamos a ver en el siguiente apartado cómo obtener la solución de un sistema y el rango de matrices
cuando éstas no son triangulares. Para ello necesitamos introducir una manera de manipular sistemas
o matrices por medio de unas operaciones que llamaremos elementales.

1.4.3 Resolución de sistemas. Método de Gauss


La idea de este método es encontrar un sistema equivalente al original que sea sencillo de resolver.
Para ello se efectúan transformaciones elementales sobre las filas del sistema de tal manera que
ambos sistemas, el original y el transformado, tengan las mismas soluciones. Estas operaciones que
llamaremos elementales son las siguientes:

1. Intercambiar dos filas del sistema.


2. Multiplicar una fila del sistema por un escalar α ∈ K no nulo.
3. Suma a una fila del sistema otra fila multiplicada por un escalar α ∈ K.

En general, si denotamos por O una de estas operaciones elementales, escribiremos

A · x = b → A(O) · x = b(O),
O

donde A(O) y b(O) son las nuevas matrices del sistema transformado. Por ejemplo, dado el sistema
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 x 1
⎝ 1 −1 0 ⎠ · ⎝ y ⎠ = ⎝ 0 ⎠ ,
1 2 3 z 6

11
Aprendemos a hacer cuentas

realizamos las siguientes operaciones elementales. Si intercambiamos la segunda y tercera fila, ope-
ración que denotaremos por F2 × F3 , escribiremos
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 x 1 1 1 1 x 1
⎝ 1 −1 0 ⎠ · ⎝ y ⎠ = ⎝ 0 ⎠ → ⎝ 1 2 3 ⎠ · ⎝ y ⎠ = ⎝ 6 ⎠,
F2 ×F3
1 2 3 z 6 1 −1 0 z 0

y en este caso, como ⎛ ⎞


1 1 1
A = ⎝ 1 −1 0 ⎠
1 2 3
tendremos que ⎛ ⎞ ⎛ ⎞
1 1 1 1
A(O) = ⎝ 1 2 3 ⎠ y b(O) = ⎝ 6 ⎠.
1 −1 0 0
Si al sistema original le hacemos la operación 2F1 , esto es, multiplicamos la segunda fila por 2
obtenemos
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 x 1 1 1 1 x 1
⎝ 1 −1 ⎠
0 · ⎝ y ⎠ = ⎝ 0 ⎠ → ⎝ ⎠
2 −2 0 · ⎝ y ⎠ = ⎝ 0 ⎠,
2F2
1 2 3 z 6 1 2 3 z 6

y ahora ⎛ ⎞
1 1 1
A(2F2 ) = ⎝ 2 −2 0 ⎠ .
1 2 3
Finalmente, si le sumamos a la tercera fila la primera multimplicada por tres escribimos
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 x 1 1 1 1 x 1
⎝ 1 −1 0 ⎠ · ⎝ y ⎠ = ⎝ 0 ⎠ → ⎝ 1 −1 0 ⎠ · ⎝ y ⎠ = ⎝ 0 ⎠ ,
F3 +3F1
1 2 3 z 6 4 5 6 z 9
y ⎛ ⎞
1 1 1
A(F3 + 3F1 ) = ⎝ 1 −1 0 ⎠ .
4 5 6
Démonos cuenta que toda operación elemental se puede revertir, esto es, existe otra operación
elemental que nos devuelve al sistema original. Es fácil ver que si realizamos la operación intercambiar
las filas i y j, Fi × Fj , entonces realizando la misma operación volvemos al sistema original, esto es,

A · x = b → A(Fi × Fj ) · x = b(Fi × Fj ) → A · x = b.
Fi ×Fj Fi ×Fj

Si la operación es multiplicar la fila i por α ∈ K \ {0}, entonces es fácil ver que

A · x = b → A(αFi ) · x = b(αFi ) 1→ A · x = b.
αFi Fi
α

12
Aprendemos a hacer cuentas

Finalmente, si la operación es sumar a la fila i la fila j multiplicada por α, entonces

A·x=b → A(Fi + αFj ) · x = b(Fi + αFj ) → A · x = b.


Fi +αFj Fi −αFj

Esta propiedad nos resultará útil para probar el siguiente resultado, que como veremos es clave.

Proposition 3 Sea A · x = b un sistema dado en forma matricial con A ∈ Mn×m (K) y b ∈


Mn×1 (K). Realicemos la operación elemental O sobre el sistema. Entonces los sistemas A · x = b
y A(O) · x = b(O) tienen las mismas soluciones.

Demostración. Para fijar ideas sea A = (aij ) y b = (bi ). Sea x0 = (x01 , ..., x0m )t una solución
arbitraria del sistema A · x = b y veamos que también es solución de A(O) · x = b(O). Distingamos
para ello los siguientes tres casos. Si O = Fi × Fj , entonces es obvio darse cuenta que x0 también es
solución. Si multiplicamos la fila i por α ∈ K \ {0}, entonces

αai1 x01 + ... + αaim x0m = α(ai1 x01 + ... + aim x0m ) = αbi .

Como las demás filas del sistema no han variado también se satisfacen las ecuaciones y por tanto x0
es solución de A(αFi ) · x = b(αFi ). Finalmente, si la operación es Fi + αFj , tenemos que

(ai1 + αaj1 )x01 + ... + (aim + αajm )x0m = ai1 x01 + ... + aim x0m + α(aj1 x01 + ... + ajm x0m ) = bi + αbj .

Como de nuevo las demás filas del sistema no han variado también se satisfacen las ecuaciones y por
tanto x0 es solución de A(Fi + αFj ) · x = b(Fi + αFj ).
Hemos probado entonces que toda x0 solución de A · x = b, también es solución de A(O) · x =
b(O). Veamos ahora el recíproco. Para ello, sea O0 la operación elemental tal que

A · x = b → A(O) · x = b(O) →0 A · x = b,
O O

y entonces, vemos que igualmente y por la misma razón toda solución de A(O) · x = b(O) lo es de
A · x = b.
Veamos entonces como aprovechar esta propiedad para obtener las soluciones del sistema. Para
fijar ideas, sea A · x = b un sistema dado en forma matricial con A ∈ Mn×m (K). El método de
Gauss consta de las siguientes etapas:

• En primer lugar se realizan transformaciones elementales por filas sobre la matriz ampliada del
sistema A|b hasta obtener una matriz equivalente de la forma
µ ¶
B c
,
0 d

con B una matriz lo más sencilla posible (triangular en la mayoría de los casos). El sistema
original tiene las mismas soluciones que el sistema
µ ¶ µ ¶
B c
·x= ,
0 d

de donde tenemos que:

13
Aprendemos a hacer cuentas

• Si d 6= 0 el sistema es incompatible.
• Si d = 0, entonces el sistema es compatible y equivalente a B · x = c, que es un sistema cuyas
soluciones son fáciles de calcular.

Pongamos un ejemplo. Consideremos el sistema



⎨ 2x + 2y − 3z = 2,
−x + 5y − 4z = 4,

x + 7y − 7z = 7.
Escribimos la matriz asociada ampliada
⎛ ⎞
2 2 −3 2
A|b = ⎝ −1 5 −4 4 ⎠
1 7 −7 7
y hacemos operaciones elementales fila
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
2 2 −3 2 1 7 −7 7 1 7 −7 7
⎝ −1 5 −4 4 ⎠ −→ ⎝ −1 5 −4 4 ⎠ −→ ⎝ 0 12 −11 11 ⎠ −→
F1 ×F3 F2 +F1 F3 −2F1
1 7 −7 7 2 2 −3 2 2 2 −3 2
⎛ ⎞ ⎛ ⎞
1 7 −7 7 1 7 −7 7
−→ ⎝ 0 12 −11 11 ⎠ −→ ⎝ 0 12 −11 11 ⎠ ,
F3 −2F1 F3 +F2
0 −12 11 12 0 0 0 1
por lo que r(A) = 2 mientras que r(A|b) = 3 y el sistema es incompatible.
Consideremos ahora el sistema ⎧
⎨ x + 2y − 3z = 4,
2x + 3y − 6z = 1

−x − y + z = −2.
Su matriz ampliada es ⎛ ⎞
1 2 −3 4
A|b = ⎝ 2 3 −6 1 ⎠
−1 −1 1 −2
y haciendo operaciones elementales fila tenemos
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 2 −3 4 1 2 −3 4 1 2 −3 4
⎝ 2 3 −6 1 ⎠ −→ ⎝ 0 −1 0 −7 ⎠ −→ ⎝ 0 −1 0 −7 ⎠ −→
F2 −2F1 F3 +F1 F3 +F2
−1 −1 1 −2 −1 −1 1 −2 0 1 −2 2
⎛ ⎞
1 2 −3 4
−→ ⎝ 0 −1 0 −7 ⎠ ,
F3 +F2
0 0 −2 −5
que como vemos es una matriz triangular que da lugar al sistema

⎨ x + 2y − 3z = 4,
−y = −7

−2z = −5,

14
Aprendemos a hacer cuentas

de donde fácilmente obtenemos la solución

(x, y, z) = (−5/2, 7, 5/2).

Veamos otro ejemplo con el sistema


½
x − 2y + 3z = 2,
2x + 5y + 6z = 0.

Escribimos la matriz ampliada µ ¶


1 −2 3 2
A|b =
2 5 6 0
y hacemos operaciones elementales fila
µ ¶ µ ¶
1 −2 3 2 1 −2 3 2
−→ ,
2 5 6 0 F2 −2F1 0 9 0 −4

de donde el sistema original tendrá las mismas soluciones que el sistema


½
x − 2y + 3z = 2,
9y = −4,

que fácilmente vemos que tiene por soluciones

(x, y, z) = (26/9 − 3t, −4/9, t), t ∈ R.

Como el sistema original tiene las mismas soluciones que el sistema


µ ¶ µ ¶
B c
·x= ,
0 d

con B una matriz triangular. Si el sistema es compatible, entonces d = 0 y si el número total de


incógnitas es m, entonces sólo podemos despejar r(B) incónitas. El resto de incógnitas hemos de
renunciar a calcularlas y asignarles un valor real arbitrario (parámetro). Entonces la solución del
sistema dependerá de m − r(B) parámetros. En el ejemplo anterior teníamos 3 incógnitas mientras
que el rango de la matriz era dos, y así la solución dependía de un parámetro.

1.5 Operaciones elementales en matrices


Para calcular el rango de una matriz de forma práctica necesitamos unas herramientas que se cono-
cen con el nombre de operaciones elementales fila y columna, y que son totalmente análogas a las
operaciones elementales que hemos estudiado al resolver sistemas de ecuaciones lineales. Así, dada
una matriz A ∈ Mn×m (K), estas operaciones son tres:

1. Intercambiar dos filas (columnas) de la matriz A.

2. Multiplicar una fila (columna) por un escalar α ∈ K no nulo.

15
Aprendemos a hacer cuentas

3. Suma a una fila (columna) otra fila (columna) multiplicada por un escalar α ∈ K.

Para evitar equívocos que se pueden producir al utilizar indistintamente operaciones elementales
fila y columna, a partir de ahora vamos a trabajar únicamente con operaciones elementales fila.
Fijemos un poco de notación para entendernos. Consideremos una matriz A y realizemos sobre ella
una operación elemental fila O. Escribiremos entonces

A −→ A(O),
O

donde A(O) es la amtriz resultante de realizar en A la operación O. Dada por ejemplo


⎛ ⎞
1 0 2 −1
A=⎝ 2 1 0 4 ⎠
−1 2 0 1

si intercambiamos la fila 2 por la fila 3 escribiremos


⎛ ⎞ ⎛ ⎞
1 0 2 −1 1 0 2 −1
⎝ 2 1 0 4 ⎠ −→ ⎝ −1 2 0 1 ⎠ = A(F2 × F3 ).
F2 ×F3
−1 2 0 1 2 1 0 4

Si muliplicamos la primera fila de A por 2 escribimos


⎛ ⎞ ⎛ ⎞
1 0 2 −1 2 0 4 −2
⎝ 2 1 0 4 ⎠ −→ ⎝ 2 1 0 4 ⎠ = A(2F1 ).
2F1
−1 2 0 1 −1 2 0 1

Si sumamos a la primera fila de A la segunda multiplicada por 2 escribimos


⎛ ⎞ ⎛ ⎞
1 0 2 −1 5 2 2 7
⎝ 2 1 0 4 ⎠ −→ ⎝ 2 1 0 4 ⎠ = A(F1 + 2F2 ).
F1 +2F2
−1 2 0 1 −1 2 0 1

Podemos concatenar operaciones elementales filas


⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 0 2 −1 1 0 2 −1 1 0 2 −1 1 0 2 −1
⎝ 2 1 0 4 ⎠ −→ ⎝ 2 1 0 4 ⎠ −→ ⎝ 4 2 0 8 ⎠ −→ ⎝ 0 2 2 0 ⎠ .
F3 +F1 2F2 F3 ×F2
−1 2 0 1 0 2 2 0 0 2 2 0 4 2 0 8

Idéntica notación tenemos para operaciones columna cambiando F por C, aunque no usaremos
estas.en general. La utilidad de las operaciones elementales para calcular el rango de una matriz se
concreta en el siguiente resultado.

Proposition 4 Sea A ∈ Mn×m (K) y sea O una operación elemental. Entonces r(A) = r(A(O)).

Demostración. Sean k = r(A) e i1 , ..., ik ∈ {1, ..., m} tal que Ai1 , ..., Aik son columnas li-
nealmente independientes. Si O = Fi × Fj , entonces las columnas de la matriz no cambian, solo
el orden, y es claro que el número de columnas linealmente independientes es idéntico, con lo que

16
Aprendemos a hacer cuentas

r(A) = r(A(Fi × Fj )). Supongamos que O = αFi , α ∈ K \ {0}. Si i ∈ / {i1 , ..., ik }, entonces las colum-
nas Ai1 , ..., Aik no han cambiado y r(A) ≤ r(A(αFi )). Si i ∈ {i1 , ..., ik }, por ejemplo i = i1 , entonces
de la expresión α1 α · Ai1 + ... + αk · Aik = 0, obtenemos por la independencia lineal de Ai1 , ..., Aik
que αi = 0 si i = 2, ..., k y αα1 = 0, de donde α1 = 0 ya que α 6= 0. De nuevo r(A) ≤ r(A(αFi )).
Entonces r(A) ≤ r(A(αFi )) ≤ r(A(αFi )( α1 Fi )) ≤ r(A), por lo que r(A) = r(A(αFi )). Finalmente,
supongamos que O = Fi + αFj , α ∈ K. Si i ∈ / {i1 , ..., ik }, entonces las columnas Ai1 , ..., Aik no han
cambiado y r(A) ≤ r(A(Fi + αFj )). Si i, j ∈ {i1 , ..., ik }, por ejemplo i = i1 y j = ik , entonces de la
expresión

α1 · (α · Aj + Ai1 ) + ... + αk · Aik = α1 · Ai1 + ... + (αα1 + αk ) · Aik = 0,

obtenemos por la independencia lineal de Ai1 , ..., Aik que αi = 0 si i = 1, ..., k − 1 y αα1 + αk = 0,
de donde αk = 0 ya que α1 = 0. De nuevo r(A) ≤ r(A(Fi + αFj )). Si i ∈ {i1 , ..., ik }, por
ejemplo i = i1 , y distinguimos dos casos: si Aj , Ai2 , ..., Aik son linealmente independientes entonces
r(A) ≤ r(A(Fi + αFj )). En caso contrario existen β i ∈ K, 1 ≤ i ≤ k, con β 1 6= 0 de manera que

β 1 · Aj + β 2 · Ai2 + ... + β k · Aik = 0,

de donde
Aj = γ 2 · Ai2 + ... + γ k · Aik
con γ i = −β i /β 1 , 2 ≤ i ≤ k. Escribamos

α1 · (α · Aj + Ai1 ) + ... + αk · Aik = α1 · Ai1 + ... + (αα1 γ k + αk ) · Aik = 0

y como Ai1 , ..., Aik son linealmente independientes α1 = 0 y así αα1 γ i + αi = αi = 0, 2 ≤ i ≤ k, por
la independencia lineal de Ai2 , ..., Aik . Así r(A) ≤ r(A(Fi + αFj )). Como

r(A) ≤ r(A(Fi + αFj )) ≤ r(A(Fi + αFj )(Fi − αFj )) ≤ r(A),

obtenemos que r(A) ≤ r(A(Fi + αFj )).


Las operaciones elementales conservan entonces el rango al transformar la matriz. Un método
para calcular el rango de una matriz se basa en hacer operaciones elementales fila en una matriz
hasta obtener una matriz triangular. Por ejemplo vamos a calcular el rango de la matriz del ejemplo
anterior. Para ello hacemos operaciones elementales fila buscando una matriz triangular
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 0 2 −1 1 0 2 −1 1 0 2 −1 1 0 2 −1
⎝ 2 1 0 4 ⎠ −→ ⎝ 0 1 −2 5 ⎠ −→ ⎝ 0 1 −2 5 ⎠ −→ ⎝ 0 1 −2 5 ⎠ ,
F2 −2F1 F3 +F1 F3 −2F1
−1 2 0 1 −1 2 0 1 0 2 2 0 0 0 6 −10

y la última matriz es triangular y es fácil ver que sus tres primeras son linealmente independientes
ya que el sistema ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 0 2 0
α1 · ⎝ 0 ⎠ + α2 · ⎝ 1 ⎠ + α3 · ⎝ −2 ⎠ = ⎝ 0 ⎠
0 0 6 0
tiene como única solución α1 = α2 = α3 = 0, por lo que su rango es tres.

17
Aprendemos a hacer cuentas

1.6 Cálculo de matrices inversas


Las operaciones elementales también pueden emplearse para verificar si una matriz cuadrada es
invertible y para calcular su inversa en caso de que lo sea. Para ello hemos de introducir las matrices
elementales. Para fijar ideas, sea In la matriz identidad. Se llama matriz elemental a aquella que se
obtiene al efectuar una operación elemental a In . Por ejemplo, las matrices
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 0 0 1 0 0 0 1 0
⎝ 1 1 0 ⎠, ⎝ 0 1 0 ⎠, ⎝ 1 0 0 ⎠
0 0 1 0 0 2 0 0 1

son matrices elementales. Entonces se verifica la siguiente propiedad que es la clave que permite
utilizar las operaciones elementales para calcular matrices inversas.

Proposition 5 Sean A ∈ Mn×n (K) y O una operación elemental fila. Entonces A(O) = In (O) · A.

Demostración. Supongamos en primer lugar que O = Fk × Fl . Entonces si A(Fk × Fl ) = (a∗ij ),


entonces a∗kj = alj , a∗lj = akj y a∗ij = aij si i ∈/ {k, l}. Si denotamos por δ ij = 1 si i = j y δ ij = 0 si
i 6= j, entonces tenemos que In (Fk × Fl ) = (δ ∗ij ), donde δ ∗kj = δ lj , δ ∗lj = δ kj y δ ∗ij = δ ij si i ∈
/ {k, l}.
Entonces
à n ! ⎧ a si i = l, ⎫
X ⎨ kj ⎬
In (Fk × Fl ) · A = δ ∗is asj = alj si i = k, = (a∗ij ) = A(Fk × Fl ).
⎩ ⎭
s=1 aij si i 6= k, l,

Si O = αFk , α 6= 0, entonces A(αFk ) = (a∗ij ), con a∗kj = αakj y a∗ij = aij si i 6= k. Similarmente
In (αFk ) = (δ ∗ij ), donde δ ∗kj = αδ kj y δ ∗ij = δ ij si i 6= k. Entonces
à n ! ½ ¾
X αakj si i = k,
In (αFk ) · A = δ ∗is asj = = (a∗ij ) = A(αFk ).
aij si i 6= k,
s=1

Finalmente, supongamos que O = Fk +αFl y sean de nuevo A(Fk +αFl ) = (a∗ij ), con a∗kj = akj +αalj
y a∗ij = aij si i 6= k, e In (Fk + αFl ) = (δ ∗ij ), donde δ ∗kj = δ kj + αδlj y δ ∗ij = δ ij si i 6= k. Entonces
à n ! ½ ¾
X akj + αalj si i = k,
In (Fk + αFl ) · A = δ ∗is asj = = (a∗ij ) = A(Fk + αFl ),
aij si i 6= k,
s=1

lo que concluye la prueba.


Para ejemplificar el cómo podemos aprovechar el resultado anterior para caracterizar matrices
invertibles y obtener a la vez la matriz inversa, tomemos
⎛ ⎞
1 1 1
A=⎝ 1 0 1 ⎠
1 1 0

18
Aprendemos a hacer cuentas

y calculamos su inversa mediante operaciones elementales. Para ello realizamos operaciones elemen-
tales fila en la matriz buscando conseguir la matriz identidad I3 .
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 1 1 1 1 1 1
A = ⎝ 1 0 1 ⎠ −→ ⎝ 0 −1 0 ⎠ −→ ⎝ 0 −1 0 ⎠
F2 −F1 F3 −F1
1 1 0 1 1 0 0 0 −1
⎛ ⎞ ⎛ ⎞
1 1 0 1 0 0
: −→ ⎝ 0 −1 0 ⎠ −→ ⎝ 0 −1 0 ⎠
F1 +F3 F1 +F2
0 0 −1 0 0 −1
⎛ ⎞ ⎛ ⎞
1 0 0 1 0 0
: −→ ⎝ 0 1 0 ⎠ −→ ⎝ 0 1 0 ⎠ = I3 .
−1·F2 −1·F3
0 0 −1 0 0 1
Ahora bien, por la propiedad anterior, tenemos que
I3 = I3 (−1 · F3 ) · I3 (−1 · F2 ) · I3 (F1 + F2 ) · I3 (F1 + F3 ) · I3 (F3 − F1 ) · I3 (F2 − F1 ) · A,
de donde deducimos que la matriz A es invertible y
A−1 = I3 (−1 · F3 ) · I3 (−1 · F2 ) · I3 (F1 + F2 ) · I3 (F1 + F3 ) · I3 (F3 − F1 ) · I3 (F2 − F1 ).
Pero en vez de multiplicar todas estas matrices elementales, nos damos cuenta de que
A−1 = I3 (−1 · F3 ) · I3 (−1 · F2 ) · I3 (F1 + F2 ) · I3 (F1 + F3 ) · I3 (F3 − F1 ) · I3 (F2 − F1 ) · I3 ,
y de nuevo por la propiedad anterior, la inversa la obtendremos haciendo las mismas operaciones
elementales que hicimos en A pero ahora las hacemos sobre la identidad y obtenemos
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 0 0 1 0 0 1 0 0
I3 = ⎝ 0 1 0 ⎠ −→ ⎝ −1 1 0 ⎠ −→ ⎝ −1 1 0 ⎠
F2 −F1 F3 −F1
0 0 1 0 0 1 −1 0 1
⎛ ⎞ ⎛ ⎞
0 0 1 −1 1 1
: −→ ⎝ −1 1 0 ⎠ −→ ⎝ −1 1 0 ⎠
F1 +F3 F1 +F2
−1 0 1 −1 0 1
⎛ ⎞ ⎛ ⎞
−1 1 1 −1 1 1
: −→ ⎝ 1 −1 0 ⎠ −→ ⎝ 1 −1 0 ⎠ = A−1 .
−1·F2 −1·F3
−1 0 1 1 0 −1
Para ahorrar tiempo, se suelen escribir juntas la matriz A y la identidad y realizar las operaciones
fila un única vez sobre la matriz formada por A y la identidad, como en el siguiente ejemplo. Sea
⎛ ⎞
1 0 0
A = ⎝ 1 1 0 ⎠.
1 1 1
Tomamos entonces la matriz ⎛ ¯ ⎞
1 0 0 ¯¯ 1 0 0
⎝ 1 1 0 ¯ 0 1 0 ⎠
¯
1 1 1 ¯ 0 0 1

19
Aprendemos a hacer cuentas

y realizamos las operaciones elementales


⎛ ¯ ⎞ ⎛ ¯ ⎞
1 0 0 ¯¯ 1 0 0 1 0 0 ¯¯ 1 0 0
⎝ 1 1 0 ¯ 0 1 0 ⎠ −→ ⎝ 0 1 0 ¯ −1 1 0 ⎠
¯ F2 −F1 ¯
1 1 1 ¯ 0 0 1 1 1 1 ¯ 0 0 1
⎛ ¯ ⎞ ⎛ ¯ ⎞
1 0 0 ¯¯ 1 0 0 1 0 0 ¯¯ 1 0 0
−→ ⎝ ¯
0 1 0 ¯ −1 1 0 ⎠ −→ ⎝ 0 1 0 ¯¯ −1 1 0 ⎠,
F3 −F1 F3 −F2
0 1 1 ¯ −1 0 1 0 0 1 0¯ −1 1
de donde la matriz inversa ⎛ ⎞
1 0 0
A−1 = ⎝ −1 1 0 ⎠.
0 −1 1

1.7 Determinantes de matrices cuadradas. Definición


Dada una matriz cuadrada A ∈ Mn×n (K), se llama determinante de A a un elemento del cuerpo K,
denotado por |A| o det A, asociado a la matriz mediante la siguiente fórmula de recurrencia:

• Si A = (a11 ) ∈ M1×1 (K), entonces |A| = a11 .


• Si A = (aij ) ∈ Mn×n (K), entonces suponiendo conocidos los determinantes de matrices de
orden n − 1 se define:
X
n
|A| = a1j (−1)1+j |∆1j |
j=1

siendo ∆1j la matriz cuadrada de orden n − 1 resultante de eliminar la primera fila y la j-ésima
columna de A.

De esta definición se deducen de forma inmediata las fórmula usuales para calcular determinantes
de matrices de orden dos y tres. Así:
¯ ¯
¯ a11 a12 ¯
¯ ¯
¯ a21 a22 ¯ = a11 a22 − a12 a21 .

En el caso de matrices cuadradas de orden tres:


¯ ¯
¯ a11 a12 a13 ¯
¯ ¯
¯ a21 a22 a23 ¯ = (a11 a22 a33 + a12 a31 a23 + a13 a21 a32 ) − (a11 a23 a32 + a12 a21 a33 + a13 a31 a22 ) ,
¯ ¯
¯ a31 a32 a33 ¯

relación conocida como regla de Sarrus.


Así ¯ ¯
¯ 1 0 ¯
¯ ¯ = 2,
¯ 1 2 ¯
y ¯ ¯
¯ 1 0 0 ¯
¯ ¯
¯ 1 3 0 ¯ = 3.
¯ ¯
¯ 0 1 1 ¯

20
Aprendemos a hacer cuentas

En general, si A ∈ Mn×n (K) es diagonal entonces |A| = a11 a22 ...ann . Si n = 1, la fórmula es
trivialmente cierta. Si suponemos cierta la relación para matrices de M(n−1)×(n−1) (K), entonces
X
n
|A| = a1j (−1)1+j |∆1j | = a11 |∆11 | = a11 a22 ...ann ,
j=1

dado que ∆11 ∈ M(n−1)×(n−1) (K) es la matriz triangular que tiene a22 , ..., ann como coeficientes en
la diagonal principal.

Remark 2 La definición de determinante de una matriz cuadrada A = (aij ) ∈ Mn×n (K) que
hemos dado aquí no es la que suele darse en los libros de matemáticas como [?]. Esta definición
más usual de determinante se basa en la noción de permutación, que es una aplicación biyectiva
σ : {1, ..., n} → {1, ..., n}. Si Sn es el conjunto de todas las permutaciones definidas sobre {1, ..., n},
entonces el determinante de la matriz A es
X
|A| = s(σ)a1σ(1) ...anσ(n) ,
σ∈Sn

donde s(σ) es 1 o −1 y se conoce como signo de la permutación. Por ejemplo, si n = 2, entonces


sólo hay dos permutaciones σ 1 y σ 2 que vienen dadas por σ 1 (1) = 1 (y por lo tanto σ 1 (2) = 2) y
σ 2 (1) = 2 (y σ 2 (2) = 1). Los signos son s(σ 1 ) = 1 y s(σ 2 ) = −1 y entonces
¯ ¯
¯ a11 a12 ¯
¯ ¯
¯ a21 a22 ¯ = s(σ 1 )a1σ1 (1) a2σ1 (2) + s(σ 2 )a1σ2 (1) a2σ2 (2)
= a11 a22 − a12 a21 ,

que es la definición que hemos dado para el determiante de matrices de orden o tamaño dos. A
partir de esta definición más rigurosa se pueden probar todas las propiedades que daremos en la
siguiente sección. Aquellas que no probemos pueden probarse a partir de esta definición, pero cuya
demostración no es sencilla con la definción inductiva que hemos adoptado, que a su vez, tiene la
ventaja de entrar más directamente en el cálculo práctico de los determinantes.

1.7.1 Propiedades
Sean A, B ∈ Mn×n (K) se verifican las siguientes propiedades:
P P
D1. |A| = nj=1 aij (−1)i+j |∆ij |, para cada 1 ≤ i ≤ n, y |A| = ni=1 aij (−1)i+j |∆ij |, para cada
1 ≤ j ≤ n, donde ∆ij es la matriz resultante de eliminar la fila i y la columna j de la matriz
original y se llama menor de orden i, j de A.
D2. |A · B| = |A| · |B|.
D3. |A| = |At |.

Demostración. Es consecuencia de la propiedad D1.

D4. Si cambiamos dos filas o columnas de orden el determinante cambia el signo, es decir, |A(Fi ×
Fj )| = |A(Ci × Cj )| = −|A|.

21
Aprendemos a hacer cuentas

Demostración. Supongamos es primer lugar que j = i + 1. Si ∆ij es el menor de orden i, j


de A y Φ(i+1)j es el menor de orden i + 1, j de A(Fi × Fi+1 ), entonces es fácil darse cuenta de que
∆ij = Φ(i+1)j . Entonces, por D1 y dado que las filas i de A e i + 1 de A(Fi × Fi+1 ) son iguales
tenemos que
X
n X
n
i+j
|A| = aij (−1) |∆ij | = − aij (−1)i+1+j |Φ(i+1)j | = −|A(Fi × Fi+1 )|.
j=1 j=1

Para probar la propiedad general démonos cuenta que podemos obtener A(Fi ×Fj ) intercambiando
2(j − i) − 1 filas contiguas en 2(j − i) − 1 operaciones fila elementales, por lo que

|A(Fi × Fj )| = (−1)2(j−i)−1 |A| = −|A|.

Finalmente, por D3

|A(Ci × Cj )| = |A(Ci × Cj )t | = |At (Fi × Fj )| = −|At | = −|A|,

que concluye la demostración.

D5. Si A tienes dos filas o columnas iguales, entonces |A| = 0.

Demostración. Si Ai = Aj , entonces A = A(Fi × Fj ) y por D4 se tendría

|A| = −|A(Fi × Fj )| = −|A|,

de donde 2|A| = 0 y por tanto |A| = 0. La prueba en caso de dos columnas iguales es idéntica.

D6. Si sumamos a una fila o columna de A ∈ Mn×n (K) otra fila o columna multiplicada por un
escalar el determinante no varía, esto es |A| = |A(Fi + αFj )|= |A(Ci + αCj )|.

Demostración. Si ∆ij es el menor de orden i, j de A y Φij es el menor de orden i, j de


A(Fi + αFj ), entonces es fácil darse cuenta de que ∆ij = Φij dado que la única fila distinta en ambas
matrices es la i que es eliminada al obtener el menor. Entonces, utilizando D1 calculamos
X
n
|A(Fi + αFj )| = (aik + αajk )(−1)i+k |Φik |
k=1
X
n X
n
i+k
= aik (−1) |∆ik | + α ajk (−1)j+k |∆jk | = |A|,
k=1 k=1
P
dado que nk=1 ajk (−1)j+k |∆jk | = 0 es el determinante de una matriz que tiene las filas i y j iguales.
Por D3 se prueba que

|A(Ci + αCj )| = |A(Ci + αCj )t | = |At (Fi + αFj )| = |At | = |A|,

con lo que la propiedad queda probada.

D7. Si se multiplica una fila o columna de una matriz A por un escalar α 6= 0, entonces el determi-
nante de A queda multiplicado por α. Es decir, |A(αFi )| = |A(αCi )| = α · |A|.

22
Aprendemos a hacer cuentas

Demostración. Si ∆ij es el menor de orden i, j de A y Φij es el menor de orden i, j de A(αFi ),


entonces es fácil darse cuenta de que ∆ij = Φij dado que la única fila distinta en ambas matrices es
la i que es eliminada al obtener el menor. Entonces, utilizando D1 calculamos

X
n X
n
i+j
|A(αFi )| = αaij (−1) |Φij | = α aij (−1)i+j |∆ij | = α|A|.
j=1 j=1

Por D3 se prueba que

|A(αCi )| = |A(αCi )t | = |At (αFi )| = α · |At | = α · |A|,

con lo que la propiedad queda probada.

D8. Si una matriz A ∈ Mn×n (K) tiene una fila o columna que es combinación lineal de las otras,
entonces |A| = 0. En particular, si una fila o columna de A es nula entonces su determinante
es nulo.

Demostración. Supongamos por ejemplo que existen i, i1 , ..., ik ∈ {1, ..., n} tal que Ai = α1 ·
Ai1 + ... + αk · Aik , con αij ∈ K, 1 ≤ j ≤ k. Entonces la matriz A(Fi − α1 Fi1 )...(Fi − αk Fik ) tiene la
fila i nula. Si ∆ij es el menor de orden i, j de dicha matriz, por D6 y D1 tenemos

X
n
|A| = |A(Fi − α1 Fi1 )...(Fi − αk Fik )| = 0(−1)i+j |∆ij | = 0,
j=1

con lo que concluye la prueba.


Una consecuencia de esta propiedad D8 que es de utilidad para calcular rangos de matrices es
que si |A| 6= 0, entonces r(A) coincide con el número de filas de A. Así, si por ejemplo
µ ¶
1 0 0 2
A= ,
9 2 2 2

dado que ¯ ¯
¯ 1 0 ¯
¯ ¯ = 2 6= 0,
¯ 9 2 ¯

se tiene que el rango de A es dos.

D9. Se verifica
¯ ¯ ¯ ¯ ¯ ¯
¯ a11 ... a1n ¯ ¯ a11 ... a1n ¯ ¯ a11 ... a1n ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ ... ... ... ¯ ¯ ... ... ... ¯ ¯ ... ... ... ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ ai1 + a0i1 ... an1 + a0n1 ¯=¯ ai1 ... an1 ¯+¯ a0i1 ... a0n1 ¯.
¯ ¯ ¯ ¯ ¯ ¯
¯ ... ... ... ¯ ¯ ... ... ... ¯ ¯ ... ... ... ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ an1 ... ann ¯ ¯ an1 ... ann ¯ ¯ an1 ... ann ¯

23
Aprendemos a hacer cuentas

Demostración. Sean ⎛ ⎞
a11 ... a1n
⎜ ... ... ... ⎟
⎜ ⎟
A=⎜ 0
⎜ ai1 + ai1 ... an1 + a0n1 ⎟,

⎝ ... ... ... ⎠
an1 ... ann
⎛ ⎞
a11 ... a1n
⎜ ... ... ... ⎟
⎜ ⎟
B=⎜ ⎜ ai1 ... an1 ⎟

⎝ ... ... ... ⎠
an1 ... ann
y ⎛ ⎞
a11 ... a1n
⎜ ... ... ... ⎟
⎜ ⎟
C=⎜
⎜ a0i1 ... a0n1 ⎟.

⎝ ... ... ... ⎠
an1 ... ann
Entonces los menores de orden i, j de A, B y C son iguales y por tanto por D1
X
n
|A| = (aij + a0ij )(−1)i+j |∆ij |
j=1
Xn X
n
= aij (−1)i+j |∆ij | + a0ij (−1)i+j |∆ij | = |B| + |C|,
j=1 j=1

con lo que concluye la demostración.


Todas estas propiedades son de utilidad tanto desde el punto de cista teórico como a la hora de
calcular determinantes de matrices grandes. Por ejemplo, calculemos
¯ ¯ ¯ ¯ ¯ ¯
¯ 1 1 1 1 ¯ ¯ 1 1 1 1 ¯ ¯ 1 1 1 1 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ 1 2 3 4 ¯ ¯ 0 1 2 3 ¯ ¯ ¯
¯ ¯ = ¯ ¯ = ¯ 0 1 2 3 ¯ = 0,
¯ 2 3 4 5 ¯ F2 −F1 ¯ 2 3 4 5 ¯ F3 −2F1 ¯ 0 1 2 3 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ 3 4 5 6 ¯ ¯ 3 4 5 6 ¯ ¯ 3 4 5 6 ¯

al tener la última matriz dos filas iguales.

1.7.2 Cálculo de la matriz inversa usando determinantes.


Dada A ∈ Mn×n (K) se define su matriz adjunta como la matriz cuadrada de orden n cuyos elementos
son los adjuntos de A. Es decir, Ā ∈ Mn×n (K) es la matriz adjunta de A si Ā = ((−1)i+j |∆ij |). Si
A = (aij ), de la definición de producto de matrices se sigue que
à n !
X
t k+j
A · Ā = aik (−1) |∆jk |
k=1

Usando ahora las propiedades de los determinantes:

24
Aprendemos a hacer cuentas

• Si i = j:
X
n
aik (−1)k+i |∆ik | = |A|.
k=1

• Si i 6= j:
a11 · · · a1n
.. ..
. .
Xn a i1 · · · a in
aik (−1)k+j |∆jk | = .. .. = 0,
. .
k=1 fila j ai1 · · · ain
.. ..
. .
an1 · · · ann

de donde se deduce que A · Āt = |A| · In . Si A es invertible su determinante es no nulo, lo que


permite obtener la fórmula:
A−1 = |A|−1 · Āt
para el cálculo de la matriz inversa. Por ejemplo, si
⎛ ⎞
1 2 3
A = ⎝ 0 1 1 ⎠,
0 0 2

entonces
⎛ ⎞t ⎛ ⎞ ⎛ ⎞
2 0 0 2 −4 −1 1 −2 − 12
1 ⎝ 1
A−1 = · −4 2 0 ⎠ = · ⎝ 0 2 −1 ⎠ = ⎝ 0 1 − 12 ⎠ .
|A| 2 1
−1 −1 1 0 0 1 0 0 2

Nótese que una matriz cuadrada con determinante no nulo es invertible por lo que su rango
coincidirá con el número de filas de la matriz. Este hecho puede ayudar a calcular el rango de
matrices. Por ejemplo, la matriz µ ¶
2 −1 3 3
1 1 3 3
verifica que ¯ ¯
¯ 2 −1 ¯
¯ ¯
¯ 1 1 ¯ = 3,
por lo que su rango es dos.

1.7.3 Resolución de sistemas de ecuaciones. Regla de Cramer


Veamos cómo los sistemas de ecuaciones lineales pueden resolverse mediante el uso de detrminantes.
Se trata de un método aplicable cuando el sistema tiene la misma cantidad de ecuaciones que de
incógnitas (este tipo de sistemas se llaman cuadrados). Bajo estas condiciones el sistema es compa-
tible determinado si y sólo si el determinante de su matriz es no nulo. Sea un sistema A · x = b con

25
Aprendemos a hacer cuentas

A ∈ Mn×n (K) y tal que |A| 6= 0. Evidentemente la matriz A es invertible por lo que la solución
única del sistema será x = A−1 ·b y usando la fórmula para la matriz inversa mediante determinantes
se llega a que la solución es de la forma:
⎛ Pn k+1

Pn k=1 (−1) |∆ k1 |b k
−1 t 1 ⎜ ⎜ k=1 (−1)
k+2
|∆k2 |bk ⎟ ⎟,
x = |A| · Ā · b = ·⎝ ⎠
|A| Pn............................
k+n
k=1 (−1) |∆kn |bk
de donde es inmediata la regla de Cramer.

Theorem 6 (Regla de Cramer) Dado el sistema



a11 x1 + · · · + a1n xn = b1 ⎪


a21 x1 + · · · + a2n xn = b2
...................................... ⎪


an1 x1 + · · · + ann xn = bn
con ¯ ¯
¯ a11 · · · a1n ¯
¯ ¯
¯ .. . . . ¯
|A| = ¯ . . .. ¯ 6= 0,
¯ ¯
¯ an1 · · · ann ¯
se tiene que es compatible determinado y la solución única viene dada por las fórmulas:
¯ ¯
¯ a11 · · · a1j−1 b1 a1j+1 · · · a1n ¯¯
¯
¯ a21 · · · a2j−1 b2 a2j+1 · · · a2n ¯¯
¯
xj = |A|−1 · ¯ .. .. .. .. .. ¯ , 1 ≤ j ≤ n.
¯ . . . . . ¯¯
¯
¯ an1 · · · anj−1 bn anj+1 · · · ann ¯

La regla de Cramer puede adaptarse para resolver sistemas de ecuaciones lineales no necesaria-
mente cuadrados y de manera que el determinante de la matriz sea nulo en caso de sistemas no
cuadrados. Así dado A · x = b un sistema con n ecuaciones y m incógnitas (n < m). Supo-
niendo que r(A) = n, el sistema es compatible indeterminado como consecuencia del Teorema de
Rouché-Frobenius. Suponiendo además que las n primeras columnas de A son linealmente indepen-
dientes, se tiene que asignando parámetros a las variables asociadas a las últimas m − n columnas
xj = μj , n + 1 ≤ j ≤ m, el valor de las restantes variables viene dado por el sistema:
⎛ ⎞
x1 Xm
⎜ .. ⎟
B·⎝ . ⎠=b− μj · Aj ,
xn j=n+1

con B = (A1 , ...., An ) ∈ Mn×n (K). Evidentemente el sistema anterior es cuadrado y |B| 6= 0 ya que
r(B) = n, por lo que puede resolverse usando la regla de Cramer. Por ejemplo, el sistema

⎨ x + y + z = 3,
x − y = 0,

2x + z = 3,

26
Aprendemos a hacer cuentas

verifica que ¯ ¯
¯ ¯ ¯ 1 1 1 ¯
¯ 1 1 ¯ ¯ ¯
¯ ¯ = −2, y ¯ 1 −1 0 ¯ = 0,
¯ 1 −1 ¯ ¯ ¯
¯ 2 0 1 ¯
mientras que ¯ ¯
¯ 1 1 3 ¯
¯ ¯
¯ 1 −1 0 ¯ = 0,
¯ ¯
¯ 2 0 3 ¯
por lo que los rangos de las matrices del sistema es dos y el sistema es compatible. Despejamos la
variable z, que no vamos a poder calcular
½
x + y = 3 − z,
x − y = 0,

y entonces
¯ ¯
¯ 3−z 1 ¯
¯ ¯
¯ 0 −1 ¯ z−3
x = ¯ ¯ = ,
¯ 1 1 ¯ 2
¯ ¯
¯ 1 −1 ¯
¯ ¯
¯ 1 3−z ¯
¯ ¯
¯ 1 0 ¯ z−3
y = ¯¯ ¯
¯ = ,
¯ 1 1 ¯ 2
¯ 1 −1 ¯

por lo que la solución del sistema es



⎨ x = − 32 + λ2 ,
y = − 32 + λ2 , λ ∈ R.

z = λ,

1.8 Ejercicios
1. Dadas las siguientes matrices realizar, si es posible, las operaciones que se indican:
⎛ ⎞ ⎛ ⎞
¡ ¢ −1 2 + i −1 1
A = 1 −1 2 B=⎝ 0 ⎠ C=⎝ 0 1 2 ⎠
2 1 2 + 2i 0
⎛ ⎞
2 1 µ ¶
⎝ ⎠ i 1
D= 1 3 E=
2 1−i
0 −1
(a) (2A + 3Bt ) · C (b) Ct · At − (A · C)t (c) D · C + E (d) D · (E + C)
(e) (C − 2I3 )t · (B + At ) (f) B · A · C · D (g) E · Dt · C (h) Bt · At · C · D

27
Aprendemos a hacer cuentas

2. Calcular el rango de las siguientes matrices


⎛ ⎞ ⎛ ⎞
1 1 2 3 1 0 1 µ ¶
2 −1 3 3
A=⎝ 2 1 1 2 ⎠ B=⎝ 1 1 1 ⎠ C=
1 1 3 3
2 3 −1 2 2 1 2

3. Determinar en función del parámetro real α el rango de las siguientes matrices


⎛ ⎞ ⎛ ⎞
α 1 2 3 1 α 1 µ ¶
2 α 3 3
A=⎝ 0 α 1 2 ⎠ B=⎝ 1 1 α ⎠ C=
1 1 3 3
0 0 α 2 2 1 2

4. Determinar si las siguientes matrices son invertibles y calcular en caso afirmativo su matriz
inversa ⎛ ⎞
1 0 1 0 ⎛ ⎞ ⎛ ⎞
⎜ 0 1 0 1 ⎟ 1 1 1 1 0 1
A=⎜ ⎝ 1 0 0 0 ⎠ B=
⎟ ⎝ −1 0 −1 ⎠ C = ⎝ 0 1 1 ⎠
2 1 2 1 1 0
0 0 0 1

5. Calcular el rango de la siguiente matriz en función de los valores de a y b:


⎛ ⎞
a 0 0 b
⎜ b a 0 0 ⎟
A=⎜ ⎝ 0 b a 0 ⎠

0 0 b a
⎛ ⎞
0 0 0 0
⎜ 2 0 0 0 ⎟
6. Sea la matriz A = ⎜
⎝ 2
⎟ , se pide:
2 0 0 ⎠
2 2 2 0

(a) Calcular las sucesivas potencias de A.


(b) Sea B = I4 + A, expresar Bn en función de I4 , A, A2 y A3 .
(c) Demostrar que la inversa de B es I4 − A + A2 − A3 .
⎛ ⎞
1 2 3
7. Hallar la potencia n—ésima de A = ⎝ 0 1 2 ⎠ poniendo A = I3 + B, siendo B una matriz
0 0 1
a determinar.
µ ¶
3 1
8. Dada la matriz A = , se pide:
5 2

(a) Hallar 3A · At − 2I2 .


µ ¶
2 0
(b) Resolver la ecuación matricial A · X = siendo X ∈ M2×2 (R) .
0 1

28
Aprendemos a hacer cuentas

9. Sea A una matriz cuadrada tal que A2 = A. Si B = 2A − In , demostrar que B2 es igual a In .


10. Sea A una matriz cuadrada. Demostrar que las matrices A · At y At · A son siempre simétricas.
11. Demostrar que si una matriz cuadrada A verifica que A2 − A − I2 = 0, entonces existe la
inversa de A. Calcularla.
⎛ 2 ⎞
a ab ac
12. Se considera la matriz con coeficientes reales A = ⎝ ab b2 bc ⎠ . Demostrar que si a2 + b2 +
ac bc c2
c2 = 1, entonces An = A para todo entero positivo.
13. De las afirmaciones siguientes, demostrar las verdaderas y dar un contraejemplo para las falsas:

(a) (A + B)2 = A2 + 2A · B + B2 .
(b) A2 − B2 = (A − B) · (A + B).
(c) Am+1 − In = (A − In )(In + A + A2 + ... + Am ).
(d) Si P es una matriz con determinante no nulo, entonces (P · A · P−1 )n = P · An P−1 .
(e) Si A es antisimétrica, entonces A2 es simétrica.
(f) Si A es antisimétrica y B es simétrica, entonces A · B es antisimétrica si y sólo si A · B =
B · A.

14. Hallar todas las soluciones de los siguientes sistemas:



⎪ −x + y − 2z − t = 0 ⎧ ⎧

⎨ ⎨ 2x + 2y − 3z = 2 ⎨ x − y = −1
2x − y + z − 2t = 2
(a) (b) −x + 5y − 4z = 4 (c) −x + y = 1

⎪ x + 2y − z + t = 3 ⎩ ⎩
⎩ x + 7y − 7z = 7 2x − 2y = −2
⎧ 3x + 4y − 3z − t = 1
⎪ 4x − y + 2z + t = 0 ⎧

⎨ ½ ⎨ x + 2y + 3z = 0
2x + 3y − z − 2t = 0 x − 2y + 3z = 0
(d) (e) (f) 2x + 2y + 3z = 0

⎪ 7y − 4z − 5t = 0 2x + 5y + 6z = 0 ⎩
⎩ 3x + 2y + z = 0
⎧ 2x − 11y + 7z + 8t = 0
⎪ 2x + y + 4z = 0 ⎧ ⎧

⎨ ⎨ x + 2y − 3z + 16t = 4 ⎨ x + 2y − 3z = 4
x − y + 2z = 4
(g) (h) y + 2z − 3t = 6 (i) 2x + 4y − 6z = 1

⎪ 2x + y − z = 14 ⎩ ⎩
⎩ −x − y + z + 9t = −2 −x − y + z = −2
3x + z = 18

15. Discutir y resolver según el valor de los parámetros que aparezcan:



⎧ ⎧ ⎪ 2y − z = α
⎨ αx + y + 2z = 0 ⎨ 3x − y + 2z = 1 ⎪

3x − 2z = 11
(a) x + 3y + z = 0 (b) x + 4y + z = β (c)
⎩ ⎩ ⎪
⎪ y+z =6
3x + 10y + 4z = 0 2x − 5y + αz = −2 ⎩
⎧ ⎧ ⎧ 2x + y − 4z = α
⎨ 2x − y − z = 3a ⎨ 2λx + μy + 2z = 1 ⎨ αx + βy + z = 1
(d) x − az = b (e) 2λx + (2μ − 1)y + 3z = 1 (g) x + αβy + z = β
⎩ ⎩ ⎩
x − y + 2z = 7 2λx + μy + (μ + 3)z = 2μ − 1 x + βy + αz = 1

29
Aprendemos a hacer cuentas

16. Discutir la veracidad o falsedad de las siguientes afirmaciones:

(a) Dado un sistema de m ecuaciones con n incógnitas, A · x = b, que admite solución única,
entonces ésta es x = A−1 · b.
(b) Si los sistemas A · x = b1 y A · x = b2 son compatibles, entonces lo es A · x = b donde
b = b1 + b2 .
(c) Un sistema con más ecuaciones que incógnitas es siempre incompatible.
(d) Si un sistema de ecuaciones A · x = b es compatible determinado, entonces A es una
matriz cuadrada.
(e) Si A · x = b es un sistema incompatible con 5 ecuaciones y 4 incógnitas y el r(A) = 4
entonces r(A|b) = 5.

17. Calcular las soluciones de los siguientes sistemas de ecuaciones tanto por el método de Gauss,
como por el método de Kramer (por determinantes).
⎧ ⎧ ⎧
⎨ 8x + y + 4z = 9 ⎨ 6x − y + 3z = 6 ⎨ x+y+z =1
(a) 5x − 2y + 4z = 6 (b) −6x + 8y = −10 (c) 3x − 4y = 5
⎩ ⎩ ⎩
x+y =1 2x − 5y − z = 4 7x − y − 3z = 8.

18. Discutir los siguientes sistemas de ecuaciones según los valores de a y b:



⎧ ⎧ ⎪ ax + y + z + t = 1
⎨ ax + 2z = 2 ⎨ ax + by + z = 1 ⎪

x + ay + z + t = b
(a) 5x + 2y = 1 (b) x + aby + z = b (c)
⎩ ⎩ ⎪
⎪ x + y + az + t = b2
x − 2y + bz = 3 x + by + az = 1 ⎩
x + y + z + at = b3

19. Sea ω un número complejo raiz cúbica de la unidad. Discutir el sistema:



⎨ x+y+z =a
x + ωy + ω 2 z = b

x + ω 2 y + ωz = c

donde a, b, c son números reales.


20. Se tienen tres lingotes de oro de 100 gramos cuya composición es la siguiente
Lingote Oro Plata Cobre
1 20 30 50
2 30 40 30
3 40 50 10
¿Que peso habrá que tomarse de cada uno de los tres lingotes para formar uno nuevo que
contenga 60 gramos de oro, 50 gramos de plata y 45 gramos de cobre?
21. La suma de las tres cifras de un número es igual a 6. La cifra de las centenas es igual a la suma
de las cifras de unidad y decena. Si se invierte el orden de las cifras, el número disminuye en
198 unidades. Calcular dicho número.

30
Aprendemos a hacer cuentas

22. Una empresa hortofructícola tiene tres factorías diferentes en Castellón, Valencia y Alicante. En
la época de la naranja cada una de estas factorías se dedica a envasar tres variedades diferentes
de naranjas: navalate, navel y satsuma. La capacidad de envasado de la factoría de Castellón
es de 4000Kg. de navalate, 3000Kg. de navel y 5000Kg de satsuma, todo ello por hora. La
de Valencia es de 1000Kg. por hora de las tres variedades de naranjas. La de Alicante es de
2000Kg. de navalate, 4000Kg. de navel y 3000Kg. se satsuma, también por hora. ¿Cuántas
horas se debe trabajar en cada factoría para satisfacer los dos siguientes pedidos?

(a) 19000Kg. de navalate, 25000Kg. de navel y 25000Kg. de satsuma


(b) 13000Kg. de navalate, 16000Kg. de navel y 16000Kg. de satsuma.

23. Una empresa tiene dos tipos de procesos productivos: torno y fresadora. Cada uno de estos
procesos se utiliza para fabricar tres tipos de productos A, B y C. Se dispone de 120 horas
semanales de torno y de 260 horas de fresadora, y las necesidades asociadas a cada proceso,
por unidad de producto, son las siguientes:

Producto Torno Fresadora


A 0.1h 0.20h
B 0.25h 0.30h
C - 0.40h

Si el beneficio unitario que se obtiene con la venta se los productos A, B y C es de 3, 5 y 4


unidades monetarias, respectivamente. ¿Cómo debe de distribuirse la producción semanal para
obtener un beneficio de 3800 u.m., si se utilizan todos los recursos disponibles?

24. Una empresa se dedica a la fabricación de cuatro tipos de jabón. Desde la compra de materias
primas hasta la disposición para la distribución se realizan las siguientes fases: I) se mezclan los
dos tipos de materias primas utilizadas, grasa vegetal y sosa cáustica; II) se introduce la mezcla
obtenida en unos moldes preparados al efecto; III) los bloques obtenidos en la fase anterior se
cortan y troquean, y IV) las pastillas así obtenidas se envasan en cajas de cartón de doscientas
unidades.
Los recursos necesarios para producir los cuatro tipos de jabones, por caja fabricada, vienen
dados en la tabla siguiente:

Sección Mezclado S. Moldeado S. Troquelado


Jabón
Kg. Grasa Kg. Sosa Hora/Máquina Hora/Máquina
J1 20 10 10 3
J2 25 15 8 4
J3 40 20 10 7
J4 50 22 15 20

Si se dispone durante una semana de 1970 Kg. de grasa vegetal, 970 Kg. de sosa cáustica, 601
hora/máquina en la sección de moldeado y de 504 horas/máquina en la sección de troquela-
do, ¿cuántas cajas de jabones de cada tipo se pueden producir, utilizando todos los recursos
disponibles, en una semana?

31
Aprendemos a hacer cuentas

25. Un agricultor produce maíz, trigo y cebada en las 12 hanegadas de tierra que posee. Cada
Kg. de cereal plantado precisa de una cierta cantidad de dinero y de un determinado número
de horas de trabajo semanales para su cultivo. En la tabla siguiente se especifica el capital
necesario (en miles de pesetas), el trabajo preciso (en horas semanales) y el beneficio que
produce (en miles de pesetas) cada uno de los cereales:

Capital Trabajo Beneficio


Maíz 36 6 40
Trigo 24 6 30
Cebada 18 2 20

Calcular cuántos Kg. deberá de cultivar de cada tipo de cereal para obtener un beneficio de
400 mil pesetas si dispone de 360.000 pesetas y decide trabajar 48 horas semanales.

26. La ley de corriente de Kirchhoff dice que la suma algebraica de todas las corrientes que confluyen
en un nudo de un circuito es nula. La ley de Ohm dice que la corriente a través de una resistencia
entre dos nudos es el cociente entre la diferencia de voltaje entre cada nudo y el valor de la
resistencia Dado el circuito de la figura, calcular las intensidades y los voltajes en cada nudo.

circui.eps

27. En un vecindario viven un fontanero, un electricista y un pintor. Deciden hacer reparaciones


en sus tres casas, para lo cual cada uno de ellos va a trabajar diez jornadas en total. El
fontanero trabajará tres días en su casa, dos días en la casa del electricista y cinco días en la
casa del pintor. El electricista trabajará tres días en su propia casa, otros tres días en la casa
del fontanero y cuatro días en la casa del pintor. Finalmente el pintor dedicará cinco días a la
casa del fontanero y otros cinco días a la casa del electricista.
Calcula cuál debería de ser el sueldo diario de cada uno para que en las diez jornadas ninguno
de ellos pierda ni gane dinero, sabiendo de antemano que la suma de los tres sueldos es de
20000 ptas al día.

28. Una ciudad tiene tres industrias principales: una mina de carbón, una central eléctrica y un
ferrocarril local. Para obtener 10 ptas de carbón, se utilizan 2 ptas de electricidad para hacer
funcionar el equipamiento y 4 ptas para transportarlo a los almacenes. Para producir 10 ptas
de electricidad la central eléctrica necesita 5 ptas de carbón de combustible, 1 pta de su propia
electricidad y una peseta para dedicarla al transporte. Finalmente, para obtener 10 ptas en
transporte se necesitan 5 ptas de carbón y 1 pta de electricidad. En una semana, la mina
de carbón recibe un pedido valorado en 100000 ptas y la central eléctrica recibe otro pedido
de 200000 ptas. El ferrocarril no satisface ninguna demanda externa. ¿Qué cantidad deben
producir cada una de las industrias para satisfacer en esa semana tanto la demanda interna
como la externa?

29. Encontrar el polinomio de grado 2 cuya gráfica que pasa por los puntos (1,4), (2,9) y (3,8).

32
Aprendemos a hacer cuentas

30. Encuentra un polinomio p(x) que verifique que p(0) = 1, p(1) = 0, p0 (0) = −1 y p00 (1) = 1.

31. Halla la ecuación de una circunferencia que pase por los puntos (0, 1), (−1, 1) y (1, 0).

32. En una placa circular se ha establecido un mallado como el que se indica en el dibujo. Sabiendo
las temperaturas en los puntos de la malla situados en el borde y que la temperatura en los
demás puntos es igual a la media de la temperatura en los cuatro puntos adyacentes, calcula
la temperatura en todos los puntos del mallado.

temp.eps

33. Calcular los siguientes determinantes:


¯ ¯
¯ ¯ ¯ ¯ ¯ ¯ ¯ 3 5 7 2 ¯
¯ 1 3 0 ¯ ¯ 5 −1 7 ¯ ¯ 1 2 3 ¯ ¯ ¯
¯ ¯ ¯ ¯ ¯ ¯ ¯ 2 4 1 1 ¯
(a) ¯¯ −1 2 −4 ¯¯ (b) ¯¯ 6 4 3 ¯¯ (c) ¯¯ 4 5 6 ¯¯ (d) ¯¯ ¯
¯
¯ 1 1 2 ¯ ¯ 3 2 1 ¯ ¯ 7 8 9 ¯ ¯ −2 0 0 0 ¯
¯ 1 1 3 4 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ 1 1 1 6 ¯ ¯ 1 −2 3 −4 ¯ ¯ ¯ ¯ 3−i 5 7 2 ¯
¯ ¯ ¯ ¯ ¯ 1 2i 3i ¯ ¯ ¯
¯ 2 4 1 6 ¯ ¯ 2 −1 4 −3 ¯ ¯ ¯ ¯ 2 − 6i 4 1 1 ¯
(e) ¯¯ ¯ (f) ¯
¯
¯ ¯ ¯ ¯
¯ 2 3 −4 −5 ¯ (g) ¯ 4 5 − i 6 ¯ (h) ¯ −2
¯
¯
¯ 4 1 2 9 ¯ ¯ ¯ ¯ 7i 0 0 0 ¯
¯ ¯ ¯ 3 −4 5 ¯ 8 9 ¯ ¯
¯ ¯
2 4 2 7 6 1 1−i 3 4

34. Dada una matriz cuadrada A, ¿qué valores puede tomar |A| si:

(a) A2 = A?
(b) A = A−1 ?

35. Demostrar que si a, b, c son números reales se tiene que:


¯ ¯
¯ a − b − c 2a 2a ¯
¯ ¯
¯ 2b b − c − a 2b ¯ = (a + b + c)3 .
¯ ¯
¯ 2c 2c c−a−b ¯

36. Calcular los siguientes determinantes:


¯ ¯ ¯ ¯
¯ ¯ ¯ x a b c ¯ ¯ 1 2 3 4 ¯
¯ x+a b c ¯ ¯ ¯ ¯ ¯
¯ ¯ ¯ ¯ ¯ ¯
¯
(a) ¯ a x+b c ¯ (b) ¯ a x 0 0 ¯ (c) ¯ 2 3 4 1 ¯
¯ ¯ b 0 x 0 ¯ ¯ 3 4 1 2 ¯
¯ a b x+c ¯ ¯ ¯ ¯ ¯
¯ c 0 0 x ¯ ¯ 4 1 2 3 ¯
¯ ¯ ¯ ¯ ¯ 2 ¯
¯ a 3 0 5 ¯ ¯ a b 0 0 ¯ ¯ a ab ab b2 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ 0 b 0 2 ¯ ¯ ¯ ¯ 2
b2 ¯
(d) ¯¯ ¯ (e) ¯ 0 a b 0 ¯ (f) ¯ ab a2 ab ¯
1 2 c 3 ¯ ¯ 0 0 a b ¯ ¯ ab b a2 ab ¯
¯ ¯ ¯ ¯ ¯ 2 ¯
¯ 0 0 0 d ¯ ¯ b 0 0 a ¯ ¯ b ab ab a2 ¯

33
Aprendemos a hacer cuentas

37. Calcular los siguientes determinantes de Vadermonde:


¯ ¯
¯ ¯ ¯ 1 1 1 1 ¯¯
¯ ¯ ¯ 1 1 1 ¯ ¯
¯ 1 1 ¯ ¯ ¯ ¯ c d ¯¯
¯
V2 = ¯ ¯ V3 = ¯¯ a b c ¯ V3 = ¯ a2 b2
a b ¯ ¯ ¯ a b c2 d2 ¯¯
¯ a2 b2 c2 ¯ ¯ 3 3
¯ a b c3 d3 ¯
¯ ¯
¯ 1 1 1 1 ... 1 ¯
¯ ¯
¯ a b c d ... x ¯
¯ 2 2 2 2 ¯
¯ a b c d ... x2 ¯
Vn = ¯¯ 3 3 3 3 ¯
3 ¯.
¯ a b c d ... x ¯
¯ ... ... ... ... ... ... ¯
¯ 5 5 5 5 ¯
¯ a b c d ... x5 ¯
¯ ¯
¯ a b c ¯
¯ ¯
38. Resolver la ecuación ∆ (x) = 0, siendo ∆ (X) = ¯¯ a x c ¯¯ , siendo a,b,c números reales.
¯ a b x ¯

39. Calcular los siguientes determinantes de orden n:


¯ ¯
¯ 1 n n n ... n ¯¯ ¯ ¯
¯ ¯ 1 2 3 4 ... n ¯
¯ n 2 n n ... n ¯¯ ¯ ¯
¯ ¯−1 0 3 4 ... n ¯
¯ n n 3 n ... n ¯¯ ¯ ¯
(a) ¯¯ ¯−1 −2 0 4 ... n ¯
¯ n n n 4 ... n ¯¯ (b) ¯¯ ¯
¯
¯ ... −1 −2 −3 0 ... n
¯ ... ... ... ... ... ¯¯ ¯
¯
¯
¯
¯ n ... ... ... ... ... ...
n n n ... n ¯ ¯
¯
¯
¯
−1 −2 −3 −4 ... 0
¯ ¯ ¯ ¯
¯ 1 1 1 1 ... 1 ¯ ¯ 1 n n n ... n ¯¯
¯ ¯ ¯
¯ 1 2+a 1 1 ... 1 ¯ ¯ n 2 n n ... n ¯¯
¯ ¯ ¯
¯ 1 1 2+a 1 ... 1 ¯ ¯ n n 3 n ... n ¯¯
(c) ¯¯ ¯
¯ (d) ¯¯
¯ 1 1 1 2+a ... 1 ¯ ¯ n n n 4 ... n ¯¯
¯ ... ... ... ... ... ... ¯ ¯ ... ... ... ... ... ... ¯¯
¯ ¯ ¯
¯ 1 1 1 1 ... 2 + a ¯ ¯ n n n n ... n ¯
¯ ¯
¯ 1 cos x cos 2x ¯¯
¯
40. Demostrar que ¯¯ cos x cos 2x cos 3x ¯¯ = 0.
¯ cos 2x cos 3x cos 4x ¯

41. De las afirmaciones siguientes, demostrar las verdaderas y dar un contraejemplo para las falsas:

(a) Si |A · B| = 0, entonces |A| = 0 ó |B| = 0.


(b) |A + B| = |A| + |B|.
(c) |2A| = 2 |A|.

34
Capítulo 2
Espacio vectorial

Sumario. Axiomas de espacio vectorial. Combinación lineal. Dependencia e inde-


pendencia lineal. Subespacios vectoriales. Operaciones con subespacios vectoriales.
Sistema generador. Base. Espacio vectorial finitamente generado. Dimensión de un
subespacio vetorial.

La línea seguida en este tema puede verse en [?], aunque algunas demostraciones han sido elabo-
radas por el autor para adaptarlas al nivel del alumno. Otras referencias de interés, de entre la gran
cantidad de textos sobre álgebra lineal existentes, son [?].

2.1 Definiciones y propiedades básicas


Sea K el cuerpo de los números reales o complejos y sea V un conjunto en el que hay definidas una
operación interna + de manera que a cada u, v ∈ V le asocia un elemento u + v ∈V, y una operación
externa · de manera que a cada α ∈ K y cada u ∈ V le asocia un elemento α · u ∈ V, cumpliendo las
siguientes propiedades para todo u, v, w ∈ V y para todo α, β ∈ K:

1. Propiedad asociativa para +: (u + v) + w = u + (v + w).

2. Propiedad conmutativa para +: u + v = v + u.

3. Existencia de elemento neutro 0 para +: 0 + u = u.

4. Para todo u ∈ V existe elemento inverso o simétrico −u de manera que u + (−u) = 0.

5. Propiedad distributiva respecto de la suma en V, es decir, α · (u + v) = α · u + α · v.

6. Propiedad distributiva respecto de la suma en K, esto es, (α + β) · u = α · u + β · u.

7. Propiedad pseudoasociativa: (αβ) · u = α · (β · u).

8. 1 · u = u.

Entonces se dice que la terna (V, +, ·) tiene estructura de espacio vectorial sobre el cuerpo K.
Ejemplos de espacios vectoriales son los siguientes:

35
Espacio vectorial

Example 1 Como ya vimos en el tema de matrices el conjunto de las matrices Mn×m (K) con la
suma de matrices y el producto por escalares tiene estructura de espacio vectorial ya que satisface
las 8 propiedades anteriores. Cuando las matrices tengan una única fila, entonces escribiremos el
conjunto como Km (el caso que más trataremos será el de Rn ).

Example 2 Sea Pn [x] el conjunto de los polinomios de grado menor o igual que n ∈ N con coefi-
cientes en K. Con la suma usual de polinomios y el producto usual por escalares este conjunto es un
espacio vectorial sobre K.

Example 3 Sea C([a, b]), a, b ∈ R, el conjunto de funciones continuas definidas sobre [a, b]. Dadas
f, g ∈ C([a, b]) y α ∈ R definimos (f + g)(x) = f (x) + g(x) y (α · f )(x) = αf (x) para todo x ∈ [a, b].
Es fácil comprobar que C([a, b]) con estas operaciones es un espacio vectorial sobre R.

Veamos ahora algunas propiedades básicas que se derivan directamente de los 8 axiomas de espacio
vectorial.

Proposition 7 Sea V un espacio vectorial sobre K. Entonces:

(a) 0 · u = 0 para todo u ∈ V.

(b) α · 0 = 0 para todo α ∈ K.

(c) α · u = 0 si y solo si α = 0 o u = 0.

(d) (−α) · u = −(α · u) = α · (−u) para todo α ∈ K y todo u ∈ V.

(e) Si α · u = α · v y α 6= 0, entonces u = v.

(f) Si α · u = β · u y u 6= 0, entonces α = β.

(g) (−α) · (−u) = α · u para todo α ∈ K y todo u ∈ V.

Demostración. (a) 0 + 0 = 0 y multiplicando por u tenemos (0 + 0) · u = 0 · u de donde

(0 + 0) · u = 0 · u + 0 · u =0 · u.

Sumando a ambos miembros el inverso de 0 · u tenemos que 0 · u = 0.


(b) Ahora tenemos que 0 + 0 = 0. Multiplicando por α tenemos α · (0 + 0) = α · 0 de donde

α · (0 + 0) = α · 0 + α · 0 = α · 0.

Sumando en ambos miembros el inverso de α · 0 tenermos queα · 0 = 0.


(c) Si α = 0 o u = 0, por los apartados anteriores tenemos que α · u = 0. Supongamos ahora que
α · u = 0. Si α = 0 ya hemos terminado así que supongamos que α 6= 0. Entonces multiplicamos por
el inverso de α
α−1 · (α · u) = α−1 · 0 = 0
y como
α−1 · (α · u) = (α−1 α) · u = 1 · u = u,

36
Espacio vectorial

tenemos que u = 0.
(d) Por un lado α + (−α) = 0 de donde multiplicando por u tenemos que

(α + (−α)) · u = 0 · u = 0.

Pero por otro lado


(α + (−α)) · u = α · u + (−α) · u = 0,
de donde tenemos que el inverso de α · u verifica que

−(α · u) = (−α) · u.

Por otro lado u + (−u) = 0. Multiplicando por α ambos miembros y procediendo como en el
caso anterior tenemos que
−(α · u) = α · (−u).
(e) Si α · u = α · v y α 6= 0, entonces α · (u − v) = 0 y por el apartado (c) se tiene que u − v = 0,
de donde u = v.
(f) Si α · u = β · u y u 6= 0, entonces (α − β) · u = 0 y por el apartado (c) se tiene que α − β = 0,
de donde α = β.
(g) Consideramos (−α) · (−u) = −(α · (−u)) = −(−α · u) = α · u.

2.2 Subespacios vectoriales


Definition 2 Sea V un espacio vectorial sobre K. Un subconjunto W ⊆ V se dice un subespacio
vectorial de V si para todo α, β ∈ K y para todo u,v∈ W se verifica que α · u + β · v ∈ W.

Una primera consecuencia de la definición es que para todo α ∈ K y todo u, v ∈W se verifican que
u + v ∈ W y α · u ∈ W. Como las operaciones siguen verificando los 8 axiomas de espacio vectorial,
tenemos que W también es un espacio vectorial sobre K, de donde inferimos que un subespacio
vectorial es un espacio vectorial más pequeño dentro de uno más grande.

Example 4 Si V es espacio vectorial sobre K, entonces {0} es un subespacio vectorial de V. Mas


aún, si W es un subespacio vectorial tenemos que para todo v ∈ W se verifica que 0 = v + (−v) ∈ W.

Example 5 Supongamos que estamos en R3 y sea W = {(x, y, z) ∈ R3 : y = z = 0}. Dados


(x1 , y1 , z1 ), (x2 , y2 , z2 ) ∈ W y α, β ∈ R, se verifica que

α · (x1 , y1 , z1 ) + β · (x2 , y2 , z2 ) = (αx1 + βx2 , αy1 + βy2 , αz1 + βz2 ),

de donde αy1 + βy2 = 0 y αz1 + βz2 = 0 por lo que α · (x1 , y1 , z1 ) + β · (x2 , y2 , z2 ) ∈ W y así es un
subespacio vectorial de R3 .

Definition 3 Dados u1 , ..., un ∈ V se define una combinación lineal de dichos vectores como una
expresión de la forma
α1 · u1 + ... + αn · un
donde α1 , ..., αn ∈ K.

37
Espacio vectorial

La noción de combinación lineal es central en la teoría de espacios vectoriales y aparecerá copio-


samente durante el transcurso del tema. De hecho, para definir los subespacios vectoriales hemos
utilizado una combinación lineal de dos elementos.

Definition 4 Dado un subconjunto S ⊂ V se define el subespacio generado por S como el conjunto


de todas las combinaciones lineales finitas de elementos de V. Lo denotamos por L(S), y podemos
escribir que
L(S) = {α1 · u1 + ...αn · un : ui ∈ S y αi ∈ K, i = 1, 2, ..., n}.

Tenemos entonces la siguiente propiedad.

Proposition 8 Sea S ⊂ V. Entonces el subespacio generado por S, L(S) es un subespacio vectorial


de V.

Demostración. Sean α, β ∈ K y u, v ∈ L(S), y veamos que α · u + β · v ∈ L(S). Para ello,


sabemos que existen α1 , ..., αn , β 1 , ..., β m ∈ K y u1 , ..., un , v1 , ..., vm ∈ S tales que u = α1 ·u1 +...αn ·un
y v = β 1 · v1 + ... + β m · vm . Entonces

α · u + β · v = α · (α1 · u1 + ...αn · un ) + β · (β 1 · v1 + ... + β m · vm )


= (αα1 ) · u1 + ... + (ααn ) · un + (ββ 1 ) · v1 + ... + (ββ m ) · vm ,

de donde vemos que α · u + β · v es una combinación lineal finita de elementos de S y así α · u + β · v


pertenece a L(S).

Example 6 Sea S = {(1, 1, 1, 1), (0, 1, 1, 1)} ⊂ R4 y calculemos L(S). Para ello démonos cuenta que
un vector (x, y, z, t) ∈ L(S) si ybsólo si existen α, β ∈ R de manera que

(x, y, z, t) = α · (1, 1, 1, 1) + β · (0, 1, 1, 1) = (α, α + β, α + β, α + β),

de donde obtenemos el sistema ⎧



⎪ x = α,

y = α + β,

⎪ z = α + β,

t = α + β,
que al tener solución será compatible. Calculamos entonces los rangos de sus matrices asociadas
⎛ ¯ ⎞ ⎛ ¯ ⎞
1 0 ¯¯ x 1 0 ¯ x
¯
⎜ 1 1 ¯ ⎟
y ⎟ ⎜ ¯ y ⎟
⎜ ¯ → ⎜ 1 1 ¯ ⎟
⎝ 1 1 ¯ z ⎠ FF34 −F2 ⎝
0 0 ¯ z − y ⎠,
¯ −F2 ¯
1 1 ¯ t 0 0 ¯ t−y

y obtenemos que para que ambos sean iguales a dos debe verificarse que z = y = t. Entonces

L(S) = {(x, y, z, t) ∈ R4 : y = z = t}.

38
Espacio vectorial

Veamos a continuación cómo se comporta la noción de subespacio vectorial con las operaciones
entre conjuntos. Antes, definimos una nueva operación suma del siguiente modo. Sean W1 y W2
subespacios vectoriales de V y definimos la suma de ambos como

W1 + W2 = {u + v : u ∈W1 , v ∈ W2 }.

Tenemos entonces el siguiente resultado.

Proposition 9 Sean W1 y W2 subespacios vectoriales de V. Entonces

(a) W1 ∩ W2 es un subespacio vectorial de V.

(b) W1 ∪ W2 no es un subespacio vectorial de V en general.

(c) W1 + W2 es un subespacio vectorial de V.

Demostración. (a) Sean α, β ∈ K y u, v ∈ W1 ∩ W2 y veamos que α · u + β · v ∈ W1 ∩ W2 .


Como W1 es un subespacio vectorial se tiene que α · u + β · v ∈ W1 . Análogamente tenemos que
α · u + β · v ∈ W2 . Así, α · u + β · v ∈ W1 ∩ W2 .
(b) Consideremos el espacio vectorial R2 y los subespacios vectoriales W1 = {(x, y) ∈ R2 : x = 0}
y W2 = {(x, y) ∈ R2 : y = 0}. La unión de ambos subespacios es W1 ∪ W2 = {(x, y) ∈ R2 : x = 0 ó
y = 0}. Entonces los vectores (1, 0), (0, 1) ∈ W1 ∪W2 y sin embargo (1, 0)+(0, 1) = (1, 1) ∈/ W1 ∪W2 ,
por lo que no es un subespacio vectorial.
(c) Sean α, β ∈ K y u, v ∈ W1 +W2 y veamos que α·u+β ·v ∈ W1 +W2 . Dado que u ∈ W1 +W2 ,
existen vectores ui ∈ Wi , i = 1, 2, tales que u = u1 + u2 . Similarmente y por la misma razón, existen
vectores vi ∈ Wi , i = 1, 2, tales que v = v1 + v2 . Como W1 es un subespacio vectorial se tiene que
α · u1 + β · v1 ∈ W1 . Análogamente α · u2 + β · v2 ∈ W2 . Entonces

α · u + β · v = α · (u1 + u2 ) + β · (v1 + v2 ) = (α · u1 + β · v1 ) + (α · u2 + β · v2 ) ∈ W1 + W2 ,

por lo que W1 + W2 es un subespacio vectorial.


Se dirá que la suma de dos subespacios es directa si su intersección es el vector 0, esto es,
W1 ∩ W2 = {0}. Escribiremos W1 ⊕ W2 para indicar que los subespacios W1 y W2 estan en suma
directa. La intersección y la suma de subespacios vectoriales son operaciones que permiten construir
nuevos subespacios vectoriales más pequeños (W1 ∩W2 ⊆ Wi , i = 1, 2) o más grandes (Wi ⊆ W1 +W2 ,
i = 1, 2). Estas operaciones serán de gran utilidad a la hora de estudiar la diagonalización de matrices
cuadradas, como veremos posteriormente.

Example 7 Dado R3 y los subespacios W1 = {(x, y, z) ∈ R3 : x + y = 0, x + z = 0} y W2 =


{(x, y, z) ∈ R3 : x = 0, y = 0}, calculemos su suma e intersección. Para ello, démonos cuenta que
(x, y, z) ∈ W1 ∩ W2 si satisface a la vez las ecuaciones que definen ambos subespacios, esto es


⎪ x + y = 0,

x + z = 0,

⎪ x = 0,

y = 0,

39
Espacio vectorial

de donde obtenemos resolviendo el sistema que x = y = z = 0, o lo que es lo mismo W1 ∩ W2 =


{(0, 0, 0)}. Por otro lado, las ecuaciones paramétricas de W1 y W2 son

⎨ x = −λ,
y = λ, λ ∈ R,

z = λ,
y ⎧
⎨ x = 0,
y = 0, λ ∈ R,

z = λ,
respectivamente. Entonces es fácil ver que W1 = L(−1, 1, 1) y W2 = L(0, 0, 1). Así (x, y, z) ∈
W1 + W2 si y sólo si existen (xi , yi , zi ) ∈ Wi , i = 1, 2, donde
(x, y, z) = (x1 , y1 , z1 ) + (x2 , y2 , z2 ) = α · (−1, 1, 1) + β · (0, 0, 1) = (−α, α, α + β),
de donde tenemos el sistema ⎧
⎨ x = −α,
y = α,

z = α + β,
que es compatible. Al calcular los rangos de las matrices asociadas
⎛ ¯ ⎞ ⎛ ¯ ⎞
−1 0 ¯¯ x −1 0 ¯¯ x
⎝ 1 0 ¯¯ y ⎠ →F2 +F1 ⎝ 0 0 ¯¯ y + x ⎠
1 1 ¯ z F3 +F1
0 1 ¯ z+y
tenemos que ambos son iguales a dos si y + x = 0, por lo que
W1 + W2 = {(x, y, z) ∈ R3 : x + y = 0}.

2.3 Bases y dimensión de espacios vectoriales


Definition 5 Dados u1 , ..., un ∈ V se dice que son linealmente independientes (abreviado LI) si
dada la combinación lineal
α1 · u1 + ... + αn · un = 0,
se verifica que α1 = ... = αn = 0. En caso contrario se dirán linealmente dependientes (LD).
Example 8 El vector 0 siempre es LD ya que para todo α ∈ K se tiene que α · 0 = 0.
Example 9 Dado R2 se verifica que (1, 0) y (1, 1) son LI. Para verificarlo construimos la combinación
lineal
α · (1, 0) + β · (1, 1) = (0, 0),
de donde
(α + β, β) = (0, 0),
y obtenemos el sistema ½
α + β = 0,
β = 0,
que al resolverlo β = α = 0.

40
Espacio vectorial

Example 10 Dado P2 [x] se verifica que 1, x y x2 son LI. Para comprobar ésto construimos la
combinación lineal
α + βx + γx2 = 0.
Dando los valores x = 0, x = 1 y x = −1 obtenemos el sistema

⎨ α = 0,
α + β + γ = 0,

α − β + γ = 0,
y al resolverlo tenemos las soluciones α = β = γ = 0.
Tenemos entonces la siguiente propiedad.
Proposition 10 Si u1 , ..., un ∈ V son LD entonces uno de ellos es el vector 0 o es combinación
lineal de los restantes.
Demostración. Si uno de ellos es 0, la tesis del resultado está probada. Supongamos entonces
que son todos los vectores no nulos y que existe una combinación lineal α1 · u1 + ... + αn · un = 0 tal
que por ejemplo α1 6= 0. Entonces podemos despejar u1 como
α2 αn
u1 = − · u2 − ... − · un ,
α1 α1
por lo que el vector u1 será combinación lineal de u2 , ..., un .
Definition 6 Dados u1 , ..., un ∈ V se dice que generan V si L({u1 , ..., un }) = V. En tal caso V se
dirá un espacio vectorial finitamente generado y {u1 , ..., un } un conjunto generador de V.
Example 11 El conjunto de vectores {(1, 1), (0, 1)} generan el espacio vectorial R2 . Para ello
consideremos un vector arbitrario (x, y) ∈ R2 y veamos que existen α, β ∈ R tales que (x, y) =
α · (1, 1) + β · (0, 1). Desarrollamos
(x, y) = (α, α + β),
que da lugar al sistema ½
x = α,
y = α + β,
de donde α = x y β = y − x y así
(x, y) = x · (1, 1) + (y − x) · (0, 1),
y R2 = L({(1, 1), (0, 1)}).
Example 12 No todos los espacios vectoriales son finitamente generados. Por ejemplo, el conjunto
de los polinomios con coeficientes reales
P[x] = {a0 + a1 x + ... + an xn : n ∈ N, ai ∈ R, 0 ≤ i ≤ n}
es un subespacio vectorial sobre R. Supongamos que existe polinomios p1 (x), ..., pk (x) ∈ P[x] que
generan dicho espacio vectorial. Sea m el grado del polinomio de más grado entre los polinomios
˙ Entonces nos es posible encontrar números reales α1 , ..., αk tales que
p1 (x), ..., pk (x).
xm+1 = α1 p1 (x) + ... + αk pk (x),
ya que en la igualdad anterior el polinomio de la izquierda de la igualdad es m + 1 y el de la derecha
es a lo sumo m.

41
Espacio vectorial

Veamos algunas propiedades de los conjuntos generadores.

Proposition 11 Supongamos que S = {u1 , ..., un } generan V. Entonces existe B ⊆ S que también
genera V y tal que sus elementos son LI.

Demostración. Si los vectores de S son LI ya hemos terminado. Supongamos entonces que son
LD y apliquemos la Proposición 10 y supongamos por ejemplo que existen α2 , ..., αn ∈ K tales que

u1 = α2 · u2 + ... + αn · un . (2.1)

Entonces comprobemos que L({u1 , ..., un } \ {u2 }) = L({u2 , ..., un }) = V. Para ello, sea v ∈ V
arbitrario. Como L({u1 , ..., un }) = V existen β 1 , ..., β n ∈ K tales que v = β 1 · u1 + ... + β n · un y así
sustituyendo u1 por la expresión (2.1) y simplificando tenemos

v = β 1 (α2 · u2 + ... + αn · un ) + β 2 · u21 + ... + β n · un


= (β 1 α2 + β 2 ) · u2 + ... + (β 1 αn + β n ) · un ,

por lo que v es combinación lineal de u2 , ..., un . De esta manera tenemos un método para eliminar
vectores LD dentro de un conjunto generador. Como tenemos una cantidad finita de vectores, debe
haber un momento en el cual los vectores que quedan al eliminar uno LD sean LI.
La siguiente propiedad establece relaciones entre el número de elementos en un conjunto generador
de V y el número de vectores LI.

Proposition 12 Supongamos que V está generado por n vectores. Entonces ningún conjunto LI de
V tiene mas de n elementos.

Demostración. Haremos la demostración por inducción en n.


Si n = 1 entonces V = L({u}) para algún u ∈ V. Entonces todo vector de V será proporcional a
u y esto imposibilita que existan dos vectores linealmente independientes en V.
Supongamos ahora que el resultado es cierto para espacios vectoriales generados por a lo sumo
n elementos y probemos que es cierto para espacios generados por n + 1 elementos. Para ello sean
V = L({v1 , ..., vn+1 }) y S = {u1 , ..., um } un conjunto de vectores linealmente independientes de V, y
veamos que m ≤ n + 1. Distinguimos dos casos. En primer lugar suponemos que S ⊂ L({v1 , ..., vn })
y entonces por la hipótesis inductiva m ≤ n < n + 1. Así, supongamos ahora que por ejemplo
u1 ∈ / L({v1 , ..., vn }). Entonces u1 = α1 · v1 + ... + αn+1 · vn+1 y αn+1 6= 0, de donde vn+1 =
αn+1 α1 · v1 + ... + α−1
−1 −1
n+1 αn · vn + αn+1 · u1 . Veamos entonces que V = L({v1 , ..., vn , u1 }). Para ello
sea v ∈V para el que existirán β i ∈ K, i = 1, ..., n + 1, tales que

v = β 1 · v1 + ... + β n · vn + β n+1 · vn+1


= β 1 · v1 + ... + β n · vn + β n+1 · (α−1 −1 −1
n+1 α1 · v1 + ... + αn+1 αn · vn + αn+1 · u1 )
= (β 1 + β n+1 α−1 −1 −1
n+1 α1 ) · v1 + ...(β n + β n+1 αn+1 αn ) · vn + β n+1 αn+1 · u1 .

Así V = L({v1 , ..., vn , u1 }). Entonces


P cada ui , i = 2, 3, ..., m puede ponerse en combinación lineal
de v1 , ..., vn , u1 , esto es ui = nj=1 αij · vj + λi · u1 , i = 2, ..., m. Sean ahora yi = ui − λi · u1 ∈
L({v1 , ..., vn }) i = 2, 3, ..., m. Veamos que son LI. Para ello sea

γ 2 · y2 + ... + γ m · ym = 0.

42
Espacio vectorial

Pero entonces

0 = γ 2 · (u2 − λ2 · u1 ) + ... + γ m · (um − λm · u1 )


= γ 2 · u2 + ... + γ m · um − (γ 2 λ2 + ... + γ m λm ) · u1

y como u1 , ..., um son LI se tiene que γ i = 0, i = 2, 3, ..., m. De nuevo por la hipótesis inductiva
m − 1 ≤ n, de donde m ≤ n + 1 como queríamos probar.

Definition 7 Una base de V es un conjunto generador de V y LI.

Example 13 El conjunto B = {1, x, x2 } es una base del conjunto P2 [x] de polinomios reales de
grado menor o igual que 2. Ya vimos en el ejemplo 10 que era un conjunto LI. Por otra parte, es
claro que es un conjunto generador dado que todo p(x) ∈ P2 [x] es de la forma p(x) = a + bx + cx2 ,
a, b, c ∈ R.

A continuación probamos un resultado fundamental sobre las bases de espacios vectoriales finita-
mente generados que permite definir la noción de dimensión de estos espacios.

Theorem 13 Si V es finitamente generado, entonces todas sus bases tienen el mismo número de
elementos.

Demostración. Sean B1 = {u1 , ..., un } y B2 = {v1 , ..., vm } bases de V y veamos que n = ṁ.
Consideremos B1 como conjunto generador y B2 como conjunto linealmente independiente. Aplicamos
la Proposición 12 para obtener que n ≥ m. Si ahora consideramos B1 como linealmente independiente
y B2 como conjunto generador y volvemos a aplicar la Proposición 12 y obtenemos m ≥ n. Entonces
m = n.

Definition 8 Dado V un espacio vectorial finitamente generado. Se llama dimensión de V, dim V


(o dimK V si queremos enfatizar el cuerpo K), al número de elementos en una base.

Otra de las ventajas de trabajar con bases es la siguiente propiedad.

Proposition 14 Sea B = {u1 , ..., un } una base de V. Entonces todo vector u ∈ V admite una única
expresión como combinación lineal de los elementos de B.

Demostración. Supongamos dos combinaciones lineales

u = α1 · u1 + ... + αn · un = β 1 · u1 + ... + β n · un ,

αi , β i ∈ K, 1 ≤ i ≤ n. Entonces

(α1 − β 1 ) · u1 + ... + (αn − β n ) · un = 0.

Como los vectores u1 , ..., un son LI, se verifica que αi − β i = 0, o lo que es lo mismo αi = β i ,
1 ≤ i ≤ n.
Sean B = {u1 , ..., un } una base de V y u ∈V. Entonces u = α1 · u1 + ... + αn · un con α1 , ..., αn ∈ K
únicos. Si los escribimos como un vector de Kn , diremos entonces que (α1 , ..., αn )B son las coordenadas
de u en la base B. Démonos cuenta que al cambiar la base cambian a su vez las coordenadas del

43
Espacio vectorial

vector. Por ejemplo, sean R2 , las bases B1 = {(1, 0), (0, 1)} y B2 = {(1, 1), (1, −1)} y el vector (2, 2).
Este vector tiene coordenadas (2, 2)B1 en la base B1 , mientras que son (2, 0)B2 en la base B2 .
La base B1 es lo que conoceremos como base canónica, esto es, aquella que verifica que las
coordenadas de un vector son las “naturales”. Por ejemplo, todo vector (x1 , ..., xn ) ∈ Kn tiene co-
ordenadas (x1 , ..., xn )C respecto de la base canónica C = {(1, 0, ..., 0), (0, 1, 0, ..., 0), ..., (0, 0, ..., 0, 1)}.
En el conjunto de los polinomios Pn [x] la base canónica es C = {1, x, ..., xn }, de manera que cualquier
polinomio a0 + a1 x + ... + an xn ∈ Pn [x] tiene por coordenadas en dicha base (a0 , a1 , ..., an )C .

Proposition 15 Sea V un espacio vectorial finitamente generado y {u1 , ..., um } un conjunto LI.
Entonces existe una base B de V de manera que {u1 , ..., um } ⊆ B.

Demostración. Si L({u1 , ..., um }) = V, ya hemos terminado. En caso contrario sea v ∈


V \ L({u1 , ..., um }). Entonces toda combinación lineal

α · v + α1 · u1 + ... + αm · um = 0,

debe verificar que α = 0. Por la independencia lineal de u1 , ..., um , se tiene además que αi = 0,
1 ≤ i ≤ m. Así {v, u1 , ..., um } es un conjunto LI. De esta manera incrementamos en una unidad el
conjunto LI. Como V es finitamente generado, en una cantidad finita de pasos logramos obtener un
conjunto LI que genere V.
A modo de resumen tenemos el siguiente resultado.

Theorem 16 Sea V un espacio vectorial finitamente generado de dimensión n. Entonces

(a) Todas las bases de V tienen n elementos.

(b) Todo conjunto LI de n elementos es una base de V.

(c) Todo conjunto generador de V de n elementos es una base.

Demostración. El apartado (a) está probado en el Teorema 13. Para demostrar (b), sea
{u1 , ..., un } ⊂ V un conjunto LI. Si no fuera generador de V, aplicando la Proposición 15, podríamos
extenderlo a una base de V que necesariamente tendría mas de n elementos, lo cual contradice el
Teorema 13. De igual modo y utilizando la Proposición 11 se prueba el apartado (c).
Para finalizar el tema, nótese que los subespacios vectoriales son a su vez espacios vectoriales que
tendrán su dimensión. Sobre este particular tenemos la siguiente fórmula de las dimensiones de la
suma e intersección de subespacios vectoriales.

Proposition 17 Sean W1 y W2 subespacios vectoriales de V finitamente generados. Entonces

dim(W1 + W2 ) = dim W1 + dim W2 − dim(W1 ∩ W2 ).

En particular, si la suma es directa

dim(W1 ⊕ W2 ) = dim W1 + dim W2 .

44
Espacio vectorial

Demostración. Supongamos en primer lugar que W1 ⊕ W2 y sean B1 = {u1 , ..., un } y B2 =


{v1 , ..., vm } bases de W1 y W2 , respectivamente y comprobemos que B = B1 ∪ B2 es una base de
W1 ⊕ W2 . Veamos que B es un conjunto LI. Sea una combinación lineal

α1 · u1 + ... + αn · un + β 1 · v1 + ... + β m · vm = 0.

Entonces
v = α1 · u1 + ... + αn · un = −β 1 · v1 − ... − β m · vm ∈ W1 ∩ W2 ,
con lo que v = 0 y

α1 · u1 + ... + αn · un = 0,
β 1 · v1 + ... + β m · vm = 0.

Como B1 y B2 son LI, obtenemos que αi = 0 y β j = 0 para 0 ≤ i ≤ n y 1 ≤ j ≤ m. Veamos ahora


que L(B)= W 1 ⊕ W2 . Para ello sea v ∈ W1 ⊕ W2 arbitrario y sea vi ∈ Wi , i = 1, 2, de manera que
v = v1 + v2 . Existen entonces αi ∈ K y β j ∈ K, 0 ≤ i ≤ n y 1 ≤ j ≤ m, de manera que

v1 = α1 · u1 + ... + αn · un ,
v2 = β 1 · v1 + ... + β m · vm .

Entonces
v = α1 · u1 + ... + αn · un + β 1 · v1 + ... + β m · vm ∈ L(B).
Así
dim(W1 ⊕ W2 ) = n + m = dim W1 + dim W2 .
Supongamos ahora que W1 ∩ W2 6= {0} y sea {u1 , ..., uk } una base del mismo. Por la Proposición
15 extendemos {u1 , ..., uk } a sendas bases {u1 , ..., uk , uk+1 , ..., un } y {u1 , ..., uk , vk+1 , ..., vm } de W1
y W2 , respectivamente. Sea V1 = L({uk+1 , ..., un }). Entonces V1 ∩ W2 = {0} y por tanto

dim(V1 ⊕ W2 ) = dim V1 + dim W2 .

Por otra parte V1 ⊕ W2 = W1 + W2 y entonces

dim(W1 + W2 ) = dim(V1 ⊕ W2 )
= dim V1 + dim W2
= dim W1 + dim W2 − dim(W1 ∩ W2 ),

y la proposición queda demostrada.

Example 14 El resultado anterior tiene su aplicación a ejemplos como el siguiente. Sean

W1 = {(x, y, z) ∈ R3 : x + y + z = 0}

y
W2 = {(x, y, z) ∈ R3 : x + y = 0, y + z = 0}.

45
Espacio vectorial

Sus dimensiones son 2 y 1, respectivamente. Por otra parte, (x, y, z) ∈ W1 ∩ W2 si se satisfacen



⎨ x + y + z = 0,
x + y = 0,

y + z = 0.

Resolvemos este sistema


⎛ ¯ ⎞ ⎛ ¯ ⎞
1 1 1 ¯¯ 0 1 1 1 ¯¯ 0
⎝ 1 1 0 ¯ 0 ⎠ →F2 −F1 ⎝ 0 0 −1 ¯ 0 ⎠ ,
¯ ¯
0 1 1 ¯ 0 0 1 1 ¯ 0

y obtenemos que x = y = z = 0, por lo que W1 ∩ W2 = {(0, 0, 0)}. Entonces

dim(W1 ⊕ W2 ) = dim W1 + dim W2 = 2 + 1 = 3,

y dado que W1 ⊕ W2 ⊆ R3 , se verifica que W1 ⊕ W2 = R3 .

2.4 Ejercicios
1. Sea M2×2 (R) el espacio de las matrices de orden 2×2 sobre el cuerpo R, estudiar si los siguientes
conjuntos de matrices son subespacios vectoriales.

(a) M1 = {A ∈ M2×2 (R) : A es simétrica}


(b) M2 = {A ∈ M2×2 (R) : A2 = A}
(c) M3 = {A ∈ M2×2 (R) : |A| = 0}
µ ¶
0 0
(d) M4 = {A = ∈ M2×2 (R) : a ∈ R}
0 a

2. En R2 definimos la operación interna + dada por:

(x, y) + (u, v) = (x + u, y + v) ∀(x, y), (u, v) ∈ R2 ,

y la operación externa ∗ : R × R2 → R2 dada por:

α ∗ (x, y) = (αx, y), ∀α ∈ R y ∀(x, y) ∈ R2 .

¿Tiene la terna (R2 , +, ∗) estructura de espacio vectorial sobre R ?

3. Comprobar si los siguientes conjuntos de R3 son subespacios vectoriales:

(a) W = {(x1 , x2 , x3 ) ∈ R3 : x1 + x2 = 0} .
(b) W = {(x1 , x2 , x3 ) ∈ R3 : x1 + 2x2 + x3 = 1} .
(c) W = {(x1 , x2 , x3 ) ∈ R3 : x1 = x2 = 0} .
(d) W = {(x1 , x2 , x3 ) ∈ R3 : x1 + x2 = 0 y x3 − x2 = 0} .

46
Espacio vectorial

(e) W = {(x1 , x2 , x3 ) ∈ R3 : x1 + x22 = 0} .

4. Decir si los siguientes vectores de R4 son linealmente independientes:

(a) {(1, 0, 0, 1) , (0, 1, 1, 0) , (1, 1, 1, 1)} .


(b) {(1, 0, 0, 1) , (0, 1, 1, 1) , (1, 1, 1, 1)} .
(c) {(1, 0, 0, 1) , (0, 1, 1, 0) , (1, 1, 1, 1) , (2, 0, 0, 0)} .

5. Extraer un conjunto linealmente independiente de los conjuntos del ejercicio 4.


6. ¿Alguno de los conjuntos del ejercicio 4 son una base de R4 ?.
7. Calcular el subespacio vectorial generado por los conjuntos del ejercicio 4.
8. Dados los subespacios de R3 , W1 = {(x1 , x2 , x3 ) ∈ R3 : x1 = x2 = 0} y
W2 = {(x1 , x2 , x3 ) ∈ R3 : x1 + x2 + x3 = 0},
calcular:

(a) Un conjunto generador linealmente independiente de W1 y W2 .


(b) Calcular W1 + W2 y W1 ∩ W2 .
(c) ¿Es la suma de W1 y W2 directa?.
(d) Calcular las dimensiones de W1 , W2 , W1 ∩ W2 y W1 + W2 .

9. Sea (V, +, ·) un espacio vectorial sobre un cuerpo K, y sea B = {v1 , ..., vn } una base de V.
Demostrar que el conjunto de vectores B0 = {u1 , ..., un } dado por u1 = v1 , u2 = v1 + v2 , ...,
un = v1 + v2 + ... + vn es también una base de V.
10. Sea P4 [x] el espacio vectorial de los polinomios
© de grado menor o igual que n. Demostrarª que
los conjuntos B = {1, x, x , x , x } y B = (1 + x)4 , x (1 + x)3 , x2 (1 + x)2 , x3 (1 + x) , x4 son
2 3 4 0

bases de P4 [x] . Expresar los elementos de B0 como combinación lineal de B.


11. Se consideran en R4 los subespacios vectoriales W1 y W2 generados por los subconjuntos
S1 = {(1, 1, 1, 1) , (1, −1, 1, −1)} y S2 = {(1, 1, 0, 1) , (1, 2, −1, 2) , (3, 5, −2, 5)} respectivamente.
Encontrar:

(a) dim(W1 + W2 ).
(b) dim(W1 ∩ W2 ).
(c) Ecuaciones de W1 + W2 .
(d) Ecuaciones de W1 ∩ W2 .

12. Idéntica cuestión para los subespacios de R3

U = {(x, y, z) ∈ R3 : x = λ + μ, y = λ − 2μ, z = −μ}


y
V = {(x, y, z) ∈ R3 : x = 0, y = 3z}.

47
Espacio vectorial

13. Indicar cuál es la dimensión de la intersección de los subespacios de R3 definidos como U =


L[(1, 1, α), (α, 1, 1)] y V = L[(−1, α, −1), (1, 1, 1)] según los valores de α.
14. En R3 se consideran los subespacios vectoriales A = {(x, y, z) ∈ R3 : y = 0} y
B = h(1, 1, 1), (1, a, 3)i, donde a es un parámetro real.

(a) Calcula la dimensión de A, B, A + B y A ∩ B en función de a.


(b) Si a = 1, averiguar si existe algún valor de b para el cual el vector (b, 2, 1) pertenece al
subespacio A + B.

15. Halla una base de R4 que contenga a los vectores (1, 0, 1, 1) y (2, 0, 2, 1).
16. Calcular las ecuaciones de los siguientes subespacios vectoriales:

(a) h(1, 1, 1)i (b) h(1, −1, 0), (1, 0, 0i (c) h(1, 1, 1), (0, 0, 3)i (d) h(1, 1), (1, 0)i

17. ¿Cuál es la dimensión de C considerado como espacio vectorial sobre R? ¿Y si lo consideramos


como un espacio vectorial sobre C?
18. Hallar una base y la dimensión del subespacio de R4 :

{(x, y, z, t) ∈ R4 : x − y − t = 0, x + y + z + t = 0}.

19. En el espacio vectorial R3 se consideran los subespacios vectoriales A = {(x, y, z) ∈ R3 : y = 0}


y B = h(1, 1, 1), (2, 2, 2)i . Se pide:

(a) Hallar una base y la dimensión de A, B, A + B y A ∩ B.


(b) ¿Pertenece el vector (3, 2, 1) al subespacio A + B?

20. De las siguientes afirmaciones, demostrar las que sean ciertas y dar un contraejemplo para las
falsas:

(a) Si {u, v} son linealmente independientes, entonces {u − v, u + v} también lo son.


(b) Todo conjunto de vectores que no contenga al vector nulo es linealmente independiente.
(c) Sean V1 y V2 subespacios vectoriales del mismo espacio vectorial. Si dim(V1 ) = dim(V2 ),
entonces V1 = V2 .
(d) El vector (1, 0, 0) tiene por coordenadas (1, 1, −1) en la base B = {(1, 1, 1), (1, 2, 1), (1, 3, 2)}.
(e) Sean S = {(1, 1, 2), (1, −2, −1), (3, −1, 2)} y S 0 = {(1, 0, 0)}. Entonces:
i. L(S) + L(S 0 ) = L(S ∪ S 0 ).
ii. L(S) ∪ L(S 0 ) = L(S ∪ S 0 ).
iii. L(S) ∩ L(S 0 ) = L(S ∩ S 0 ).
iv. dim(L(S)) = 3 y dim(L(S 0 )) = 1.
(f) Si {u, v} es un conjunto de vectores linealmente independientes tal que {u, w} y {v, w} son
linealmente independientes, entonces {u, v, w} también son linealmente independientes.

48
Espacio vectorial

21. Dados los subespacios de R3 , S = {(x, y, z) ∈ R3 : x = y = 0} y T = {(x, y, z) ∈ R3 :


x + y + z = 0} calcular:

(a) Una base y la dimensión de ambos.


(b) S + T y S ∩ T , dando las bases de dichos subespacios.
(c) ¿La suma S + T es directa?

22. Se consideran en R4 los subespacios vectoriales generados por

S1 = {(1, 1, 1, 1), (1, −1, −1, 1)} y S2 = {(1, 1, 0, 1), (1, 2, −1, 2), (3, 5, −2, 5)}.

Calcular:

(a) La base y la dimensión de L(S1 ) y L(S2 ).


(b) Calcular L(S1 ) ∩ L(S2 ) y L(S1 ) + L(S2 ), dando bases de dichos subespacios.
(c) ¿Pertenece el vector (4, 0, −2, 1) a L(S1 ) ∩ L(S2 )? En caso afirmativo dar sus coordenadas
respecto de la base considerada.
(d) ¿Pertenece el vector (4, 0, −2, 1) a L(S1 ) + L(S2 )? En caso afirmativo dar sus coordenadas
respecto de la base considerada.

23. Determinar a ∈ R para que los vectores (a, 1, 1), (1, a, 1) y (1, 1, a) sean linealmente inde-
pendientes. Determinar los tres subespacios vectoriales generados por dos de los 3 vectores
anteriores en función de a y calcular la intersección y la suma de dichos subespacios vectoriales
dos a dos. ¿Son las sumas directas?

24. Sea C(0, 1]) el espacio vectorial de las funciones continuas f : [0, 1] → R y sea W1 = {ax + bx3 :
a, b ∈ R} y W2 = {a + bx + cx2 : a, b, c ∈ R}.

(a) ¿Son W1 y W2 subespacios vectoriales de C(0, 1])? Razona la respuesta.


(b) Determinar W1 + W2 y W1 ∩ W2 . ¿Es la suma directa? Determinar las dimensiones de
ambos subespacios.

25. Sea V un espacio vectorial sobre R y sean S1 = {u1 , ..., un } y S2 = {v1 , ..., vm }. Razonar la
validez o falsedad de las siguientes afirmaciones:

(a) Si S1 y S2 son linealmente independientes, entonces L(S1 ) + L(S2 ) es una suma directa.
(b) Si L(S1 ) ⊕ L(S2 ), entonces S1 ∪ S2 es un conjunto linealmente independiente.
(c) L(S1 ) + L(S2 ) = L(S1 ∪ S2 ).

49
Espacio vectorial

50
Capítulo 3

Aplicaciones lineales

Sumario. Definición de aplicación lineal. Núcleo e imagen. Fórmula de las


dimensiones. Matriz de una aplicación lineal respecto a una base. Propiedades.
Matrices de cambio de base.

Una gran cantidad de modelos de la ingeniería siguen las siguientes leyes. Podemos imaginarnos un
aparato que cada vez que se le introduce un determinado estímulo devuelve ese estímulo modificado
como una señal de salida. Dicho estímulo puede ser por ejemplo una diferencia de potencial de
potencial en un circuito eléctrico que a su vez devolverá una cierta intensidad de corriente. Si
denotamos por V (t) el voltaje e i(t) la intensidad, el circuito funciona de la manera siguiente: si i1 (t)
e i2 (t) son las respuestas a los voltajes V1 (t) y V2 (t), entonces i1 (t) + i2 (t) es la respuesta al voltaje
V1 (t) + V2 (t). Además, si el voltaje es amplificado multiplicando por un escalar α, entonces αi(t) es
la respuesta a αV (t). Esta es la forma de funcionar de un circuito LRC y la de numerosos ingenios
de la ingeniería. Como veremos a continuación, estos aparatos funcionan como una aplicación lineal.

3.1 Definiciones y propiedades básicas


Sean V y V 0 dos espacios vectoriales sobre el cuerpo K. Una aplicación f : V → V 0 se dice que es una
aplicación lineal si verifica las siguientes propiedades:

1. f(u + v) = f(u) + f(v), para todo u, v ∈ V.

2. f(α · u) = α · f(u), para todo u ∈ V y todo α ∈ K.

Equivalentemente la aplicación f será lineal si y solamente si para cada u, v ∈ V y α, β ∈ K se


verifica la igualdad
f(α · u + β · v) = α · f(u) + β · f(v).

Example 15 Dado un espacio vectorial V, la aplicación identidad i : V → V dada por i(v) = v


para todo v ∈ V es trivialmente una aplicación lineal.

51
Aplicaciones lineales

Example 16 Sea la aplicación f : R2 → R3 dada por f(x, y) = (x, x + y, x − 2y). Veamos que se
trata de una aplicación lineal. Para ello sean α, β ∈ R y (x1 , y1 ), (x2 , y2 ) ∈ R2 y calculemos
f(α · (x1 , y1 ) + β · (x2 , y2 )) = f(αx1 + βx2 , αy1 + βy2 )
= (αx1 + βx2 , αx1 + βx2 + αy1 + βy2 , αx1 + βx2 − 2αy1 − 2βy2 )
= α · (x1 , x1 + y1 , x1 − 2y1 ) + β · (x2 , x2 + y2 , x2 − 2y2 )
= α · f(x1 , y1 ) + β · f(x2 , y2 ),
por lo que f es lineal.
Example 17 Consideremos la aplicación g : R2 → R3 dada por g(x1 , x2 ) = (x21 , x1 + x2 , x1 − 2x2 ).
En este caso no se trata de una aplicación lineal, ya que tomando el vector (1, 1) ∈ R2 y el escalar
−1 ∈ R se tiene que
g((−1) · (1, 1)) = (1, −2, 1) 6= (−1, −2, 1) = (−1) · g(1, 1).
Example 18 Sea la aplicación f : R2 → M2×2 (R) dada por
µ ¶
x1 0
f(x1 , x2 ) = .
1 x2
Si tomamos dos vectores cualesquiera (x1 , x2 ), (y1 , y2 ) ∈ R2 es evidente que
µ ¶ µ ¶ µ ¶
x1 + y1 0 x1 0 y1 0
f((x1 , x2 ) + (y1 , y2 )) = 6= + = f(x1 , x2 ) + f(y1 , y2 ),
1 x2 + y2 1 x2 1 y2
y por tanto f no es lineal.
Dependiendo de sus características se distinguen diferentes clases de aplicaciones lineales. Así
dada f : V → V 0 una aplicación lineal se dice que es un:
Monomorfismo si es inyectiva, es decir, si f(u) = f(v) implica que u = v.
Epimorfismo si es suprayectiva o equivalentemente, si para cada v ∈ V 0 se tiene u ∈ V tal que
f(u) = v.
Isomorfismo si es biyectiva, o lo que es lo mismo, si es inyectiva y suprayectiva a la vez.
Endomorfismo si V = V 0 .
Automorfismo si V = V 0 y f es biyectiva.
La siguiente propiedad es útil para determinar si una aplicación no es lineal.
Proposition 18 Si 0 ∈ V es el vector nulo y f : V → V 0 es una aplicación lineal, se tiene que
f(0) = 0.
Demostración. Nótese que 0 + 0 = 0 y entonces f(0 + 0) = f(0). Como f es lineal se verifica
que f(0 + 0) = f(0) + f(0) = f(0), de donde f(0) = 0.
Esta propiedad permite identificar fácilmente aplicaciones que no son lineales (como la del ejem-
plo 18), aunque las aplicaciones que mandan el vector nulo al vector nulo no son necesariamente
lineales, como el caso del ejemplo 17.

52
Aplicaciones lineales

3.2 Subespacios vectoriales asociados a una aplicación lineal


3.2.1 Imagen de una aplicación lineal.
Las aplicaciones lineales son aquellas que conservan los subespacios vectoriales, como el siguiente
resultado demuestra.

Proposition 19 Sea f : V → V 0 una aplicación lineal y sea W ⊆ V un subespacio vectorial. Entonces


f(W) = {f(u) : u ∈ W} es un subespacio vectorial de V 0 .

Demostración. Sean α, β ∈ K y u, v ∈ f(W) y veamos que α · u + β · v ∈ f(W). Para ello hemos


de tener en cuenta que como u, v ∈ f(W), entonces existen vectores u1 , v1 ∈ W tales que f(u1 ) = u
y f(v1 ) = v. Entonces, por la linealidad de f tenemos

α · u + β · v = α · f(u1 ) + β · f(v1 ) = f(α · u1 + β · v1 ),

de donde obtenemos que α · u + β · v ∈ f(W).

Definition 9 Dada una aplicación lineal f : V → V 0 se llama imagen de f, y se denota por Im(f),
al conjunto f(V) que como hemos visto en la proposición anterior es un subespacio vectorial de V 0 .
Además se tiene que f es un epimorfismo si y solamente si Im(f) = V 0 .

Example 19 Calculamos la imagen de la aplicación lineal f : R3 → R3 definida por f(x, y, z) =


(x + y, x − z, 2x + y − z). Nótese que (x, y, z) ∈ Im f si existe (α, β, γ) ∈ R3 de manera que

(x, y, z) = f(α, β, γ)
= (α + β, α − γ, 2α + β − γ),

de donde obtenemos el sistema compatible



⎨ α + β = x,
α − γ = y,

2α + β − γ = z.

Calculando el rango de ambas matrices del sistema


⎛ ¯ ⎞ ⎛ ¯ ⎞ ⎛ ¯ ⎞
1 1 0 ¯¯ x 1 1 0 ¯¯ x 1 1 0 ¯¯ x
⎝ 1 0 −1 ¯ y ⎠ → F2 −F1 ⎝ 0 −1 −1 ¯ y − x ⎠ →F3 −F2 ⎝ 0 −1 −1 ¯ y − x ⎠
¯ ¯ ¯
2 1 −1 ¯ z F3 −2F1
0 −1 −1 ¯ z − 2x 0 0 0 ¯ z−x−y

obtenemos que para que el rango de ambas sea dos debe verificarse que z − x − y = 0, y así

Im f = {(x, y, z) ∈ R3 : z − x − y = 0}.

Veamos una manera alternativa de calcular la imagen mediante la siguiente propiedad.

Proposition 20 Sea f : V → V 0 una aplicación lineal y B = {u1 , ..., un } una base de V. Entonces
f(B) es un sistema generador de la imagen de f.

53
Aplicaciones lineales

Demostración. Sea v ∈ Im f. Entonces existe u ∈ V de manera que v = f(u). Como B es una


base de V, existen α1 , ..., αn ∈ K de manera que u = α1 · u1 + ... + αn · un . Entonces

v = f(u) = f(α1 · u1 + ... + αn · un )


= α1 · f(u1 ) + ... + αn · f(un ),

por lo que f(B) genera la imagen.


Calculemos de nuevo la imagen del ejemplo 19. Sea C = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} la base
canónica de R3 y calculamos f(C) = {(1, 1, 2), (1, 0, 1), (0, −1, −1)}. Entonces

Im f = L({(1, 1, 2), (1, 0, 1), (0, −1, −1)}),

esto es, un vector (x, y, z) ∈ Im f si y sólo si existen α, β, γ ∈ R tales que

(x, y, z) = α · (1, 1, 2) + β · (1, 0, 1) + γ · (0, −1, −1)


= (α + β, α − γ, 2α + β − γ),

de donde obtenemos el mismo sistema compatible del ejemplo 19, y de ahí obtendremos su ecuación.

3.2.2 Núcleo de una aplicación lineal.


Sea f : V → V 0 una aplicación lineal. Se llama núcleo de f, y se denota Ker(f), a los vectores cuya
imagen por f es 0, es decir,
Ker(f) = {u ∈ V : f(u) = 0} .
En primer lugar, comprobemos que el núcleo es un subespacio vectorial de V. Para ello sean α, β ∈ K
y u, v ∈ Ker(f) y comprobemos que α · u + β · v ∈ Ker(f) comprobando que su imagen es nula.

f(α · u + β · v) = α · f(u) + β · f(v) = α · 0 + β · 0 = 0.

El núcleo permite caracterizar a las aplicaciones lineales inyectivas o monomorfismos.

Proposition 21 Sea f : V → V 0 una aplicación lineal. Entonces f es inyectiva si y solo si Ker(f) =


{0}.

Demostración. Si f es inyectiva, es evidente que Ker(f) = {0} porque si u ∈ Ker(f) se tiene


que f(u) = 0 = f(0) y por la inyectividad de f se tiene que u = 0. Recíprocamente, si Ker(f) = {0}
y f(u) = f(v), por linealidad 0 = f(u) − f(v) = f(u − v) lo cual implica que u − v ∈ Ker(f) = {0},
de donde u = v.
Las dimensiones del núcleo y la imagen de una aplicación lineal están ligadas por la siguiente
relación.

Theorem 22 Sea f : V → V 0 una aplicación lineal con V de dimensión finita. Se verifica la igualdad:

dim V = dim Ker(f) + dim Im(f).

54
Aplicaciones lineales

Demostración. Sea BKer(f ) = {u1 , ..., un } una base de Ker(f) y la completamos a una base B =
{u1 , ..., un , v1 , ..., vm } de V. El resultado estará probado si demostramos que B0 = {f(v1 ), ..., f(vm )}
es una base de Im(f).
Veamos es primer lugar que Im(f) = L(B0 ). Para ello sea u ∈ Im(f) y entonces debe existir
v ∈V de manera que f(v) = u. Existen entonces escalares α1 , ..., αn , β 1 , ..., β m ∈ K de manera que
v = α1 · u1 + ... + αn · un + β 1 · v1 + ... + β m · vm . Así
u = f(v) = f(α1 · u1 + ... + αn · un + β 1 · v1 + ... + β m · vm )
= α1 · f(u1 ) + ... + αn · f(un ) + β 1 · f(v1 ) + ... + β m · f(vm )
= β 1 · f(v1 ) + ... + β m · f(vm ),
dado que f(ui ) = 0 por ser todo ui ∈ Ker(f), 1 ≤ i ≤ n. De esta manera tenemos que
u = β 1 · f(v1 ) + ... + β m · f(vm )
y así Im(f) = L(B0 ).
Probemos ahora para terminar que los vectores de B0 son LI. Para ello consideramos una combi-
nación lineal igualada a cero
β 1 · f(v1 ) + ... + β m · f(vm ) = 0.
Como f es lineal, la expresión anterior podemos agruparla en
f(β 1 · v1 + ... + β m · vm ) = 0,
de donde tenemos que β 1 · v1 + ... + β m · vm ∈ Ker(f). Entonces existirán α1 , ..., αn ∈ K tales que
β 1 · v1 + ... + β m · vm = α1 · u1 + ... + αn · un ,
de donde
β 1 · v1 + ... + β m · vm − α1 · u1 − ... − αn · un = 0,
y así β 1 = ... = β m = α1 = ... = αn = 0 por ser B una base de V. Entonces ya hemos probado que
los vectores de B0 son LI y la prueba concluye.

Example 20 El resultado anterior resulta de utilidad como muestra el siguiente ejemplo. Sea f :
R3 → R3 dada por
f(x, y, z) = (x − y, x − z, y − z),
y calculemos su núcleo e imagen. Como sabemos (x, y, z) ∈ Ker(f) si y sólo si
(0, 0, 0) = f(x, y, z) = (x − y, x − z, −y − z),
de donde obtenemos el sistema ⎧
⎨ x − y = 0,
x − z = 0,

−y − z = 0,
y al resolverlo
⎛ ¯ ⎞ ⎛ ¯ ⎞ ⎛ ¯ ⎞
1 −1 0 ¯¯ 0 1 −1 0 ¯¯ 0 1 −1 0 ¯¯ 0
⎝ 1 0 −1 ¯ 0 ⎠ →F2 −F1 ⎝ 0 1 −1 ¯ 0 ⎠ →F3 +F2 ⎝ 0 1 −1 ¯ 0 ⎠ ,
¯ ¯ ¯
0 1 −1 ¯ 0 0 −1 −1 ¯ 0 0 0 −2 ¯ 0

55
Aplicaciones lineales

obtenemos que x = y = z = 0, por lo que Ker(f) = {(0, 0, 0)} y su dimensión es cero. Entonces
dim Im f = dim R3 − dim Ker(f) = 3,
por lo que Im f es un subespacio vectorial de R3 de dimensión tres, y por tanto debe verificarse que
Im f = R3 .

3.3 Matriz asociada a una aplicación lineal.


Sea f : V → V 0 una aplicación lineal y sean B = {u1 , . . . , um } y B0 = {v1 , . . . , vn } bases de V
y V 0 , respectivamente. Dado u ∈ V un vector cualquiera, existen escalares α1 , . . . , αm ∈ K (sus
coordenadas en la base B) de forma que u = α1 · u1 + · · · + αm um , y por linealidad de f tenemos que
f(u) = α1 · f(u1 ) + · · · + αm · f(um ). (3.1)
De esta igualdad se desprende que, conociendo las imágenes por una aplicación lineal de los vectores
de una base del espacio inicial, es posible calcular la imagen por la aplicación lineal de cualquier
vector. Por otra parte los vectores f(u1 ), ..., f(um ) están en V 0 por lo que pueden escribirse como
combinación lineal de los vectores de B0 . Sean entonces λ1j , . . . , λnj ∈ K las coordenadas de f(uj ) en
la base B0 , esto es,
f(uj ) = λ1j · v1 + · · · + λnj · vn , 1 ≤ j ≤ m. (3.2)
Combinando las ecuaciones (3.1) y (3.2) se obtiene la igualdad:
à n ! Ãm !
Xm X
m X X n X
f(u) = αj · f(uj ) = αj λij · vi = λij αj · vi .
j=1 j=1 i=1 i=1 j=1

Sean β 1 , . . . , β n ∈ K las coordenadas del vector f(u) en la base B0 . Como consecuencia de la unicidad
de las coordenadas de un vector en una base y de la relación anterior, se tiene que para cada 1 ≤ i ≤ n:
X
m
βi = λij αj .
j=1

Introduciendo la matriz,
⎛ ⎞
λ11 λ12 · · · λ1m
⎜ λ21 λ22 · · · λ2m ⎟
⎜ ⎟
MB0 B (f) = ⎜ .. .. .. ⎟ ∈ Mn×m (K),
⎝ . . . ⎠
λn1 λn2 · · · λnm
cuyas columnas corresponden a las coordenadas en la base B0 de las imágenes por f de los vectores
de la base B, la relación anterior puede escribirse en la forma:
⎛ ⎞ ⎛ ⎞
β1 α1
⎜ .. ⎟ ⎜ . ⎟
⎝ . ⎠ = MB0 B (f) · ⎝ .. ⎠ .
βn αm
La matriz MB0 B (f) se denomina matriz de la aplicación f en las bases B y B0 y permite obtener las
coordenadas en la base B0 de la imagen por f de cualquier vector a partir de sus coordenadas en la
base B, como indica la relación anterior.

56
Aplicaciones lineales

Example 21 Sea f : R2 → R3 la aplicación lineal del Ejemplo 16 y sean C2 y C3 las bases canónicas
de R2 y R3 , respectivamente. Se tiene que

f(1, 0) = (1, 1, 1), f(0, 1) = (0, 1, −2),

de donde: ⎛ ⎞
1 0
MC3 C2 (f) = ⎝ 1 1 ⎠.
1 −2
Si en R2 se considera ahora la base B = {(1, 1), (1, −1)}, se tiene que

f(1, 1) = (1, 2, −1), f(1, −1) = (1, 0, 3),

y la matriz de f en estas bases es de la forma:


⎛ ⎞
1 1
MC3 B (f) = ⎝ 2 0 ⎠ .
−1 3

Finalmente, si sobre R3 se considera la base B0 = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} se tiene que (−1, 3, −1)
son las coordenadas de f(1, 1) en B0 y (1, −3, 3) las de f(1, −1) y
⎛ ⎞
−1 1
MB0 B (f) = ⎝ 3 −3 ⎠ .
−1 3

3.3.1 Matriz de la suma de aplicaciones lineales y del producto por


escalares.
Dadas dos aplicaciones lineales f, g : V → V 0 se define su suma como la aplicación f + g : V → V 0
dada por (f + g)(u) = f(u) + g(u) para todo u ∈ V. Tenemos entonces el siguiente resultado.

Proposition 23 Dadas dos aplicaciones lineales f, g : V → V 0 se verifica:

(a) La aplicación f + g es lineal.

(b) Dadas las bases B = {u1 , ..., um } y B0 = {v1 , ..., vn } de V y V 0 , respectivamente, se tiene que

MB0 B (f + g) = MB0 B (f) + MB0 B (g).

Demostración. (a) Sean α, β ∈ K y u, v ∈ V. Entonces, por la linealidad de f y g

(f + g)(α · u + β · v) = f(α · u + β · v) + g(α · u + β · v)


= α · f(u) + β · f(v) + α · g(u) + β · g(v)
= α · (f(u) + g(u)) + β · (f(v) + g(v))
= α · (f + g)(u) + β · (f + g)(v),

57
Aplicaciones lineales

por lo que f + g es lineal.


(b) Supongamos que MB0 B (f + g) = (λij ), MB0 B (f) = (αij ) y MB0 B (g) = (β ij ). Entonces para
1≤j≤m
X n
(f + g)(uj ) = λij · vi ,
i=1

y por otro lado


X
n X
n X
n
(f + g)(uj ) = f(uj ) + g(uj ) = αij · vi + β ij · vi = (αij + β ij ) · vi ,
i=1 i=1 i=1

por lo que λij = αij + β ij , 1 ≤ i ≤ n y 1 ≤ j ≤ m, y la fórmula es cierta.


Dado un escalar α ∈ K y la aplicación lineal f : V → V 0 se define la aplicación producto como
α·f : V → V 0 dada por (α·f)(u) = α·f(u) para todo u ∈ V. Tenemos entonces el siguiente resultado.

Proposition 24 Dado un escalar λ ∈ K y la aplicación lineal f : V → V 0 se verifica:

(a) La aplicación λ · f es lineal.


(b) Dadas las bases B = {u1 , ..., um } y B0 = {v1 , ..., vn } de V y V 0 , respectivamente, se tiene que

MB0 B (λ · f) = λ · MB0 B (f).

Demostración. (a) Sean α, β ∈ K y u, v ∈ V. Entonces, por la linealidad de f

(λ · f)(α · u + β · v) = λ · f(α · u + β · v)
= λ · (α · f(u) + β · f(v))
= α · (λ · f(u)) + β · (λ · f(v))
= α · (λ · f)(u) + β · (λ · f)(v),

por lo que λ · f es lineal.


(b) Supongamos que MB0 B (λ · f + g) = (αij ) y MB0 B (f) = (β ij ). Entonces para 1 ≤ j ≤ m

X
n
(λ · f)(uj ) = αij · vi ,
i=1

y por otro lado


X
n X
n
(λ · f + g)(uj ) = λ · f(uj ) = λ · β ij · vi = (λβ ij ) · vi ,
i=1 i=1

por lo que αij = λβ ij , 1 ≤ i ≤ n y 1 ≤ j ≤ m, y la fórmula es cierta.

Example 22 Sean f, g : R3 → R3 las aplicaciones lineales dadas por

f(x, y, z) = (y + z, z + x, x + y),

y
g(x, y, z) = (x, x + y, x + y + z).

58
Aplicaciones lineales

Si denotamos por C = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} la base canónica de R3 , entonces
⎛ ⎞
0 1 1
MCC (f) = ⎝ 1 0 1 ⎠
1 1 0

y ⎛ ⎞
1 0 0
MCC (g) = ⎝ 1 1 0 ⎠ .
1 1 1
Se tiene entonces que

MCC (f + 2 · g) = MCC (f) + 2 · MCC (g)


⎛ ⎞ ⎛ ⎞ ⎛ ⎞
0 1 1 1 0 0 2 1 1
= ⎝ 1 0 1 ⎠ + 2 · ⎝ 1 1 0 ⎠ = ⎝ 3 2 1 ⎠.
1 1 0 1 1 1 3 3 2

3.3.2 Matriz de la composición de aplicaciones lineales.


Sean V, V 0 y V 00 tres espacios vectoriales con bases B, B0 y B00 , respectivamente. Sean las aplicaciones
lineales f : V → V 0 y g : V 0 → V 00 . Es sabido que la aplicación composición g ◦ f : V → V 00 se define
por (g ◦ f)(u) = g(f(u)) para todo u ∈ V. Se verifica entonces el siguiente resultado:

Proposition 25 Sean las aplicaciones lineales f : V → V 0 y g : V 0 → V 00 definidas arriba. Entonces:

(a) La aplicación g ◦ f es lineal.

(b) Si B = {u1 , ..., um } y B0 = {v1 , ..., vn } y B00 = {w1 , ..., wl } son bases de V, V 0 y V 00 , respecti-
vamente, entonces
MB00 B (g ◦ f) = MB00 B0 (g) · MB0 B (f).

Demostración. (a) Sean α, β ∈ K y u, v ∈ V. Entonces, por la linealidad de f y g

(g ◦ f)(α · u + β · v) = g(f(α · u + β · v))


= g(α · f(u) + β · f(v))
= α · (g(f(u))) + β · (g(f(v)))
= α · (g ◦ f)(u) + β · (g ◦ f)(v),

por lo que g ◦ f es lineal.


(b) Supongamos que MB0 B (λ · f + g) = (λij ), MB0 B (f) = (αij ) y MB0 B (g) = (β ij ). Entonces para
1≤j≤m
Xl
(g ◦ f)(uj ) = λij · wi ,
i=1

59
Aplicaciones lineales

y por otro lado


à n !
X X
n
(g ◦ f)(uj ) = g(f(uj )) = g αkj · vk = αkj · g(vk )
k=1 k=1
à n !
X
n X
l X
l X
= αkj · β ik · wi = β ik αkj wi ,
k=1 i=1 i=1 k=1
Pn
por lo que λij = k=1 β ik αkj , 1 ≤ i ≤ l y 1 ≤ j ≤ m, y la fórmula es cierta.

Example 23 Sean f : R2 → R3 y g : R3 → R3 aplicaciones lineales dadas por

f(x, y) = (x − y, x + y, 0),

y
g(x, y, z) = (x, x − y, x + y − z).
Si denotamos por C2 = {(1, 0), (0, 1} y C3 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} las bases canónicas de R2 y
R3 , respectivamente, obtenemos que
⎛ ⎞
1 −1
MC3 C2 (f) = ⎝ 1 1 ⎠
0 0
y ⎛ ⎞
1 0 0
MC3 C3 (g) = ⎝ 1 −1 0 ⎠ .
1 1 −1
Entonces

MC3 C2 (g ◦ f) = MC3 C3 (g) · MC3 C2 (f)


⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 0 0 1 −1 1 −1
= ⎝ 1 −1 0 ⎠ · ⎝ 1 1 ⎠ = ⎝ 0 −2 ⎠ .
1 1 −1 0 0 2 0

3.3.3 Matriz asociada a las aplicaciones lineales inversas.


Sean V y V 0 dos espacios vectoriales y sea f : V → V 0 un isomorfismo, esto es, una aplicación
lineal biyectiva. Por el hecho de ser biyectiva existe su aplicación inversa, esto es, una aplicación
f −1 : V 0 → V de manera que se verifica que:

f ◦ f −1 = i, f −1 ◦ f = i.

En estas condiciones, se verifica el siguiente resultado.

Proposition 26 Sean V y V 0 dos espacios vectoriales y sea f : V → V 0 un isomorfismo. Entonces:

(a) La aplicación f −1 : V 0 → V es lineal.

60
Aplicaciones lineales

(b) Si B es una base de V y B0 es una base de V 0 , entonces


MBB0 (f −1 ) = (MB0 B (f))−1 .
Demostración. (a) Sean α, β ∈ K y u, v ∈ V 0 y comprobemos que f −1 (α · u + β · v) =
α · f −1 (u) + β · f −1 (v). Para ello, démonos cuenta que
f(f −1 (α · u + β · v)) = α · u + β · v,
por un lado, y por otro, debido a la linealidad de f,
f(α · f −1 (u) + β · f −1 (v)) = α · f(f −1 (u)) + β · f(f −1 (v)) = α · u + β · v.
Dado que f es biyectiva, se tiene la igualdad pedida.
(b) Sea n = dim V y m = dim V 0 . Veamos en primer lugar que n = m. Para ello, usamos que por
la biyectividad de f se verifica que Im f = V 0 y Ker(f) = {0} en virtud de la Proposición 21. Por el
Teorema 22 se tiene que
n = dim V = dim Ker(f) + dim Im f = 0 + dim V 0 = m.
Por otro lado, es fácil verificar que
MBB (i) = MB0 B0 (i) = In .
De la Proposición 25 obtenemos que
In = MBB (i) = MBB0 (f −1 ) · MB0 B (f)
e
In = MB0 B0 (i) = MB0 B (f) · MBB0 (f −1 ),
por lo que MB0 B (f) es invertible y MBB0 (f −1 ) = (MB0 B (f))−1 .
Example 24 Calculemos la aplicación lineal inversa de f : R2 → R2 dada por
f(x, y) = (x + y, x − 2y).
Sea C = {(1, 0), (0, 1)} la base canónica de R2 y calculamos
µ ¶
1 1
MCC (f) = .
1 −2
Veamos que dicha matriz es invertible y calculemos su inversa
µ ¯ ¶ µ ¯ ¶ µ ¯ ¶
1 1 ¯¯ 1 0 1 1 ¯¯ 1 0 1 1 ¯ 1 0
¯ 1
¯ → F2 −F1 ¯ →− 1 F2 ¯
1 −2 0 1 0 −3 −1 1 3 0 1 3
− 13
µ ¯ 2 1 ¶
1 0 ¯¯ 3 3
→ F2 −F1 ,
0 1 ¯ 13 − 13
de donde µ ¶
2 1
−1 −1 3 3
MCC (f ) = (MCC (f)) = 1 .
3
− 13
Entonces
µ µ ¶¶t
−1 −1 x
f (x, y) = MCC (f ) ·
y
µµ 2 1 ¶ µ ¶¶t µ ¶
3 3
x 2 1 1 1
= 1 · = x + y, x − y .
3
− 13 y 3 3 3 3

61
Aplicaciones lineales

3.3.4 Matrices de cambio de base.


Sean V un espacio vectorial de dimensión n y B una base cualquiera de V. Es evidente que la matriz
de la aplicación identidad i respecto de la base B es la identidad, esto es, MBB (i) = In . Sin embargo
esto no ocurre cuando se consideran bases distintas, es decir, supongamos que B0 es otra base de V.
Entonces la matriz MB0 B (i) y MBB0 (i) reciben el nombre de matrices de cambio de base. Veamos con
un ejemplo cómo calcularlas.

Example 25 Sean las bases B = {(1, 1), (1, −1)} y B0 = {(1, 0), (2, 1)} de R2 . Entonces:

i(1, 1) = (1, 1) = (−1) (1, 0) + 1 (2, 1), i(1, −1) = (1, −1) = 3 (1, 0) + (−1) (2, 1),

de donde µ ¶
−1 3
MB0 B (i) = .
1 −1

Dado u ∈ V un vector cualquiera, si (α1 , . . . , αn )B y (β 1 , . . . , β n )B0 son sus coordenadas respecto


de las bases B y B0 , respectivamente, se tiene la relación:
⎛ ⎞ ⎛ ⎞
β1 α1
⎜ .. ⎟ ⎜ . ⎟
⎝ . ⎠ = MB0 B (i) · ⎝ .. ⎠ .
β n B0 αn B

Por otra parte, usando la Proposición 25 y la igualdad i ◦ i = i, tenemos que

In = MBB (i) = MBB (i ◦ i) = MBB0 (i) · MB0 B (i),

y
In = MB0 B0 (i) = MB0 B0 (i ◦ i) = MB0 B (i) · MBB0 (i),
de donde se desprende que las matrices de cambio de base son invertibles y

(MBB0 (i))−1 = MB0 B (i).

Example 26 Calculamos la matriz MBB0 (i) en el ejemplo 25. Para ello basta calcular la inversa de
la matriz obtenida en dicho ejemplo
µ ¯ ¶ µ ¯ ¶ µ ¯ ¶
−1 3 ¯¯ 1 0 −1 3 ¯¯ 1 0 1 −3 ¯¯ −1 0
→ F2 +F1 →(−1)F1
1 −1 ¯ 0 1 0 2 ¯ 1 1 1
F
0 1 ¯ 12 21
2 2
µ ¯ ¶
1 0 ¯¯ 12 32
→ F1 +3F2 ,
0 1 ¯ 21 12

por lo que µ ¶
1 3
MBB0 (i) = 2 2 .
1 1
2 2

62
Aplicaciones lineales

3.3.5 Matrices asociadas a una aplicación lineal en bases diferentes.


Sean V y V 0 dos espacios vectoriales y consideremos bases disntintas B1 y B2 de V y B10 y B20 de V 0 .
Dada la aplicación lineal f : V → V 0 , sabemos que las matrices de f respecto de bases distintas son
distintas, esto es, las matrices MB10 B1 (f) y MB20 B2 (f) no son iguales. Ahora bien, existe una relación
entre ambas que viene dada por las matrices de cambio de base. Consideremos el siguiente esquema:

f
VB1 −→ VB0 0
1
i ↓ ↑ i
VB2 −→ VB0 0
2
f

donde por VB1 queremos indicar la base que tomamos en V para hacer la matriz de la aplicación
lineal. Entonces, teniendo en cuenta que i ◦ f ◦ i = f, se sigue que

MB10 B1 (f) = MB10 B1 (i ◦ f ◦ i) = MB10 B20 (i) · MB20 B2 (f) · MB2 B1 (i),

es decir, podemos pasar de una matriz a otra mediante las matrices de cambio de base.

Example 27 Calculamos una aplicación lineal f : R3 → R3 cuyo núcleo es Ker(f) = {(x, y, z) ∈


R3 : x + y + z = 0} y f(1, 1, 1) = (2, 2, 2). Para ello obtenemos una base del núcleo a partir de sus
ecuaciones paramétricas ⎧
⎨ x = −λ − μ,
y = λ, λ, μ ∈ R,

z = μ,
por lo que una base del núcleo es BKer(f ) = {(−1, 1, 0), (−1, 0, 1)}. Veamos a continuación que
B = {(−1, 1, 0), (−1, 0, 1), (1, 1, 1)} es una base de R3 calculando el rango de la matriz
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
−1 1 0 −1 1 0 −1 1 0
⎝ −1 0 1 ⎠ →F2 −F1 ⎝ 0 −1 1 ⎠ →F3 +2F2 ⎝ 0 −1 1 ⎠ ,
F3 +F1
1 1 1 0 2 1 0 0 3

que como vemos es 3. Dado que

f(−1, 1, 0) = (0, 0, 0),


f(−1, 0, 1) = (0, 0, 0),
f(1, 1, 1) = (2, 2, 2),

y si denotamos por C = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} la base canónica de R3 , se tiene que
⎛ ⎞
0 0 2
MCB (f) = ⎝ 0 0 2 ⎠.
0 0 2

Entonces
MCC (f) = MCB (f) · MBC (i).

63
Aplicaciones lineales

Como ⎛ ⎞−1
−1 −1 1
MBC (i) = (MBC (i))−1 =⎝ 1 0 1 ⎠ ,
0 1 1
calculamos la inversa
⎛ ¯ ⎞ ⎛ ¯ ⎞ ⎛ ¯ ⎞
−1 −1 1 ¯¯ 1 0 0 −1 −1 1 ¯¯ 1 0 0 −1 −1 1 ¯¯ 1 0 0
⎝ 1 0 1 ¯¯ 0 1 0 ⎠ → F2 +F1
⎝ 0 −1 2 ¯ 1 1 0 ⎠ →F3 +F2 ⎝
¯ 0 −1 2 ¯¯ 1 1 0 ⎠
0 1 1 ¯ 0 0 1 0 1 1 ¯ 0 0 1 0 0 3 ¯ 1 1 1
⎛ ¯ ⎞ ⎛ ¯ ⎞
1 1 −1 ¯¯ −1 0 0 1 1 0 ¯¯ − 23 1
3
1
3
→ (−1)F1 ⎝ 0 1 −2 ¯¯ −1 −1 0 ⎠ → F1 +F3 ⎝ 0 1 0 ¯ −1
¯ 3 − 13 2
3

(−1)F2
1
0 0 1 ¯ 13 1
3
1
3
F2 +2F3
0 0 1 ¯ 1 3
1
3
1
3
F3
3
⎛ ¯ ⎞
1 0 0 ¯¯ − 13 32 − 13
→ F1 −F2 ⎝ 0 1 0 ¯¯ − 13 − 13 32 ⎠ ,
0 0 1 ¯ 13 1
3
1
3

de donde ⎛ ⎞
− 13 32 − 13
MBC (i) = ⎝ − 13 − 13 32 ⎠
1 1 1
3 3 3
y ⎛ ⎞ ⎛ 1 2 ⎞ ⎛ ⎞
0 0 2 − 3 3 − 13 2
3
2
3
2
3
MCC (f) = ⎝ 0 0 2 ⎠ · ⎝ − 13 − 13 32 ⎠ = ⎝ 2
3
2
3
2
3
⎠.
1 1 1 2 2 2
0 0 2 3 3 3 3 3 3
Entonces la aplicación lineal es
⎛ ⎛
⎞⎞t
x
f(x, y, z) = ⎝MCC (f) · ⎝ y ⎠⎠
z
⎛⎛ 2 2 2 ⎞ ⎛ ⎞⎞t
3 3 3
x
= ⎝⎝ 23 32 23 ⎠ · ⎝ y ⎠⎠
2 2 2
3 3 3
z
2
= (x + y + z, x + y + z, x + y + z).
3

3.4 Ejercicios
1. Determinar cuáles de las siguientes aplicaciones son lineales:

(a) f : R2 → R2 dada por f(x, y) = (x − y, 2x − y 2 ).


(b) f : R4 → R2 dada por f(x, y, z, u) = (x − y, u + z, z, 2x − y).
(c) f : R2 → R3 dada por f(x, y) = (x − y, x − 2y, 3y).
(d) f : R3 → R3 dada por f(x, y, z) = (x − z + y, 2x − y − 3z, z + y).

64
Aplicaciones lineales

2. Sea V un espacio vectorial sobre un cuerpo K y sean f y g dos aplicaciones lineales de V en V


de manera que para una base B = {u1 , u2 } se tiene que:

f(u1 ) = u2 f(u2 ) = u1 g(u1 ) = −u1 g(u2 ) = u2

Demuestrar que las aplicaciones f ◦ g y g ◦ f son distintas.

3. Sea V un espacio vectorial sobre un cuerpo K y sea f : V → V una aplicacion lineal. Se define
el conjunto invariante de f, denotado Inv(f), como el conjunto de vectores los vectores v que
permanecen invariantes por la aplicación, es decir,

Inv(f) = {v ∈ V : f(v) = v} .

Demuestra que el conjunto invariante de una aplicación lineal es un subespacio vectorial de V.

4. Dada una aplicación lineal f : V → V demostrar que f 2 = 0 (es decir, f ◦ f es la aplicación


nula) si y sólo si Im(f) ⊆ Ker(f).

5. Sea B1 = {u1 , u2 , u3 , u4 } una base del espacio vectorial V y sea:

B2 = {u1 , u1 + u2 , u1 + u2 + u3 , u1 + u2 + u3 + u4 }.

(a) Demostrar que B2 es una base de V.


(b) Encontrar la matriz de cambio de base.
(c) Hallar las coordenadas respecto de B1 de un vector cuyas coordenadas con respecto a la
base B2 son (1, −1, 0, 1).

6. Sea P4 [x] el espacio vectorial de los polinomios con coeficientes reales de grado menor o igual
que cuatro. Dadas las siguientes bases:

B1 = {x, x2 + 1, 2x4 + x3 , x3 − x2 + x, x2 + x}
B2 = {2x4 + 1, x3 − 1, x3 + 2x, x2 , x3 − x2 }

(a) Halla la matriz de cambio de base de B1 a B2 .


(b) Halla las coordenadas respecto de dichas bases del polinomio p(x) = x4 + x3 + x2 + x + 1.

7. Consideremos la aplicación D : P4 [x] −→ P3 [x] de forma que si p(x) = a4 x4 + a3 x3 + a2 x2 +


a1 x + a0 ∈ P4 [x], se tiene que:

D[p(x)] = 4a4 x3 + 3a3 x2 + 2a2 x + a1

(a) Probar que D es una aplicación lineal.


(b) Encontrar la matriz de D asociada a las bases canónicas de P4 [x] y P3 [x].

65
Aplicaciones lineales

(c) Si sobre P4 [x] se considera la base

B = {(1 + x)4 , (1 + x)3 x, (1 + x)2 x2 , (1 + x)x3 , x4 }

obtener la matriz de D en esta nueva base.

8. Dado R4 y el subespacio vectorial W cuyas ecuaciones respecto de la base B = {u1 , u2 , u3 , u4 }


son:
x1 + x2 − x3 = 0 x1 + x2 + x3 + x4 = 0
Se elige una nueva base B0 = {u1 − u2 , u2 − u3 , u3 − u4 , u4 }.

(a) Calcular las ecuaciones de W respecto de esta nueva base.


(b) Obtener las coordenadas de v = u1 − u2 respecto de B0 . ¿Pertenece este vector a W?

9. En R3 se considera la base B = {e1 , e2 , e3 } y la aplicación lineal f : R3 → R3 definida respecto


a esta base por la relación:

f(x1 e1 + x2 e2 + x3 e3 ) = (x2 + x3 )e1 + (x1 + x3 )e2 + (x2 − x1 )e3

(a) Calcular la matriz de f respecto a la base B.


(b) Encontrar los vectores invariantes de f (ver ejercicio 3.).
(c) Calcular el núcleo y la imagen de f.
(d) Determinar una base de Ker(f) y la ampliar a una base de R3 .
(e) Hallar la matriz de f respecto a esta nueva base.

10. Sea g : R3 → R3 una aplicación lineal dada por:

g(−1, 1, 3) = (6, −4, 16) g(−2, 1, 1) = (−2, −5, 1) g(3, 2, −1) = (1, 14, −12)

Hallar la matriz de g respecto a la base canónica de R3 , las ecuaciones del núcleo y la imagen
y una base de ambos subespacios.

11. Sea f : R4 → R3 una aplicación lineal definida por:

f(1, 1, 1, 1) = (0, 0, 1) f(1, 0, 1, 0) = (1, 1, −1)


f(1, 1, 1, 0) = (0, 0, −1) f(−1, −2, 0, 0) = (1, 1, 1)

(a) Calcular la matriz de f respecto a las bases canónicas.


(b) Calcular la dimensión y ecuaciones de Ker(f) e Im(f).
(c) Obtener la matriz de f respecto de la base canónica de R4 y la base de R3 ,

B = {(1, 1, 1), (1, 0, 1), (1, 1, 0)}

así como las ecuaciones de la imagen de f en esta última base.

66
Aplicaciones lineales

(d) Encontrar la matriz de f respecto de las bases

B1 = {(1, 1, 1, 0), (1, 1, 0, 0), (1, 0, 0, 0), (1, 1, 1, 1)}

de R4 y
B2 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}
de R3 así como las ecuaciones del núcleo y la imagen de f en estas bases.

12. Sea f : R4 → R2 la aplicación cuya matriz asociada en las bases canónicas es:
µ ¶
1 0 0 0
A=
1 −1 1 2

(a) Calcular la expresión analítica de f en las bases canónicas.


(b) Obtener el núcleo, la imagen y el espacio invariante de f.
(c) Calcular la matriz de f respecto a las bases

B = {(1, 1, 1, 0), (1, 1, 0, 0), (1, 0, 0, 0), (1, 1, 1, 1)}

y
B0 = {(1, 1), (0, 2)}.

13. Sean g y f las aplicaciones lineales de los ejercicios 10 y 11. Calcula la matriz de la aplicación
compuesta g ◦ f respecto de las bases canónicas de R4 y R3 . Calcula además el rango, el núcleo,
la imagen y el espacio invariante de dicha aplicación.

14. Dada f : R3 → R3 por f(x, y, z) = (x + y, y, 0), se pide:

(a) Demostrar que f es lineal.


(b) Hallar la dimensión de los subespacios Ker(f) e Im(f) así como bases de los mismos.
(c) Representa gráficamente los dos subespacios anteriores.

15. Calcula la expresión analítica de una aplicación lineal f : R3 −→ R3 sabiendo que


© ª
Ker(f) = (x, y, z) ∈ R3 : x + y + z = 0, x − y + 2z = 0

y f(1, 0, 0) = (−1, 2, 0), f(0, 1, 0) = (1, 1, 0).

16. Contesta de forma razonada si son verdaderas o falsas las siguientes afirmaciones,

(a) No hay aplicaciones inyectivas de R3 en R2 .


(b) Las relaciones f(1, 1, 1) = (1, 2), f(1, −1, 1) = (−1, −2) y f(0, 0, 2) = (3, 6) definen una
aplicación lineal sobreyectiva de R3 sobre R2 .
(c) Todas las aplicaciones lineales de R4 en R son sobreyectivas.
(d) Existe una aplicación lineal de R3 en R5 tal que su núcleo es la recta U = L[(1, 0, 1)] y su
imagen es la recta V = L[(1, −1, 1, 2, 4)].

67
Aplicaciones lineales

(e) Si f : V → V es una aplicación lineal y v ∈ V de forma que f(v) = f(−v), entonces v = 0.


(f) Si f : V → V es una aplicación lineal tal que dim Ker(f) > 0, entonces f −1 es una
aplicación.
(g) Sea una aplicación lineal f : V → W. Si f es suprayectiva, entonces dim(V) ≥ dim(W).
(h) Si f : V → V, entonces V = Ker(f) ⊕ Im(f).
(i) Las matrices ⎛ ⎞ ⎛ ⎞
1 −1 1 5 0 3
⎝ 2 3 7 ⎠ ⎝ −2 1 2 ⎠
2 4 0 1 0 −3
representan la misma aplicación lineal respecto de bases diferentes.

17. Halla los valores de parámetro real a para los cuales R3 es suma directa del núcleo y la imagen
de f : R3 → R3 definida por la matriz (respecto de las base usual de R3 )
⎛ ⎞
1 a 1
A = ⎝ −1 a −1 ⎠ .
1 2 −1

18. Calcula el valor de a para el cual la intersección del espacio U = L[(a, 1, 1), (0, 1, −1)] y el
núcleo de la aplicación f : R3 → R2 dada por f(x, y, z) = (x − y − z, y + az) es distinta del
subespacio {0}.

19. Halla para qué valor de a el vector (1, 1, a) está en la imagen de la aplicación lineal f : R2 → R3
definida mediante las relaciones f(1, 2) = (1, −1, 1) y f(2, 1) = (0, 1, 1).

20. Calcula la dimensión del núcleo y la imagen de la aplicación f(x, y, z) = (ax − y − z, bx − z) en


función de a y b.

68
Capítulo 4

Diagonalización de matrices cuadradas

Sumario. Valores y vectores propios. Polinomio característico. Bases de vectores


propios. Caracterizción de matrices diagonalizables. Aplicaciones al cálculo de la
potencia de una matriz. Aplicaciones.

Sea A ∈ Mn×n (R), n ∈ N, una matriz cuadrada. A veces es necesario obtener la potencia Ak
para k ∈ N. Veámoslo con el siguiente ejemplo que proviene de la electrónica (ver [?]). Para fijar
ideas, consideremos el siguiente ejemplo.

Este dispositivo está formado por dos elementos. El primero de ellos, marcado con una S, es un
elemento que suma o resta datos, que a su vez vendrán modulados por números reales. El denotado
por una D es un aparato que produce un retardo de una unidad temporal en la sucesión. La figura
representa el tipo más sencillo de retroalimentación de una señal. Los datos de entrada vienen dados
por la sucesión xk y los de salida por
yk+1 = rk . (4.1)
En el proceso, los datos intermedios rk vienen dados por la expresión

rk = xk − ayk , (4.2)

donde a es un número real. Combinando (4.1) y (4.2) obtenemos la ecuación en diferencias de orden
uno
yk+1 + ayk = xk .

69
Diagonalización de matrices cuadradas

Si complicamos el dispositivo, como se muestra en la figura,

se obtiene una ecuación de orden dos. Aquí

yk+1 = vk ,

vk+1 = rk ,
rk = xk + byk − avk ,
de donde se obtiene la ecuación
yk+2 + ayk+1 − byk = xk .
Por ejemplo supongamos la ecuación
½
yk+2 + yk+1 − 2yk = 0;
y0 = 0, y1 = 1.

Introduciendo la variable zk = yk+1 la ecuación anterior se reescribe como


µ ¶ µ ¶ µ ¶
yk+1 0 1 yk
= · .
zk+1 2 −1 zk

Entonces
µ ¶ µ ¶ µ ¶ µ ¶ µ ¶2 µ ¶
yk+1 0 1 0 1 yk−1 0 1 yk−1
= · · = · ,
zk+1 2 −1 2 −1 zk−1 2 −1 zk−1

e inductivamente
µ ¶ µ ¶k+1 µ ¶ µ ¶k+1 µ ¶
yk+1 0 1 y0 0 1 0
= · = · ,
zk+1 2 −1 z0 2 −1 1

dado que z0 = y1 = 1. Por lo tanto, para obtener la solución yk hemos de obtener la potencia de
una matriz. Para ello, vamos a intentar escribir la matriz en cuestión de forma “parecida” a una
matriz diagonal ya que si A = (aij ) es diagonal, entonces Ak = (akij ). Más precisamente, la matriz

70
Diagonalización de matrices cuadradas

A será diagonalizable si existe una matriz invertible P y una matriz diagonal D de manera que
A = P · D · P−1 . Entonces
Ak = P · Dk · P−1
para todo k ≥ 0.
Vamos a ver en este tema cuándo la matriz cuadrada A es diagonalizable. Para ello, hemos de
darnos cuenta en primer lugar que podemos construir una aplicación lineal fA : Rn → Rn de manera
que para cada (x1 , ..., xn ) ∈ Rn
⎛ ⎛ ⎞⎞t
x1
⎜ ⎜ x2 ⎟⎟
fA (x1 , ..., xn ) = ⎜
⎝A · ⎜ ⎟⎟
⎝ ... ⎠⎠ .
xn
Es inmediato ver que si C es la base canónica de Rn , entonces MCC (fA ) = A. Hablaremos entonces del
núcleo de la matriz A como del núcleo de la aplicación lineal asociada fA , esto es, Ker(A) = Ker(fA ).

4.1 Valores y vectores propios de una matriz.


Empecemos estudiando en primer lugar qué propiedades tienen las matrices diagonales. Sea D =
(dij ) ∈ Mn×n (R) diagonal y sea como siempre C = {(1, 0, 0, ..., 0), (0, 1, 0, ..., 0), ..., (0, ..., 0, 1)} la
base canónica de Rn . Entonces para todo 1 ≤ i ≤ n,
⎛ ⎛ ⎞⎞t
0
⎜ ⎜ ... ⎟⎟
i ⎜ ⎜ ⎟⎟ i
fD (0, ...0, 1, 0, ..., 0) = ⎜ ⎜ ⎟⎟
⎜D · ⎜ 1 ⎟⎟ = dii · (0, ...0, 1, 0, ..., 0).
⎝ ⎝ ... ⎠⎠
0
Además, la matriz de fD respecto a la base canónica es diagonal. Esta propiedad motiva la siguiente
definición.
Definition 10 Sea A ∈ Mn×n (R). Se dice que λ ∈ R es un valor propio de la matriz A si existe un
vector no nulo x ∈ Rn de forma que
A · xt = λ · xt .
Si λ ∈ R es un valor propio de A y x ∈ Rn es un vector verificando la relación anterior, se dice
entonces que x es un vector propio de A asociado al valor propio λ.
Démonos cuenta que si
A · xt = λ · xt
entonces
A · xt − λ · In · xt = 0
o equivalentemente
(A − λ · In ) · xt = 0,
de donde se deduce que el conjunto de todos los vectores propios asociados a λ es el subespacio
vectorial Ker(A−λ·In ) y recibe el nombre de subespacio propio asociado a λ. Veamos una importante
propiedad de los subespacios propios.

71
Diagonalización de matrices cuadradas

Proposition 27 Sean λi ∈ R, 1 ≤ i ≤ k, valores propios distintos de una matriz cuadrada A.


Entonces for i ≥ 2,
{0} = Ker(A − λi · In ) ∩ (Ker(A − λ1 · In ) + ... + Ker(A − λi−1 · In ))
= Ker(A − λi · In ) ∩ (Ker(A − λ1 · In ) ⊕ ... ⊕ Ker(A − λi−1 · In )).
En particular, Ker(A − λ1 · In ) ⊕ ... ⊕ Ker(A − λi · In ).
Demostración. Si i = 2, y x ∈ Ker(A − λ1 · In ) ∩ Ker(A − λ2 · In ), se tiene que
A · xt = λ1 · xt = λ2 · xt ,
y como λ1 6= λ2 , se deduce que x = 0, con lo que Ker(A − λ1 · In ) ∩ Ker(A − λ2 · In ) = {0}, por lo
que la suma es directa, esto es Ker(A − λ1 · In ) ⊕ Ker(A − λ2 · In ).
Suponiendo ahora que Ker(A − λ1 · In ) ⊕ ... ⊕ Ker(A − λi−1 · In ), veamos que su intersección con
Ker(A − λi · In ) es el vector nulo. Para ello, sea x ∈ Ker(A − λi · In ) ∩ (Ker(A − λ1 · In ) ⊕ ... ⊕
Ker(A − λi−1 · In )). Entonces x = x1 + ... + xi−1 , xj ∈ Ker(A − λj · In ), j = 1, ..., i − 1. Así
A · xt = λi · xt = λi · (xt1 + ... + xti−1 ) = λi · xt1 + ... + λi · xti−1 ,
y por otro lado
A · xt = A · (xt1 + ... + xti−1 ) = A · xt1 + ... + A · xti−1 = λ1 · xt1 + ... + λi−1 · xti−1 .
Igualando las expresiones anteriores y simplificando
(λi − λ1 ) · xt1 + ... + (λi − λi−1 ) · xti−1 = 0,
y como los vectores deben ser LI en caso de ser no nulos y λ1 ,...,λi son distintos, debe verificarse que
xj = 0 si j = 1, ..., i − 1, y por tanto x = 0.
El hecho de que la suma sea directa hace que si Bλi son bases de Ker(A − λi · In ), 1 ≤ i ≤ k,
entonces ∪ki=1 Bλi es una base de Ker(A − λ1 · In ) ⊕ ... ⊕ Ker(A − λk · In ). Recordemos entonces que
X
k
dim(Ker(A − λ1 · In ) ⊕ ... ⊕ Ker(A − λk · In )) = dim Ker(A − λi · In ).
i=1

Tenemos entonces el siguiente resultado que es una primera caracterización de las matrices diagona-
lizables.
Theorem 28 La P matriz A es diagonalizable si y solo si λ1 , ..., λk ∈ R son todos los valores propios
de la matriz A y ki=1 dim Ker(A − λi · In ) = n. Más aún, existe una base de vectores propios B de
manera que:
(a) La matriz asociada a fA en la base B es diagonal y de la forma
⎛ ⎞
λ1 ... 0 ... 0 ... 0
⎜ ... ... ... ... ... ... ... ⎟
⎜ ⎟
⎜ 0 ... λ1 ... 0 ... 0 ⎟
⎜ ⎟
MBB (fA ) = D = ⎜⎜ ... ... ... ... ... ... ... ⎟

⎜ 0 ... 0 ... λk ... 0 ⎟
⎜ ⎟
⎝ ... ... ... ... ... ... ... ⎠
0 ... 0 ... 0 ... λk

72
Diagonalización de matrices cuadradas

(b) La matriz P es la matriz de cambio de base MBC (i).

Demostración. Basta usar la Proposición 27 y las matrices asociadas a la aplicación lineal fA .


Hasta ahora no hemos puesto ningún ejemplo. La razón para esto es la siguiente: no sabemos
cómo obtener los valores propios de una matriz cuadrada. Vamos a solucionar este problema en la
siguiente sección.

4.2 El polinomio característico


El Teorema 28 nos dice que si tenemos una base de vectores propio la matriz A es diagonalizable.
Sin embargo, no nos dice nada de cómo obtener algo clave en el resultado anterior como son los
valores propios de la matriz. Una vez conocidos éstos podemos calcular los subespacios propios y
sus dimensiones para posteriormente obtener bases de los mismos. Vamos a ver a continuación cómo
calcular de una forma sencilla dichos valores propios.
Dada la matriz cuadrada A ∈ Mn×n (R), para que λ ∈ R sea un valor propio debe existir x ∈ Rn
no nulo de forma que:
A · xt = λ · xt ⇔ (A − λ · In ) · xt = 0.
Relación que en la terminología de los sistemas de ecuaciones lineales indica que el sistema homogéneo
asociado a la matriz A − λ · In tiene una solución diferente de la nula y por ello es compatible
indeterminado. Esto es equivalente, por el Teorema de Rouché-Frobenius, a que el rango de la
matriz A − λ · In sea estrictamente menor que n, lo que a su vez equivale a que su determinante sea
nulo. En resumen tenemos la siguiente propiedad:

Proposition 29 λ ∈ R es un valor propio de A si y sólo si |A − λ · In | = 0.

Este resultado motiva la definición siguiente.

Definition 11 Dada A ∈ Mn×n (R), se llama polinomio característico de A al polinomio de grado


n y coeficientes reales definido por
p(x) = |A − x · In |.

El conjunto de las raíces del polinomio característico de A, que se denota por σ(A), se denomina
espectro de la matriz A. Evidentemente λ ∈ R será un valor propio de A si y solamente si λ ∈ σ(A).
Por otra parte, el Teorema Fundamental del Algebra asegura que σ(A) 6= ∅, aunque puede que el
espectro contenga números complejos, e incluso que ninguno de sus elementos sea un número real
como ocurre con la matriz µ ¶
0 −1
A= .
1 0
Su polinomio característico es
¯ ¯
¯ −x −1 ¯
p(x) = ¯¯ ¯ = x2 + 1 = 0,
¯
1 −x

cuyo espectro es σ(A) = {i, −i}, y por tanto dicha matriz no es diagonalizable en R.

73
Diagonalización de matrices cuadradas

Dado un valor propio real λ ∈ σ(A), sea Bλ una base del subespacio propio Ker(A − λ · In ) y
extendámosla a una base B de Rn . Entonces la matriz asociada
µ ¶
λ · Ik M1
MBB (fA ) = ,
0 M2

donde k = dim Ker(A − λ · In ), 0 es la matriz nula de tamaño (n − k) × k y M1 y M2 son matrices


reales de tamaños k × (n − k) y (n − k) × (n − k), respectivamente. Entonces, si denotamos por C
la base canónica de Rn , el polinomio característico de A es

p(x) = |A − x · In | = |MCC (fA ) − x · In |


= |MCB (i) · MBB (fA ) · MBC (i) − x · MCB (i) · MBC (i)|
= |MCB (i) · (MBB (fA ) · MBC (i) − x · In ) · (MCB (i))−1 |
= |MCB (i)||MBB (fA ) − x · In ||(MCB (i))−1 |
= |MBB (fA ) − x · In | = (x − λ)k q(x),

donde q(x) = |M2 − x · In−k |. Denotemos por m(λ) la multiplicidad de λ, es decir, el polinomio
característico se escribe como p(x) = (x − λ)m(λ) h(x), donde h(x) es un polinomio tal que h(λ) 6= 0.
Entonces se obtiene que 1 ≤ k = dim Ker(A − λ · In ) ≤ m(λ). Además si σ(A) = {λ1 , . . . , λr }:

r ≤ dim (Ker(A − λ1 · In ) ⊕ · · · ⊕ Ker(A − λr · In ))


= dim Ker(A − λ1 · In ) + · · · + dim Ker(A − λr · In ) ≤ n.

Si A ∈ Mn×n (R) es diagonalizable, entonces σ(A) ⊂ R. El recíproco de la afirmación anterior es


falso como nos muestra el ejemplo siguiente. Consideremos la matriz
µ ¶
1 1
A=
0 1

cuyo polinomio característico es p(λ) = (λ − 1)2 . Por tanto σ(A) = {1} ⊂ R, pero A no es
diagonalizable ya que
Ker(A − I2 ) = {(x, y) ∈ R2 : y = 0},
que tiene dimensión 1. Entonces no podemos encontrar una base de vectores propios y por el Teorema
28 la matriz no es diagonalizable.
Las matrices diagonalizables quedan totalmente caracterizadas por el resultado siguiente que
aumenta la información dada por el Teorema 28 y cuya demostración hemos obtenido anteriormente.

Theorem 30 Sea A ∈ Mn×n (R). La matriz A es diagonalizable si y solamente si todas las raíces
del polinomio característico son reales y además la dimensión del subespacio de los vectores propios
asociados a cada valor propio coincide con la multiplicidad de dicho valor propio, es decir,

dim Ker(A − λ · In ) = m(λ), ∀ λ ∈ σ(A).

Sea la matriz ⎛ ⎞
5 0 −4
A=⎝ 0 3 0 ⎠.
2 0 −1

74
Diagonalización de matrices cuadradas

Su polinomio característico es p(x) = |A − x · I3 | = (3 − x)(x2 − 4x + 3), y sus valores propios λ1 = 1,


λ2 = 3 con multiplicidades m(λ1 ) = 1 y m(λ2 ) = 2. Calculamos a continuación los subespacios de
vectores propios:
© ª
Ker(A − In ) = (x, y, z) ∈ R3 : x − z = 0, y = 0 ,
© ª
Ker(A − 3 · In ) = (x, y, z) ∈ R3 : x − 2z = 0 ,

de donde se deduce que dim Ker(A − In ) = 1 y dim Ker(A − 3 · In ) = 2. La matriz es por tanto
diagonalizable con matriz diagonal ⎛ ⎞
1 0 0
D = ⎝ 0 3 0 ⎠.
0 0 3
Por otra parte obtenemos que {(1, 0, 1)} y {(2, 0, 1), (0, 1, 0)} son bases de Ker(A−In ) y Ker(A−3·In )
respectivamente por lo que ⎛ ⎞
1 2 0
P= ⎝ 0 0 1 ⎠
1 1 0
será la matriz de paso. Calculamos su inversa
⎛ ¯ ⎞ ⎛ ¯ ⎞ ⎛ ¯ ⎞
1 2 0 ¯¯ 1 0 0 1 2 0 ¯ 1
¯ 0 0 1 2 0 ¯¯ 1 0 0
⎝ 0 0 1 ¯ 0 1 0 ⎠ → F3 −F1 ⎝ 0 0 1 ¯ 0 1 0 ⎠ →F2 ×F3 ⎝ 0 −1 0 ¯¯ −1 0 1 ⎠
¯ ¯
1 1 0 ¯ 0 0 1 0 −1 0 ¯ −1 0 1 0 0 1 ¯ 0 1 0
⎛ ¯ ⎞ ⎛ ¯ ⎞
1 0 0 ¯¯ −1 0 2 1 0 0 ¯¯ −1 0 2
→ F1 +2F2 ⎝ 0 −1 0 ¯¯ −1 0 1 ⎠ →(−1)F2 ⎝ 0 1 0 ¯¯ 1 0 −1 ⎠ ,
0 0 1 ¯ 0 1 0 0 0 1 ¯ 0 1 0

de donde ⎛ ⎞
−1 0 2
P−1 = ⎝ 1 0 −1 ⎠
0 1 0
y así ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 2 0 1 0 0 −1 0 2
A = ⎝ 0 0 1 ⎠ · ⎝ 0 3 0 ⎠ · ⎝ 1 0 −1 ⎠ .
1 1 0 0 0 3 0 1 0
Cabe hacer notar que las matrices de paso no son únicas: se tendrán diferentes matrices para
cada familia de bases de los subespacios de vectores propios.

4.3 Aplicaciones
4.3.1 Circuitos digitales
Resolvamos ahora la ecuación en diferencias
½
yk+2 + yk+1 − 2yk = 0;
y0 = 0, y1 = 1,

75
Diagonalización de matrices cuadradas

introducida al comienzo del tema y que, con la variable zk = yk+1 se reescribe como
µ ¶ µ ¶ µ ¶
yk+1 0 1 yk
= · ,
zk+1 2 −1 zk

por lo que
µ ¶ µ ¶k+1 µ ¶ µ ¶k+1 µ ¶
yk+1 0 1 y0 0 1 0
= · = · .
zk+1 2 −1 z0 2 −1 1
Calculemos los valores propios de la matriz
µ ¶
0 1
A= ,
2 −1

calculando previamente los valores propios


¯ ¯
¯ −x 1 ¯
p(x) = ¯¯ ¯ = x2 + x − 2 = 0,
¯
2 −1 − x

de donde √
−1 ±
1+8 1±3
x= = ,
2 2
por lo que los valores propios son −1 y 2. Los subespacios propios son

Ker(A + I2 ) = {(x, y) ∈ R2 : x = −y},

Ker(A − 2 · I2 ) = {(x, y) ∈ R2 : 2x = y},


y es fácil ver que B = {(1, −1), (1, 2)} es una base de vectores propios. La matriz diagonal es
µ ¶
−1 0
D=
0 2

y las matrices de cambio de base son µ ¶


1 1
P=
−1 2
y su inversa que calculamos a continuación.
µ ¯ ¶ µ ¯ ¶ µ ¯ ¶
1 1 ¯¯ 1 0 1 1 ¯¯ 1 0 1 1 ¯ 1 0
¯ 1 1
→ F2 +F1 → 1 F2
−1 2 ¯ 0 1 0 3 ¯ 1 1 3 0 1 ¯
3 3
µ ¯ 2 ¶
1 0 ¯¯ 3 − 13
→ F1 −F2 ,
0 1 ¯ 13 31

con lo que µ ¶
2
−1 3
− 13
P = 1 1 .
3 3

76
Diagonalización de matrices cuadradas

Así
µ ¶ µ ¶k+1 µ ¶
yk+1 0 1 0
= ·
zk+1 2 −1 1
µ ¶ µ ¶k+1 µ 2 ¶ µ ¶
1 1 −1 0 3
− 13 0
= · · 1 1 ·
1 2 0 2 1
µ ¶ µ k+1
¶3 µ 3 1 ¶
1 1 (−1) 0 −3
= · k+1 · 1
1 2 0 2 3
µ ¶
1 (−1)k+2 + 2k+1
= · ,
3 (−1)k+2 + 2k+2

por lo que yk+1 = 13 ((−1)k+2 + 2k+1 ) y así la sucesión que buscamos es

(−1)k+1 + 2k
yk = .
3

4.3.2 Procesos de Markov


Estudiamos la evolución de sistemas aislados (sin interacción con el exterior), cuya composición
total no varía y de forma que su estado en un momento dado depende linealmente del estado en
el momento inmediatamente anterior. Se trata de los llamados procesos de Markov. El ejemplo
siguiente es ilustrativo de una situación de este tipo.
Supongamos que en una cierta ciudad existen dos compañías eléctricas X e Y encargadas del
suministro. Cada año uno de cada diez usuarios de X decide cambiarse a Y y viceversa, dos de
cada diez abonados a Y se pasan a B. Si denotamos por x0 e y0 la cantidad de clientes que X e Y
respectivamente tienen este año y suponemos que la ciudad no crece, al año que viene se tendrá:
µ ¶ µ ¶µ ¶
x1 = 0.9 x0 + 0.2 y0 x1 0.9 0.2 x0
⇔ = ,
y1 = 0.1 x0 + 0.8 y0 y1 0.1 0.8 y0
siendo x1 e y1 los clientes de X e Y al cabo de un año. Cuando pasen k años se tendrá (siempre
suponiendo que el número de habitantes de la ciudad se mantiene constante):
½ µ ¶ µ ¶µ ¶ µ ¶k µ ¶
xk = 0.9 xk−1 + 0.2 yk−1 xk 0.9 0.2 xk−1 0.9 0.2 x0
⇔ = = .
yk = 0.1 xk−1 + 0.8 yk−1 yk 0.1 0.8 yk−1 0.1 0.8 y0
Calculando los valores propios de la matriz
µ ¶
0.9 0.2
A=
0.1 0.8
y estudiando sus subespacios de vectores propios se obtiene que es diagonalizable con lo que la
expresión anterior puede reescribirse como
µ ¶ µ ¶µ ¶µ ¶−1 µ ¶
xk 2 1 1 0 2 1 x0
=
yk 1 −1 0 0.7k 1 −1 y0
µ ¶µ ¶µ ¶µ ¶
2 1 1 0 1/3 1/3 x0
= .
1 −1 0 0.7k 1/3 −2/3 y0

77
Diagonalización de matrices cuadradas

Esta fórmula ofrece una forma sencilla de calcular los clientes que tendrá cada una de las compañías
al cabo de k años. Además cuando k sea grande 0.7k se hará cada vez más pequeño por lo que cuando
pase mucho tiempo (k → ∞) se tendrá la relación
µ ¶ µ ¶µ ¶µ ¶µ ¶
x∞ 2 1 1 0 1/3 1/3 x0
=
y∞ 1 −1 0 0.7∞ 1/3 −2/3 y0
µ ¶µ ¶µ ¶µ ¶ à 2 !
2 1 1 0 1/3 1/3 x0 3
(x0 + y0 )
= = .
1 −1 0 0 1/3 −2/3 y0 1
(x0 + y0 )
3

Así la situación hacia la cual tiende el proceso y en la que se estabiliza es que 2/3 de los habitantes
de la ciudad contraten el suministro con la compañía X y 1/3 lo haga con la Y .

4.4 Ejercicios
1. Hallar la forma diagonal, cuando sea posible, de las siguientes matrices, así como la matriz del
cambio de base:
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
5 4 3 5 7 5 −9 1 1
(a) ⎝ −1 0 −3 ⎠ (b) ⎝ −6 −5 −3 ⎠ (c) ⎝ −18 0 3 ⎠
1 −2 1 ⎛ 4 1 0 ⎞ −21 4 0
⎛ ⎞ −1 0 0 0 ⎛ ⎞
5 3 2 ⎜ 2 −1 0 2 1 0
0 ⎟
(d) ⎝ 0 4 0 ⎠ (e) ⎜
⎝ 0
⎟ (f) ⎝ 0 2 1 ⎠
0 −1 4 ⎠
0 0 4 0 0 2
0 0 0 −1

2. Sea A una matriz cuadrada. Demostrar que A y At tienen el mismo polinomio característico
y, por tanto, los mismos
µ valores
¶ propios. ¿Tendrían los mismos vectores propios? Comprobarlo
1 0
para la matriz A = .
1 1
3. Sea A una matriz cuadrada de orden n, invertible. Demostrar que si λ es un valor propio de
A, entonces λ−1 es un valor propio de A−1 .

4. Sea A una matriz 3 × 3 con valores propios 1 doble y 2 simple. Si los subespacios de vectores
propios son {(x, y, z) : x = y = z} y {(x, y, z) : x = −y}, respectivamente, se pide:

(a) ¿Es A diagonalizable?


(b) Calcular el rango y el determinante de A.
(c) Calcular la matriz A.
(d) Dado b ∈ R3 , ¿cómo es el sistema de ecuaciones A · x = b?

5. Sea f : R3 → R3 una aplicación lineal y A la matriz asociada a f en las bases canónicas de R3 .


Discutir la veracidad o falsedad de las siguientes afirmaciones:

(a) Si f es biyectiva, entonces λ = 0 es un valor propio de A.

78
Diagonalización de matrices cuadradas

(b) Si f no es sobre, entonces λ = 0 es un valor propio de A.

6. Estudiar para qué valores de los parámetros las siguientes matrices son diagonalizables:
⎛ ⎞ ⎛ ⎞
α β 0 5 0 3
(a) ⎝ 0 −1 0 ⎠ (b) ⎝ 0 −1 0 ⎠ .
0 0 1 3 0 α

7. Si A es diagonalizable, entonces existen matrices diagonal D e invertibe P tales que A =


P · D · P−1 . Observa que si n es un número natural, entonces An = P · Dn · P−1 . Aplica este
método para calcular la potencia n-ésima de la matriz
⎛ ⎞
1 −1 −1
A = ⎝ −1 1 −1 ⎠
−1 −1 1

8. Sea f(x, y, z) = (4x−y, −6x+6y+3z, 3y) un endomorfismo de R3 en R3 . Dados los subespacios


S =< (1, 1, 1) > y T =< (1, 1, 0) >, calcular f(S) y f(T ). Comentar los resultados obtenidos
en términos de valores y vectores propios de f.

9. Sea f : Rn → Rn una aplicación lineal con matriz asociada respecto a la base canónica A y
u, v dos vectores de Rn asociados a los valores propios distintos λ, μ ∈ R. Decidir cuales de las
siguientes afirmaciones son ciertas.

(a) El vector propio u tiene un único valor propio asociado.


(b) Para todo α ∈ R, el vector αu es un vector propio del valor propio λ.
(c) Todo vector del núcleo de f es un vector propio.
(d) El vector w = u + v es un vector propio de f.
(e) Si λ es un valor propio de f, entonces λn es un valor propio de f n , donde f n = f ◦ f ◦ .. ◦ f
(n veces).
(f) Una matriz tiene el valor propio 0 si y solo si su determinante es nulo.
(g) Una matriz diagonalizable es invertible.

10. Sea f : Rn → Rn una aplicación lineal de manera que f ◦ f = f. Calcular los valores propios de
f.

11. Calcular para las siguientes matrices los valores y vectores propios. Determinar si las matrices
son o no diagonalizables y calcular la matriz diagonal en caso de serlo. Calcular además la base

79
Diagonalización de matrices cuadradas

respecto de la cual la matriz es diagonal y dar la matriz de cambio de base:


µ ¶ µ ¶ µ ¶
1 1 −26 −15 −2 −1
(a) (b) (c)
⎛ 3 −1 ⎞ ⎛ 50 29 ⎞ ⎛ 4 2 ⎞
1 2 3 0 −2 −2 5 1 1
(d) ⎝ 0 1 2 ⎠ (e) ⎝ 1 3 1 ⎠ (f) ⎝ 1 5 1 ⎠
⎛ 0 0 1 ⎞ ⎛0 0 2 ⎞ 1 1 5
0 0 0 1 1 −2 0 0 ⎛ ⎞
⎜ 0 0 1 0 ⎟ ⎜ 0 1 0 0 ⎟ 1 −1 −1
(g) ⎜ ⎟ ⎜
⎝ 0 1 0 0 ⎠ (h) ⎝ 1 1 0 1 ⎠ (i)
⎟ ⎝ 1 −1 0 ⎠
1 0 1
1 0 0 0 1 1 1 0 ⎛ ⎞
⎛ ⎞ ⎛ ⎞ 5 1 −2 4
1 5 7 0 4 2 ⎜ 0 5 2 2 ⎟
(j) ⎝ 0 4 3 ⎠ (k) ⎝ −3 8 3 ⎠ (l) ⎜ ⎝ 0 0 5 3 ⎠

0 0 1 4 −8 −2
⎛ ⎞ ⎛0 0 0 ⎞ 4
1 1 2 µ ¶ 2 1 −1
1 1
(m) ⎝ 1 2 1 ⎠ (n) (ñ) ⎝ 0 2 1 ⎠
0 1
0 1 3 0 0 2

12. Dada la sucesión de números reales definida por inducción como xn+2 = xn+1 + xn , x1 = 1,
x2 = 2, calcular xn y el límite de la misma cuando n → ∞.

13. En un cierto pais existen dos compañías eléctricas, luces y sombras S. A. y luz a gogó S. A.
Cada año uno de cada diez consumidores se cambia de compañía. Si la población del pais no
crece ni disminuye e inicialmente hay 10 millones de abonados a la primera compañía y 15
millones a la segunda, predecir la evolución del mercado a largo plazo.

14. En una ciudad existen tres supermercados A, B y C que acaparan la totalidad de la población
a la hora de comprar. Se ha observado que los compradores van cambiando año a año de
supermercado según la siguiente ley: De los que compran en A un año vuelven al siguiente
sólamente la mitad, mientras que la otra mitad pasa a comprar en B. De los que compran en
B la mitad permanece en B, mientras que el resto compran el año siguiente en C. Finalmente
una cuarta parte de los compradores de C se cambian a B, quedándose el resto en C.

(a) Si en un año determinado la mitad de la población compra en A y la otra mitad en B,


determinar cuál será la distribución el año siguiente.
(b) Determinar cuál es el comportamiento a largo plazo de los compradores de la ciudad.

80
Capítulo 5
Espacio vectorial eucídeo

Sumario. Producto escalar. Norma. Ortogonalidad. Base ortonormal: teorema


de Gramm—Schmidt. Diagonalización de matrices cuadradas simétricas. Proyección
ortogonal. Teorema de la mejor aproximación. Aplicaciones lineales de significado
geométrico.

5.1 Producto escalar


Sea V un espacio vectorial sobre el cuerpo R de los números reales. Una aplicación h·, ·i : V × V → R,
que a cada par de vectores u, v ∈ V les asocia un número real hu, vi ∈ R, se dice que es un producto
escalar en V si verifica las siguientes propiedades:

(E1) Linealidad respecto de la primera coordenada, esto es, para cada α, β ∈ R y cada u, v, w ∈ V,
hαu + βv, wi = αhu, wi + βhv, wi.

(E2) Conmutatividad. hu, vi = hv, ui, para cada u, v ∈ V.

(E3) Definida positiva. hu, ui ≥ 0, para todo u ∈V. Además hu, ui = 0 si y sólo si u = 0.

Remark 3 En ocasiones, especialmente en libros de Física, el producto escalar de dos vectores u, v ∈


V se escribe como u · v.

El par (V, h·, ·i) se llama espacio vectorial euclídeo. Como veremos a continuación, el producto
escalar nos va a permitir medir distancias y algunas magnitudes asociadas a ésta.

Example 28 En el espacio vectorial Rn , la aplicación que a cada par de vectores (x1 , ..., xn ) y
(y1 , ..., yn ) les asocia el número real
⎛ ⎞
y1
h(x1 , ..., xn ), (y1 , ..., yn )i = (x1 , ..., xn ) · ⎝ ... ⎠ = x1 y1 + · · · + xn yn
yn

es un ejemplo de producto escalar como se comprueba fácilmente. Este es el producto escalar usual
de Rn .

81
Espacio vectorial eucídeo

Example 29 Sea ahora C([a, b]) el espacio vectorial de las funciones continuas definidas sobre el
intervalo compacto [a, b], a, b ∈ R. Dadas f, g∈ C([a, b]) se define la aplicación
Z b
hf, gi := f (x)g(x)dx.
a

De nuevo se comprueban fácilmente las propiedades (E1)—(E2) y que dado que f (x)2 ≥, entonces
Rb
hf, f i = a f (x)2 dx ≥ 0. Es obvio que si f (x) = 0, entonces hf, fi = 0. Para comprobar el recíproco,
supongamos que hf, f i = 0 y que existe x0 ∈ [a, b] tal que f (x0 ) 6= 0. Entonces f (x0 )2 > 0, y
por la continuidad de f (x)2 , debe existir un subintervalo (c, d) ⊂ [a, b] tal que f (x)2 > 0 para todo
x ∈ (c, d). Como hf, f i es el área determinada por f (x)2 y el eje X, al ser f (x)2 > 0 para todo
x ∈ (c, d), se tiene que dicha área es estrictamente positiva y por tanto hf, f i = 0 es incompatible
con la existencia de un x0 ∈ [a, b] tal que f (x0 ) 6= 0, por lo que necesariamente f (x) = 0 para todo
x ∈ [a, b].

De los axiomas de producto escalar se deducen fácilmente las siguientes propiedades.

Proposition 31 Sea (V, h·, ·i) un espacio vectorial euclídeo. Entonces

(a) hu, 0i = 0 para todo u ∈ V.

(b) Para cada α, β ∈ R y cada u, v, w ∈ V, hw, α · u + β · vi = αhw, ui + βhw, vi.

Demostración. En primer lugar demostramos (a). Para ello basta tener en cuenta que

hu, 0i = hu, 0 + 0i = hu, 0i + hu, 0i

de donde obtenemos que hu, 0i = 0.


Para demostrar (b) consideramos

hw, α · u + β · vi = hα · u + β · v, wi = αhu, wi + βhv, wi = αhw, ui + βhw, vi,

mediante el uso de la conmutatividad y linealidad respecto de la primera componente del producto


escalar.

Definition 12 Sea (V, h·, ·i) un espacio vectorial euclídeo. Se llama norma de u ∈ V asociada al
producto escalar a p
kuk = + hu, ui.

De los axiomas de producto escalar son inmediatas las siguientes propiedades de la norma aso-
ciada:

Proposition 32 Sea (V, h·, ·i) un espacio vectorial euclídeo. Entonces:

(a) kuk ≥ 0 para todo u ∈ V. Además kuk = 0 si y sólo si u = 0.

(b) kα · uk = |α|kuk, para cada α ∈ R y u ∈ V.

82
Espacio vectorial eucídeo

(c) Desigualdad de Cauchy-Schwarz. Dados u, v ∈ V se tiene la desigualdad


|hu, vi| ≤ kuk kvk
que es estricta si u y v son linealmente independientes.
(d) Desigualdad de Minkowski o triangular. Dados u, v ∈ V se verifica la relación:
ku + vk ≤ kuk + kvk.

(e) Regla del paralelogramo. ku + vk2 + ku − vk2 = 2(kuk2 + kvk2 ).


Demostración. La demostración de (a) es inmediata a partir de las definiciones. Para probar
(b) hacemos el cálculo
p p
kα · uk = + hα · u,α · ui = + α2 hu, ui = |α|kuk.
Para probar (c) consideramos
0 ≤ hu + λ · v, u + λ · vi = kuk2 + 2 λhu, vi + λ2 kvk2
para cada λ ∈ R, lo cual implica que el discriminante del anterior polinomio de grado dos en λ debe
ser negativo, es decir,
4hu, vi2 − 4 kuk2 kvk2 ≤ 0 ⇔ |hu, vi| ≤ kuk kvk.
Notar que si u y v son linealmente independientes todas las desigualdades anteriores son estrictas.
Para probar (d) consideramos
ku + vk2 = hu + v, u + vi = hu, ui + 2hu, vi + hv, vi
≤ kuk2 + kvk2 + 2kuk kvk = (kuk + kvk)2 ,
de donde se deduce la propiedad.
Por último, para probar (e) desarrollamos
ku + vk2 + ku − vk2 = hu + v, u + vi+hu − v, u − vi
= hu, ui + 2hu, vi + hv, vi+hu, ui − 2hu, vi + hv, vi
= 2(kuk2 + kvk2 ).

Como consecuencia de la desigualdad de Cauchy-Schwarz, dados dos vectores u, v en el espacio


euclídeo V se tiene que:
hu, vi
−1 ≤ ≤ 1.
kuk kvk
De aquí se define el ángulo formado por los vectores u y v como el número real θ de forma que:
hu, vi
cos θ = .
kuk kvk
Así el producto escalar verifica la fórmula
hu, vi = kuk kvk cos θ.

83
Espacio vectorial eucídeo

Remark 4 En caso de R2 , dados los vectores (x1 , y1 ) y (x2 , y2 ) y α el ángulo físico que forman,
es decir, la longitud del arco de circunferencia de radio uno determinado por las semirectas ri =
{λ · (xi , yi ) : λ ≥ 0}, i = 1, 2. Es fácil ver que existen αi ∈ [0, 2π), i = 1, 2, de manera que

(xi , yi ) = ||(xi , yi )|| · (cos αi , sin αi ), i = 1, 2.

Entonces el ángulo generado por ambos vectores es α1 − α2 . Así,

h(x1 , y1 ), (x2 , y2 )i
= h(cos α1 , sin α1 ), (cos α2 , sin α2 )i
||(x1 , y1 )|| ||(x2 , y2 )||
= cos α1 cos α2 + sin α1 sin α2
= cos(α1 − α2 ),

por lo que el ángulo formado por dos vectores coincide con la definición geométrica en el caso plano.

Example 30 Por ejemplo, el ángulo α generado por los vectores (1, 1) y (1, 0) se calcula mediante
la expresión √
h(1, 1), (1, 0)i 1 2
cos α = =√ = ,
||(1, 1)|| ||(1, 0)|| 2 2
de donde √
2 π
α = arccos = .
2 4
Un vector u ∈ V se dice normal o unitario si ||u|| = 1. La siguiente proposición nos dice cómo
obtener un vector normal de una forma sencilla.
1
Proposition 33 Sea (V, h·, ·i) un espacio vectorial euclídeo y sea u ∈ V. Entonces ||u||
·u es normal.

Demostración. Basta tener en cuenta que


¿ À
1 1 1
· u, ·u = hu, ui = 1,
||u|| ||u|| ||u||2

con lo que concluye la demostración. √


Por ejemplo, dado el vector (1, 1) ∈ R2 , está claro que ||(1, 1)|| = 2, por lo que no es normal.
Entonces el vector Ã√ √ !
1 2 2
√ (1, 1) = ,
2 2 2
es normal o unitario.

5.2 Ortogonalidad
Definition 13 Dos vectores u, v ∈ V se dice que son ortogonales si su producto escalar es nulo,
esto es, hu, vi = 0. Un conjunto de vectores S = {u1 , . . . , ur } ⊆ V \ {0} se dice que es un sistema
ortogonal si cada vector es ortogonal a todos los demás, es decir, si hui , uj i = 0 para cada i 6= j.

84
Espacio vectorial eucídeo

Los vectores (1, 0) y (0, 1) son claramente ortogonales. Otro ejemplo menos claro es el siguiente:
dados los polinomios 1 y x, definidos en [−1, 1], se verifica que con el producto escalar definido
mediante la integral del producto de ambas funciones en dicho intervalo, se verifica
Z 1
h1, xi = xdx = 0.
−1

Tenemos entonces el siguiente resultado que nos viene a decir que todo sistema ortogonal está com-
puesto por vectores linealmente independientes.
Proposition 34 Sea (V, h·, ·i) un espacio vectorial euclídeo y sea S = {u1 , ..., ur } un sistema orto-
gonal. Entonces los vectores de S son linealmente independientes.
Demmostración. Planteamos la siguiente combinación lineal:
α1 · u1 + · · · + αr · ur = 0,
para cada 1 ≤ j ≤ r se tiene que:
X
r
0 = hα1 · u1 + · · · + αr · ur , uj i = αi hui , uj i = αj kuj k2
i=1

y, dado que uj 6= 0, se deduce que αj = 0.


Uno de los resultados clásicos, y nunca mejor dicho, de las familias de vectores ortogonales es el
conocido Teorema de Pitágoras.
Theorem 35 (Pitágoras) Sea (V, h·, ·i) un espacio vectorial euclídeo. Dados u, v ∈ V dos vectores
ortogonales se verifica que
ku + vk2 = kuk2 + kvk2 .
Desmostración. Consideremos
ku + vk2 = hu + v, u + vi = hu, ui + 2hu, vi + hv, vi = kuk2 + kvk2 ,
como queríamos probar.

5.2.1 Método de ortonormalización de Gram-Schmidt


Definition 14 Una base B = {u1 , . . . , un } se dice que es ortogonal si es un sistema ortogonal
(hui , uj i = 0, si i 6= j). Si además todos los vectores son normales (kui k = 1, i = 1, ..., n), la base B
se dirá ortonormal.
Las bases canónicas de los espacios Rn son ejemplos de bases ortonormales (respecto de producto
escalar canónico). ¿Cuál es la ventaja de disponer de este tipo de bases? Sea B = {u1 , . . . , un } una
base ortonormal de V y sea u ∈ V un vector cualquiera con coordenadas α1 , . . . , αn respecto de la
base B. Entonces
X
n
hu, uj i = αi hui , uj i = αj
i=1
para cada 1 ≤ j ≤ n. Relación que simplifica el cálculo de las coordenadas de los vectores en bases
ortonormales.
El objetivo del método de Gram-Schmidt es obtener a partir de una base B = {u1 , . . . , un } una
base ortonormal B0 = {w1 , . . . , wn }. Para ello se procede en las siguientes etapas:

85
Espacio vectorial eucídeo

• Si B es una base ortogonal, entonces definiendo wi = kui k−1 ui , 1 ≤ i ≤ n, se tiene que B0 es


una base ortonormal.

• Si B no es una base ortogonal el proceso es más laborioso. En primer lugar se define el vector
w1 = ku1 k−1 u1 . A continuación se calcula el vector

v2 = u2 − hu2 , w1 i · w1 ,

que es ortogonal a w1 dado que:

hv2 , w1 i = hu2 , w1 i − hu2 , w1 i hw1 , w1 i = 0,

y se define w2 = kv2 k−1 v2 . Recursivamente, para cada 2 ≤ j ≤ n se calcula el vector


j−1
X
vj = uj − huj , wi i · wi ,
i=1

que es ortogonal a w1 , . . . , wj−1 . Es fácil darse cuenta que cada nuevo construido vj 6= 0 ya
que en otro caso uj sería dependiente de w1 , ..., wj−1 , que a su vez son combinación lineal
de u1 , ..., uj−1 , y esto no es posible porque B es una base y por tanto los vectores son LI.
A continuación se toma wj = kvj k−1 vj . Con este proceso construimos la base ortonormal
B0 = {w1 , . . . , wn }.

Example 31 Sea la familia de vectores u1 = (1, 1, 0), u2 = (1, 0, 1), u3 = (0, 1, 1) que constituyen
una base de R3 . Usaremos el método de Gram-Schmidt para obtener a partir de {u1 , u2 , u3 } una
base ortonormal de R3 para el producto canónico. Para ello:

• Dado que ku1 k = 2, se toma el vector w1 = √12 (1, 1, 0).

• Se calcula v2 = u2 − hu2 , w1 i w1 = ( 12 , −1
2
, 1), y haciéndolo unitario tenemos w2 = √1 (1, −1, 2).
6

• Finalmente se calcula
2
v3 = u3 − hu3 , w1 i w1 − hu3 , w2 i w2 = (−1, 1, 1)
3

3
de donde w3 = 3
(−1, 1, 1).

5.2.2 Aplicación a la diagonalización ortogonal


En Rn con el producto escalar usual consideramos una base ortonormal B = {u1 , ..., un } y denotamos
por C la base canónica de Rn que también es ortonormal. Si denotamos por P = MCB (i) la matriz
de cambio de base, es inmediato darse cuenta que cada elemento del producto Pt · P = (aij ) viene
dado por
aij = hui , uj i , i, j = 1, ..., n.
Dado que la base B es ortonormal se verifica que Pt · P = In , por lo que P−1 = Pt .
Sea ahora una matriz simétrica A ∈ Mn×n (R). Se verifica que dicha matriz es siempre diagonali-
zable y además la base que la diagonaliza puede construirse ortonormal, ya que si u ∈ Ker(A − λ · In )

86
Espacio vectorial eucídeo

y v ∈ Ker(A − μ · In ) y λ 6= μ, entonces hv, ui = 0. Así, en el caso de matrices simétrica podemos


escribir que
A = Pt · D · P,
donde D es la correspondiente matriz diagonal.

Remark 5 La demostración de este resultado sale fuera de los objetivos de este trabajo y puede verse
en [?]. La prueba necesita una definición más amplia de la noción de producto escalar para que éste
pueda tomar valores complejos. Para esto la condición (E2) de la definición de producto escalar debe
cambiarse.

Ilustremos esta aplicación con un ejemplo. Sea la matriz


⎛ ⎞
5 4 2
A= ⎝ 4 5 2 ⎠,
2 2 2

que tiene como valores propios λ1 = 1 con multiplicidad dos y λ2 = 10. Los subespacios propios son
Ker(A−I3 ) = {(x, y, z) ∈ R3 : 2x+2y+z = 0} y Ker(A−10·I3 ) = {(x, y, z) ∈ R3 : −5x+4y+2z = 0
y 4x − 5y + 2z = 0}, de donde obtenemos las bases B1 = {(1, −1, 0), (1, 0, −2)} y B10 = {(2, 2, 1)},
de donde B = {(1, −1, 0), (1, 0, −2), (2, 2, 1)} es una base de vectores
√ √
propios.√ Aplicamos
√ √
el método
de Gram-Schmidt para encontrar una base ortonormal B = {( 2 , − 2 , 0), ( 6 , 6 , − 3 ), ( 23 , 23 , 13 )}
0 2 2 2 2 2 2

y así ⎛ √ ⎞ ⎛
2

2 2 ⎞ ⎛ √2 √
2

2√ 6
√ 3 1 0 0 √2
− √2
0
⎜ 2 ⎟·⎝ 0 1 ⎠·⎝ 2

2 2 ⎠.
A = ⎝ − 22 2
6√ 3 ⎠ 0
6 6
2
− 3
0 − 2 3 2 31 0 0 10 2
3
2
3
1
3

5.3 Subespacios ortogonales


Sea (V, h·, ·i) un espacio vectorial euclídeo y consideremos un subespacio vectorial W ⊂ V. Se define
el subespacio ortogonal a W como el subespacio

W ⊥ = {v ∈ V : hv, ui = 0 ∀u ∈ W}.

Veamos cuáles son las propiedades de este nuevo subespacio.

Proposition 36 W ⊥ es un subespacio vectorial de V.

Demostración. Sean α, β ∈ R y u, v ∈ W ⊥ y veamos que su combinación lineal α · u + β · v


también está en W ⊥ . Para ello tomamos w ∈ W arbitrario y calculamos

hα · u + β · v, wi = αhu, wi + βhv, wi = 0,

por lo que dicha combinación lineal estará efectivamente en W ⊥ .

Proposition 37 Sea B = {v1 , ..., vn } una base de W. El vector u ∈ W ⊥ si y sólo si hu, vi i = 0


para todo i = 1, ..., n.

87
Espacio vectorial eucídeo

Demostración. Es claro que si u ∈ W ⊥ entonces hu, vi i = 0 para todo i = 1, ..., n. Supongamos


ahora que hu, vi i = 0 para todo i = 1, ..., n y veamos que u ∈ W ⊥ . Para ello sea v ∈ W arbitrario y
pongámoslo como combinación lineal de los vectores de la base B, esto es v = α1 · v1 + ... + αn · vn ,
αi ∈ R, 1 ≤ i ≤ n. Calculemos

hu, vi = hu, α1 · v1 + ... + αn · vn i = α1 hu, v1 i + ... + αn hu, vn i = 0,

de donde vemos que u ∈ W ⊥ .


El resultado anterior es bastante útil a la hora de hacer un cálculo práctico del subespacio orto-
gonal a uno dado, como vemos en el siguiente ejemplo.

Example 32 Sea R3 con el producto escalar usual y sea W = {(x, y, z) ∈ R3 : x + y + z = 0}.


Vamos a calcular W ⊥ . Para ello nos damos en primer lugar cuenta de que B = {(1, −1, 0), (1, 0, −1)}
es una base de W. Aplicamos la propiedad anterior para deducir que un vector (x, y, z) ∈ R3 está
en W ⊥ si se verifica que

h(x, y, z), (1, −1, 0)i = x − y = 0,


h(x, y, z), (1, 0, 1)i = x − z = 0,

de donde W ⊥ = {(x, y, z) ∈ R3 : x = y = z}.

La siguiente propiedad nos dice que la suma de W con su ortogonal W ⊥ es directa, esto es,
W ⊕ W ⊥.

Proposition 38 W ∩ W ⊥ = {0}.

Demostración. Si u ∈ W ∩ W ⊥ entonces hu, ui = 0, de donde u = 0.


Aunque la suma sea directa, en general no siempre se verifica que W ⊕ W ⊥ = V. El siguiente
resultado nos garantiza que esto ocurre si la dimensión de W es finita.

Theorem 39 Si W es de dimensión finita, entonces W ⊕ W ⊥ = V.

Demostración. Sea B = {u1 , ..., un } una base ortonormal de W y sea v ∈ V. Definimos


u = hv, u1 i · u1 + ... + hv, un i · un ∈ W y veamos que v − u ∈W ⊥ . Para ello basta calcular para
i = 1, ..., n

hv − u, ui i = hv − hv, u1 i · u1 + ... + hv, un i · un , ui i


= hv, ui i − hv, u1 ihu1 , ui i − ... − hv, un ihun , ui i
= hv, ui i − hv, ui i = 0.

Entonces v − u ∈W ⊥ y v = u + (v − u) ∈ W ⊕ W ⊥ .
El vector u = hv, u1 i · u1 + ... + hv, un i · un se conoce con el nombre de proyección ortogonal
de v sobre W y la norma ||v − u|| es la distancia de v a W. La proyección ortogonal sobre W no

88
Espacio vectorial eucídeo

depende de la base ortonormal B = {u1 , ..., un } de la Proposición 39. Si B0 = {v1 , ..., vn } es otra
base ortonormal, entonces dado que u ∈ W se verifica que
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
hu, v1 i hu, u1 i hu1 , v1 i ... hun , v1 i hv, u1 i
⎝ ... ⎠ = MB0 B (i) · ⎝ ... ⎠ = ⎝ ... ... ... ⎠ · ⎝ ... ⎠
hu, vn i B0 hu, un i B hu1 , vn i ... hun , vn i hv, un i
⎛ ⎞
hu1 , v1 ihv, u1 i + ... + hun , v1 ihv, un i
= ⎝ ... ⎠
hu1 , vn ihv, u1 i + ... + hun , vn ihv, un i
⎛ ⎞ ⎛ ⎞
hv, hu1 , v1 i · u1 ... + hun , v1 i · un i hv, v1 i
= ⎝ ... ⎠ = ⎝ ... ⎠ ,
hv, hu1 , vn i · u1 ... + hun , vn i · un i hv, vn i
por lo que u = hv, v1 i · v1 + ... + hv, vn i · vn . Veamos en un ejemplo cómo calcular la proyección
ortogonal de un vector sobre un subespacio vectorial.
Example 33 Sea el espacio euclídeo R3 equipado con el producto escalar canónico y sea el subespacio
vectorial © ª
W = (x, y, z) ∈ R3 : x − y = 0, x − z = 0 .
Dado el vector (1, 1, 0) vamos a √calcular
√ su proyección
√ ortogonal sobre W. Evidentemente {(1, 1, 1)}
es una base de W, por lo que {( 3/3, 3/3, 3/3)} es una base ortonormal. Entonces la proyección
ortogonal de (1, 1, 0) sobre W viene dada por
√ √ √ √ √ √
h(1, 1, 0), ( 3/3, 3/3, 3/3)i( 3/3, 3/3, 3/3) = (2/3, 2/3, 2/3).
Example 34 En el ejemplo anterior, vamos a calcular la aplicación proyección ortogonal sobre W.
Para ello sea (x, y, z) ∈ R3 y definimos
√ √ √ √ √ √
f(x, y, z) = h(x, y, z), (( 3/3, 3/3, 3/3))i( 3/3, 3/3, 3/3)
1
= (x + y + z, x + y + z, x + y + z).
3
Finalizamos el tema con este importante resultado que nos viene a decir que la mejor aproximación
por los vectores de un subespacio vectorial de dimensión finita es la proyección ortogonal.
Theorem 40 Sea W de dimensión finita. Sean v ∈ V y u la proyección ortogonal de v sobre W.
Entonces
||v − u|| = min{||v − w|| : w ∈ W}.
Demostración. Sea w ∈ W y calculamos
||v − w||2 = ||(v − u) + (u − w)||2 .
Ahora bien v − u ∈ W ⊥ y u − w ∈ W por lo que hv − u, u − wi = 0 y aplicando el Teorema de
Pitágoras se verifica que
||v − w||2 = ||(v − u) + (u − w)||2
= ||v − u||2 + ||u − w||2 ≥ ||v − u||2 .
Además ||v − w|| > ||v − u|| si u 6= w.

89
Espacio vectorial eucídeo

Example 35 Se considera el espacio euclídeo V de las funciones reales continuas definidas sobre
[1, 2], con el producto escalar Z 2
hf, gi := f (x)g(x)dx.
1
Vamos a obtener la mejor aproximación de la función log x como un polinomio de grado menor o igual
que dos. Para ello, en primer lugar obtenemos una base ortonormal del subespacio de los polinomios
de grado menor o igual que dos a partir de la base canónica {1, x, x2 }. En primer lugar obtenemos
una base ortogonal O = {v1 , v2 , v3 }, donde v1 = 1 y
hx, 1i 3
v2 = x − 1=x− ,
h1, 1i 2
­ ® µ ¶
2 hx2 , 1i x, x − 32 3
v3 = x − 1− ­ ® x−
h1, 1i x − 32 , x − 32 2
µ ¶
7 3 5
= x2 − − x − = x2 + x − .
3 2 6
Obtenemos ahora la base ortonormal N = {u1 , u2 , u3 }, donde
1
u1 = v1 = 1,
||v1 ||
µ ¶
1 √ 3
u2 = v2 = 12 x − ,
||v2 || 2
r µ ¶
1 180 2 5
u3 = v3 = x +x− .
||v3 || 1861 6
El polinomio de grado menor o igual que dos que mejor aproxima log x será la proyección ortogonal
de log x sobre el subespacio W dado por
p(log x) = hlog x, u1 i u1 + hlog x, u2 i u2 + hlog x, u3 i u3
¿ µ ¶À µ ¶
√ 3 √ 3
= hlog x, 1i 1 + log x, 12 x − 12 x −
2 2
* r µ ¶+ r µ ¶
180 2 5 180 2 5
+ log x, x +x− x +x−
1861 6 1861 6
¿ Àµ ¶ ¿ Àµ ¶
3 3 180 2 5 2 5
= hlog x, 1i + 12 log x, x − x− + log x, x + x − x +x−
2 2 1861 6 6
µ ¶ µ ¶
3 108 log 2 − 5 5
= 2 log 2 − 1 + 3(3 − 4 log 2) x − +5 x2 + x −
2 1861 6
36770 80641 1 1
= log 2 − + (16624 − 21792 log 2)x + (540 log 2 − 125)x2 .
1861 5583 1861 1861
El error cometido en la aproximación es
µZ 2 ¶1/2
2
|| log x − p(log x)|| = (log x − p(log x)) dx ' 26.2219,
1

lo cual indica que la aproximación es mala ya que el error medio obtenido es bastante alta.

90
Espacio vectorial eucídeo

5.4 Endomorfismos con significado geométrico


En esta sección se estudian algunos tipos de aplicaciones lineales de evidente significado geométrico.
Aunque algunos de los conceptos que se introducen no necesitan explícitamente la existencia de una
norma o distancia, estas clases de endomorfismos toman una mayor relevancia en el marco de los
espacios euclídeos.

5.4.1 Homotecias
Sea (V, h·, ·i) un espacio vectorial euclídeo. Se dice que una aplicación lineal f : V → V es una
homotecia de razón α ∈ R si f(u) = α u para todo u ∈ V. Es evidente que respecto de cualquier
base B de V la matriz asociada a una homotecia es de la forma
⎛ ⎞
α 0 ··· 0
⎜ 0 α ··· 0 ⎟
⎜ ⎟
MBB (f) = ⎜ .. .. . . .. ⎟ = α In
⎝ . . . . ⎠
0 0 ··· α

siendo dim V = n.
El efecto de una homotecia sobre cualquier subconjunto de V (o figura en el lenguaje del dibujo
técnico) es el de contraerlo (si |α| < 1) o expandirlo (si |α| > 1), manteniendo su orientación (si
α > 0) o invirtiéndola (si α < 0). Esto es, la imagen de cualquier conjunto contenido en V es el
mismo conjunto aumentado de tamaño o empequeñecido y con la misma o diferente orientación.

5.4.2 Proyecciones
Sea (V, h·, ·i) un espacio vectorial euclídeo y sean W1 y W2 dos subespacios vectoriales de V de forma
que W1 ⊕ W2 = V. Se dice que un endomorfismo f : V → V es una proyección de base W1 y
dirección W2 si se verifica que f(u) = 0 para cada u ∈ W2 (es decir, Ker(f) = W2 ) y f(u) = u
para todo u ∈ W1 . Si W1⊥ = W2 la proyección es la ortogonal, estudiada en el apartado anterior.
Geométricamente, una proyección lleva una figura u objeto de V a una figura diferente contenida en
la base de la proyección. Las proyecciones son bastante usadas en la asignatura de dibujo técnico de
las carreras de Ingeniería.

5.4.3 Simetrías
El concepto de simetría se define de manera análoga al de proyección. Sea (V, h·, ·i) un espacio
vectorial euclídeo y sean W1 y W2 dos subespacios vectoriales, de forma que W1 ⊕ W2 = V. Se dice
que una aplicación lineal f : V → V es una simetría de base W1 y dirección W2 si se verifica que
f(u) = −u para todo u ∈ W2 y f(u) = u para todo u ∈ W1 . Si W1⊥ = W2 , la simetría se denomina
ortogonal y únicamente hará falta indicar cuál es su base o su dirección. Es inmediato comprobar
que la matriz asociada a una simetría es siempre diagonalizable y sus valores propios son −1 y 1. Un
ejemplo clásico de simetría en R2 es la imagen reflejada en un espejo de una cierta figura. Cualquier
objeto de V pasa a ser, mediante una simetría, otro objeto de V del mismo tamaño, pero en una
posición diferente, marcada por la dirección y base de la simetría.

91
Espacio vectorial eucídeo

5.4.4 Rotaciones en el plano


El último tipo que transformaciones que vamos a estudiar son las rotaciones en un plano. Dado el
espacio euclídeo R2 con el producto escalar usual, se dice que f : R2 → R2 es una rotación de ángulo
θ si su matriz asociada respecto de alguna base B es de la forma
µ ¶
cos θ − sin θ
MBB (f) = .
sin θ cos θ

Geométricamente f produce un giro de ángulo θ de cualquier vector de R2 . Por ejemplo, dado un


reloj, el pasar de una hora a otra posterior se hace mediante un giro de las manecillas.

5.5 Ejercicios
1. Sea el espacio vectorial R3 con el producto escalar estándar. Calcular:

(a) El producto escalar de los vectores (1, 3, −1) y (1, −1, 1) así como el ángulo que forman.
(b) Calcular el valor de α para que el vector (α, 1, 0) sea normal o unitario.
(c) Calcular el valor de α para que los vectores (α, 1, 0) y (α, −1, −1) sean ortogonales.

2. Sea R3 el espacio vectorial de dimensión 3 dotado del producto escalar usual de R3 . Sea la base
canónica B = {e1 , e2 , e3 } , se pide:

(a) Calcular α para que el ángulo formado por los vectores u = e1 + αe2 + e3 y v = e1 + 2e2
π
sea de radianes.
3
(b) Calcular α para que el módulo del vector u = e1 + αe2 + e3 sea 49.
(c) Calcular todos los vectores que están a una distancia euclídea igual a 3 del vector u =
2e1 − e2 .
(d) Calcular α para que los vectores u = αe1 + (α − 1)e2 + αe3 y v = 2αe1 + αe2 − 3e3 sean
ortogonales.

3. Demostrar

(a) Teorema de Pitágoras. Si u y v son dos vectores ortogonales del espacio euclídeo Rn .
Entonces
|| u + v ||2 =|| u ||2 + || v ||2 .

(b) Ley del Paralelogramo. Si u y v son dos vectores cualesquiera del espacio euclídeo Rn ,
entonces
|| u + v ||2 + || u − v ||2 = 2 || u ||2 +2 || v ||2 .

4. Probar que si {u, v} son vectores ortogonales de un espacio vectorial euclídeo, entonces forman
un sistema linealmente independiente. ¿Es cierto el recíproco?

92
Espacio vectorial eucídeo

5. Obtener en el espacio euclídeo (R3 , hi) donde hi es el producto escalar usual de R3 , una base
ortonormal aplicando el Método de Gram-Schmidt a las bases

(a) B = {(1, 1, 0), (1, 0, 1), (0, 1, 1)}.


(b) B = {(1, 1, 1) , (0, 1, 1) , (0, 0, 1)} .
(c) B = {(2, 1, 0) , (−1, 1, 1) , (1, 0, 3)} .

6. Consideremos R4 con el producto escalar usual. Se pide hallar una base ortonormal de los
siguientes subespacios vectoriales:

(a) W = {(x, y, z, t) ∈ R4 : x + y + z + t = 0}.


(b) W = {(x, y, z, t) ∈ R4 : x + y = 0; z + t = 0}.
(c) W = {(x, y, z, t) ∈ R4 : x = 0; z = 0}.
(d) W = {(x, y, z, t) ∈ R4 : x = 0}.

7. Obtener la forma diagonal de las siguientes matrices simétricas, así como las matrices de cambio
de base ⎛ ⎞ ⎛ ⎞
5 4 2 1 2 5 µ ¶
1 5
(a) ⎝ 4 5 2 ⎠ (b) ⎝ 2 −2 −2 ⎠ (c)
5 1
2 2 2 5 −2 1
⎛ ⎞
⎛ ⎞ 2 1 1 1
2 −4 0 ⎜ 1 2 1 1 ⎟
(d) ⎝ −4 0 0 ⎠ (e) ⎜ ⎝ 1 1 2 1 ⎠

0 0 6
1 1 1 2

8. Sea P2 [x] el conjuto de polinomios de grado menor o igual que 2 con coeficientes reales. Dados
p(x), q(x) ∈ P2 [x], se define
Z 1
< p(x), q(x) >= x4 p(x)q(x)dx.
−1

Probar que h∗, ∗i es un producto escalar. Dada la base B = {1, x, x2 }, obtener a partir de ella
un base ortonormal de P2 [x] (usando el producto escalar anterior).

9. Sea P3 [x] el conjunto de los polinomios con coeficientes reales de grado a lo sumo tres. Definimos
para todo p(x), q(x) ∈ P3 [x],
Z 1
hp(x), q(x)i := p(x)q(x)dx.
0

(a) Comprobar que se trata de un producto escalar.


(b) Obtener una base ortonormal a partir de la base B = {1, x, x2 , x3 }.
(c) Calcular el valor del parámetro a para que los polinomios ax3 + x2 + 1 y x + 1 sean
ortogonales.

93
Espacio vectorial eucídeo

(d) Calcular el valor de a para que ax2 + 1 sea normal o unitario.

10. Dado el plano real R2 y el producto escalar usual calcular la proyección ortogonal del vector
(1, 1) sobre los subespacios generados por los siguientes vectores:
µ ¶
1 2
(a) , . (b) (−1, −1) . (c) (1, 0) .
3 5

11. Sea el espacio vectorial R3 sobre el que tenemos definido el producto escalar usual. Dados los
siguientes subespacios S de R3 , calcular S ⊥ :

(a) S = {(x, y, z) ∈ R3 : x + y + z = 0} .
(b) S = {(x, y, z) ∈ R3 : x + y + z = 0 y x − y = 0} .
(c) S = {(x, y, z) ∈ R3 : x − y + 2z = 0 y x − z = 0} .

12. Calcular las ecuaciones de las siguientes aplicaciones lineales f : R3 → R3 :

(a) La proyección ortogonal de base {(x, y, z) : x = y = z}.


(b) La proyección ortogonal con base {(x, y, z) : x = y}.
(c) La proyección ortogonal cuya base es el subespacio ortogonal a {(x, y, z) : x = y = z}.

13. Obtener el núcleo, la imagen y los subespacios propios de las aplicaciones lineales del ejercicio
anterior. ¿Qué conclusiones pueden obtenerse?

14. Hallar el polinomio de segundo grado que mejor aproxima la función f (x) = 3 x en el intervalo
[−1, 1] con la norma asociada al producto escalar de las funciones reales continuas definidas en
[−1, 1] dado por
Z 1
hf, gi = f(x)g(x)dx.
−1

15. Se considera el espacio euclídeo


R 2 V de las funciones reales continuas definidas sobre [1, 2], con el
producto escalar hf, gi := 1 f(x)g(x)dx.

(a) Hallar el ángulo entre f(x) = 1 y g(x) = x.


(b) ¿Para qué valores de a son ortogonales los vectores x − a y x + a?
(c) Sea W el subespacio de los polinomios reales de grado menor o igual que 2. Ortonormalizar
la base de dicho subespacio {1, x, x2 }.
(d) ¿Cuál es el polinomio de grado menorRo igual que 2 que mejor aproxima la función f(x) =
2 n+1
log x. (Ayuda: tener en cuenta que 1 xn log xdx = 2n+1 (log 2 − n+1
1 1
) − (n+1)2 para todo

n ≥ 0.)

16. Calcula la proyección ortogonal del vector u = (1, 1, −1) sobre W = {(x, y, z) ∈ R3 : x−y−2z =
0}.

94
Espacio vectorial eucídeo

17. Encuentra la expresión de la proyección ortogonal sobre la recta de R3 generada por el vector
(0, 1, 2).

18. Halla la distancia entre el vector (1, 0, 2) y el plano x − y − z = 0.

19. Calcula la distancia entre el punto (2, 2, 2) y el plano x − y − z = 1.

20. Dados un espacio vectorial eucídeo y un subespacio vectorial del mismo W, se define la simetría
ortogonal de base W como la aplicación lineal f : V → V such that f(u) = u for u ∈ W and
f(u) = −u for u ∈ W ⊥ . El subespacio W ⊥ se dirá dirección de la simetría. Se pide obtener las
expresiones analíticas de las siguientes simetrías ortogonales:

(a) f : R3 → R3 con base W = {(x, y, z) : x + y − z = 0}.


(b) f : R4 → R4 con base W = {(x, y, z, t) : x + y − z = 0, x = t}.
(c) f : R3 → R3 con dirección W = {(x, y, z) : −x + y + 2z = 0}.
(d) f : R4 → R4 con base W = {(x, y, z) : x + y − z = 0, x − y + t = 0, 2x − z + t}.

21. Dado un espacio vectorial eucídeo se define la homotecia de razón α ∈ R como la aplicación
lineal f : V → V such that f(u) = α · u for u ∈ V. Se pide obtener las expresiones analíticas de
las siguientes homotecias ortogonales:

(a) f : R3 → R3 con razón 1/2.


(b) f : R4 → R4 con razón −1.
(c) f : R3 → R3 con razón 2.

22. Obtener los valores propios y determinar si son diagonalizables las matrices respecto de las
bases canónicas de las aplicaciones lineales de los ejercicios 20 y 21.

23. Obtener f ◦ g ◦ h con f, g, h : R3 → R3 aplicaciones lineales, donde f es la proyección ortogonal


de base W = {(x, y, z) : x + y + z = 0}, g es la homotecia de razón −1 y h es la simetría
ortogonal de dirección S = {(x, y, z) : z = y = z}.

95
Espacio vectorial eucídeo

96
Bibliografía

[IzTo] J. Izquierdo y J. R. Torregrosa, Algebra y ecuaciones diferenciales, Servicio de publicaciones,


Universidad Politéctica de Valencia, 1991.

[Jef] A. Jeffrey, Linear algebra and ordinary differential equations, CRC Press, 1993.

[ToJo] J. R. Torregrosa y C. Jordan, Algebra lineal y sus aplicaciones, Schaum McGraw—Hill, 1987.

97

También podría gustarte