Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2 de febrero de 2008
Índice General
2 Espacio vectorial 35
2.1 Definiciones y propiedades básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3 Bases y dimensión de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3 Aplicaciones lineales 51
3.1 Definiciones y propiedades básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2 Subespacios vectoriales asociados a una aplicación lineal . . . . . . . . . . . . . . . . 53
3.2.1 Imagen de una aplicación lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.2.2 Núcleo de una aplicación lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3 Matriz asociada a una aplicación lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.1 Matriz de la suma de aplicaciones lineales y del producto por escalares. . . . . 57
3.3.2 Matriz de la composición de aplicaciones lineales. . . . . . . . . . . . . . . . . 59
3.3.3 Matriz asociada a las aplicaciones lineales inversas. . . . . . . . . . . . . . . . 60
3.3.4 Matrices de cambio de base. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
i
Índice General
ii
Capítulo 1
Se dirá entonces que la matriz A tiene n filas y m columnas. Denotaremos por Mn×m (K) al conjunto
de matrices de tamaño n × m con coeficientes en K. En caso de que n = m, es decir, tenemos el
mismo número de filas que de columnas, diremos que la matriz A es cuadrada. Por ejemplo, la
matriz ⎛ ⎞
1 2 3
A =⎝ 3 2 1 ⎠
1 1 0
es cuadrada al tener 3 filas y columnas. Como notación escribiremos las matrices de la forma
j=1,2,...,m
A = (aij )i=1,2,...,n o simplemente A = (aij ) si no hace falta especificar el número de filas y columnas.
La fila i—ésima de la matriz A será denotada por Ai = (ai1 , ai2 , ...aim ), 1 ≤ i ≤ n. Nótese que
cada fila de la matriz A es a su vez una matriz de una fila y m columnas. A su vez, la columna
1
Aprendemos a hacer cuentas
y será por tanto una matriz de n filas y una columna. Por ejemplo, en la matriz anterior la fila
A2 = (3, 2, 1) mientras que la columna es
⎛ ⎞
3
3
A = ⎝ 1 ⎠.
0
Dada la matriz A los elementos de la forma aii , 1 ≤ i ≤ min{n, m} forman la diagonal principal
de la matriz. Una matriz cuadrada que sólo tome valores no nulos en los elementos de la diagonal
principal se dirá diagonal . Por ejemplo, las matrices
⎛ ⎞
1 0 0 0 ⎛ ⎞
⎜ 0 2 0 0 ⎟ 2 0 0
A=⎜ ⎟ ⎝
⎝ 0 0 0 0 ⎠ , B = 0 −1 0 ,
⎠
0 0 π
0 0 0 −1
serán diagonales. Como vemos las matrices diagonales cumplen que sus elementos aij = 0 si i 6= j.
Si somos menos exigentes y sólo pedimos que o bien aij = 0 si i < j o bien aij = 0 si i > j tendremos
la matrices (no necesariamente cuadradas) triangulares. Por ejemplo las matrices
⎛ ⎞ ⎛ ⎞
µ ¶ 2 0 0 µ ¶ 2 0 1
1 0 0 ⎜ 0 2 0 ⎟ 1 1 1 ⎜ 0 2 7 ⎟
⎜
, ⎝ ⎟ , , ⎜ ⎟
1 2 0 6 8 0 ⎠ 0 2 0 ⎝ 0 0 0 ⎠
1 1 11 0 0 0
son triangulares.
Por ejemplo ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
0 1 −2 1 1 −5 1 2 −7
⎜ 4 3 4 ⎟ ⎜ 8 ⎟ ⎜ ⎟
⎜ ⎟+⎜ 1 5 ⎟ = ⎜ 5 8 12 ⎟ .
⎝ 9 −4 −4 ⎠ ⎝ 2 −1 −1 ⎠ ⎝ 11 −5 −5 ⎠
1 1 1 1 1 2 2 2 3
2
Aprendemos a hacer cuentas
Démonos cuenta que no es posible sumar matrices de distinto tamaño, es decir, con distinto número
de filas o columnas. Por ejemplo no es posible calcular
⎛ ⎞
0 1 −2 ⎛ ⎞
⎜ 4 3 1 1 1
⎜ 4 ⎟ ⎟ ⎝ ⎠
⎝ 9 −4 −4 ⎠ + 8 2 2 .
0 1 1
1 1 1
La suma de matrices tiene las siguientes propiedades que se infieren directamente de las propie-
dades del cuerpo K y son las siguientes:
Por verificarse estas cuatro propiedades, se dice que el par formado por el conjunto de matrices
con la operación suma (Mn×m (K), +) es un grupo conmutativo.
3
Aprendemos a hacer cuentas
1. Propiedad asociativa. Dadas A ∈ Mn×m (K), B ∈ Mm×k (K), C ∈ Mk×l (K) se verifica que
(A · B) · C = A · (B · C). Para ver la demostración consideramos
Xm
(A · B) · C = ((aij ) · (bij )) · (cij ) = ( air brj ) · (cij )
r=1
X
k X
m X
m Xk
= ( air brs csj ) = ( air ( brs csj ))
s=1 r=1 r=1 s=1
X
k
= (aij ) · ( brs csj ) = A · (B · C).
s=1
mientras que µ ¶ µ ¶ µ ¶
2 0 1 1 2 2
· = .
1 1 1 1 2 2
3. Existe un elemento neutro, llamado identidad y que es la matriz diagonal que tiene 1 en
cada elemento de la diagonal principal. Si llamamos In ∈ Mn×n (K) a la matriz identidad y
A ∈ Mn×m (K), se verifica que In · A = A · Im = A. Si la matriz A es cuadrada, entonces
In · A = A · In = A.
4. No toda matriz cuadrada A no nula tiene matriz inversa, es decir, otra matriz A−1 tal que
A · A−1 = A−1 · A = In . En caso de existir µdiremos¶que la matriz A es invertible y que A−1
1 0
es su matriz inversa. Por ejemplo la matriz no tiene inversa ya que si esta existiera
1 0
tendría que verificarse que
µ ¶ µ ¶ µ ¶ µ ¶
1 0 a b a b 1 0
· = =
1 0 c d a b 0 1
µ ¶
1 0
y tendríamos que a = 1 y a = 0, lo cual es absurdo. Por ejemplo la matriz es
µ ¶ 0 2
1 0
invertible, siendo su inversa . Veremos posteriormente cómo caracterizar las matrices
0 12
invertibles y cómo se obtiene su inversa en caso de serlo.
5. Propiedad ditributiva del producto respecto de la suma de matrices. Dadas A ∈ Mn×m (K)
B, C ∈ Mm×k (K), se verifica que A · (B + C) = A · B + A · C. Para demostrar esta identidad
4
Aprendemos a hacer cuentas
consideramos
Xm
A · (B + C) = (aij ) · (bij + cij ) = ( air (brj + crj ))
r=1
X
m X
m
= ( air brj + air crj ) = (aij ) · (bij ) + (aij ) + (cij )
r=1 r=1
= A · B + A · C.
4. Para toda matriz A ∈ Mn×m (K) se verifica que 1 · A = A. Para demostrarlo consideramos
1 · A = 1 · (aij ) = (1aij ) = (aij ) = A.
Estas propiedades junto con las propiedades de la suma de matrices hace que la terna (Mn×m (K), +, ·)
tenga estructura de espacio vectorial, como veremos con mayor detalle en el tema dedicado a los es-
pacios vectoriales.
5
Aprendemos a hacer cuentas
será la matriz µ ¶
2 1 2
.
3 1 1
Veamos cúales son las propiedades de la trasposición de matrices.
(a) (At )t = A.
(b) (α · A)t = α · At .
(c) (A + B)t = At + Bt .
(d) (A · C)t = Ct · At .
(e) Si A ∈ Mn×n (K) es una matriz invertible, entonces (A−1 )t = (At )−1 .
Para demostar la última propiedad, sea A−1 la matriz inversa de A. Entonces A · A−1 = In . Si
aplicamos la propiedad anterior tenemos que
dado que In es una matriz diagonal y su inversa es ella misma. Ahora bien, tenemos que (A−1 )t ·At =
In , de donde deducimos que At es invertible y su matriz inversa (At )−1 = (A−1 )t .
6
Aprendemos a hacer cuentas
La matriz traspuesta se utiliza para definir dos tipos especiales de matrices. Una matriz cuadrada
A se dice simétrica si At = A y se dice antisimétrica si At = −A. Si una matriz A es simétrica se
verifica que
A = (aij ) = (atij ) = At ,
por lo que
aij = atij = aji .
Así, ejemplos de matrices simétricas son
⎛ ⎞
⎛ ⎞ 0 1 0 −1
1 1 0 ⎜ ⎟
⎝ 1 1 3 ⎠ , ⎜ 1 −1 4 0 ⎟ .
⎝ 0 4 4 3 ⎠
0 3 0
−1 0 3 0
Si por el contrario la matriz A es antisimétrica, entonces tenemos que
por lo que
aij = −atij = −aji ,
y si i = j, entonces 2aii = 0, por lo que aii = 0. Son ejemplos de matrices antisimétricas
⎛ ⎞
⎛ ⎞ 0 1 0 −1
0 1 0 ⎜
⎝ −1 0 −3 ⎠ , ⎜ −1 0 4 0 ⎟⎟.
⎝ 0 −4 0 3 ⎠
0 3 0
1 0 −3 0
7
Aprendemos a hacer cuentas
Remark 1 En principio habría que distinguir el rango por filas como el número máximo de filas li-
nealmente independientes y el rango por columnas definido intercambiando filas por columnas. Puede
probarse (ver por ejemplo [?]) que el rango por filas y por columnas coinciden. De esta manera cobra
sentido la definición establecida anteriormente.
En general, dada una matriz A = (aij ) ∈ Mn×m (K), calcular su rango supone, en el caso de
obtener el rango utilizando las columnas de la matriz, resolver expresiones de la forma
α1 · A1 + ... + αm · Am = 0,
o equivalentemente ⎛ ⎞ ⎛ ⎞
α1 0
A · ⎝ ... ⎠ = ⎝ ... ⎠ ,
αm 0
que en forma extendida se escribe como
⎧
⎨ a11 α1 + ... + am1 αm = 0,
......................................
⎩
a1n α1 + ... + amn αm = 0.
Esto nos da pie para introducir el concepto de sistema de ecuaciones lineales como una expresión
de la forma ⎧
⎪
⎪ a11 x1 + a12 x2 + · · · + a1m xm = b1
⎨
a21 x1 + a22 x2 + · · · + a2m xm = b2
⎪
⎪ .....................................................
⎩
an1 x1 + an2 x2 + · · · + anm xm = bn
donde los escalares aij ∈ K (1 ≤ i ≤ n, 1 ≤ j ≤ m) reciben el nombre de coeficientes del sistema, bi
(bi ∈ K) se denominan términos independientes y xj (1 ≤ j ≤ m) son las incógnitas del sistema. Si
se considera la matriz formada por los coeficientes
⎛ ⎞
a11 a12 · · · a1m
⎜ a21 a22 · · · a2m ⎟
⎜ ⎟
A = ⎜ .. .. .. ⎟
⎝ . . . ⎠
an1 an2 · · · anm
8
Aprendemos a hacer cuentas
Definition 1 Una solución del sistema anterior es una m-tupla de elementos x∗1 , . . . , x∗m ∈ K de
forma que al sustituir cada incógnita por el x∗j correspondiente se verifican todas las ecuaciones.
Usando la notación matricial, una solución será un vector x∗ ∈ Km tal que A · x∗ = b.
Por ejemplo consideremos el sistema
⎧
⎨ x1 + x2 + x3 = 3,
2x1 + x2 = 3,
⎩
x1 − x2 + x3 = 1,
o de forma matricial ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 x1 3
⎝ 2 1 0 ⎠ · ⎝ x2 ⎠ = ⎝ 3 ⎠ .
1 −1 1 x3 1
Veamos que la matriz (1, 1, 1)t , es decir x1 = x2 = x3 = 1, es solución del sistema. Para ello
multiplicamos ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 1 1+1+1 3
⎝ 2 1 0 ⎠ · ⎝ 1 ⎠ = ⎝ 2 + 1 ⎠ = ⎝ 3 ⎠.
1 −1 1 1 1−1+1 1
9
Aprendemos a hacer cuentas
• El sistema es incompatible, es decir, no existe solución alguna del sistema si y sólo si r(A) <
r(A|b).
• El sistema es compatible si y sólo si r(A) = r(A|b).
La anterior discusión del carácter del sistema en términos de los rangos de su matriz y de su
matriz ampliada es la tesis del conocido Teorema de Rouché-Frobenius.
10
Aprendemos a hacer cuentas
tiene por única solución α1 = α2 = α3 = 0, por lo que las columnas A1 , A2 y A3 son linealmente
independientes. El rango de la matriz
⎛ ⎞
1 1 1
B = ⎝ 0 2 −2 ⎠
0 0 0
es dos ya que una fila de ceros es siempre linealmente dependiente con cualesquiera otras filas. Nótese
que siempre es posible escribir
para cualquier α ∈ R. Así, podemos “eliminar” la fila de ceros y calcular el rango de la matriz
µ ¶
1 1 1
C= ,
0 2 −2
que tendrá como máximo rango dos al tener únicamente dos filas. Como
µ ¶ µ ¶ µ ¶ µ ¶ µ ¶
1 2 1 1 1 1 α1 0
α1 · A + α2 · A = α1 · + α2 · = · =
2 2 0 2 α2 0
tiene por solución α1 = α2 = 0 ambas columnas son linealmente independientes y por tanto r(C) =
r(B) = 2.
Vamos a ver en el siguiente apartado cómo obtener la solución de un sistema y el rango de matrices
cuando éstas no son triangulares. Para ello necesitamos introducir una manera de manipular sistemas
o matrices por medio de unas operaciones que llamaremos elementales.
A · x = b → A(O) · x = b(O),
O
donde A(O) y b(O) son las nuevas matrices del sistema transformado. Por ejemplo, dado el sistema
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 x 1
⎝ 1 −1 0 ⎠ · ⎝ y ⎠ = ⎝ 0 ⎠ ,
1 2 3 z 6
11
Aprendemos a hacer cuentas
realizamos las siguientes operaciones elementales. Si intercambiamos la segunda y tercera fila, ope-
ración que denotaremos por F2 × F3 , escribiremos
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 x 1 1 1 1 x 1
⎝ 1 −1 0 ⎠ · ⎝ y ⎠ = ⎝ 0 ⎠ → ⎝ 1 2 3 ⎠ · ⎝ y ⎠ = ⎝ 6 ⎠,
F2 ×F3
1 2 3 z 6 1 −1 0 z 0
y ahora ⎛ ⎞
1 1 1
A(2F2 ) = ⎝ 2 −2 0 ⎠ .
1 2 3
Finalmente, si le sumamos a la tercera fila la primera multimplicada por tres escribimos
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 x 1 1 1 1 x 1
⎝ 1 −1 0 ⎠ · ⎝ y ⎠ = ⎝ 0 ⎠ → ⎝ 1 −1 0 ⎠ · ⎝ y ⎠ = ⎝ 0 ⎠ ,
F3 +3F1
1 2 3 z 6 4 5 6 z 9
y ⎛ ⎞
1 1 1
A(F3 + 3F1 ) = ⎝ 1 −1 0 ⎠ .
4 5 6
Démonos cuenta que toda operación elemental se puede revertir, esto es, existe otra operación
elemental que nos devuelve al sistema original. Es fácil ver que si realizamos la operación intercambiar
las filas i y j, Fi × Fj , entonces realizando la misma operación volvemos al sistema original, esto es,
A · x = b → A(Fi × Fj ) · x = b(Fi × Fj ) → A · x = b.
Fi ×Fj Fi ×Fj
A · x = b → A(αFi ) · x = b(αFi ) 1→ A · x = b.
αFi Fi
α
12
Aprendemos a hacer cuentas
Esta propiedad nos resultará útil para probar el siguiente resultado, que como veremos es clave.
Demostración. Para fijar ideas sea A = (aij ) y b = (bi ). Sea x0 = (x01 , ..., x0m )t una solución
arbitraria del sistema A · x = b y veamos que también es solución de A(O) · x = b(O). Distingamos
para ello los siguientes tres casos. Si O = Fi × Fj , entonces es obvio darse cuenta que x0 también es
solución. Si multiplicamos la fila i por α ∈ K \ {0}, entonces
αai1 x01 + ... + αaim x0m = α(ai1 x01 + ... + aim x0m ) = αbi .
Como las demás filas del sistema no han variado también se satisfacen las ecuaciones y por tanto x0
es solución de A(αFi ) · x = b(αFi ). Finalmente, si la operación es Fi + αFj , tenemos que
(ai1 + αaj1 )x01 + ... + (aim + αajm )x0m = ai1 x01 + ... + aim x0m + α(aj1 x01 + ... + ajm x0m ) = bi + αbj .
Como de nuevo las demás filas del sistema no han variado también se satisfacen las ecuaciones y por
tanto x0 es solución de A(Fi + αFj ) · x = b(Fi + αFj ).
Hemos probado entonces que toda x0 solución de A · x = b, también es solución de A(O) · x =
b(O). Veamos ahora el recíproco. Para ello, sea O0 la operación elemental tal que
A · x = b → A(O) · x = b(O) →0 A · x = b,
O O
y entonces, vemos que igualmente y por la misma razón toda solución de A(O) · x = b(O) lo es de
A · x = b.
Veamos entonces como aprovechar esta propiedad para obtener las soluciones del sistema. Para
fijar ideas, sea A · x = b un sistema dado en forma matricial con A ∈ Mn×m (K). El método de
Gauss consta de las siguientes etapas:
• En primer lugar se realizan transformaciones elementales por filas sobre la matriz ampliada del
sistema A|b hasta obtener una matriz equivalente de la forma
µ ¶
B c
,
0 d
con B una matriz lo más sencilla posible (triangular en la mayoría de los casos). El sistema
original tiene las mismas soluciones que el sistema
µ ¶ µ ¶
B c
·x= ,
0 d
13
Aprendemos a hacer cuentas
• Si d 6= 0 el sistema es incompatible.
• Si d = 0, entonces el sistema es compatible y equivalente a B · x = c, que es un sistema cuyas
soluciones son fáciles de calcular.
14
Aprendemos a hacer cuentas
15
Aprendemos a hacer cuentas
3. Suma a una fila (columna) otra fila (columna) multiplicada por un escalar α ∈ K.
Para evitar equívocos que se pueden producir al utilizar indistintamente operaciones elementales
fila y columna, a partir de ahora vamos a trabajar únicamente con operaciones elementales fila.
Fijemos un poco de notación para entendernos. Consideremos una matriz A y realizemos sobre ella
una operación elemental fila O. Escribiremos entonces
A −→ A(O),
O
Idéntica notación tenemos para operaciones columna cambiando F por C, aunque no usaremos
estas.en general. La utilidad de las operaciones elementales para calcular el rango de una matriz se
concreta en el siguiente resultado.
Proposition 4 Sea A ∈ Mn×m (K) y sea O una operación elemental. Entonces r(A) = r(A(O)).
Demostración. Sean k = r(A) e i1 , ..., ik ∈ {1, ..., m} tal que Ai1 , ..., Aik son columnas li-
nealmente independientes. Si O = Fi × Fj , entonces las columnas de la matriz no cambian, solo
el orden, y es claro que el número de columnas linealmente independientes es idéntico, con lo que
16
Aprendemos a hacer cuentas
r(A) = r(A(Fi × Fj )). Supongamos que O = αFi , α ∈ K \ {0}. Si i ∈ / {i1 , ..., ik }, entonces las colum-
nas Ai1 , ..., Aik no han cambiado y r(A) ≤ r(A(αFi )). Si i ∈ {i1 , ..., ik }, por ejemplo i = i1 , entonces
de la expresión α1 α · Ai1 + ... + αk · Aik = 0, obtenemos por la independencia lineal de Ai1 , ..., Aik
que αi = 0 si i = 2, ..., k y αα1 = 0, de donde α1 = 0 ya que α 6= 0. De nuevo r(A) ≤ r(A(αFi )).
Entonces r(A) ≤ r(A(αFi )) ≤ r(A(αFi )( α1 Fi )) ≤ r(A), por lo que r(A) = r(A(αFi )). Finalmente,
supongamos que O = Fi + αFj , α ∈ K. Si i ∈ / {i1 , ..., ik }, entonces las columnas Ai1 , ..., Aik no han
cambiado y r(A) ≤ r(A(Fi + αFj )). Si i, j ∈ {i1 , ..., ik }, por ejemplo i = i1 y j = ik , entonces de la
expresión
obtenemos por la independencia lineal de Ai1 , ..., Aik que αi = 0 si i = 1, ..., k − 1 y αα1 + αk = 0,
de donde αk = 0 ya que α1 = 0. De nuevo r(A) ≤ r(A(Fi + αFj )). Si i ∈ {i1 , ..., ik }, por
ejemplo i = i1 , y distinguimos dos casos: si Aj , Ai2 , ..., Aik son linealmente independientes entonces
r(A) ≤ r(A(Fi + αFj )). En caso contrario existen β i ∈ K, 1 ≤ i ≤ k, con β 1 6= 0 de manera que
de donde
Aj = γ 2 · Ai2 + ... + γ k · Aik
con γ i = −β i /β 1 , 2 ≤ i ≤ k. Escribamos
y como Ai1 , ..., Aik son linealmente independientes α1 = 0 y así αα1 γ i + αi = αi = 0, 2 ≤ i ≤ k, por
la independencia lineal de Ai2 , ..., Aik . Así r(A) ≤ r(A(Fi + αFj )). Como
y la última matriz es triangular y es fácil ver que sus tres primeras son linealmente independientes
ya que el sistema ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 0 2 0
α1 · ⎝ 0 ⎠ + α2 · ⎝ 1 ⎠ + α3 · ⎝ −2 ⎠ = ⎝ 0 ⎠
0 0 6 0
tiene como única solución α1 = α2 = α3 = 0, por lo que su rango es tres.
17
Aprendemos a hacer cuentas
son matrices elementales. Entonces se verifica la siguiente propiedad que es la clave que permite
utilizar las operaciones elementales para calcular matrices inversas.
Proposition 5 Sean A ∈ Mn×n (K) y O una operación elemental fila. Entonces A(O) = In (O) · A.
Si O = αFk , α 6= 0, entonces A(αFk ) = (a∗ij ), con a∗kj = αakj y a∗ij = aij si i 6= k. Similarmente
In (αFk ) = (δ ∗ij ), donde δ ∗kj = αδ kj y δ ∗ij = δ ij si i 6= k. Entonces
à n ! ½ ¾
X αakj si i = k,
In (αFk ) · A = δ ∗is asj = = (a∗ij ) = A(αFk ).
aij si i 6= k,
s=1
Finalmente, supongamos que O = Fk +αFl y sean de nuevo A(Fk +αFl ) = (a∗ij ), con a∗kj = akj +αalj
y a∗ij = aij si i 6= k, e In (Fk + αFl ) = (δ ∗ij ), donde δ ∗kj = δ kj + αδlj y δ ∗ij = δ ij si i 6= k. Entonces
à n ! ½ ¾
X akj + αalj si i = k,
In (Fk + αFl ) · A = δ ∗is asj = = (a∗ij ) = A(Fk + αFl ),
aij si i 6= k,
s=1
18
Aprendemos a hacer cuentas
y calculamos su inversa mediante operaciones elementales. Para ello realizamos operaciones elemen-
tales fila en la matriz buscando conseguir la matriz identidad I3 .
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 1 1 1 1 1 1
A = ⎝ 1 0 1 ⎠ −→ ⎝ 0 −1 0 ⎠ −→ ⎝ 0 −1 0 ⎠
F2 −F1 F3 −F1
1 1 0 1 1 0 0 0 −1
⎛ ⎞ ⎛ ⎞
1 1 0 1 0 0
: −→ ⎝ 0 −1 0 ⎠ −→ ⎝ 0 −1 0 ⎠
F1 +F3 F1 +F2
0 0 −1 0 0 −1
⎛ ⎞ ⎛ ⎞
1 0 0 1 0 0
: −→ ⎝ 0 1 0 ⎠ −→ ⎝ 0 1 0 ⎠ = I3 .
−1·F2 −1·F3
0 0 −1 0 0 1
Ahora bien, por la propiedad anterior, tenemos que
I3 = I3 (−1 · F3 ) · I3 (−1 · F2 ) · I3 (F1 + F2 ) · I3 (F1 + F3 ) · I3 (F3 − F1 ) · I3 (F2 − F1 ) · A,
de donde deducimos que la matriz A es invertible y
A−1 = I3 (−1 · F3 ) · I3 (−1 · F2 ) · I3 (F1 + F2 ) · I3 (F1 + F3 ) · I3 (F3 − F1 ) · I3 (F2 − F1 ).
Pero en vez de multiplicar todas estas matrices elementales, nos damos cuenta de que
A−1 = I3 (−1 · F3 ) · I3 (−1 · F2 ) · I3 (F1 + F2 ) · I3 (F1 + F3 ) · I3 (F3 − F1 ) · I3 (F2 − F1 ) · I3 ,
y de nuevo por la propiedad anterior, la inversa la obtendremos haciendo las mismas operaciones
elementales que hicimos en A pero ahora las hacemos sobre la identidad y obtenemos
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 0 0 1 0 0 1 0 0
I3 = ⎝ 0 1 0 ⎠ −→ ⎝ −1 1 0 ⎠ −→ ⎝ −1 1 0 ⎠
F2 −F1 F3 −F1
0 0 1 0 0 1 −1 0 1
⎛ ⎞ ⎛ ⎞
0 0 1 −1 1 1
: −→ ⎝ −1 1 0 ⎠ −→ ⎝ −1 1 0 ⎠
F1 +F3 F1 +F2
−1 0 1 −1 0 1
⎛ ⎞ ⎛ ⎞
−1 1 1 −1 1 1
: −→ ⎝ 1 −1 0 ⎠ −→ ⎝ 1 −1 0 ⎠ = A−1 .
−1·F2 −1·F3
−1 0 1 1 0 −1
Para ahorrar tiempo, se suelen escribir juntas la matriz A y la identidad y realizar las operaciones
fila un única vez sobre la matriz formada por A y la identidad, como en el siguiente ejemplo. Sea
⎛ ⎞
1 0 0
A = ⎝ 1 1 0 ⎠.
1 1 1
Tomamos entonces la matriz ⎛ ¯ ⎞
1 0 0 ¯¯ 1 0 0
⎝ 1 1 0 ¯ 0 1 0 ⎠
¯
1 1 1 ¯ 0 0 1
19
Aprendemos a hacer cuentas
siendo ∆1j la matriz cuadrada de orden n − 1 resultante de eliminar la primera fila y la j-ésima
columna de A.
De esta definición se deducen de forma inmediata las fórmula usuales para calcular determinantes
de matrices de orden dos y tres. Así:
¯ ¯
¯ a11 a12 ¯
¯ ¯
¯ a21 a22 ¯ = a11 a22 − a12 a21 .
20
Aprendemos a hacer cuentas
En general, si A ∈ Mn×n (K) es diagonal entonces |A| = a11 a22 ...ann . Si n = 1, la fórmula es
trivialmente cierta. Si suponemos cierta la relación para matrices de M(n−1)×(n−1) (K), entonces
X
n
|A| = a1j (−1)1+j |∆1j | = a11 |∆11 | = a11 a22 ...ann ,
j=1
dado que ∆11 ∈ M(n−1)×(n−1) (K) es la matriz triangular que tiene a22 , ..., ann como coeficientes en
la diagonal principal.
Remark 2 La definición de determinante de una matriz cuadrada A = (aij ) ∈ Mn×n (K) que
hemos dado aquí no es la que suele darse en los libros de matemáticas como [?]. Esta definición
más usual de determinante se basa en la noción de permutación, que es una aplicación biyectiva
σ : {1, ..., n} → {1, ..., n}. Si Sn es el conjunto de todas las permutaciones definidas sobre {1, ..., n},
entonces el determinante de la matriz A es
X
|A| = s(σ)a1σ(1) ...anσ(n) ,
σ∈Sn
que es la definición que hemos dado para el determiante de matrices de orden o tamaño dos. A
partir de esta definición más rigurosa se pueden probar todas las propiedades que daremos en la
siguiente sección. Aquellas que no probemos pueden probarse a partir de esta definición, pero cuya
demostración no es sencilla con la definción inductiva que hemos adoptado, que a su vez, tiene la
ventaja de entrar más directamente en el cálculo práctico de los determinantes.
1.7.1 Propiedades
Sean A, B ∈ Mn×n (K) se verifican las siguientes propiedades:
P P
D1. |A| = nj=1 aij (−1)i+j |∆ij |, para cada 1 ≤ i ≤ n, y |A| = ni=1 aij (−1)i+j |∆ij |, para cada
1 ≤ j ≤ n, donde ∆ij es la matriz resultante de eliminar la fila i y la columna j de la matriz
original y se llama menor de orden i, j de A.
D2. |A · B| = |A| · |B|.
D3. |A| = |At |.
D4. Si cambiamos dos filas o columnas de orden el determinante cambia el signo, es decir, |A(Fi ×
Fj )| = |A(Ci × Cj )| = −|A|.
21
Aprendemos a hacer cuentas
Para probar la propiedad general démonos cuenta que podemos obtener A(Fi ×Fj ) intercambiando
2(j − i) − 1 filas contiguas en 2(j − i) − 1 operaciones fila elementales, por lo que
Finalmente, por D3
de donde 2|A| = 0 y por tanto |A| = 0. La prueba en caso de dos columnas iguales es idéntica.
D6. Si sumamos a una fila o columna de A ∈ Mn×n (K) otra fila o columna multiplicada por un
escalar el determinante no varía, esto es |A| = |A(Fi + αFj )|= |A(Ci + αCj )|.
D7. Si se multiplica una fila o columna de una matriz A por un escalar α 6= 0, entonces el determi-
nante de A queda multiplicado por α. Es decir, |A(αFi )| = |A(αCi )| = α · |A|.
22
Aprendemos a hacer cuentas
X
n X
n
i+j
|A(αFi )| = αaij (−1) |Φij | = α aij (−1)i+j |∆ij | = α|A|.
j=1 j=1
D8. Si una matriz A ∈ Mn×n (K) tiene una fila o columna que es combinación lineal de las otras,
entonces |A| = 0. En particular, si una fila o columna de A es nula entonces su determinante
es nulo.
Demostración. Supongamos por ejemplo que existen i, i1 , ..., ik ∈ {1, ..., n} tal que Ai = α1 ·
Ai1 + ... + αk · Aik , con αij ∈ K, 1 ≤ j ≤ k. Entonces la matriz A(Fi − α1 Fi1 )...(Fi − αk Fik ) tiene la
fila i nula. Si ∆ij es el menor de orden i, j de dicha matriz, por D6 y D1 tenemos
X
n
|A| = |A(Fi − α1 Fi1 )...(Fi − αk Fik )| = 0(−1)i+j |∆ij | = 0,
j=1
dado que ¯ ¯
¯ 1 0 ¯
¯ ¯ = 2 6= 0,
¯ 9 2 ¯
D9. Se verifica
¯ ¯ ¯ ¯ ¯ ¯
¯ a11 ... a1n ¯ ¯ a11 ... a1n ¯ ¯ a11 ... a1n ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ ... ... ... ¯ ¯ ... ... ... ¯ ¯ ... ... ... ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ ai1 + a0i1 ... an1 + a0n1 ¯=¯ ai1 ... an1 ¯+¯ a0i1 ... a0n1 ¯.
¯ ¯ ¯ ¯ ¯ ¯
¯ ... ... ... ¯ ¯ ... ... ... ¯ ¯ ... ... ... ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ an1 ... ann ¯ ¯ an1 ... ann ¯ ¯ an1 ... ann ¯
23
Aprendemos a hacer cuentas
Demostración. Sean ⎛ ⎞
a11 ... a1n
⎜ ... ... ... ⎟
⎜ ⎟
A=⎜ 0
⎜ ai1 + ai1 ... an1 + a0n1 ⎟,
⎟
⎝ ... ... ... ⎠
an1 ... ann
⎛ ⎞
a11 ... a1n
⎜ ... ... ... ⎟
⎜ ⎟
B=⎜ ⎜ ai1 ... an1 ⎟
⎟
⎝ ... ... ... ⎠
an1 ... ann
y ⎛ ⎞
a11 ... a1n
⎜ ... ... ... ⎟
⎜ ⎟
C=⎜
⎜ a0i1 ... a0n1 ⎟.
⎟
⎝ ... ... ... ⎠
an1 ... ann
Entonces los menores de orden i, j de A, B y C son iguales y por tanto por D1
X
n
|A| = (aij + a0ij )(−1)i+j |∆ij |
j=1
Xn X
n
= aij (−1)i+j |∆ij | + a0ij (−1)i+j |∆ij | = |B| + |C|,
j=1 j=1
24
Aprendemos a hacer cuentas
• Si i = j:
X
n
aik (−1)k+i |∆ik | = |A|.
k=1
• Si i 6= j:
a11 · · · a1n
.. ..
. .
Xn a i1 · · · a in
aik (−1)k+j |∆jk | = .. .. = 0,
. .
k=1 fila j ai1 · · · ain
.. ..
. .
an1 · · · ann
entonces
⎛ ⎞t ⎛ ⎞ ⎛ ⎞
2 0 0 2 −4 −1 1 −2 − 12
1 ⎝ 1
A−1 = · −4 2 0 ⎠ = · ⎝ 0 2 −1 ⎠ = ⎝ 0 1 − 12 ⎠ .
|A| 2 1
−1 −1 1 0 0 1 0 0 2
Nótese que una matriz cuadrada con determinante no nulo es invertible por lo que su rango
coincidirá con el número de filas de la matriz. Este hecho puede ayudar a calcular el rango de
matrices. Por ejemplo, la matriz µ ¶
2 −1 3 3
1 1 3 3
verifica que ¯ ¯
¯ 2 −1 ¯
¯ ¯
¯ 1 1 ¯ = 3,
por lo que su rango es dos.
25
Aprendemos a hacer cuentas
A ∈ Mn×n (K) y tal que |A| 6= 0. Evidentemente la matriz A es invertible por lo que la solución
única del sistema será x = A−1 ·b y usando la fórmula para la matriz inversa mediante determinantes
se llega a que la solución es de la forma:
⎛ Pn k+1
⎞
Pn k=1 (−1) |∆ k1 |b k
−1 t 1 ⎜ ⎜ k=1 (−1)
k+2
|∆k2 |bk ⎟ ⎟,
x = |A| · Ā · b = ·⎝ ⎠
|A| Pn............................
k+n
k=1 (−1) |∆kn |bk
de donde es inmediata la regla de Cramer.
La regla de Cramer puede adaptarse para resolver sistemas de ecuaciones lineales no necesaria-
mente cuadrados y de manera que el determinante de la matriz sea nulo en caso de sistemas no
cuadrados. Así dado A · x = b un sistema con n ecuaciones y m incógnitas (n < m). Supo-
niendo que r(A) = n, el sistema es compatible indeterminado como consecuencia del Teorema de
Rouché-Frobenius. Suponiendo además que las n primeras columnas de A son linealmente indepen-
dientes, se tiene que asignando parámetros a las variables asociadas a las últimas m − n columnas
xj = μj , n + 1 ≤ j ≤ m, el valor de las restantes variables viene dado por el sistema:
⎛ ⎞
x1 Xm
⎜ .. ⎟
B·⎝ . ⎠=b− μj · Aj ,
xn j=n+1
con B = (A1 , ...., An ) ∈ Mn×n (K). Evidentemente el sistema anterior es cuadrado y |B| 6= 0 ya que
r(B) = n, por lo que puede resolverse usando la regla de Cramer. Por ejemplo, el sistema
⎧
⎨ x + y + z = 3,
x − y = 0,
⎩
2x + z = 3,
26
Aprendemos a hacer cuentas
verifica que ¯ ¯
¯ ¯ ¯ 1 1 1 ¯
¯ 1 1 ¯ ¯ ¯
¯ ¯ = −2, y ¯ 1 −1 0 ¯ = 0,
¯ 1 −1 ¯ ¯ ¯
¯ 2 0 1 ¯
mientras que ¯ ¯
¯ 1 1 3 ¯
¯ ¯
¯ 1 −1 0 ¯ = 0,
¯ ¯
¯ 2 0 3 ¯
por lo que los rangos de las matrices del sistema es dos y el sistema es compatible. Despejamos la
variable z, que no vamos a poder calcular
½
x + y = 3 − z,
x − y = 0,
y entonces
¯ ¯
¯ 3−z 1 ¯
¯ ¯
¯ 0 −1 ¯ z−3
x = ¯ ¯ = ,
¯ 1 1 ¯ 2
¯ ¯
¯ 1 −1 ¯
¯ ¯
¯ 1 3−z ¯
¯ ¯
¯ 1 0 ¯ z−3
y = ¯¯ ¯
¯ = ,
¯ 1 1 ¯ 2
¯ 1 −1 ¯
1.8 Ejercicios
1. Dadas las siguientes matrices realizar, si es posible, las operaciones que se indican:
⎛ ⎞ ⎛ ⎞
¡ ¢ −1 2 + i −1 1
A = 1 −1 2 B=⎝ 0 ⎠ C=⎝ 0 1 2 ⎠
2 1 2 + 2i 0
⎛ ⎞
2 1 µ ¶
⎝ ⎠ i 1
D= 1 3 E=
2 1−i
0 −1
(a) (2A + 3Bt ) · C (b) Ct · At − (A · C)t (c) D · C + E (d) D · (E + C)
(e) (C − 2I3 )t · (B + At ) (f) B · A · C · D (g) E · Dt · C (h) Bt · At · C · D
27
Aprendemos a hacer cuentas
4. Determinar si las siguientes matrices son invertibles y calcular en caso afirmativo su matriz
inversa ⎛ ⎞
1 0 1 0 ⎛ ⎞ ⎛ ⎞
⎜ 0 1 0 1 ⎟ 1 1 1 1 0 1
A=⎜ ⎝ 1 0 0 0 ⎠ B=
⎟ ⎝ −1 0 −1 ⎠ C = ⎝ 0 1 1 ⎠
2 1 2 1 1 0
0 0 0 1
0 0 b a
⎛ ⎞
0 0 0 0
⎜ 2 0 0 0 ⎟
6. Sea la matriz A = ⎜
⎝ 2
⎟ , se pide:
2 0 0 ⎠
2 2 2 0
28
Aprendemos a hacer cuentas
(a) (A + B)2 = A2 + 2A · B + B2 .
(b) A2 − B2 = (A − B) · (A + B).
(c) Am+1 − In = (A − In )(In + A + A2 + ... + Am ).
(d) Si P es una matriz con determinante no nulo, entonces (P · A · P−1 )n = P · An P−1 .
(e) Si A es antisimétrica, entonces A2 es simétrica.
(f) Si A es antisimétrica y B es simétrica, entonces A · B es antisimétrica si y sólo si A · B =
B · A.
29
Aprendemos a hacer cuentas
(a) Dado un sistema de m ecuaciones con n incógnitas, A · x = b, que admite solución única,
entonces ésta es x = A−1 · b.
(b) Si los sistemas A · x = b1 y A · x = b2 son compatibles, entonces lo es A · x = b donde
b = b1 + b2 .
(c) Un sistema con más ecuaciones que incógnitas es siempre incompatible.
(d) Si un sistema de ecuaciones A · x = b es compatible determinado, entonces A es una
matriz cuadrada.
(e) Si A · x = b es un sistema incompatible con 5 ecuaciones y 4 incógnitas y el r(A) = 4
entonces r(A|b) = 5.
17. Calcular las soluciones de los siguientes sistemas de ecuaciones tanto por el método de Gauss,
como por el método de Kramer (por determinantes).
⎧ ⎧ ⎧
⎨ 8x + y + 4z = 9 ⎨ 6x − y + 3z = 6 ⎨ x+y+z =1
(a) 5x − 2y + 4z = 6 (b) −6x + 8y = −10 (c) 3x − 4y = 5
⎩ ⎩ ⎩
x+y =1 2x − 5y − z = 4 7x − y − 3z = 8.
30
Aprendemos a hacer cuentas
22. Una empresa hortofructícola tiene tres factorías diferentes en Castellón, Valencia y Alicante. En
la época de la naranja cada una de estas factorías se dedica a envasar tres variedades diferentes
de naranjas: navalate, navel y satsuma. La capacidad de envasado de la factoría de Castellón
es de 4000Kg. de navalate, 3000Kg. de navel y 5000Kg de satsuma, todo ello por hora. La
de Valencia es de 1000Kg. por hora de las tres variedades de naranjas. La de Alicante es de
2000Kg. de navalate, 4000Kg. de navel y 3000Kg. se satsuma, también por hora. ¿Cuántas
horas se debe trabajar en cada factoría para satisfacer los dos siguientes pedidos?
23. Una empresa tiene dos tipos de procesos productivos: torno y fresadora. Cada uno de estos
procesos se utiliza para fabricar tres tipos de productos A, B y C. Se dispone de 120 horas
semanales de torno y de 260 horas de fresadora, y las necesidades asociadas a cada proceso,
por unidad de producto, son las siguientes:
24. Una empresa se dedica a la fabricación de cuatro tipos de jabón. Desde la compra de materias
primas hasta la disposición para la distribución se realizan las siguientes fases: I) se mezclan los
dos tipos de materias primas utilizadas, grasa vegetal y sosa cáustica; II) se introduce la mezcla
obtenida en unos moldes preparados al efecto; III) los bloques obtenidos en la fase anterior se
cortan y troquean, y IV) las pastillas así obtenidas se envasan en cajas de cartón de doscientas
unidades.
Los recursos necesarios para producir los cuatro tipos de jabones, por caja fabricada, vienen
dados en la tabla siguiente:
Si se dispone durante una semana de 1970 Kg. de grasa vegetal, 970 Kg. de sosa cáustica, 601
hora/máquina en la sección de moldeado y de 504 horas/máquina en la sección de troquela-
do, ¿cuántas cajas de jabones de cada tipo se pueden producir, utilizando todos los recursos
disponibles, en una semana?
31
Aprendemos a hacer cuentas
25. Un agricultor produce maíz, trigo y cebada en las 12 hanegadas de tierra que posee. Cada
Kg. de cereal plantado precisa de una cierta cantidad de dinero y de un determinado número
de horas de trabajo semanales para su cultivo. En la tabla siguiente se especifica el capital
necesario (en miles de pesetas), el trabajo preciso (en horas semanales) y el beneficio que
produce (en miles de pesetas) cada uno de los cereales:
Calcular cuántos Kg. deberá de cultivar de cada tipo de cereal para obtener un beneficio de
400 mil pesetas si dispone de 360.000 pesetas y decide trabajar 48 horas semanales.
26. La ley de corriente de Kirchhoff dice que la suma algebraica de todas las corrientes que confluyen
en un nudo de un circuito es nula. La ley de Ohm dice que la corriente a través de una resistencia
entre dos nudos es el cociente entre la diferencia de voltaje entre cada nudo y el valor de la
resistencia Dado el circuito de la figura, calcular las intensidades y los voltajes en cada nudo.
circui.eps
28. Una ciudad tiene tres industrias principales: una mina de carbón, una central eléctrica y un
ferrocarril local. Para obtener 10 ptas de carbón, se utilizan 2 ptas de electricidad para hacer
funcionar el equipamiento y 4 ptas para transportarlo a los almacenes. Para producir 10 ptas
de electricidad la central eléctrica necesita 5 ptas de carbón de combustible, 1 pta de su propia
electricidad y una peseta para dedicarla al transporte. Finalmente, para obtener 10 ptas en
transporte se necesitan 5 ptas de carbón y 1 pta de electricidad. En una semana, la mina
de carbón recibe un pedido valorado en 100000 ptas y la central eléctrica recibe otro pedido
de 200000 ptas. El ferrocarril no satisface ninguna demanda externa. ¿Qué cantidad deben
producir cada una de las industrias para satisfacer en esa semana tanto la demanda interna
como la externa?
29. Encontrar el polinomio de grado 2 cuya gráfica que pasa por los puntos (1,4), (2,9) y (3,8).
32
Aprendemos a hacer cuentas
30. Encuentra un polinomio p(x) que verifique que p(0) = 1, p(1) = 0, p0 (0) = −1 y p00 (1) = 1.
31. Halla la ecuación de una circunferencia que pase por los puntos (0, 1), (−1, 1) y (1, 0).
32. En una placa circular se ha establecido un mallado como el que se indica en el dibujo. Sabiendo
las temperaturas en los puntos de la malla situados en el borde y que la temperatura en los
demás puntos es igual a la media de la temperatura en los cuatro puntos adyacentes, calcula
la temperatura en todos los puntos del mallado.
temp.eps
34. Dada una matriz cuadrada A, ¿qué valores puede tomar |A| si:
(a) A2 = A?
(b) A = A−1 ?
33
Aprendemos a hacer cuentas
41. De las afirmaciones siguientes, demostrar las verdaderas y dar un contraejemplo para las falsas:
34
Capítulo 2
Espacio vectorial
La línea seguida en este tema puede verse en [?], aunque algunas demostraciones han sido elabo-
radas por el autor para adaptarlas al nivel del alumno. Otras referencias de interés, de entre la gran
cantidad de textos sobre álgebra lineal existentes, son [?].
8. 1 · u = u.
Entonces se dice que la terna (V, +, ·) tiene estructura de espacio vectorial sobre el cuerpo K.
Ejemplos de espacios vectoriales son los siguientes:
35
Espacio vectorial
Example 1 Como ya vimos en el tema de matrices el conjunto de las matrices Mn×m (K) con la
suma de matrices y el producto por escalares tiene estructura de espacio vectorial ya que satisface
las 8 propiedades anteriores. Cuando las matrices tengan una única fila, entonces escribiremos el
conjunto como Km (el caso que más trataremos será el de Rn ).
Example 2 Sea Pn [x] el conjunto de los polinomios de grado menor o igual que n ∈ N con coefi-
cientes en K. Con la suma usual de polinomios y el producto usual por escalares este conjunto es un
espacio vectorial sobre K.
Example 3 Sea C([a, b]), a, b ∈ R, el conjunto de funciones continuas definidas sobre [a, b]. Dadas
f, g ∈ C([a, b]) y α ∈ R definimos (f + g)(x) = f (x) + g(x) y (α · f )(x) = αf (x) para todo x ∈ [a, b].
Es fácil comprobar que C([a, b]) con estas operaciones es un espacio vectorial sobre R.
Veamos ahora algunas propiedades básicas que se derivan directamente de los 8 axiomas de espacio
vectorial.
(c) α · u = 0 si y solo si α = 0 o u = 0.
(e) Si α · u = α · v y α 6= 0, entonces u = v.
(f) Si α · u = β · u y u 6= 0, entonces α = β.
(0 + 0) · u = 0 · u + 0 · u =0 · u.
α · (0 + 0) = α · 0 + α · 0 = α · 0.
36
Espacio vectorial
tenemos que u = 0.
(d) Por un lado α + (−α) = 0 de donde multiplicando por u tenemos que
(α + (−α)) · u = 0 · u = 0.
−(α · u) = (−α) · u.
Por otro lado u + (−u) = 0. Multiplicando por α ambos miembros y procediendo como en el
caso anterior tenemos que
−(α · u) = α · (−u).
(e) Si α · u = α · v y α 6= 0, entonces α · (u − v) = 0 y por el apartado (c) se tiene que u − v = 0,
de donde u = v.
(f) Si α · u = β · u y u 6= 0, entonces (α − β) · u = 0 y por el apartado (c) se tiene que α − β = 0,
de donde α = β.
(g) Consideramos (−α) · (−u) = −(α · (−u)) = −(−α · u) = α · u.
Una primera consecuencia de la definición es que para todo α ∈ K y todo u, v ∈W se verifican que
u + v ∈ W y α · u ∈ W. Como las operaciones siguen verificando los 8 axiomas de espacio vectorial,
tenemos que W también es un espacio vectorial sobre K, de donde inferimos que un subespacio
vectorial es un espacio vectorial más pequeño dentro de uno más grande.
de donde αy1 + βy2 = 0 y αz1 + βz2 = 0 por lo que α · (x1 , y1 , z1 ) + β · (x2 , y2 , z2 ) ∈ W y así es un
subespacio vectorial de R3 .
Definition 3 Dados u1 , ..., un ∈ V se define una combinación lineal de dichos vectores como una
expresión de la forma
α1 · u1 + ... + αn · un
donde α1 , ..., αn ∈ K.
37
Espacio vectorial
Example 6 Sea S = {(1, 1, 1, 1), (0, 1, 1, 1)} ⊂ R4 y calculemos L(S). Para ello démonos cuenta que
un vector (x, y, z, t) ∈ L(S) si ybsólo si existen α, β ∈ R de manera que
y obtenemos que para que ambos sean iguales a dos debe verificarse que z = y = t. Entonces
38
Espacio vectorial
Veamos a continuación cómo se comporta la noción de subespacio vectorial con las operaciones
entre conjuntos. Antes, definimos una nueva operación suma del siguiente modo. Sean W1 y W2
subespacios vectoriales de V y definimos la suma de ambos como
W1 + W2 = {u + v : u ∈W1 , v ∈ W2 }.
α · u + β · v = α · (u1 + u2 ) + β · (v1 + v2 ) = (α · u1 + β · v1 ) + (α · u2 + β · v2 ) ∈ W1 + W2 ,
39
Espacio vectorial
40
Espacio vectorial
Example 10 Dado P2 [x] se verifica que 1, x y x2 son LI. Para comprobar ésto construimos la
combinación lineal
α + βx + γx2 = 0.
Dando los valores x = 0, x = 1 y x = −1 obtenemos el sistema
⎧
⎨ α = 0,
α + β + γ = 0,
⎩
α − β + γ = 0,
y al resolverlo tenemos las soluciones α = β = γ = 0.
Tenemos entonces la siguiente propiedad.
Proposition 10 Si u1 , ..., un ∈ V son LD entonces uno de ellos es el vector 0 o es combinación
lineal de los restantes.
Demostración. Si uno de ellos es 0, la tesis del resultado está probada. Supongamos entonces
que son todos los vectores no nulos y que existe una combinación lineal α1 · u1 + ... + αn · un = 0 tal
que por ejemplo α1 6= 0. Entonces podemos despejar u1 como
α2 αn
u1 = − · u2 − ... − · un ,
α1 α1
por lo que el vector u1 será combinación lineal de u2 , ..., un .
Definition 6 Dados u1 , ..., un ∈ V se dice que generan V si L({u1 , ..., un }) = V. En tal caso V se
dirá un espacio vectorial finitamente generado y {u1 , ..., un } un conjunto generador de V.
Example 11 El conjunto de vectores {(1, 1), (0, 1)} generan el espacio vectorial R2 . Para ello
consideremos un vector arbitrario (x, y) ∈ R2 y veamos que existen α, β ∈ R tales que (x, y) =
α · (1, 1) + β · (0, 1). Desarrollamos
(x, y) = (α, α + β),
que da lugar al sistema ½
x = α,
y = α + β,
de donde α = x y β = y − x y así
(x, y) = x · (1, 1) + (y − x) · (0, 1),
y R2 = L({(1, 1), (0, 1)}).
Example 12 No todos los espacios vectoriales son finitamente generados. Por ejemplo, el conjunto
de los polinomios con coeficientes reales
P[x] = {a0 + a1 x + ... + an xn : n ∈ N, ai ∈ R, 0 ≤ i ≤ n}
es un subespacio vectorial sobre R. Supongamos que existe polinomios p1 (x), ..., pk (x) ∈ P[x] que
generan dicho espacio vectorial. Sea m el grado del polinomio de más grado entre los polinomios
˙ Entonces nos es posible encontrar números reales α1 , ..., αk tales que
p1 (x), ..., pk (x).
xm+1 = α1 p1 (x) + ... + αk pk (x),
ya que en la igualdad anterior el polinomio de la izquierda de la igualdad es m + 1 y el de la derecha
es a lo sumo m.
41
Espacio vectorial
Proposition 11 Supongamos que S = {u1 , ..., un } generan V. Entonces existe B ⊆ S que también
genera V y tal que sus elementos son LI.
Demostración. Si los vectores de S son LI ya hemos terminado. Supongamos entonces que son
LD y apliquemos la Proposición 10 y supongamos por ejemplo que existen α2 , ..., αn ∈ K tales que
u1 = α2 · u2 + ... + αn · un . (2.1)
Entonces comprobemos que L({u1 , ..., un } \ {u2 }) = L({u2 , ..., un }) = V. Para ello, sea v ∈ V
arbitrario. Como L({u1 , ..., un }) = V existen β 1 , ..., β n ∈ K tales que v = β 1 · u1 + ... + β n · un y así
sustituyendo u1 por la expresión (2.1) y simplificando tenemos
por lo que v es combinación lineal de u2 , ..., un . De esta manera tenemos un método para eliminar
vectores LD dentro de un conjunto generador. Como tenemos una cantidad finita de vectores, debe
haber un momento en el cual los vectores que quedan al eliminar uno LD sean LI.
La siguiente propiedad establece relaciones entre el número de elementos en un conjunto generador
de V y el número de vectores LI.
Proposition 12 Supongamos que V está generado por n vectores. Entonces ningún conjunto LI de
V tiene mas de n elementos.
γ 2 · y2 + ... + γ m · ym = 0.
42
Espacio vectorial
Pero entonces
y como u1 , ..., um son LI se tiene que γ i = 0, i = 2, 3, ..., m. De nuevo por la hipótesis inductiva
m − 1 ≤ n, de donde m ≤ n + 1 como queríamos probar.
Example 13 El conjunto B = {1, x, x2 } es una base del conjunto P2 [x] de polinomios reales de
grado menor o igual que 2. Ya vimos en el ejemplo 10 que era un conjunto LI. Por otra parte, es
claro que es un conjunto generador dado que todo p(x) ∈ P2 [x] es de la forma p(x) = a + bx + cx2 ,
a, b, c ∈ R.
A continuación probamos un resultado fundamental sobre las bases de espacios vectoriales finita-
mente generados que permite definir la noción de dimensión de estos espacios.
Theorem 13 Si V es finitamente generado, entonces todas sus bases tienen el mismo número de
elementos.
Demostración. Sean B1 = {u1 , ..., un } y B2 = {v1 , ..., vm } bases de V y veamos que n = ṁ.
Consideremos B1 como conjunto generador y B2 como conjunto linealmente independiente. Aplicamos
la Proposición 12 para obtener que n ≥ m. Si ahora consideramos B1 como linealmente independiente
y B2 como conjunto generador y volvemos a aplicar la Proposición 12 y obtenemos m ≥ n. Entonces
m = n.
Proposition 14 Sea B = {u1 , ..., un } una base de V. Entonces todo vector u ∈ V admite una única
expresión como combinación lineal de los elementos de B.
u = α1 · u1 + ... + αn · un = β 1 · u1 + ... + β n · un ,
αi , β i ∈ K, 1 ≤ i ≤ n. Entonces
Como los vectores u1 , ..., un son LI, se verifica que αi − β i = 0, o lo que es lo mismo αi = β i ,
1 ≤ i ≤ n.
Sean B = {u1 , ..., un } una base de V y u ∈V. Entonces u = α1 · u1 + ... + αn · un con α1 , ..., αn ∈ K
únicos. Si los escribimos como un vector de Kn , diremos entonces que (α1 , ..., αn )B son las coordenadas
de u en la base B. Démonos cuenta que al cambiar la base cambian a su vez las coordenadas del
43
Espacio vectorial
vector. Por ejemplo, sean R2 , las bases B1 = {(1, 0), (0, 1)} y B2 = {(1, 1), (1, −1)} y el vector (2, 2).
Este vector tiene coordenadas (2, 2)B1 en la base B1 , mientras que son (2, 0)B2 en la base B2 .
La base B1 es lo que conoceremos como base canónica, esto es, aquella que verifica que las
coordenadas de un vector son las “naturales”. Por ejemplo, todo vector (x1 , ..., xn ) ∈ Kn tiene co-
ordenadas (x1 , ..., xn )C respecto de la base canónica C = {(1, 0, ..., 0), (0, 1, 0, ..., 0), ..., (0, 0, ..., 0, 1)}.
En el conjunto de los polinomios Pn [x] la base canónica es C = {1, x, ..., xn }, de manera que cualquier
polinomio a0 + a1 x + ... + an xn ∈ Pn [x] tiene por coordenadas en dicha base (a0 , a1 , ..., an )C .
Proposition 15 Sea V un espacio vectorial finitamente generado y {u1 , ..., um } un conjunto LI.
Entonces existe una base B de V de manera que {u1 , ..., um } ⊆ B.
α · v + α1 · u1 + ... + αm · um = 0,
debe verificar que α = 0. Por la independencia lineal de u1 , ..., um , se tiene además que αi = 0,
1 ≤ i ≤ m. Así {v, u1 , ..., um } es un conjunto LI. De esta manera incrementamos en una unidad el
conjunto LI. Como V es finitamente generado, en una cantidad finita de pasos logramos obtener un
conjunto LI que genere V.
A modo de resumen tenemos el siguiente resultado.
Demostración. El apartado (a) está probado en el Teorema 13. Para demostrar (b), sea
{u1 , ..., un } ⊂ V un conjunto LI. Si no fuera generador de V, aplicando la Proposición 15, podríamos
extenderlo a una base de V que necesariamente tendría mas de n elementos, lo cual contradice el
Teorema 13. De igual modo y utilizando la Proposición 11 se prueba el apartado (c).
Para finalizar el tema, nótese que los subespacios vectoriales son a su vez espacios vectoriales que
tendrán su dimensión. Sobre este particular tenemos la siguiente fórmula de las dimensiones de la
suma e intersección de subespacios vectoriales.
44
Espacio vectorial
α1 · u1 + ... + αn · un + β 1 · v1 + ... + β m · vm = 0.
Entonces
v = α1 · u1 + ... + αn · un = −β 1 · v1 − ... − β m · vm ∈ W1 ∩ W2 ,
con lo que v = 0 y
α1 · u1 + ... + αn · un = 0,
β 1 · v1 + ... + β m · vm = 0.
v1 = α1 · u1 + ... + αn · un ,
v2 = β 1 · v1 + ... + β m · vm .
Entonces
v = α1 · u1 + ... + αn · un + β 1 · v1 + ... + β m · vm ∈ L(B).
Así
dim(W1 ⊕ W2 ) = n + m = dim W1 + dim W2 .
Supongamos ahora que W1 ∩ W2 6= {0} y sea {u1 , ..., uk } una base del mismo. Por la Proposición
15 extendemos {u1 , ..., uk } a sendas bases {u1 , ..., uk , uk+1 , ..., un } y {u1 , ..., uk , vk+1 , ..., vm } de W1
y W2 , respectivamente. Sea V1 = L({uk+1 , ..., un }). Entonces V1 ∩ W2 = {0} y por tanto
dim(W1 + W2 ) = dim(V1 ⊕ W2 )
= dim V1 + dim W2
= dim W1 + dim W2 − dim(W1 ∩ W2 ),
W1 = {(x, y, z) ∈ R3 : x + y + z = 0}
y
W2 = {(x, y, z) ∈ R3 : x + y = 0, y + z = 0}.
45
Espacio vectorial
2.4 Ejercicios
1. Sea M2×2 (R) el espacio de las matrices de orden 2×2 sobre el cuerpo R, estudiar si los siguientes
conjuntos de matrices son subespacios vectoriales.
(a) W = {(x1 , x2 , x3 ) ∈ R3 : x1 + x2 = 0} .
(b) W = {(x1 , x2 , x3 ) ∈ R3 : x1 + 2x2 + x3 = 1} .
(c) W = {(x1 , x2 , x3 ) ∈ R3 : x1 = x2 = 0} .
(d) W = {(x1 , x2 , x3 ) ∈ R3 : x1 + x2 = 0 y x3 − x2 = 0} .
46
Espacio vectorial
9. Sea (V, +, ·) un espacio vectorial sobre un cuerpo K, y sea B = {v1 , ..., vn } una base de V.
Demostrar que el conjunto de vectores B0 = {u1 , ..., un } dado por u1 = v1 , u2 = v1 + v2 , ...,
un = v1 + v2 + ... + vn es también una base de V.
10. Sea P4 [x] el espacio vectorial de los polinomios
© de grado menor o igual que n. Demostrarª que
los conjuntos B = {1, x, x , x , x } y B = (1 + x)4 , x (1 + x)3 , x2 (1 + x)2 , x3 (1 + x) , x4 son
2 3 4 0
(a) dim(W1 + W2 ).
(b) dim(W1 ∩ W2 ).
(c) Ecuaciones de W1 + W2 .
(d) Ecuaciones de W1 ∩ W2 .
47
Espacio vectorial
15. Halla una base de R4 que contenga a los vectores (1, 0, 1, 1) y (2, 0, 2, 1).
16. Calcular las ecuaciones de los siguientes subespacios vectoriales:
(a) h(1, 1, 1)i (b) h(1, −1, 0), (1, 0, 0i (c) h(1, 1, 1), (0, 0, 3)i (d) h(1, 1), (1, 0)i
{(x, y, z, t) ∈ R4 : x − y − t = 0, x + y + z + t = 0}.
20. De las siguientes afirmaciones, demostrar las que sean ciertas y dar un contraejemplo para las
falsas:
48
Espacio vectorial
S1 = {(1, 1, 1, 1), (1, −1, −1, 1)} y S2 = {(1, 1, 0, 1), (1, 2, −1, 2), (3, 5, −2, 5)}.
Calcular:
23. Determinar a ∈ R para que los vectores (a, 1, 1), (1, a, 1) y (1, 1, a) sean linealmente inde-
pendientes. Determinar los tres subespacios vectoriales generados por dos de los 3 vectores
anteriores en función de a y calcular la intersección y la suma de dichos subespacios vectoriales
dos a dos. ¿Son las sumas directas?
24. Sea C(0, 1]) el espacio vectorial de las funciones continuas f : [0, 1] → R y sea W1 = {ax + bx3 :
a, b ∈ R} y W2 = {a + bx + cx2 : a, b, c ∈ R}.
25. Sea V un espacio vectorial sobre R y sean S1 = {u1 , ..., un } y S2 = {v1 , ..., vm }. Razonar la
validez o falsedad de las siguientes afirmaciones:
(a) Si S1 y S2 son linealmente independientes, entonces L(S1 ) + L(S2 ) es una suma directa.
(b) Si L(S1 ) ⊕ L(S2 ), entonces S1 ∪ S2 es un conjunto linealmente independiente.
(c) L(S1 ) + L(S2 ) = L(S1 ∪ S2 ).
49
Espacio vectorial
50
Capítulo 3
Aplicaciones lineales
Una gran cantidad de modelos de la ingeniería siguen las siguientes leyes. Podemos imaginarnos un
aparato que cada vez que se le introduce un determinado estímulo devuelve ese estímulo modificado
como una señal de salida. Dicho estímulo puede ser por ejemplo una diferencia de potencial de
potencial en un circuito eléctrico que a su vez devolverá una cierta intensidad de corriente. Si
denotamos por V (t) el voltaje e i(t) la intensidad, el circuito funciona de la manera siguiente: si i1 (t)
e i2 (t) son las respuestas a los voltajes V1 (t) y V2 (t), entonces i1 (t) + i2 (t) es la respuesta al voltaje
V1 (t) + V2 (t). Además, si el voltaje es amplificado multiplicando por un escalar α, entonces αi(t) es
la respuesta a αV (t). Esta es la forma de funcionar de un circuito LRC y la de numerosos ingenios
de la ingeniería. Como veremos a continuación, estos aparatos funcionan como una aplicación lineal.
51
Aplicaciones lineales
Example 16 Sea la aplicación f : R2 → R3 dada por f(x, y) = (x, x + y, x − 2y). Veamos que se
trata de una aplicación lineal. Para ello sean α, β ∈ R y (x1 , y1 ), (x2 , y2 ) ∈ R2 y calculemos
f(α · (x1 , y1 ) + β · (x2 , y2 )) = f(αx1 + βx2 , αy1 + βy2 )
= (αx1 + βx2 , αx1 + βx2 + αy1 + βy2 , αx1 + βx2 − 2αy1 − 2βy2 )
= α · (x1 , x1 + y1 , x1 − 2y1 ) + β · (x2 , x2 + y2 , x2 − 2y2 )
= α · f(x1 , y1 ) + β · f(x2 , y2 ),
por lo que f es lineal.
Example 17 Consideremos la aplicación g : R2 → R3 dada por g(x1 , x2 ) = (x21 , x1 + x2 , x1 − 2x2 ).
En este caso no se trata de una aplicación lineal, ya que tomando el vector (1, 1) ∈ R2 y el escalar
−1 ∈ R se tiene que
g((−1) · (1, 1)) = (1, −2, 1) 6= (−1, −2, 1) = (−1) · g(1, 1).
Example 18 Sea la aplicación f : R2 → M2×2 (R) dada por
µ ¶
x1 0
f(x1 , x2 ) = .
1 x2
Si tomamos dos vectores cualesquiera (x1 , x2 ), (y1 , y2 ) ∈ R2 es evidente que
µ ¶ µ ¶ µ ¶
x1 + y1 0 x1 0 y1 0
f((x1 , x2 ) + (y1 , y2 )) = 6= + = f(x1 , x2 ) + f(y1 , y2 ),
1 x2 + y2 1 x2 1 y2
y por tanto f no es lineal.
Dependiendo de sus características se distinguen diferentes clases de aplicaciones lineales. Así
dada f : V → V 0 una aplicación lineal se dice que es un:
Monomorfismo si es inyectiva, es decir, si f(u) = f(v) implica que u = v.
Epimorfismo si es suprayectiva o equivalentemente, si para cada v ∈ V 0 se tiene u ∈ V tal que
f(u) = v.
Isomorfismo si es biyectiva, o lo que es lo mismo, si es inyectiva y suprayectiva a la vez.
Endomorfismo si V = V 0 .
Automorfismo si V = V 0 y f es biyectiva.
La siguiente propiedad es útil para determinar si una aplicación no es lineal.
Proposition 18 Si 0 ∈ V es el vector nulo y f : V → V 0 es una aplicación lineal, se tiene que
f(0) = 0.
Demostración. Nótese que 0 + 0 = 0 y entonces f(0 + 0) = f(0). Como f es lineal se verifica
que f(0 + 0) = f(0) + f(0) = f(0), de donde f(0) = 0.
Esta propiedad permite identificar fácilmente aplicaciones que no son lineales (como la del ejem-
plo 18), aunque las aplicaciones que mandan el vector nulo al vector nulo no son necesariamente
lineales, como el caso del ejemplo 17.
52
Aplicaciones lineales
Definition 9 Dada una aplicación lineal f : V → V 0 se llama imagen de f, y se denota por Im(f),
al conjunto f(V) que como hemos visto en la proposición anterior es un subespacio vectorial de V 0 .
Además se tiene que f es un epimorfismo si y solamente si Im(f) = V 0 .
(x, y, z) = f(α, β, γ)
= (α + β, α − γ, 2α + β − γ),
obtenemos que para que el rango de ambas sea dos debe verificarse que z − x − y = 0, y así
Im f = {(x, y, z) ∈ R3 : z − x − y = 0}.
Proposition 20 Sea f : V → V 0 una aplicación lineal y B = {u1 , ..., un } una base de V. Entonces
f(B) es un sistema generador de la imagen de f.
53
Aplicaciones lineales
de donde obtenemos el mismo sistema compatible del ejemplo 19, y de ahí obtendremos su ecuación.
Theorem 22 Sea f : V → V 0 una aplicación lineal con V de dimensión finita. Se verifica la igualdad:
54
Aplicaciones lineales
Demostración. Sea BKer(f ) = {u1 , ..., un } una base de Ker(f) y la completamos a una base B =
{u1 , ..., un , v1 , ..., vm } de V. El resultado estará probado si demostramos que B0 = {f(v1 ), ..., f(vm )}
es una base de Im(f).
Veamos es primer lugar que Im(f) = L(B0 ). Para ello sea u ∈ Im(f) y entonces debe existir
v ∈V de manera que f(v) = u. Existen entonces escalares α1 , ..., αn , β 1 , ..., β m ∈ K de manera que
v = α1 · u1 + ... + αn · un + β 1 · v1 + ... + β m · vm . Así
u = f(v) = f(α1 · u1 + ... + αn · un + β 1 · v1 + ... + β m · vm )
= α1 · f(u1 ) + ... + αn · f(un ) + β 1 · f(v1 ) + ... + β m · f(vm )
= β 1 · f(v1 ) + ... + β m · f(vm ),
dado que f(ui ) = 0 por ser todo ui ∈ Ker(f), 1 ≤ i ≤ n. De esta manera tenemos que
u = β 1 · f(v1 ) + ... + β m · f(vm )
y así Im(f) = L(B0 ).
Probemos ahora para terminar que los vectores de B0 son LI. Para ello consideramos una combi-
nación lineal igualada a cero
β 1 · f(v1 ) + ... + β m · f(vm ) = 0.
Como f es lineal, la expresión anterior podemos agruparla en
f(β 1 · v1 + ... + β m · vm ) = 0,
de donde tenemos que β 1 · v1 + ... + β m · vm ∈ Ker(f). Entonces existirán α1 , ..., αn ∈ K tales que
β 1 · v1 + ... + β m · vm = α1 · u1 + ... + αn · un ,
de donde
β 1 · v1 + ... + β m · vm − α1 · u1 − ... − αn · un = 0,
y así β 1 = ... = β m = α1 = ... = αn = 0 por ser B una base de V. Entonces ya hemos probado que
los vectores de B0 son LI y la prueba concluye.
Example 20 El resultado anterior resulta de utilidad como muestra el siguiente ejemplo. Sea f :
R3 → R3 dada por
f(x, y, z) = (x − y, x − z, y − z),
y calculemos su núcleo e imagen. Como sabemos (x, y, z) ∈ Ker(f) si y sólo si
(0, 0, 0) = f(x, y, z) = (x − y, x − z, −y − z),
de donde obtenemos el sistema ⎧
⎨ x − y = 0,
x − z = 0,
⎩
−y − z = 0,
y al resolverlo
⎛ ¯ ⎞ ⎛ ¯ ⎞ ⎛ ¯ ⎞
1 −1 0 ¯¯ 0 1 −1 0 ¯¯ 0 1 −1 0 ¯¯ 0
⎝ 1 0 −1 ¯ 0 ⎠ →F2 −F1 ⎝ 0 1 −1 ¯ 0 ⎠ →F3 +F2 ⎝ 0 1 −1 ¯ 0 ⎠ ,
¯ ¯ ¯
0 1 −1 ¯ 0 0 −1 −1 ¯ 0 0 0 −2 ¯ 0
55
Aplicaciones lineales
obtenemos que x = y = z = 0, por lo que Ker(f) = {(0, 0, 0)} y su dimensión es cero. Entonces
dim Im f = dim R3 − dim Ker(f) = 3,
por lo que Im f es un subespacio vectorial de R3 de dimensión tres, y por tanto debe verificarse que
Im f = R3 .
Sean β 1 , . . . , β n ∈ K las coordenadas del vector f(u) en la base B0 . Como consecuencia de la unicidad
de las coordenadas de un vector en una base y de la relación anterior, se tiene que para cada 1 ≤ i ≤ n:
X
m
βi = λij αj .
j=1
Introduciendo la matriz,
⎛ ⎞
λ11 λ12 · · · λ1m
⎜ λ21 λ22 · · · λ2m ⎟
⎜ ⎟
MB0 B (f) = ⎜ .. .. .. ⎟ ∈ Mn×m (K),
⎝ . . . ⎠
λn1 λn2 · · · λnm
cuyas columnas corresponden a las coordenadas en la base B0 de las imágenes por f de los vectores
de la base B, la relación anterior puede escribirse en la forma:
⎛ ⎞ ⎛ ⎞
β1 α1
⎜ .. ⎟ ⎜ . ⎟
⎝ . ⎠ = MB0 B (f) · ⎝ .. ⎠ .
βn αm
La matriz MB0 B (f) se denomina matriz de la aplicación f en las bases B y B0 y permite obtener las
coordenadas en la base B0 de la imagen por f de cualquier vector a partir de sus coordenadas en la
base B, como indica la relación anterior.
56
Aplicaciones lineales
Example 21 Sea f : R2 → R3 la aplicación lineal del Ejemplo 16 y sean C2 y C3 las bases canónicas
de R2 y R3 , respectivamente. Se tiene que
de donde: ⎛ ⎞
1 0
MC3 C2 (f) = ⎝ 1 1 ⎠.
1 −2
Si en R2 se considera ahora la base B = {(1, 1), (1, −1)}, se tiene que
Finalmente, si sobre R3 se considera la base B0 = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} se tiene que (−1, 3, −1)
son las coordenadas de f(1, 1) en B0 y (1, −3, 3) las de f(1, −1) y
⎛ ⎞
−1 1
MB0 B (f) = ⎝ 3 −3 ⎠ .
−1 3
(b) Dadas las bases B = {u1 , ..., um } y B0 = {v1 , ..., vn } de V y V 0 , respectivamente, se tiene que
57
Aplicaciones lineales
(λ · f)(α · u + β · v) = λ · f(α · u + β · v)
= λ · (α · f(u) + β · f(v))
= α · (λ · f(u)) + β · (λ · f(v))
= α · (λ · f)(u) + β · (λ · f)(v),
X
n
(λ · f)(uj ) = αij · vi ,
i=1
f(x, y, z) = (y + z, z + x, x + y),
y
g(x, y, z) = (x, x + y, x + y + z).
58
Aplicaciones lineales
Si denotamos por C = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} la base canónica de R3 , entonces
⎛ ⎞
0 1 1
MCC (f) = ⎝ 1 0 1 ⎠
1 1 0
y ⎛ ⎞
1 0 0
MCC (g) = ⎝ 1 1 0 ⎠ .
1 1 1
Se tiene entonces que
(b) Si B = {u1 , ..., um } y B0 = {v1 , ..., vn } y B00 = {w1 , ..., wl } son bases de V, V 0 y V 00 , respecti-
vamente, entonces
MB00 B (g ◦ f) = MB00 B0 (g) · MB0 B (f).
59
Aplicaciones lineales
f(x, y) = (x − y, x + y, 0),
y
g(x, y, z) = (x, x − y, x + y − z).
Si denotamos por C2 = {(1, 0), (0, 1} y C3 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} las bases canónicas de R2 y
R3 , respectivamente, obtenemos que
⎛ ⎞
1 −1
MC3 C2 (f) = ⎝ 1 1 ⎠
0 0
y ⎛ ⎞
1 0 0
MC3 C3 (g) = ⎝ 1 −1 0 ⎠ .
1 1 −1
Entonces
f ◦ f −1 = i, f −1 ◦ f = i.
60
Aplicaciones lineales
61
Aplicaciones lineales
Example 25 Sean las bases B = {(1, 1), (1, −1)} y B0 = {(1, 0), (2, 1)} de R2 . Entonces:
i(1, 1) = (1, 1) = (−1) (1, 0) + 1 (2, 1), i(1, −1) = (1, −1) = 3 (1, 0) + (−1) (2, 1),
de donde µ ¶
−1 3
MB0 B (i) = .
1 −1
y
In = MB0 B0 (i) = MB0 B0 (i ◦ i) = MB0 B (i) · MBB0 (i),
de donde se desprende que las matrices de cambio de base son invertibles y
Example 26 Calculamos la matriz MBB0 (i) en el ejemplo 25. Para ello basta calcular la inversa de
la matriz obtenida en dicho ejemplo
µ ¯ ¶ µ ¯ ¶ µ ¯ ¶
−1 3 ¯¯ 1 0 −1 3 ¯¯ 1 0 1 −3 ¯¯ −1 0
→ F2 +F1 →(−1)F1
1 −1 ¯ 0 1 0 2 ¯ 1 1 1
F
0 1 ¯ 12 21
2 2
µ ¯ ¶
1 0 ¯¯ 12 32
→ F1 +3F2 ,
0 1 ¯ 21 12
por lo que µ ¶
1 3
MBB0 (i) = 2 2 .
1 1
2 2
62
Aplicaciones lineales
f
VB1 −→ VB0 0
1
i ↓ ↑ i
VB2 −→ VB0 0
2
f
donde por VB1 queremos indicar la base que tomamos en V para hacer la matriz de la aplicación
lineal. Entonces, teniendo en cuenta que i ◦ f ◦ i = f, se sigue que
MB10 B1 (f) = MB10 B1 (i ◦ f ◦ i) = MB10 B20 (i) · MB20 B2 (f) · MB2 B1 (i),
es decir, podemos pasar de una matriz a otra mediante las matrices de cambio de base.
y si denotamos por C = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} la base canónica de R3 , se tiene que
⎛ ⎞
0 0 2
MCB (f) = ⎝ 0 0 2 ⎠.
0 0 2
Entonces
MCC (f) = MCB (f) · MBC (i).
63
Aplicaciones lineales
Como ⎛ ⎞−1
−1 −1 1
MBC (i) = (MBC (i))−1 =⎝ 1 0 1 ⎠ ,
0 1 1
calculamos la inversa
⎛ ¯ ⎞ ⎛ ¯ ⎞ ⎛ ¯ ⎞
−1 −1 1 ¯¯ 1 0 0 −1 −1 1 ¯¯ 1 0 0 −1 −1 1 ¯¯ 1 0 0
⎝ 1 0 1 ¯¯ 0 1 0 ⎠ → F2 +F1
⎝ 0 −1 2 ¯ 1 1 0 ⎠ →F3 +F2 ⎝
¯ 0 −1 2 ¯¯ 1 1 0 ⎠
0 1 1 ¯ 0 0 1 0 1 1 ¯ 0 0 1 0 0 3 ¯ 1 1 1
⎛ ¯ ⎞ ⎛ ¯ ⎞
1 1 −1 ¯¯ −1 0 0 1 1 0 ¯¯ − 23 1
3
1
3
→ (−1)F1 ⎝ 0 1 −2 ¯¯ −1 −1 0 ⎠ → F1 +F3 ⎝ 0 1 0 ¯ −1
¯ 3 − 13 2
3
⎠
(−1)F2
1
0 0 1 ¯ 13 1
3
1
3
F2 +2F3
0 0 1 ¯ 1 3
1
3
1
3
F3
3
⎛ ¯ ⎞
1 0 0 ¯¯ − 13 32 − 13
→ F1 −F2 ⎝ 0 1 0 ¯¯ − 13 − 13 32 ⎠ ,
0 0 1 ¯ 13 1
3
1
3
de donde ⎛ ⎞
− 13 32 − 13
MBC (i) = ⎝ − 13 − 13 32 ⎠
1 1 1
3 3 3
y ⎛ ⎞ ⎛ 1 2 ⎞ ⎛ ⎞
0 0 2 − 3 3 − 13 2
3
2
3
2
3
MCC (f) = ⎝ 0 0 2 ⎠ · ⎝ − 13 − 13 32 ⎠ = ⎝ 2
3
2
3
2
3
⎠.
1 1 1 2 2 2
0 0 2 3 3 3 3 3 3
Entonces la aplicación lineal es
⎛ ⎛
⎞⎞t
x
f(x, y, z) = ⎝MCC (f) · ⎝ y ⎠⎠
z
⎛⎛ 2 2 2 ⎞ ⎛ ⎞⎞t
3 3 3
x
= ⎝⎝ 23 32 23 ⎠ · ⎝ y ⎠⎠
2 2 2
3 3 3
z
2
= (x + y + z, x + y + z, x + y + z).
3
3.4 Ejercicios
1. Determinar cuáles de las siguientes aplicaciones son lineales:
64
Aplicaciones lineales
3. Sea V un espacio vectorial sobre un cuerpo K y sea f : V → V una aplicacion lineal. Se define
el conjunto invariante de f, denotado Inv(f), como el conjunto de vectores los vectores v que
permanecen invariantes por la aplicación, es decir,
Inv(f) = {v ∈ V : f(v) = v} .
B2 = {u1 , u1 + u2 , u1 + u2 + u3 , u1 + u2 + u3 + u4 }.
6. Sea P4 [x] el espacio vectorial de los polinomios con coeficientes reales de grado menor o igual
que cuatro. Dadas las siguientes bases:
B1 = {x, x2 + 1, 2x4 + x3 , x3 − x2 + x, x2 + x}
B2 = {2x4 + 1, x3 − 1, x3 + 2x, x2 , x3 − x2 }
65
Aplicaciones lineales
g(−1, 1, 3) = (6, −4, 16) g(−2, 1, 1) = (−2, −5, 1) g(3, 2, −1) = (1, 14, −12)
Hallar la matriz de g respecto a la base canónica de R3 , las ecuaciones del núcleo y la imagen
y una base de ambos subespacios.
66
Aplicaciones lineales
de R4 y
B2 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}
de R3 así como las ecuaciones del núcleo y la imagen de f en estas bases.
12. Sea f : R4 → R2 la aplicación cuya matriz asociada en las bases canónicas es:
µ ¶
1 0 0 0
A=
1 −1 1 2
y
B0 = {(1, 1), (0, 2)}.
13. Sean g y f las aplicaciones lineales de los ejercicios 10 y 11. Calcula la matriz de la aplicación
compuesta g ◦ f respecto de las bases canónicas de R4 y R3 . Calcula además el rango, el núcleo,
la imagen y el espacio invariante de dicha aplicación.
16. Contesta de forma razonada si son verdaderas o falsas las siguientes afirmaciones,
67
Aplicaciones lineales
17. Halla los valores de parámetro real a para los cuales R3 es suma directa del núcleo y la imagen
de f : R3 → R3 definida por la matriz (respecto de las base usual de R3 )
⎛ ⎞
1 a 1
A = ⎝ −1 a −1 ⎠ .
1 2 −1
18. Calcula el valor de a para el cual la intersección del espacio U = L[(a, 1, 1), (0, 1, −1)] y el
núcleo de la aplicación f : R3 → R2 dada por f(x, y, z) = (x − y − z, y + az) es distinta del
subespacio {0}.
19. Halla para qué valor de a el vector (1, 1, a) está en la imagen de la aplicación lineal f : R2 → R3
definida mediante las relaciones f(1, 2) = (1, −1, 1) y f(2, 1) = (0, 1, 1).
68
Capítulo 4
Sea A ∈ Mn×n (R), n ∈ N, una matriz cuadrada. A veces es necesario obtener la potencia Ak
para k ∈ N. Veámoslo con el siguiente ejemplo que proviene de la electrónica (ver [?]). Para fijar
ideas, consideremos el siguiente ejemplo.
Este dispositivo está formado por dos elementos. El primero de ellos, marcado con una S, es un
elemento que suma o resta datos, que a su vez vendrán modulados por números reales. El denotado
por una D es un aparato que produce un retardo de una unidad temporal en la sucesión. La figura
representa el tipo más sencillo de retroalimentación de una señal. Los datos de entrada vienen dados
por la sucesión xk y los de salida por
yk+1 = rk . (4.1)
En el proceso, los datos intermedios rk vienen dados por la expresión
rk = xk − ayk , (4.2)
donde a es un número real. Combinando (4.1) y (4.2) obtenemos la ecuación en diferencias de orden
uno
yk+1 + ayk = xk .
69
Diagonalización de matrices cuadradas
yk+1 = vk ,
vk+1 = rk ,
rk = xk + byk − avk ,
de donde se obtiene la ecuación
yk+2 + ayk+1 − byk = xk .
Por ejemplo supongamos la ecuación
½
yk+2 + yk+1 − 2yk = 0;
y0 = 0, y1 = 1.
Entonces
µ ¶ µ ¶ µ ¶ µ ¶ µ ¶2 µ ¶
yk+1 0 1 0 1 yk−1 0 1 yk−1
= · · = · ,
zk+1 2 −1 2 −1 zk−1 2 −1 zk−1
e inductivamente
µ ¶ µ ¶k+1 µ ¶ µ ¶k+1 µ ¶
yk+1 0 1 y0 0 1 0
= · = · ,
zk+1 2 −1 z0 2 −1 1
dado que z0 = y1 = 1. Por lo tanto, para obtener la solución yk hemos de obtener la potencia de
una matriz. Para ello, vamos a intentar escribir la matriz en cuestión de forma “parecida” a una
matriz diagonal ya que si A = (aij ) es diagonal, entonces Ak = (akij ). Más precisamente, la matriz
70
Diagonalización de matrices cuadradas
A será diagonalizable si existe una matriz invertible P y una matriz diagonal D de manera que
A = P · D · P−1 . Entonces
Ak = P · Dk · P−1
para todo k ≥ 0.
Vamos a ver en este tema cuándo la matriz cuadrada A es diagonalizable. Para ello, hemos de
darnos cuenta en primer lugar que podemos construir una aplicación lineal fA : Rn → Rn de manera
que para cada (x1 , ..., xn ) ∈ Rn
⎛ ⎛ ⎞⎞t
x1
⎜ ⎜ x2 ⎟⎟
fA (x1 , ..., xn ) = ⎜
⎝A · ⎜ ⎟⎟
⎝ ... ⎠⎠ .
xn
Es inmediato ver que si C es la base canónica de Rn , entonces MCC (fA ) = A. Hablaremos entonces del
núcleo de la matriz A como del núcleo de la aplicación lineal asociada fA , esto es, Ker(A) = Ker(fA ).
71
Diagonalización de matrices cuadradas
Tenemos entonces el siguiente resultado que es una primera caracterización de las matrices diagona-
lizables.
Theorem 28 La P matriz A es diagonalizable si y solo si λ1 , ..., λk ∈ R son todos los valores propios
de la matriz A y ki=1 dim Ker(A − λi · In ) = n. Más aún, existe una base de vectores propios B de
manera que:
(a) La matriz asociada a fA en la base B es diagonal y de la forma
⎛ ⎞
λ1 ... 0 ... 0 ... 0
⎜ ... ... ... ... ... ... ... ⎟
⎜ ⎟
⎜ 0 ... λ1 ... 0 ... 0 ⎟
⎜ ⎟
MBB (fA ) = D = ⎜⎜ ... ... ... ... ... ... ... ⎟
⎟
⎜ 0 ... 0 ... λk ... 0 ⎟
⎜ ⎟
⎝ ... ... ... ... ... ... ... ⎠
0 ... 0 ... 0 ... λk
72
Diagonalización de matrices cuadradas
El conjunto de las raíces del polinomio característico de A, que se denota por σ(A), se denomina
espectro de la matriz A. Evidentemente λ ∈ R será un valor propio de A si y solamente si λ ∈ σ(A).
Por otra parte, el Teorema Fundamental del Algebra asegura que σ(A) 6= ∅, aunque puede que el
espectro contenga números complejos, e incluso que ninguno de sus elementos sea un número real
como ocurre con la matriz µ ¶
0 −1
A= .
1 0
Su polinomio característico es
¯ ¯
¯ −x −1 ¯
p(x) = ¯¯ ¯ = x2 + 1 = 0,
¯
1 −x
cuyo espectro es σ(A) = {i, −i}, y por tanto dicha matriz no es diagonalizable en R.
73
Diagonalización de matrices cuadradas
Dado un valor propio real λ ∈ σ(A), sea Bλ una base del subespacio propio Ker(A − λ · In ) y
extendámosla a una base B de Rn . Entonces la matriz asociada
µ ¶
λ · Ik M1
MBB (fA ) = ,
0 M2
donde q(x) = |M2 − x · In−k |. Denotemos por m(λ) la multiplicidad de λ, es decir, el polinomio
característico se escribe como p(x) = (x − λ)m(λ) h(x), donde h(x) es un polinomio tal que h(λ) 6= 0.
Entonces se obtiene que 1 ≤ k = dim Ker(A − λ · In ) ≤ m(λ). Además si σ(A) = {λ1 , . . . , λr }:
cuyo polinomio característico es p(λ) = (λ − 1)2 . Por tanto σ(A) = {1} ⊂ R, pero A no es
diagonalizable ya que
Ker(A − I2 ) = {(x, y) ∈ R2 : y = 0},
que tiene dimensión 1. Entonces no podemos encontrar una base de vectores propios y por el Teorema
28 la matriz no es diagonalizable.
Las matrices diagonalizables quedan totalmente caracterizadas por el resultado siguiente que
aumenta la información dada por el Teorema 28 y cuya demostración hemos obtenido anteriormente.
Theorem 30 Sea A ∈ Mn×n (R). La matriz A es diagonalizable si y solamente si todas las raíces
del polinomio característico son reales y además la dimensión del subespacio de los vectores propios
asociados a cada valor propio coincide con la multiplicidad de dicho valor propio, es decir,
Sea la matriz ⎛ ⎞
5 0 −4
A=⎝ 0 3 0 ⎠.
2 0 −1
74
Diagonalización de matrices cuadradas
de donde se deduce que dim Ker(A − In ) = 1 y dim Ker(A − 3 · In ) = 2. La matriz es por tanto
diagonalizable con matriz diagonal ⎛ ⎞
1 0 0
D = ⎝ 0 3 0 ⎠.
0 0 3
Por otra parte obtenemos que {(1, 0, 1)} y {(2, 0, 1), (0, 1, 0)} son bases de Ker(A−In ) y Ker(A−3·In )
respectivamente por lo que ⎛ ⎞
1 2 0
P= ⎝ 0 0 1 ⎠
1 1 0
será la matriz de paso. Calculamos su inversa
⎛ ¯ ⎞ ⎛ ¯ ⎞ ⎛ ¯ ⎞
1 2 0 ¯¯ 1 0 0 1 2 0 ¯ 1
¯ 0 0 1 2 0 ¯¯ 1 0 0
⎝ 0 0 1 ¯ 0 1 0 ⎠ → F3 −F1 ⎝ 0 0 1 ¯ 0 1 0 ⎠ →F2 ×F3 ⎝ 0 −1 0 ¯¯ −1 0 1 ⎠
¯ ¯
1 1 0 ¯ 0 0 1 0 −1 0 ¯ −1 0 1 0 0 1 ¯ 0 1 0
⎛ ¯ ⎞ ⎛ ¯ ⎞
1 0 0 ¯¯ −1 0 2 1 0 0 ¯¯ −1 0 2
→ F1 +2F2 ⎝ 0 −1 0 ¯¯ −1 0 1 ⎠ →(−1)F2 ⎝ 0 1 0 ¯¯ 1 0 −1 ⎠ ,
0 0 1 ¯ 0 1 0 0 0 1 ¯ 0 1 0
de donde ⎛ ⎞
−1 0 2
P−1 = ⎝ 1 0 −1 ⎠
0 1 0
y así ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 2 0 1 0 0 −1 0 2
A = ⎝ 0 0 1 ⎠ · ⎝ 0 3 0 ⎠ · ⎝ 1 0 −1 ⎠ .
1 1 0 0 0 3 0 1 0
Cabe hacer notar que las matrices de paso no son únicas: se tendrán diferentes matrices para
cada familia de bases de los subespacios de vectores propios.
4.3 Aplicaciones
4.3.1 Circuitos digitales
Resolvamos ahora la ecuación en diferencias
½
yk+2 + yk+1 − 2yk = 0;
y0 = 0, y1 = 1,
75
Diagonalización de matrices cuadradas
introducida al comienzo del tema y que, con la variable zk = yk+1 se reescribe como
µ ¶ µ ¶ µ ¶
yk+1 0 1 yk
= · ,
zk+1 2 −1 zk
por lo que
µ ¶ µ ¶k+1 µ ¶ µ ¶k+1 µ ¶
yk+1 0 1 y0 0 1 0
= · = · .
zk+1 2 −1 z0 2 −1 1
Calculemos los valores propios de la matriz
µ ¶
0 1
A= ,
2 −1
de donde √
−1 ±
1+8 1±3
x= = ,
2 2
por lo que los valores propios son −1 y 2. Los subespacios propios son
con lo que µ ¶
2
−1 3
− 13
P = 1 1 .
3 3
76
Diagonalización de matrices cuadradas
Así
µ ¶ µ ¶k+1 µ ¶
yk+1 0 1 0
= ·
zk+1 2 −1 1
µ ¶ µ ¶k+1 µ 2 ¶ µ ¶
1 1 −1 0 3
− 13 0
= · · 1 1 ·
1 2 0 2 1
µ ¶ µ k+1
¶3 µ 3 1 ¶
1 1 (−1) 0 −3
= · k+1 · 1
1 2 0 2 3
µ ¶
1 (−1)k+2 + 2k+1
= · ,
3 (−1)k+2 + 2k+2
(−1)k+1 + 2k
yk = .
3
77
Diagonalización de matrices cuadradas
Esta fórmula ofrece una forma sencilla de calcular los clientes que tendrá cada una de las compañías
al cabo de k años. Además cuando k sea grande 0.7k se hará cada vez más pequeño por lo que cuando
pase mucho tiempo (k → ∞) se tendrá la relación
µ ¶ µ ¶µ ¶µ ¶µ ¶
x∞ 2 1 1 0 1/3 1/3 x0
=
y∞ 1 −1 0 0.7∞ 1/3 −2/3 y0
µ ¶µ ¶µ ¶µ ¶ à 2 !
2 1 1 0 1/3 1/3 x0 3
(x0 + y0 )
= = .
1 −1 0 0 1/3 −2/3 y0 1
(x0 + y0 )
3
Así la situación hacia la cual tiende el proceso y en la que se estabiliza es que 2/3 de los habitantes
de la ciudad contraten el suministro con la compañía X y 1/3 lo haga con la Y .
4.4 Ejercicios
1. Hallar la forma diagonal, cuando sea posible, de las siguientes matrices, así como la matriz del
cambio de base:
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
5 4 3 5 7 5 −9 1 1
(a) ⎝ −1 0 −3 ⎠ (b) ⎝ −6 −5 −3 ⎠ (c) ⎝ −18 0 3 ⎠
1 −2 1 ⎛ 4 1 0 ⎞ −21 4 0
⎛ ⎞ −1 0 0 0 ⎛ ⎞
5 3 2 ⎜ 2 −1 0 2 1 0
0 ⎟
(d) ⎝ 0 4 0 ⎠ (e) ⎜
⎝ 0
⎟ (f) ⎝ 0 2 1 ⎠
0 −1 4 ⎠
0 0 4 0 0 2
0 0 0 −1
2. Sea A una matriz cuadrada. Demostrar que A y At tienen el mismo polinomio característico
y, por tanto, los mismos
µ valores
¶ propios. ¿Tendrían los mismos vectores propios? Comprobarlo
1 0
para la matriz A = .
1 1
3. Sea A una matriz cuadrada de orden n, invertible. Demostrar que si λ es un valor propio de
A, entonces λ−1 es un valor propio de A−1 .
4. Sea A una matriz 3 × 3 con valores propios 1 doble y 2 simple. Si los subespacios de vectores
propios son {(x, y, z) : x = y = z} y {(x, y, z) : x = −y}, respectivamente, se pide:
78
Diagonalización de matrices cuadradas
6. Estudiar para qué valores de los parámetros las siguientes matrices son diagonalizables:
⎛ ⎞ ⎛ ⎞
α β 0 5 0 3
(a) ⎝ 0 −1 0 ⎠ (b) ⎝ 0 −1 0 ⎠ .
0 0 1 3 0 α
9. Sea f : Rn → Rn una aplicación lineal con matriz asociada respecto a la base canónica A y
u, v dos vectores de Rn asociados a los valores propios distintos λ, μ ∈ R. Decidir cuales de las
siguientes afirmaciones son ciertas.
10. Sea f : Rn → Rn una aplicación lineal de manera que f ◦ f = f. Calcular los valores propios de
f.
11. Calcular para las siguientes matrices los valores y vectores propios. Determinar si las matrices
son o no diagonalizables y calcular la matriz diagonal en caso de serlo. Calcular además la base
79
Diagonalización de matrices cuadradas
12. Dada la sucesión de números reales definida por inducción como xn+2 = xn+1 + xn , x1 = 1,
x2 = 2, calcular xn y el límite de la misma cuando n → ∞.
13. En un cierto pais existen dos compañías eléctricas, luces y sombras S. A. y luz a gogó S. A.
Cada año uno de cada diez consumidores se cambia de compañía. Si la población del pais no
crece ni disminuye e inicialmente hay 10 millones de abonados a la primera compañía y 15
millones a la segunda, predecir la evolución del mercado a largo plazo.
14. En una ciudad existen tres supermercados A, B y C que acaparan la totalidad de la población
a la hora de comprar. Se ha observado que los compradores van cambiando año a año de
supermercado según la siguiente ley: De los que compran en A un año vuelven al siguiente
sólamente la mitad, mientras que la otra mitad pasa a comprar en B. De los que compran en
B la mitad permanece en B, mientras que el resto compran el año siguiente en C. Finalmente
una cuarta parte de los compradores de C se cambian a B, quedándose el resto en C.
80
Capítulo 5
Espacio vectorial eucídeo
(E1) Linealidad respecto de la primera coordenada, esto es, para cada α, β ∈ R y cada u, v, w ∈ V,
hαu + βv, wi = αhu, wi + βhv, wi.
(E3) Definida positiva. hu, ui ≥ 0, para todo u ∈V. Además hu, ui = 0 si y sólo si u = 0.
El par (V, h·, ·i) se llama espacio vectorial euclídeo. Como veremos a continuación, el producto
escalar nos va a permitir medir distancias y algunas magnitudes asociadas a ésta.
Example 28 En el espacio vectorial Rn , la aplicación que a cada par de vectores (x1 , ..., xn ) y
(y1 , ..., yn ) les asocia el número real
⎛ ⎞
y1
h(x1 , ..., xn ), (y1 , ..., yn )i = (x1 , ..., xn ) · ⎝ ... ⎠ = x1 y1 + · · · + xn yn
yn
es un ejemplo de producto escalar como se comprueba fácilmente. Este es el producto escalar usual
de Rn .
81
Espacio vectorial eucídeo
Example 29 Sea ahora C([a, b]) el espacio vectorial de las funciones continuas definidas sobre el
intervalo compacto [a, b], a, b ∈ R. Dadas f, g∈ C([a, b]) se define la aplicación
Z b
hf, gi := f (x)g(x)dx.
a
De nuevo se comprueban fácilmente las propiedades (E1)—(E2) y que dado que f (x)2 ≥, entonces
Rb
hf, f i = a f (x)2 dx ≥ 0. Es obvio que si f (x) = 0, entonces hf, fi = 0. Para comprobar el recíproco,
supongamos que hf, f i = 0 y que existe x0 ∈ [a, b] tal que f (x0 ) 6= 0. Entonces f (x0 )2 > 0, y
por la continuidad de f (x)2 , debe existir un subintervalo (c, d) ⊂ [a, b] tal que f (x)2 > 0 para todo
x ∈ (c, d). Como hf, f i es el área determinada por f (x)2 y el eje X, al ser f (x)2 > 0 para todo
x ∈ (c, d), se tiene que dicha área es estrictamente positiva y por tanto hf, f i = 0 es incompatible
con la existencia de un x0 ∈ [a, b] tal que f (x0 ) 6= 0, por lo que necesariamente f (x) = 0 para todo
x ∈ [a, b].
Demostración. En primer lugar demostramos (a). Para ello basta tener en cuenta que
Definition 12 Sea (V, h·, ·i) un espacio vectorial euclídeo. Se llama norma de u ∈ V asociada al
producto escalar a p
kuk = + hu, ui.
De los axiomas de producto escalar son inmediatas las siguientes propiedades de la norma aso-
ciada:
82
Espacio vectorial eucídeo
83
Espacio vectorial eucídeo
Remark 4 En caso de R2 , dados los vectores (x1 , y1 ) y (x2 , y2 ) y α el ángulo físico que forman,
es decir, la longitud del arco de circunferencia de radio uno determinado por las semirectas ri =
{λ · (xi , yi ) : λ ≥ 0}, i = 1, 2. Es fácil ver que existen αi ∈ [0, 2π), i = 1, 2, de manera que
h(x1 , y1 ), (x2 , y2 )i
= h(cos α1 , sin α1 ), (cos α2 , sin α2 )i
||(x1 , y1 )|| ||(x2 , y2 )||
= cos α1 cos α2 + sin α1 sin α2
= cos(α1 − α2 ),
por lo que el ángulo formado por dos vectores coincide con la definición geométrica en el caso plano.
Example 30 Por ejemplo, el ángulo α generado por los vectores (1, 1) y (1, 0) se calcula mediante
la expresión √
h(1, 1), (1, 0)i 1 2
cos α = =√ = ,
||(1, 1)|| ||(1, 0)|| 2 2
de donde √
2 π
α = arccos = .
2 4
Un vector u ∈ V se dice normal o unitario si ||u|| = 1. La siguiente proposición nos dice cómo
obtener un vector normal de una forma sencilla.
1
Proposition 33 Sea (V, h·, ·i) un espacio vectorial euclídeo y sea u ∈ V. Entonces ||u||
·u es normal.
5.2 Ortogonalidad
Definition 13 Dos vectores u, v ∈ V se dice que son ortogonales si su producto escalar es nulo,
esto es, hu, vi = 0. Un conjunto de vectores S = {u1 , . . . , ur } ⊆ V \ {0} se dice que es un sistema
ortogonal si cada vector es ortogonal a todos los demás, es decir, si hui , uj i = 0 para cada i 6= j.
84
Espacio vectorial eucídeo
Los vectores (1, 0) y (0, 1) son claramente ortogonales. Otro ejemplo menos claro es el siguiente:
dados los polinomios 1 y x, definidos en [−1, 1], se verifica que con el producto escalar definido
mediante la integral del producto de ambas funciones en dicho intervalo, se verifica
Z 1
h1, xi = xdx = 0.
−1
Tenemos entonces el siguiente resultado que nos viene a decir que todo sistema ortogonal está com-
puesto por vectores linealmente independientes.
Proposition 34 Sea (V, h·, ·i) un espacio vectorial euclídeo y sea S = {u1 , ..., ur } un sistema orto-
gonal. Entonces los vectores de S son linealmente independientes.
Demmostración. Planteamos la siguiente combinación lineal:
α1 · u1 + · · · + αr · ur = 0,
para cada 1 ≤ j ≤ r se tiene que:
X
r
0 = hα1 · u1 + · · · + αr · ur , uj i = αi hui , uj i = αj kuj k2
i=1
85
Espacio vectorial eucídeo
• Si B no es una base ortogonal el proceso es más laborioso. En primer lugar se define el vector
w1 = ku1 k−1 u1 . A continuación se calcula el vector
v2 = u2 − hu2 , w1 i · w1 ,
que es ortogonal a w1 , . . . , wj−1 . Es fácil darse cuenta que cada nuevo construido vj 6= 0 ya
que en otro caso uj sería dependiente de w1 , ..., wj−1 , que a su vez son combinación lineal
de u1 , ..., uj−1 , y esto no es posible porque B es una base y por tanto los vectores son LI.
A continuación se toma wj = kvj k−1 vj . Con este proceso construimos la base ortonormal
B0 = {w1 , . . . , wn }.
Example 31 Sea la familia de vectores u1 = (1, 1, 0), u2 = (1, 0, 1), u3 = (0, 1, 1) que constituyen
una base de R3 . Usaremos el método de Gram-Schmidt para obtener a partir de {u1 , u2 , u3 } una
base ortonormal de R3 para el producto canónico. Para ello:
√
• Dado que ku1 k = 2, se toma el vector w1 = √12 (1, 1, 0).
• Se calcula v2 = u2 − hu2 , w1 i w1 = ( 12 , −1
2
, 1), y haciéndolo unitario tenemos w2 = √1 (1, −1, 2).
6
• Finalmente se calcula
2
v3 = u3 − hu3 , w1 i w1 − hu3 , w2 i w2 = (−1, 1, 1)
3
√
3
de donde w3 = 3
(−1, 1, 1).
86
Espacio vectorial eucídeo
Remark 5 La demostración de este resultado sale fuera de los objetivos de este trabajo y puede verse
en [?]. La prueba necesita una definición más amplia de la noción de producto escalar para que éste
pueda tomar valores complejos. Para esto la condición (E2) de la definición de producto escalar debe
cambiarse.
que tiene como valores propios λ1 = 1 con multiplicidad dos y λ2 = 10. Los subespacios propios son
Ker(A−I3 ) = {(x, y, z) ∈ R3 : 2x+2y+z = 0} y Ker(A−10·I3 ) = {(x, y, z) ∈ R3 : −5x+4y+2z = 0
y 4x − 5y + 2z = 0}, de donde obtenemos las bases B1 = {(1, −1, 0), (1, 0, −2)} y B10 = {(2, 2, 1)},
de donde B = {(1, −1, 0), (1, 0, −2), (2, 2, 1)} es una base de vectores
√ √
propios.√ Aplicamos
√ √
el método
de Gram-Schmidt para encontrar una base ortonormal B = {( 2 , − 2 , 0), ( 6 , 6 , − 3 ), ( 23 , 23 , 13 )}
0 2 2 2 2 2 2
y así ⎛ √ ⎞ ⎛
2
√
2 2 ⎞ ⎛ √2 √
2
⎞
2√ 6
√ 3 1 0 0 √2
− √2
0
⎜ 2 ⎟·⎝ 0 1 ⎠·⎝ 2
√
2 2 ⎠.
A = ⎝ − 22 2
6√ 3 ⎠ 0
6 6
2
− 3
0 − 2 3 2 31 0 0 10 2
3
2
3
1
3
W ⊥ = {v ∈ V : hv, ui = 0 ∀u ∈ W}.
hα · u + β · v, wi = αhu, wi + βhv, wi = 0,
87
Espacio vectorial eucídeo
La siguiente propiedad nos dice que la suma de W con su ortogonal W ⊥ es directa, esto es,
W ⊕ W ⊥.
Proposition 38 W ∩ W ⊥ = {0}.
Entonces v − u ∈W ⊥ y v = u + (v − u) ∈ W ⊕ W ⊥ .
El vector u = hv, u1 i · u1 + ... + hv, un i · un se conoce con el nombre de proyección ortogonal
de v sobre W y la norma ||v − u|| es la distancia de v a W. La proyección ortogonal sobre W no
88
Espacio vectorial eucídeo
depende de la base ortonormal B = {u1 , ..., un } de la Proposición 39. Si B0 = {v1 , ..., vn } es otra
base ortonormal, entonces dado que u ∈ W se verifica que
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
hu, v1 i hu, u1 i hu1 , v1 i ... hun , v1 i hv, u1 i
⎝ ... ⎠ = MB0 B (i) · ⎝ ... ⎠ = ⎝ ... ... ... ⎠ · ⎝ ... ⎠
hu, vn i B0 hu, un i B hu1 , vn i ... hun , vn i hv, un i
⎛ ⎞
hu1 , v1 ihv, u1 i + ... + hun , v1 ihv, un i
= ⎝ ... ⎠
hu1 , vn ihv, u1 i + ... + hun , vn ihv, un i
⎛ ⎞ ⎛ ⎞
hv, hu1 , v1 i · u1 ... + hun , v1 i · un i hv, v1 i
= ⎝ ... ⎠ = ⎝ ... ⎠ ,
hv, hu1 , vn i · u1 ... + hun , vn i · un i hv, vn i
por lo que u = hv, v1 i · v1 + ... + hv, vn i · vn . Veamos en un ejemplo cómo calcular la proyección
ortogonal de un vector sobre un subespacio vectorial.
Example 33 Sea el espacio euclídeo R3 equipado con el producto escalar canónico y sea el subespacio
vectorial © ª
W = (x, y, z) ∈ R3 : x − y = 0, x − z = 0 .
Dado el vector (1, 1, 0) vamos a √calcular
√ su proyección
√ ortogonal sobre W. Evidentemente {(1, 1, 1)}
es una base de W, por lo que {( 3/3, 3/3, 3/3)} es una base ortonormal. Entonces la proyección
ortogonal de (1, 1, 0) sobre W viene dada por
√ √ √ √ √ √
h(1, 1, 0), ( 3/3, 3/3, 3/3)i( 3/3, 3/3, 3/3) = (2/3, 2/3, 2/3).
Example 34 En el ejemplo anterior, vamos a calcular la aplicación proyección ortogonal sobre W.
Para ello sea (x, y, z) ∈ R3 y definimos
√ √ √ √ √ √
f(x, y, z) = h(x, y, z), (( 3/3, 3/3, 3/3))i( 3/3, 3/3, 3/3)
1
= (x + y + z, x + y + z, x + y + z).
3
Finalizamos el tema con este importante resultado que nos viene a decir que la mejor aproximación
por los vectores de un subespacio vectorial de dimensión finita es la proyección ortogonal.
Theorem 40 Sea W de dimensión finita. Sean v ∈ V y u la proyección ortogonal de v sobre W.
Entonces
||v − u|| = min{||v − w|| : w ∈ W}.
Demostración. Sea w ∈ W y calculamos
||v − w||2 = ||(v − u) + (u − w)||2 .
Ahora bien v − u ∈ W ⊥ y u − w ∈ W por lo que hv − u, u − wi = 0 y aplicando el Teorema de
Pitágoras se verifica que
||v − w||2 = ||(v − u) + (u − w)||2
= ||v − u||2 + ||u − w||2 ≥ ||v − u||2 .
Además ||v − w|| > ||v − u|| si u 6= w.
89
Espacio vectorial eucídeo
Example 35 Se considera el espacio euclídeo V de las funciones reales continuas definidas sobre
[1, 2], con el producto escalar Z 2
hf, gi := f (x)g(x)dx.
1
Vamos a obtener la mejor aproximación de la función log x como un polinomio de grado menor o igual
que dos. Para ello, en primer lugar obtenemos una base ortonormal del subespacio de los polinomios
de grado menor o igual que dos a partir de la base canónica {1, x, x2 }. En primer lugar obtenemos
una base ortogonal O = {v1 , v2 , v3 }, donde v1 = 1 y
hx, 1i 3
v2 = x − 1=x− ,
h1, 1i 2
® µ ¶
2 hx2 , 1i x, x − 32 3
v3 = x − 1− ® x−
h1, 1i x − 32 , x − 32 2
µ ¶
7 3 5
= x2 − − x − = x2 + x − .
3 2 6
Obtenemos ahora la base ortonormal N = {u1 , u2 , u3 }, donde
1
u1 = v1 = 1,
||v1 ||
µ ¶
1 √ 3
u2 = v2 = 12 x − ,
||v2 || 2
r µ ¶
1 180 2 5
u3 = v3 = x +x− .
||v3 || 1861 6
El polinomio de grado menor o igual que dos que mejor aproxima log x será la proyección ortogonal
de log x sobre el subespacio W dado por
p(log x) = hlog x, u1 i u1 + hlog x, u2 i u2 + hlog x, u3 i u3
¿ µ ¶À µ ¶
√ 3 √ 3
= hlog x, 1i 1 + log x, 12 x − 12 x −
2 2
* r µ ¶+ r µ ¶
180 2 5 180 2 5
+ log x, x +x− x +x−
1861 6 1861 6
¿ Àµ ¶ ¿ Àµ ¶
3 3 180 2 5 2 5
= hlog x, 1i + 12 log x, x − x− + log x, x + x − x +x−
2 2 1861 6 6
µ ¶ µ ¶
3 108 log 2 − 5 5
= 2 log 2 − 1 + 3(3 − 4 log 2) x − +5 x2 + x −
2 1861 6
36770 80641 1 1
= log 2 − + (16624 − 21792 log 2)x + (540 log 2 − 125)x2 .
1861 5583 1861 1861
El error cometido en la aproximación es
µZ 2 ¶1/2
2
|| log x − p(log x)|| = (log x − p(log x)) dx ' 26.2219,
1
lo cual indica que la aproximación es mala ya que el error medio obtenido es bastante alta.
90
Espacio vectorial eucídeo
5.4.1 Homotecias
Sea (V, h·, ·i) un espacio vectorial euclídeo. Se dice que una aplicación lineal f : V → V es una
homotecia de razón α ∈ R si f(u) = α u para todo u ∈ V. Es evidente que respecto de cualquier
base B de V la matriz asociada a una homotecia es de la forma
⎛ ⎞
α 0 ··· 0
⎜ 0 α ··· 0 ⎟
⎜ ⎟
MBB (f) = ⎜ .. .. . . .. ⎟ = α In
⎝ . . . . ⎠
0 0 ··· α
siendo dim V = n.
El efecto de una homotecia sobre cualquier subconjunto de V (o figura en el lenguaje del dibujo
técnico) es el de contraerlo (si |α| < 1) o expandirlo (si |α| > 1), manteniendo su orientación (si
α > 0) o invirtiéndola (si α < 0). Esto es, la imagen de cualquier conjunto contenido en V es el
mismo conjunto aumentado de tamaño o empequeñecido y con la misma o diferente orientación.
5.4.2 Proyecciones
Sea (V, h·, ·i) un espacio vectorial euclídeo y sean W1 y W2 dos subespacios vectoriales de V de forma
que W1 ⊕ W2 = V. Se dice que un endomorfismo f : V → V es una proyección de base W1 y
dirección W2 si se verifica que f(u) = 0 para cada u ∈ W2 (es decir, Ker(f) = W2 ) y f(u) = u
para todo u ∈ W1 . Si W1⊥ = W2 la proyección es la ortogonal, estudiada en el apartado anterior.
Geométricamente, una proyección lleva una figura u objeto de V a una figura diferente contenida en
la base de la proyección. Las proyecciones son bastante usadas en la asignatura de dibujo técnico de
las carreras de Ingeniería.
5.4.3 Simetrías
El concepto de simetría se define de manera análoga al de proyección. Sea (V, h·, ·i) un espacio
vectorial euclídeo y sean W1 y W2 dos subespacios vectoriales, de forma que W1 ⊕ W2 = V. Se dice
que una aplicación lineal f : V → V es una simetría de base W1 y dirección W2 si se verifica que
f(u) = −u para todo u ∈ W2 y f(u) = u para todo u ∈ W1 . Si W1⊥ = W2 , la simetría se denomina
ortogonal y únicamente hará falta indicar cuál es su base o su dirección. Es inmediato comprobar
que la matriz asociada a una simetría es siempre diagonalizable y sus valores propios son −1 y 1. Un
ejemplo clásico de simetría en R2 es la imagen reflejada en un espejo de una cierta figura. Cualquier
objeto de V pasa a ser, mediante una simetría, otro objeto de V del mismo tamaño, pero en una
posición diferente, marcada por la dirección y base de la simetría.
91
Espacio vectorial eucídeo
5.5 Ejercicios
1. Sea el espacio vectorial R3 con el producto escalar estándar. Calcular:
(a) El producto escalar de los vectores (1, 3, −1) y (1, −1, 1) así como el ángulo que forman.
(b) Calcular el valor de α para que el vector (α, 1, 0) sea normal o unitario.
(c) Calcular el valor de α para que los vectores (α, 1, 0) y (α, −1, −1) sean ortogonales.
2. Sea R3 el espacio vectorial de dimensión 3 dotado del producto escalar usual de R3 . Sea la base
canónica B = {e1 , e2 , e3 } , se pide:
(a) Calcular α para que el ángulo formado por los vectores u = e1 + αe2 + e3 y v = e1 + 2e2
π
sea de radianes.
3
(b) Calcular α para que el módulo del vector u = e1 + αe2 + e3 sea 49.
(c) Calcular todos los vectores que están a una distancia euclídea igual a 3 del vector u =
2e1 − e2 .
(d) Calcular α para que los vectores u = αe1 + (α − 1)e2 + αe3 y v = 2αe1 + αe2 − 3e3 sean
ortogonales.
3. Demostrar
(a) Teorema de Pitágoras. Si u y v son dos vectores ortogonales del espacio euclídeo Rn .
Entonces
|| u + v ||2 =|| u ||2 + || v ||2 .
(b) Ley del Paralelogramo. Si u y v son dos vectores cualesquiera del espacio euclídeo Rn ,
entonces
|| u + v ||2 + || u − v ||2 = 2 || u ||2 +2 || v ||2 .
4. Probar que si {u, v} son vectores ortogonales de un espacio vectorial euclídeo, entonces forman
un sistema linealmente independiente. ¿Es cierto el recíproco?
92
Espacio vectorial eucídeo
5. Obtener en el espacio euclídeo (R3 , hi) donde hi es el producto escalar usual de R3 , una base
ortonormal aplicando el Método de Gram-Schmidt a las bases
6. Consideremos R4 con el producto escalar usual. Se pide hallar una base ortonormal de los
siguientes subespacios vectoriales:
7. Obtener la forma diagonal de las siguientes matrices simétricas, así como las matrices de cambio
de base ⎛ ⎞ ⎛ ⎞
5 4 2 1 2 5 µ ¶
1 5
(a) ⎝ 4 5 2 ⎠ (b) ⎝ 2 −2 −2 ⎠ (c)
5 1
2 2 2 5 −2 1
⎛ ⎞
⎛ ⎞ 2 1 1 1
2 −4 0 ⎜ 1 2 1 1 ⎟
(d) ⎝ −4 0 0 ⎠ (e) ⎜ ⎝ 1 1 2 1 ⎠
⎟
0 0 6
1 1 1 2
8. Sea P2 [x] el conjuto de polinomios de grado menor o igual que 2 con coeficientes reales. Dados
p(x), q(x) ∈ P2 [x], se define
Z 1
< p(x), q(x) >= x4 p(x)q(x)dx.
−1
Probar que h∗, ∗i es un producto escalar. Dada la base B = {1, x, x2 }, obtener a partir de ella
un base ortonormal de P2 [x] (usando el producto escalar anterior).
9. Sea P3 [x] el conjunto de los polinomios con coeficientes reales de grado a lo sumo tres. Definimos
para todo p(x), q(x) ∈ P3 [x],
Z 1
hp(x), q(x)i := p(x)q(x)dx.
0
93
Espacio vectorial eucídeo
10. Dado el plano real R2 y el producto escalar usual calcular la proyección ortogonal del vector
(1, 1) sobre los subespacios generados por los siguientes vectores:
µ ¶
1 2
(a) , . (b) (−1, −1) . (c) (1, 0) .
3 5
11. Sea el espacio vectorial R3 sobre el que tenemos definido el producto escalar usual. Dados los
siguientes subespacios S de R3 , calcular S ⊥ :
(a) S = {(x, y, z) ∈ R3 : x + y + z = 0} .
(b) S = {(x, y, z) ∈ R3 : x + y + z = 0 y x − y = 0} .
(c) S = {(x, y, z) ∈ R3 : x − y + 2z = 0 y x − z = 0} .
13. Obtener el núcleo, la imagen y los subespacios propios de las aplicaciones lineales del ejercicio
anterior. ¿Qué conclusiones pueden obtenerse?
√
14. Hallar el polinomio de segundo grado que mejor aproxima la función f (x) = 3 x en el intervalo
[−1, 1] con la norma asociada al producto escalar de las funciones reales continuas definidas en
[−1, 1] dado por
Z 1
hf, gi = f(x)g(x)dx.
−1
n ≥ 0.)
16. Calcula la proyección ortogonal del vector u = (1, 1, −1) sobre W = {(x, y, z) ∈ R3 : x−y−2z =
0}.
94
Espacio vectorial eucídeo
17. Encuentra la expresión de la proyección ortogonal sobre la recta de R3 generada por el vector
(0, 1, 2).
20. Dados un espacio vectorial eucídeo y un subespacio vectorial del mismo W, se define la simetría
ortogonal de base W como la aplicación lineal f : V → V such that f(u) = u for u ∈ W and
f(u) = −u for u ∈ W ⊥ . El subespacio W ⊥ se dirá dirección de la simetría. Se pide obtener las
expresiones analíticas de las siguientes simetrías ortogonales:
21. Dado un espacio vectorial eucídeo se define la homotecia de razón α ∈ R como la aplicación
lineal f : V → V such that f(u) = α · u for u ∈ V. Se pide obtener las expresiones analíticas de
las siguientes homotecias ortogonales:
22. Obtener los valores propios y determinar si son diagonalizables las matrices respecto de las
bases canónicas de las aplicaciones lineales de los ejercicios 20 y 21.
95
Espacio vectorial eucídeo
96
Bibliografía
[Jef] A. Jeffrey, Linear algebra and ordinary differential equations, CRC Press, 1993.
[ToJo] J. R. Torregrosa y C. Jordan, Algebra lineal y sus aplicaciones, Schaum McGraw—Hill, 1987.
97