Está en la página 1de 21

Tema 2.

Espacios vectoriales, aplicaciones


lineales, diagonalización

Asignatura: Matemáticas I
Grado en Ingenierı́a Electrónica Industrial
Universidad de Granada
Prof. Rafael López Camino
Universidad de Granada
3 de septiembre de 2017

Índice
1. Espacios vectoriales 2
1.1. Sistema de generadores y dependencia lineal . . . . . . . . . . . . 5
1.2. Base en un espacio vectorial . . . . . . . . . . . . . . . . . . . . 7
1.3. Rango de matrices y espacios vectoriales . . . . . . . . . . . . . . 9

2. Aplicaciones lineales 12
2.1. Definición y primeras propiedades . . . . . . . . . . . . . . . . . 13
2.2. Núcleo e imagen de una aplicación lineal . . . . . . . . . . . . . 14
2.3. Expresión matricial de una aplicación lineal . . . . . . . . . . . . 15

3. Diagonalización de matrices 17
3.1. Vectores y valores propios . . . . . . . . . . . . . . . . . . . . . 17
3.2. El teorema de diagonalización . . . . . . . . . . . . . . . . . . . 20

1
En este tema abordamos el estudio de los espacios euclı́deos Rn desde el punto
de vista vectorial, las aplicaciones ‘buenas’ que hay entre ellos, llamadas aplica-
ciones lineales, y la búsqueda de expresiones ‘sencillas’ de estas aplicaciones,
cuando sea posible.

1. Espacios vectoriales
Definición 1.1 El espacio euclı́deo Rn (n ∈ N) es el conjunto

Rn = {(x1 , . . . , xn ) : xi ∈ R, 1 ≤ i ≤ n}.

A sus elementos se llaman vectores y se definen las siguientes dos operaciones:


1. Suma de dos vectores. Si x = (x1 , . . . , xn ), y = (y1 , . . . , yn ), entonces

x + y = (x1 + y1 , . . . , xn + yn ).

2. Producto de un escalar por un vector. Si λ ∈ R, entonces

λ x = (λ x1 , . . . , λ xn ).

Se dice que (Rn , +, ·) es el espacio vectorial euclı́deo de dimensión n.

Si n = 1, entonces R1 = R. Usaremos habitualmente n = 2, 3, 4.


La suma de vectores y el producto por escalares tienen las siguiente propieda-
des, las cuales son sencillas de ver:
1. u + (v + w) = (u + v) + w, ∀u, v, w ∈ Rn (asociativa).

2. u + v = v + u, ∀u, v ∈ Rn (conmutativa).

3. Si 0 = (0, . . . , 0), entonces 0 + v = v, ∀v ∈ Rn (elemento neutro).

4. Para cada v ∈ Rn existe w tal que v + w = 0, que no es más que w =


(−v1 , . . . , −vn ) (elemento opuesto).

5. λ (u + v) = λ u + λ v y (λ + µ)v = λ v + µv, ∀u, v ∈ Rn y ∀λ , µ ∈ R (distri-


butiva).
Con algo más de esfuerzo, tenemos:

Proposición 1.2 En Rn se tiene las siguientes propiedades:


1. λ 0 = 0, λ ∈ R.

2
2. 0v = 0, v ∈ Rn .

3. (−λ )v = −(λ v) = λ (−v), λ ∈ R, v ∈ Rn .

4. Si λ v = 0, entonces λ = 0 o v = 0.

5. Si λ u = λ v y λ 6= 0, entonces u = v.

6. Si λ v = µv y v 6= 0, entonces λ = µ.

En matemáticas, una vez definida una estructura matemática en un conjunto,


es natural ‘trasladar’ dicha estructura a subconjuntos suyos, o dicho de otra ma-
nera, dado un subconjunto, nos preguntamos cuál es la forma ‘natural’ de definir
el mismo tipo de estructura en dicho subconjunto y que esté relacionada con la
existente en el espacio ambiente. En el caso que estamos considerando aquı́, la es-
tructura es la de espacio vectorial. Sea U ⊂ Rn un subconjunto ¿qué condiciones
tiene que satisfacer U para que tenga las mismas propiedades de suma y producto
por escalares que ya tiene ya Rn ? Si fuera ası́, diremos que U es un subespacio
vectorial de Rn .
Veamos varios ejemplos. Sea la recta A = {(x, y) : y = x + 1}. Entonces los
vectores x = (0, 1) e y = (1, 2) pertenecen a A pero x + y = (1, 3) no está en
A. También podemos observar que 2x = (0, 2) 6∈ A. Este conjunto no nos in-
teresa. Otro ejemplo de conjunto que tampoco nos interesa es la circunferencia
A = {(x, y) : x2 + y2 = 1}. Entonces (1, 0), (−1, 0) ∈ A, pero x + y = (0, 0) 6∈ A.
Otro ejemplo más. Sea P la parábola P = {(x, y) ∈ R2 : y = x2 }, donde (1, 1), (2, 4) ∈
P, pero (1, 1) + (2, 4) = (3, 6) 6∈ P. Lo mismo sucede con el producto por esca-
lares: 2(1, 1) = (2, 2) 6∈ P. Dicho de otra manera, sean las aplicaciones suma de
vectores y el producto por escalares, vistos en A satisfacen:

+ : A × A → Rn , · : R × A → Rn ,

pero lo que pedimos es

+ : A × A → A, · : R × A → A.

Definición 1.3 Un subconjunto U de Rn es un subespacio vectorial si satisface


las siguientes propiedades:

1. Si u, v ∈ U, entonces u + v ∈ U.

2. Si λ ∈ R y u ∈ U, entonces λ u ∈ U.

Como consecuencia, se tiene:

3
1. El elemento neutro 0 de Rn pertenece a todos los subespacios vectoriales de
Rn .
2. Si U es un subespacio vectorial de Rn y u ∈ U, entonces el elemento opuesto
de u pertenece a U.
Esto nos sirve para saber que todos aquellos subconjuntos de Rn que no contie-
nen al (0, . . . , 0), el origen de coordenadas, no pueden ser subespacios vectoriales
(cuidado: el conjunto puede tener al origen y no ser subespacio vectorial, como
sucedı́a con la parábola). Ası́, conjuntos ‘famosos’ no son subespacios vectoriales:
en R2 , el cı́rculo x2 + y2 = 1 o la recta y = x + 1 no son subespacios vectoriales.
Es fácil probar que la definición de subespacio vectorial es equivalente a la
siguiente: un conjunto U ⊂ Rn es un subespacio vectorial si y sólamente si para
cada u, v ∈ U, λ , µ ∈ R, λ u + µv ∈ U.
El siguiente ejemplo de subespacio vectorial es sencillo, pero importante.
Proposición 1.4 Sea A ∈ Mm×n (R). En Rn se define el conjunto
U = {x = (x1 , . . . , xn ) ∈ Rn : Ax = 0}.
Entonces U es un subespacio vectorial de Rn .
Proposición 1.5 Sea Rn un espacio vectorial.
1. Los conjuntos {0} y Rn son subespacios vectoriales.
2. Si U y W son subespacios vectoriales, entonces U ∩W también es subespa-
cio vectorial.
3. Si U y W son subespacios vectoriales, entonces U +W = {u+w : u ∈ U, w ∈
W } es un subespacio vectorial. Algunas propiedades de la suma de subes-
pacios vectoriales son U +U = U y U ⊂ U +W , W ⊂ U +W .
La primera propiedad nos dice que al menos hay dos subespacios vectoriales
en Rn . La segunda y tercera nos dice que el concepto de subespacio vectorial
se ‘lleva bien’ con la intersección y con la suma. Observemos que si U es un
subespacio vectorial, entonces λU = {λ u : λ ∈ R, u ∈ U} = U.
Ejemplo 1.6 Sea U = {(x, y) ∈ R2 : x − y = 0} y W = {(x, 0) ∈ R2 : x ∈ R}.
Entonces
U +W = {(x, y) + (x0 , y0 ) : (x, y) ∈ U, (x0 , y0 ) ∈ W } = {(x, x) + (x0 , 0) : x, x0 ∈ R}
= {(x + x0 , x) : x, x0 ∈ R}.
Es fácil probar que U +W = R2 , pues si (x, y) ∈ R2 , podemos escribir
(x, y) = (y, y) + (x − y, 0) ∈ U +W.

4
Observemos que hay otras operaciones donde la propiedad de subespacio vec-
torial no se traslada. Por ejemplo:
1. La unión de subespacios vectoriales no tiene porqué ser subespacio vecto-
rial. Ası́, en R2 , los conjuntos U = {(x, 0) : x ∈ R} y W = {(0, y) : y ∈ R}
son subespacios vectoriales, pero U ∪W no lo es, pues (1, 0), (0, 1) ∈ U ∪W ,
pero (1, 0) + (0, 1) = (1, 1) 6∈ U ∪W .

2. El conjunto complementario de un subespacio vectorial nunca es subespa-


cio vectorial: si U es un subespacio vectorial, Rn − U no lo es porque el
elemento neutro está en U, y por tanto, no en Rn −U.

Importante: A partir de ahora, cuando digamos ‘espacio vectorial’


nos estaremos refiriendo al espacio vectorial Rn o a un subespacio
suyo.

1.1. Sistema de generadores y dependencia lineal


Damos ahora dos conceptos fundamentales en la teorı́a de espacios vectoria-
les: sistema de generadores y vectores linealmente independientes.

Definición 1.7 Sean X = {v1 , . . . , vn } un conjunto de vectores de un espacio vec-


torial V . Una combinación lineal de X es una suma del tipo

λ1 v1 + . . . + λn vn , λi ∈ R, 1 ≤ i ≤ n.

Se llama subespacio vectorial generado por X al conjunto de dichas combinacio-


nes lineales:
n
< X >=< v1 , . . . , vn >= L(X) = L({v1 , . . . , vn }) = { ∑ λi vi : λi ∈ R, 1 ≤ i ≤ n}.
i=1

Proposición 1.8 Se tiene las siguientes propiedades:


1. < X > es un subespacio vectorial.

2. Si X ⊂ U y U es un subespacio vectorial, entonces < X >⊂ U.

3. Si X ⊂ Y , entonces < X >⊂< Y >.

4. Si X,Y ⊂ V , entonces < X ∪Y >=< X > + < Y >.

Definición 1.9 Un conjunto de vectores X = {v1 , . . . , vm } es sistema de genera-


dores de V si < X >= V , es decir, cuando todo vector de V es combinación lineal
de los vectores de X. Lo mismo se puede definir para subespacios vectoriales.

5
1. Un sistema de generadores de Rn es {e1 , . . . , en } donde e1 = (1, 0, . . . , 0), e2 =
(0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1).
2. Los vectores {(1, 0), (1, 1)} es un sistema de generadores de R2 , pero no ası́
{(1, 0)}.
3. Los vectores {(1, 0, 1), (1, 1, 0)} es un sistema de generadores del subespa-
cio U = {(x, y, z) ∈ R3 : x − y − z = 0}.
Proposición 1.10 Sea V un espacio vectorial y X, Y subconjuntos finitos de V .
1. Si X es un sistema de generadores de V y X ⊂ Y , entonces Y también es un
sistema de generadores.
2. Si {v1 , . . . , vn } es un sistema de generadores y v1 es combinación lineal de
los demás, entonces {v2 , . . . , vn } es un sistema de generadores de V .
3. Si {v1 , . . . , vn } es un sistema de generadores y v = a1 v1 + . . . + an vn , con
a1 6= 0, entonces {v, v2 , . . . , vn } es un sistema de generadores de V .
Definición 1.11 Un conjunto de vectores {v1 , . . . , vn } se dice que es linealmente
independiente (o que forman un conjunto de vectores libre) si la única combina-
ción lineal nula de ellos es la trivial. De otra forma:
si λ1 v1 + . . . + λn vn = 0, entonces λi = 0 para cada 1 ≤ i ≤ n.
Un conjunto de vectores que no es linealmente independiente se llama linealmente
dependiente.
Expresamos qué quiere decir que {v1 , . . . , vn } son linealmente dependientes:
existen escalares, λ1 , . . . , λn , no todos nulos, tales que 0 = λ1 v1 + . . . + λn vn . Si,
por ejemplo, λ1 6= 0, podemos despejar v1 , a saber,
λ2 λn
v1 = − v2 − . . . − vn
λ1 λ1
probando que v1 es combinación lineal de los demás vectores. Por tanto, si un con-
junto de vectores es linealmente dependiente, uno de los vectores es combinación
lineal de los demás.
El concepto de dependencia lineal generaliza el concepto de vectores propor-
cionales. Concretamente, sean u, v ∈ V . Se dice que u es proporcional a v si exis-
te λ ∈ R tal que u = λ v. Obsérvese que si λ 6= 0, entonces podemos escribir
v = (1/λ )u, es decir, v es también proporcional a u. Por tanto, ‘ser proporcional’
no es recı́proco en general. Por ejemplo, el vector 0 es proporcional a todos los
vectores, pero el único vector proporcional al 0 es el propio 0. En particular, no
podemos decir que dos vectores ‘son proporcionales’, a no ser que los dos no sean
nulos.

6
Proposición 1.12 1. {v} es linealmente independiente si y y sólo si es no nulo.

2. Dos vectores son linealmente independientes si y sólamente si uno de los


dos es proporcional al otro.

3. Si X ⊂ Y e Y es linealmente independiente, entonces X es linealmente inde-


pendiente.

4. Si X ⊂ Y y X es linealmente dependiente, entonces Y es linealmente depen-


diente.

5. El conjunto X es linealmente dependiente si y sólo si un vector de X es


combinación lineal de los demás.

6. Si 0 ∈ X, entonces X es linealmente dependiente.

7. Si {v1 , . . . , vn } es linealmente independiente y v = a1 v1 + . . . + an vn , con


a1 6= 0, entonces {v, v2 , . . . , vn } es linealmente independiente.

No hay relación entre los conceptos de sistema de generadores y dependencia


lineal. Veámoslo en el plano euclı́deo R2 .

1. Los vectores {(1, 0), (0, 1)} son linealmente independientes y son un siste-
ma de generadores.

2. El vector {(1, 0)} es linealmente independiente y no es un sistema de gene-


radores.

3. Los vectores {(1, 0), (0, 1), (1, 1)} no son linealmente independientes y son
un sistema de generadores.

4. Los vectores {(1, 0), (2, 0)} no son linealmente independientes ni son un
sistema de generadores.

1.2. Base en un espacio vectorial


Definición 1.13 Una base de un espacio vectorial es un sistema de generadores
que es linealmente independiente.

Veamos ejemplos de bases en espacios vectoriales conocidos:


i
^
1. En Rn ,B = {e1 , . . . , en } con ei = (0, . . . , 1 , . . . , 0) es base de Rn y se llama
la base usual de Rn .

7
2. El conjunto B = {(1, 0, . . .), (1, 1, . . . , 0), . . . , (1, . . . , 1)} es base de Rn .

3. Sea el subespacio vectorial U = {(x, y) ∈ R2 , x − y = 0}. Una base de U es


{(1, 1)}.

4. Sean {v1 , . . . , vn } vectores linealmente independientes en un espacio vecto-


rial V . Entonces {v1 , . . . , vn } es base de < v1 , . . . , vn >.

5. En el espacio trivial V = {0} no hay bases, pues {0} es linealmente depen-


diente.

Teorema 1.14 Sea V un espacio vectorial y B = {v1 , . . . , vn } un conjunto de vec-


tores. Son equivalentes los siguientes enunciados:

1. B es base de V .

2. Para cada v ∈ V , existen únicos xi ∈ R tales que v = ∑ni=1 xi vi .

Se llaman coordenadas de un vector v a la n-upla (x1 , . . . , xn ) tal que v = ∑ni=1 xi vi .

De esta forma, fijada una base en un espacio vectorial V , existe una corres-
pondencia biunı́voca entre V y Rn , a saber, la aplicación fB : V → Rn dada por

fB (v) = (x1 , . . . , xn ),

donde (x1 , . . . , xn ) son las coordenadas de v respecto de B: v = ∑ni=1 xi ei .


Volvemos al ejemplo de V = Rn . Si (x1 , . . . , xn ) ∈ Rn , entonces las coordenadas
de este vector respecto de la base usual coincide justamente con (x1 , . . . , xn ).
Además,

1. Sean X e Y dos conjuntos finitos de un espacio vectorial, tales que X ⊂ Y ,


X es linealmente independiente e Y es un sistema de generadores. Entonces
existe una base B de V tal que X ⊂ B ⊂ Y .

2. Dado un conjunto de vectores linealmente independientes de un espacio


vectorial, siempre es posible añadir vectores hasta obtener una base del mis-
mo (ampliación a una base).

3. Dado un sistema de generadores, siempre es posible quitar vectores hasta


obtener una base del espacio.

Teorema 1.15 (de la base) Todas las bases de un mismo espacio vectorial tienen
el mismo cardinal. A dicho número se llama la dimensión del espacio vectorial
Además, sea X = {e1 , . . . , em } ⊂ V . Entonces

8
1. Si X es un conjunto de vectores linealmente independiente, entonces m ≤
dim(V ). Además se da la igualdad si X es base.

2. Si X es un sistema de generadores de V , entonces m ≥ dim(V ). Además se


da la igualdad si X es base.

Relacionamos la dimensión de un espacio vectorial con la de un subespacio


suyo.

Corolario 1.16 Si U y W son subespacios vectoriales de V con U ⊂ W , entonces


dim(U) ≤ dim(W ) y la igualdad se tiene si y sólamente U = W .

Un subespacio vectorial de dimensión 1 se llama recta vectorial, si es 2, plano


vectorial, y si es dim(V ) − 1, hiperplano vectorial.
Ahora relacionamos la dimensión de U +W con las de U y W .

Teorema 1.17 Sea U y W subespacios vectoriales de V . Entonces:

1. Si B1 es un sistema de generadores de U y B2 de W , entonces B1 ∪ B2 es un


sistema de generadores de U +W .

2. dim(U +W ) = dim(U) + dim(W ) − dim(U ∩W ).

1.3. Rango de matrices y espacios vectoriales


Para acabar con esta sección, vamos a relacionar el tema 1 con éste de espacios
vectoriales. Ası́ daremos un método sencillo para saber si un conjunto de vectores
es linealmente independiente, sistema de generadores o base. La clave se encuen-
tra en relacionar este problema con el rango de una matriz y las soluciones de un
sistema de ecuaciones lineales.

Proposición 1.18 Sea B = {e1 , . . . , en } una base de un espacio vectorial V e Y =


{v1 . . . , vm } ⊂ V un conjunto finito de vectores. Escribimos
n
v j = ∑ ai j ei , 1 ≤ j ≤ m.
i=1

Sea Z = {w1 , . . . , wm } el conjunto de vectores de Rn dado por

w j = (a1 j , a2 j , . . . , an j ), 1 ≤ j ≤ m.

Entonces Y es linealmente independiente (resp. sistema de generadores, base) si y


sólamente si Z es linealmente independiente (resp. sistema de generadores, base).

9
Por tanto, para estudiar la naturaleza de un conjunto de vectores en un espacio
vectorial, fijamos una base, la que sea, y trabajamos con las coordenadas de dichos
vectores, como vectores de Rn .

Corolario 1.19 Sea Z = {v1 , . . . , vm } un conjunto de vectores de Rn . Sea A =


(v1 . . . vm ) la matriz que, por columnas, son las coordenadas de v j respecto de la
base usual.
1. dim(< Z >) = r(A).

2. Z es linealmente independiente si y sólo si r(A) = m,

3. {v1 , . . . , vn } es base de Rn si y sólamente si det(A) 6= 0.

Este resultado puede reinterpretar el concepto de rango de una matriz dado en


el tema 1.

Corolario 1.20 El rango de una matriz es el número de columnas linealmente


independientes.

Como sabemos que el rango de una matriz es igual al de su traspuesta, podemos


cambiar la palabra ‘columna’ por ‘fila’.

Teorema 1.21 Sea un subespacio vectorial U de Rn dado por U = {(x ∈ Rn :


Ax = 0}. Entonces dim(U) = n − r(A). Ya que A ∈ Mm×n (R), si r(A) = m, deci-
mos que Ax = 0 son las ecuaciones cartesianas del subespacio.

Obsérvese que:
1. El número de filas de A coincide con el rango de A.

2. Las filas de A, como vectores de Rn , son linealmente independientes.

3. Un método para hallar una base de un subespacio vectorial que viene dado
como Ax = 0: la base se obtiene al resolver dicho sistema homogéneo.

4. Un método para hallar las ecuaciones cartesianas de un subespacio vectorial


que viene dado por Ax = 0: se calcula el rango de A y se toma las ecuaciones
(filas) correspondientes a un menor que nos determina el rando de A.
Hacemos ahora el recı́proco del teorema anterior, es decir, cómo obtener las
ecuaciones cartesianas cuando uno conoce una base del subespacio vectorial.

Teorema 1.22 Sea un subespacio vectorial U de Rn de dimensión m. Entonces


existe una matriz A ∈ M(n−m)×n (R) de rango n−m tal que U = {x ∈ Rn : Ax = 0}.

10
El método para hallar A es el siguiente. Sea B = {v1 , . . . , vm } una base de U y
escribimos dicha base en coordenadas respecto de la base usual: v j = ∑ni=1 ai j ei .
Entonces la matriz A ∈ Mm×n (R) tiene rango m. Sea v = (x1 , . . . , xn ) ∈ Rn . En-
tonces v ∈ U si y sólo si v ∈< v1 , . . . , vm >, es decir, si y sólo si,

rango(A|x) = m.

Como el rango de A es m, existe en A una submatriz m × m don determinante


no nulo. Por tanto, es equivalente a decir, que todos los menores que resultan
de añadir filas y (única) última columna a esta submatriz, son nulos. El núme-
ro de menores es exactamente, n − m, obteniendo las ecuaciones cartesianas del
subespacio. Obsérvese que cada uno de los menores es una combinación lineal de
x1 , . . . , xn , obteniendo ası́, ecuaciones lineales.
Observemos que el subespacio vectorial U = {x ∈ Rn : Ax = 0} puede verse
como el conjunto de soluciones del sistema de ecuaciones lineales Ax = 0. Sa-
bemos que este sistema es compatible, o dicho en términos de este tema, todo
subespacio vectorial es no vacı́o, y al menos contiene al elemento neutro del espa-
cio vectorial. Si el sistema es determinado, quiere decir que r(A) = n y U = {0},
que es el único subespacio de dimensión 0 en Rn . En caso contrario, el sistema
es indeterminado, y el conjunto de soluciones, el subespacio U, tiene, por defini-
ción, dimensión igual a n − r(A), es decir, la dimensión del conjunto de soluciones
coincide con la dimensión del subespacio U.

Definición 1.23 Sea U = {x ∈ Rn : Ax = 0}, donde A ∈ Mm×n (R). Se dice que


Ax = 0 son las ecuaciones cartesianas (o implı́citas) de U (respecto de Bu ) si
las m ecuaciones son linealmente independientes, es decir, si r(A) = m. Como
consecuencia, dim(U) = n − m.

Si U un subespacio vectorial viene dado por Ax = 0, para hallar las ecuaciones


cartesianas basta con quitar las filas linealmente dependientes, o dicho de otra
manera, si calculamos el rango de A (por cualquier método), las filas que nos
dan el rango, nos determina las ecuaciones cartesianas. Por ejemplo, si r(A) =
m, quiere decir que hay un menor de orden m no nulo. Entonces las ecuaciones
cartesianas son las ecuaciones determinadas por las m filas que determinan el
menor anterior.
Recı́procamente, siempre es posible hallar las ecuaciones cartesianas. Quizás
el método más directo para hallarlas es el siguiente. Se toma {e1 , . . . , em } una ba-
se de U y se toman las coordenadas de dichos vectores respecto de la base usual
Bu , y escribiremos de nuevo por e1 , . . . , em dichas coordenadas como matrices co-
lumnas. Un vector x satisface x = (x1 , . . . , xn ) ∈ U si y sólamente es combinación
lineal de {e1 , . . . , em }. Por tanto, el rango de la matriz (e1 e2 . . . em x), que es de
orden n × (m + 1) es m. Esto quiere decir que existe un menor de orden m no nulo

11
y todos los menores de orden m + 1 son cero. A la fuerza dicho menor no nulo
está en la matriz (e1 e2 . . . em ). Luego los n − m menores de orden m + 1 obtenidos
al añadir la columna x son los que nos dan las ecuaciones cartesianas de U.
Para finalizar, vamos a dar el concepto de la matriz de cambio de base. Sea
U un espacio vectorial de dimensión n y sean B = {e1 , . . . , en } y B = {e01 , . . . , e0n }
dos bases. Tomamos v ∈ U y hallamos las coordenadas de v respecto de B y B0 :
n n
v= ∑ x je j, v= ∑ x0j e0j .
j=1 j=1

¿qué relación hay entre el vector (x1 , . . . , xn ) y (x10 , . . . , xn0 )?


Expresamos la base B en coordenadas respecto de B0 , escribiendo
n
e j = ∑ ai j e0i , 1 ≤ j ≤ n.
i=1

Entonces
n n n n
v= ∑ x j ∑ ai j e0i = ∑ ( ∑ ai j x j )e0i
j=1 i=1 i=1 j=1

y como sabemos que tiene que ser ∑nj=1 x0j e0j , la unicidad de las coordenadas im-
plica
x10
   
x1
 ..   . 
 .  = A  ..  .
xn0 xn

Definición 1.24 La matriz A anterior se llama la matriz de cambio de base de B


a B0 y la denotamos por M(1U , B, B0 ).

2. Aplicaciones lineales
La estructura de espacio vectorial ha girado en torno a la manera de trabajar
en un espacio vectorial usando el concepto de base. También se han usado las he-
rramientas que proporciona el tema 1, es decir, matrices y sistemas de ecuaciones,
para hallar la dimension y ecuaciones cartesianas de un subespacio vectorial.
Una vez dado el objeto matemático, el espacio vectorial, el siguiente paso
natural es cómo ‘relacionar’ dos espacios vectoriales. La pregunta natural que
surge es la siguiente:
Dados dos espacios vectoriales V y V 0 y una aplicación f : V → V 0
entre ellos ¿hay algún tipo de aplicaciones ‘buenas’ respecto de la
estructura vectorial que soportan V y V 0 ?

12
La respuesta es sı́, y a dichas aplicaciones se les llaman aplicación lineales. Igual
que sucedı́a con el concepto de subespacio vectorial, no todas las aplicaciones
entre espacios vectoriales son lineales, en verdad, ‘muy pocas’ lo son. En esta
sección nos dedicamos a su estudio y de nuevo será importante el uso de matrices
para el tratamiento de estos nuevos objetos.

2.1. Definición y primeras propiedades


Definición 2.1 Una aplicación f : V → V 0 entre dos espacios vectoriales se dice
que es lineal si satisface las dos siguientes propiedades:
1. f (u + v) = f (u) + f (v), ∀u, v ∈ V .

2. f (λ v) = λ f (v), ∀λ ∈ R, v ∈ V .
Si V = V 0 , se dice que f es un endomorfismo.

Es evidente que esta definición es equivalente a que

f (λ u + µv) = λ f (u) + µ f (v), ∀λ , µ ∈ R, u, v ∈ V.

Veamos algunos ejemplos.


1. La aplicación identidad 1V : V → V , 1V (v) = v, es lineal.

2. La aplicación nula 0 : V → V 0 , 0(v) = 0. Esta aplicación puede verse como


una aplicación constante y es la única aplicación constante que es lineal.
Exactamente, sea v00 ∈ V 0 un vector fijo y definamos la aplicación constante
f : V → V 0 , f (v) = v00 . Entonces f es lineal si y sólamente si v00 = 0.

3. Una homotecia de razón λ (6= 0, 1) en un espacio vectorial es el endomor-


fismo f : V → V dado por f (v) = λ v. Esta aplicación es lineal.

4. Se define la i-proyección como la aplicación pi : Rn → R dada por pi (x1 , . . . , xn ) =


xi . Esta aplicación es lineal.

5. La composición de aplicaciones lineales: si f : V → V 0 y g : V 0 → V 00 son


aplicaciones lineales, entonces g ◦ f : V → V 00 es lineal.
Las primeras propiedades de una aplicación lineal reflejan que estas aplica-
ciones son las más adecuadas entre espacios vectoriales y las que llevan, en cierto
modo, la estructura vectorial de un espacio a otro, justificando el porqué de su
definición.

Proposición 2.2 Sea f : V → V 0 una aplicación lineal.

13
1. f (0) = 0.

2. f (−v) = − f (v), v ∈ V .

3. f (∑ni=1 λi vi ) = ∑ni=1 λi f (vi ), λi ∈ R, vi ∈ V .

4. Si {v1 , . . . , vn } ⊂ V , entonces < f (v1 ), . . . , f (vn ) >= f (< v1 , . . . , vn >).

5. Si U es un subespacio de V , entonces f (U) es un subespacio de V 0 .

Siguiendo con la idea del tema anterior de que un espacio vectorial se conoce
si se sabe una base, como indica el siguiente resultado:

Teorema 2.3 Sea B = {e1 , . . . , en } una base de un espacio vectorial V y f , g :


V → V 0 dos aplicaciones lineales. Si f (ei ) = g(ei ) para todo i, entonces f = g.

2.2. Núcleo e imagen de una aplicación lineal


Definición 2.4 Sea una aplicación lineal f : V → V 0 . Se define el núcleo de f al
conjunto
Ker( f ) = {v ∈ V : f (v) = 0}.
Es un subespacio vectorial.

Si Ker( f ) = {0}, entonces si X es linealmente independiente, entonces f (X)


es linealmente independiente.

Teorema 2.5 Sea una aplicación lineal f : V → V 0 . Entonces

dim(V ) = dim(Ker( f )) + dim(Im( f )). (1)

A la dimensión del núcleo se llama nulidad de f , n( f ), y a la dimensión de la


imagen de f se llama rango de f , r( f ).

Corolario 2.6 Sea una aplicación lineal f : V → V 0 .

1. r( f ) ≤ dim(V ).

2. Si U es un subespacio de V , entonces dim( f (U)) ≤ dim(U).

14
2.3. Expresión matricial de una aplicación lineal
En esta sección usaremos las herramientas de matrices dadas en el tema 1 para
un mejor tratamiento de las aplicaciones lineales. Para ello asignaremos a cada
aplicación lineal una matriz (fijadas bases en los dos espacios vectoriales). Con
esto se entenderá mejor las operaciones de suma y producto de matrices que se
hicieron en el tema 1.
Sea f : V → V 0 una aplicación lineal entre dos espacios vectoriales y B =
{e1 , . . . , en } y B0 = {e01 , . . . , e0m } bases de V y V 0 respectivamente. Sea v ∈ V y
escribamos v = ∑ni=1 xi ei , con xi ∈ R. Entonces f (v) = ∑ni=1 xi f (ei ). Escribamos
f (e j ) = ∑m 0
i=1 ai j ei , para cada 1 ≤ j ≤ n. Entonces
!
n n n n n
f (v) = ∑ xi f (ei ) = ∑ xi ∑ a ji e0j = ∑ ∑ xia ji e0j .
i=1 i=1 j=1 j=1 i=1

Por tanto, las coordenadas de f (v) respecto de la base B0 son


n n n
( ∑ a1i xi , ∑ a2i xi , . . . , ∑ ani xi ).
i=1 i=1 i=1

Este vector de Rm , es decir, las coordenadas de f (v), se puede escribir también


como la siguiente matriz columna:
 
x1
A  ...  ∈ Mm×1 (R). (2)
 
xn

Definición 2.7 Sea f : V → V 0 una aplicación lineal, B = {e1 , . . . , en } y B0 =


{e01 , . . . , e0m } bases de V y V 0 respectivamente. Supongamos que para cada 1 ≤
j ≤ n se tiene
m
f (e j ) = ∑ ai j e0i .
i=1

Se llama expresión matricial de f respecto de las bases B y B0 a la matriz

M( f , B, B0 ) = (ai j ).

Por tanto:

Si x = (x1 , . . . , xn ) son las coordenadas de v respecto de la base B, las


coordenadas de f (v) respecto de B0 son M( f , B, B0 )xt .

15
Nota. En el caso particular que f sea un endomorfismo y si tomamos B0 = B,
escribiremos la expresión matricial simplemente por M( f , B).
La primera relación con el tema 1 se refiere al rango. Con el término rango
hemos definido el rango de una matriz (número de pivotes en su forma de Hermite
por filas) y el rango de una aplicación lineal, que es la dimensión de su imangen.
Teorema 2.8 Sea f : V → V 0 una aplicación lineal, B = {e1 , . . . , en } y B0 = {e01 , . . . , e0m }
bases de V y V 0 respectivamente. Entonces
r( f ) = r(M( f , B, B0 )).
Observemos que el resultado es independiente de las bases elegidas, ya que el
miembro de la izquierda de esta identidad no depende de bases.
De esta forma tenemos otra interpretación del concepto de rango de una ma-
triz:
Corolario 2.9 Sea A ∈ Mm×n (R). Entonces el rango de A es el número de co-
lumnas linealmente independientes, vistas dichas columnas como vectores de Rm .
Sea A ∈ Mm×n (R). Entonces el rango de A es el rango de cualquier aplicación
lineal que la tenga por expresión matricial.
Método para hallar una base de la imagen. Damos dos maneras de obtener
una base de la imagen de una aplicación lineal. Observemos previamente que una
base del núcleo se reduce a resolver la ecuación Ax = 0. Para la imagen podemos
hacer:
1. Si {e1 , . . . , en } es una base de V , entonces { f (e1 ), . . . , f (en )} es un siste-
ma de generadores de Im( f ), luego basta con quitar los vectores que son
linealmente dependientes.
2. Si {e1 , . . . , em } es una base del núcleo, ampliamos a una base {e1 , . . . , em , em+1 , . . . , en }
de V . Entonces una base de la imagen es { f (em+1 ), . . . , f (en )}.
Para acabar con esta sección, nos preguntamos cómo cambia la expresión ma-
tricial de una aplicación lineal al cambiar de bases. Concretamente, sea f : V → V 0
una aplicación lineal y bases B1 , B2 de V , B01 y B02 de V 0 . Entonces tenemos las
matrices M( f , B1 , B01 ) y M( f , B2 , B02 ) ¿cuál es la relación entre ambas matrices?
Para ello tomamos el siguiente diagrama
1 f 1 0
V
V→ V → V0 →
V
V 0.
Tomamos en cada uno de los espacios vectoriales, las bases B1 , B2 , B02 y B01 . La
composición de las tres aplicaciones es f y
M( f , B1 , B01 ) = M(1V 0 , B02 , B01 )M( f , B2 , B02 )M(1V , B1 , B2 ).

16
En el caso concreto que f sea un endomorfismo, y tomando B1 = B01 y B2 = B02
M( f , B1 ) = M(1V , B2 , B1 )M( f , B2 )M(1V , B1 , B2 ).
Por otro lado,
M(1V , B2 , B1 )M(1V , B1 , B2 ) = M(1V , B1 , B1 ) = In ,
es decir,
M(1V , B2 , B1 ) = M(1V , B1 , B2 )−1 .

3. Diagonalización de matrices
Esta última parte del tema está dedicada a encontrar expresiones matriciales
‘sencillas’ de endomorfismos, o de matrices cuadradasm concretamente, matrices
que sean diagonales. Dada una aplicación lineal, es natural buscar bases donde
la expresión matricial sea sencilla, y ası́ fácil de manipular. Podemos pensar, por
ejemplo, que la matriz tenga 0 y 1. Entre las matrices ‘sencillas’, nos centramos
en el hecho de que sean diagonales, es decir, ai j = 0 si i 6= j.

3.1. Vectores y valores propios


Definición 3.1 Una matriz cuadrada A es diagonalizable si es semejante a una
matriz diagonal, es decir, si existe una matriz regular P tal que P−1 AP es una
matriz diagonal.
Definición 3.2 Si A ∈ Mn (R), decimos que λ ∈ R es un valor propio (o autova-
lor) de A si existe x ∈ Rn , x 6= 0 tal que Ax = λ x. Al vector x lo llamamos un vector
propio (o autovector) de λ .
Por tanto el trabajo a realizar consiste en lo siguiente:
1. Hallar vectores v ∈ Rn , con v 6= 0, y escalares λ tales que Av = λ v.
2. De entre los vectores v, ser capaces de encontrar una base de Rn .
Veamos tres ejemplos que nos van a ilustrar los problemas que aparecen cuando
queremos saber si una matriz es diagonalizable.
 
0 1
Ejemplo 3.3 Consideramos A = . Supongamos que existe v = (x, y) ∈
1 0
R2 y λ ∈ R tales que Av = λ v. Entonces (y, x) = (λ x, λ y). Esta igualdad la escri-
bimos como el siguiente sistema homogéneo:
−λ x + y = 0

17
x − λ y = 0.
Ya que estamos buscando soluciones no triviales, entonces el determinante de la
matriz de los coeficientes es cero, es decir,

−λ 1
1 −λ = 0,

es decir, λ 2 − 1 = 0, y ası́, λ = 1 y λ = −1. Hallamos, para cada valor anterior


de λ , vectores (x, y) que satisfagan el sistema lineal de ecuaciones. Para λ = 1,
tomamos e1 = (1, 1) (o uno proporcional a él), y para λ = −1, e2 = (1, −1). Ya
que B = {e1 , e2 } es una base de R2 , entonces
 
1 0
M( f , B) = ,
0 −1

probando que f es diagonalizable.


 
1 1
Ejemplo 3.4 Consideramos A = . Si existe v = (x, y) ∈ R2 y λ ∈ R tales
1 0
que Av = λ v, entonces (x + y, y) = (λ x, λ y). Esta igualdad la escribimos como

(1 − λ )x + y = 0

(1 − λ )y = 0.
Habrá soluciones no triviales si

1−λ 1
= 0,
0 1−λ

es decir, (λ − 1)2 = 0, y ası́, λ = 1. Hallamos vectores (x, y) que satisfagan el sis-


tema lineal de ecuaciones anterior para λ = 1. La ecuación a resolver es y = 0,
luego tomamos e1 = (1, 0) (o uno proporcional a él). Ya que no existen más vec-
tores con la misma propiedad concluimos que, aunque hay vectores cuya imagen
mediante f es proporcional a ellos mismos, no podemos encontrar una base del
espacio formado por vectores de este tipo. Esto concluye que f no es diagonali-
zable.
 
0 −1
Ejemplo 3.5 Sea ahora A = . Del mismo modo, existe v = (x, y) ∈ R2
1 0
y λ ∈ R tales que Av = λ v si (−y, x) = (λ x, λ y). Esta igualdad la escribimos
como:
−λ x − y = 0

18
x − λ y = 0.
Habrá soluciones no triviales si

−λ −1
= 0,
1 −λ

es decir, λ 2 + 1 = 0. Ya que no hay raı́ces, el endomorfismo no es diagonalizable.

Si λ ∈ R, denotamos

Vλ = {v ∈ V : Av = λ v}.

Observemos que en dicho conjunto siempre está el vector 0, pero no quiere decir
que λ sea un valor propio: habrı́a que tener que Vλ tiene más vectores aparte del
0. Por otro lado, si λ es un valor propio, Vλ está formado por los vectores propios
de λ y el vector 0.
A continuación detallamos algunas propiedades de los valores y vectores pro-
pios.

Proposición 3.6 Con la notación anterior, tenemos:

1. Vλ es un subespacio propio.

2. λ es valor propio sii dim(Vλ ) ≥ 1. En tal caso, decimos que Vλ es el subes-


pacio propio del valor λ .

3. Vλ = Ker(A − λ In ).

4. dim(Vλ ) = n − r(A − λ 1V ).

5. Si λ es valor propio, entonces det(A − λ In ) = 0.

6. El número de valores propios es menor o igual que la dimensión de V .

7. Ker( f ) = V0 y λ = 0 es un valor propio sii la nulidad es al menos 1.

Para entender parte de las dificultades de saber cuándo un endomorfismo es


diagonalizable, la encontramos en la propiedad 5 anterior. La ecuación det(A −
λ I) = 0 es una ecuación polinómica en λ de orden n (ya que en cada elemento
de la diagonal principal de cualquier expresión matricial suya aparece el número
−λ ). Si A es diagonalizable tiene que haber n valores propios (que pueden estar
repetidos). Esto quiere decir que la ecuación polinómica det(A − λ In ) = 0 tiene
que tener exactamente n raı́ces reales, lo cual no siempre es cierto. Ası́, un po-
linomio de orden 2 puede no tener ninguna raı́z (aunque si tiene una, tiene dos),

19
como sucede en el primer ejemplo anterior. Si es de orden impar, sabemos que al
menos tiene una, pero no sabemos si hay más.
La segunda dificultad es que, aunque tengamos n raı́ces (que pueden estar
repetidas), cuando hallemos vectores propios de cada valor propio, no sabemos
si al juntarlos obtenemos una base del espacio vectorial. En el segundo ejemplo
anterior, esto ha sido ası́ porque es evidente a simple vista; por contra, en el ter-
cer ejemplo, sólo encontramos un vector propio (linealmente independiente). El
siguiente resultado responde en gran medida a esta cuestión.

Proposición 3.7 Sean λ1 , . . . , λk valores propios de un endomorfismo y Bi base


de Vλi , 1 ≤ i ≤ k. Entonces el conjunto de vectores B1 ∪ . . . ∪ Bk es linealmente
independiente. En particular, si f tiene n valores propios diferentes, siendo n la
dimensión del espacio vectorial, entonces f es diagonalizable.

3.2. El teorema de diagonalización


Si A es una matriz cuadrada, el polinomio caracterı́stico es PA (λ ) = |A − λ I|.
Sea λ un valor propio.

1. Se llama multiplicidad algebraica de λ , la multiplicidad de λ como raı́z de


Pf (λ ). La denotamos por aλ

2. Se llama multiplicidad geométrica de λ a la dimensión de Vλ . La denotamos


por gλ .

Observemos que:

1. Pf (λ ) es un polinomio de orden n.

2. λ es un valor propio sii es una raı́z de Pf (λ ).

3. Si f es diagonalizable, entonces Pf (λ ) tiene n raı́ces (que pueden ser igua-


les).

Proposición 3.8 Si λ es un valor propio de f , entonces gλ ≤ aλ . En particular,


si A tiene n valores propios diferentes, entonces es diagonalizable.

Teorema 3.9 Si A es una matriz cuadrada, entonces A es diagonalizable si

1. Pf (λ ) tiene n raı́ces (reales).

2. aλ = gλ para cualquier valor propio λ .

20
Si consideramos ahora matrices cuadradas, el teorema anterior se aplica del
mismo modo, obteniendo que existe una matriz diagonal D y una matriz regular P
tal que A = P−1 DP. Nos preguntamos qué matriz es P. Si B y B0 son bases tales que
A = M( f , B) y D = M( f , B0 ), entonces P = M(1V , B, B0 ). Ya que la base B (de Rn )
puede ser cualquiera, tomamos la base usual B = Bu . Entonces P−1 no es más que
poner la base de los vectores propios en columnas (si B es otra base, la matriz P−1
es poner en coordenadas la base B0 en términos de B, pero en el cálculo explı́cito
de las bases de los subespacios propios, se trabaja en coordenadas respecto de B,
luego al final dicha matriz es poner en columnas los vectores propios.
Acabamos con una ‘simple’ aplicación de diagonalización. Sea A una matriz y
nos preguntamos por calcular la potencia An , donde n es un número anterior. Si A
es diagonalizable, esta operación se puede computar del siguiente modo. Sabemos
que A = P−1 DP para cierta matriz regular P y matriz diagonal D. Entonces

An = (P−1 DP) · · · (P−1 DP) = P−1 Dn P.

Pero la matriz Dn es sencilla de hallar: no es más que elevar a n los elementos de


la diagonal principal de D, es decir,
   
λ1 λ1n
D=
 .. ⇒
  .. .

. .
λk λkn

Por tanto, la potencia n-ésima de A se reduce a computar tres productos de matri-


ces.

21

También podría gustarte