Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Asignatura: Matemáticas I
Grado en Ingenierı́a Electrónica Industrial
Universidad de Granada
Prof. Rafael López Camino
Universidad de Granada
3 de septiembre de 2017
Índice
1. Espacios vectoriales 2
1.1. Sistema de generadores y dependencia lineal . . . . . . . . . . . . 5
1.2. Base en un espacio vectorial . . . . . . . . . . . . . . . . . . . . 7
1.3. Rango de matrices y espacios vectoriales . . . . . . . . . . . . . . 9
2. Aplicaciones lineales 12
2.1. Definición y primeras propiedades . . . . . . . . . . . . . . . . . 13
2.2. Núcleo e imagen de una aplicación lineal . . . . . . . . . . . . . 14
2.3. Expresión matricial de una aplicación lineal . . . . . . . . . . . . 15
3. Diagonalización de matrices 17
3.1. Vectores y valores propios . . . . . . . . . . . . . . . . . . . . . 17
3.2. El teorema de diagonalización . . . . . . . . . . . . . . . . . . . 20
1
En este tema abordamos el estudio de los espacios euclı́deos Rn desde el punto
de vista vectorial, las aplicaciones ‘buenas’ que hay entre ellos, llamadas aplica-
ciones lineales, y la búsqueda de expresiones ‘sencillas’ de estas aplicaciones,
cuando sea posible.
1. Espacios vectoriales
Definición 1.1 El espacio euclı́deo Rn (n ∈ N) es el conjunto
Rn = {(x1 , . . . , xn ) : xi ∈ R, 1 ≤ i ≤ n}.
x + y = (x1 + y1 , . . . , xn + yn ).
λ x = (λ x1 , . . . , λ xn ).
2. u + v = v + u, ∀u, v ∈ Rn (conmutativa).
2
2. 0v = 0, v ∈ Rn .
4. Si λ v = 0, entonces λ = 0 o v = 0.
5. Si λ u = λ v y λ 6= 0, entonces u = v.
6. Si λ v = µv y v 6= 0, entonces λ = µ.
+ : A × A → Rn , · : R × A → Rn ,
+ : A × A → A, · : R × A → A.
1. Si u, v ∈ U, entonces u + v ∈ U.
2. Si λ ∈ R y u ∈ U, entonces λ u ∈ U.
3
1. El elemento neutro 0 de Rn pertenece a todos los subespacios vectoriales de
Rn .
2. Si U es un subespacio vectorial de Rn y u ∈ U, entonces el elemento opuesto
de u pertenece a U.
Esto nos sirve para saber que todos aquellos subconjuntos de Rn que no contie-
nen al (0, . . . , 0), el origen de coordenadas, no pueden ser subespacios vectoriales
(cuidado: el conjunto puede tener al origen y no ser subespacio vectorial, como
sucedı́a con la parábola). Ası́, conjuntos ‘famosos’ no son subespacios vectoriales:
en R2 , el cı́rculo x2 + y2 = 1 o la recta y = x + 1 no son subespacios vectoriales.
Es fácil probar que la definición de subespacio vectorial es equivalente a la
siguiente: un conjunto U ⊂ Rn es un subespacio vectorial si y sólamente si para
cada u, v ∈ U, λ , µ ∈ R, λ u + µv ∈ U.
El siguiente ejemplo de subespacio vectorial es sencillo, pero importante.
Proposición 1.4 Sea A ∈ Mm×n (R). En Rn se define el conjunto
U = {x = (x1 , . . . , xn ) ∈ Rn : Ax = 0}.
Entonces U es un subespacio vectorial de Rn .
Proposición 1.5 Sea Rn un espacio vectorial.
1. Los conjuntos {0} y Rn son subespacios vectoriales.
2. Si U y W son subespacios vectoriales, entonces U ∩W también es subespa-
cio vectorial.
3. Si U y W son subespacios vectoriales, entonces U +W = {u+w : u ∈ U, w ∈
W } es un subespacio vectorial. Algunas propiedades de la suma de subes-
pacios vectoriales son U +U = U y U ⊂ U +W , W ⊂ U +W .
La primera propiedad nos dice que al menos hay dos subespacios vectoriales
en Rn . La segunda y tercera nos dice que el concepto de subespacio vectorial
se ‘lleva bien’ con la intersección y con la suma. Observemos que si U es un
subespacio vectorial, entonces λU = {λ u : λ ∈ R, u ∈ U} = U.
Ejemplo 1.6 Sea U = {(x, y) ∈ R2 : x − y = 0} y W = {(x, 0) ∈ R2 : x ∈ R}.
Entonces
U +W = {(x, y) + (x0 , y0 ) : (x, y) ∈ U, (x0 , y0 ) ∈ W } = {(x, x) + (x0 , 0) : x, x0 ∈ R}
= {(x + x0 , x) : x, x0 ∈ R}.
Es fácil probar que U +W = R2 , pues si (x, y) ∈ R2 , podemos escribir
(x, y) = (y, y) + (x − y, 0) ∈ U +W.
4
Observemos que hay otras operaciones donde la propiedad de subespacio vec-
torial no se traslada. Por ejemplo:
1. La unión de subespacios vectoriales no tiene porqué ser subespacio vecto-
rial. Ası́, en R2 , los conjuntos U = {(x, 0) : x ∈ R} y W = {(0, y) : y ∈ R}
son subespacios vectoriales, pero U ∪W no lo es, pues (1, 0), (0, 1) ∈ U ∪W ,
pero (1, 0) + (0, 1) = (1, 1) 6∈ U ∪W .
λ1 v1 + . . . + λn vn , λi ∈ R, 1 ≤ i ≤ n.
5
1. Un sistema de generadores de Rn es {e1 , . . . , en } donde e1 = (1, 0, . . . , 0), e2 =
(0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1).
2. Los vectores {(1, 0), (1, 1)} es un sistema de generadores de R2 , pero no ası́
{(1, 0)}.
3. Los vectores {(1, 0, 1), (1, 1, 0)} es un sistema de generadores del subespa-
cio U = {(x, y, z) ∈ R3 : x − y − z = 0}.
Proposición 1.10 Sea V un espacio vectorial y X, Y subconjuntos finitos de V .
1. Si X es un sistema de generadores de V y X ⊂ Y , entonces Y también es un
sistema de generadores.
2. Si {v1 , . . . , vn } es un sistema de generadores y v1 es combinación lineal de
los demás, entonces {v2 , . . . , vn } es un sistema de generadores de V .
3. Si {v1 , . . . , vn } es un sistema de generadores y v = a1 v1 + . . . + an vn , con
a1 6= 0, entonces {v, v2 , . . . , vn } es un sistema de generadores de V .
Definición 1.11 Un conjunto de vectores {v1 , . . . , vn } se dice que es linealmente
independiente (o que forman un conjunto de vectores libre) si la única combina-
ción lineal nula de ellos es la trivial. De otra forma:
si λ1 v1 + . . . + λn vn = 0, entonces λi = 0 para cada 1 ≤ i ≤ n.
Un conjunto de vectores que no es linealmente independiente se llama linealmente
dependiente.
Expresamos qué quiere decir que {v1 , . . . , vn } son linealmente dependientes:
existen escalares, λ1 , . . . , λn , no todos nulos, tales que 0 = λ1 v1 + . . . + λn vn . Si,
por ejemplo, λ1 6= 0, podemos despejar v1 , a saber,
λ2 λn
v1 = − v2 − . . . − vn
λ1 λ1
probando que v1 es combinación lineal de los demás vectores. Por tanto, si un con-
junto de vectores es linealmente dependiente, uno de los vectores es combinación
lineal de los demás.
El concepto de dependencia lineal generaliza el concepto de vectores propor-
cionales. Concretamente, sean u, v ∈ V . Se dice que u es proporcional a v si exis-
te λ ∈ R tal que u = λ v. Obsérvese que si λ 6= 0, entonces podemos escribir
v = (1/λ )u, es decir, v es también proporcional a u. Por tanto, ‘ser proporcional’
no es recı́proco en general. Por ejemplo, el vector 0 es proporcional a todos los
vectores, pero el único vector proporcional al 0 es el propio 0. En particular, no
podemos decir que dos vectores ‘son proporcionales’, a no ser que los dos no sean
nulos.
6
Proposición 1.12 1. {v} es linealmente independiente si y y sólo si es no nulo.
1. Los vectores {(1, 0), (0, 1)} son linealmente independientes y son un siste-
ma de generadores.
3. Los vectores {(1, 0), (0, 1), (1, 1)} no son linealmente independientes y son
un sistema de generadores.
4. Los vectores {(1, 0), (2, 0)} no son linealmente independientes ni son un
sistema de generadores.
7
2. El conjunto B = {(1, 0, . . .), (1, 1, . . . , 0), . . . , (1, . . . , 1)} es base de Rn .
1. B es base de V .
De esta forma, fijada una base en un espacio vectorial V , existe una corres-
pondencia biunı́voca entre V y Rn , a saber, la aplicación fB : V → Rn dada por
fB (v) = (x1 , . . . , xn ),
Teorema 1.15 (de la base) Todas las bases de un mismo espacio vectorial tienen
el mismo cardinal. A dicho número se llama la dimensión del espacio vectorial
Además, sea X = {e1 , . . . , em } ⊂ V . Entonces
8
1. Si X es un conjunto de vectores linealmente independiente, entonces m ≤
dim(V ). Además se da la igualdad si X es base.
w j = (a1 j , a2 j , . . . , an j ), 1 ≤ j ≤ m.
9
Por tanto, para estudiar la naturaleza de un conjunto de vectores en un espacio
vectorial, fijamos una base, la que sea, y trabajamos con las coordenadas de dichos
vectores, como vectores de Rn .
Obsérvese que:
1. El número de filas de A coincide con el rango de A.
3. Un método para hallar una base de un subespacio vectorial que viene dado
como Ax = 0: la base se obtiene al resolver dicho sistema homogéneo.
10
El método para hallar A es el siguiente. Sea B = {v1 , . . . , vm } una base de U y
escribimos dicha base en coordenadas respecto de la base usual: v j = ∑ni=1 ai j ei .
Entonces la matriz A ∈ Mm×n (R) tiene rango m. Sea v = (x1 , . . . , xn ) ∈ Rn . En-
tonces v ∈ U si y sólo si v ∈< v1 , . . . , vm >, es decir, si y sólo si,
rango(A|x) = m.
11
y todos los menores de orden m + 1 son cero. A la fuerza dicho menor no nulo
está en la matriz (e1 e2 . . . em ). Luego los n − m menores de orden m + 1 obtenidos
al añadir la columna x son los que nos dan las ecuaciones cartesianas de U.
Para finalizar, vamos a dar el concepto de la matriz de cambio de base. Sea
U un espacio vectorial de dimensión n y sean B = {e1 , . . . , en } y B = {e01 , . . . , e0n }
dos bases. Tomamos v ∈ U y hallamos las coordenadas de v respecto de B y B0 :
n n
v= ∑ x je j, v= ∑ x0j e0j .
j=1 j=1
Entonces
n n n n
v= ∑ x j ∑ ai j e0i = ∑ ( ∑ ai j x j )e0i
j=1 i=1 i=1 j=1
y como sabemos que tiene que ser ∑nj=1 x0j e0j , la unicidad de las coordenadas im-
plica
x10
x1
.. .
. = A .. .
xn0 xn
2. Aplicaciones lineales
La estructura de espacio vectorial ha girado en torno a la manera de trabajar
en un espacio vectorial usando el concepto de base. También se han usado las he-
rramientas que proporciona el tema 1, es decir, matrices y sistemas de ecuaciones,
para hallar la dimension y ecuaciones cartesianas de un subespacio vectorial.
Una vez dado el objeto matemático, el espacio vectorial, el siguiente paso
natural es cómo ‘relacionar’ dos espacios vectoriales. La pregunta natural que
surge es la siguiente:
Dados dos espacios vectoriales V y V 0 y una aplicación f : V → V 0
entre ellos ¿hay algún tipo de aplicaciones ‘buenas’ respecto de la
estructura vectorial que soportan V y V 0 ?
12
La respuesta es sı́, y a dichas aplicaciones se les llaman aplicación lineales. Igual
que sucedı́a con el concepto de subespacio vectorial, no todas las aplicaciones
entre espacios vectoriales son lineales, en verdad, ‘muy pocas’ lo son. En esta
sección nos dedicamos a su estudio y de nuevo será importante el uso de matrices
para el tratamiento de estos nuevos objetos.
2. f (λ v) = λ f (v), ∀λ ∈ R, v ∈ V .
Si V = V 0 , se dice que f es un endomorfismo.
13
1. f (0) = 0.
2. f (−v) = − f (v), v ∈ V .
Siguiendo con la idea del tema anterior de que un espacio vectorial se conoce
si se sabe una base, como indica el siguiente resultado:
1. r( f ) ≤ dim(V ).
14
2.3. Expresión matricial de una aplicación lineal
En esta sección usaremos las herramientas de matrices dadas en el tema 1 para
un mejor tratamiento de las aplicaciones lineales. Para ello asignaremos a cada
aplicación lineal una matriz (fijadas bases en los dos espacios vectoriales). Con
esto se entenderá mejor las operaciones de suma y producto de matrices que se
hicieron en el tema 1.
Sea f : V → V 0 una aplicación lineal entre dos espacios vectoriales y B =
{e1 , . . . , en } y B0 = {e01 , . . . , e0m } bases de V y V 0 respectivamente. Sea v ∈ V y
escribamos v = ∑ni=1 xi ei , con xi ∈ R. Entonces f (v) = ∑ni=1 xi f (ei ). Escribamos
f (e j ) = ∑m 0
i=1 ai j ei , para cada 1 ≤ j ≤ n. Entonces
!
n n n n n
f (v) = ∑ xi f (ei ) = ∑ xi ∑ a ji e0j = ∑ ∑ xia ji e0j .
i=1 i=1 j=1 j=1 i=1
M( f , B, B0 ) = (ai j ).
Por tanto:
15
Nota. En el caso particular que f sea un endomorfismo y si tomamos B0 = B,
escribiremos la expresión matricial simplemente por M( f , B).
La primera relación con el tema 1 se refiere al rango. Con el término rango
hemos definido el rango de una matriz (número de pivotes en su forma de Hermite
por filas) y el rango de una aplicación lineal, que es la dimensión de su imangen.
Teorema 2.8 Sea f : V → V 0 una aplicación lineal, B = {e1 , . . . , en } y B0 = {e01 , . . . , e0m }
bases de V y V 0 respectivamente. Entonces
r( f ) = r(M( f , B, B0 )).
Observemos que el resultado es independiente de las bases elegidas, ya que el
miembro de la izquierda de esta identidad no depende de bases.
De esta forma tenemos otra interpretación del concepto de rango de una ma-
triz:
Corolario 2.9 Sea A ∈ Mm×n (R). Entonces el rango de A es el número de co-
lumnas linealmente independientes, vistas dichas columnas como vectores de Rm .
Sea A ∈ Mm×n (R). Entonces el rango de A es el rango de cualquier aplicación
lineal que la tenga por expresión matricial.
Método para hallar una base de la imagen. Damos dos maneras de obtener
una base de la imagen de una aplicación lineal. Observemos previamente que una
base del núcleo se reduce a resolver la ecuación Ax = 0. Para la imagen podemos
hacer:
1. Si {e1 , . . . , en } es una base de V , entonces { f (e1 ), . . . , f (en )} es un siste-
ma de generadores de Im( f ), luego basta con quitar los vectores que son
linealmente dependientes.
2. Si {e1 , . . . , em } es una base del núcleo, ampliamos a una base {e1 , . . . , em , em+1 , . . . , en }
de V . Entonces una base de la imagen es { f (em+1 ), . . . , f (en )}.
Para acabar con esta sección, nos preguntamos cómo cambia la expresión ma-
tricial de una aplicación lineal al cambiar de bases. Concretamente, sea f : V → V 0
una aplicación lineal y bases B1 , B2 de V , B01 y B02 de V 0 . Entonces tenemos las
matrices M( f , B1 , B01 ) y M( f , B2 , B02 ) ¿cuál es la relación entre ambas matrices?
Para ello tomamos el siguiente diagrama
1 f 1 0
V
V→ V → V0 →
V
V 0.
Tomamos en cada uno de los espacios vectoriales, las bases B1 , B2 , B02 y B01 . La
composición de las tres aplicaciones es f y
M( f , B1 , B01 ) = M(1V 0 , B02 , B01 )M( f , B2 , B02 )M(1V , B1 , B2 ).
16
En el caso concreto que f sea un endomorfismo, y tomando B1 = B01 y B2 = B02
M( f , B1 ) = M(1V , B2 , B1 )M( f , B2 )M(1V , B1 , B2 ).
Por otro lado,
M(1V , B2 , B1 )M(1V , B1 , B2 ) = M(1V , B1 , B1 ) = In ,
es decir,
M(1V , B2 , B1 ) = M(1V , B1 , B2 )−1 .
3. Diagonalización de matrices
Esta última parte del tema está dedicada a encontrar expresiones matriciales
‘sencillas’ de endomorfismos, o de matrices cuadradasm concretamente, matrices
que sean diagonales. Dada una aplicación lineal, es natural buscar bases donde
la expresión matricial sea sencilla, y ası́ fácil de manipular. Podemos pensar, por
ejemplo, que la matriz tenga 0 y 1. Entre las matrices ‘sencillas’, nos centramos
en el hecho de que sean diagonales, es decir, ai j = 0 si i 6= j.
17
x − λ y = 0.
Ya que estamos buscando soluciones no triviales, entonces el determinante de la
matriz de los coeficientes es cero, es decir,
−λ 1
1 −λ = 0,
(1 − λ )x + y = 0
(1 − λ )y = 0.
Habrá soluciones no triviales si
1−λ 1
= 0,
0 1−λ
18
x − λ y = 0.
Habrá soluciones no triviales si
−λ −1
= 0,
1 −λ
Si λ ∈ R, denotamos
Vλ = {v ∈ V : Av = λ v}.
Observemos que en dicho conjunto siempre está el vector 0, pero no quiere decir
que λ sea un valor propio: habrı́a que tener que Vλ tiene más vectores aparte del
0. Por otro lado, si λ es un valor propio, Vλ está formado por los vectores propios
de λ y el vector 0.
A continuación detallamos algunas propiedades de los valores y vectores pro-
pios.
1. Vλ es un subespacio propio.
3. Vλ = Ker(A − λ In ).
4. dim(Vλ ) = n − r(A − λ 1V ).
19
como sucede en el primer ejemplo anterior. Si es de orden impar, sabemos que al
menos tiene una, pero no sabemos si hay más.
La segunda dificultad es que, aunque tengamos n raı́ces (que pueden estar
repetidas), cuando hallemos vectores propios de cada valor propio, no sabemos
si al juntarlos obtenemos una base del espacio vectorial. En el segundo ejemplo
anterior, esto ha sido ası́ porque es evidente a simple vista; por contra, en el ter-
cer ejemplo, sólo encontramos un vector propio (linealmente independiente). El
siguiente resultado responde en gran medida a esta cuestión.
Observemos que:
1. Pf (λ ) es un polinomio de orden n.
20
Si consideramos ahora matrices cuadradas, el teorema anterior se aplica del
mismo modo, obteniendo que existe una matriz diagonal D y una matriz regular P
tal que A = P−1 DP. Nos preguntamos qué matriz es P. Si B y B0 son bases tales que
A = M( f , B) y D = M( f , B0 ), entonces P = M(1V , B, B0 ). Ya que la base B (de Rn )
puede ser cualquiera, tomamos la base usual B = Bu . Entonces P−1 no es más que
poner la base de los vectores propios en columnas (si B es otra base, la matriz P−1
es poner en coordenadas la base B0 en términos de B, pero en el cálculo explı́cito
de las bases de los subespacios propios, se trabaja en coordenadas respecto de B,
luego al final dicha matriz es poner en columnas los vectores propios.
Acabamos con una ‘simple’ aplicación de diagonalización. Sea A una matriz y
nos preguntamos por calcular la potencia An , donde n es un número anterior. Si A
es diagonalizable, esta operación se puede computar del siguiente modo. Sabemos
que A = P−1 DP para cierta matriz regular P y matriz diagonal D. Entonces
21