Está en la página 1de 165

Álgebra Lineal

Apuntes de teoría y
ejercicios resueltos
Álgebra Lineal José Manuel Salazar

Apuntes de teoría y
ejercicios resueltos

SERVICIO DE PUBLICACIONES
El contenido de este libro no podrá ser reproducido,
ni total ni parcialmente, sin el previo permiso escrito del editor.
Todos los derechos reservados.

© Universidad de Alcalá
Servicio de Publicaciones
Plaza de San Diego, s/n
28801 Alcalá de Henares
www.uah.es

ISBN: 978-84-8138-893-0
Depósito Legal: M-48205-2010

Impresión y encuadernación: Imprenta de la UAH


Impreso en España
3

PRÓLOGO

El presente libro intenta ser una guía práctica para los alumnos de primer
curso de carreras cientícas en su estudio del Álgebra Lineal. Para ello se
han incluido resúmenes teóricos y una gran cantidad de ejercicios resueltos.
Esta obra resulta especialmente recomendable como material de apoyo en
la resolución de problemas, pudiendo emplearse también como texto básico,
sin olvidar que la parte teórica, aunque completa, apenas incluye demostra-
ciones, cuya consulta se deja al criterio del lector en cualquier texto estándar.
Los contenidos quedan estructurados de la siguiente manera: cada capí-
tulo comienza con un resumen teórico de la materia a tratar, seguido de una
serie de problemas propuestos para el alumno. El último capítulo se dedica
a la resolución de dichos problemas.
En el capítulo 1 se presentan los objetos y las herramientas básicas que
serán de utilidad a lo largo del libro: matrices, determinantes, cálculo de
rangos, sistemas de ecuaciones lineales, método de Gauss...
Los capítulos 2 y 3 desarrollan el núcleo de la asignatura: las estruc-
turas con las que trabajar, los espacios vectoriales, y las aplicaciones lineales
denidas en ellos.
El capítulo 4 estudia los endomorsmos y sus representaciones matriciales
más sencillas, las formas canónicas de Jordan. Una aplicación directa de estos
resultados se encuentra en el capítulo 5 en el que se analizan los sistemas de
ecuaciones diferenciales lineales de primer orden de coecientes constantes.
El capítulo 6 introduce el concepto de producto escalar en un espacio
vectorial con el n de dotar al mismo de longitudes y ángulos entre vec-
tores. Como aplicación de estas ideas se inicia al alumno en el estudio de los
desarrollos de Fourier.
El capítulo 7 contiene las soluciones de la mayor parte de los problemas
propuestos a lo largo del libro.
ÍNDICE 5

Índice

1. PRELIMINARES 7
1.1. CÁLCULO DEL RANGO POR EL MÉTODO DE GAUSS . 7
1.2. SISTEMAS DE ECUACIONES LINEALES . . . . . . . . . . 8
1.2.1. Método de eliminación de Gauss . . . . . . . . . 9
1.2.2. Discusión de sistemas de ecuaciones lineales . . 9
1.2.3. Regla de Cramer . . . . . . . . . . . . . . . . . . . . 10
1.3. PROPIEDADES DE LOS DETERMINANTES . . . . . . . . 10
1.4. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2. ESPACIOS VECTORIALES 13
2.1. ESPACIOS VECTORIALES. SUBESPACIOS
VECTORIALES . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. DEPENDENCIA E INDEPENDENCIA LINEAL. BASES . . 14
2.3. SUBESPACIO GENERADO POR LAS FILAS DE UNA MA-
TRIZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4. ECUACIONES CARTESIANAS Y PARAMÉTRICAS DE UN
SUBESPACIO . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5. SUMA E INTERSECCIÓN DE SUBESPACIOS. SUMA DI-
RECTA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.6. COORDENADAS Y CAMBIO DE BASE . . . . . . . . . . . 18
2.7. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3. APLICACIONES LINEALES 27
3.1. PRIMERAS DEFINICIONES Y PROPIEDADES . . . . . . . 27
3.2. MONOMORFISMOS, EPIMORFISMOS E
ISOMORFISMOS . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3. MATRICES Y APLICACIONES LINEALES. CAMBIO DE
BASE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.4. OPERACIONES CON APLICACIONES LINEALES . . . . . 31
3.5. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

4. DIAGONALIZACIÓN Y FORMAS CANÓNICAS 37


4.1. AUTOVALORES Y AUTOVECTORES . . . . . .
. . . . . . 37
4.2. ENDOMORFISMOS DIAGONALIZABLES . . . .
. . . . . . 38
4.3. ALGORITMO DE DIAGONALIZACIÓN . . . . .
. . . . . . 39
4.4. FORMAS CANÓNICAS DE JORDAN . . . . . . .
. . . . . . 40
4.4.1. Forma de Jordan de matrices de orden 2 . . . . 43
4.4.2. Forma de Jordan de matrices de orden 3 . . . . 45
4.5. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6 ÍNDICE

5. SISTEMAS DE ECUACIONES DIFERENCIALES 55


5.1. SISTEMAS LINEALES DE PRIMER ORDEN . . . . . . . . 55
5.2. SISTEMAS LINEALES HOMOGÉNEOS . . . . . . . . . . . 58
5.2.1. Sistemas lineales homogéneos planos . . . . . . . . . . 58
5.2.2. Puntos críticos. Diagrama de fases de sistemas lineales
homogéneos planos . . . . . . . . . . . . . . . . . . . . 62
5.3. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

6. PRODUCTO ESCALAR. ESPACIO EUCLÍDEO 69


6.1. PRODUCTO ESCALAR. LONGITUDES Y ÁNGULOS . . . 69
6.2. MÉTODO DE GRAM-SCHMIDT. PROYECCIONES . . . . 71
6.3. APLICACIÓN: DESARROLLOS DE FOURIER . . . . . . . 72
6.4. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

7. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 77


7.1. ESPACIOS VECTORIALES . . . . . . . . . . . . . . . . . . 77
7.2. APLICACIONES LINEALES . . . . . . . . . . . . . . . . . . 102
7.3. DIAGONALIZACIÓN Y FORMAS CANÓNICAS . . . . . . 118
7.4. SISTEMAS DE ECUACIONES DIFERENCIALES . . . . . . 138
7.5. PRODUCTO ESCALAR. ESPACIO EUCLÍDEO . . . . . . . 149
7

1. PRELIMINARES

1.1. CÁLCULO DEL RANGO POR EL MÉTODO DE GAUSS

Denición 1. Una matriz es escalonada si:


1. Todas las las nulas, si las hay, están en la parte inferior de la matriz.
2. El número de ceros al comienzo de una la no nula es estrictamente
menor que el número de ceros al comienzo de la la inferior.
El primer elemento no nulo de cada la (en caso de tenerlo) se llama
cabecera de la la.
Un ejemplo de matriz escalonada es
 
3 1 4 0
 0 −2 2 0 
 
 0 0 0 1 
0 0 0 0
Supongamos que la matriz escalonada cumple, además:
3. Todas las cabeceras de las son unos.
4. En las columnas en las que están las cabeceras de las las, todos los
demás elementos son nulos.
Entonces se dice que la matriz es escalonada reducida.

Veamos algunos ejemplos:


 
1 0 4 0  
 0 1 3 0 5
1 2 0  


 0 0 0 1 2 
0 0 1 
0 0 0 0
0 0 0 0
son matrices escalonadas reducidas mientras que
 
1 0 4 1
 0 1 2 0 
 
 0 0 0 1 
0 0 0 0
es escalonada pero no es escalonada reducida.

Dada una matriz A ∈ Mm×n (R), llamamos operaciones elementales sobre


las las de A a las siguientes manipulaciones:
1. Intercambiar la posición de dos las.
2. Sustituir la la i-ésima por k veces ella más k0 veces la j -ésima, con
k 6= 0.

Algoritmo. Dada una matriz A, reduzcámosla mediante operaciones ele-


mentales sobre las las a forma escalonada y a forma escalonada reducida.
8 1 PRELIMINARES

Paso 1. Si Aj1 es la primera columna de A con una entrada no nula,


intercambiamos, si es necesario, las para que a1j1 6= 0.
Paso 2. Utilizamos a1j1 como pivote para obtener ceros bajo él.
Paso 3. Se repiten los pasos 1 y 2 con la submatriz obtenida de quitar la
primera la.
Paso 4. Se repite el proceso hasta que la matriz quede en forma escalonada.
Si, además, buscamos obtener la matriz escalonada reducida, continua-
mos con los pasos siguientes:
Paso 5. Se multiplica la última la no nula Ar (con cabecera arjr ) por
1/arjr de forma que la cabecera se convierta en 1.
Paso 6. Se utiliza arjr = 1 como pivote para obtener ceros sobre él.
Paso 7. Se repiten los pasos 5 y 6 para las las Ar−1 , Ar−2 , . . . , A2 .
Paso 8. Multiplicar A1 por 1/a1j1 (a1j1 es la cabecera de la la A1 ).
Hacemos observar que la matriz escalonada asociada a A no es única,
mientras que la escalonada reducida sí lo es.

Denición 2. Sea A ∈ Mn (R). Se llama menor de orden r de A al deter-


minante de la matriz formada por la intersección de r las y r columnas de
A. El rango de A es r si existe un menor de orden r de A no nulo y todos
los menores de orden mayor que r son nulos.
Observación 1. El rango de una matriz A es invariante por operaciones
elementales sobre sus las y resulta ser igual al número de las no nulas de
cualquier matriz escalonada asociada a A.

1.2. SISTEMAS DE ECUACIONES LINEALES

Denición 3. Una expresión de la forma



 a11 x1 + a12 x2 + · · · + a1n xn = b1
..

(I) .

am1 x1 + am2 x2 + · · · + amn xn = bm

donde los aij (coecientes) y los bi (términos independientes) son números


reales se denomina sistema de m ecuaciones lineales con n incógnitas x1 , . . . , xn .
Una solución de (I) son n números (s1 , . . . , sn ) tales que al sustituir por
(x1 , . . . , xn ), se cumplen las igualdades de (I).
Al sistema (I) también lo denotamos matricialmente por Ax̄ = b̄, esto es,
    
a11 ... a1n x1 b1
.. ... ..   ..   .. 
. .  .  =  . 


am1 . . . amn xn bm
A las matrices
1.2 SISTEMAS DE ECUACIONES LINEALES 9

   
a11 ... a1n a11 ... a1n b1
.. ... .. .. ... .. .. 
A= . . Ā =  . . . 
  

am1 . . . amn am1 . . . amn bm
se las llama matriz de coecientes y matriz ampliada de coecientes de (I).

Dado un sistema de ecuaciones lineales Ax̄ = b̄, diremos que es compatible


si tiene alguna solución e incompatible si no tiene ninguna. En caso de ser
compatible, diremos que es compatible determinado si la solución es única y
compatible indeterminado si tiene más de una solución.
Discutir un sistema Ax̄ = b̄ será determinar a cuál de los tipos menciona-
dos pertenece.
Diremos de un sistema que es homogéneo si cada término independiente
es cero (b1 = · · · = bm = 0). Lo denotaremos por Ax̄ = 0̄.
Obsérvese que todo sistema homogéneo es compatible (siempre existe la
solución trivial x1 = x2 = · · · = xn = 0).
Si alguno de los términos independientes es distinto de cero, el sistema
se dice no homogéneo.

1.2.1. Método de eliminación de Gauss


Dos sistemas de ecuaciones lineales se dicen equivalentes si tienen las
mismas soluciones. A continuación veremos cómo determinar las soluciones
de un sistema de ecuaciones transformándolo en otro equivalente, que resol-
veremos con mayor facilidad.
Si (I) Ax̄ = b̄ es un sistema que deseamos resolver, consideramos la
matriz de coecientes ampliada Ā asociada a (I) y, realizando operaciones
elementales sobre sus las, la transformamos en una matriz escalonada E .
El sistema de ecuaciones (II) asociado a E será equivalente a (I) Ax̄ = b̄,
ya que las operaciones elementales sobre las las no modican las soluciones
de los sistemas resultantes. Bastará entonces resolver (II) para tener las
soluciones de (I). Éste es el denominado método de eliminación de Gauss.
Si en vez de reducir Ā a forma escalonada, la reducimos a forma escalonada
reducida y resolvemos el sistema asociado, estaremos utilizando el método de
eliminación de Gauss-Jordan.

1.2.2. Discusión de sistemas de ecuaciones lineales


Teorema 1. (Rouché-Frobenius)
Dado un sistema (I) Ax̄ = b̄ de m ecuaciones con n incógnitas, se verica:
1. El sistema es compatible si r(A) = r(Ā). Será compatible determinado
si r(A) = r(Ā) = n y compatible indeterminado si r(A) = r(Ā) < n.
2. El sistema es incompatible si r(A) < r(Ā).
10 1 PRELIMINARES

1.2.3. Regla de Cramer


Sea (I) Ax̄ = b̄ un sistema de n ecuaciones con n incógnitas (A ∈ Mn (R))
con A invertible.
Entonces (I) es compatible determinado y las soluciones de (I) son de la
forma:

Det(b̄, A2 , . . . , An ) Det(A1 , . . . , An−1 , b̄)


x1 = , ... , xn = ,
Det(A) Det(A)

siendo Ai la columna i-ésima de A para i = 1, . . . , n.

1.3. PROPIEDADES DE LOS DETERMINANTES

1. Dadas tres matrices cuadradas A, B, C iguales, salvo que la i-ésima


la (columna) de A es igual a la suma de las i-ésimas las (columnas)
de B y C , entonces:

det(A) = det(B) + det(C)

2. Si una matriz cuadrada A tiene dos las (columnas) iguales o propor-


cionales, entonces det(A) = 0.
3. Dada una matriz cuadrada A y dada la matriz B obtenida de inter-
cambiar en A la posición de dos las (columnas), entonces det(B) =
−det(A).

4. Dada una matriz cuadrada A y dada la matriz B obtenida de multi-


plicar los elementos de una la (columna) de A por un escalar k, en-
tonces det(B) = k det(A). Esto implica que si A tiene una la (colum-
na) de ceros, entonces det(A) = 0.
5. Dada una matriz cuadrada A y dada la matriz B obtenida de sumar a
una la (columna) de A otra la (columna) multiplicada por un escalar
k , entonces det(A) = det(B).

6. Una matriz cuadrada A es regular si y sólo si det(A) 6= 0.


7. Dadas A y B matrices cuadradas, det(AB) = det(A)det(B).
8. Dada una matriz cuadrada A, det(A) = det(At )
9. El determinante de una matriz cuadrada A puede obtenerse desarro-
llando por cualquiera de sus las o columnas:

det(A) = ai1 αi1 + · · · + ain αin = a1j α1j + · · · + anj αnj


1.4 EJERCICIOS 11

1.4. EJERCICIOS
13

2. ESPACIOS VECTORIALES

2.1. ESPACIOS VECTORIALES. SUBESPACIOS


VECTORIALES

Denición 4. (Espacio vectorial)


Decimos que un conjunto no vacío V es un espacio vectorial sobre un
cuerpo K, o K-espacio vectorial, si en él se han denido dos operaciones,
una interna y otra externa, llamadas respectivamente suma y producto por
un escalar que pasamos a describir.
La suma de dos elementos (o vectores) u, v ∈ V da lugar a otro elemento
de V , que denotamos u + v , y que tiene las propiedades:

(S1) Asociativa: (u + v) + w = u + (v + w) ∀u, v, w ∈ V .


(S2) Conmutativa: u + v = v + u ∀u, v ∈ V .
(S3) Existencia de elemento neutro: ∃0̄ ∈ V tal que 0̄+v = v + 0̄ = v ∀v ∈ V
(S4) Existencia de elemento opuesto: ∀v ∈ V existe otro vector −v ∈ V tal
que v + (−v) = 0̄.

El producto de un escalar, o elemento del cuerpo K, por un vector da


lugar a otro elemento de V , y tiene las propiedades:

(M1) a(u+v) = au+av para todo a ∈ K y para todo par de vectores u, v ∈ V .


(M2) (a + b)u = au + bu para todo par de escalares a, b ∈ K y para todo
u∈V.

(M3) a(bu) = (ab)u para todo u ∈ V y a, b ∈ K.


(M4) 1u = u para todo u ∈ V , donde 1 es la unidad para el producto en K.

Las primeras cuatro propiedades hacen referencia a la suma de vectores


y se resumen diciendo que (V, +) es un grupo conmutativo.
Trabajaremos habitualmente con el cuerpo K = R, si bien todos los
resultados que se obtienen en este capítulo son válidos en cualquier cuerpo
K.

Observación 2. De las propiedades enunciadas se deducen las siguientes:


1. 0u = 0̄, 2. a0̄ = 0̄, 3. Si au = 0̄, entonces a = 0 ó u = 0̄,
4. (−a)u = a(−u) = −(au).
Denición 5. (Subespacio vectorial)
Un subconjunto W del espacio vectorial V es un subespacio vectorial de
V si cumple:
i) W es cerrado para la suma: si u, v ∈ W , entonces u + v ∈ W .
14 2 ESPACIOS VECTORIALES

ii) W es cerrado para el producto por escalares: si u ∈ W y a ∈ K,


entonces au ∈ W .
Estas dos condiciones se pueden resumir en una escribiendo:
iii) au + bv ∈ W para todo u, v ∈ W y a, b ∈ K.
Observación 3. 1. Si W es un subespacio vectorial de V , entonces 0̄ ∈
W.
2. Todo subespacio vectorial W de V tiene asimismo estructura de espacio
vectorial con las mismas operaciones que V .
Denición 6. (Combinación lineal)
Diremos que un vector v ∈ V es combinación lineal de la familia S =
{v1 , . . . , vm } ⊂ V si v = a1 v1 +· · ·+am vm con ai ∈ K para todo i = 1, . . . , m.

Sea S un subconjunto del espacio vectorial V y sea L(S) el conjunto


formado por todas las combinaciones lineales de elementos de S :

L(S) = {a1 v1 + · · · + am vm tal que m ∈ N, vi ∈ S, ai ∈ K, i = 1, . . . , m}

Al conjunto L(S) se le llama envolvente lineal de S o subespacio generado


por S y es el menor subespacio vectorial de V que contiene al conjunto S ,
esto es, si S ⊂ W , con W un subespacio vectorial de V , entonces L(S) ⊂ W .

2.2. DEPENDENCIA E INDEPENDENCIA LINEAL. BASES

Denición 7. (Dependencia e independencia lineal)


Sea V un K-espacio vectorial y sean v1 . . . , vm ∈ V . Se dice que la fa-
milia de vectores S = {v1 , . . . , vm } es linealmente dependiente si existen
a1 , . . . , am ∈ K, no todos nulos, tales que:

a1 v1 + a2 v2 + · · · + am vm = 0̄
o, dicho de otro modo, si existe un vector vi ∈ S que se puede poner como
combinación lineal del resto.
Se dice que el conjunto de vectores S = {v1 , . . . , vm } es linealmente inde-
pendiente si no es linealmente dependiente, esto es, de ser cierta la igualdad

a1 v1 + a2 v2 + · · · + am vm = 0̄,
entonces a1 = · · · = am = 0. Esto equivale a decir que ningún vector de S se
puede poner como combinación lineal del resto.

Observación 4. 1. {v1 } es l.i. (linealmente independiente) si y sólo si


v1 6= 0̄.
2.2 DEPENDENCIA E INDEPENDENCIA LINEAL. BASES 15

2. Si {v1 , . . . , vm } es l.d. (linealmente dependiente), entonces

{v1 , . . . , vm , vm+1 , . . . , vm+r }

también es l.d..
3. Si {v1 , . . . , vm , vm+1 , . . . , vm+r } es l.i., entonces {v1 , . . . , vm } es l.i..

Denición 8. (Sistema de generadores)


Un conjunto de vectores S ⊂ V es un sistema de generadores del espacio
vectorial V si L(S) = V .
Propiedades.
1. Si S = {v1 , . . . , vm } es un sistema de generadores de V , con vi combi-
nación lineal de los restantes vectores, entonces {v1 , . . . , vi−1 , vi+1 , . . . , vm }
es también un sistema de generadores de V .
2. Si {v1 , . . . , vm } son l.i., entonces cualquier sistema de generadores de
V tendrá, al menos, m elementos.

Denición 9. (Base)
Una familia de vectores B ⊂ V es una base del espacio vectorial V si es
linealmente independiente y sistema de generadores de V .
Si V admite una base nita B = {v1 , . . . , vn } de n vectores, lo llamaremos
espacio vectorial de dimensión nita. Diremos que la dimensión de V es n,
dim(V ) = n.

Propiedades. Sea V un espacio vectorial de dimensión nita n. Entonces:


1. Cada vector v ∈ V se podrá escribir de modo único como combinación
lineal de los elementos de cualquier base.
2. (Teorema de la base) Todas las bases de V tienen n vectores.
3. (Teorema de ampliación de la base) Sea S = {v1 , . . . , vm } una familia
de vectores l.i. de V . Entonces S se puede ampliar a otra familia
{v1 , . . . , vm , vm+1 , . . . , vn } que es una base de V .
4. Si S = {v1 , . . . , vn } son n vectores de V linealmente independientes,
entonces son también base de V .
5. Si S = {v1 , . . . , vm } contiene más de n vectores, S es linealmente de-
pendiente.
6. Si S = {v1 , . . . , vm } es sistema de generadores de V , cualquier número
máximo de vectores linealmente independientes de S es base de V .
7. Una familia de vectores S = {v1 , . . . , vm } ⊂ V es base de un subespacio
vectorial W ⊂ V si S es linealmente independiente y L(S) = W .
16 2 ESPACIOS VECTORIALES

2.3. SUBESPACIO GENERADO POR LAS FILAS DE UNA


MATRIZ

Sea A ∈ Mm×n (K). Las las de A,

A1 = (a11 , . . . , a1n ), ... , Am = (am1 , . . . , amn )

pueden verse como vectores de Kn y, por tanto, podemos decir que generan
un subespacio de Kn llamado espacio la de A y que denotamos por F (A),
esto es:

F (A) = L(A1 , . . . , Am ).

Propiedades.
1. Si al realizar operaciones elementales sobre las las de A obtenemos
una nueva matriz B , entonces F (A) = F (B).

2. Si E es una matriz escalonada asociada a A, entonces los vectores la


no nulos de E son base de F (A) = F (E).

3. Para saber si dos subespacios engendrados por dos familias de vectores


de Kn son iguales, basta ver si las dos matrices cuyas las son las
coordenadas de los vectores de las dos familias dan lugar a la misma
matriz escalonada reducida.

4. El rango de una matriz A ∈ Mm×n (K) coincide con el número máximo


de vectores la l.i. (la dimensión de F (A)), y con el número máximo
de vectores columna l.i..

2.4. ECUACIONES CARTESIANAS Y PARAMÉTRICAS


DE UN SUBESPACIO

Dado un sistema homogéneo de m ecuaciones con n incógnitas (I) Ax̄ = 0̄,


con A ∈ Mm×n (K), y dado el conjunto W = {soluciones de (I)}, a (I) lo
llamaremos ecuaciones cartesianas (o implícitas) de W .
Propiedades.
1. W es un subespacio vectorial de Kn con dim(W ) = n − r siendo r el
rango de A.
2. El sistema homogéneo (II) B x̄ = 0̄, con B una matriz obtenida de
A mediante operaciones elementales sobre las las, es equivalente a
(I), esto es, tiene las mismas soluciones. Reduciremos el problema de
resolver (I) al de resolver (II) E x̄ = 0̄ con E una matriz escalonada
asociada a A.
2.5 SUMA E INTERSECCIÓN DE SUBESPACIOS. SUMA DIRECTA 17

Sea W un subespacio vectorial de Kn con dim(W ) = m ≤ n y sea


BW = {w1 , . . . , wm } una base de W con wi = (a1i , a2i , . . . , ani ) para i =
1, . . . , m. Entonces cualquier vector x = (x1 , . . . , xn ) ∈ W se escribe como
(x1 , . . . , xn ) = λ1 (a11 , . . . , an1 ) + · · · + λm (a1m , . . . , anm ).
Si igualamos las coordenadas, quedan las ecuaciones paramétricas de W :

 x1 = a11 λ1 + a12 λ2 + · · · + a1m λm
..

 .
xn = an1 λ1 + an2 λ2 + · · · + anm λm

Como vemos, a partir de una base de W obtenemos automáticamente las


ecuaciones paramétricas.

2.5. SUMA E INTERSECCIÓN DE SUBESPACIOS. SUMA


DIRECTA

Denición 10. (Intersección de subespacios vectoriales)


Sean U y W subespacios vectoriales de V . La intersección de U y W ,
U ∩ W , es el conjunto

U ∩ W = {v ∈ V tal que v ∈ U y v ∈ W }
Propiedades.
1. U ∩ W es un subespacio vectorial de V . En general, tendremos que
la
T intersección de cualquier familia de subespacios vectoriales de V ,
i Ui , es un subespacio vectorial de V .
2. Si U y W son subespacios vectoriales de Kn , las ecuaciones cartesianas
de U ∩ W serán las ecuaciones resultantes de unir las de U y las de W .

Denición 11. (Suma de subespacios vectoriales)


Dados U, W subespacios vectoriales de V , llamamos suma de U y W ,
denotada por U + W , al conjunto

U + W = {u + w tal que u ∈ U, w ∈ W }
Propiedades.
1. U + W es un subespacio vectorial de V que contiene al conjunto U ∪ W .
De hecho, es el menor subespacio vectorial que contiene a U ∪ W , esto
es, U + W = L(U ∪ W ).
2. De manera análoga se puede denir la suma de cualquier familia de
subespacios vectoriales {Ui } de V como i Ui = L( i Ui ).
P S

3. (Fórmula de las dimensiones) Si V es de dimensión nita y U, W


son subespacios vectoriales suyos, entonces dim(U + W ) = dim(U ) +
dim(W ) − dim(U ∩ W ).
18 2 ESPACIOS VECTORIALES

Denición 12. (Suma directa de dos subespacios)


Un espacio vectorial V es suma directa de los subespacios U, W , escrito
V = U ⊕ W , si U ∩ W = {0̄} y V = U + W .

Es fácil probar que V = U ⊕ W si y sólo si cada vector v ∈ V se escribe


de modo único como v = u + w para ciertos u ∈ U y w ∈ W .
También es posible denir la suma directa para más de dos subespacios
vectoriales. Decimos que V es suma directa de los subespacios vectoriales
U1 , . . . , Un , escrito V = U1 ⊕ U2 ⊕ · · · ⊕ Un , si todo vector v ∈ V se puede
escribir de modo único como v = u1 + u2 + · · · + un , con ui ∈ Ui para todo
i = 1, . . . , n. De manera equivalente, V = U1 ⊕ U2 ⊕ · · · ⊕ Un si:
1. V = P L(U1 ∪ · · · ∪ Un ) y
2. Ui ∩ j6=i Uj = {0̄}.

2.6. COORDENADAS Y CAMBIO DE BASE

A continuación desarrollamos la herramienta que nos permitirá trabajar


en un K -espacio vectorial V de dimensión nita n como si estuvieramos en
Kn .

Denición 13. (Coordenadas de un vector respecto de una base)


Dado un K-espacio vectorial V de dimensión nita n y dada una base
B = {e1 , . . . , en }, cada vector x ∈ V tiene una única expresión en función
de los vectores de B de la forma

x = x1 e 1 + · · · + xn e n
Llamaremos a (x1 , . . . , xn ) ∈ Kn coordenadas de x respecto de la base B
y lo representaremos por xB = (x1 , . . . , xn ).

Propiedades. Sea V un K-espacio vectorial de dimensión nita n y sea B


una base de V . Si x, y ∈ V tienen coordenadas (x1 , . . . , xn ) e (y1 , . . . , yn )
respecto de B , esto es, xB = (x1 , . . . , xn ), yB = (y1 , . . . , yn ), entonces:

1. [x + y]B = (x1 + y1 , . . . , xn + yn ).
2. [ax]B = (ax1 , . . . , axn ).
3. Dado un conjunto de vectores S = {v1 , . . . , vr } de V , tendremos que
S es l.i., l.d., sistema de generadores o base de V si y sólo si lo son sus
vectores de coordenadas respecto de B en Kn .

Dado un espacio vectorial V de dimensión nita n y dadas dos bases


distintas
2.6 COORDENADAS Y CAMBIO DE BASE 19

B = {e1 , . . . , en } y B 0 = {e01 , . . . , e0n },


queremos determinar la relación entre las coordenadas de un mismo vector
x respecto de las dos bases. Consideremos las coordenadas de los vectores de
B 0 en la base B :

e01 = a11 e1 + a21 e2 + · · · + an1 en


..
.
e0n = a1n e1 + a2n e2 + · · · + ann en
Sea x ∈ V con coordenadas xB = (x1 , . . . , xn ) y xB 0 = (x01 , . . . , x0n )
respecto de las bases B y B 0 , esto es,

x1 e1 + · · · + xn en = x = x01 e01 + · · · + x0n e0n .


Entonces

x1 e1 + · · · + xn en = x01 (a11 e1 + · · · + an1 en ) + · · · + x0n (a1n e1 + · · · + ann en )

Reordenando términos, queda:

x1 e1 + · · · + xn en = (a11 x01 + · · · + a1n x0n )e1 + · · · + (an1 x01 + · · · + ann x0n )en .

De modo que:

= a11 x01 + · · · + a1n x0n



 x1
..

.
xn = an1 x01 + · · · + ann x0n

Éstas son las ecuaciones de cambio de base de B 0 a B . Si P es la matriz


 
a11 ··· a1n
.. ... .. 
P = . . 

an1 · · · ann
entonces tenemos que xB = P xB 0 , esto es,

x01
    
x1 a11 ··· a1n
 ..   .. ... ..   .. 
 . = . .  . 
xn an1 · · · ann x0n
Decimos que ésta es la ecuación matricial del cambio de base. A la ma-
triz P se la llama matriz de cambio de base de B 0 a B o matriz de paso,
escribiéndose P = M (B 0 , B), y nos permite determinar las coordenadas de
20 2 ESPACIOS VECTORIALES

un vector x en la base B a partir de sus coordenadas en la base B 0 . Obsérvese


que las columnas de P son las coordenadas de los vectores de B 0 respecto de
B . Además, P es regular y, por tanto, xB 0 = P −1 xB , fórmula que nos da las
coordenadas de un vector x en la base B 0 a partir de sus coordenadas en la
base B . Escribimos P −1 = M (B, B 0 ).
2.7 EJERCICIOS 21

2.7. EJERCICIOS

1. Analizar cuáles de los siguientes subconjuntos de R3 son subespacios


vectoriales.

a) A = {(2x, x, −7x)/x ∈ R}
b) A = {(x, y, z)/xy = 1}
c) A = {(x, y, z)/x = y ó x = z}
d) A = {(x, y, z)/x + y + z = 0 y x − y − z = 0}

2. Analizar cuáles de los siguientes conjuntos son subespacios vectoriales


de Rn [t] (conjunto de los polinomios con grado menor o igual a n ≥ 1,
con coecientes en el cuerpo R).

a) El conjunto A de todos los polinomios con coecientes en R de


grado n y el polinomio cero.
b) A = {p(t) ∈ Rn [t]/3p(0) + p(1) = 1}.
c) A = {p(t) ∈ Rn [t]/p0 (0) + p00 (0) = 0}

3. Analizar cuáles de los siguientes conjuntos son subespacios vectoriales


de Mn×n (R).

a) A = {M ∈ Mn×n (R)/det(M ) = 0}.


b) A = {M ∈ Mn×n (R)/det(M ) 6= 0}
c) A = {M ∈ Mn×n (R)/tr(M ) = 0}.

4. Sea F (R, R) el espacio vectorial real de las funciones reales de variable


real. Estudiar cuáles de los siguientes subconjuntos son subespacios
vectoriales de F (R, R).

a) W = {f ∈ F (R, R)/f es continua en el intervalo (a, b)}.


b) W = {f ∈ F (R, R)/f (1) = f (2)}.
c) W = {f ∈ F (R, R)/f es creciente en el intervalo (a, b)}.

5. Se considera el sistema lineal homogéneo de m ecuaciones con n incóg-


nitas sobre el cuerpo R:

a11 x1 + · · · + a1n xn = 0 
.. .. ..

. . . 
am1 x1 + · · · + amn xn = 0

Demostrar que el conjunto W de soluciones es un subespacio vectorial


de Rn .
22 2 ESPACIOS VECTORIALES

6. El rango de una matriz A coincide siempre con el número máximo


de vectores la linealmente independientes y con el número máximo
de vectores columna linealmente independientes. Estudiar, utilizando
este hecho, si los siguientes conjuntos de vectores son linealmente de-
pendientes o independientes:

a) {(2, −1, 4), (4, −2, 8)}.


b) {(2, −1, 4), (4, 1, 8), (1, 0, 3)}.
c) {(2, −1, 4, 0), (0, −3, 1, 5), (4, 1, 7, −5)}.
d) {(1, −1, 1, 0), (−1, 0, 1, 1), (0, 3, −1, 1), (6, 1, 2, 0)}.

7. En R3 se consideran los vectores u = (1, 2, 1), v = (1, 3, 2), x = (1, 1, 0), y =


(3, 8, 5). Demostrar que L({x, y}) = L({u, v}).

8. Determinar si las siguientes familias de vectores son sistemas de gene-


radores de R3 . En los casos armativos, obtener una base.

a) {(1, 1, 0), (2, 3, 8)}


b) {(1, 1, 1), (2, 2, 0), (3, 0, 0)}
c) {(2, −1, 3), (4, 1, 2), (8, −1, 8)}.
d) {(1, 3, 3), (1, 3, 4), (1, 4, 3), (6, 2, 1)}.

9. En el espacio vectorial Rn [t] de los polinomios con grado menor o igual


que n sobre el cuerpo R, se considera el conjunto de vectores

B = {1, t, t2 , ..., tn }

Probar que B es una base de Rn [t].

10. En el espacio vectorial M2×2 (R) de las matrices de orden 2 × 2 sobre


el cuerpo R, se considera el conjunto de vectores
       
1 0 0 1 0 0 0 0
B= , , ,
0 0 0 0 1 0 0 1

Probar que B es una base de M2×2 (R).

11. Determinar la dimensión y una base del subespacio vectorial de R4


engendrado por los vectores

{(2, −1, 4, 0), (0, −3, 1, 5), (4, 1, 7, −5)}


2.7 EJERCICIOS 23

12. Sea

W = L({(1, 2, −1, 3, 4), (2, 4, −2, 6, 8), (1, 3, 2, 2, 6), (1, 4, 5, 1, 8), (2, 7, 3, 3, 9)})

Hallar un subconjunto de los vectores que sea base de W .


13. Se consideran en R4 los subespacios vectoriales

W1 = L({(1, −1, 0, 1), (−1, 0, 1, 0), (1, −2, 1, 2)})

W2 = L({(0, −1, 1, 1), (1, −2, 1, 2)})

Hallar dim(W1 ∩ W2 ) y dim(W1 + W2 ), así como las ecuaciones implíc-


itas y paramétricas de W1 , W2 y W1 + W2 .
14. Determinar, en cada caso, si los vectores que se dan son una base de
R4 .

a) {(2, 1, 0, −1), (1, 2, 1, 0)}.


b) {(0, 1, 2, −1), (1, 0, 1, −1), (0, 0, 2, 1), (0, 0, 1, 2)}.
c) {(1, 0, 1, 0), (0, 1, −1, 1), (2, 1, 1, 0), (1, −1, 2, −1)}.

Si ahora llamamos V1 , V2 , V3 a los subespacios vectoriales generados,


respectivamente, por los vectores de a), b), c), determinar : dim(Vi ), i =
1, 2, 3; dim(Vi ∩ Vj ), i 6= j y ecuaciones de la intersección; dim(Vi + Vj ),
i 6= j y ecuaciones de Vi + Vj ¾En qué casos R4 = Vi ⊕ Vj ?

15. Sean U, V, W , los siguientes subespacios de R3 :

U = {(a, b, c)/a+b+c = 0}, V = {(a, b, c)/a = c}, W = {(0, 0, c)/c ∈ R}

Mostrar que:

a) R3 = U + V .
b) R3 = U + W .
c) R3 = V + W .

¾En qué casos es directa la suma?


16. Sean los subespacios vectoriales de R4 siguientes:
U = L({(1, 1, 0, −1), (1, 2, 3, 0), (2, 3, 3, −1)})

V = L({(1, 2, 2, −2), (2, 3, 2, −3), (1, 3, 4, −3)})


Hallar:
24 2 ESPACIOS VECTORIALES

a) dim(U + V ) y ecuaciones de U + V .
b) dim(U ∩ V ) y ecuaciones de U ∩ V .

17. Sean los subespacios vectoriales de R4 siguientes:


W1 = {(x, y, z, t) ∈ R4 /x − z = 0, y + t = 0}

W2 = L({(0, 0, 0, 1), (1, 1, 1, −1)})

Calcular :

a) dim(W1 ) y dim(W2 ).
b) dim(W1 ∩ W2 ) y ecuaciones de W1 ∩ W2 . ¾Es R4 = W1 ⊕ W2 ?
c) dim(W1 + W2 ).

18. En R4 se consideran los subespacios vectoriales

W1 = {(x, y, z, t) ∈ R4 /x − y = 0, z + t = 0}

W2 = L({(1, 1, −2, 2), (1, 0, −1, 0)}).

Calcular ecuaciones paramétricas, implícitas y bases de W1 , W2 , W1 ∩


W2 y W1 + W2 . ¾Es R4 = W1 ⊕ W2 ?

19. Sean

W1 = L({(−1, 0, 0, 1), (0, −1, −1, 1), (0, 1, −1, 0)}),

W2 = {(x, y, z, t) ∈ R4 /x + t = 0}.

a) Calcular las ecuaciones implícitas y paramétricas de W2 .


b) Dar bases de W1 ∩ W2 y de W1 + W2 .

20. En el espacio vectorial real M2×2 (R) se consideran los subespacios vec-
toriales
  
a b
W1 = ∈ M2×2 (R)/a + b + c + d = 0
c d
   
1 1 0 0
W2 = L ,
1 1 0 1

Calcular una base, ecuaciones implícitas y paramétricas de W1 , W2 ,


W1 + W2 y W1 ∩ W2 .
2.7 EJERCICIOS 25

21. Dada la base de R3 , B = {v1 = (1, 1, 1), v2 = (1, 1, 2), v3 = (1, 2, 3)},
hallar las coordenadas del vector x = (6, 9, 14) en dicha base, determi-
nando previamente la matriz de cambio de base P = M (Bc , B) de la
base canónica Bc en la base B .
22. En R3 se consideran las bases

B1 = {(1, 0, 1), (−1, 1, 1), (1, −1, 0)} y B2 = {(2, 1, 1), (1, 1, 1), (1, −1, 1)}

a) Calcular la matriz de cambio de base de B2 a B1 .


b) Calcular las coordenadas en la base B1 del vector cuyas coorde-
nadas en B2 son (3, −2, 2).
27

3. APLICACIONES LINEALES

El objetivo de este capítulo es el estudio de las aplicaciones lineales u


homomorsmos entre espacios vectoriales. Este tipo de aplicaciones respeta
la estructura de espacio vectorial transformando subespacios vectoriales en
subespacios vectoriales.

3.1. PRIMERAS DEFINICIONES Y PROPIEDADES

Denición 14. (Aplicación lineal)


Dada una aplicación f : V → V 0 con V, V 0 K-espacios vectoriales, deci-
mos que f es lineal si satisface las condiciones:
i) f (u + v) = f (u) + f (v) ∀u, v ∈ V .
ii) f (au) = af (u) ∀a ∈ K y ∀u ∈ V .
Estas dos condiciones se pueden resumir en una escribiendo:
iii) f (au + bv) = af (u) + bf (v) ∀u, v ∈ V y ∀a, b ∈ K.
A las aplicaciones lineales también se les llama homomorsmos de espa-
cios vectoriales.
Propiedades.
Dada f : V → V 0 una aplicación lineal, entonces:
1. f (0̄) = 0̄, 2. f (−u) = −f (u), 3. f (a1 u1 + · · · + am um ) =
a1 f (u1 ) + · · · + am f (um ).
Consecuencia de esta última propiedad es que una aplicación lineal f :
V → V 0 queda determinada con sólo conocer las imágenes de los vectores de
una base de V .

Denición 15. (Núcleo e imagen de una aplicación lineal)


Dada una aplicación lineal f : V → V 0 , se dene el núcleo de f , Ker(f ),
como el conjunto

Ker(f ) = {v ∈ V tal que f (v) = 0̄}


Llamamos imagen de f , Im(f ), al conjunto

Im(f ) = {f (v) tal que v ∈ V } = f (V )

Propiedades.
1. El conjunto Ker(f ) es un subespacio vectorial de V .
2. Si W es subespacio vectorial de V , W = L({v1 , . . . , vm }), entonces
f (W ) = L({f (v1 ), . . . , f (vm )}. Se desprende de esto que f (W ) es un
subespacio vectorial de V 0 . En particular, para W = V se tiene que
Im(f ) = f (V ) es subespacio vectorial de V 0 . Llamaremos rango de la
aplicación lineal f a la dimensión de la imagen, r(f ) = dim(Im(f )).
28 3 APLICACIONES LINEALES

3.2. MONOMORFISMOS, EPIMORFISMOS E


ISOMORFISMOS

Denición 16. (Monomorsmos, epimorsmos e isomorsmos)


i) Una aplicación f : A → B es inyectiva si ∀a1 , a2 ∈ A, con a1 6= a2 ,
entonces f (a1 ) 6= f (a2 ).
ii) Una aplicación f : A → B es sobreyectiva si ∀b ∈ B existe a ∈ A tal
que f (a) = b o, equivalentemente, si f (A) = B .
iii) Una aplicación f : A → B es biyectiva si es inyectiva y sobreyectiva a
la vez.
iv) Las aplicaciones lineales inyectivas se denominan monomorsmos, las
sobreyectivas, epimorsmos, y las biyectivas, isomorsmos.
v) Decimos que un espacio vectorial V es isomorfo a otro V 0 (V ' V 0 ) si
existe un isomorsmo f : V → V 0 .
vi) Una aplicación lineal f : V → V , denida de un espacio vectorial en sí
mismo, se denomina endomorsmo. De ser isomorsmo, la llamamos
automorsmo.
Propiedades. Sea f : V → V 0 una aplicación lineal. Se verica:
1. f es un monomorsmo si y sólo si Ker(f ) = {0̄} (dim(Ker(f )) = 0).
2. f es un epimorsmo si y sólo si Im(f ) = V 0 (r(f ) = dim(V 0 )).
3. f es un monomorsmo si y sólo si para todo conjunto de vectores l.i.
de V , {v1 , . . . , vm }, se tiene que {f (v1 ), . . . , f (vm )} también es l.i..
4. f es un epimorsmo si y sólo si para todo sistema de generadores de V ,
{v1 , . . . , vm }, se tiene que {f (v1 ), . . . , f (vm )} es sistema de generadores
de V 0 .
5. f es un isomorsmo si y sólo si para toda base de V , {v1 , . . . , vn }, se
tiene que {f (v1 ), . . . , f (vn )} es base de V 0 .
6. Sea B = {v1 , . . . , vn } una base de V y sea S = {f (v1 ), . . . , f (vn )}.
Entonces f es un monomorsmo, epimorsmo o isomorsmo si y sólo
si S es l.i., sistema de generadores de V 0 o base de V 0 respectivamente.

Teorema 2. Dos espacios vectoriales de dimensión nitaV y V 0 son iso-


morfos si y sólo si dim(V ) = dim(V En particular, cualquier K-espacio
0 ).

vectorial V de dimensión n es isomorfo a Kn .

3.3. MATRICES Y APLICACIONES LINEALES. CAMBIO


DE BASE

Consideremos una aplicación lineal f : V → V 0 , con V y V 0 K-espacios


vectoriales de dimensión nita. Fijemos dos bases B = {e1 , . . . , en } de V y
B 0 = {e01 , . . . , e0m } de V 0 .
3.3 MATRICES Y APLICACIONES LINEALES. CAMBIO DE BASE 29

Consideremos las imágenes de los vectores {f (e1 ), . . . , f (en )}


f (e1 ) = a11 e01 + · · · + am1 e0m
..
.
f (en ) = a1n e01 + · · · + amn e0m
Si x ∈ V es un vector con coordenadas xB = (x1 , . . . , xn ) respecto de B ,
esto es, x = x1 e1 + · · · + xn en , entonces:

f (x) = f (x1 e1 + · · · + xn en ) = x1 f (e1 ) + · · · + xn f (en ) =

= x1 (a11 e01 + · · · + am1 e0m ) + · · · + xn (a1n e01 + · · · + amn e0m ) =

= (a11 x1 + · · · + a1n xn )e01 + · · · + (am1 x1 + · · · + amn xn )e0m .

Si denotamos por yB 0 = (y1 , . . . , ym ) a las coordenadas de y = f (x)


respecto de B 0 , entonces:

 y1 = a11 x1 + · · · + a1n xn
..

 .
ym = am1 x1 + · · · + amn xn

o, escrito matricialmente,
    
y1 a11 ··· a1n x1
 ..   .. ... ..   .. 
 . = . .  . 
ym am1 · · · amn xn
Esta es la llamada ecuación matricial de f respecto de las bases B y B 0 .
La matriz
 
a11 ··· a1n
.. ... ..
F = . .
 

am1 · · · amn
tiene m las y n columnas y se denomina matriz asociada a f respecto de las
bases B y B 0 . Además, F tiene por columnas las coordenadas respecto de B 0
de los vectores f (e1 ), . . . , f (en ). Escribiremos F = M (f, B, B 0 ). La ecuación
matricial de f se escribe abreviadamente como

yB 0 = M (f, B, B 0 )xB

Propiedades. Sea f : V → V 0 lineal con dim(V ) = n y dim(V 0 ) = m.


Entonces:
30 3 APLICACIONES LINEALES

1. (Fórmula de las dimensiones para aplicaciones lineales) dim(V ) =


dim(Ker(f )) + dim(Im(f )).
2. Dadas dos bases B y B 0 para V y V 0 respectivamente, las columnas de
la matriz F = M (f, B, B 0 ) son las coordenadas respecto de B 0 de un
sistema de generadores de Im(f ), de modo que r(F ) = dim(Im(f )) =
r(f ).
3. f es un monomorsmo si y sólo si r(F ) = n.
4. f es un epimorsmo si y sólo si r(F ) = m.
5. f es un isomorsmo si y sólo si m = n y F es regular.

Nuestro siguiente paso es estudiar la relación entre las distintas expre-


siones matriciales asociadas a una misma aplicación lineal f : V → V 0 .
Supondremos que dim(V ) = n y dim(V 0 ) = m. Sean B1 , B2 bases de V y
B10 , B20 bases de V 0 .
Consideremos las ecuaciones de cambio de base de B1 en B2 y de B10 en
B2 determinadas por las expresiones
0

xB2 = P xB1 yB20 = Q yB10


con P = M (B1 , B2 ) y Q = M (B10 , B20 ). Asimismo escribimos las ecuaciones
matriciales de f respecto de las bases B1 , B10 y B2 , B20

yB10 = F xB1 yB20 = G xB2


con F = M (f, B1 , B10 ), G = M (f, B2 , B20 ).
Obtenemos el siguiente diagrama conmutativo:
f
V −→ V 0

F
xB1 −→ yB10
P ↓ ↓Q
G
xB2 −→ yB20
Se tiene entonces que la relación entre las expresiones matriciales F y
G asociadas a f viene dada por la igualdad F = Q−1 GP o, dicho de otro
modo,

M (f, B1 , B10 ) = M (B10 , B20 )−1 M (f, B2 , B20 )M (B1 , B2 )


Como M (B10 , B20 )−1 = M (B20 , B10 ), se puede escribir:

M (f, B1 , B10 ) = M (B20 , B10 )M (f, B2 , B20 )M (B1 , B2 )


3.4 OPERACIONES CON APLICACIONES LINEALES 31

Denición 17. (Equivalencia y semejanza de matrices)


i) Decimos que dos matrices F, G ∈ Mm×n (K) son equivalentes si G =
QF P para Q ∈ Mm (K), P ∈ Mn (K) con P, Q regulares.
ii) Decimos que dos matrices cuadradas F, G ∈ Mn (K) son semejantes si
G = P −1 F P para cierta P ∈ Mn (K) regular.

Proposición 1. i) Dos matrices F, G ∈ Mm×n (K) son equivalente si y


sólo si son matrices asociadas a una misma aplicación lineal f : V →
V 0 con respecto a bases distintas, esto es, F = M (f, B1 , B10 ) y G =
M (f, B2 , B20 ).
ii) De igual modo se tiene que dos matrices F, G ∈ Mn (K) son semejantes
si y sólo si son matrices asociadas a un mismo endomorsmo f : V →
V con respecto a bases distintas, esto es, F = M (f, B1 , B1 ) y G =
M (f, B2 , B2 ).

3.4. OPERACIONES CON APLICACIONES LINEALES

Denición 18. (Operaciones con aplicaciones lineales)


Sean V, V 0 , V 00 tres K-espacios vectoriales y sean f, g : V → V 0 y h :
V 0 → V 00 tres aplicaciones lineales.
i) Denimos la aplicación suma f + g : V → V 0 como (f + g)(v) =
f (v) + g(v) para todo v ∈ V .
ii) Denimos la aplicación producto por un escalar a ∈ K, af : V → V 0 ,
como (af )(v) = af (v).
iii) Denimos la aplicación composición h◦f : V → V 00 como la aplicación
(h ◦ f )(v) = h(f (v)) para todo v ∈ V .

Propiedades. Sean V, V 0 , V 00 tres K-espacios vectoriales de dimensión ni-


ta y sean B, B 0 , B 00 bases asociadas a cada uno de ellos. Consideremos las
aplicaciones lineales f, g : V → V 0 y h : V 0 → V 00 . Entonces se tiene que:
1. f + g es lineal y M (f + g, B, B 0 ) = M (f, B, B 0 ) + M (g, B, B 0 ).
2. Dado a ∈ K, af es lineal y M (af, B, B 0 ) = aM (f, B, B 0 ).
3. h ◦ f es lineal y M (h ◦ f, B, B 00 ) = M (h, B 0 , B 00 )M (f, B, B 0 ).

De las dos primeras propiedades se deduce que el conjunto de las apli-


caciones lineales de V en V 0 , denotado por Hom(V, V 0 ), tiene estructura de
K-espacio vectorial con las operaciones suma y producto por un escalar.

Teorema 3. Dados dos K-espacios vectoriales V, V 0 de dimensiones n y m,


y dadas dos bases B, B 0 jadas para cada uno de ellos, se tiene que existe un
homomorsmo M entre los espacios vectoriales Hom(V, V 0 ) y Mm×n (K),
32 3 APLICACIONES LINEALES

M : Hom(V, V 0 ) → Mm×n (K)


que asocia a cada aplicación lineal f ∈ Hom(V, V 0 ) la matriz M (f, B, B 0 ).
Dicho homomorsmo es, de hecho, un isomorsmo lineal, cumpliéndose en-
tonces que dim(Hom(V, V 0 )) = dim(Mm×n (K)) = mn.
3.5 EJERCICIOS 33

3.5. EJERCICIOS

1. Estudiar si las siguientes aplicaciones son lineales:


a) f : R2 → R3 , f (x, y) = (x + y, y, x − 2y).
b) f : R2 → R, f (x, y) = xy .
c) f : R2 → R3 , f (x, y) = (x + 1, 2y, x + y).
d) f : R3 → R2 , f (x, y, z) = (z, y + x).
e) f : R2 → R, f (x, y) = |x − y|.
f) f : R3 → R2 [t], f (x, y, z) = (y + z)t2 + (x + y)t + z .
g) f : Mn×n (R) → Mn×n (R), f (A) = AT .

2. Dadas f y g de R3 en R3 , f (x1 , x2 , x3 ) = (x1 , x2 , x1 + x2 − x3 ) y


g(x1 , x2 , x3 ) = (2x1 , x2 − 1, x3 ), ver si son lineales y, en ese caso, hallar
el núcleo y la imagen.
3. Determinar la dimensión y bases de Ker(f ) e Im(f ) para las siguientes
aplicaciones lineales:
a) f (x1 , x2 , x3 ) = (2x1 , x1 + x2 , 3x3 ).
b) f (x1 , x2 ) = (2x1 + x2 , x1 − 2x2 , x2 ).
c) f (x1 , x2 , x3 ) = (x1 , x2 , x1 + x2 − x3 ).
d) f (x1 , x2 , x3 , x4 ) = (x1 − x2 , 2x3 + x4 ).

4. Sea f : R4 → R2 el homomorsmo denido por


 
1 −1 0 0
A=
1 0 1 2

y sea W el subespacio de R2 denido por x1 − x2 = 0. Hallar las


ecuaciones de f −1 (W ).
5. Sea f : R4 → R3 denida por
 
−1 1 −1 2
A =  1 −1 0 0 
0 0 1 −2

y sea W el subespacio de R4 de ecuaciones x1 −x2 = 0, x1 +x2 +x4 = 0.


¾Cuáles son las ecuaciones de f (W ) en R3 ?
6. Sean B = {e1 , e2 , e3 } una base de R3 y B 0 = {e01 , e02 } una base de
R2 . Se dene f : R3 → R2 de la siguiente forma: f (e1 ) = e01 − e02 ,
f (e2 ) = 2e01 , f (e3 ) = e01 − 2e02 . Hallar las ecuaciones de f , dim(Ker(f ))
y dim(Im(f )). Determinar si f es un monomorsmo, un epimorsmo
o un isomorsmo.
34 3 APLICACIONES LINEALES

7. Sea la aplicación f : E → F , con E y F de dimensiones 3 y 4 res-


pectivamente, denida de la siguiente forma: f (e2 ) = −e01 + e02 − e04 ,
f (e3 ) = e01 + e02 − e03 + e04 y e1 ∈ Ker(f ). Hallar dimensión y una base
para Ker(f ) y para Im(f ).
8. Sea la aplicación f : R2 → R4 denida de la siguiente forma: f (2, −1) =
(1, 0, −1, 3) y f (4, 1) = (2, −2, 3, 1). Calcular:

a) La matriz asociada respecto de las bases canónicas.


b) Las ecuaciones de Im(f ).
9. Sea la aplicación f : R3 → R3 denida de la siguiente forma: f (x1 e1 +
x2 e2 + x3 e3 ) = (x2 + x3 )e1 + (x1 + x3 )e2 + (x2 − x1 )e3 .

a) Calcular la expresión analítica.


b) Encontrar los vectores invariantes.
c) Calcular las ecuaciones de Ker(f ) e Im(f ).
d) Hallar una base de Ker(f ) y ampliarla a R3 .
e) Hallar la expresión analítica respecto de esta última base.
10. Sea la aplicación f : R3 → R2 dada por f (1, 0, 1) = (0, 1), f (0, 0, −1) =
(1, 1), f (2, 1, 1) = (1, 0)

a) Hallar la matriz de f respecto de las bases canónicas.


b) Hallar la matriz de f respecto de las bases
B1 = {(1, 0, 1), (0, 0, −1), (2, 1, 1)} y B2 = {(0, 1), (1, 0)}.

c) Hallar ecuaciones y dimensión de Ker(f ) e Im(f ).


11. Sea la aplicación f : R3 → R4 tal que
 
1 0 1
 0 1 1 
F =
 2

2 4 
1 1 a

Se pide :
a) Calcular "a" para que f sea inyectiva.
b) Si f no es inyectiva, hallar f (L1 ), siendo L1 el subespacio de
ecuaciones 2x1 − x3 = 0.
c) Sea L2 el subespacio de ecuaciones x1 + x2 − x4 = 0, 3x1 + 3x2 −
x3 − x4 = 0 y f no inyectiva. Hallar una base de L2 ∩ f (L1 ) y de
L2 + f (L1 ).
3.5 EJERCICIOS 35

12. Sea la aplicación f : R2 [x] → R2 [x], denida por f (p(x)) = p0 (x).


Hallar la matriz asociada (con respecto a la base B = {1, x, x2 }), ecua-
ciones, Ker(f ), Im(f ) . Determinar si es un monomorsmo, epimor-
smo, isomorsmo.
13. Sean

B1 = {(1, 1, 0), (1, 0, 1), (0, 1, 1)} y B10 = {(1, −1, 1), (−1, 1, 1), (1, 1, −1)}

bases de R3 . Sean Bc la base canónica y

B2 = {(1, 0, 1, 1), (0, 1, 1, 1), (1, 1, 0, 1), (1, 1, 1, 0)}

bases de R4 .

a) ¾Qué vector de R3 tiene, respecto a la base B1 , coordenadas


(1, 2, −1) y cuáles son éstas respecto a B10 ?
b) Calcular las matrices de cambio de base de B1 en B10 y de Bc en
B2 .
c) Siendo f el homomorsmo caracterizado por f (1, 1, 0) = (1, 1, 0, 0),
f (1, 0, 1) = (1, 0, 1, 0) y f (0, 1, 1) = (0, 0, 1, 1), hallar la matriz de
f respecto de B1 y Bc , respecto de B1 y B2 , respecto de B10 y Bc
y respecto de B10 y B2 .

14. Sea la aplicación f : M2×2 (R) → R3 denida por


 
a b
f = (a, a + b + c, 0)
c d

a) Probar que f es lineal y hallar su matriz respecto de las bases


canónicas.
b) Obtener las bases, dimensión y ecuaciones implícitas de Ker(f )
e Im(f ).
37

4. DIAGONALIZACIÓN Y FORMAS CANÓNICAS

Sea f : V → V un endomorsmo de V , f ∈ End(V ), con V un K-espacio


vectorial de dimensión n, y sean

B = {e1 , . . . , en } B 0 = {e01 , . . . , e0n }


bases de V . La matriz de f con respecto a la base B , M (f, B, B) = M (f, B),
y la matriz de f con respecto a la base B 0 , M (f, B 0 , B 0 ) = M (f, B 0 ), están
relacionadas, como vimos en el capítulo anterior, por la matriz de cambio de
base P = M (B, B 0 ) del modo que reeja el diagrama conmutativo siguiente:
f
V −→ V

M (f,B)
xB −→ yB
P ↓ ↓ P
M (f,B 0 )
xB 0 −→ yB 0
Así, M (f, B) = P −1 M (f, B 0 )P , de modo que las matrices M (f, B) y
M (f, B 0 ) son semejantes (recuérdese que dos matrices A, C ∈ Mn (R) son
semejantes si C = P −1 AP con P ∈ Mn (R) regular).
Podemos preguntarnos si es posible encontrar una base B respecto de la
cual la matriz asociada a f , M (f, B), sea diagonal. El interés por encontrar
una matriz tan sencilla radica en que permite estudiar más fácilmente el
comportamiento de la aplicación lineal.
Desafortunadamente, no siempre existirá una tal matriz diagonal aso-
ciada a f . En este capítulo veremos cuáles son las situaciones en que la
aplicación f admite estas representaciones matriciales y, en caso de no ser
así, aprenderemos a determinar la representación más sencilla posible, a la
que llamaremos forma canónica de Jordan.

4.1. AUTOVALORES Y AUTOVECTORES

Denición 19. (Autovalores y autovectores)


Sea f : V → V un endomorsmo del K-espacio vectorial V .
i) Dado λ ∈ K, diremos que λ es autovalor o valor propio de f ∈ End(V )
si existe v ∈ V , con v 6= 0̄, tal que f (v) = λv .
ii) A v se le llama autovector o vector propio asociado al autovalor λ.
iii) Llamamos subespacio propio asociado a un autovalor λ, denotado por
Vλ , al conjunto de todos los vectores propios asociados a λ más el vector
0̄, esto es,

Vλ = {v ∈ V tal que f (v) = λv} =


38 4 DIAGONALIZACIÓN Y FORMAS CANÓNICAS

= {v ∈ V tal que (f − λId)(v) = 0̄} = Ker(f − λId)

Obsérvese que Vλ es un subespacio vectorial de V .

Denición 20. (Polinomio característico)


Sea f ∈ End(V ) y sea A = M (f, B) una matriz asociada al endomors-
mo f para cierta base B de V . Llamamos polinomio característico asociado
a A al polinomio de grado n P (λ) = Det(A − λId). A la ecuación P (λ) = 0
se le llama ecuación característica asociada a A.
Propiedades.
1. Sea A ∈ Mn (K). Se tiene

P (λ) = (−1)n λn + (−1)n−1 T r(A)λn−1 + · · · + Det(A)

2. Dos matrices semejantes tienen siempre el mismo polinomio caracterís-


tico. En particular, tendrán el mismo determinante y la misma traza.
3. Asignamos a f un único polinomio característico, P (λ), que será el
de cualquiera de sus matrices asociadas A = M (f, B) (todas ellas son
semejantes).
4. Los autovalores asociados a f serán las raíces λi ∈ K de P (λ) = 0.
5. Dado Vλ un subespacio propio de f , dim(Vλ ) = n − r(A − λId) para
cualquier matriz A asociada a f .
6. Si {v1 , . . . , vr } son vectores propios asociados a autovalores distintos
de f , entonces {v1 , . . . , vr } son l.i..
7. Si Vλ1 , . . . , Vλr son subespacios propios asociados a autovalores distin-
tos de f , entonces Vλi ∩ ( j6=i Vλj ) = 0̄.
P

4.2. ENDOMORFISMOS DIAGONALIZABLES

Denición 21. (Multiplicidades algebraica y geométrica)


Sea f ∈ End(V ) con autovalores asociados λ1 , . . . , λr ∈ K.
1. Llamamos multiplicidad algebraica del autovalor λi al mayor exponente
αi para el cual el factor (λi − λ)αi aparece en la factorización de P (λ)
(P (λ) = (λi − λ)αi q(λ)).
2. Llamamos multiplicidad geométrica de λi a la dimensión del subespacio
propio Vλi .
4.3 ALGORITMO DE DIAGONALIZACIÓN 39

Observación 5. Sea f ∈ End(V ). Si λ ∈ K es un autovalor de multiplicidad


algebraica α, entonces

1 ≤ dim(Vλ ) ≤ α

Denición 22. (Endomorsmo diagonalizable)


Una matriz A ∈ Mn (K) es diagonalizable si es semejante a una matriz
diagonal D. Decimos que f ∈ End(V ) es diagonalizable si existe una base
B de V respecto de la cual la matriz asociada a f , M (f, B), es diagonal.
Propiedades.
1. f ∈ End(V ) es diagonalizable si y sólo si cualquier matriz A = M (f, B)
asociada a él es diagonalizable.
2. f es diagonalizable si y sólo si existe una base de V formada por vec-
tores propios de f .
Aunque el siguiente teorema es válido en cualquier cuerpo K, lo enuncia-
remos para el caso en que K = R.
Teorema 4. Sea V un R-espacio vectorial con dim(V ) = n y sea f ∈
End(V ). Sean λ1 , . . . , λr ∈ R los autovalores de f de multiplicidades alge-
braicas α1 , . . . , αr . Entonces f es diagonalizable si y sólo si:
i) α1 + · · · + αr = n (todas las raices de P (λ) son reales).
ii) Para cada autovalor λi se tiene que dim(Vλi ) = αi .
Corolario 1. i) Si dim(V ) = n y f ∈ End(V ) tiene n autovalores dis-
tintos, entonces f es diagonalizable.
ii) Si f ∈ End(V ) es diagonalizable con autovalores λ1 , . . . , λr , entonces
se tiene la Psuma directa V = Vλ1 ⊕· · ·⊕Vλr , esto es, V = Vλ1 +· · ·+Vλr
y Vλi ∩ ( j6=i Vλj ) = 0̄ para todo i ∈ {1, . . . , r}.

4.3. ALGORITMO DE DIAGONALIZACIÓN

Dado V un R-espacio vectorial de dimensión n (K = R) y dado f ∈


End(V ), consideremos A = M (f, B0 ) una matriz asociada a f con respecto
a cierta base B0 ja. Ofrecemos, a modo de resumen, el siguiente algoritmo
que permite determinar cuándo f es diagonalizable y, en caso de serlo, calcula
explícitamente una matriz diagonal asociada a f , D = M (f, B), con respecto
a cierta base B , así como la matriz de cambio de base P = M (B, B0 ) que
verica D = P −1 AP .
f
V −→ V

D
xB −→ yB
P ↓ ↓ P
A
xB0 −→ yB0
40 4 DIAGONALIZACIÓN Y FORMAS CANÓNICAS

Algoritmo de diagonalización
Paso 1. Hallar el polinomio característico P (λ) de f y determinar sus raíces
para obtener los valores propios λ1 , . . . , λr de f . Si alguna raíz es com-
pleja, f no es diagonalizable.
Paso 2. Supuesto que todas las raíces de P (λ), λ1 , . . . , λr , son reales, f será
diagonalizable si y sólo si dim(Vλi ) = αi para todo i ∈ {1, . . . , r}.
Paso 3. Supuesto que dim(Vλi ) = αi para todo i ∈ {1, . . . , r}, entonces cal-
culamos una base B(Vλi ) = {vi,1 , . . . , vi,αi } para cada subespacio Vλi .
(Los vectores de estas bases son vectores propios asociados a λi ).
Paso 4. Considerar la colección de todos los vectores de todas las bases obtenidas

B = {v1,1 , . . . , v1,α1 , . . . , vr,1 , . . . , vr,αr }

Se tiene que B es una base de V formada por autovectores de f y


D = M (f, B) es diagonal con
 
λ1
...

 
 
 
 λ1 
...
 
D = M (f, B) = 
 

 
 λr 
...
 
 
 

λr

donde la caja de cada λi tiene tamaño αi .


Resulta D = P −1 AP con P la matriz que tiene por columnas a las
coordenadas de los vectores de la base B .

4.4. FORMAS CANÓNICAS DE JORDAN

Sea f : V → V un endomorsmo con V un K-espacio vectorial de di-


mensión n. A lo largo de toda la sección supondremos que K = R o K = C.
Sabemos que f no siempre es diagonalizable. Por ejemplo, el endomorsmo
f de V = R2 (con K = R) determinado por la matriz
 
0 2
A=
−2 4
no es diagonalizable ya que A no lo es (existe un único autovalor λ = 2 de
multiplicidad algebraica 2 y multiplicidad geométrica 1). En consecuencia,
no existen matrices D, P ∈ M2 (R) con D diagonal y P regular tales que
D = P −1 AP .
4.4 FORMAS CANÓNICAS DE JORDAN 41

Nuestro objetivo es encontrar otra matriz J , lo más parecida a una matriz


diagonal que sea posible, tal que J = P −1 AP para cierta P regular. Las
columnas de P determinan una base B de V respecto de la cual la matriz
asociada a f es J . Dicha matriz J recibirá el nombre de forma canónica de
Jordan de A.
Denominamos matriz elemental de Jordan de orden k y autovalor λ ∈ C
a una matriz de orden k cuyos elementos son ceros salvo en la diagonal
principal, donde valen λ, y en la diagonal situada inmediatamente encima,
formada por unos.
 
λ 1

 ... ... 

Jk (λ) = 
 ...


 1 
λ

Las formas canónicas de Jordan serán matrices cuadradas formadas por


la yuxtaposición de matrices elementales de Jordan a lo largo de la diagonal,
como veremos más adelante.

Proposición 2. Sea f : V → V un endomorsmo, con V un C-espacio


vectorial de dimensión n, y sea λ un autovalor de multiplicidad algebraica r.
Entonces existe p ∈ N tal que

E1 (λ) = Ker(f − λId) E2 (λ) = Ker(f − λId)2 ···

··· Ep (λ) = Ker(f − λId)p = Ep+1 (λ) = Ker(f − λId)p+1 · · ·

Además, si denotamos di = dim(Ei (λ)), se tiene que d1 < d2 < · · · <


dp = r. El subespacio Ep (λ) se denomina autoespacio máximo asociado a λ
y es invariante. Lo denotaremos por Ep (λ) = M (λ).

Teorema 5. En las condiciones de la proposición anterior,

V = M (λ1 ) ⊕ · · · ⊕ M (λs )

siendo λ1 , . . . , λs los autovalores de f .


Para cada subespacio M (λi ), la aplicación lineal f |M (λi ) : M (λi ) →
M (λi ) admite una base B(λi ) tal que la matriz asociada a f |M (λi ) con res-
pecto a ella es una matriz de Jordan del tipo
42 4 DIAGONALIZACIÓN Y FORMAS CANÓNICAS

 
J1 (λi )

 ... 

 
 J1 (λi ) 
...
 
J(λi ) = 
 

 
 Jp (λi ) 
...
 
 
 
Jp (λi )

Las matrices de la diagonal Jk (λi ) son matrices elementales de Jordan


de orden k. El número de matrices del tipo Jk (λi ) es jk y se relaciona con
las dimensiones dk = dim(Ek (λi )) del siguiente modo:

jp = dp − dp−1
jp−1 + jp = dp−1 − dp−2
jp−2 + jp−1 + jp = dp−2 − dp−3
..
.
La familia de vectores B = B(λ1 ) ∪ · · · ∪ B(λs ) será una base de V y
la matriz asociada a f con respecto a dicha base será la forma canónica de
Jordan
 
J(λ1 )
J =
 ... 

J(λs )
La matriz de paso P se obtendrá de escribir las coordenadas de estos
vectores en forma de columnas.
Proposición 3. En las condiciones de la última proposición, dado un auto-
valor λ, existe una base B(λ) de M (λ) tal que la matriz asociada a f |M (λ) :
M (λ) → M (λ) respecto de ella es una matriz de Jordan del tipo
 
J1 (λ)

 ... 

 
 J1 (λ) 
...
 
J(λ) = 
 

 
 Jp (λ) 
...
 
 
 
Jp (λ)
El algoritmo que permite construir B(λ) es el siguiente:
4.4 FORMAS CANÓNICAS DE JORDAN 43

1. Se toman jp = dp −dp−1 vectores linealmente independientes de Ep (λ)\


Ep−1 (λ). Los denotamos por Fp = {v1 , . . . , vjp }. La familia de vectores

Bp (λ) = {(f − λId)p−1 v1 , . . . , (f − λId)v1 , v1 , . . . , (f − λId)p−1 vjp ,


. . . , (f − λId)vjp , vjp }

genera una familia de jp matrices elementales de Jordan de orden p,


Jp (λ).

2. Se toman a continuación jp−1 = dp−1 − dp−2 − jp vectores lineal-


mente independientes de Ep−1 (λ) \ Ep−2 (λ) y que sean independientes
de la familia Bp (λ). Denotamos a esta nueva familia por Fp−1 =
{w1 , . . . , wjp−1 }. Consideramos los vectores

Bp−1 (λ) = {(f − λId)p−2 w1 , . . . , (f − λId)w1 , w1 , . . .


, (f − λId)p−2 wjp−1 , . . . , (f − λId)wjp−1 , wjp−1 }

Con esta familia de vectores se generan jp−1 matrices elementales de


Jordan de orden p − 1, Jp−1 (λ).
3. Se repite el paso 2 reiteradamente para construir las familias Bk (λ). De
este modo llegamos a E1 (λ), donde se escogen los vectores necesarios
para que, unidos a B2 (λ) ∪ · · · ∪ Bp (λ), den lugar a una base B(λ) del
subespacio M (λ).

Teorema 6. Todo endomorsmo f denido en un C-espacio vectorial V de


dimensión n admite una base con respecto a la cual la matriz asociada es
una forma canónica de Jordan J . Esta forma canónica es única, salvo por
permutaciones de las matrices de Jordan elementales que la componen.
Observación 6. Si A ∈ Mn (C) tiene n autovalores iguales λ, entonces
(A − λId)n = 0.

A continuación veremos cómo obtener las matrices J y P para dimen-


siones bajas.

4.4.1. Forma de Jordan de matrices de orden 2


Proposición 4. Dada una matriz A ∈ M2 (C), existe una forma canónica
de Jordan J ∈ M2 (C) de uno de los siguientes tipos:
   
λ 0 λ 1
0 µ 0 λ
44 4 DIAGONALIZACIÓN Y FORMAS CANÓNICAS

con λ, µ ∈ C. La primera de las matrices se obtiene cuando los dos auto-


valores son distintos, pudiendo ser complejos conjugados. La segunda matriz
se obtiene cuando existe un único autovalor (descartamos la situación trivial
en que A = λId). En ambos casos existe una matriz regular P ∈ M2 (C) tal
que J = P −1 AP .
Si A ∈ M2 (R) y se buscan J, P ∈ M2 (R), en el primero de los dos tipos,
la matriz J puede no ser real (si los dos autovalores son complejos conjugados
λ=α  + βi, λ̄ = α − βi, se tiene que J ∈ / M2 (R)). En ese caso la matriz
α β
J0 = es real y se llama forma de Jordan real de la matriz real A.
−β α
Existirá una matriz regular Q ∈ M2 (R) (cuyas columnas son las partes real
e imaginaria respectivamente de las columnas de P ) tal que Q−1 AQ = J 0 .

Veamos algunos ejemplos.


Ejemplo 1
Sea f el endomorsmo de R2 cuya expresión matricial respecto de la base
canónica es
 
0 2
A=
−2 4
Se tiene p(λ) = (λ − 2)2 , de modo que λ = 2 es un autovalor doble. Sin
embargo, su multiplicidad geométrica es 1, de modo que A no es diagona-
lizable. Vamos a calcular las matrices J y P tales que J = P −1AP con P
2 1
regular. Como A no es diagonalizable, es claro que J = .
0 2
Sea E1 (2) = V2 = Ker(A − 2Id). Se tiene que E1 (2) = L{(1, 1)}, esto es,
dim(E1 (2)) = 1. Sea E2 (2) = Ker(A − 2Id)2 . Es claro que E1 (2) ⊆ E2 (2).
Por la última observación, resulta que E2 (2) = Ker(0) = R2 .
Escogemos ahora un vector u2 ∈ E2 (2) \ E1 (2), por ejemplo u2 = (1, 0).
Sea u1 = (A − 2Id)u2 = (−2, −2) ∈ E1 . Entonces, la familia
 B = {u1 , u2 }
−2 1
es base de R2 tal que M (f, B) = J y la matriz P = cumple
−2 0
J = P −1 AP .

Ejemplo 2
 
3 2
Sea A = ∈ M2 (R). El polinomio característico es p(λ) =
−4 −1
(λ−(1+2i))(λ−(1−2i)) (dos autovalores complejos conjugados). Calculemos
la forma canónica de Jordan J y una matriz de paso P ∈ M2 (C) así como
la forma canónicareal J 0 y una matriz
 de paso Q ∈ M2 (C).
1 + 2i 0
Se tiene J = . Para determinar P procedemos como
0 1 − 2i
sigue:
4.4 FORMAS CANÓNICAS DE JORDAN 45

E1 (1 + 2i) = V1+2i = {~x ∈ C2 : (A − (1 + 2i)Id)~x = 0̄}


Se tiene el sistema

(2 − 2i)x1 + 2x2 = 0
−4x1 + (−2 − 2i)x2 = 0
Al ser las dos ecuaciones proporcionales, queda E1 (1 + 2i) = {~x ∈ C2 :
(1−i)x1 +x2 = 0}. Tras pasar a paramétricas, resulta E1 (1+2i) = L{(1, −1+
i)}. El vector
     
1 1 0
~x = = +i ∈ C2
−1 + i −1 1
es un generador del subespacio E1 (1 + 2i) ⊂ C2 (autovector del autovalor
λ = 1 + 2i). Dicho de otro modo, A~x = (1 + 2i)~x.
Como A~x = (1+2i)~x, tomando conjugados en ambos lados de la igualdad,
y teniendo en cuenta que A = A al ser ésta real, queda A~x = (1 − 2i)~x, esto
es, el vector
     
1 1 0
~x = = −i ∈ C2
−1 − i −1 1
es autovector de λ = 1 − 2i, de modo que, sin hacer cálculos, sabemos
que E1 (1 − 2i) = V1−2i = L{(1, −1 − i)}. La matriz de paso P tiene por
columnas las coordenadas
 de losvectores de la base de C2 , B = {~x, ~x},
1 1
esto es, P = ∈ M2 (C). Resulta fácil comprobar que
−1 + i −1 − i
J = P −1 AP . 
1 2
La forma canónica real es = J0 ∈ M2 (R), mientras que la
−2 1
matriz de paso Q se obtiene de la matriz P eligiendo los vectores
 ) y
Re(~x
1 0
Im(~x), que son base de R2 , como columnas. Se tiene Q = ∈
−1 1
M2 (R). Resulta fácil comprobar que J 0 = Q−1 AQ.

4.4.2. Forma de Jordan de matrices de orden 3


Proposición 5. Dada una matriz A ∈ M3 (C), distinguimos tres casos a la
hora de construir J ∈ M3 (C).
i) Si existe un único autovalor λ ∈ C, J ∈ M3 (C) toma una de las si-
guientes formas:
   
λ 1 0 λ 1 0
 0 λ 0   0 λ 1 
0 0 λ 0 0 λ
46 4 DIAGONALIZACIÓN Y FORMAS CANÓNICAS

Hemos descartado el caso trivial en el que A = λId. Si A ∈ M3 (R), se


tiene que λ ∈ R y, por tanto, J, P ∈ M3 (R).
ii) Si existen dos autovalores distintos (λ doble y µ simple), entonces J ∈
M3 (C) toma una de las siguientes formas:
   
λ 0 0 λ 1 0
 0 λ 0   0 λ 0 
0 0 µ 0 0 µ

Si A ∈ M3 (R), se tiene que λ, µ ∈ R y, por tanto, J, P ∈ M3 (R).


iii) Si existen tres autovalores distintos, la matriz J ∈ M3 (C) es diagonal.
Si A∈ M3 (R), o bien los tres autovalores son reales, en cuyo caso
λ1 0 0
J =  0 λ2 0 , o bien hay dos autovalores complejos conjuga-
0 0 λ3
 
λ 0 0
dos λ = α+βi, λ = α−βi y uno real µ, en cuyo caso J =  0 λ 0 
0 0 µ
no es una matriz
 real. Si buscamos
 la forma canónica real J 0 de A, ten-

α β 0
dremos J = −β α 0  ∈ M3 (R). Existe también una matriz de
0 
0 0 µ
paso Q ∈ M3 (R) tal que J 0 = Q−1 AQ.

Ejemplo 3
Determinar la forma canónica de Jordan y la matriz de paso de
 
0 3 1
A =  2 −1 −1 
−2 −1 −1
Se tiene p(λ) = −(λ − 2)(λ + 2)2 . Además E1 (2) = Ker(A − 2Id) =
L{(1, 1, −1)} y E1 (−2) = Ker(A + 2Id) = L{(1, −1, 1)}. Esto implica que
A no es diagonalizable al no coincidir las multiplicidades algebraica y geo-
métrica para λ = −2. Sin embargo, hemos obtenido ya dos autovectores, uno
por cada autovalor.
Calculemos la matriz de paso P . Como la multiplicidad algebraica de
λ = 2 es r = 1, se tiene M (2) = E1 (2). Una base asociada a M (2) es B(2) =
{u1 = (1, 1, −1)}. Por otro lado, la multiplicidad algebraica de λ = −2 es
r = 2, mientras que dim(E1 (−2)) = 1. Se tiene

E2 (−2) = Ker(A + 2Id)2 = L{(1, −1, 0), (0, 0, 1)}


4.4 FORMAS CANÓNICAS DE JORDAN 47

con dim(E2 (−2)) = 2. De modo que M (−2) = E2 (−2). Buscamos una base
adecuada de vectores de M (−2), B(−2), de modo que la matriz asociada a
nuestra aplicación lineal con respecto a la base B = B(2) ∪ B(−2) sea una
forma canónica de Jordan J .
Construyamos la familia de vectores B(−2). Elegimos una familia de
dim(E2 (−2)) − dim(E1 (−2)) = 1 vectores que estén en E2 (−2) \ E1 (−2);
por ejemplo, u3 = (0, 0, 1). A continuación consideramos el vector

u2 = (A + 2Id)u3 = (1, −1, 1)


De este modo conseguimos una base B(−2) = {u2 , u3 } tal que, unida a
B(2), nos da B = B(2) ∪ B(−2) = {u1 , u2 , u3 }, una base de R3 . Obsérvese
que

Au1 = 2u1 , Au2 = −2u2 , Au3 = u2 − 2u3


En consecuencia, la matriz asociada a A respecto a la base B es
 
2 0 0
J =  0 −2 1 
0 0 −2
con matriz de paso
 
1 1 0
P =  1 −1 0 
−1 1 1
 
−2 1
Las matrices J(2) = (2) y J(−2) = son matrices elemen-
0 −2
tales de Jordan asociadas a los autovalores 2 y −2. Cada una representa la
expresión matricial de la aplicación lineal en los subespacios M (2) y M (−2)
respecto de las bases B(2) y B(−2).
Se comprueba fácilmente que P −1 AP = J .

Ejemplo 4
Determinar la forma canónica de Jordan y la matriz de paso de
 
−2 1 −1
A =  −1 −1 0 
0 1 −3
Ocurre que p(λ) = −(λ + 2)3 . Además E1 (−2) = Ker(A + 2Id) =
L{(1, 1, 1)}. Esto implica que A no es diagonalizable al no coincidir las
multiplicidades algebraica y geométrica para λ = −2. Sin embargo, hemos
obtenido ya un autovector.
Se tiene
48 4 DIAGONALIZACIÓN Y FORMAS CANÓNICAS

E1 (−2) = L{(1, 1, 1)} E2 (−2) = L{(1, 0, 1), (0, 1, 0)} E3 (−2) = R3

De modo que M (−2) = R3 con p = 3. Buscamos una base adecuada


de vectores de M (−2) = R3 , B(−2), tal que la matriz asociada a nuestra
aplicación lineal con respecto a esta base sea una forma canónica de Jordan J .
Elegimos una familia de dim(E3 (−2)) − dim(E2 (−2)) = 1 vectores que estén
en E3 (−2)\E2 (−2), por ejemplo u3 = (1, 0, 0). A continuación consideramos
los vectores (A + 2Id)u3 , . . . , (A + 2Id)p−1 u3 , esto es:

u2 = (A + 2Id)u3 = (0, −1, 0), u1 = (A + 2Id)u2 = (−1, −1, −1)

De este modo conseguimos una base de R3 , B(−2) = {u1 , u2 , u3 } tal que

Au1 = −2u1 , Au2 = u1 − 2u2 , Au3 = u2 − 2u3


En consecuencia, la matriz asociada a la aplicación lineal respecto a la
base B(−2) es
 
−2 1 0
J =  0 −2 1 
0 0 −2
con matriz de paso
 
−1 0 1
P =  −1 −1 0 
−1 0 0
Se comprueba fácilmente que P −1 AP = J .

Ejemplo 5
Determinar la forma canónica de Jordan y la matriz de paso de
 
−2 0 1
A =  0 −1 0 
−1 0 0
Se tiene p(λ) = −(λ + 1)3 . Además,

E1 (−1) = Ker(A + Id) = L{(1, 0, 1), (0, 1, 0)}.


Esto implica que A no es diagonalizable al no coincidir las multiplicidades
algebraica y geométrica para λ = −1. Sin embargo, hemos obtenido ya dos
autovectores.
Se tiene
4.4 FORMAS CANÓNICAS DE JORDAN 49

E1 (−1) = L{(1, 0, 1), (0, 1, 0)} E2 (−1) = R3


De modo que M (−1) = R3 con p = 2. Buscamos una base adecuada
de vectores de M (−1) = R3 , B(−1), tal que la matriz asociada a nuestra
aplicación lineal con respecto a esta base sea una forma canónica de Jordan J .
Elegimos una familia de dim(E2 (−1)) − dim(E1 (−1)) = 1 vectores que estén
en E3 (−1)\E2 (−1); por ejemplo, u3 = (1, 0, 0). A continuación consideramos
los vectores (A + Id)u3 , . . . , (A + Id)p−1 u3 , esto es,

u2 = (A + Id)u3 = (−1, 0, −1)


Tenemos los vectores {u2 , u3 }. Al faltar un vector para conseguir una base
de R3 , se escoge un vector de E1 (−1) que sea independiente de la familia
{u2 , u3 }, por ejemplo u1 = (0, 1, 0). De este modo, conseguimos una base de
R3 , B(−1) = {u1 , u2 , u3 }, tal que

Au1 = −u1 , Au2 = −u2 , Au3 = u2 − u3


En consecuencia, la matriz asociada a la aplicación lineal respecto a la
base B(−1) es
 
−1 0 0
J =  0 −1 1 
0 0 −1
con matriz de paso
 
0 −1 1
P = 1 0 0 
0 −1 0
Se comprueba fácilmente que P −1 AP = J .

Ejemplo 6
Determinar la forma canónica de Jordan y la matriz de paso de
 
1 −1 0
A= 5 3 0 
2 0 −4
Se tiene p(λ) = (−4−λ)(λ2 −4λ+8)2 = (−4−λ)(λ−(2+2i))(λ−(2−2i)).
Obenemos un autovalor real y dos complejos conjugados.
Entonces

V2+2i = E1 (2 + 2i) = Ker(A − (2 + 2i)Id) = L{u1 = (3 + i, −1 − 7i, 1)}


50 4 DIAGONALIZACIÓN Y FORMAS CANÓNICAS

Además, tal como ocurría en el caso de matrices de orden 2,

V2−2i = E1 (2 − 2i) = Ker(A − (2 − 2i)Id) = L{u2 = (3 − i, −1 + 7i, 1)}

Por otro lado,

V−4 = E1 (−4) = L{u3 = (0, 0, 1)}


De modo que la matriz asociada a la aplicación lineal con respecto a la
base de C3 , B = {u1 , u2 , u3 }, es la forma canónica de Jordan
 
2 + 2i 0 0
J = 0 2 − 2i 0 
0 0 −4
La matriz de paso será
 
3+i 3−i 0
P =  −1 − 7i −1 + 7i 0 
1 1 1
Se comprueba con facilidad que P −1 AP = J . Obsérvese que J, P ∈ /
M3 (R).
Si consideramos, tal como se hacía en el caso de las matrices de orden 2,
la base de R3 , B 0 = {Re(u1 ), Im(u1 ), u3 }, tenemos que la matriz asociada a
la aplicación lineal respecto de B 0 es la forma canónica real
 
2 2 0
J 0 =  −2 2 0 
0 0 −4
La matriz de paso Q ∈ M3 (R) asociada a A será
 
3 1 0
Q =  −1 −7 0 
1 0 1
Naturalmente, J 0 = Q−1 AQ.
4.5 EJERCICIOS 51

4.5. EJERCICIOS

1. Se considera la matriz:
 
2 3
A=
4 13

con coecientes en R. Hallar los valores propios, los vectores propios y


una matriz P que permita la diagonalización de A. Calcular An para
todo n ∈ N.

2. Determinar los valores de a, b, c, d para los cuales cada una de las si-
guientes matrices reales es diagonalizable:

   
a b a b
A= con la condición bc > 0 y B=
c d −b a

3. Indicar los valores de a, b y c para los cuales la matriz real A es diago-


nalizable:
 
1 0 0
A= a 1 0 
1 b c

4. Sea f el endomorsmo de R3 de matriz asociada


 
5 −6 −6
F =  −1 4 2 
3 −6 −4

Determinar una base respecto de la cual F se represente en forma


diagonal.

5. Demostrar que un endomorsmo f es inyectivo si y sólo si ningún valor


propio de f es nulo.

6. Sea E4 un espacio vectorial real. B = {~e1 , ~e2 , ~e3 , ~e4 } una base de E4 .
Sea f ∈ End(E4 ), cuya matriz respecto a B es:
 
1 0 0 0
 0 1 0 0 
A=
 0

0 a 0 
a 0 0 2
52 4 DIAGONALIZACIÓN Y FORMAS CANÓNICAS

a ) Determinar los valores de a para los que f es diagonalizable.


b ) Si a = 1:
1) Diagonalizar A.
2) Si V2 es el subespacio propio asociado al autovalor λ = 2,
hallar las ecuaciones paramétricas de V2 ∩ W y V2 + W , sien-
do W el subespacio de E4 de ecuaciones implícitas W =
{(x, y, z, t)/x + z = x = y − 3t = 0}.
3) ¾Es f suprayectivo?, ¾es f inyectivo?.

7. Sea la matriz:  
1 1 1 1
 1 1 −1 −1 
A=
 1 −1

1 −1 
1 −1 −1 1

a) Determinar los valores propios de A y estudiar su diagonalización.


b) Determinar una matriz P que permita la diagonalización.
c) Diagonalizar A2 y A−1 .
d) Calcular An .

8. Estudiar la posible diagonalización de las siguientes aplicaciones f :


R3 → R3 :

a ) f (x, y, z) = (−x − 3z, 3x + 2y + 3z, −3x − z)


b ) f (x, y, z) = (x + y + z, 2y + z, 2y + 3z)
c ) f (x, y, z) = (x + y, y + z, −2y − z)

9. Sea f : R3 [x] → R3 [x] denida por f (ax3 + bx2 + cx + d) = dx3 +


cx2 + bx + a. Estudiar su diagonalización encontrando la matriz P que
la permita.

10. Sea f el endomorsmo de R3 de matriz asociada


 
1 −3 3
A =  3 −5 3 
6 −6 4

Determinar:
a ) Autovalores y autovectores de f .
4.5 EJERCICIOS 53

b ) Hallar una base que permita la diagonalización.

11. Hallar a, b, c, d, e y f , sabiendo que los vectores: ~u = (1, 1, 1), ~v =


(1, 0, −1), w
~ = (−1, −1, 0) son autovectores de la matriz:
 
1 1 1
A= a b c 
d e f

12. Sea f : R3 [x] → R3 [x] el endomorsmo denido por f (p(x)) = p0 (x).


Hallar los autovalores y autovectores de f . (p0 (x) es el polinomio deriva-
do de p(x)).

13. Determinar un endomorsmo f de R3 sabiendo:


a ) Im(f ) = L{(0, 1, −1), (2, 1, 1)}.
b ) λ = 0 es un valor propio de f .
c ) El subespacio propio asociado a λ = 0 está generado por (0, 1, 1).
Hallar, si es posible, una base de R3 en la que f venga dado por una
matriz diagonal.

14. Hallar la forma canónica de Jordan y la matriz de paso de


 
2 −1
A=
1 0

Calcular A15 .

15. Calcular la forma de Jordan y la matriz de paso de

 
   0 −4 0 −1
1 0 −1 0 1 0  0 2 0 0 
A=  0 1 0  ,B =  −1 0 1  , C = 
 0 0

0 0 
1 1 −1 −1 1 1
4 8 −12 4

16. Encontrar la forma de Jordan real y una matriz de paso real de:
 
  0 1 −1
1 −2
A= B= 0 1 0 
3 1
3 1 0
55

5. SISTEMAS DE ECUACIONES DIFERENCIALES

5.1. SISTEMAS LINEALES DE PRIMER ORDEN

Un sistema de ecuaciones diferenciales del tipo


dx1

dt = a11 (t)x1 + · · · a1n (t)xn + f1 (t)
..


 .
dxn
= an1 (t)x1 + · · · ann (t)xn + fn (t)

dt

se denomina sistema lineal de primer orden. Las funciones aij (t), fi (t) se
supondrán continuas en un intervalo dado I = (a, b). Si fi (t) = 0 para todo
i = 1, . . . , n, se dice que el sistema es homogéneo.
La expresión del sistema anterior se suele hacer en forma matricial

(1) X 0 = AX + F
siendo

   
x1 (t) a11 (t) · · · a1n (t)
.. .. ... ..
X = X(t) =  . A = A(t) =  . .
   
 
xn (t) an1 (t) · · · ann (t)
 
f1 (t)
..
F = F (t) =  .
 

fn (t)
Si el sistema es homogéneo, se escribe X 0 = AX .
 
x1 (t)
Denición 23. Diremos que el vector ..
X = .  es solución de (1)
 

xn (t)
en un intervalo I si sus elementos son funciones diferenciables que satisfacen
(1) en dicho intervalo.
Denición 24. Problema del 
valor inicial.

x01
Dado t0 ∈ I y dado X0 =  ..  un vector cuyas entradas son cons-
 . 
x0n
tantes dadas, el problema de resolver

X 0 = AX + F
sujeto a la condición X(t0 ) = X0 se denomina problema de valor inicial en
el intervalo I .
56 5 SISTEMAS DE ECUACIONES DIFERENCIALES

Teorema 7. Dadas A(t) y F (t) continuas en el intervalo I = (a, b), el


problema de valor inicial
X 0 = AX + F

(2)
X(t0 ) = X0
tiene una solución única denida en todo el intervalo I .
Teorema 8. Principio de superposición.
Dados X1 , X2 , . . . , Xm un conjunto de vectores solución del sistema ho-
mogéneo X 0 = AX en un intervalo I , la combinación lineal

X = c1 X1 + · · · + cm Xm
es también solución de X 0 = AX en el intervalo I .
Denición 25. Dependencia e independencia lineal de soluciones.
Dados X1 , . . . , Xm un conjunto de vectores solución del sistema homogé-
neo X 0 = AX en un intervalo I , se dice que el conjunto es linealmente
dependiente en I si existen constantes c1 , . . . , cm , no todas cero, tales que

c1 X1 + · · · + cm Xm = 0
para todo t ∈ I . Si el conjunto de vectores no es linealmente dependiente, se
dice que es linealmente independiente.
Teorema 9. Sean X1 , . . . , Xn n vectores solución del sistema homogéneo de
n ecuaciones y de primer orden

X 0 = AX
en un intervalo I . El conjunto de vectores es linealmente independiente en I
si y sólo si el wronskiano

W (X1 , . . . , Xn ) = |X1 . . . Xn | 6= 0
Se puede probar que, si X1 , . . . , Xn son soluciones de X 0 = AX , entonces
W (X1 , . . . , Xn ) 6= 0 para todo t ∈ I o bien W (X1 , . . . , Xn ) = 0 para todo
t ∈ I . De modo que, si existe un t0 tal que W 6= 0 en t0 , entonces W 6= 0
para todo t ∈ I , con lo que las soluciones son linealmente independientes en
I.

Denición 26. Conjunto fundamental de soluciones. Matriz fundamental.


Sea X 0 = AX un sistema homogéneo de n ecuaciones y de primer orden.
Un conjunto X1 , . . . , Xn de soluciones linealmente independientes del sistema
en un intervalo I es un conjunto fundamental de soluciones . A la matriz
Φ(t) = (X1 . . . Xn ) que tiene a estos vectores solución por columnas, se le
llama matriz fundamental del sistema X 0 = AX . Obsérvese que Φ(t) 6= 0
para todo t ∈ I .
5.1 SISTEMAS LINEALES DE PRIMER ORDEN 57

Teorema 10. Solución general de un sistema homogéneo.


Dado un sistema homogéneo X 0 = AX en un intervalo I , existe siempre
un conjunto fundamental de soluciones X1 , . . . , Xn en I , esto es, siempre se
puede encontrar una matriz fundamental Φ(t).
La solución general del sistema homogéneo en I será

X = c1 X1 + · · · + cn Xn
donde c1 , . . . , cn son constantes arbitrarias. Dicho de modo eqivalente:

X = Φ(t)C
 
c1
. 
 ..  es un vector formado
donde Φ(t) es una matriz fundamental y C = 
cn
por constantes.
Si buscamos la solución del problema de valor inicial

X 0 = AX


X(t0 ) = X0

obtenemos X = Φ(t)Φ(t0 )−1 X0


Teorema 11. Solución general de un sistema no homogéneo.
Dado el sistema no homogéneo X 0 = AX + F y dada una solución par-
ticular Xp del mismo en el intervalo I , la solución general será

X = Xh + Xp
siendo Xh la solución general del sistema homogéneo asociado X 0 = AX .
Escrito de modo equivalente,

X = Φ(t)C + Xp

Sistemas no homogéneos. Método de variación de las constantes.


Por lo visto arriba, si somos capaces de resolver el sistema homogéneo
X 0 = AX , para obtener la solución general de X 0 = AX + F basta con cono-
cer una solución particular del mismo. Pero, ¾cómo encontrarla? Se aplica el
método de variación de las constantes, esto es, se conjetura la existencia de
una solución particular del sistema no homogéneo, Xp (t) = Φ(t)C(t), donde
las constantes del vector C pasan a ser funciones
 
c1 (t)
..
C(t) =  . .
 

cn (t)
58 5 SISTEMAS DE ECUACIONES DIFERENCIALES

Entonces Xp0 = Φ(t)C 0 (t) + Φ0 (t)C(t). Al sustituir en X 0 = AX + F se


tiene

Φ(t)C 0 (t) + Φ0 (t)C(t) = AΦ(t)C(t) + F

Como la solución general del sistema homogéneo es X = Φ(t)C , entonces


X0 = Φ0 (t)C = AX = AΦ(t)C , con lo que Φ0 (t) = AΦ(t). Se tiene, al
sustituir en la ecuación de arriba,

Φ(t)C 0 (t) + AΦ(t)C(t) = AΦ(t)C(t) + F

de manera que Φ(t)C 0 (t) = F (t), lo cual implica que C 0 (t) = Φ−1 (t)F (t) y,

por tanto, C(t) = Φ (t)F (t)dt. Como Xp = Φ(t)C(t), resulta


R −1

Z
Xp = Φ(t) Φ−1 (t)F (t)dt

La solución general del sistema X 0 = AX + F es entonces


Z
X = Xh + Xp = Φ(t)C + Φ(t) Φ−1 (t)F (t)dt

5.2. SISTEMAS LINEALES HOMOGÉNEOS

Describimos a continuación el modo de resolver un sistema homogéneo


de primer orden con coecientes constantes, X 0 = AX . Se calculan la forma
canónica de Jordan J de A y la matriz de paso P tales que P −1 AP = J . Se
tiene A =P JP −1
. El siguiente paso es hacer el cambio de variable X = P Y
y1
 .. 
con Y =  .  y sustituir en la ecuación. Se tiene P Y 0 = AP Y , esto es,
yn
Y 0 = P −1 AP Y con lo que la resolución del sistema X 0 = AX queda reducida
a la resolución del nuevo y más simple sistema

Y 0 = JY

Una vez resuelto éste último, se deshace el cambio y se tiene la solución


del sistema homogéneo original. Desarrollaremos todo este proceso para el
caso de los sistemas homogéneos planos (dos ecuaciones). Para sistemas con
más ecuaciones el procedimiento es análogo.

5.2.1. Sistemas lineales homogéneos planos


Sea X 0 = AX un sistema lineal homogéneo de coecientes constantes y
plano.
5.2 SISTEMAS LINEALES HOMOGÉNEOS 59

Caso 1. Si la matriz A ∈ M2 (R) es diagonalizable con autovalores reales, la


forma canónica de jordan de A es
 
λ1 0
J=
0 λ2

Se hace el cambio X = P Y y se resuelve el sistema Y 0 = JY

y10
    
λ1 0 y1
=
y20 0 λ2 y2

Resulta y1 (t) = c1 eλ1 t , y2 (t) = c2 eλ2 t . Escrito en forma matricial,

eλ1 t eλ1 t
        
y1 (t) 0 0 c1
Y = = c1 + c2 =
y2 (t) 0 e λ2 t 0 e 2t
λ c2

Al deshacer el cambio X = P Y , se tiene

e λ1 t
    
x1 (t) 0 c1
X= =P =
x2 (t) 0 e λ2 t c2
   
λ1 t p11 λ2 t p12
= c1 e + c2 e
p21 p22
   
p11 p12
siendo y las columnas de P , esto es, los autovectores
p21 p22
asociados a los autovalores λ1 y λ2 respectivamente. Obsérvese que la
matriz

eλ1 t
 
0
Φ(t) = P
0 e 2t
λ

es una matriz fundamental.


Caso 2. Si la matriz A no es diagonalizable, con un autovalor doble λ ∈ R,
entonces
 
λ 1
J=
0 λ

Se considera X = P Y y se resuelve el sistema Y 0 = JY . Queda

y2 (t) = c2 eλt
60 5 SISTEMAS DE ECUACIONES DIFERENCIALES

Al sustituir en y10 = λy1 + y2 se tiene y10 = λy1 + c2 eλt . Esta ecuación,


para cada valor de c2 jo, es lineal de primer orden. Al resolver, da
lugar a

y1 (t) = c1 eλt + c2 teλt

Por tanto, escrito en forma matricial,

eλt teλt eλt teλt


        
y1 (t) c1
Y = = c1 + c2 =
y2 (t) 0 eλt 0 eλt c2

Se deshace el cambio X = P Y y queda

eλt teλt
       
c1 λt p11 p12
X=P =e (c1 + c2 t) + c2
0 eλt c2 p21 p22

eλt teλt
 
La matriz Φ(t) = P es una matriz fundamental.
0 eλt
Caso 3. Si la matriz A tiene dos autovalores complejos conjugados λ = a +
ib, λ = a − ib, la forma canónica de Jordan es la matriz
 
λ 0
J= ∈ M2 (C)
0 λ

La matriz de paso P = (P 1 P 2 ) ∈ M2 (C) tiene por columnas P 1 , P 2 =


P 1 a los autovectores (complejos conjugados) asociados a los autoval-
ores λ y λ.
Se hace el cambio X = P Y y se resuelve el sistema

Y 0 = JY

Se obtiene y1 (t) = c1 e(a+ib)t , y2 (t) = c2 e(a−ib)t con c1 , c2 ∈ C constantes


arbitrarias. Escrito en forma matricial,

e(a+ib)t
    
y1 (t) 0 c1
Y = =
y2 (t) 0 e(a−ib)t c2

Deshaciendo el cambio, obtenemos

e(a+ib)t
    
x1 (t) 0 c1
X= =P (a−ib)t =
x2 (t) 0 e c2
5.2 SISTEMAS LINEALES HOMOGÉNEOS 61

= c1 e(a+ib)t P 1 + c2 e(a−ib)t P 1

que es la solución general compleja del sistema X 0 = AX . Nosotros


deseamos encontrar la solución general real (las funciones x1 (t), x2 (t)
deben ser reales). Para obtenerla, basta observar que si X(t) es solución
compleja del sistema X 0 = AX , entonces   e
Re(X(t)) Im(X(t)) son 
p11 u1 + iv1
soluciones reales de X 0 = AX . Si P 1 = = ,
p u2 + iv2
   21 
u1 v1
se tiene Re(P 1 ) = y Im(P 1 ) = . Consideremos la
u2 v2
solución compleja
   
u1 v1
e(a+ib)t P 1 = eat (cos bt + i sen bt) +i =
u2 v2
    
at u1 v1
=e cos bt − sen bt +
u2 v2
    
at u1 v1
+ie sen bt + cos bt
u2 v2
Por lo dicho arriba, tanto
    
at u1 v1
X1 (t) = e cos bt − sen bt
u2 v2
como
    
at u1 v1
X2 (t) = e sen bt + cos bt
u2 v2
son soluciones reales (e independientes) del sistema X 0 = AX , de modo
que la solución general será

eat cos bt eat sen bt


   
u1 v1 c1
X = c1 X1 + c2 X2 =
u2 v2 −eat sen bt eat cos bt c2

Obsérvese que la matriz


 
u1 v1
= Re(P 1 ) Im(P 1 )

Q=
u2 v2
 
a b
es la matriz de paso tal que Q−1 AQ = J 0, siendo J0 = la
−b a
forma canónica real de A.
62 5 SISTEMAS DE ECUACIONES DIFERENCIALES

En cualquiera de los tres casos, si los dos autovalores de la matriz A son


tales que Re(λ) < 0, se tiene que

lı́m xi (t) = 0, i = 1, 2
t→∞
 
x1 (t)
para cualquier solución X = del sistema X 0 = AX .
x2 (t)

Observación 7. Considérese una ecuación lineal de segundo orden homogénea


de coecientes constantes x00 + a1 x0 + a2 x = 0 con a1 , a2 ∈ R. Mediante el
cambio de variables

x = x1
x0 = x2
se puede reducir el estudio de las soluciones de la ecuación al estudio del
sistema plano equivalente

x01 = x2 x01
     
0 1 x1
(1) ó =
x02 = −a2 x1 − a1 x2 x02 −a2 −a1 x2
 
0 1
El polinomio característico de A = es p(λ) = λ2 + a1 λ +
−a2 −a1
a2 . Obsérvese la relación existente entre el polinomio p(λ) y la ecuación de
segundo orden.
Utilizando lo hecho en los sistemas planos, y teniendo en cuenta que sólo
nos interesa x1 (t), se concluye que:

Caso 1. Si los dos autovalores λ1 , λ2 son reales (y distintos, ya que de ser iguales
la matriz A debería ser diagonal), entonces x(t) = x1 (t) = k1 eλ1 t +
k2 eλ2 t , siendo k1 y k2 constantes arbitrarias.

Caso 2. Si hay un autovalor real doble, λ, entonces x(t) = x1 (t) = k1 eλt +


k2 teλt , siendo k1 y k2 constantes arbitrarias..
Caso 3. Si los autovalores son complejos conjugados, entonces x(t) = x1 (t) =
k1 eat cos bt + k2 eat sen bt, siendo k1 y k2 constantes arbitrarias.

5.2.2. Puntos críticos. Diagrama de fases de sistemas lineales


homogéneos planos
Dado un sistema de ecuaciones del tipo
 dx
dt = f1 (x, y)
dy
dt = f2 (x, y)
5.2 SISTEMAS LINEALES HOMOGÉNEOS 63

decimos que un punto (x0 , y0 ) es un punto crítico o singular si el vector


constante
 
x0
X(t) =
y0
es solución del sistema.
La representación gráca de las soluciones en el plano, junto con la in-
dicación del sentido en que se recorren, se denomina diagrama de fases del
sistema.
Dado el sistema X 0 = AX con A ∈ M2 (R), es claro que el vector X =
(0, 0) es un punto crítico. Supondremos que dicho punto crítico es aislado
(no hay más en un entorno suyo). Esto implica que Det(A) 6= 0 y, por tanto,
λ = 0 no es autovalor de A.
El análisis cualitativo de los diagramas de fases en un entorno del punto
crítico X = (0, 0) se hace en función de los signos de los autovalores de A,
tal como queda indicado en el siguiente esquema:
64 5 SISTEMAS DE ECUACIONES DIFERENCIALES

I
mage
ntoma
dade[
5],pá
g.191
.
5.2 SISTEMAS LINEALES HOMOGÉNEOS 65

I
mage
ntoma
dade[
5],pá
g.192.
66 5 SISTEMAS DE ECUACIONES DIFERENCIALES

5.3. EJERCICIOS

1. Resuélvase el sistema de ecuaciones diferenciales

u0
   
u
=A
v0 v
 
−2 1
siendo A = .
1 −2
Nota.
  Utilícese el hecho de que, al ser A diagonalizable, dado x̄ =
u
, se tiene x̄0 = Ax̄, lo que equivale a escribir x̄0 = P DP −1 x̄.
v
Llamando ȳ = P −1 x̄, se obtiene ȳ 0 = Dȳ , un sistema de resolución
elemental.

2. Determínese la solución general del sistema de ecuaciones

x01 = x1 + 3x2


x02 = 2x1 + 2x2

Hallar la solución particular que satisface x1 (0) = 0, x2 (0) = 5.

3. Resuélvase la ecuación diferencial lineal de tercer orden de coecientes


constantes

y 000 − 3y 00 + 2y 0 = 0

Nota. Considérese el sistema de tres ecuaciones y0 = u, u0 = v , v 0 =


3v − 2u o, lo que es equivalente,

y0
    
0 1 0 y
 u0  =  0 0 1   u 
v0 0 −2 3 v

4. Hallar la solución general del sistema X 0 = AX con


 
4 1
A=
−1 2

Determínese la solución que satisface la condición inicial X(0) = (1, 1).


5.3 EJERCICIOS 67

5. Obtener la solución general de los sistemas X 0 = AX con


 
  10 10 −14
3 2
a) A = b) A =  3 5 −5 
−4 −1
7 8 −10
   
3 −1 0 6 8 −10
c) A =  0 3 0  d) A =  2 2 −3 
0 2 3 5 6 −8

6. Hallar la solución general del sistema de ecuaciones


   
0 3 −2 t
X = X+
2 −2 0

7. Estudiar la naturaleza de los puntos críticos de los sistemas planos de


los ejercicios 1, 2, 4 y 5 a).
69

6. PRODUCTO ESCALAR. ESPACIO EUCLÍDEO

Muchos de los fenómenos que se investigan en la geometría utilizan no-


ciones como las de longitud de un vector y ángulo entre vectores. Para intro-
ducir estos dos conceptos en los R-espacios vectoriales se dene el producto
escalar. Un R-espacio vectorial al que se asigna un producto escalar se de-
nomina espacio vectorial euclídeo. En este capítulo trabajaremos, principal-
mente, con R-espacios vectoriales euclídeos de dimensión nita.

6.1. PRODUCTO ESCALAR. LONGITUDES Y ÁNGULOS

Denición 27. (Producto escalar. Espacio vectorial euclídeo.)


Sea V un R-espacio vectorial. Un producto escalar asociado a V es una
aplicación h , i : V × V → R que verica las propiedades siguientes:
1. hu, vi = hv, ui para todo u, v ∈ V .
2. hu + v, wi = hu, wi + hv, wi para todo u, v, w ∈ V .
3. hλu, vi = λhu, vi para todo u, v ∈ V , λ ∈ R.
4. hu, ui > 0 para todo u 6= 0̄.

Diremos entonces que el par (V, h , i) es un espacio vectorial euclídeo.


Si la aplicación h , i cumple las propiedades 1, 2 y 3 decimos que es una
forma bilineal simétrica. Si, además, cumple la propiedad 4, se dice que es
denida positiva y se habla de producto escalar asociado a V .
Proposición 6. Si A es una matriz n × n denida positiva (simétrica y con
todos los autovalores reales y positivos), entonces

hX, Y i = X t AY, con X, Y ∈ Rn


dene un producto escalar en Rn . De hecho, todos los productos escalares
denidos en espacios vectoriales de dimensión nita tendrán una expresión
matricial de este tipo.
Para determinar si la matriz A es denida positiva, existen varios criterios
que no requieren del cálculo del signo de los autovalores. Enunciamos uno en
la siguiente proposición.
Proposición 7. (Criterio de Sylvester)
Sea A ∈ Mn (R) simétrica y sea ∆i = Det(Ai ), donde
 
a11 · · · a1i
Ai =  ... ... .. 
. 

ai1 ··· aii


Entonces A es denida positiva si y sólo si ∆i > 0 para todo i = 1, . . . , n.
70 6 PRODUCTO ESCALAR. ESPACIO EUCLÍDEO

Propiedades.
a) hv, 0̄i = 0 para todo v ∈ V .
b) hλu + µv, wi = λhu, wi + µhv, wi para todo u, v, w ∈ V , λ, µ ∈ R.
c) hv, vi = 0 si y sólo si v = 0̄.

Denición 28. Un ejemplo de espacio vectorial euclídeo, y que será el más


utilizado por nosotros, es el espacio vectorial V = Rn , al que asociamos el
producto escalar usual que se dene del siguiente modo:
Dados x, y ∈ Rn con x = (x1 , . . . , xn ) e y = (y1 , . . . , yn ),

hx, yi = x1 y1 + x2 y2 + · · · + xn yn .

Denición 29. (Norma o módulo. Distancia)


La longitud, norma o módulo de un vector v ∈ V se dene como
p
kvk = hv, vi
Si kvk = 1, se dice que v es unitario.
La distancia entre dos vectores u, v ∈ V se dene como

d(u, v) = ku − vk

Propiedades.
1. kvk ≥ 0 y kvk = 0 si y sólo si v = 0̄.
2. kλvk = |λ|kvk para todo λ ∈ R y para todo v ∈ V .
3. Para todo u, v ∈ V , ku + vk ≤ kuk + kvk. Esta propiedad se conoce
como desigualdad triangular o de Minkowski.
4. Dado v 6= 0̄, kvk
v
es un vector unitario.
5. Para todo u, v ∈ V , |hu, vi| ≤ kukkvk. Esta propiedad se conoce como
desigualdad de Cauchy-Schwarz.

Denición 30. (Ángulo entre dos vectores. Ortogonalidad)


i) Para todo par de vectores no nulos u, v ∈ V , el ángulo entre u y v se
dene como el único número θ ∈ [0, π] tal que cos θ = kukkvk
hu,vi
.
ii) Dados u, v ∈ V no nulos, diremos que son ortogonales o perpendi-
culares si hu, vi = 0. Obsérvese que u, v son ortogonales si y sólo si
cos θ = 0, siendo θ el ángulo entre u y v , lo que es equivalente a decir
que θ = π/2.
iii) Una base B de vectores de V es ortogonal si sus vectores son ortogo-
nales entre sí. Si los vectores de B son además unitarios, entonces se
dice que la base es ortonormal.
6.2 MÉTODO DE GRAM-SCHMIDT. PROYECCIONES 71

Propiedades.
1. Si {u1 , . . . , uk } son vectores no nulos de V , ortogonales entre sí, en-
tonces son linealmente independientes.
2. Si B = {u1 , . . . , un } es una base ortogonal de V , entonces B 0 =
{ kuu11 k , . . . , kuunn k } es una base ortonormal de V .

Proposición 8. Sea B = {e1 , . . . , en } una base ortogonal del espacio vecto-


rial euclídeo V . Entonces, dado x ∈ V ,
hx, e1 i hx, en i
x= 2
e1 + · · · + en
ke1 k ken k2
esto es, xB = (x1 , . . . , xn ) con xi = hx,e ii
kei k2
. A las coordenadas xi se les llama
coecientes de Fourier de x con respecto a la base ortogonal B .

6.2. MÉTODO DE GRAM-SCHMIDT. PROYECCIONES

Teorema 12. (Gram-Schmidt) Dada una base B = {u1 , . . . , un } de un es-


pacio vectorial euclídeo V , existe una base ortogonal B 0 = {e1 , . . . , en } tal
que L(u1 , . . . , ur ) = L(e1 , . . . , er ) para todo r = 1, . . . , n. Los vectores de la
base B 0 serán:
e1 = u1
hu2 ,e1 i
e2 = u2 − ke1 k2 1
e
..
.
hun ,e1 i hun ,en−1 i
en = un − ke1 k2 1
e − ··· − e
ken−1 k2 n−1

Corolario 2. Si {w1 , . . . , wr } es un conjunto ortogonal de vectores no nulos


de V , entonces existe una extensión a una base ortogonal.
Denición 31. (Subespacios ortogonales. Complemento ortogonal)
i) Un vector no nulo v ∈ V se dice que es ortogonal a un subespacio
vectorial W de V , denotado por v ⊥ W , si hv, wi = 0 para todo w ∈ W .
Esto equivale a probar que v es ortogonal a los vectores de una base de
W.
ii) Dos subespacios vectoriales W1 , W2 de V se dicen ortogonales, algo que
denotaremos por W1 ⊥ W2 , si para todo w1 ∈ W1 y w2 ∈ W2 se tiene
que hw1 , w2 i = 0. Esto equivale a probar que los vectores de una base
de W1 son ortogonales a los vectores de una base de W2 .
iii) Si W es un subespacio vectorial de V de dimensión k < n, el conjunto
W ⊥ = {v ∈ V : hv, wi = 0 para todo w ∈ W }
es un subespacio vectorial de V de dimensión n − k y se denomina
complemento ortogonal de W . De hecho, V = W ⊕ W ⊥ .
72 6 PRODUCTO ESCALAR. ESPACIO EUCLÍDEO

Denición 32. (Proyección ortogonal)


Sea W un subespacio vectorial de V . Como V = W ⊕ W ⊥ , resulta que
todo v ∈ V se puede escribir de modo único como v = w + u con w ∈ W y
u ∈ W ⊥ . El vector w recibe el nombre de proyección ortogonal de v sobre W
y se denota por w = PW (v), mientras que u es la proyección ortogonal de v
sobre W ⊥ y se escribe u = PW ⊥ (v).

El siguiente resultado proporciona un método rápido para calcular proyec-


ciones ortogonales sobre un subespacio vectorial.
Proposición 9. Sea W un subespacio vectorial de V y sea v ∈ V . Si BW =
{w1 , . . . , wr } es una base ortogonal de W , entonces, la proyección ortogonal
de v sobre W es
hv, w1 i hv, wr i
PW (v) = w1 + · · · + wr
kw1 k2 kwr k2
Teorema 13. (Teorema de aproximación)
Sea W un subespacio vectorial de dimensión nita del espacio euclídeo V .
Si v ∈ V , entonces PW (v) es el vector de W más próximo a v . Esto signica
que

d(v, PW (v)) < d(v, w) para todo w ∈ W, w 6= PW (v)

6.3. APLICACIÓN: DESARROLLOS DE FOURIER

Denotamos por C[−π, π] al R-espacio vectorial de funciones continuas en


el intervalo [−π, π], dotado del producto escalar siguiente:
Z π
hf, gi = f (x)g(x) dx
−π

El conjunto de vectores de C[−π, π],

{1, sen x, cos x, sen(2x), cos(2x), . . . },


es un conjunto ortogonal, esto es,

hsen(mx), sen(nx)i = 0 si m 6= n

hcos(mx), cos(nx)i = 0 si m 6= n

hsen(mx), cos(nx)i = 0 para todo m, n ≥ 0


Téngase en cuenta que 1 = cos(0x) está incluida en estas expresiones.
Por otro lado,
6.3 APLICACIÓN: DESARROLLOS DE FOURIER 73

Z π
2
k1k = h1, 1i = 12 dx = 2π
−π

Z π
k sen(kx)k2 = hsen(kx), sen(kx)i = sen2 (kx) dx = π ∀ k = 1, 2, . . .
−π

Z π
2
k cos(kx)k = hcos(kx), cos(kx)i = cos2 (kx) dx = π ∀ k = 1, 2, . . .
−π

Las comprobaciones de estas armaciones se dejan al lector.


Considérese el subespacio vectorial de V = C[−π, π],
Wn = L{1, sen x, cos x, sen(2x), cos(2x), . . . , sen(nx), cos(nx)}

Dada una función f ∈ V , se denen los coecientes de Fourier de f como:


Z π
hf, 1i 1
a0 = = f (x) dx
k1k2 2π −π Z
hf, cos(kx)i 1 π
ak = = f (x) cos(kx) dx k = 1, 2, . . .
k cos(kx)k2 π Z −π
hf, sen(kx)i 1 π
bk = = f (x) sen(kx) dx k = 1, 2, . . .
k sen(kx)k2 π −π
Observación. Si la función f es par (f (−x) = f (x) para todo x) o impar
(f (−x) = −f (x) para todo x), el cálculo de los coecientes de Fourier se
simplica notablemente. Así:

a) Si f es par, entonces f (x) sen(kx) es impar, de modo que bk = 0.


b) Si f es impar, entonces f (x) cos(kx) es impar, de modo que ak = 0.

Debido al teorema de aproximación, se obtiene el siguiente resultado:


Teorema 14. Sea f ∈ C[−π, π] y sean a0 , a1 , a2 , . . . , b1 , b2 , . . . los coe-
cientes de Fourier de f . Entonces,
fn = PWn (f ) = a0 + a1 cos x + b1 sen x + a2 cos(2x) + b2 sen(2x) + · · ·

· · · + an cos(nx) + bn sen(nx)
es una función perteneciente a
Wn = L{1, sen x, cos x, sen(2x), cos(2x), . . . , sen(nx), cos(nx)}.

Podemos armar que fn es la función de Wn más próxima a f , ya que

d(f, fn ) < d(f, g) para toda g ∈ Wn , g 6= fn


74 6 PRODUCTO ESCALAR. ESPACIO EUCLÍDEO

La función fn = PWn (f ) es la aproximación de Fourier de orden n a la


función f .
Otros resultados en esta línea son los que siguen:
Teorema 15. Sea f ∈ C[−π, π]. Dado que

W1 ⊆ W2 ⊆ W3 ⊆ · · · ⊆ Wn ⊆ · · ·
resulta

kf − f1 k ≥ kf − f2 k ≥ kf − f3 k ≥ · · · ≥ kf − fn k ≥ · · ·
De hecho, kf − fn k → 0 cuando n → ∞.
Teorema 16. Dada f ∈ C[−π, π], se tiene que fn (x) → f (x) cuando n → ∞
para todo x ∈ (−π, π).
6.4 EJERCICIOS 75

6.4. EJERCICIOS

1. En el espacio euclídeo usual R4 se consideran los subespacios vectoriales

W1 = {(x, y, z, t) ∈ R4 : x − y = 0, z + t = 0}

W2 = L{(1, 1, −2, 2), (1, 0, −1, 0)}

Hallar:

a) Las ecuaciones de W1⊥ y una base ortonormal de W1⊥ .


b) Las ecuaciones del complemento ortogonal W2⊥ y una base orto-
gonal para W2 .

2. Dada la forma bilineal simétrica sobre R3 , F (x, y) = xt Ay , siendo


 
a 0 0
A =  0 2 −1 
0 −1 2

a) Determinar para qué valores de "a" dene F un producto escalar.


b) Para a = 1, ¾son ortogonales los vectores (1, 1, 1) y (2, −1, −1)?

3. Si F es la forma bilineal en R2 cuya matriz asociada con respecto de


la base canónica es
 
a −1
A= ,
−1 1

determinar los valores de "a" para los que F dene un producto escalar.
4. Sea Q : R4 → R la forma cuadrática denida en la base canónica por
la matriz:
 
2 0 1 0
 0 2 0 1 
A=
 1

0 2 0 
0 1 0 2

Se pide:

a) Determinar si Q da lugar a un producto escalar.


b) En el espacio euclídeo real (R4 , h , i) que dene Q se pide:
76 6 PRODUCTO ESCALAR. ESPACIO EUCLÍDEO

b.1) Calcular la distancia y ángulo entre los vectores u = (1, 1, 1, 1)


y v = (1, 1, 0, 0).
b.2) Obtener las ecuaciones implícitas del complemento ortogonal
al subespacio vectorial U = L{(1, 1, 0, 0), (1, 1, 1, 0)}.
b.3) Determinar una base ortonormal del subespacio vectorial V =
L{(1, 1, 1, 1), (1, 0, 0, 1)}.

5. Dado R3 con el producto escalar usual, calcular:


a) La proyección del vector (1, 0, 0) sobre el subespacio U ≡ x + y =
0.
b) La proyección del vector (1, 2, 3) sobre el subespacio W = L{(1, 0, 1)}.
6. En R4 , con el producto escalar usual, se considera el subespacio

U = L{(0, 1, 1, 1), (0, 1, 1, 0), (0, 1, 0, −1)}

Se pide:
a) Hallar una base ortonormal de U .
b) Hallar las proyecciones sobre U y sobre U ⊥ del vector v = (1, 2, 3, 4).
7. En R4 , con el producto escalar usual, utilizar el método de Gram-
Schmidt para calcular una base ortonormal a partir de los vectores

{(1, 1, 1, 1), (1, 1, 0, 0), (1, 1, 1, 0), (1, 0, 0, 0)}

8. Hallar la aproximación de Fourier de orden 5 y la serie de Fourier de


la función f ∈ C[−π, π] siguiente:

π + x −π ≤ x < 0
f (x) =
π−x 0≤x≤π
Deducir del resultado obtenido para la serie de Fourier la siguiente
igualdad:

π2 1 1 1 1
= 1 + + 2 + 2 + 2 + ···
8 2 3 5 7
9. Hallar la aproximación de Fourier de orden 6 y el desarrollo en serie
de Fourier de la función f (x) = x en el intervalo [−π, π]. Utilizando el
resultado, obtener la igualdad siguiente:

π 1 1 1 1
= 1 − + − + − ··· .
4 3 5 7 9
77

7. SOLUCIONES A LOS EJERCICIOS PROPUESTOS

7.1. ESPACIOS VECTORIALES

1. Analizar cuáles de los siguientes subconjuntos de R3 son subespacios


vectoriales.

a) A = {(2x, x, −7x)/x ∈ R}
El conjunto A es una recta vectorial escrita en forma paramétrica.
Se deja al alumno comprobar que A es subespacio vectorial de
R3 . Debe demostrarse que, para cualesquiera dos vectores ū =
(2x1 , x1 , −7x1 ) ∈ A, v̄ = (2x2 , x2 , −7x2 ) ∈ A y un escalar λ ∈ R,
se cumple que ū + v̄ ∈ A y que λū ∈ A.
b) A = {(x, y, z)/xy = 1}
El conjunto A no es subespacio vectorial de R3 . Basta comprobar
que el elemento neutro 0̄ = (0, 0, 0) no está en A.
c) A = {(x, y, z)/x = y ó x = z}
El conjunto A es la unión de dos planos vectoriales y no es subes-
pacio vectorial de R3 . Para ello, basta elegir dos vectores que
estén en A y cuya suma no permanezca en A. Por ejemplo, sean
ū = (1, 1, 0) ∈ A y v̄ = (1, 2, 1) ∈ A. Es claro que ū + v̄ ∈
/ A.
d) A = {(x, y, z)/x + y + z = 0 y x − y − z = 0}
El conjunto A es una recta vectorial (intersección de dos planos
vectoriales) y sí es un subespacio vectorial de R3 . Se deja al alum-
no comprobarlo (véase el ejercicio 5 para una demostración de
este resultado en un ámbito más general).

2. Analizar cuáles de los siguientes conjuntos son subespacios vectoriales


de Rn [t] (conjunto de los polinomios con grado menor o igual a n ≥ 1,
con coecientes en el cuerpo R).

a) El conjunto A de todos los polinomios con coecientes en R de


grado n y el polinomio cero.
El conjunto A no es subespacio vectorial de Rn [t]. Basta elegir
los polinomios p(t) = tn ∈ A y q(t) = tn + 1 ∈ A. Es claro que
/ A.
q(t) − p(t) ∈
b) A = {p(t) ∈ Rn [t]/3p(0) + p(1) = 1}.
El conjunto A no es subespacio vectorial de Rn [t] ya que el ele-
mento neutro (el polinomio idénticamente nulo) no está en A.
c) A = {p(t) ∈ Rn [t]/p0 (0) + p00 (0) = 0}
El conjunto A es subespacio vectorial de Rn [t]. Se escogen dos
polinomios p(t), q(t) ∈ A y un escalar λ ∈ R. Entonces
78 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

(p + q)0 (0) + (p + q)00 (0) = p0 (0) + q 0 (0) + p00 (0) + q 00 (0) = 0

Esto demuestra que p + q ∈ A. Por otro lado,

(λp)0 (0) + (λp)00 (0) = λ(p0 (0) + p00 (0)) = 0


con lo que λp ∈ A.

3. Analizar cuáles de los siguientes conjuntos son subespacios vectoriales


de Mn×n (R).

a) A = {M ∈ Mn×n (R)/det(M ) = 0}.


El conjunto A no es subespacio vectorial de Mn×n (R). Basta con-
siderar las matrices diagonales

   
1 0
 ...   ... 
M1 =  , M2 = 
   

 1   0 
0 1

Es claro que M1 , M2 ∈ A pero M1 + M2 ∈


/ A.
b) A = {M ∈ Mn×n (R)/det(M ) 6= 0}
El conjunto A no es subespacio vectorial de Mn×n (R) ya que el
elemento neutro (la matriz nula) no pertenece a A.
c) A = {M ∈ Mn×n (R)/tr(M ) = 0}.
El conjunto A es subespacio vectorial de Mn×n (R). Considere-
mos dos matrices M1 y M2 con tr(M1 ) = tr(M2 ) = 0. Entonces
tr(M1 + M2 ) = tr(M1 ) + tr(M2 ) = 0, con lo que se prueba que
M1 + M2 ∈ A. Es igualmente fácil ver que, dado λ ∈ R y M1 ∈ A,
entonces λM1 ∈ A.

4. Sea F (R, R) el espacio vectorial real de las funciones reales de variable


real. Estudiar cuáles de los siguientes subconjuntos son subespacios
vectoriales de F (R, R).

a) W = {f ∈ F (R, R)/f es continua en el intervalo (a, b)}.


Como la suma de funciones continuas es continua y el producto
por un escalar de una función continua es otra función continua,
se tiene que W es subespacio vectorial de F (R, R).
b) W = {f ∈ F (R, R)/f (1) = f (2)}.
El conjunto W es subespacio vectorial de F (R, R). La demostración
se deja al lector.
7.1 ESPACIOS VECTORIALES 79

c) W = {f ∈ F (R, R)/f es creciente en el intervalo (a, b)}.


El conjunto W no es subespacio vectorial de F (R, R) ya que el
elemento neutro (la función idénticamente nula) no pertenece a
W.

5. Se considera el sistema lineal homogéneo de m ecuaciones con n incóg-


nitas sobre el cuerpo R:

a11 x1 + · · · + a1n xn = 0 
.. .. ..

. . . 
am1 x1 + · · · + amn xn = 0

Demostrar que el conjunto W de soluciones es un subespacio vectorial


de Rn .
   
r1 s1
.  s̄ =  ...  dos soluciones del conjunto W . Se
 ..  ,
Sean r̄ =   

rn sn
tiene que Ar̄ = 0̄ y As̄ = 0̄, siendo A la matriz de coecientes
 
a11 ··· a1n
.. ... ..
A= . .
 

am1 · · · amn

Si queremos ver que r̄ + s̄ ∈ W sólo tendremos que comprobar que


A(r̄ + s̄) = 0̄, algo que resulta obvio ya que A(r̄ + s̄) = Ar̄ + As̄ = 0̄.
De igual modo se concluye que, si λ ∈ R y r̄ ∈ W , entonces λr̄ ∈ W .
6. El rango de una matriz A coincide siempre con el número máximo
de vectores la linealmente independientes y con el número máximo
de vectores columna linealmente independientes. Estudiar, utilizando
este hecho, si los siguientes conjuntos de vectores son linealmente de-
pendientes o independientes:

a) {(2, −1, 4), (4, −2, 8)}.


No son linealmente independientes ya que r(A) = 1, siendo A la
matriz que tiene por las (o columnas) a los vectores de la familia
dada.
b) {(2, −1, 4), (4, 1, 8), (1, 0, 3)}.
Sea A la matriz

1 0 3
A =  2 −1 4 
4 1 8
80 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Se tiene que, escalonando la matriz A,


   
1 0 3 1 0 3
r(A) = r  0 −1 −2  = r  0 −1 −2  = 3,
0 1 −4 0 0 −6
de manera que los tres vectores son linealmente independientes.
c) {(2, −1, 4, 0), (0, −3, 1, 5), (4, 1, 7, −5)}.
 
2 −1 4 0
Sea A =  0 −3 1 5 . Se tiene, escalonando la matriz,
4 1 7 −5
   
2 −1 4 0 2 −1 4 0
r(A) = r  0 −3 1 5  = r  0 −3 1 5  = 2,
0 3 −1 −5 0 0 0 0
de modo que los vectores son linealmente dependientes.
d) {(1, −1, 1, 0), (−1, 0, 1, 1), (0, 3, −1, 1), (6, 1, 2, 0)}.
 
1 −1 1 0
 −1 0 1 1 
Sea A =  . Al escalonar la matriz se obtiene
 0 3 −1 1 
6 1 2 0
   
1 −1 1 0 1 −1 1 0
 0 −1 2 1   0 −1 2 1 
 0 3 −1 1  = r  0 0
r(A) = r    =
5 4 
0 7 −4 0 0 0 10 7
 
1 −1 1 0
 0 −1 2 1 
= r
 0 0 5 4  = 4,

0 0 0 −1
con lo que los vectores son linealmente independientes.
7. En R3 se consideran los vectores u = (1, 2, 1), v = (1, 3, 2), x = (1, 1, 0), y =
(3, 8, 5). Demostrar que L({x, y}) = L({u, v}).
Sean W1 = L({x, y}) y W2 = L({u, v}). Es claro que dim(W1 ) =
dim(W2 ) = 2. Será suciente ver que
   
1 1 1 3 1 1 1 3
r  2 3 1 8  = r  0 1 −1 2  = 2,
1 2 0 5 0 1 −1 2
esto es, el máximo número de columnas linealmente independientes es
2, lo que implica que ambos planos, W1 y W2 , son el mismo plano.
7.1 ESPACIOS VECTORIALES 81

8. Determinar si las siguientes familias de vectores son sistemas de gene-


radores de R3 . En los casos armativos, obtener una base.

a) {(1, 1, 0), (2, 3, 8)}


No es sistema de generadores (deben ser al menos 3 vectores).
b) {(1, 1, 1), (2, 2, 0), (3, 0, 0)}
 
1 1 1
Como r  2 2 0  = 3, se tiene que los tres vectores son sis-
3 0 0
tema de generadores (y base) de R3 .
c) {(2, −1, 3), (4, 1, 2), (8, −1, 8)}.
   
2 −1 3 2 −1 3
Como r  4 1 2  = r  0 3 −4  = 2, se tiene que
8 −1 8 0 3 −4
los tres vectores no son sistema de generadores de R3 .
d) {(1, 3, 3), (1, 3, 4), (1, 4, 3), (6, 2, 1)}.
Como
   
1 1 1 6 1 1 1 6
r  3 3 4 2  = r  0 0 1 −16  =
3 4 3 1 0 1 0 −17
 
1 1 1 6
= r  0 1 0 −17  = 3,
0 0 1 −16
el conjunto de cuatro vectores es sistema de generadores de R3 .
Tendremos que coger tres de ellos que sean linealmente indepen-
dientes para obtener una base. Si los vectores han sido coloca-
dos en forma de columna y se ha escalonado la matriz, basta
considerar las columnas asociadas a las cabeceras de la matriz
escalonada. Las posiciones de estas columnas (en este caso son las
tres primeras) se corresponden con las posiciones de los vectores
columna de la matriz inicial que dan lugar a una base. De manera
que una base de entre la familia de cuatro vectores podría ser la
formada por los tres primeros (tal como aparecen en forma de
columna en la matriz que escalonamos).

9. En el espacio vectorial Rn [t] de los polinomios con grado menor o igual


que n sobre el cuerpo R, se considera el conjunto de vectores

B = {1, t, t2 , ..., tn }

Probar que B es una base de Rn [t].


82 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Veamos primero que son sistema de generadores. Dado un polinomio


p(t) = a0 + a1 t + · · · + an tn ∈ Rn [t], es claro que p(t) se puede escribir
como combinación lineal de los elementos de la familia B .
Para probar la independencia lineal, recurrimos a la denición y con-
sideramos la igualdad

a0 + a1 t + · · · + an tn = 0

La única posibilidad de que esto sea cierto para todo valor de t es que
a0 = a1 = · · · = an = 0.

10. En el espacio vectorial M2×2 (R) de las matrices de orden 2 × 2 sobre


el cuerpo R se considera el conjunto de vectores
       
1 0 0 1 0 0 0 0
B= , , ,
0 0 0 0 1 0 0 1

Probar que B es una base de M2×2 (R).


Veamos
 primero
 que son sistema de generadores. Dada una matriz
a b
A= , es claro que A se puede escribir en la forma
c d
       
1 0 0 1 0 0 0 0
A=a +b +c +d
0 0 0 0 1 0 0 1

Para ver que son linealmente independientes, únicamente hace falta


aplicar la denición de independencia lineal. Si se tiene la igualdad

         
1 0 0 1 0 0 0 0 0 0
a +b +c +d = ,
0 0 0 0 1 0 0 1 0 0

entonces a = b = c = d = 0.
11. Determinar la dimensión y una base del subespacio vectorial de R4
engendrado por los vectores

{(2, −1, 4, 0), (0, −3, 1, 5), (4, 1, 7, −5)}

Escalonamos la matriz

     
2 −1 4 0 2 −1 4 0 2 −1 4 0
A =  0 −3 1 5  →  0 −3 1 5  →  0 −3 1 5 
4 1 7 −5 0 3 −1 −5 0 0 0 0
7.1 ESPACIOS VECTORIALES 83

La dimensión es 2 y una base es la formada por cualesquiera dos vec-


tores linealmente independientes de la familia que nos dan o por la
familia de vectores no nulos que aparecen en la matriz obtenida de
escalonar A. En este caso escogemos como base

B = {(2, −1, 4, 0), (0, −3, 1, 5)}.

12. Sea
W = L{(1, 2, −1, 3, 4), (2, 4, −2, 6, 8), (1, 3, 2, 2, 6), (1, 4, 5, 1, 8), (2, 7, 3, 3, 9)}
Hallar un subconjunto de los vectores que sea base de W .
Se nos pide que elijamos, de entre los vectores que nos dan, una fa-
milia que sea base de la envolvente. Existen varios procedimientos. Se
podrían escribir los vectores en forma de las de una matriz, escalonar
la misma y, estudiando las operaciones elementales realizadas, obtener
los vectores que dan lugar a la base.
Otra técnica alternativa, que seguiremos ahora, es la siguiente: calcu-
lamos la dimensión escribiendo los vectores en forma de columnas de
una matriz que escalonaremos. Las posiciones de las columnas asocia-
das a las cabeceras de la matriz escalonada serán las posiciones de las
columnas de la matriz inicial que dan lugar a la base buscada.
   
1 2 1 1 2 1 2 1 1 2

 2 4 3 4 7 


 0 0 1 2 3 
A=
 −1 −2 2 5 3  → ··· → 
  0 0 0 0 −4 

 3 6 2 1 3   0 0 0 0 0 
4 8 6 8 9 0 0 0 0 0

Se tiene que el rango es tres. De modo que deben elegirse 3 vectores


linealmente independientes de la familia dada. Las columnas asociadas
a las cabeceras de la matriz escalonada son la primera, la tercera y la
quinta, de manera que nos quedamos con las columnas primera, tercera
y quinta de la matriz inicial A. Esto quiere decir que una base asociada
a W , y elegida entre los vectores que nos han dado, será

BW = {(1, 2, −1, 3, 4), (1, 3, 2, 2, 6), (2, 7, 3, 3, 9)}

13. Se consideran en R4 los subespacios vectoriales

W1 = L({(1, −1, 0, 1), (−1, 0, 1, 0), (1, −2, 1, 2)})

W2 = L({(0, −1, 1, 1), (1, −2, 1, 2)})


84 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Hallar dim(W1 ∩W2 ) y dim(W1 +W2 ) así como las ecuaciones implícitas
y paramétricas de W1 , W2 y W1 + W2 .
Estudiemos W1 . La dimensión de W1 es

   
1 −1 0 1 1 −1 0 1
dim(W1 ) = r  −1 0 1 0  = r  0 −1 1 1  = 2
1 −2 1 2 0 −1 1 1

Una base para W1 es BW1 = {(1, −1, 0, 1), (0, −1, 1, 1)}.
Las ecuaciones paramétricas de W1 serán


 x1 = λ
x2 = −λ − µ

W1 ≡
x = µ
 3


x4 = λ+µ

Para obtener las ecuaciones cartesianas, consideramos un vector (x1 , x2 , x3 , x4 ) ∈


W1 . Entonces se tiene

   
1 −1 0 1 1 −1 0 1
2 = r  0 −1 1 1  = r  0 −1 1 1 =
x1 x2 x3 x4 0 x2 + x1 x3 x4 − x1
 
1 −1 0 1
= r  0 −1 1 1 
0 0 x1 + x2 + x3 x2 + x4

De manera que, al permanecer invariante el valor del rango, debe ocu-


rrir x1 + x2 + x3 = 0 y x2 + x4 = 0. Éstas son las ecuaciones cartesianas
de W1 . Escribimos

x1 + x2 + x3 = 0
W1 ≡
x2 + x4 = 0

Otro modo de obtener las ecuaciones cartesianas de W1 es considerar


(x1 , x2 , x3 , x4 ) ∈ W1 y la igualdad
 
1 −1 0 1
2 = r  0 −1 1 1 
x1 x2 x3 x4

Los menores de orden 3 son todos nulos y dan lugar a las ecuaciones
cartesianas de W1 . Sin embargo, no todas serán independientes. Basta
7.1 ESPACIOS VECTORIALES 85

escoger un menor no nulo de orden máximo (de orden 2 en este caso) y


extenderlo a todos los menores de una unidad mayor que sea posible.
Así, se puede elegir el menor

1 −1

0 −1

y extenderlo a los menores de orden 3



1 −1 0 1 −1 1
y

0 −1 1 =0 0 −1 1 =0

x1 x2 x3 x1 x2 x4

Estas dos igualdades dan lugar a las ecuaciones cartesianas de W1 , que


ya habíamos calculado con otro método:

x1 + x2 + x3 = 0
W1 ≡
x2 + x4 = 0

Por otro lado, resulta claro que dim(W2 ) = 2, y una base suya es
BW2 = {(1, −2, 1, 2), (0, −1, 1, 1)}.
Además, como W1 + W2 = L({BW1 ∪ BW2 }), se tiene que

   
1 −1 0 1 1 −1 0 1
dim(W1 + W2 ) = r  0 −1 1 1  = r  0 −1 1 1  = 2
1 −2 1 2 0 −1 1 1

Se deduce entonces que W1 = W2 = W1 + W2 = W1 ∩ W2 . Las


ecuaciones cartesianas, paramétricas y dimensiones de W1 ∩ W2 y de
W1 + W2 serán las de W1 .

14. Determinar, en cada caso, si los vectores que se dan son una base de
R4 .

a) {(2, 1, 0, −1), (1, 2, 1, 0)}.


b) {(0, 1, 2, −1), (1, 0, 1, −1), (0, 0, 2, 1), (0, 0, 1, 2)}.
c) {(1, 0, 1, 0), (0, 1, −1, 1), (2, 1, 1, 0), (1, −1, 2, −1)}.

Si ahora llamamos V1 , V2 y V3 a los subespacios vectoriales generados,


respectivamente, por los vectores de a), b) y c), determinar: dim(Vi ),
i = 1, 2, 3; dim(Vi ∩Vj ), i 6= j , y ecuaciones de la intersección; dim(Vi +
Vj ), i 6= j , y ecuaciones de Vi + Vj ¾En qué casos R4 = Vi ⊕ Vj ?
86 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

En el caso a) no hay base y dim(V1 ) = 2. En el caso b) se tiene que


   
1 0 1 −1 1 0 1 −1
 0 1 2 −1   0 1 2 −1 
r
 0
 = r  = 4,
0 1 2   0 0 1 2 
0 0 2 1 0 0 0 −3

de modo que sí son base de R4 y dim(V2 ) = 4, esto es, V2 = R4 . En el


caso c) se tiene que
   
1 0 1 0 1 0 1 0
 0 1 −1 1   0 1 −1 1 
r
 2 1
 = r
 0 1 −1 0
=
1 0  
1 −1 2 −1 0 −1 1 −1

 
1 0 1 0
 0 1 −1 1 
= r  = 3,
 0 0 0 −1 
0 0 0 0

de manera que en este caso no tenemos base y dim(V3 ) = 3.


A partir de lo observado, es claro que V1 ∩ V2 = V1 y V2 ∩ V3 = V3 , con
lo que dim(V1 ∩ V2 ) = dim(V1 ) = 2 y dim(V2 ∩ V3 ) = dim(V3 ) = 3.
Las ecuaciones cartesianas de V1 ∩V2 son las de V1 . Vamos a calcularlas.
Sea (x1 , x2 , x3 , x4 ) ∈ V1 . Entonces
 
1 2 1 0
2 = r  2 1 0 −1 
x1 x2 x3 x4

Si se escogen los menores



1 2 1 1 2 0
y

2 1 0 =0 2 1 −1 = 0

x1 x2 x3 x1 x2 x4

se obtienen las ecuaciones cartesianas de V1 = V1 ∩ V2



−x1 + 2x2 − 3x3 = 0
V1 = V1 ∩ V2 ≡
−2x1 + x2 − 3x4 = 0

Las ecuaciones paramétricas son


7.1 ESPACIOS VECTORIALES 87



 x1 = λ + 2µ
x2 = 2λ + µ

V1 = V1 ∩ V2 ≡
 x3
 = λ
x4 = −µ

Determinemos ahora las ecuaciones cartesianas de V2 ∩ V3 = V3 . Sea


(x1 , x2 , x3 , x4 ) ∈ V3 . Entonces
 
1 0 1 0
 0 1 −1 1 
3 = r 
 0 0 0 −1 
x1 x2 x3 x4

de modo que la ecuación cartesiana de V2 ∩ V3 = V3 es

V2 ∩ V3 = V3 ≡ {−x1 + x2 + x3 = 0}

Calculemos dim(V1 ∩ V3 ) y sus ecuaciones cartesianas:

dim(V1 ∩ V3 ) = dim(V1 ) + dim(V3 ) − dim(V1 + V3 )

Se puede comprobar que


 
1 2 1 0

 2 1 0 −1 

dim(V1 + V3 ) = r 
 1 0 1 0 =4

 0 1 −1 1 
0 0 0 −1

de modo que dim(V1 ∩ V3 ) = 2 + 3 − 4 = 1.


Las ecuaciones cartesianas de V1 ∩ V3 serán la unión de las ecuaciones
de V1 y las de V3 , esto es,

 −x1 + 2x2 − 3x3 = 0
V1 ∩ V3 ≡ −2x1 + x2 − 3x4 = 0
−x1 + x2 + x3 = 0

A continuación escalonamos la matriz asociada al sistema


   
−1 2 −3 0 −1 2 −3 0
 −2 1 0 −3  →  0 −1 2 −1  →
−1 1 1 0 0 −1 4 0
88 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

 
−1 2 −3 0
→  0 −1 2 −1  ,
0 0 2 1

de manera que se obtiene el sistema escalonado equivalente



 −x1 + 2x2 − 3x3 = 0
V1 ∩ V3 ≡ −x2 + 2x3 − x4 = 0
2x3 + x4 = 0

Se tienen tres incógnitas cabeceras (x1 , x2 , x3 ) y un parámetro (x4 ).


Las ecuaciones paramétricas serán

− 52 λ


 x1 =
x2 = −2λ

V1 ∩ V3 ≡
x = − 12 λ
 3


x4 = λ

Por otro lado, como V2 = R4 , emtonces V1 + V2 = V2 + V3 = R4 , con


lo que dim(V1 + V2 ) = dim(V2 + V3 ) = 4. Además, por la fórmula de
las dimensiones, dim(V1 + V3 ) = dim(V1 ) + dim(V3 ) − dim(V1 ∩ V3 ) =
2 + 3 − 1 = 4, lo cual implica que V1 + V3 = R4 .
Las ecuaciones paramétricas serán


 x1 = λ1
x2 = λ2

V1 + V2 = V2 + V3 = V1 + V3 = R4 ≡
 x3
 = λ3
x4 = λ4

En ninguno de los casos es R4 = Vi ⊕ Vj , ya que Vi ∩ Vj 6= 0̄ para todo


i 6= j .

15. Sean U, V y W los siguientes subespacios de R3 :

U = {(a, b, c)/a+b+c = 0}, V = {(a, b, c)/a = c}, W = {(0, 0, c)/c ∈ R}

Mostrar que:

a) R3 = U + V .
b) R3 = U + W .
c) R3 = V + W .
7.1 ESPACIOS VECTORIALES 89

¾En qué casos es directa la suma?


Probemos a). Basta ver que dim(U + V ) = 3. Por la fórmula de las
dimensiones, dim(U + V ) = dim(U ) + dim(V
 ) − dim(U ∩ V ). La di-
mensión de U es dim(U ) = 3 − r 1 1 1 = 2. La dimensión de V
es dim(V

) = 3 − r 1 0 −1 = 2. Por otro lado, dim(U ∩ V ) =

1 1 1
3−r = 1, con lo que dim(U + V ) = 2 + 2 − 1 = 3. En
1 0 −1
este caso no hay suma directa ya que el subespacio intersección es una
recta.
Probemos b). Basta ver que dim(U + W ) = 3. Es claro que W =
L((0, 0, 1)) y que dim(W ) = 1. Las ecuaciones cartesianas de W son


a = 0
W ≡
b = 0

de modo que
 
1 1 1
dim(U ∩ W ) = 3 − r  1 0 0  = 0
0 1 0

Esto implica que dim(U + W ) = 2 + 1 − 0 = 3. En este caso sí hay


suma directa ya que, al ser dim(U ∩ W ) = 0, se tiene que U ∩ W = 0̄.
Probemos c). Basta ver que dim(V + W ) = 3. Se tiene que
 
1 0 −1
dim(V ∩ W ) = 3 − r  1 0 0  = 0
0 1 0

con lo que dim(V + W ) = 2 + 1 − 0 = 3. En este caso sí hay suma


directa.

16. Sean los subespacios vectoriales de R4 siguientes:


U = L({(1, 1, 0, −1), (1, 2, 3, 0), (2, 3, 3, −1)})

V = L({(1, 2, 2, −2), (2, 3, 2, −3), (1, 3, 4, −3)})


Hallar:

a) dim(U + V ) y ecuaciones de U + V .
b) dim(U ∩ V ) y ecuaciones de U ∩ V .
90 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Resolvamos el apartado a). Como en el apartado b) necesitaremos cal-


cular bases para U y para V , las obtenemos ahora.
   
1 1 0 −1 1 1 0 −1
dim(U ) = r  1 2 3 0  = r  0 1 3 1 
2 3 3 −1 0 1 3 1

Una base para U es BU = {(1, 1, 0, −1), (0, 1, 3, 1)}.


Por otro lado,
   
1 2 2 −2 1 2 2 −2
dim(V ) = r  2 3 2 −3  = r  0 −1 −2 1 
1 3 4 −3 0 1 2 −1

con lo que una base para V es BV = {(1, 2, 2, −2), (0, −1, −2, 1)}.
Como consecuencia, se tiene que

   
1 1 0 −1 1 1 0 −1
 0 1 3 1 
 = r 0 1 3 1 

dim(U + V ) = r  =
 1 2 2 −2   0 1 2 −1 
0 −1 −2 1 0 −1 −2 1

 
1 1 0 −1
 0 1 3 1 
= r =3
 0 0 −1 −2 
0 0 0 0

y una base de U + V será la formada por los vectores

BU +V = {(1, 1, 0, −1), (0, 1, 3, 1), (0, 0, 1, 2)}

Las ecuaciones paramétricas son




 x1 = λ1
x2 = λ1 + λ2

U +V ≡
x = 3λ2 + λ3
 3


x4 = −λ1 + λ2 + 2λ3

Para obtener las ecuaciones cartesianas, se considera un vector (x1 , x2 , x3 , x4 ) ∈


U + V y se observa que
7.1 ESPACIOS VECTORIALES 91

 
1 1 0 −1
 0 1 3 1 
3 = r
 0 0 1

2 
x1 x2 x3 x4

Esto da lugar a la ecuación implícita

U + V ≡ {−4x1 + 5x2 − 2x3 + x4 = 0}

Resolvamos el apartado b). La dimensión de la intersección de U y V


es

dim(U ∩ V ) = dim(U ) + dim(V ) − dim(U + V ) = 2 + 2 − 3 = 1

Las ecuaciones cartesianas se obtienen uniendo las cartesianas de U


con las de V .
Calculemos en primer lugar las ecuaciones de U . Sea (x1 , x2 , x3 , x4 ) ∈
U . Se tiene
 
1 1 0 −1
r 0 1 3 1  = 3,
x1 x2 x3 x4

de modo que, escogiendo


un menor no nulo de orden máximo, por
1 1
ejemplo , y extendiéndolo a todos los menores de orden 3 que
0 1
sea posible, se obtienen las ecuaciones cartesianas de U :

3x1 − 3x2 + x3 = 0
U≡
2x1 − x2 + x4 = 0

Calculemos ahora las ecuaciones de V . Sea (x1 , x2 , x3 , x4 ) ∈ V . Se tiene


 
1 2 2 −2
r  0 −1 −2 1  = 3,
x1 x2 x3 x4

de modo que, escogiendo


un menor no nulo de orden máximo, por
1 2
ejemplo , y extendiéndolo a todos los menores de orden 3

0 −1
que sea posible, se obtienen las ecuaciones cartesianas de V :
92 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS


−2x1 + 2x2 − x3 = 0
V ≡
x2 + x4 = 0

De este modo, las ecuaciones cartesianas de U ∩ V son




 −2x1 + 2x2 − x3 = 0
x2 + x4 = 0

U ∩V ≡

 3x1 − 3x2 + x3 = 0
2x1 − x2 + x4 = 0

Si escalonamos la matriz asociada al sistema


   
−2 2 −1 0 −2 2 −1 0
 0 1 0 1   0 1 0 1 
 3 −3 1 0  → 
   →
0 0 −1 0 
2 −1 0 1 0 1 −1 1
   
−2 2 −1 0 −2 2 −1 0
 0 1 0 1   0 1 0 1 
→ → ,
 0 0 −1 0   0 0 −1 0 
0 0 −1 0 0 0 0 0

el sistema escalonado equivalente es



 −2x1 + 2x2 − x3 = 0
U ∩V ≡ x2 + x4 = 0
x3 = 0

Las incógnitas principales son x1 , x2 , x3 y el parámetro es x4 , de modo


que las ecuaciones paramétricas son


 x1 = −λ
x2 = −λ

U ∩V ≡
x = 0
 3


x4 = λ

17. Sean los subespacios vectoriales de R4 siguientes:


W1 = {(x, y, z, t) ∈ R4 /x − z = 0, y + t = 0}

W2 = L({(0, 0, 0, 1), (1, 1, 1, −1)})

Calcular :

a) dim(W1 ) y dim(W2 ).
7.1 ESPACIOS VECTORIALES 93

b) dim(W1 ∩ W2 ) y ecuaciones de W1 ∩ W2 . ¾Es R4 = W1 ⊕ W2 ?


c) Hallar dim(W1 + W2 ).

Resolvamos el caso a). Se tiene


 
1 0 −1 0
dim(W1 ) = 4 − r =2 y
0 1 0 1
 
1 1 1 −1
dim(W2 ) = r =2
0 0 0 1

Estudiemos el caso b). Primero calculamos las ecuaciones de W1 ∩ W2 .


Para ello basta obtener las de W2 . Sea (x, y, z, t) ∈ W2 . Entonces
 
1 1 1 −1
2 = r 0 0 0 1 
x y z t

lo
cual da
lugar, si escogemos el menor no nulo de orden máximo
1 −1
y lo extendemos a todos los menores de orden 3 que po-
0 1
damos, a las ecuaciones

x−z = 0
W2 ≡
y−z = 0

De este modo, las ecuaciones cartesianas de W1 ∩ W2 son



 x−z = 0
W1 ∩ W2 ≡ y+t = 0
y−z = 0

El sistema escalonado asociado es



 x−z = 0
W1 ∩ W2 ≡ y+t = 0
z+t = 0

Las ecuaciones paramétricas son




 x = −λ
y = −λ

W1 ∩ W2 ≡
 z
 = −λ
t = λ

94 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Resulta dim(W1 ∩ W2 ) = 1. por lo que no hay suma directa.


Resolvamos el apartado c). Por la fórmula de las dimensiones, dim(W1 +
W2 ) = 2 + 2 − 1 = 3.

18. En R4 se consideran los subespacios vectoriales

W1 = {(x, y, z, t) ∈ R4 /x − y = 0, z + t = 0}

W2 = L({(1, 1, −2, 2), (1, 0, −1, 0)}).

Calcular ecuaciones paramétricas, implícitas y bases de W1 , W2 , W1 ∩


W2 y W1 + W2 . ¾Es R4 = W1 ⊕ W2 ?
Las ecuaciones implícitas de W1 vienen dadas en el enunciado del ejer-
cicio. Las paramétricas son


 x = λ
y = λ

W1 ≡

 z = −µ
t = µ

Una base de W1 es BW1 = {(1, 1, 0, 0), (0, 0, −1, 1)}.


Una base de W2 es BW2 = {(1, 1, −2, 2), (1, 0, −1, 0)}. Las ecuaciones
paramétricas son


 x = λ+µ
y = λ

W2 ≡

 z = −2λ − µ
t = 2λ

Obtengamos las ecuaciones cartesianas de W2 . Dado (x, y, z, t) ∈ W2 ,


 
1 1 −2 2
2 = r  1 0 −1 0 
x y z t

1 1
Al escoger el menor no nulo de orden máximo y extenderlo a

1 0
todos los menores posibles de orden 3, resulta

x+y+z = 0
W2 ≡
2y − t = 0

Las ecuaciones cartesianas de W1 ∩ W2 son


7.1 ESPACIOS VECTORIALES 95



 x−y = 0
z+t = 0

W1 ∩ W2 ≡
 x+y+z
 = 0
2y − t = 0

Si escalonamos la matriz asociada al sistema, obtenemos


   
1 −1 0 0 1 −1 0 0
 0 0 1 1   0 2 1 0 
 1 1 1 0  → ··· → 
   
0 0 1 1 
0 2 0 −1 0 0 0 0

Entonces

 x−y = 0
W1 ∩ W2 ≡ 2y + z = 0
z+t = 0

Las ecuaciones paramétricas son




 x = −λ
y = −λ

W1 ∩ W2 ≡
 z
 = −2λ
t = 2λ

Una base es BW1 ∩W2 = {(−1, −1, −2, 2)}.


Obtengamos una base de W1 + W2 . Por la fórmula de las dimensiones
sabemos que dim(W1 + W2 ) = 2 + 2 − 1 = 3. Como W1 + W2 =
L({(1, 1, 0, 0), (0, 0, −1, 1), (1, 1, −2, 2), (1, 0, −1, 0)}) basta escoger tres
vectores de la envolvente lineal que sean linealmente independientes
para tener una base, por ejemplo

BW1 +W2 = {(1, 1, 0, 0), (0, 0, −1, 1), (1, 0, −1, 0)}.

Las ecuaciones paramétricas son




 x = λ1 + λ3
y = λ1

W1 + W2 ≡

 z = −λ2 − λ3
t = λ2

La ecuación cartesiana se obtiene considerando (x, y, z, t) ∈ W1 + W2


y observando que
96 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

 
1 1 0 0
 0 0 −1 1 
3 = r .
 1 0 −1 0 
x y z t

Resulta W1 + W2 ≡ {−x + y − z − t = 0}. Es evidente que no hay suma


directa.
19. Sean

W1 = L({(−1, 0, 0, 1), (0, −1, −1, 1), (0, 1, −1, 0)}),

W2 = {(x, y, z, t) ∈ R4 /x + t = 0}.

a) Calcular las ecuaciones implícitas y paramétricas de W2 .


b) Dar bases de W1 ∩ W2 y de W1 + W2 .

Resolvamos el apartado a). La ecuación implícita de W2 es W2 ≡ {x +


t = 0}. Al pasar a paramétricas, se tiene


 x = −λ3
y = λ1

W2 ≡

 z = λ2
t = λ3

Una base para W2 es BW2 = {(0, 1, 0, 0), (0, 0, 1, 0), (−1, 0, 0, 1)}.
Resolvamos el apartado b). En primer lugar, encontremos una base de

W1 +W2 = L({(−1, 0, 0, 1), (0, −1, −1, 1), (0, 1, −1, 0), (0, 1, 0, 0), (0, 0, 1, 0)})

Escalonamos la matriz que tiene por las a los vectores generadores de


W1 + W2 .

     
−1 0 0 1 −1 0 0 1 −1 0 0 1

 0 −1 −1 1 


 0 −1 −1 1 


 0 −1 −1 1 


 0 1 −1 0 →
  0 0 −2 1 →
  0 0 −2 1 

 0 1 0 0   0 0 −1 1   0 0 0 −1 
0 0 1 0 0 0 1 0 0 0 0 1

Esto demuestra que dim(W1 + W2 ) = 4, de modo que W1 + W2 = R4 .


Una base puede ser la canónica de R4 .
7.1 ESPACIOS VECTORIALES 97

La dimensión de W1 ∩W2 es, por la fórmula de las dimensiones, dim(W1 ∩


W2 ) = 3 + 3 − 4 = 2. Para obtener una base, determinamos antes sus
ecuaciones cartesianas.
Primero hallamos las ecuaciones implícitas de W1 . Sea (x, y, z, t) ∈ W1 .
Entonces
 
−1 0 0 1
 0 −1 −1 1 
3 = r ,
 0 1 −1 0 
x y z t
de modo que W1 ≡ {2x + y + z + 2t = 0}.
Las ecuaciones implícitas de W1 ∩ W2 son
 
2x + y + z + 2t = 0 2x + y + z + 2t = 0
W1 ∩ W2 ≡ ∼
x+t = 0 y+z = 0

Al pasar a paramétricas, queda




 x = −λ2
y = −λ1

W1 ∩ W2 ≡

 z = λ1
t = λ2

de manera que una base será BW1 ∩W2 = {(0, −1, 1, 0), (−1, 0, 0, 1)}.
20. En el espacio vectorial real M2×2 (R) se consideran los subespacios vec-
toriales
  
a b
W1 = ∈ M2×2 (R)/a + b + c + d = 0
c d
   
1 1 0 0
W2 = L ,
1 1 0 1
Calcular una base, ecuaciones implícitas y paramétricas de W1 , W2 ,
W1 + W2 y W1 ∩ W2 .
Si jamos la base canónica de M2×2 (R),
       
1 0 0 1 0 0 0 0
Bc = , , ,
0 0 0 0 1 0 0 1

y trabajamos con coordenadas respecto de Bc , el subespacio W1 tiene


ecuación cartesiana W1 ≡ {x + y + z + t = 0} (hemos cambiado a, b, c, d
por x, y, z, t). Por otro lado, el subespacio W2 se puede escribir como
W2 = L((1, 1, 1, 1), (0, 0, 0, 1)) con coordenadas respecto de Bc
98 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Los vectores
 (1, 1,1, 0, 1) representan las coordenadas de las
1), (0, 0,
1 1 0 0
matrices , respecto de la base Bc . De este modo,
1 1 0 1
trabajando con las coordenadas, manipulamos vectores de R4 en vez
de matrices.
Las ecuaciones paramétricas de W1 son


 x = −λ1 − λ2 − λ3
y = λ1

W1 ≡

 z = λ2
t = λ3

Una base de W1 es
BW1 = {(−1, 1, 0, 0), (−1, 0, 1, 0), (−1, 0, 0, 1)} con coordenadas respecto de Bc

De modo que
     
−1 1 −1 0 −1 0
BW1 = , ,
0 0 1 0 0 1

Una base de W2 es
   
1 1 0 0
BW2 = ,
1 1 0 1

Las coordenadas de estas matrices respecto de Bc son (1, 1, 1, 1), (0, 0, 0, 1),
de modo que las ecuaciones paramétricas de W2 son


 x = λ1
y = λ1

W2 ≡

 z = λ1
t = λ1 + λ2

 
x y
Determinemos ahora las ecuaciones cartesianas de W2 . Sea A = ∈
z t
W2 . Entonces, trabajando con coordenadas,
 
1 1 1 1
2 = r 0 0 0 1 
x y z t

1 1
Escogiendo un menor no nulo de orden máximo, por ejemplo ,

0 1
y extendiéndolo a todos los menores de orden 3 posibles, se tienen las
ecuaciones cartesianas de W2 ,
7.1 ESPACIOS VECTORIALES 99


x−z = 0
W2 ≡
y−z = 0

Estudiemos ahora W1 + W2 . Al trabajar en coordenadas:


W1 +W2 = L({(−1, 1, 0, 0), (−1, 0, 1, 0), (−1, 0, 0, 1), (1, 1, 1, 1), (0, 0, 0, 1)})

No debe olvidarse que estos vectores representan las coordenadas de


matrices respecto de Bc . Si se calcula el rango de la matriz que tiene
a estos vectores por las (o columnas), resulta
 
−1 1 0 0

 −1 0 1 0 

r
 −1 0 0 1 =4

 1 1 1 1 
0 0 0 1

Debido a que dim(M2×2 (R)) = 4, deducimos que W1 +W2 = M2×2 (R).


Una base de W1 +W2 puede ser la base canónica Bc con la que estamos
trabajando.
Las ecuaciones paramétricas serán


 x = λ1
y = λ2

W1 + W2 ≡

 z = λ3
t = λ4

Falta estudiar W1 ∩W2 . La dimensión es dim(W1 ∩W2 ) = 3+2−4 = 1.


Calculemos las ecuaciones implícitas.

 x+y+z+t = 0
W1 ∩ W2 ≡ x−z = 0
y−z = 0

En este caso no es necesario escalonar el sistema para pasar a paramétri-


cas ya que resulta trivial. Al tener un solo parámetro, podemos suponer
que es x = λ y obtenemos:


 x = λ
y = λ

W1 ∩ W2 ≡

 z = λ
t = −3λ

 
1 1
Una base de W1 ∩ W2 es BW1 ∩W2 =
1 −3
100 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

21. Dada la base de R3 , B = {v1 = (1, 1, 1), v2 = (1, 1, 2), v3 = (1, 2, 3)},
hallar las coordenadas del vector x = (6, 9, 14) en dicha base, determi-
nando previamente la matriz de cambio de base P = M (Bc , B) de la
base canónica Bc en la base B .
Resulta

 −1  
1 1 1 1 1 −1
P = M (Bc , B) = M (B, Bc )−1 =  1 1 2  =  1 −2 1 
1 2 3 −1 1 0

Dado un vector x̄ ∈ R3 , denotamos por XB y por XBc a las coordenadas


de x̄ respecto de las bases B y Bc respectivamente. Dado que XB =
M (Bc , B)XBc , obtenemos
    
1 1 −1 6 1
XB =  1 −2 1   9  =  2 
−1 1 0 14 3

22. En R3 se consideran las bases


B1 = {(1, 0, 1), (−1, 1, 1), (1, −1, 0)} y B2 = {(2, 1, 1), (1, 1, 1), (1, −1, 1)}

a) Calcular la matriz de cambio de base de B2 a B1 .


b) Calcular las coordenadas en la base B1 del vector cuyas coorde-
nadas en B2 son (3, −2, 2).
Resolvamos el apartado a). Para calcular M (B2 , B1 ) basta escribir
los vectores de la base B2 en función de los vectores de B1 . Las
coordenadas obtenidas serán las columnas de la matriz pedida.
Esto implica resolver tres sistemas de tres ecuaciones con tres in-
cógnitas, algo que puede resultar demasiado costoso. Es preferible
obtener dicha matriz de un modo indirecto.
Dado un vector x̄ ∈ R3 con coordenadas XB1 , XB2 y XBc respecto
de las bases B1 , B2 y la canónica Bc respectivamente, se tiene

XB1 = M (B2 , B1 )XB2 = M (Bc , B1 )M (B2 , Bc )XB2


La última igualdad se obtiene de observar que M (B2 , Bc )XB2 =
XBc y, por tanto, M (Bc , B1 )M (B2 , Bc )XB2 = XB1 .
En consecuencia, se deduce la igualdad
M (B2 , B1 ) = M (Bc , B1 )M (B2 , Bc ).

Obtendremos M (B2 , B1 ) calculando las otras dos matrices.


7.1 ESPACIOS VECTORIALES 101

Es claro que
 
2 1 1
M (B2 , Bc ) =  1 1 −1 
1 1 1
y
 −1  
1 −1 1 1 1 0
M (Bc , B1 ) = M (B1 , Bc )−1 =  0 1 −1  =  −1 −1 1 
1 1 0 −1 −2 1

Por consiguiente,

    
1 1 0 2 1 1 3 2 0
M (B2 , B1 ) =  −1 −1 1   1 1 −1  =  −2 −1 1 
−1 −2 1 1 1 1 −3 −2 2

Veamos el apartado b). Se nos pide obtener las coordenadas de


un vector x̄ con respecto a la base B1 , XB1 , sabiendo que sus
coordenadas respecto de B2 son XB2 = (3, −2, 2). Como XB1 =
M (B2 , B1 )XB2 ,
    
3 2 0 3 5
XB1 =  −2 −1 1   −2  =  −2 
−3 −2 2 2 −1
102 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

7.2. APLICACIONES LINEALES

1. Estudiar si las siguientes aplicaciones son lineales:

a) f : R2 → R3 , f (x, y) = (x + y, y, x − 2y). Sí es lineal.


b) f : R2 → R, f (x, y) = xy . No es lineal. Basta observar que
f (2(1, 1)) = f (2, 2) = 4, que es distinto de 2f (1, 1) = 2.
c) f : R2 → R3 , f (x, y) = (x + 1, 2y, x + y). No es lineal. Basta
observar que f (0, 0) 6= (0, 0, 0).
d) f : R3 → R2 , f (x, y, z) = (z, y + x). Sí es lineal.
e) f : R2 → R, f (x, y) = |x − y|. No es lineal. Basta observar que
f (−1(1, 0)) = 1 es distinto de −f (1, 0) = −1.
f) f : R3 → R2 [t], f (x, y, z) = (y + z)t2 + (x + y)t + z . Sí es lineal.
g) f : Mn×n (R) → Mn×n (R), f (A) = AT . Sí es lineal. Se tiene
que f ((A + B)) = (A + B)T = AT + B T = f (A) + f (B) y
f (λA) = (λA)T = λAT = λf (A).
Los resultados no probados se dejan como tarea para el alumno.
2. Dadas f y g de R3 en R3 , f (x1 , x2 , x3 ) = (x1 , x2 , x1 + x2 − x3 ) y
g(x1 , x2 , x3 ) = (2x1 , x2 − 1, x3 ), ver si son lineales y, en ese caso, hallar
el núcleo y la imagen.
La aplicación f es lineal. La comprobación se deja como ejercicio para
el alumno. La aplicación g no es lineal (g(0, 0, 0) 6= (0, 0, 0)).

Ker(f ) = {x̄ ∈ R3 : f (x̄) = 0̄} =

= {(x1 , x2 , x3 ) : x1 = 0, x2 = 0, x1 + x2 − x3 = 0}

Dicho de otro modo, Ker(f ) es el subespacio vectorial de R3 de ecua-


ciones cartesianas

 x1 = 0
Ker(f ) ≡ x2 = 0
x1 + x2 − x3 = 0

Al resolver, resulta Ker(f ) = {(0, 0, 0)}. Por otro lado, Im(f ) =


L(f (B)), siendo B cualquier base del espacio de partida R3 , por ejem-
plo la base canónica. Así:
Im(f ) = L(f (1, 0, 0), f (0, 1, 0), f (0, 0, 1)) =

= L((1, 0, 1), (0, 1, 1), (0, 0, −1)) = R3


7.2 APLICACIONES LINEALES 103

3. Determinar la dimensión y bases de Ker(f ) e Im(f ) para las siguientes


aplicaciones lineales:

a) f (x1 , x2 , x3 ) = (2x1 , x1 + x2 , 3x3 ).


Se tiene 
 2x1 = 0
Ker(f ) = x1 + x2 = 0
3x3 = 0

Dicho de otro modo, Ker(f ) = {(0, 0, 0)}, con lo que dim(Ker(f )) =


0 y no hay base. Por otro lado, si Bc es la base canónica de R3 ,

Im(f ) = L((f (Bc )) = L((2, 1, 0), (0, 1, 0), (0, 0, 1)) = R3 .

Para llegar a esta conclusión habría bastado aplicar la fórmula de


las dimensiones para aplicaciones lineales, que permite concluir
que dim(Im(f )) = 3. Una base de Im(f ) es cualquier base de
R3 , por ejemplo la canónica.
b) f (x1 , x2 ) = (2x1 + x2 , x1 − 2x2 , x2 ).
Calculemos Ker(f ):

 2x1 + x2 = 0
Ker(f ) ≡ x1 − 2x2 = 0
x2 = 0

de modo que Ker(f ) = {(0, 0)} y dim(Ker(f )) = 0.


Por otro lado,
Im(f ) = L(f (Bc )) = L((2, 1, 0), (1, −2, 1))

con lo que dim(Im(f )) = 2 y una base suya es BIm(f ) = {(2, 1, 0), (1, −2, 1)}
c) f (x1 , x2 , x3 ) = (x1 , x2 , x1 + x2 − x3 ).
Se tiene 
 x1 = 0
Ker(f ) = x2 = 0
x1 + x2 − x3 = 0

de modo que Ker(f ) = {(0, 0, 0)} y dim(Ker(f )) = 0, por lo


que no hay base. Si aplicamos la fórmula de las dimensiones para
aplicaciones lineales, 3 = dim(Ker(f )) + dim(Im(f )), de manera
que dim(Im(f )) = 3 y, por tanto, Im(f ) = R3 .
d) f (x1 , x2 , x3 , x4 ) = (x1 − x2 , 2x3 + x4 ).
Calculemos Ker(f ):

x1 − x2 = 0
Ker(f ) =
2x3 + x4 = 0
104 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Pasando a ecuaciones paramétricas queda




 x1 =λ
x2 =λ

Ker(f ) ≡
 x3
 = −µ
x4 = 2µ

Por tanto, dim(Ker(f )) = 2 y una base es

BKer(f ) = {(1, 1, 0, 0), (0, 0, −1, 2)}.

La dimensión de la imagen de f es dim(Im(f )) = dim(R4 ) −


dim(Ker(f )) = 4 − 2 = 2. Al estar Im(f ) contenida en R2 ,
resulta Im(f ) = R2 . Una base puede ser BIm(f ) = {(1, 0), (0, 1)}.

4. Sea f : R4 → R2 el homomorsmo denido por


 
1 −1 0 0
A=
1 0 1 2

y sea W el subespacio de R2 denido por x1 − x2 = 0. Hallar las


ecuaciones de f −1 (W ).
El subespacio vectorial f −1 (W ) se dene como

f −1 (W ) = {x̄ = (x, y, z, t) ∈ R4 : f (x̄) ∈ W } = {x̄ ∈ R4 : Ax̄ ∈ W },

esto es,

f −1 (W ) = {(x, y, z, t) ∈ R4 : (x − y, x + z + 2t) ∈ W } =

= {(x, y, z, t) ∈ R4 : x − y − (x + z + 2t) = 0}

La ecuación cartesiana de f −1 (W ) es:

f −1 (W ) ≡ {y + z + 2t = 0}

5. Sea f : R4 → R3 denida por


 
−1 1 −1 2
A =  1 −1 0 0 
0 0 1 −2

y sea W el subespacio de R4 de ecuaciones x1 −x2 = 0, x1 +x2 +x4 = 0.


¾Cuáles son las ecuaciones de f (W ) en R3 ?
7.2 APLICACIONES LINEALES 105

Téngase en cuenta que f (W ) = L(f (BW )), siendo BW una base del
subespacio W . El primer paso será obtener BW .
 
x1 − x2 = 0 x1 − x2 = 0
W ≡ ∼
x1 + x2 + x4 = 0 2x2 + x4 = 0

Al pasar a paramétricas,

x1 = − 21 µ




 x2 = − 12 µ


W ≡

 x3 = λ


 x4 = µ

de modo que una base de W es BW = {(−1, −1, 0, 2), (0, 0, 1, 0)}.


Concluimos

f (W ) = L(f (−1, −1, 0, 2), f (0, 0, 1, 0)) =

= L((4, 0, −4), (−1, 0, 1)) = L((−1, 0, 1))

Las ecuaciones paramétricas son



 y1 = −λ
f (W ) ≡ y2 = 0
y3 = λ

Obtengamos las ecuaciones cartesianas. Sea (y1 , y2 , y3 ) ∈ f (W ). En-


tonces  
−1 0 1
1=r
y1 y2 y3

se escoge -1 como menor no nulo de orden máximo y se extiende a dos


menores de orden 2 nulos que dan lugar a las ecuaciones:

y1 + y3 = 0
f (W ) ≡
y2 = 0

6. Sean B = {e1 , e2 , e3 } una base de R3 y B 0 = {e01 , e02 } una base de


R2 . Se dene f : R3 → R2 de la siguiente forma: f (e1 ) = e01 − e02 ,
f (e2 ) = 2e01 , f (e3 ) = e01 − 2e02 . Hallar las ecuaciones de f , dim(Ker(f ))
y dim(Im(f )). Determinar si f es un monomorsmo, un epimorsmo
o un isomorsmo.
106 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

La matriz asociada a la aplicación lineal f respecto de las bases B y


B 0 es:  
1 2 1
A = M (f, B, B 0 ) =
−1 0 −2

Dado un vector x̄ ∈ R3 , con coordenadas XB = (x1 , x2 , x3 ) respecto de


la base B y, dada su imagen f (x̄) = ȳ con coordenadas YB 0 = (y1 , y2 )
respecto de B 0 , se tiene la ecuación matricial
 
    x1
y1 1 2 1  x2 
=
y2 −1 0 −2
x3

A esta expresión se la llama ecuación matricial de f respecto de las


bases B y B 0 .
Las ecuaciones de f son

y1 = x1 + 2x2 + x3
y2 = −x1 − 2x3

Por otro lado, dado que las columnas de la matriz A son las coorde-
nadas de un sistema de generadores de Im(f ) , entonces dim(Im(f )) =
r(A) = 2. En consecuencia, Im(f ) = R2 . Por la fórmula de las dimen-
siones para aplicaciones lineales, dim(Ker(f )) = 3 − 2 = 1. El homo-
morsmo f es un epimorsmo y no es un monomorsmo ni, por tanto,
un isomorsmo.
7. Sea la aplicación f : E → F , con E y F de dimensiones 3 y 4 res-
pectivamente, denida de la siguiente forma: f (e2 ) = −e01 + e02 − e04 ,
f (e3 ) = e01 + e02 − e03 + e04 y e1 ∈ Ker(f ). Hallar dimensión y una base
para Ker(f ) y para Im(f ).
Calculemos la matriz A = M (f, B, B 0 ), siendo B = {e1 , e2 , e3 } y B 0 =
{e01 , e02 , e03 , e04 } bases de E y F respectivamente.
 
0 −1 1
 0 1 1 
A= 
 0 0 −1 
0 −1 1
Entonces
dim(Im(f )) = r(A) = 2 dim(Ker(f )) = dim(E)−dim(Im(f )) = 1

Sabemos que Im(f ) = L((−1, 1, 0, 1), (1, 1, −1, 1)), de modo que
BIm(f ) = {(−1, 1, 0, 1), (1, 1, −1, 1)}, todo ello con coordenadas respec-
to de B 0 . Así que Im(f ) = L(−e01 + e02 − e04 , e01 + e02 − e03 + e04 ), y una
base suya es BIm(f ) = {−e01 + e02 − e04 , e01 + e02 − e03 + e04 }.
7.2 APLICACIONES LINEALES 107

Falta ahora determinar una base de Ker(f ).




 −x2 + x3 = 0
x2 + x3 = 0

Ker(f ) ≡
x = 0
 3


−x2 + x3 = 0

Pasando a paramétricas

 x1 = λ
Ker(f ) ≡ x2 = 0
x3 = 0

Por consiguiente, una base es BKer(f ) = {e1 } (téngase en cuenta que


(1, 0, 0) son las coordenadas de e1 respecto de B ).

8. Sea la aplicación f : R2 → R4 denida de la siguiente forma: f (2, −1) =


(1, 0, −1, 3) y f (4, 1) = (2, −2, 3, 1). Calcular:

a) La matriz asociada respecto de las bases canónicas.


b) Las ecuaciones de Im(f ).
Resolvamos a).
 
1 1
f (1, 0) = f ((2, −1) + (4, 1)) = f ((2, −1) + (4, 1))
6 6

1 1
= (f (2, −1) + f (4, 1)) = ((1, 0, −1, 3) + (2, −2, 3, 1)) =
6 6
 
1 −1 1 2
= , , ,
2 3 3 3

Por otro lado,

 
1 1
f (0, 1) = f (−2(2, −1) + (4, 1)) = f (−2(2, −1) + (4, 1))
3 3

1 1
= (−2f (2, −1) + f (4, 1)) = (−2(1, 0, −1, 3) + (2, −2, 3, 1)) =
3 3
 
−2 5 −5
= 0, , ,
3 3 3

Por consiguiente, la matriz A = M (f, Bc , Bc0 ), siendo Bc y Bc0 las bases


canónicas de R2 y R4 respectivamente, es
108 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

 
1/2 0
 −1/3 −2/3 
A=
 1/3

5/3 
2/3 −5/3
Esta matriz también se puede hallar observando que
M (f, Bc , Bc0 ) = M (f, B, Bc0 )M (Bc , B)

siendo B la base B = {(2, −1), (4, 1)}. Se tiene


 
1 2
 0 −2 
M (f, B, Bc0 ) =  
 −1 3 
3 1
y
 −1  
2 4 1/6 −2/3
M (Bc , B) = M (B, Bc )−1 = =
−1 1 1/6 1/3

Sólo queda multiplicar las dos matrices:


 
1/2 0
 −1/3 −2/3 
M (f, Bc , Bc0 ) = M (f, B, Bc0 )M (Bc , B) = 
 1/3

5/3 
2/3 −5/3

Resolvamos el apartado b). Se tiene Im(f ) = L((1, 0, −1, 3), (2, −2, 3, 1)),
de manera que una base suya es la formada por estos dos vectores. Las
ecuaciones paramétricas son


 y1 = λ + 2µ
y2 = −2µ

Im(f ) ≡
y = −λ + 3µ
 3


y4 = 3λ + µ

Determinemos las ecuaciones cartesianas de Im(f ). Sea (y1 , y2 , y3 , y4 ) ∈


Im(f ). Entonces
 
1 0 −1 3
2 = r  2 −2 3 1 
y1 y2 y3 y4

de modo que las ecuaciones cartesianas son



−2y1 − 5y2 − 2y3 = 0
Im(f ) ≡
6y1 + 5y2 − 2y4 = 0
7.2 APLICACIONES LINEALES 109

9. Sea la aplicación f : R3 → R3 denida de la siguiente forma: f (x1 e1 +


x2 e2 + x3 e3 ) = (x2 + x3 )e1 + (x1 + x3 )e2 + (x2 − x1 )e3 .

a) Calcular la expresión analítica.


b) Encontrar los vectores invariantes.
c) Calcular las ecuaciones de Ker(f ) e Im(f ).
d) Hallar una base de Ker(f ) y ampliarla a R3 .
e) Hallar la expresión analítica respecto de esta última base.
Resolvamos a). La matriz A = M (f, B, B) con B = {e1 , e2 , e3 } es
 
0 1 1
A= 1 0 1 
−1 1 0

La expresión analítica es

 y1 = x2 + x3
y2 = x1 + x3
y3 = −x1 + x2

Resolvamos b). Los vectores invariantes, Invar(f ), son aquellos x̄ tales


que x̄ = f (x̄). Es fácil probar que Invar(f ) tiene estructura de subes-
pacio vectorial de R3 .

Invar(f ) = {x̄ : Ax̄ = x̄}

 
 x1 = x2 + x3  x1 − x2 − x3 = 0
Invar(f ) ≡ x2 = x1 + x3 ∼ x1 − x2 + x3 = 0 ∼
x3 = −x1 + x2 −x1 + x2 − x3 = 0
 

x1 − x2 − x3 = 0

x3 = 0

Si se pasa a paramétricas y se obtiene una base, resulta Invar(f ) =


L((1, 1, 0)) (con coordenadas respecto de B ), esto es, la recta engen-
drada por el vector e1 + e2 es una recta invariante (la imagen de cada
vector es él mismo).
Resolvamos c). El núcleo Ker(f ) es

 x1 + x3 = 0 
x1 + x3 = 0
Ker(f ) ≡ x2 + x3 = 0 ∼
x2 + x3 = 0
−x1 + x2 = 0

110 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Las ecuaciones paramétricas son



 x1 = −λ
Ker(f ) ≡ x2 = −λ
x3 = λ

Por otro lado,


Im(f ) = L((0, 1, −1), (1, 0, 1), (1, 1, 0)) = L((0, 1, −1), (1, 0, 1))

Es claro que BIm(f ) = {(0, 1, −1), (1, 0, 1)}, de modo que las ecuaciones
paramétricas son 
 y1 = µ
Im(f ) ≡ y2 = λ
y3 = −λ + µ

Para obtener las ecuaciones implícitas, consideramos un vector ȳ ∈


Im(f ) con coordenadas (y1 , y2 , y3 )
respecto de la base B . Entonces
 
1 0 1
2 = r 0 1 −1 
y1 y2 y3

por lo que la ecuación cartesiana es Im(f ) ≡ {−y1 + y2 + y3 = 0}.


Resolvamos el apartado d). Una base de Ker(f ) es BKer(f ) = {(−1, −1, 1)},
con coordenadas respecto de B , esto es, BKer(f ) = {−e1 −e2 +e3 }. Para
extenderlo a una base de R3 basta escoger otros dos vectores que, junto
al primero, sean base; por ejemplo, BR3 = {(−1−1, 1), (0, 1, 0), (0, 0, 1)},
con coordenadas respecto de B , de manera que BR3 = {−e1 − e2 +
e3 , e2 , e3 }
Estudiemos el apartado e). Sabemos que
f (−e1 − e2 + e3 ) = 0̄ = 0(−e1 − e2 + e3 ) + 0e2 + 0e3
f (e2 ) = e1 + e3 = −1(−e1 − e2 + e3 ) − 1e2 + 2e3
f (e3 ) = e1 + e2 = −1(−e1 − e2 + e3 ) + 0e2 + 1e3
De manera que la matriz asociada a f respecto a esta base es
 
0 −1 −1
M =  0 −1 0 
0 2 1

La expresión analítica es

 y1 = −x2 − x3
y2 = −x2
y3 = 2x2 + x3

7.2 APLICACIONES LINEALES 111

10. Sea la aplicación f : R3 → R2 dada por f (1, 0, 1) = (0, 1), f (0, 0, −1) =
(1, 1), f (2, 1, 1) = (1, 0)

a) Hallar la matriz de f respecto de las bases canónicas.


b) Hallar la matriz de f respecto de las bases

B1 = {(1, 0, 1), (0, 0, −1), (2, 1, 1)} y B2 = {(0, 1), (1, 0)}.

c) Hallar ecuaciones y dimensión de Ker(f ) e Im(f ).

Resolvamos el apartado a). Se tiene


f (1, 0, 0) = f ((1, 0, 1) + (0, 0, −1)) = f (1, 0, 1) + f (0, 0, −1) =
= (0, 1) + (1, 1) = (1, 2).
f (0, 1, 0) = f ((2, 1, 1) − 2(1, 0, 1) − (0, 0, −1)) =
= f (2, 1, 1) − 2f (1, 0, 1) − f (0, 0, −1) = (0, −3).
f (0, 0, 1) = f (−(0, 0, −1)) = (−1, −1).
De modo que, si Bc y Bc0 son las bases canónicas de R3 y R2 respecti-
vamente, la matriz A = M (f, Bc , Bc0 ) es
 
1 0 −1
A=
2 −3 −1

Resolvamos el apartado b). La matriz M (f, B1 , B2 ) es


 
1 1 0
M (f, B1 , B2 ) =
0 1 1

Veamos el apartado c). Para determinar las ecuaciones de Ker(f ) y de


Im(f ) basta considerar la matriz

 
1 0 −1
A=
2 −3 −1

Como Im(f ) = L((1, 2), (0, −3), (−1, 1)) = R2 , dim(Im(f )) = 2.


Por la fórmula de las dimensiones, dim(Ker(f )) = 3 − 2 = 1. Las
ecuaciones cartesianas son

x1 − x3 = 0
Ker(f ) ≡
2x1 − 3x2 − x3 = 0
112 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

11. Sea la aplicación f : R3 → R4 tal que


 
1 0 1
 0 1 1 
F =
 2

2 4 
1 1 a

Se pide :
a) Calcular "a" para que f sea inyectiva.
b) Si f no es inyectiva, hallar f (L1 ), siendo L1 el subespacio de
ecuaciones 2x1 − x3 = 0.
c) Sea L2 el subespacio de ecuaciones x1 + x2 − x4 = 0, 3x1 + 3x2 −
x3 − x4 = 0 y f no inyectiva. Hallar una base de L2 ∩ f (L1 ) y de
L2 + f (L1 ).

Resolvamos a). Se tiene


f inyectiva ⇐⇒ dim(Ker(f )) = 0 ⇐⇒ dim(Im(f )) = r(F ) = 3

Por otro lado,


   
1 0 2 1 1 0 2 1
r(F ) = r  0 1 2 1  → · · · →  0 1 2 1 
1 1 4 a 0 0 0 a−2

De manera que f es inyectiva si y sólo si a 6= 2.


Resolvamos b). Tenemos a = 2. Al pasar L1 a paramétricas y obtener
una base, resulta BL1 = {(1, 0, 2), (0, 1, 0)}. Por consiguiente,
f (L1 ) = L(f (1, 0, 2), f (0, 1, 0)) = L((3, 2, 10, 5), (0, 1, 2, 1))

El cálculo de las ecuaciones cartesianas es una tarea rutinaria, dando


como resultado

−2x1 − 2x2 + x3 = 0
f (L1 ) ≡
x1 + x2 − x3 = 0

Resolvamos el apartado c). Tenemos a = 2. Las ecuaciones de L2 son



x1 + x2 − x4 = 0
L2 ≡
−x3 + 2x4 = 0

Pasando a paramétricas se obtiene una base para L2 ,


BL2 = {(−1, 1, 0, 0), (1, 0, 2, 1)}.
7.2 APLICACIONES LINEALES 113

Las ecuaciones cartesianas de L2 unidas a las de f (L1 ) dan lugar a



x1 + x2 − x4 = 0 
 x1 + x2 − x4 = 0


−x3 + 2x4 = 0

L2 ∩ f (L1 ) ≡ ∼ −x3 + 2x4 = 0
−2x1 − 2x2 + x3 = 0
x4 = 0

 
x1 + x2 − x3 = 0

Pasando a paramétricas,


 x1 = −λ
x2 =λ

L2 ∩ f (L1 ) ≡
 x3
 =0
x4 =0

Una base es BL2 ∩f (L1 ) = {(−1, 1, 0, 0)}.


Obtengamos ahora una base para
L2 + f (L1 ) = L((3, 2, 10, 5), (0, 1, 2, 1), (−1, 1, 0, 0), (1, 0, 2, 1)}

Escalonando la matriz
   
1 0 2 1 1 0 2 1
 −1 1 0 0 
  0 1 2 1 

 0 → 
1 2 1   0 1 2 1 
3 2 10 5 0 2 4 2

se tiene una base de L2 + f (L1 ), BL2 +f (L1 ) = {(1, 0, 2, 1), (0, 1, 2, 1)}.
12. Sea la aplicación f : R2 [x] → R2 [x], denida por f (p(x)) = p0 (x).
Hallar la matriz asociada (con respecto a la base B = {1, x, x2 }), ecua-
ciones, Ker(f ), Im(f ) . Determinar si es un monomorsmo, epimor-
smo, isomorsmo.
Como
f (1) = 0 = 0 · 1 + 0 · x + 0 · x2
f (x) = 1 = 1 · 1 + 0 · x + 0 · x2
f (x2 ) = 2x = 0 · 1 + 2 · x + 0 · x2 ,

la matriz F = M (f, B, B) es
 
0 1 0
F = 0 0 2 
0 0 0

De manera que la ecuación matricial es


    
y1 0 1 0 x1
 y2  =  0 0 2   x2 
y3 0 0 0 x3
114 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Como r(F ) = 2, se tiene que dim(Im(f )) = 2, de modo que f no es epi-


morsmo. Por otro lado, dim(Ker(f )) = dim(R2 [x]) − dim(Im(f )) =
3 − 2 = 1, con lo que f tampoco es un monomorsmo.

x2 = 0
Ker(f ) ≡
2x3 = 0

Resulta Ker(f ) = L((1, 0, 0)) con coordenadas respecto de B , esto es,


Ker(f ) = L(1) = {polinomios constantes}.
Obsérvese que Im(f ) = L((1, 0, 0), (0, 2, 0)) con coordenadas respecto
de B , esto es, Im(f ) = L({1, 2x}). Las ecuaciones paramétricas son

 y1 = λ
Im(f ) ≡ y2 = 2µ
y3 = 0

y las implícitas
Im(f ) ≡ {y3 = 0}

13. Sean
B1 = {(1, 1, 0), (1, 0, 1), (0, 1, 1)} y B10 = {(1, −1, 1), (−1, 1, 1), (1, 1, −1)}

bases de R3 . Sean Bc la base canónica y


B2 = {(1, 0, 1, 1), (0, 1, 1, 1), (1, 1, 0, 1), (1, 1, 1, 0)}

bases de R4 .

a) ¾Qué vector de R3 tiene, respecto a la base B1 , coordenadas


(1, 2, −1) y cuáles son éstas respecto a B10 ?
b) Calcular las matrices de cambio de base de B1 en B10 y de Bc en
B2 .
c) Siendo f el homomorsmo caracterizado por f (1, 1, 0) = (1, 1, 0, 0),
f (1, 0, 1) = (1, 0, 1, 0) y f (0, 1, 1) = (0, 0, 1, 1), hallar la matriz de
f respecto de B1 y Bc , respecto de B1 y B2 , respecto de B10 y Bc
y respecto de B10 y B2 .

Resolvamos el apartado a). Buscamos un vector x̄ tal que sus coorde-


nadas respecto de la base B1 sean XB1 = (1, 2, −1). Esto quiere decir
que
x̄ = 1(1, 1, 0) + 2(1, 0, 1) − 1(0, 1, 1) = (3, 0, 1)

De modo que las coordenadas de x̄ respecto de la base canónica de R3 ,


Bc0 , son XBc0 = (3, 0, 1).
7.2 APLICACIONES LINEALES 115

Buscamos ahora las coordenadas de x̄ respecto de B10 , XB10 . Téngase


en cuenta que XB10 = M (Bc0 , B10 )XBc0 . La matriz M (Bc0 , B10 ) es
 −1  
1 −1 1 1/2 0 1/2
M (B10 , Bc0 )−1 =  −1 1 1  =  0 1/2 1/2 
1 1 −1 1/2 1/2 0

En consecuencia,
    
1/2 0 1/2 3 2
XB10 =  0 1/2 1/2   0  =  1/2 
1/2 1/2 0 1 3/2

Resolvamos el apartado b). Determinemos P = M (B1 , B10 ). Téngase


en cuenta que M (B1 , B10 ) = M (Bc0 , B10 )M (B1 , Bc0 ). Como
   
1 1 0 1/2 0 1/2
M (B1 , Bc0 ) =  1 0 1  y M (Bc0 , B10 ) =  0 1/2 1/2 
0 1 1 1/2 1/2 0

se tiene que
    
1/2 0 1/2 1 1 0 1/2 1 1/2
P = M (B1 , B10 ) =  0 1/2 1/2   1 0 1  =  1/2 1/2 1 
1/2 1/2 0 0 1 1 1 1/2 1/2

Falta calcular la matriz Q = M (Bc , B2 ). Se tendrá


 −1
1 0 1 1
 0 1 1 1 
Q = M (Bc , B2 ) = M (B2 , Bc )−1 =
 1
 =
1 0 1 
1 1 1 0
 
1/3 −2/3 1/3 1/3
 −2/3 1/3 1/3 1/3 
= 
 1/3 1/3 −2/3 1/3 
1/3 1/3 1/3 −2/3

Resolvamos el apartado c). La matriz F = M (f, B1 , Bc ) es


 
1 1 0
 1 0 0 
F = M (f, B1 , Bc ) = 
 0

1 1 
0 0 1
116 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Determinemos ahora G = M (f, B1 , B2 ). Resulta


 
−1/3 2/3 2/3
 −1/3 −1/3 2/3 
G = M (Bc , B2 )M (f, B1 , Bc ) = QF = 
 2/3 −1/3 −1/3 

2/3 2/3 −1/3

Hallemos H = M (f, B10 , Bc ). Como M (f, B10 , Bc ) = M (f, B1 , Bc )M (B10 , B1 ) =


F P −1 resulta  
1 −1 1
 −1/2 −1/2 3/2 
H= 
 1 1 −1 
−1/2 3/2 −1/2

Tan sólo queda calcular I = M (f, B10 , B2 ) = M (Bc , B2 )M (f, B10 , Bc ) =


QH . Se tendrá  
5/6 5/6 −7/6
 −2/3 4/3 −2/3 
I=
 −2/3 −2/3 4/3 

5/6 −7/6 5/6

14. Sea la aplicación f : M2×2 (R) → R3 denida por


 
a b
f = (a, a + b + c, 0)
c d

a) Probar que f es lineal y hallar su matriz respecto de las bases


canónicas.
b) Obtener las bases, dimensión y ecuaciones implícitas de Ker(f )
e Im(f ).

Resolvamos el apartado a). La demostración de la linealidad de f es


rutinaria y se deja como ejercicio para el alumno. La matriz asociada
a f respecto de las bases canónicas es
 
1 0 0 0
F = 1 1 1 0 
0 0 0 0

Estudiemos b). Comenzamos con el cálculo de las dimensiones.


dim(Im(f )) = r(F ) = 2

y
dim(Ker(f )) = dim(M2×2 (R)) − dim(Im(f )) = 4 − 2 = 2
7.2 APLICACIONES LINEALES 117

Una base para Im(f ) se obtiene a partir de las columnas de F :

BIm(f ) = {(1, 1, 0), (0, 1, 0)}

La ecuación implícita es

Im(f ) ≡ {y3 = 0}

Las ecuaciones implícitas del núcleo son


 
x1 = 0 x1 = 0
Ker(f ) ≡ ∼
x1 + x2 + x3 = 0 x2 + x3 = 0

Una base es BKer(f ) = {(0, −1, 0), (0, 0, 1)}


118 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

7.3. DIAGONALIZACIÓN Y FORMAS CANÓNICAS

1. Se considera la matriz:
 
2 3
A=
4 13

con coecientes en R. Hallar los valores propios, los vectores propios y


una matriz P que permita la diagonalización de A. Calcular An para
todo n ∈ N.
El polinomio característico es
p(λ) = Det(A − λI) = λ2 − 15λ + 14 = (λ − 1)(λ − 14)

Los valores propios son λ = 1 y λ = 14. Calculemos los subespacios


propios asociados a los autovalores.
V1 = {x̄ = (x, y) ∈ R2 : Ax̄ = 1 · x̄} = {x̄ ∈ R2 : (A − I)x̄ = 0̄}

La ecuación cartesiana de V1 es
V1 ≡ {x + 3y = 0}

Al pasar a paramétricas,

x = −3λ
V1 ≡
y=λ

por lo que una base del subespacio propio V1 es BV1 = {(−3, 1)}.
El vector (−3, 1) es un autovector asociado al autovalor λ = 1. Esto
signica que    
−3 −3
A =
1 1

Por otro lado,

V14 = {x̄ = (x, y) ∈ R2 : Ax̄ = 14 · x̄} = {x̄ ∈ R2 : (A − 14 · I)x̄ = 0̄}

La ecuación cartesiana de V14 es


V14 ≡ {4x − y = 0}

Al pasar a paramétricas,

x=λ
V14 ≡
y = 4λ
7.3 DIAGONALIZACIÓN Y FORMAS CANÓNICAS 119

por lo que una base de V14 es BV14 = {(1, 4)}. El vector (1, 4) es un
autovector asociado al autovalor λ = 14. Esto signica que
   
1 1
A = 14
4 4

Una base de R2 formada por autovectores es B = {(−3, 1), (1, 4)}.


La matriz asociada al endomorsmo determinado por A = M (f, Bc )
(Bc es la base canónica de R2 ), con respecto a la base B , es la matriz
diagonal D de autovalores
 
1 0
D = M (f, B) =
0 14

La matriz de paso P = M (B, Bc ) es


 
−3 1
P =
1 4

Se tiene la igualdad P −1 AP = D.
Calculemos An . Se tiene A = P DP −1 . En consecuencia,
An = P DP −1 P DP −1 · · · P DP −1 P DP −1 = P Dn P −1 =
 12+14n −3+3·14n 
    13 13
−3 1 1 0 −4/13 1/13
= =
0 14n
 
1 4 1/13 3/13 −4+4·14n 1+12·14n
13 13

2. Determinar los valores de a, b, c, d para los cuales cada una de las si-
guientes matrices reales es diagonalizable:

   
a b a b
A= con la condición bc > 0 y B=
c d −b a

Estudiemos primero la matriz A. El polinomio característico es


p(λ) = (a − λ)(d − λ) − bc = λ2 + (−a − d)λ + (ad − bc)

Los autovalores son


p
(a + d) ± (a + d)2 − 4(ad − bc)
λ=
2
Se tiene (a + d)2 − 4(ad − bc) = (a − d)2 + 4bc > 0, de modo que A
es diagonalizable siempre (supuesto bc > 0) ya que los autovalores son
reales y distintos.
120 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Veamos ahora la matriz B . El polinomio característico es


p(λ) = (a − λ)2 + b2

La única posibilidad de conseguir p(λ) = 0 es con b = 0 y λ = a. En


ese caso, la propia matriz B es ya diagonal.

3. Indicar los valores de a, b y c para los cuales la matriz real A es diago-


nalizable:
 
1 0 0
A= a 1 0 
1 b c

Debemos ver si todos los autovalores son reales y si las multiplicidades


algebraica y geométrica coinciden para todos ellos.
El polinomio característico es p(λ) = (1 − λ)2 (c − λ), de modo que los
autovalores son λ = 1 y λ = c. Deben distinguirse dos casos:
Caso 1. c 6= 1. Entonces λ = 1 es un autovalor de multiplicidad
algebraica m(1) = 2 y λ = c es un autovalor de multiplicidad algebraica
m(c) = 1. Como 1 ≤ dim(Vλ ) ≤ m(λ), resulta que dim(Vc ) = 1, de
modo que, para el autovalor real λ = c, las multiplicidades algebraica
y geométrica coinciden. Por otro lado,
 
0 0 0
si

1 a 6= 0
dim(V1 ) = 3 − r(A − I) = 3 − r a 0 0 =
si
 
2 a=0
1 b c−1

Debe darse la igualdad dim(V1 ) = m(1) = 2, de manera que, supuesto


c 6= 1, la matriz A es diagonalizable si y sólo si a = 0.
Caso 2. c = 1. Se tiene entonces que λ = 1 es el único autovalor, con
m(1) = 3. Vemos cuál es la dimensión del subespacio propio asociado:
 
0 0 0
dim(V1 ) = 3 − r(A − I) = 3 − r  a 0 0  < 3
1 b 0

Por consiguiente, en el caso 2, la matriz no es diagonalizable.

4. Sea f el endomorsmo de R3 de matriz asociada


 
5 −6 −6
F =  −1 4 2 
3 −6 −4
7.3 DIAGONALIZACIÓN Y FORMAS CANÓNICAS 121

Determinar una base respecto de la cual F se represente en forma


diagonal.
El polinomio característico es
p(λ) = −λ3 + 5λ2 − 8λ + 4 = (λ − 2)2 (1 − λ),

de modo que los autovalores son λ = 1, con m(1) = 1 y λ = 2 con


m(2) = 2. Calculemos una base de autovectores de V1 .

V1 = {x̄ : F x̄ = x̄} = {x̄ : (F − I)x̄ = 0̄}

Escalonemos la matriz asociada al sistema homogéneo (F − I)x̄ = 0̄.


     
4 −6 −6 −1 3 2 −1 3 2
 −1 3 2  →  2 −3 −3  →  0 3 1 
3 −6 −5 3 −6 −5 0 3 1
Resulta 
−x + 3y + 2z = 0
V1 ≡
3y + z = 0
Pasando a paramétricas queda

 x = 3λ
V1 ≡ y = −λ
z = 3λ

de modo
 que 
una base
 deV1 es BV1 = {(3, −1, 3)}. Esto quiere decir
3 3
que F  −1  =  −1 . De hecho, al aplicar F a cualquier vector
3 3
de V1 , obtenemos el mismo vector.
Calculemos ahora una base del otro subespacio propio V2 .
V2 = {x̄ : F x̄ = 2x̄} = {x̄ : (F − 2I)x̄ = 0̄}

La matriz de coecientes del sistema homogéneo es:


 
3 −6 −6
 −1 2 2 
3 −6 −6

No es necesario escalonarla. La ecuación cartesiana de V2 es {−x+2y +


2z = 0}. Al pasar a paramétricas queda

 x = 2λ + 2µ
V1 ≡ y=λ
z=µ

122 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Una base de V2 es BV2 = {(2, 1, 0), (2, 0, 1)}. Tenemos una base de R3
formada por autovectores
B = {BV1 , BV2 } = {(3, −1, 3), (2, 1, 0), (2, 0, 1)}

Ésta es la base pedida. La matriz asociada a la aplicación lineal f


(determinada por la matriz F ) con respecto a la base B es una matriz
diagonal  
1 0 0
M (f, B) =  0 2 0 
0 0 2

5. Demostrar que un endomorsmo f es inyectivo si y sólo si ningún valor


propio de f es nulo.

f es inyectivo ⇔ Ker(f ) = 0̄ ⇔ f (x̄) = 0̄ implica que x̄ = 0̄ ⇔

⇔ f (x̄) = 0x̄ implica que x̄ = 0̄ ⇔ 0 no es autovalor de f

6. Sea E4 un espacio vectorial real. B = {~e1 , ~e2 , ~e3 , ~e4 } una base de E4 .
Sea f ∈ End(E4 ), cuya matriz respecto a B es:
 
1 0 0 0
 0 1 0 0 
A=
 0

0 a 0 
a 0 0 2

a ) Determinar los valores de a para los que f es diagonalizable.


b ) Si a = 1:
1) Diagonalizar A.
2) Si V2 es el subespacio propio asociado al autovalor λ = 2,
hallar las ecuaciones paramétricas de V2 ∩ W y V2 + W , sien-
do W el subespacio de E4 de ecuaciones implícitas W =
{(x, y, z, t)/x + z = x = y − 3t = 0}.
3) ¾Es f suprayectivo?, ¾es f inyectivo?.

Resolvamos el apartado a). El polinomio característico es p(λ) = (λ −


1)2 (λ − a)(λ − 2). Existen 3 casos posibles: a = 1, a = 2 y a 6= {1, 2}.
Caso 1. Sea a = 1. Entonces λ = 1 es un autovalor con m(1) = 3 y
λ = 2 es otro autovalor con m(2) = 1. Es claro que dim(V2 ) = 1 =
m(2), mientras que

dim(V1 ) = 4 − r(A − I) = 4 − 1 = 3,
7.3 DIAGONALIZACIÓN Y FORMAS CANÓNICAS 123

de modo que f es diagonalizable.


Caso 2. Sea a = 2. Entonces λ = 1 es autovalor con m(1) = 2 y λ = 2
es autovalor con m(2) = 2. Veamos las dimensiones de los subespacios
propios asociados.
dim(V1 ) = 4−r(A−I) = 4−2 = 2 dim(V2 ) = 4−r(A−2I) = 4−2 = 2,

de modo que los dos autovalores son reales y las multiplicidades alge-
braica y geométrica coinciden para los dos. El endomorsmo del caso
2 es, por tanto, diagonalizable.
Caso 3. Sea a 6= {1, 2}. Entonces los autovalores son λ = 1 con m(1) =
2, λ = 2 con m(2) = 1 = dim(V2 ) y λ = a con m(a) = 1 = dim(Va ).
Además, dim(V1 ) = 4 − r(A − I) = 4 − 2 = 2 = m(1), de manera que
f es diagonalizable también para el caso 3.
Resolvamos el apartado b.1). El polinomio característico es p(λ) =
(λ − 1)3 (λ − 2). Los subespacios propios tienen ecuaciones cartesianas:

 x = 0
V1 ≡ {x + t = 0} V2 ≡ y = 0
z = 0

Pasando a paramétricas queda


 

 x = −λ3 
 x=0
y = λ1 y=0
 
V1 ≡ V2 ≡

 z = λ2 
 z=0
t = λ3 t=λ
 

Las bases respectivas para los subespacios propios son:


BV1 = {(0, 1, 0, 0), (0, 0, 1, 0), (−1, 0, 0, 1)}, con coordenadas respecto de B ,
de modo que BV1 = {~e2 , ~e3 , −~e1 + ~e4 }.
BV2 = {(0, 0, 0, 1)}, con coordenadas respecto de B , de modo que BV2 =
{~e4 }.
Una base de autovectores de E4 es BE4 = {~e2 , ~e3 , −~e1 + ~e4 , ~e4 }. La
matriz diagonal de autovalores D y la matriz de paso P son
   
1 0 0 0 0 0 −1 0
 0 1 0 0   1 0 0 0 
D=
 0
 P = 
0 1 0   0 1 0 0 
0 0 0 2 0 0 1 1

Resolvamos el apartado b.2). Las ecuaciones de W son


 
 x+z = 0  x+z = 0
W ≡ x = 0 ∼ −z = 0
y − 3t = 0 y − 3t = 0
 
124 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

 
1 0 1 0
y dim(W ) = 4 − r  0 1 0 −3  = 4 − 3 = 1.
0 0 −1 0
Las ecuaciones cartesianas de V2 ∩ W son
 

 x = 0 
 x = 0
y − 3t = 0 y = 0
 
V2 ∩ W ≡ ∼

 z = 0 
 z = 0
y = 0 t = 0
 

Por la fórmula de las dimensiones, dim(V2 +W ) = dim(V2 )+dim(W )−


dim(V2 ∩W ) = 1+1−0 = 2. Como V2 +W = L(BV2 , BW ), necesitamos
calcular una base de W . Tras pasar a paramétricas, se obtiene la base
BW = {(0, 3, 0, 1)}, con coordenadas respecto de B . De modo que una
base para V2 +W es BV2 +W = {(0, 0, 0, 1), (0, 3, 0, 1)}, con coordenadas
respecto de B , esto es,

BW +V2 = {~e4 , 3~e2 + ~e4 }

Las ecuaciones paramétricas son




 x = 0
y = 3λ2

V2 + W ≡

 z = 0
t = λ1 + λ2

Resolvamos el apartado b.3). El endomorsmo f tiene matriz asocia-


da A con a = 1, de modo que dim(Im(f )) = r(A) = 4 = dim(E4 ).
Por consiguiente, Im(f ) = E4 y f es suprayectivo. Por otro lado,
dim(Ker(f )) = dim(E4 ) − dim(Im(f )) = 4 − 4 = 0, con lo que
Ker(f ) = {0̄}, siendo f un monomorsmo (homomorsmo inyectivo).

7. Sea la matriz:  
1 1 1 1
 1 1 −1 −1 
A=
 1 −1

1 −1 
1 −1 −1 1

a ) Determinar los valores propios de A y estudiar su diagonalización.


b ) Determinar una matriz P que permita la diagonalización.
c ) Diagonalizar A2 y A−1 .
d ) Calcular An .
7.3 DIAGONALIZACIÓN Y FORMAS CANÓNICAS 125

Calculemos el polinomio característico:



1−λ 1 1 1 0 2−λ 2−λ −λ(−2 + λ)

1 1 − λ −1 −1 0 2 − λ 0 −2 + λ
p(λ) =

= 0
=
1 −1 1 − λ −1 0 2 − λ −2 + λ

1 −1 −1 1 − λ 1 −1 −1 1−λ

2 − λ 2 − λ −λ(−2 + λ) 1 1 −λ
2

= − 2 − λ
0 −2 + λ = −(2−λ) (−2+λ) 1
0 1 =
0 2−λ −2 + λ 0 1 1
= (2 − λ)3 (−λ − 2)

Los autovalores son λ = 2 con m(2) = 3 y λ = −2 con m(−2) = 1.


Por otro lado, dim(V−2 ) = m(−2) = 1, mientras que dim(V2 ) = 4 −
r(A − 2I) = 4 − 1 = 3, de modo que A es diagonalizable.
Estudiamos a continuación el apartado b). Para determinar la matriz
de paso necesitamos una base de autovectores de R4 , que obtenemos a
partir de los subespacios propios V2 y V−2 .
V2 = {x̄ ∈ R4 : (A − 2I)x̄ = 0̄}, V2 ≡ {−x + y + z + t = 0}

Tras pasar a paramétricas, se tiene la base


BV2 = {(1, 1, 0, 0), (1, 0, 1, 0), (1, 0, 0, 1)}.

Por otro lado,


V−2 = {x̄ ∈ R4 : (A + 2I)x̄ = 0̄}

Al escalonar la matriz asociada al sistema homogéneo (A + 2I)x̄ = 0̄


queda
   
1 −1 −1 3 1 −1 −1 3
 3 1 1 1   0 1 1 −2 
A + 2I →   → ··· → 
 1 3 −1 −1 

 0 0 −1 1 
1 −1 3 −1 0 0 0 0

En consecuencia,

 x − y − z + 3t = 0
V−2 ≡ y + z − 2t = 0
−z + t = 0

Tras pasar a paramétricas se obtiene la base BV−2 = {(−1, 1, 1, 1)}.


Así, tenemos una base de R4 formada por autovectores
B = {(1, 1, 0, 0), (1, 0, 1, 0), (1, 0, 0, 1), (−1, 1, 1, 1)}
126 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

La matriz de paso P y la matriz diagonal de autovalores D serán


   
1 1 1 −1 2 0 0 0
 1 0 0 1   0 2 0 0 
P =
 0
 D = M (f, B) =  
1 0 1   0 0 2 0 
0 0 1 1 0 0 0 −2

Apartado c). Obsérvese que

A2 = P DP −1 P DP −1 = P D2 P −1

de modo que D2 = P −1 A2 P . Esto quiere decir que la matriz diagonal


de autovalores asociada a A2 es
 
4 0 0 0
0 4 0 0 
D2 = 


 0 0 4 0 
0 0 0 4

y la matriz de paso es P . Obsérvese, además, que A2 = P D2 P −1 = 22 I .


Por otro lado, A−1 = (P DP −1 )−1 = P D−1 P −1 y, por tanto, D−1 =
P −1 A−1 P , con lo que la matriz diagonal de autovalores asociada a A−1
es  
1/2 0 0 0
 0 1/2 0 0
D−1

=
 0

0 1/2 0 
0 0 0 −1/2

y la matriz de paso es P .
Resolvamos el apartado d). Si n es par, n = 2m, entonces

An = (A2 )m = (22 I)m = 2n I.

Si n es impar, n = 2m + 1, entonces

An = A2m A = 22m IA = 2n−1 A.

8. Estudiar la posible diagonalización de las siguientes aplicaciones f :


R3 → R3 :

a ) f (x, y, z) = (−x − 3z, 3x + 2y + 3z, −3x − z)


b ) f (x, y, z) = (x + y + z, 2y + z, 2y + 3z)
c ) f (x, y, z) = (x + y, y + z, −2y − z)
7.3 DIAGONALIZACIÓN Y FORMAS CANÓNICAS 127

Estudiemos el caso a). La matriz asociada al endomorsmo f es


 
−1 0 −3
A= 3 2 3 
−3 0 −1

El polinomio característico es p(λ) = −λ3 +12λ−16 = (−4−λ)(λ−2)2 ,


de modo que los autovalores son λ = −4, m(−4) = 1 y λ = 2, m(2) = 2.
Las dimensiones de los subespacios propios correspondientes son

dim(V−4 ) = m(−4) = 1 y dim(V2 ) = 3 − r(A − 2I) = 2 = m(2)

de manera que f es diagonalizable.


Veamos el caso b). La matriz asociada es
 
1 1 1
A= 0 2 1 
0 2 3

con polinomio característico p(λ) = (λ−1)2 (4−λ). Los autovalores son


λ = 1, m(1) = 2 y λ = 4, m(4) = 1. Las dimensiones de los subespacios
propios son dim(V4 ) = m(4) = 1 y dim(V1 ) = 3−r(A−I) = 2 = m(1).
Por consiguiente, el endomorsmo es diagonalizable.
Estudiemos el caso c). La matriz asociada al endomorsmo f es
 
1 1 0
A= 0 1 1 
0 −2 −1

con polinomio característico p(λ) = (1 − λ)(λ2 + 1). Se tiene que los


autovalores son λ = 1 y λ = ±i, de manera que el endomorsmo no es
diagonalizable.
9. Sea f : R3 [x] → R3 [x] denida por f (ax3 + bx2 + cx + d) = dx3 +
cx2 + bx + a. Estudiar su diagonalización encontrando la matriz P que
la permita.
Consideremos la base canónica Bc = {1, x, x2 , x3 } y calculemos la ma-
triz asociada al endomorsmo con respecto a esta base.
Dado que f (1) = x3 , f (x) = x2 , f (x2 ) = x, f (x3 ) = 1, entonces
 
0 0 0 1
 0 0 1 0 
A = M (f, Bc ) = 
 0

1 0 0 
1 0 0 0
128 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

El polinomio característico es
0 1 − λ2


−λ 0 0 1
0 0

0 −λ 1 0 0 −λ 1 0
p(λ) = = =
0 1 −λ 0
0 1 −λ 0

1 0 0 −λ 1 0 0 −λ

= −(1 − λ2 )(λ2 − 1) = (λ2 − 1)2 = (λ − 1)2 (λ + 1)2

Los autovalores son λ = 1, m(1) = 2 y λ = −1, m(−1) = 2. De-


terminemos los subespacios propios. Al escribir V1 con coordenadas
respecto de Bc se tiene

V1 = {x̄ ∈ R4 : (A − I)x̄ = 0̄}

Las ecuaciones implícitas son



−x + t = 0
V1 ≡
−y + z = 0

Tras pasar a paramétricas, se consigue una base de V1 ,

BV1 = {(1, 0, 0, 1), (0, 1, 1, 0)} con coordenadas respecto de Bc .

Esto quiere decir que BV1 = {1 + x3 , x + x2 }.


Por otro lado, al escribir V−1 con coordenadas respecto de Bc ,

V−1 = {x̄ ∈ R4 : (A + I)x̄ = 0̄}

Las ecuaciones implícitas son



x+t = 0
V−1 ≡
y+z = 0

Tras pasar a paramétricas se tiene una base de V−1 ,

BV−1 = {(−1, 0, 0, 1), (0, −1, 1, 0)} con coordenadas respecto de Bc .

Esto signica que BV−1 = {−1 + x3 , −x + x2 }.


Por consiguiente, una base de autovectores de R3 [x] es

B = {−1 + x3 , −x + x2 , 1 + x3 , x + x2 }

que, escrito con coordenadas respecto de B , da lugar a

B = {(−1, 0, 0, 1), (0, −1, 1, 0), (1, 0, 0, 1), (0, 1, 1, 0)}


7.3 DIAGONALIZACIÓN Y FORMAS CANÓNICAS 129

La matriz de paso P y la matriz diagonal de autovalores D = M (f, B)


son
   
−1 0 1 0 −1 0 0 0
 0 −1 0 1   0 −1 0 0 
P =
 0
 D= 
1 0 1   0 0 1 0 
1 0 1 0 0 0 0 1

10. Sea f el endomorsmo de R3 de matriz asociada


 
1 −3 3
A =  3 −5 3 
6 −6 4
Determinar:
a ) Autovalores y autovectores de f .
b ) Hallar una base que permita la diagonalización.
Resolvamos el apartado a). El polinomio característico es p(λ) = (4 −
λ)(λ + 2)2 . Los autovalores son λ = 4 con m(4) = 1 y λ = −2 con
m(−2) = 2. Determinemos los subespacios propios asociados.
V4 ≡ {x̄ ∈ R4 : (A − 4I)x̄ = 0̄}
Al escalonar la matriz de coecientes del sistema (A − 4I)x̄ = 0̄ resulta
   
−1 −1 1 −1 −1 1
A − 4I →  1 −3 1  →  0 −4 2 
1 −1 0 0 −2 1

De manera que las ecuaciones cartesianas son



−x − y + z = 0
V4 ≡
−2y + z = 0
Tras pasar a paramétricas, se obtiene la base BV4 = {(1, 1, 2)}.
Por otro lado,
V−2 ≡ {x − y + z = 0}

Una base de V−2 es BV−2 = {(1, 1, 0), (−1, 0, 1)}. Por consiguiente, la
base de autovectores de R3 pedida será B = {(1, 1, 0), (−1, 0, 1), (1, 1, 2)}
y la matriz diagonal asociada a f con respecto a esta base, D =
M (f, B), será  
−2 0 0
D=  0 −2 0 
0 0 4
130 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

11. Hallar a, b, c, d, e y f sabiendo que los vectores: ~u = (1, 1, 1), ~v =


(1, 0, −1), w
~ = (−1, −1, 0) son autovectores de la matriz:
 
1 1 1
A= a b c 
d e f

Se tiene A~u = λ1~u, A~v = λ2~v , Aw ~ . Escrito en forma de sistema


~ = λ3 w
de ecuaciones:

 3 = λ1


 a+b+c = λ1  

 a+b+c = 3 a=1

 d+e+f = λ1 
 


 
 d+e+f = 3 
 b=1
0 = λ2

 
 

a−c = 0 c=1
  
a−c = 0 ∼ ∼
d−f = 0 d = −3
d−f = −λ2

 
 

−a − b = −2 e =9

 
 

−2 = −λ3

 
 

−d − e f = −3
 
= 0
 
−a − b −λ3



 =

−d − e = 0

12. Sea f : R3 [x] → R3 [x] el endomorsmo denido por f (p(x)) = p0 (x).


Hallar los autovalores y autovectores de f (p0 (x) es el polinomio deriva-
do de p(x)).
Teniendo en cuenta que f (1) = 0, f (x) = 1, f (x2 ) = 2x y f (x3 ) =
3x2 , la matriz asociada a f con respecto a la base canónica Bc =
{1, x, x2 , x3 } es
 
0 1 0 0
 0 0 2 0 
A = M (f, Bc ) = 
 0

0 0 3 
0 0 0 0

El polinomio característico es p(λ) = λ4 , de modo que λ = 0 es el único


autovalor, con m(0) = 4. El subespacio propio V0 es, en paramétricas,


 x=λ
y=0

V0 ≡

 z=0
t=0

De modo que V0 = L((1, 0, 0, 0)) con coordenadas respecto de Bc , esto


es, V0 = L(1) = {polinomios constantes}. Este endomorsmo no es
diagonalizable ya que las multiplicidades algebraica y geométrica no
coinciden.
7.3 DIAGONALIZACIÓN Y FORMAS CANÓNICAS 131

13. Determinar un endomorsmo f de R3 sabiendo:


a ) Im(f ) = L{(0, 1, −1), (2, 1, 1)}.
b ) λ = 0 es un valor propio de f .
c ) El subespacio propio asociado a λ = 0 está generado por (0, 1, 1).
Hallar, si es posible, una base de R3 en la que f venga dado por una
matriz diagonal.
Al ser 0 autovalor con autovector (0, 1, 1), si
 
a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33
   
0 0
es la matriz asociada a f , se tiene A  1  =  0  ,
1 0
esto es, 
 a12 + a13 = 0
a22 + a23 = 0
a32 + a33 = 0

La matriz A puede ser


 
0 2 −2
A =  1 1 −1  ,
−1 1 −1

ya que cumple las ecuaciones de arriba y, además, sus columnas son


los generadores de Im(f ). El polinomio característico es p(λ) = λ(λ +
2)(λ − 2).
Sabemos que V0 = L((0, 1, 1)), de manera que sólo queda obtener bases
de V2 y V−2 . Escalonando los sistemas de ecuaciones resultantes, se
obtiene
 
x−y−z = 0 x+y−z = 0
V2 ≡ V−2 ≡
z = 0 y = 0

Las bases respectivas son BV2 = {(1, 1, 0)}, BV−2 = {(1, 0, 1)}. La base
pedida de autovectores de R3 es
B = {(1, 0, 1), (0, 1, 1), (1, 0, 1)}

siendo la matriz asociada a f respecto de esta base


 
−2 0 0
D = M (f, B) =  0 0 0 
0 0 2
132 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

14. Hallar la forma canónica de Jordan y la matriz de paso de


 
2 −1
A=
1 0

Calcular A15 .

Se tiene p(λ) = λ2 − 2λ + 1 = (λ − 1)2 . Se tiene que 1 es un autovalor


doble. Sin embargo, dim(V1 ) = 1 con V1 = E1 (1) = L{(1, 1)}. De
manera que A no es diagonalizable. La matriz canónica de Jordan es
 
1 1
J=
0 1

Como λ = 1 tiene multiplicidad 2 (la máxima posible), entonces (A −


Id)2 = 0, de modo que E2 (1) = R2 (compruébelo el lector). Para
obtener la matriz de paso P se escoge un vector u2 ∈ E2 (1) \ E1 (1),
por ejemplo u2 = (1, 0). Sea u1 = (A − Id)u2 = (1, 1). Consideramos
la base B = {u1 , u2 } = {(1, 1), (1, 0)}. Es claro que
 
1 1
P = M (B, Bc ) =
1 0

y que J = P −1 AP .
Falta calcular A15 . Téngase en cuenta que A = P JP −1 , con lo que

A15 = P JP −1 P JP −1 · · · P JP −1 = P J 15 P −1

Basta observar que


   
1 15 0 1
J 15
= y P −1
=
0 1 1 −1

De manera que
 
15 15 −1 16 −15
A = PJ P =
15 −14

15. Calcular la forma de Jordan y la matriz de paso de


  
1 0 −1 0 1 0
A= 0 1 0  B =  −1 0 1 
1 1 −1 −1 1 1
7.3 DIAGONALIZACIÓN Y FORMAS CANÓNICAS 133

 
0 −4 0 −1
 0 2 0 0 
C=
 0 0

0 0 
4 8 −12 4

Estudiemos la matriz A. Se tiene p(λ) = λ2 (1 − λ). Existen 2 au-


tovalores reales, uno simple (el 1) y otro doble (el 0). Es claro que
dim(V1 ) = 1. Se comprueba que dim(V0 ) = 1 con V0 = E1 (0) =
L{(1, 0, 1)}. Por consiguiente, A no es diagonalizable y J es
 
1 0 0
J = 0 0 1 
0 0 0

Falta obtener la matriz de paso P . Es claro que

M (1) = E1 (1) = V1 = L{(1, −1, 0)}

Por otro lado,

E1 (0) = L{(1, 0, 1)} E2 (0) = Ker(A − 0Id)2 = L{(1, 0, 1), (0, 0, 1)}

de manera que M (0) = E2 (0). Falta elegir una base adecuada B =


B(1) ∪ B(0), donde B(1) y B(0) son bases respectivas de los subespa-
cios M (1) y M (0), de manera que la matriz asociada al endomors-
mo determinado por A con respecto a la base B sea J . Es claro que
B(1) = {u1 = (1, −1, 0)}. Para obtener B(0) necesitamos dos vectores
adecuados de M (0). Se escogen dim(E2 (0)) − dim(E1 (0)) = 1 vectores
que estén en E2 (0)\E1 (0), por ejemplo v2 = (0, 0, 1). A continuación se
elige v1 = (A − 0Id)v2 = (−1, 0, −1). De este modo, la base B buscada
es

B = {u1 , v1 , v2 } = {(1, −1, 0), (−1, 0, −1), (0, 0, 1)}

La matriz de paso P es, por tanto,


 
1 −1 0
P =  −1 0 0 
0 −1 1

cumpliéndose P −1 AP = J .
134 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Estudiemos la matriz B . Se tiene p(λ) = λ2 (1 − λ), como en el


caso anterior. Es claro que M (1) = E1 (1) = V1 = L{(1, 1, 2)}. Por
otro lado, dim(V0 ) = 1, con V0 = L{(1, 0, 1)}, de modo que B no es
diagonalizable. Resulta
 
1 0 0
J =  0 0 1 ,
0 0 0

tal como ocurría con la matriz A. Además,

E1 (0) = V0 = L{(1, 0, 1)} E2 (0) = Ker(B−0Id)2 = L{(1, 0, 1), (0, 1, 0)}

de manera que M (0) = E2 (0). La base B = B(1) ∪ B(0) está formada


por

B(1) = {u1 } = {(1, 1, 2)}, B(0) = {v1 , v2 }

siendo v2 = (0, 1, 0) ∈ E2 (0) \ E1 (0) y v1 = (B − 0Id)v2 = (1, 0, 1).


Entonces

B = {(1, 1, 2), (1, 0, 1), (0, 1, 0)}

de modo que la matriz de paso P tal que P −1 BP = J es


 
1 1 0
P = 1 0 1 
2 1 0

Estudiemos la matriz C . Se tiene p(λ) = (λ − 2)3 λ. Por tanto,

M (0) = E1 (0) = V0 = L{(3, 0, 1, 0)}

Además dim(E1 (2)) = dim(V2 ) = 2 con

E1 (2) = L{(−2, 1, 0, 0), (−1, 0, 0, 2)} E2 (2) = Ker(C − 2Id)2 =

= L{(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 0, 1)} = M (2)

Tendremos B = B(0) ∪ B(2) con B(0) = {u1 } = {(3, 0, 1, 0)}. Para


obtener los vectores de B(2) se procede del siguiente modo:
7.3 DIAGONALIZACIÓN Y FORMAS CANÓNICAS 135

Se eligen dim(E2 (2)) − dim(E1 (2)) = 1 vectores de E2 (2) \ E1 (2),


por ejemplo v2 = (0, 0, 0, 1). A continuación, v1 = (C − 2Id)v2 =
(−1, 0, 0, 2) ∈ E1 (2). Falta determinar un último vector v3 ∈ E1 (2)
independiente de v1 , por ejemplo, v3 = (−2, 1, 0, 0). En consecuencia,

B = {u1 , v1 , v2 , v3 } = {(3, 0, 1, 0), (−1, 0, 0, 2), (0, 0, 0, 1), (−2, 1, 0, 0)}

Las matrices J y P son


   
0 0 0 0 3 −1 0 −2
 0 2 1 0   0 0 0 1 
J =
 0
, P = 
0 2 0   1 0 0 0 
0 0 0 2 0 2 1 0

16. Encontrar la forma de Jordan real y una matriz de paso real de:
 
  0 1 −1
1 −2
A= B= 0 1 0 
3 1
3 1 0

Estudiemos la matriz A. Se tiene


 √  √ 
p(λ) = λ2 − 2λ + 7 = λ − (1 + 6i) λ − (1 − 6i)

Al ser los autovalores complejos conjugados, resulta


 √ 
1 + 6i 0√
J= .
0 1 − 6i

Si buscamos la forma canónica de Jordan real, se tiene


 √ 
0 1
√ 6
J = .
− 6 1

Buscamos la matriz de paso P tal que P −1 AP = J . Necesitamos una


base de autovectores.
( √ )
√ √ 6
M (1 + 6i) = E1 (1 + 6i) = V1+√6i =L ( i, 1)
3

Por otro lado, sabemos que


136 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

√ ( )
√ √ − 6
M (1 − 6i) = E1 (1 − 6i) = V1−√6i =L ( i, 1)
3
√ √ !
6 − 6
La matriz de paso es, pues, P = 3 i 3 i . Buscamos la matriz
1 1
de paso real Q ∈ M2 (R) tal que Q AQ = J 0 . Las columnas de la
−1

matriz Q se obtienen a partir de las partes real e imaginaria de una de


las columnas de P , esto es,
√ !
6
0
Q= 3
1 0

Estudiemos la matriz B . Se tiene


 √  √ 
p(λ) = −λ3 + λ2 − 3λ + 3 = (λ − 1) λ − 3i λ + 3i

Las matrices J y J 0 son


   
1 √0 0 1 0 0

J = 0 3i 0 ,
√ J0 =  0 0
√ 3 
0 0 − 3i 0 − 3 0

Las matrices de paso P ∈ M3 (C) y Q = M3 (R), tales que P −1 BP =


J y Q−1 BQ = J 0 , se consiguen mediante la obtención de una base
adecuada de autovectores de C3 .
Por un lado,

M (1) = E1 (1) = V1 = L{(0, 1, 1)}

Además,
√ √ √
M ( 3i) = E1 ( 3i) = V√3i = L{(1, 0, − 3i)}

√ √ √
M (− 3i) = E1 (− 3i) = V−√3i = L{(1, 0, 3i)}

La base B es
√ √
B = {(0, 1, 1), (1, 0, − 3i), (1, 0, 3i)}

y las matrices de paso compleja P y real Q son, respectivamente,


7.3 DIAGONALIZACIÓN Y FORMAS CANÓNICAS 137

   
0 1 1 0 1 0
P = 1 0
√ √0
, Q= 1 0 0 

1 − 3i 3i 1 0 − 3
138 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

7.4. SISTEMAS DE ECUACIONES DIFERENCIALES

1. Resuélvase el sistema de ecuaciones diferenciales

u0
   
u
=A
v0 v
 
−2 1
siendo A = .
1 −2
Nota.
  Utilícese el hecho de que, al ser A diagonalizable, dado x̄ =
u
, se tiene x̄0 = Ax̄, lo que equivale a escribir x̄0 = P DP −1 x̄.
v
Llamando ȳ = P −1 x̄, se obtiene ȳ 0 = Dȳ , un sistema de resolución
elemental.
El polinomio característico es p(λ) = λ2 + 4λ + 3 = (λ + 3)(λ + 1). La
matriz A es, por tanto, diagonalizable. Los subespacios propios son

V−3 = L{(−1, 1)} V−1 = L{(1, 1)}

La matriz diagonal D y la matriz de paso P son


   
−3 0 −1 1
D= P =
0 −1 1 1
 
u
Se tiene A = P DP −1 , de modo que x̄0 = P DP −1 x̄ para x̄ = .
v
Haciendo el cambio ȳ = P −1 x̄, resulta

P ȳ 0 = P Dȳ o, de modo equivalente, ȳ 0 = Dȳ

Resolvamos el sistema ȳ 0 = Dȳ . Queda

y10 (t) = −3y1 (t)


y20 (t) = −y2 (t)

De modo que

y1 (t) = c1 e−3t , y2 (t) = c2 e−t

Se deshace el cambio x̄ = P ȳ para obtener la solución

c1 e−3t e−3t 0
        
u(t) −1 1 −1 1 c1
= =
v(t) 1 1 c2 e−t 1 1 0 e−t c2
7.4 SISTEMAS DE ECUACIONES DIFERENCIALES 139

Dicho de otro modo,

u(t) = −c1 e−3t + c2 e−t


      
u(t) −1 1
ó = c1 e −3t
+c2 e −t
v(t) = c1 e−3t + c2 e−t v(t) 1 1

2. Determínese la solución general del sistema de ecuaciones

x01 = x1 + 3x2


x02 = 2x1 + 2x2

Hallar la solución particular que satisface x1 (0) = 0, x2 (0) = 5.

Se debe resolver el sistema x̄0 = Ax̄ con


 
1 3
A=
2 2

El polinomio característico es p(λ) = (λ − 4)(λ + 1) , de modo que A


es diagonalizable. Los subespacios propios son

V4 = L{(1, 1)} V−1 = L{(−3, 2)}

Las matrices diagonal y de paso son


   
−1 0 −3 1
D= , P =
0 4 2 1

Se hace el cambio ȳ = P −1 x̄. Entonces

ȳ 0 = Dȳ

Resolvamos este sistema. Queda

y10 (t) = −y1 (t)


y20 (t) = 4y2 (t)

De modo que

y1 (t) = c1 e−t , y2 (t) = c2 e4t

Se deshace el cambio x̄ = P ȳ para obtener la solución


140 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

c1 e−t e−t 0
        
x1 (t) −3 1 −3 1 c1
= =
x2 (t) 2 1 c2 e4t 2 1 0 e4t c2

Dicho de otro modo,

x1 (t) = −3c1 e−t + c2 e4t


      
x1 (t) −3 1
ó = c1 e−t +c2 e4t
x2 (t) = 2c1 e−t + c2 e4t x2 (t) 2 1

Como x1 (0) = 0 y x2 (0) = 5, se tiene



0 = −3c1 + c2
5 = 2c1 + c2

Al resolver el sistema, resulta c1 = 1, c2 = 3, de modo que la solución


particular es

x1 (t) = −3e−t + 3e4t


      
x1 (t) −3 1
ó =e −t
+3e 4t
x2 (t) = 2e−t + 3e4t x2 (t) 2 1

3. Resuélvase la ecuación diferencial lineal de tercer orden de coecientes


constantes

y 000 − 3y 00 + 2y 0 = 0

Nota. Considérese el sistema de tres ecuaciones y0 = u, u0 = v , v 0 =


3v − 2u o, lo que es equivalente,

y0
    
0 1 0 y
 u0  =  0 0 1   u 
v0 0 −2 3 v

Resolvemos el sistema x̄0 = Ax̄ con


   
y 0 1 0
x̄ =  u  y A= 0 0 1 
v 0 −2 3

Únicamente interesa determinar y(t). El polinomio característico de


A es p(λ) = −λ3 + 3λ2 − 2λ = λ(λ − 1)(λ − 2), de modo que A es
diagonalizable. Los subespacios propios son
7.4 SISTEMAS DE ECUACIONES DIFERENCIALES 141

V0 = L{(1, 0, 0)}, V1 = L{(1, 1, 1)}, V2 = L{(1, 2, 4)}

La matriz diagonal y la matriz de paso son


   
0 0 0 1 1 1
D =  0 1 0 , P = 0 1 2 
0 0 2 0 1 4

Se hace el cambio ȳ = P −1 x̄. Entonces ȳ 0 = Dȳ . Resolvamos este


sistema. Queda
 0
 y1 (t) = 0
y 0 (t) = y2 (t)
 20
y3 (t) = 2y3 (t)

De modo que

y1 (t) = c1 , y2 (t) = c2 et , y3 (t) = c3 e2t

Se deshace el cambio x̄ = P ȳ para obtener


    
y(t) 1 1 1 c1
 u(t)  =  0 1 2   c2 et  =
v(t) 0 1 4 c3 e2t
   
1 1 1 1 0 0 c1
=  0 1 2   0 et 0   c2 
0 1 4 0 0 e2t c3

Entonces, la solución de la ecuación lineal de tercer orden es

y(t) = c1 + c2 et + c3 e2t

4. Hallar la solución general del sistema X 0 = AX con


 
4 1
A=
−1 2

Determínese la solución que satisface la condición inicial X(0) = (1, 1).

El polinomio característico es p(λ) = λ2 − 6λ + 9 = (λ − 3)2 . El subes-


pacio propio es E1 (3) = V3 = L{(−1, 1)}. La multiplicidad algebraica
142 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

es 1 
y la geométrica
 2, de modo que A no es diagonalizable. Resulta
3 1
J= . Calculemos la matriz de paso P . Se tiene
0 3

E1 (3) = L{(−1, 1)} E2 (3) = R2

Escogemos un vector u2 ∈ E2 (3) \ E1 (3); por ejemplo, u2 = (1, 0).


Entonces, u1 = (A − 3Id)u2 = (1, −1) y la base es

B = {(1, −1), (1, 0)}


 
1 1
La matriz de paso es P =
−1 0
La solución general del sistema es

e3t te3t
     
x1 (t) 1 1 c1
=
x2 (t) −1 0 0 e3t c2

Dicho de otro modo,

x1 (t) = (c1 + c2 )e3t + c2 te3t



ó
x2 (t) = −c1 e3t − c2 te3t
     
x1 (t) 1 1
= (c1 + c2 t)e3t + c2 e3t
x2 (t) −1 0

Calculemos la solución particular que cumple x1 (0) = x2 (0) = 1.



1 = c1 + c2
1 = −c1

De modo que c1 = −1 y c2 = 2. La solución particular es

x1 (t) = e3t + 2te3t




x2 (t) = e3t − 2te3t

5. Obtener la solución general de los sistemas X 0 = AX con


 
  10 10 −14
3 2
a) A = b) A =  3 5 −5 
−4 −1
7 8 −10
   
3 −1 0 6 8 −10
c) A =  0 3 0  d) A =  2 2 −3 
0 2 3 5 6 −8
7.4 SISTEMAS DE ECUACIONES DIFERENCIALES 143

Caso a). Se tiene

p(λ) = λ2 − 2λ + 5 = (λ − (1 + 2i)) (λ − (1 − 2i))

Tenemos dos autovalores complejos conjugados. Las matrices canónicas


de Jordan compleja y real son, respectivamente,
   
1 + 2i 0 0 1 2
J= , J =
0 1 − 2i −2 1

Para determinar la matriz de paso P ∈ M2 (C) tal que P −1 AP = J ,


necesitamos una base de autovectores de C2 . Es fácil ver que

M (1 + 2i) = E1 (1 + 2i) = V1+2i = L{(1, −1 + i)}


M (1 − 2i) = E1 (1 − 2i) = V1−2i = L{(1, −1 − i)}

Por consiguiente, la base buscada es B = {(1, −1 + i), (1, −1 − i)}. La


matriz de paso es
 
1 1
P = ∈ M2 (C)
−1 + i −1 − i

La matriz de paso Q ∈ M2 (R), cuyas columnas dan lugar a las solu-


ciones del sistema, es
 
1 0
Q= ,
−1 1

de modo que la solución general del sistema es

et cos 2t et sen 2t
     
x1 (t) 1 0 c1
=
x2 (t) −1 1 −et sen 2t et cos 2t c2

Caso b). Se tiene p(λ) = λ3 − 5λ2 + 8λ − 4 = (λ − 1)(λ − 2)2 . Por


un lado, dim(V2 ) = 1 con V2 = L{(4, 1, 3)} de manera que A no es
diagonalizable. Resulta
 
1 0 0
J = 0 2 1 
0 0 2

Por otro lado,

E1 (1) = V1 = L{(2, 1, 2)} = M (1)


144 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Como
 
−4 −2 6
(A − 2Id)2 =  −2 −1 3  ,
−4 −2 6

resulta E2 (2) = Ker(A − 2Id)2 = L{(−1, 2, 0), (3, 0, 2)}. Así,

E1 (2) = L{(4, 1, 3)} E2 (2) = L{(−1, 2, 0), (3, 0, 2)} = M (2)

Se elige B(1) = {u1 } = {(2, 1, 2)} como base de M (1). Se escoge


v2 ∈ E2 (2) \ E1 (2), por ejemplo, v2 = (−1, 2, 0), y v1 = (A − 2Id)v2 =
(12, 3, 9). Así obtenemos B(2) = {v1 , v2 } como base de M (2). Queda

B = {(2, 1, 2), (12, 3, 9), (−1, 2, 0)}

con matriz de paso


 
2 12 −1
P = 1 3 2 
2 9 0

La solución general del sistema de ecuaciones es


    t  
x1 (t) 2 12 −1 e 0 0 c1
 x2 (t)  =  1 3 2   0 e2t te2t   c2 
x3 (t) 2 9 0 0 0 e2t c3

Caso c). Se tiene p(λ) = (3−λ)3 y dim(V3 ) = 2 con V3 = L{(1, 0, 0), (0, 0, 1)}.
De modo que A no es diagonalizable. La matriz de Jordan es
 
3 0 0
J = 0 3 1 
0 0 3

Además,

E1 (3) = L{(1, 0, 0), (0, 0, 1)} E2 (3) = Ker(A − 3Id)2 = R3 = M (3)

Escogemos una base B del siguiente modo: se eligen dim(E2 (3)) −


dim(E1 (3)) = 1 vectores que se encuentren en E2 (3) \ E1 (3); por ejem-
plo, u3 = (0, 1, 0). A continuación se escoge u2 = (A − 3Id)u3 =
7.4 SISTEMAS DE ECUACIONES DIFERENCIALES 145

(−1, 0, 2) ∈ E1 (3) y se elige u1 ∈ E1 (3) independiente de u2 ; por ejem-


plo, u1 = (1, 0, 0). Se tiene la base

B = {(1, 0, 0), (−1, 0, 2), (0, 1, 0)}

de manera que la matriz P es


 
1 −1 0
P = 0 0 1 
0 2 0

La solución general del sistema de ecuaciones es


     3t  
x1 (t) 1 −1 0 e 0 0 c1
 x2 (t)  =  0 0 1   0 e3t te3t   c2 
x3 (t) 0 2 0 0 0 e3t c3

Caso d). Se tiene p(λ) = −λ3 . Además,

E1 (0) = L{(2, 1, 2)} E2 (0) = {(2, 0, 1), (0, 1, 1)} E3 (0) = R3

La matriz A no es diagonalizable. Su matriz de Jordan es


 
0 1 0
J = 0 0 1 
0 0 0

Para conseguir la base B se eligen dim(E3 (0)) − dim(E2 (0)) = 1 vec-


tores de E3 (0) \ E2 (0); por ejemplo, u3 = (0, 0, 1). Será u2 = Au3 =
(−10, −3, −8) ∈ E2 (0) \ E1 (0) y u1 = A2 u3 = Au2 = (−4, −2, −4) ∈
E1 (0). Entonces

B = {(−4, −2, −4), (−10, −3, −8), (0, 0, 1)}

La matriz de paso es
 
−4 −10 0
P =  −2 −3 0 
−4 −8 1

Haciendo el cambio X = P Y , el sistema X 0 = AX se transforma en


Y 0 = JY , más fácil de resolver. Se obtiene
146 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

y10 = y2 , y20 = y3 , y30 = 0

Entonces,

y3 = c3
y2 = c3 t + c2
2
y1 = c3 t2 + c2 t + c1

Al deshacer el cambio se obtiene la solución del sistema de ecuaciones

t2
     
x1 (t) −4 −10 0 1 t 2
c1
 x2 (t)  =  −2 −3 0   0 1 t   c2 
x3 (t) −4 −8 1 0 0 1 c3

6. Hallar la solución general del sistema de ecuaciones X 0 = AX + F (t)


dado por
   
3 −2 t
X0 = X+
2 −2 0

La solución general es de la forma X = Xh +Xp donde Xh es la solución


general del sistema homogéneo y Xp es una solución particular del
sistema no homogéneo. Calculemos primeramente Xh . Se tiene p(λ) =
(λ − 2)(λ + 1). La matriz es diagonalizable y sus subespacios propios
son

E1 (2) = V2 = L{(2, 1)} E1 (−1) = V−1 = L{(1, 2)}


   
1 2 −1 0
De modo que P = yJ = . La solución general
2 1 0 2
del sistema homogéneo X 0 = AX es

e−t 0
       
1 2 c1 1 2
Xh = = c1 e−t + c2 e2t
2 1 0 e2t c2 2 1

La solución particular Xp se obtiene mediante el método de variación


de las constantes.
   
−t 1 2t 2
Xp = c1 (t)e + c2 (t)e
2 1

Al derivar, resulta
7.4 SISTEMAS DE ECUACIONES DIFERENCIALES 147

   
1 2
Xp0 = [c01 (t)e−t − c1 (t)e ] −t
+ [c02 (t)e2t + 2c2 (t)e ] 2t
2 1

Sustituyendo en el sistema, obtenemos


   
1 2
[c01 (t)e−t − c1 (t)e ] −t
+ [c02 (t)e2t + 2c2 (t)e ] 2t
=
2 1
       
3 −2 −t 1 2t 2 t
= c1 (t)e + c2 (t)e +
2 −2 2 1 0

De esta igualdad se deduce que

(c01 (t) − c1 (t))e−t + (2c02 (t) + 4c2 (t))e2t = −c1 (t)e−t + 4c2 (t)e2t + t
(2c01 (t) − 2c1 (t))e−t + (c02 (t) + 2c2 (t))e2t = −2c1 (t)e−t + 2c2 (t)e2t

Simplicando, resulta

c01 (t)e−t + 2c02 (t)e2t = t


2c01 (t)e−t + c02 (t)e2t = 0

Despejando, se tiene

−1 t 2
c01 (t) = te , c02 (t) = te−2t
3 3
Integrando,
 
−1 t −2t −t 1
c1 (t) = e (t − 1), c2 (t) = e −
3 3 6

La solución particular Xp es

      
−1 1 −t 1 2 −t
Xp (t) = (t − 1) + − = 1
3 2 3 6 1 −t + 2

Por consiguiente, la solución general del sistema es


     
−t 1 2t 2 −t
X = Xh + Xp = c1 e + c2 e + 1
2 1 −t + 2
148 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

7. Estudiar la naturaleza de los puntos críticos de los sistemas planos de


los ejercicios 1, 2, 4 y 5 a).
En el ejercicio 1 los autovalores de A son −3 y −1. El origen es un
punto crítico aislado ya que kAk 6= 0 (no tiene a 0 como autovalor).
Como el signo de los autovalores es negativo, tenemos un nodo estable.
En el ejercicio 2 se tiene un punto de silla (autovalores de signo distin-
to).
En el ejercicio 4 se tiene un autovalor positivo doble con A no diago-
nalizable. Estamos ante un nodo degenerado (o impropio) inestable.
En el ejercicio 5 a) se tienen dos autovalores complejos conjugados λ =
α ± βi = 1 ± 2i con α > 0, de manera que estamos ante una espiral
inestable.
7.5 PRODUCTO ESCALAR. ESPACIO EUCLÍDEO 149

7.5. PRODUCTO ESCALAR. ESPACIO EUCLÍDEO

1. En el espacio euclídeo usual R4 se consideran los subespacios vectoriales

W1 = {(x, y, z, t) ∈ R4 : x − y = 0, z + t = 0}

W2 = L{(1, 1, −2, 2), (1, 0, −1, 0)}

Hallar:

a) Las ecuaciones de W1⊥ y una base ortonormal de W1⊥ .


b) Las ecuaciones del complemento ortogonal W2⊥ y una base orto-
gonal para W2 .

Resolvamos a). Buscamos las ecuaciones de W1⊥ . En primer lugar, se


determina una base de W1 pasando a paramétricas:


 x = λ
y = λ

W1 ≡
 z
 = −µ
t = µ

Se tiene BW1 = {(1, 1, 0, 0), (0, 0, −1, 1)}. Entonces,

W1⊥ = {x̄ ∈ R4 : x̄ ⊥ (1, 1, 0, 0) y x̄ ⊥ (0, 0, −1, 1)}


x+y = 0
W1⊥ ≡
−z + t = 0

Las ecuaciones paramétricas son




 x = λ
y = −λ

W1⊥ ≡
 z
 = µ
t = µ

y una base será BW1⊥ = {(1, −1, 0, 0), (0, 0, 1, 1)}. Obsérvese que esta
base ya es ortogonal con respecto al producto escalar usual. Buscamos
que sea ortonormal. Basta dividir cada vector entre su módulo. Así
 
0 1 1
BW ⊥ = √ (1, −1, 0, 0), √ (0, 0, 1, 1)
1 2 2
150 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

es la base ortonormal de W1⊥ buscada.


Resolvamos b). Determinemos una base ortogonal para W2 . Los vec-
tores {(1, 1, −2, 2), (1, 0, −1, 0)} son base de W2 , pero no son orto-
gonales. Elegimos e1 = (1, 1, −2, 2). Aplicamos Gram-Schmidt para
obtener

e2 = (1, 0, −1, 0) − h(1,0,−1,0),(1,1,−2,2)i


k(1,1,−2,2)k2
(1, 1, −2, 2)
1
= 10 (7, −3, −4, −6)

La base ortogonal pedida es BW2 = {(1, 1, −2, 2), (−7, 3, 4, 6)}


Las ecuaciones de W2⊥ son

x + y − 2z + 2t = 0
W2⊥ ≡
x−z = 0

2. Dada la forma bilineal simétrica sobre R3 , F (x, y) = xt Ay , siendo


 
a 0 0
A =  0 2 −1 
0 −1 2

a) Determinar para qué valores de "a" dene F un producto escalar.


b) Para a = 1, ¾son ortogonales los vectores (1, 1, 1) y (2, −1, −1)?

Resolvamos a). Aplicamos el criterio de Sylvester. Debe ocurrir

∆1 = a > 0, ∆2 = 2a > 0, ∆3 = 3a > 0

Esto equivale a pedir a > 0.


Resolvamos b). Se tiene

  
1 0 0 2
h(1, 1, 1), (2, −1, −1)i = (1, 1, 1)  0 2 −1   −1  = 0
0 −1 2 −1

de modo que los vectores dados sí son ortogonales con respecto al


producto escalar denido por F para a = 1.
3. Si F es la forma bilineal en R2 cuya matriz asociada con respecto de
la base canónica es
 
a −1
A= ,
−1 1
7.5 PRODUCTO ESCALAR. ESPACIO EUCLÍDEO 151

determinar los valores de "a" para los que F dene un producto escalar.
Por el criterio de Sylvester, debe ocurrir

∆1 = a > 0, ∆2 = a − 1 > 0

De modo que se tiene producto escalar si, y sólo si, a > 1.


4. Sea Q : R4 → R la forma cuadrática denida en la base canónica por
la matriz:
 
2 0 1 0
 0 2 0 1 
A=
 1

0 2 0 
0 1 0 2

Se pide:

a) Determinar si Q da lugar a un producto escalar.


b) En el espacio euclídeo real (R4 , h , i) que dene Q se pide:
b.1) Calcular la distancia y ángulo entre los vectores u = (1, 1, 1, 1)
y v = (1, 1, 0, 0).
b.2) Obtener las ecuaciones implícitas del complemento ortogonal
al subespacio vectorial U = L{(1, 1, 0, 0), (1, 1, 1, 0)}.
b.3) Determinar una base ortonormal del subespacio vectorial V =
L{(1, 1, 1, 1), (1, 0, 0, 1)}.

Resolvamos a). Aplicamos el criterio de Sylvester.

∆1 = 2 > 0, ∆2 = 4 > 0, ∆3 = 6 > 0, ∆4 = 9 > 0

Efectivamente, Q da lugar a un producto escalar.


Resolvamos b.1). La distancia entre los vectores
  
1 1
 1   1
 1  yv= 0
 es

u=  

1 0

v  
0
u
u
0 
p u 
d(u, v) = ku − vk = hu − v, u − vi = u(0, 0, 1, 1)A 
 1 =2
u 
t
1
152 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

El ángulo entre los vectores se calcula a partir de la fórmula hu, vi =


kukkvk cos(α). Tenemos

hu, vi ut Av 6 3 3
cos(α) = =√ √ =√ √ = √ =
kukkvk t
u Au v Avt 12 4 2 3 2

En consecuencia, α = arccos( 3
2 ) = π6 .
Resolvamos b.2). Dada una base de U , BU , el subespacio U ⊥ es

U ⊥ = {x̄ : x̄ ⊥ BU } = {x̄ : x̄ ⊥ (1, 1, 0, 0), x̄ ⊥ (1, 1, 1, 0)}

Las ecuaciones son



⊥ 2x + 2y + z + t = 0
U ≡
3x + 2y + 4z = 0

Resolvamos b.3). Los vectores


  
1 1
 1   0
 1  y u2 =  0

u1 =    

1 1

son base de V pero no son ortogonales, ya que ut1 Au2 = 6 6= 0. Es-


cogemos e1 = (1, 1, 1, 1). Para obtener e2 perpendicular a e1 , e2 ∈ V ,
aplicamos Gram-Schmidt.

hu2 , e1 i 1
e2 = u2 − 2
e1 = (1, 0, 0, 1)− (1, 1, 1, 1) = (1/2, −1/2, −1/2, 1/2)
ke1 k 2

La base BV = {(1, 1, 1, 1), (1, −1, −1, 1)} es una base ortogonal de V
con respecto al producto escalar determinado por Q. Para obtener una
base ortonormal, cada vector debe dividirse entre su módulo. Así,
 
1 1
BV0 = √ (1, 1, 1, 1), (1, −1, −1, 1)
2 3 2

es la base buscada.
5. Dado R3 con el producto escalar usual, calcular:

a) La proyección del vector (1, 0, 0) sobre el subespacio


U ≡ {x + y = 0}.
7.5 PRODUCTO ESCALAR. ESPACIO EUCLÍDEO 153

b) La proyección del vector (1, 2, 3) sobre el subespacio W = L{(1, 0, 1)}.

Resolvamos a). Escogemos una base ortogonal de U , BU = {u1 =


(1, −1, 0), u2 = (0, 0, 1)}, y calculamos PU (x) para x = (1, 0, 0).

hx, u1 i hx, u2 i 1
PU (x) = 2
u1 + 2
u2 = (1, −1, 0)+0(0, 0, 1) = (1/2, −1/2, 0)
ku1 k ku2 k 2

Resolvamos b). Sea x = (1, 2, 3). Una base ortogonal de W es BW =


{w1 = (1, 0, 1)}. Entonces,

hx, w1 i
PW (x) = w1 = (2, 0, 2)
kw1 k2

6. En R4 , con el producto escalar usual, se considera el subespacio

U = L{u1 = (0, 1, 1, 1), u2 = (0, 1, 1, 0), u3 = (0, 1, 0, −1)}

Se pide:

a) Hallar una base ortonormal de U .


b) Hallar las proyecciones sobre U y sobre U ⊥ del vector v = (1, 2, 3, 4).

Resolvamos a). Aplicamos Gram-Schmidt:

e1 = (0, 1, 1, 1)
e2 = u2 − hu 2 ,e1 i
ke1 k2 1
e = 13 (0, 1, 1, −2)
hu3 ,e1 i hu3 ,e2 i
e3 = u3 − ke1 k2 1
e − ke2 k2 2
e = 12 (0, 1, −1, 0)

Como base ortonormal elegimos


 
1 1 1
BU = √ (0, 1, 1, 1), √ (0, 1, 1, −2), √ (0, 1, −1, 0)
3 6 2

7. En R4 , con el producto escalar usual, utilizar el método de Gram-


Schmidt para calcular una base ortonormal a partir de los vectores

{u1 = (1, 1, 1, 1), u2 = (1, 1, 0, 0), u3 = (1, 1, 1, 0), u4 = (1, 0, 0, 0)}

Se tiene:
154 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

e1 = (1, 1, 1, 1)
e2 = u2 − hu 2 ,e1 i
ke1 k2 1
e = 12 (1, 1, −1, −1)
hu3 ,e1 i hu3 ,e2 i
e3 = u3 − ke1 k2 1
e − ke2 k2 2
e = 12 (0, 0, 1, −1)
hu4 ,e1 i hu4 ,e2 i hu4 ,e3 i
e4 = = u4 − ke1 k2 1
e − ke2 k2 2
e − ke3 k2 3
e = 12 (1, −1, 0, 0)

8. Hallar la aproximación de Fourier de orden 5 y la serie de Fourier de


la función f ∈ C[−π, π] siguiente:

π + x −π ≤ x < 0
f (x) =
π−x 0≤x≤π

Deducir del resultado obtenido para la serie de Fourier la siguiente


igualdad:

π2 1 1 1 1
= 1 + + 2 + 2 + 2 + ···
8 2 3 5 7
Téngase en cuenta que la función f (x) es par, de modo que bk = 0
para todo k ≥ 1. El cálculo del resto de los coecientes de Fourier da:

h iπ
x2
1
Rπ 1 π
R 1 π
a0 = 2π −π f (x) dx = π 0 (π − x) dx = π πx − 2 0 = 2
1 π
R
ak = π −π f (x) cos(kx) dx =
hR i
1 0 Rπ
= π −π (π + x) cos(kx) dx + 0 (π − x) cos(kx) dx =
si k es par
(
2
0
= πk2
(1 − cos(kπ)) = 4
πk2
si k es impar

La penúltima igualdad se obtiene integrando por partes.


La aproximación de Fourier de orden 5 es

π 4 4 4
f5 (x) = + cos(x) + 2 cos(3x) + 2 cos(5x)
2 π 3 π 5 π
La serie de Fourier es

π 4 4 4
f (x) = 2 + π cos x + 32 π
cos(3x) + 52 π
cos(5x)+
4
··· + (2k+1)2 π
cos((2k + 1)x) + · · ·

Escrito de un modo sintético,


7.5 PRODUCTO ESCALAR. ESPACIO EUCLÍDEO 155


π 4 X cos((2k + 1)x)
f (x) = +
2 π (2k + 1)2
k=0

Como f (0) = π y cos(0) = 1, resulta


 
π 4 1 1 1
π= + 1 + 2 + 2 + 2 ···
2 π 3 5 7

De manera que

π2 1 1 1 X 1
= 1 + 2 + 2 + 2 + ··· =
8 3 5 7 (2k + 1)2
k=0

9. Hallar la aproximación de Fourier de orden 6 y el desarrollo en serie


de Fourier de la función f (x) = x en el intervalo [−π, π]. Utilizando el
resultado, obtener la igualdad siguiente:

π 1 1 1 1
= 1 − + − + − ··· .
4 3 5 7 9
Téngase en cuenta que la función f (x) es impar, de modo que ak = 0
para todo k = 0, 1, 2, . . . . Calculemos el resto de coecientes de Fourier.
Z π
1 2
bk = x sen(kx) dx = (−1)k+1
k −π k

La igualdad se obtiene integrando por partes. En consecuencia, la


aproximación de Fourier de orden 6 es

2 2 2 2
f6 (x) = 2 sen x−sen(2x)+ sen(3x)− sen(4x)+ sen(5x)− sen(6x) =
3 4 5 6

 
1 1 1 1 1
= 2 sen x − sen(2x) + sen(3x) − sen(4x) + sen(5x) − sen(6x)
2 3 4 5 6

El desarrollo en serie de Fourier de f (x) = x es, por tanto,



1 1 1
f (x) = x = 2 sen x − sen(2x) + sen(3x) − sen(4x)+
2 3 4

1
· · · + (−1)k+1 sen(kx) + · · ·
k
156 7 SOLUCIONES A LOS EJERCICIOS PROPUESTOS

Escrito de un modo sintético,



X (−1)k+1 sen(kx)
f (x) = x = 2
k
k=1

Si se escoge x = π2 , resulta
 
π 1 1 1
= 2 1 − + − + ···
2 3 5 7

En consecuencia,

X (−1)k ∞
π 1 1 1
= 1 − + − + ··· =
4 3 5 7 2k + 1
k=0
REFERENCIAS 157

Referencias

[1] Burgos, J., Álgebra Lineal y Geometría Cartesiana, McGRaw-Hill, 2006.


[2] Fernández, C.F., Vázquez, F.J., Vegas, J. M., Ecuaciones diferenciales
y en diferencias, Thomson, 2003.
[3] Hernández, E.,Álgebra y Geometría, Adisson-Wesley/Universidad
Autónoma de Madrid, 1994.
[4] Lipschutz, S.,Álgebra Lineal, McGraw-Hill, 2003.
[5] López, M., Problemas resueltos de Ecuaciones Diferenciales, Thomson,
2007.
[6] Merino, L., Santos, E., Álgebra Lineal con métodos elementales, Thom-
son, 2006.
[7] Nicholson, W. K.,Álgebra Lineal con aplicaciones, McGraw-Hill, 2003.
[8] Strang, G., Álgebra Lineal y sus aplicaciones, Thomson, 2007.
[9] Villa, A.,Problemas de Álgebra con esquemas teóricos, Clagsa, 1994.

También podría gustarte