Está en la página 1de 37

GEOMETRÍA I (19/20)

1. Razónese si son verdaderas o falsas las afirmaciones siguientes:

a) Dado p(x) ∈ R4 [x] distinto del polinomio


 nulo,
 existe una base ordenada B de R4 [x] tal
0
1
 
que las coordenadas de p(x) en B son: 2 .

3
4
b) Una aplicación lineal f : V → V 0 es inyectiva si y sólo si f t es inyectiva.

2. Para cada λ ∈ R, se considera el endomorfismo fλ : R3 → R3 cuya matriz asociada en la base


usual es la siguiente:  
1 3/2 λ−1
 0 −1/2 −1  .
2
0 1 − λ /2 1

(i) Hallar Im(fλ ) y Ker(fλ ), según los valores del parámetro λ. Decidir si fλ es inyectiva,
sobreyectiva o biyectiva.
T
(ii) Obtener, según los valores de λ,L una base de Ker(fλ ) Im(fλ ) y de Ker(fλ ) + Im(fλ ).
¿Para qué valores R3 = Ker(fλ ) Im(fλ )?.
(iii) Para los valores de λ que sea posible, encontrar bases de R3 tales que la matriz asociada
a fλ en esas bases sea la siguiente:
 
1 0 0
 0 1 0 .
0 0 0

3. Calcúlese un endomorfismo f de M2 (R) que verifique las siguientes tres propiedades:

f ◦ f = f,
Im f t = an(S2 (R)), y
Ker f t = an(A2 (R)),

donde S2 (R) y A2 (R) son los subespacios de matrices simétricas y antisimétricas, respectiva-
mente, del espacio vectorial real M2 (R) de las matrices cuadradas 2 × 2.
1. Razónese si son verdaderas o falsas las afirmaciones siguientes:

a) Dado p(x) ∈ R4 [x] distinto del polinomio


 nulo,
 existe una base ordenada B de R4 [x] tal
0
1
 
que las coordenadas de p(x) en B son: 2 .

3
4
b) Una aplicación lineal f : V → V 0 es inyectiva si y sólo si f t es inyectiva.

Solución.

a) VERDADERO. De hecho, es cierto en dimensión finita con más generalidad (para cualquier
vector y n-úpla no nulos). Daremos dos razonamientos, el primero más heurı́stico usando matrices
y el segundo formulado de manera general y con elementos más básicos.

Razonamiento 1. Al ser p(x) no nulo, el conjunto {p(x)} es linealmente independiente y podemos


ampliarlo hasta un base B̄ = (p(x), p2 (x), . . . , p5 (x)) de R4 [x]. Buscamos una nueva base B en la
que se obtengan las coordenadas pedidas. Esto equivale a que la matriz de cambio de base satisfaga:
 
0 a12 a13 a14 a15
1 a22 a23 a24 a25 
 
M (I, B ← B̄) =  2 a32 a33 a34 a35 

3 a42 a43 a44 a45 
4 a52 a53 a54 a55

(obsérvese que las coordenadas de p(x) en B̄ son (1, 0, 0, 0, 0)t ). Basta entonces con escoger las
columnas restantes de modo que se obtenga una matriz regular. Ası́, por ejemplo, escogemos:
 
0 1 0 0 0
 1 0 0 0 0 
 
M (I, B ← B̄) = 
 2 0 1 0 0 ,

 3 0 0 1 0 
4 0 0 0 1

la cual es claramente regular1 . La base pedida B queda entonces unı́vocamente determinada a


partir de B̄ y esta matriz. De hecho, si se quisiera construir explı́citamente B a partir de B̄,
bastarı́a con calcular la matriz inversa de la anterior (sus columnas proporcionarán las coordenadas
de los vectores de B en la base B̄).

Nota. Es de remarcar que este razonamiento es fácilmente generalizable a cualquier espacio


vectorial de dimensión finita V (K), ya que si se sitúa en la primera columna cualquier n-úpla no
nula, se puede obtener una matriz regular ampliando esa columna hasta una base de K n .

1
Es inmediato que su determinante es −1 6= 0 porque, al ser la caja 2 × 3 superior derecha igual a 0, basta con
tomar el producto de los determinantes de las dos cajas diagonales.
Razonamiento 2. Sea V (K) un espacio vectorial de dimensión n, sea v ∈ V no nulo y (a1 , . . . , an ) ∈
K n no nula. Demostraremos que existe una base B tal que (a1 , . . . , an )t sean las coordenadas de
v en B. (Obsérvese que el caso particular V = R4 [x], v = p(x), (a1 , . . . , an ) = (0, 1, 2, 3, 4) es el
resultado buscado.)
Para ello, sea i un ı́ndice tal que ai 6= 0, y ampliemos v hasta una base de V (K),

B̄ = (v1 , . . . , vi−1 , v, vi+1 , . . . , vn )

en la cual el vector v original se ha ubicado en la posición i-ésima. Observemos que existe un vector
vi ∈ V que hace que se verifique la igualdad:

v = a1 v1 + · · · + ai−1 vi−1 + ai vi + ai+1 vi+1 . . . an vn . (1)

De hecho, como ai 6= 0, el vector vi queda determinado unı́vocamente suponiendo que se verifica la


igualdad anterior y despejando en ella, esto es, se toma vi como:

vi = a−1
i (v − a1 v1 + · · · − ai−1 vi−1 − ai+1 vi+1 · · · − an vn ) .

En esta expresión se observa que, al escribir vi como combinación lineal de la base B̄, la coordenada
correspondiente a v es a−1
i . Por ser este escalar distinto de 0, al reemplazar en B̄ el vector v por vi
se obtiene una nueva base2 ,

B = (v1 , . . . , vi−1 , vi , vi+1 , . . . , vn ).

Como, por la elección de vi , se verifica (18), ésta es la base requerida.

b) FALSO. Si f : V → V 0 es inyectiva y dim V < dim V 0 entonces f t : (V 0 )∗ → V ∗ no puede


ser inyectiva, porque la dimensión de su dominio (que es igual a dim V 0 ) es mayor que la de su
codominio (igual a dim V ).
Ası́, cualquier aplicación inyectiva que no sea biyectiva sirve de contraejemplo (por ejemplo, la
única aplicación lineal de {0} a R, cuya traspuesta es la aplicación nula con dominio R∗ ).

Nota. Es de señalar que se verifican las siguientes propiedades relacionadas, que se pueden
comprobar como ejercicio:

f es inyectiva si y sólo si f t es suprayectiva.

f es suprayectiva si y sólo si f t es inyectiva.

En el caso dimV = dim V 0 , se cumple: f es inyectiva si y sólo si f t es inyectiva.

2
Éste es un resultado básico y conocido, aunque no del todo trivial ¡compruébese directamente!
2. Para cada λ ∈ R, se considera el endomorfismo fλ : R3 → R3 cuya matriz asociada en la base
usual es la siguiente:  
1 3/2 λ−1
 0 −1/2 −1  .
2
0 1 − λ /2 1

(i) Hallar Im(fλ ) y Ker(fλ ), según los valores del parámetro λ. Decidir si fλ es inyectiva,
sobreyectiva o biyectiva.
T
(ii) Obtener, segúnn los valores de λ,Luna base de Ker(fλ ) Im(fλ ) y de Ker(fλ ) + Im(fλ ).
¿Para qué valores R3 = Ker(fλ ) Im(fλ )?.
(iii) Para los valores de λ que sea posible, encontrar bases de R3 tales que la matriz asociada
a fλ en esas bases sea la siguiente:
 
1 0 0
 0 1 0 .
0 0 0

Solución.

(i) Como la dimensión del conjunto imagen es el rango de la matriz asociada en cuaquier base,
comenzaremos calculando el rango de M = M (fλ , Bu ) (= M (fλ , Bu ← Bu )):

1 3/2 λ − 1
−1 = (1 − λ2 )/2,

0
−1/2
0 1 − λ2 /2 1
por lo tanto el rango de M es 3 para todo λ 6= ±1 y rango de M igual a 2 para λ = 1 y λ = −1 (es
de notar que siempre podemos encontrar una submatriz 2 × 2 con determinante distinto de cero,
por ejemplo, la formada por las dos primeras filas y columnas). Distinguimos pues los siguientes
casos:
Caso 1: si λ 6= ±1, dim(Im(fλ )) = rg(M ) = 3 y por tanto Im(fλ ) = R3 y Ker(fλ ) = {(0, 0, 0)}
ya que dim(Ker(fλ )) = dim(R3 ) − dim(Im(fλ )) = 3 − 3 = 0. La aplicación fλ es inyectiva y
sobreyectiva, luego es un isomorfismo.
Caso 2: si λ = 1, dim(Im(f1 )) = rg(M ) = 2 y una base de Im(f1 ) es la formada por dos de
las columnas de M que no sean proporcionales. Es decir,
Im(f1 ) = L((1, 0, 0), (3/2, −1/2, 1/2), (0, −1, 1)) = L((1, 0, 0), (0, −1, 1)),
y {(1, 0, 0), (0, −1, 1)} es una base de Im(f1 ).
Usando la fórmula de las dimensiones dim(Ker(f1 )) = 3 − 2 = 1. Para obtener una base del
núcleo resolvemos el SEL,
    
1 3/2 0 x 0
 0 −1/2 −1   y  =  0  ,
0 1/2 1 z 0
ya que el núcleo está formado por los vectores de R3 con imagen nula. Las soluciones del SEL
son z = µ, y = −2µ, x = 3µ con µ ∈ R y, por tanto,

Ker(f1 ) = L{(3, −2, 1)},


esto es, {(3,-2,1)} es una base de Ker(f1 ).
Como Ker(f1 ) 6= {(0, 0, 0)} y Im(f1 ) 6= R3 , f1 no es inyectiva ni sobreyectiva.
Caso 3: si λ = −1, razonando como en el caso anterior Im(f−1 ) = L((1, 0, 0), (−2, −1, 1)), lo
que proporciona la base, y Ker(f−1 ) está formado por las soluciones del SEL
    
1 3/2 −2 x 0
 0 −1/2 −1   y  =  0  ,
0 1/2 1 z 0
que son z = µ, y = −2µ, x = 5µ. Luego Ker(f−1 ) = L{(5, −2, 1)} y se obtiene la base.
La aplicación f−1 no es inyectiva ni sobreyectiva.

T
(ii) Para λ 6= ±1, como el núcleo está formado sólo por el vector nulo, entonces Ker(fλ ) Im(fλ ) =
{(0, 0, 0)}. Usando la fórmula de Grassman
\
dim(Ker(fλ ) + Im(fλ )) = dim(Ker(fλ )) + dim(Im(fλ )) − dim(Ker(fλ ) Im(fλ )) = 3,

por lo que Ker(fλ ) + Im(fλ ) = R3 y como la intersección es nula, la suma es directa.

Para λ = 1 sabemos que Ker(f1 ) + Im(f1 ) = L((3, −2, 1), (1, 0, 0), (0, −1, 1)) ya que un sistema
de generadores de la suma se obtiene al unir las bases de cada uno de los subespacios vectoriales
involucrados. Además podemos comprobar inmediatamente que los tres vectores son linealmente
independientes (el determinante de la matriz formada con ellos es 6= 0). Por tanto, los tres vectores
3
T
forman base y Ker(f1 ) + Im(f1 ) = R . Por la fórmula de Grassmann, Ker(f1 ) Im(f1 ) = {(0, 0, 0)}
y la suma es también directa.

Finalmente para λ = −1, Ker(f−1 ) + Im(f−1 ) = L((5, −2, 1), (1, 0, 0), (−2, −1, 1))
T y los tres
vectores son linealmente independientes. Ası́, Ker(f−1 ) + Im(f−1 ) = R3 y Ker(f−1 ) Im(f−1 ) =
{(0, 0, 0)}, por lo que la suma es directa.

Resumiendo, R3 = Ker(fλ )
L
Im(fλ ) para todo λ ∈ R.

(iii) Como el rango de la matriz que nos dan en este apartado tiene rango 2, la matriz M será
equivalente a la nueva matriz sólo para λ = ±1. Para estos valores de λ vamos a encontrar bases
B y B 0 de R3 para las cuales
 
1 0 0
M (fλ , B 0 ← B) =  0 1 0  .
0 0 0

Para λ = 1, construimos la base B en el dominio cogiendo la base de Ker(f1 ) y ampliando hasta


una base de R3 . Por ejemplo,

B = {(0, 1, 0), (0, 0, 1), (3, −2, 1)}.

Es de remarcar que la base del núcleo se ha incluido al final de la base B porque la columna nula
aparece también al final de la matriz.

Una vez fijada la base B, para que la matriz asociada a la aplicación tenga la forma deseada, la
base B 0 debe estar formada por las imágenes de (0, 1, 0) y (0, 0, 1) (los vectores que hemos añadido
a la base del núcleo para formar la base B) y ampliarla a una base de R3 . Luego,

B 0 = {(3/2, −1/2, 1/2), (0, −1, 1) (0, 0, 1)}.


Comprobemos que la matriz asociada a f1 en B y B 0 tiene la forma requerida. Para ello, la
primera columna de la matriz asociada será las coordenadas de f1 (0, 1, 0) = (3/2, −1/2, 1/2) en
la base B 0 , las cuales son (1,0,0). La segunda columna estará compuesta por las coordenadas de
f1 (0, 0, 1) = (0, −1, 1) en B 0 que son (0, 1, 0), y la tercera columna es f (3, −2, 1)B 0 = (0, 0, 0).
Para λ = −1, razonando de la misma forma obtenemos B = {(0, 1, 0), (0, 0, 1), (5, −2, 1)} y
0
B = {(3/2, −1/2, 1/2), (−2, −1, 1) (0, 0, 1)}.
3. Calcúlese un endomorfismo f de M2 (R) que verifique las siguientes tres propiedades:

f ◦ f = f,
Im f t = an(S2 (R)), y
Ker f t = an(A2 (R)),

donde S2 (R) y A2 (R) son los subespacios de matrices simétricas y antisimétricas, respectiva-
mente, del espacio vectorial real M2 (R) de las matrices cuadradas 2 × 2.

Solución. Recordemos que, para cualquier aplicación lineal:

Imf t = an(Ker f ), Kerf t = an(Im f ).

Por tanto, las condiciones segunda y tercera que se imponen a f equivalen a:

an(Ker f ) = an(S2 (R)), an(Im f ) = an(A2 (R)).

Como dos subespacios vectoriales son iguales si y sólo si sus anuladores coinciden, esto equivale a:

Nucf = S2 (R), Im f = A2 (R). (2)

Recordemos también que son bases de S2 (R), A2 (R), resp., los conjuntos BS y BA definidos por:
       
1 0 0 0 0 1 0 1
BS = , , , BA = .
0 0 0 1 1 0 −1 0

Como, además, M2 (R) = S2 (R) ⊕ A2 (R), el conjunto

B = BS ∪ BA

es una base de M2 (R), la cual supondremos ordenada de manera natural.


Para determinar f , basta con especificar las imágenes de los elementos de B y extender por
linealidad. Para que se verifiquen las propiedades (19) basta con imponer:
       
1 0 0 0 0 1 0 0
f( ) = f( ) = f( )= (3)
0 0 0 1 1 0 0 0
y    
0 1 0 1
f( )= . (4)
−1 0 −1 0
De hecho, es inmediato de estas igualdades que S2 (R) ⊂ Ker(f ) (pues una base de S2 (R) se aplica
en 0) y que Im f = A2 (R) (ya que f (B) es un sistema de generadores de A2 (R)). En particular,
rango(f ) = 1 por lo que dim(Ker f )=3 y, como dim(S2 (R))= 3 se da la igualdad S2 (R) = Ker(f ).
Más aún, la condición f ◦f = f también se verifica. De hecho, para que se verifique esta igualdad
es suficiente (por la linealidad de f ) con que se cumpla para los vectores de una base, y resulta
inmediato de (3) y (4) que se verifica para los vectores de3 B.
En consecuencia, la aplicación lineal f buscada es la que se obtiene extendiendo por linealidad
las igualdades (3) y (4).
   
3 0 1 0 1
Es de señalar que, si en lugar de la igualdad (4) se hubiera impuesto, por ejemplo, f ( ) = ,
0 0 −1 0
también habrı́amos construido una aplicación lineal f que verificarı́a (19). Sin embargo, esta aplicación no verificarı́a
f ◦ f = f . La elección (4) realmente está forzada porque la igualdad f ◦ f = f significa que f es un proyector y, por
tanto, debe cumplir: (a) V = Ker f ⊕ Im f y (b) f (v) = v para todo v ∈ Im f .
Aunque lo obtenido ya es suficiente para terminar el ejercicio, conviene especificar f de manera
más precisa. De (3) y (4) resulta inmediato:
 
0 0 0 0
0 0 0 0
0 0 0 0 .
M (f, B) =  

0 0 0 1
 
a b
Si queremos obtener explı́citamente f ( ), podemos hacerlo cambiando de esta base a la
c d
       
1 0 0 1 0 0 0 0
usual de las matrices, esto es, Bu = ( , , , ) (¡compruébese!).
0 0 0 0 1 0 0 1
 
a b
Alternativamente, podemos calcular f ( ) con facilidad teniendo en cuenta que cualquier
c d
matriz cuadrada A se puede escribir como suma de una matriz simétrica y otra antisimétrica:
1 1
A = (A + At ) + (A − At )
2 2
Ası́, se tiene:
     
a b 1 2a b + c 1 0 b−c
= 2 +2
c d  b + c 2d  −b + c 0   
1 0 0 0 0 1 0 1
= a +d + 21 (b + c) + 12 (b − c) .
0 0 0 1 1 0 −1 0

Usando (3) y (4) se tiene entonces:


     
a b 1 0 1 1 0 1
f( ) = 0 + 0 + 0 + (b − c)f ( ) = (b − c) ,
c d 2 −1 0 2 −1 0

esto es:      
a b 1 0 b−c a b
f( )= , ∀ ∈ M2 (R).
c d 2 −b + c 0 c d
GEOMETRÍA I (18/19)

1. Sea V (K) un espacio vectorial de dimensión n ∈ N y sean φ, ψ ∈ V ∗ dos formas lineales.


Demuéstrese:
{φ, ψ} es linealmente independiente si sólo si la dimensión de (Nuc φ) ∩ (Nuc ψ) es n − 2.

2. Sean V (K), V 0 (K) espacios vectoriales de dimensiones n, m ∈ N, respectivamente. Razónese


si son verdaderas o falsas las siguientes afirmaciones:

a) Si f es un endomorfismo de V (K) tal que Im(f ◦ f ) = Im(f ), entonces se verifica:


Nuc (f ◦ f ) = Nuc (f )
b) Si h : V → V 0 es una aplicación lineal suprayectiva, entonces ht es inyectiva.

3. Se considera el espacio vectorial R2 [x] de los polinomios de grado menor o igual a 2. Constrúya-
se un endomorfismo f de R2 [x] que verifique:

f ◦f =f y Im(f ) = {p(x) ∈ R2 [x] : p(0) + p0 (0) = 0, p0 (0) + p00 (0) = 0}

(donde p0 (0), p00 (0) denotan, resp., la primera y segunda derivada del polinomio en 0). De-
termı́nese la matriz de f en  la baseusual de R2 [x] y, caso de ser posible, determı́nese una
Ir 0
base B tal que M (f, B) = , para algún r ∈ N.
0 0

4. Se considera en el espacio vectorial de las matrices cuadradas M2 (R) el subespacio Uk definido,


para cada k ∈ R, por:
   
k k−1 k+2 2
Uk = L{ , }
k+1 k 0 k+2

Se pide calcular, para cada k ∈ R:

Unas ecuaciones implı́citas de Uk en la base usual de M2 (R).


La dimensión del anulador de Uk ∩ W para k = 1, 2, −1, −2, donde
 
a b
W := { ∈ M2 (R) : a − d = 0, c = 0}.
c d
Sea V (K) un espacio vectorial de dimensión n ∈ N y sean φ, ψ ∈ V ∗ dos formas
lineales. Demuéstrese:
{φ, ψ} es linealmente independiente si sólo si la dimensión de (Nuc φ) ∩ (Nuc ψ)
es n − 2.

Solución. Para la implicación (⇒) es suficiente cualquiera de los siguientes dos razonamientos.

1. Como {φ, ψ} es linealmente independiente, ninguna de las dos formas es la formal lineal nula,
por lo que sus núcleos Nuc(φ), Nuc(ψ) son dos hiperplanos. Se sabe además que la indepen-
dencia lineal obliga a que estos hiperplanos sean distintos (y, al tener la misma dimensión, no
puede estar incluido uno en el otro). Ası́, Nuc(φ)+ Nuc(ψ) = V , ya que esta suma tiene que
ser un subespacio vectorial de V que incluya estrictamente a Nuc(φ) y, como la dimensión del
hiperplano Nuc(φ) es n − 1, el único subespacio vectorial de mayor dimensión que lo contiene
es todo V . En consecuencia:
dim (Nuc(φ) ∩ Nuc(ψ))= dim(Nuc(φ)) + dim (Nuc(ψ)) − dim(Nuc(φ)+ Nuc(ψ))
= (n − 1) + (n − 1)− dim V = n − 2.

2. Es inmediato de la definición de anulador que an{φ, ψ} = (Nuc φ) ∩ (Nuc ψ). Por tanto,
dim (Nuc(φ) ∩ Nuc(ψ))= dim(an{φ, ψ})= dimV -dim (L{φ, ψ}) = n − 2
(la última igualdad porque, al ser {φ, ψ} linealmente independente, dim(L{φ, ψ}) = 2).

Para la implicación (⇐), razonando por el contrarrecı́proco se sigue que, si {φ, ψ} es linealmente
dependiente, entonces una de las formas lineales se puede escribir somo combinación lineal de la
otra. Suponiendo sin pérdida de generalidad ψ = aφ para algún a ∈ K, se obtiene directamente
Nuc(φ) ⊂ Nuc(ψ) por lo que (Nuc φ) ∩ (Nuc ψ)= Nuc(ψ). Como la dimensión de este núcleo es
o bien n o bien n − 1 (dependiendo de si ψ es la forma lineal nula o no), se sigue dim((Nuc φ) ∩
(Nuc ψ))≥ n − 1 y, por tanto, distinta de n − 2.

Nota. Vale la pena observar que, en particular, se obtiene:


En el caso n = 2, {φ, ψ} es linealmente independiente si sólo si (Nuc φ) ∩ (Nuc ψ) = {0}.
En el caso n = 1, {φ, ψ} es siempre linealmente dependiente.
Sean V (K), V 0 (K) espacios vectoriales de dimensiones n, m ∈ N, respectivamente.
Razónese si son verdaderas o falsas las siguientes afirmaciones:

a) Si f es un endomorfismo de V (K) tal que Im(f ◦ f ) = Im(f ), entonces se


verifica: Nuc (f ◦ f ) = Nuc (f )
b) Si h : V → V 0 es una aplicación lineal suprayectiva, entonces ht es inyectiva.

Solución.
a) VERDADERA. Obsérvese que la inclusión Nuc(f ) ⊂ Nuc(f ◦ f ) ocurre para todo endo-
morfismo (pues si v ∈ Nuc(f ) entonces4 (f ◦ f )(v) = f (f (v)) = f (0) = 0). Por tanto, basta con
demostrar dim (Nuc(f ◦ f )) = dim(Nuc(f )). Esto se deduce de:

dim (Nuc (f ◦ f )) = dim V − dim (Im(f ◦ f )) = dim V − dim (Im (f )) = dim (Nuc f ),

donde en la primera y la última igualdad se ha aplicado el teorema del rango (a la aplicación lineal
f ◦ f y a f , resp.), y en la segunda la hipótesis sobre5 f .

Nota. La implicación recı́proca también es verdadera (¡compruébese!)

b) VERDADERA. Cualquiera de los siguientes dos razonamientos lo demuestra:

1. Basta con tener en cuenta las siguientes equivalencias:

h es suprayectiva ⇔ Im(h) = V 0 ⇔ an(Im(h)) = {0} ⇔ Nuc(ht ) = {0} ⇔ ht es inyectiva,

donde en la segunda equivalencia se usa que, claramente, an(V 0 ) = {0}(⊂ (V 0 )∗ ) y en la tercera


la igualdad conocida (y fácil de demostrar directamente, ¡hágase!) an(Im(h)) = Nuc(ht ).

2. Eligiendo bases B y B 0 de V y V 0 resp., se tiene:


h es sobre ⇐⇒ rango(h) = m ⇐⇒ rango(M (h, B 0 ← B)) = m ⇐⇒
rango(M (ht , B ∗ ← (B 0 )∗ )) = m ⇐⇒ dim(Nuc(ht ))= 0 ⇐⇒ ht es inyectiva
donde, para pasar de la primera lı́nea a la siguiente, se usa que el rango de una matriz coincide
con el de la traspuesta y, para la primera equivalencia de la segunda lı́nea:
dim(Nuc(ht ))= dim(V 0 )∗ - rango(ht ) = m− rango(M (ht , B ∗ ← (B 0 )∗ )).

Nota. Ambos razonamientos demuestran a la vez la implicación recı́proca.

4
Aplicando, resp., la definición de composición, que v ∈ Nuc(f ), y que f es lineal.
5
Es de señalar que esta hipótesis, Im(f ◦ f ) = Im(f ), no implica f ◦ f = f . De hecho, cualquier automorfismo
distinto de la aplicación identidad es un contraejemplo a esa implicación (¡compruébese!).
Se considera el espacio vectorial R2 [x] de los polinomios de grado menor o igual
a 2. Constrúyase un endomorfismo f de R2 [x] que verifique:

f ◦f =f y Im(f ) = {p(x) ∈ R2 [x] : p(0) + p0 (0) = 0, p0 (0) + p00 (0) = 0}

(donde p0 (0), p00 (0) denotan, resp., la primera y segunda derivada del polinomio en
0). Determı́nese la matriz de f en la baseusual de  R2 [x] y, caso de ser posible,
Ir 0
determı́nese una base B tal que M (f, B) = , para algún r ∈ N.
0 0

Solución. Obsérvese que un polinomio cualquiera p(x) = a0 + a1 x + a2 x2 de R2 [x] verifica p(0) =


a0 , p0 (0) = a1 , p00 (0) = 2a2 y, por tanto, pertenece a Im(f ) si y sólo si verifica el SEL:

a0 + a1 = 0 a0 = −a1
o (tomando a1 como incógnita principal)
a1 + 2a2 = 0 a2 = − 21 a1 .

Ası́, se considera a1 como parámetro y, escogiendo a1 = −2, se obtiene la solución a0 = 2, a1 =


−2, a2 = 1, que nos produce la base de Im(f ):

BImf = {2 − 2x + x2 }.

Para definir f , ampliemos BImf hasta una base B̄ de R2 [x]. Para ello, podemos tomar la base
usual Bu = (1, x, x2 ) y reemplazar uno de sus vectores, por ejemplo, el tercero, por 2 − 2x + x2 ,
obteniendo ası́ la base:
B̄ = (1, x, 2 − 2x + x2 ) (5)

(el hecho de que B̄ siga siendo una base está garantizado porque la tercera coordenada de 2−2x+x2
en Bu es distinta de 0). Para asegurar también la condición f ◦ f = f , basta entonces con definir
f imponiendo:
f (1) = f (x) = 0, f (2 − 2x + x2 ) = 2 − 2x + x2 (6)
y extendiendo por linealidad estas igualdades. De hecho, es inmediato de ellas dim(Nuc(f )) ≥ 2,
dim(Im(f ))≥ 1, y que en ambos casos se debe dar la igualdad (pues por el teorema del rango
dim(Nuc(f )) + dim(Nuc(f ))= 3). También es inmediato de la última igualdad en (6) que Im(f )
incluye el subespacio pedido y que, de hecho, es igual a él (pues la dimensión de este subespacio y
la de Im(f ) es la misma, igual a 1). La condición f ◦ f = f se satisface porque basta con que se
cumpla sobra una base y, efectivamente, se tiene:

f (f (1)) = f (0) = 0 = f (1), f (f (x)) = f (0) = 0 = f (x), f (f (2−2x+x2 )) = f (2−2x+x2 ).

Obsérvese que la aplicación f ası́ definida es la que verifica:


 
0 0 0
M (f, B̄) =  0 0 0 
0 0 1

Por tanto, esta matriz, junto con expresión de B̄ en (5), también define f .
Cálculo de la matriz de f en Bu . Para calcular M (f, Bu ), obsérvese que (6) proporciona direc-
tamente f (1) y f (x), por lo que basta con calcular f (x2 ). Para ello, podemos escribir x2 como
combinación lineal de B̄ y aplicar (6), esto es:

x2 = 1 · (2 − 2x + x2 ) + 2 · x − 2 · 1, luego f (x2 ) = 1 · f (2 − 2x + x2 ) + 2 · f (x) − 2 · f (1) = 2 − 2x + x2 .

Usando esta expresión de f (x2 ) y (6), se tiene:


 
0 0 2
M (f, Bu ) =  0 0 −2  .
0 0 1

Alternativamente, también se puede calcular M (f, Bu ) a partir de M (f, B̄) usando un cambio de
base. En efecto, P := M (I, Bu ← B̄) se calcula directamente de (5) y su inversa P −1 por cualquiera
de los algoritmos de cálculo (Gauss-Jordan o adjuntos):
   
1 0 2 1 0 −2
P = M (I, Bu ← B̄) =  0 1 −2  , P −1 = M (I, B̄ ← Bu ) =  0 1 2 .
0 0 1 0 0 1

Usamos entonces M (f, Bu ) = M (I, Bu ← B̄) · M (f, B̄) · M (I, B̄ ← Bu ), esto es:
       
1 0 2 0 0 0 1 0 −2 0 0 2
M (f, Bu ) =  0 1 −2  ·  0 0 0  ·  0 1 2  =  0 0 −2  .
0 0 1 0 0 1 0 0 1 0 0 1

Cálculo de la base B requerida. Esta base tiene que existir pues, como se estudió en la asignatura,
un endomorfismo verifica  f ◦ f = f (que define los proyectores) si y sólo si su matriz en
 la igualdad
Ir 0
alguna base es del tipo , donde r = rango(f ).
0 0
De hecho, se sabe que f ◦ f = f implica R2 [x] = Im(f ) ⊕ Nuc(f ). Basta entonces con tomar
como B cualquier base cuyos primeros elementos formen una base de Im(f ) y los restantes una base
de Nuc(f ). Teniendo en cuenta la construcción de B̄ y de f , es suficiente reordenar los elementos
de B̄ en (5). Esto es, definimos:
B = (2 − 2x + x2 , 1, x)
y, directamente de (6), se sigue:
 
1 0 0
M (f, B) =  0 0 0  .
0 0 0
4. Se considera en el espacio vectorial de las matrices cuadradas M2 (R) el subespacio
Uk definido, para cada k ∈ R, por:
   
k k−1 k+2 2
Uk = L{ , }
k+1 k 0 k+2

Se pide calcular, para cada k ∈ R:

• Unas ecuaciones implı́citas de Uk en la base usual de M2 (R).


• La dimensión del anulador de Uk ∩ W para k = 1, 2, −1, −2, donde
 
a b
W := { ∈ M2 (R) : a − d = 0, c = 0}.
c d

Como un cálculo previo, hallemos una base y la dimensión de Uk , según los valores de k. Puesto
que se nos proporciona un sistema de generadores con dos elementos, basta con discutir el rango
de la matriz de las correspondientes coordenadas en la base usual de M2 (R), esto es, de
 
k k+2
 k−1 2 
 . (7)
 k+1 0 
k k+2

Como su elemento (2, 2) es 2 (6= 0), el rango es siempre al menos 1 (el segundo vector del sistema
de generadores es siempre distinto de 0). Orlando este elemento mediante la tercera fila, se obtiene
el menor:
k−1 2
k + 1 0 = −2(k + 1). (8)

Para k 6= −1 este menor es distinto de 0, por lo que los dos vectores son linealmente independientes.
Para k = −1 la matriz resulta ser:  
−1 1
 −2 2 
 0 0 . (9)
 

−1 1
Su rango es 1, puesto que las dos columnas son claramente proporcionales6 . En resumen:

2 6 −1
si k =
dim(Uk ) =
1 si k = −1

6
También se puede comprobar que el rango es 1 porque se anulan
los tres
menores que se obtienen orlando el
−1 1 −2 2
elemento (2,2), esto es, el menor (20) y los menores = = 0.
−2 2 −1 1
Apartado 1. Para calcular las ecuaciones implı́citas distinguimos entonces los casos:

Caso k 6= −1. Debemos obtener 2 (=dim M2 (R) −dim Uk ) ecuaciones implı́citas, asegurando7
 
a k k+2
 b k−1 2 
rango 
 c k+1
 = 2.
0 
d k k+2
Ası́, se obtienen las ecuaciones requeridas orlando el menor de orden 2 no nulo (20):

a k k + 2 b k−1 2

b k−1 2 = 0, c k+1 0 = 0


c k+1 0 d k k+2

Explı́citamente, se obtiene fácilmente (desarrollando por los adjuntos de la primera columna y


usando 2k − (k + 2)(k − 1) = −k 2 + k + 2 = −(k + 1)(k − 2)):

−2(k + 1)a +(k + 1)(k + 2)b −(k + 1)(k − 2)c =0


(k + 1)(k + 2)b −(k + 1)(k − 2)c −2(k + 1)d = 0

o, simplificando ambas ecuaciones el factor (k + 1) (6= 0 en el presente caso)8 ,

−2a +(k + 2)b −(k − 2)c =0


(10)
(k + 2)b −(k − 2)c −2d = 0

Caso k = −1. Debemos obtener 3 (=dim(M2 (R)−dim(Uk )) ecuaciones implı́citas, asegurando


 
a 1
 b 2 
rango 
 c
=1
0 
d 1
Considerando el elemento (1, 1) como un menor de orden 1 distinto de 0, se obtienen las ecuaciones
requeridas orlándolo:

a 1 a 1 a 1
= 0, = 0,
d 1 = 0,

b 2 c 0

Esto es,
2a −b =0
c =0 (11)
a −d = 0

7
Obsérvese que, siguiendo el procedimiento general para calcular ecuaciones implicitas, la siguiente matriz se
obtiene añadiéndole a la matriz de la fórmula (7) (que tiene rango 2 al ser k 6= −1) como primera columna las
coordenadas de un elemento arbitrario de M2 (R) en la base usual de M2 (R).
8
Además es posible seguir simplificando estas ecuaciones usando transformaciones elementales. De hecho, restando
la primera a la segunda (y dividiendo por 2) se obtiene el sistema equivalente:

−2a +(k + 2)b −(k − 2)c =0


a −d =0

Trabajaremos con (10) sólo para ilustrar el método general pero, por supuesto, se puede proseguir con estas ecuaciones
simplificadas.
Apartado 2. Para cualquier subespacio Z de un espacio vectorial V , se sabe dim (an(Z)) =
dim(V )− dim(Z) por lo que esta dimensión coincide con el número de ecuaciones implı́citas (inde-
pendientes) necesarias para determinar9 Z. Puesto que el enunciado nos proporciona las ecuaciones
implı́citas de W
a −d = 0
(12)
c =0
y en el apartado anterior calculamos unas para Uk , la intersección Uk ∩ W coincide con el conjunto
de soluciones del SEL formado por la reunión de ambos sistemas de ecuaciones implı́citas.
En consecuencia, basta con calcular el número máximo de ecuaciones independientes de este SEL.
Caso k 6= −1. Uk ∩ W viene dado como solución del SEL formado por (10) y (12), de matriz:
 
−2 (k + 2) −(k − 2) 0
 0 (k + 2) −(k − 2) −2 
Mk :=   (13)
 1 0 0 −1 
0 0 1 0
Es suficiente calcular el rango de Mk . Aunque se puede hacer sólo para los valores pedidos k = 1, ±2,
lo estudiaremos en general. El procedimiento usual consiste en calcular en primer lugar para qué
valores de k se anula el determinante: para los que no se anule el rango de la matriz (y, por tanto, la
dimensión pedida del anulador) serı́a igual a 4, y para los que se anule será inferior. Desarrollando
por los adjuntos de la última fila el cálculo se reduce a estudiar si se anula:

−2 (k + 2) 0 −2 (k + 2) −2
0 (k + 2) −2 = 0 (k + 2) −2 = (k + 2) −2

(k + 2) −2
1 0 −1 1 0 0
(la primera igualdad sumando la primera columna a la última). Claramente, el último determinante
es 0 independientemente de k, por lo que rango(Mk ) < 4. Por otra parte, Mk contiene el menor

0 −1
= 1 6= 0
1 0
por lo que rango(Mk ) ≥ 2. Para determinar los valores para los que el rango de Mk es 3, orlaremos
este menor. Orlando con la primera columna (en la cual no aparece k) se tiene el menor:

0 −(k − 2) −2
= − −(k − 2) −2 6= 0.

1 0 −1

0
1 0
1 0

Ası́, rango(Mk ) = 3 para todo k y, por tanto, también dim(an(Uk ∩ W ))= 3 para k 6= −1.

Caso k = −1. Uk=−1 ∩ W viene dado como solución del SEL formado por (11) y (12), de
matriz:
 
2 −1 0 0
 0 0 1 0 
 
 1
 0 0 −1   (14)
 1 0 0 −1 
0 0 1 0
Claramente las dos últimas filas coinciden con las anteriores, mientras que las tres primeras son
independientes (de hecho, se corresponden con las ecuaciones implı́citas de Uk=−1 , por lo que
Uk=−1 ⊂ W y Uk=−1 ∩ W = Uk=−1 ). En consecuencia, el rango de la matriz es 3 y también
dim(an(Uk ∩ W ))= 3 para k = −1 .
9
De hecho, estas ecuaciones implı́citas generan de un modo natural una base de an(Z).
Nota. Vale la pena recapitular las distintas posibilidades obtenidas en los casos anteriores:

Caso k 6= −1: dim(Uk ) = 2 y dim(Uk ∩ W )= 1 (al venir determinado por tres ecuaciones
independientes); en consecuencia, dim(Uk + W )= 2 + 2 − 1 = 3.

Caso k = −1: dim(Uk ) = 1 y dim(Uk ∩ W )= 1; en consecuencia, Uk ⊂ W y, trivialmente:


Uk ∩ W = Uk ası́ como Uk + W = W .

Como en ambos casos dim(Uk ∩ W )= 1, se tiene siempre dim(an(Uk ∩ W ))= 3, ∀k ∈ R.


GEOMETRÍA I (17/18)

1. Determinar si son verdaderos o falsos los siguientes asertos:

a) Sea una matriz A ∈ M4 (K) cuyas cuatro columnas, consideradas como un subconjunto
C del e.v. K 4 (K), verifican: cualquier subconjunto de tres elementos de C es linealmente
independiente. Entonces, C es linealmente independiente.
b) Sean S = {u, v}, S 0 = {u0 , v 0 } dos subconjuntos de un espacio vectorial V (K) tales que:
Cada subconjunto S y S 0 es linealmente independiente.
Ningún vector de S se puede escribir como combinación lineal de vectores de S 0 , ni
ninguno de S 0 como combinación lineal de los de S.
Entonces, S ∪ S 0 es linealmente independiente.

2. Se considera, en el espacio de las matrices simétricas S2 (R), los subespacios vectoriales:


       
λ λ 0 −λ 2 −2 3 1
Uλ = L , , Wλ = L , .
λ −1 −λ 2 −2 λ 1 −3

Calcular, para cada λ ∈ R, la dimensión de Uλ ∩ Wλ .

3. Se considera, en el espacio vectorial de matrices cuadradas M2 (R), la aplicación lineal:


1
F : M2 (R) → M2 (R), F (A) = A − At , ∀A ∈ M2 (R).
2

Determinar, en el caso de que sea posible (o, en caso contrario, justificar la imposibilidad):

a) Dos bases, B y B 0 , de M2 (R) tales que la matriz de F en esas bases sea diagonal y con
todos sus elementos pertenecientes a {0, 1}.
b) Una base B de M2 (R) tal que la matriz de F en esa base sea diagonal con todos sus
elementos pertenecientes a {0, 1}.

4. Se considera, en el espacio de polinomios R3 [x]:

Las formas lineales: φ(p(x)) = p(1), ψ(p(x)) = p0 (1) − p(0).


El subespacio vectorial U = {a0 + a1 x + a2 x2 + a3 x3 : a1 = 0, a3 = −2a2 }

Determinar, calculando su matriz en la base usual de R3 [x], un endomorfismo f de R3 [x] cuyo


traspuesto verifique: Nuc f t = L{φ, ψ}, Im f t = an U .
1. Determinar si son verdaderos o falsos los siguientes asertos:

a) Sea una matriz A ∈ M4 (K) cuyas cuatro columnas, consideradas como un subconjunto
C del e.v. K 4 (K), verifican: cualquier subconjunto de tres elementos de C es linealmente
independiente. Entonces, C es linealmente independiente.
b) Sean S = {u, v}, S 0 = {u0 , v 0 } dos subconjuntos de un espacio vectorial V (K) tales que:
Cada subconjunto S y S 0 es linealmente independiente.
Ningún vector de S se puede escribir como combinación lineal de vectores de S 0 , ni
ninguno de S 0 como combinación lineal de los de S.
Entonces, S ∪ S 0 es linealmente independiente.

Solución. a) Como consideraciones previas, el aserto serı́a claramente falso si, en lugar de considerar
A como una matriz n × n con n = 4, se considerara cuadrada con n = 2 (pues si se toma como C un
conjunto de dos vectores linealmente dependientes no nulos de K 2 (K), p. ej., C = {(1, 0), (2, 0)},
cada subconjunto de C con un elemento es linealmente independiente) o con n = 3 (si se toma
como C el conjunto de tres vectores coplanarios linealmente independientes dos a dos, p. ej., C =
{(1, 0, 0), (0, 1, 0), (1, 1, 0)}, cada subconjunto de C con dos elementos es linealmente independiente).
No hay pues motivos para pensar que, para n = 4 esta afirmación vaya a ser cierta. Más aún,
el procedimiento general de cálculo del rango usando determinantes aplicado a la matriz A del
enunciado, asegurarı́a sólo que el rango de A es tres (al haber menores no nulos de orden tres):
para asegurar que sea cuatro, exigirı́a comprobar que un menor de orden cuatro (en este caso, el
determinante de toda la matriz) sea no nulo.
Un contraejemplo inspirado en la discusión anterior serı́a tomar C como un conjunto de 4 vecto-
res contenidos en un mismo subespacio U ⊂ K 4 de modo que cada tres de sus elementos formen una
base de U . P. ej, se puede escoger que tres vectores de C sean {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)}, los
cuales forman una base del subespacio U := R3 × {0}, y como cuarto vector (1, 1, 1, 0), el cual tam-
bién está contenido en U y puede reemplazarse por cualquiera de los anteriores para formar una base
de U (pues al escribir (1, 1, 1, 0) como combinación lineal de la base ((1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0))
ninguna de sus coordenadas es nula). Esto es, escribiéndolos por columnas, la matriz
 
1 0 0 1
 0 1 0 1 
 
 0 0 1 1 
0 0 0 0

resulta ser un contraejemplo, por lo que el aserto (a) es FALSO.


b) No es difı́cil darse cuenta de que, si esta afirmación fuera cierta, entonces la anterior también
lo serı́a (lo que resultarı́a absurdo). De hecho, el contraejemplo encontrado en el caso anterior
también vale para éste: simplemente, tómese como S dos cualesquiera de los cuatro vectores en el
caso anterior, y como S 0 los otros dos. Por tanto, el aserto (b) también es FALSO.
En cualquier caso, no es difı́cil construir directamente otros contraejemplos en dimensión 3. Ası́,
en R3 , puede tomarse S = {(1, 0, 0), (0, 1, 0)}, S 0 = {(1, 1, 1), (−1, −1, 1)} (¡dibújese!). Por supuesto,
si a uno se le ocurre primero un contraejemplo como éste, de él se obtiene un contraejemplo al
apartado a) sin más que incluir 0 como última componente de R4 .
2. Se considera, en el espacio de las matrices simétricas S2 (R), los subespacios vectoriales:
       
λ λ 0 −λ 2 −2 3 1
Uλ = L , , Wλ = L , .
λ −1 −λ 2 −2 λ 1 −3
Calcular, para cada λ ∈ R, la dimensión de Uλ ∩ Wλ .

Solución. Hay dos procedimientos generales y naturales para resolver este problema:
1. Hallar unas ecuaciones implı́citas para Uλ y para Wλ con respecto a alguna base del espacio
S2 (R) (el cual tiene dimensión 3).
Juntando todas estas ecuaciones, se obtiene un SEL cuya solución proporciona Uλ ∩ Wλ .
Extrayendo de él un SEL equivalente de ecuaciones independientes, se obtiene para cada λ
un conjunto de10 m(λ) ∈ {0, 1, 2, 3} ecuaciones implı́citas para Uλ ∩ Wλ .
Ası́, la dimensión pedida será 3 − m(λ).
Si se quiere, se puede además calcular una base de este subespacio, sin más que solucionar el
SEL obtenido.
2. Calcular las dimensiones de Uλ , Wλ y Uλ + Wλ , y aplicar entonces la fórmula de Grassmann:
dim Uλ ∩ Wλ = dim Uλ + dim Wλ - dim (Uλ + Wλ ).
El cálculo de las dimensiones requeridas es sencillo, pues se nos proporciona un sistema de
generadores de Uλ , uno de Wλ y, uniendo ambos sistemas, uno también de Uλ + Wλ .
En consecuencia, por este procedimiento, todo el problema reside en calcular la dimensión
de tres subespacios, Uλ , Wλ y Uλ + Wλ , de cada uno de los cuales se conoce un sistema de
generadores, lo cual se reduce a calcular el rango de tres matrices.
Es de remarcar que por este procedimiento, que es más sencillo, obtendrı́amos sólo la dimen-
sión de Uλ ∩ Wλ (a fin de cuentas, lo que se pide) pero no una base suya.
Pese a ser un poco más largo, seguiremos el primer procedimiento y, aunque no lo pida el enunciado,
calcularemos además una base de 11
la intersección.
    
1 0 0 1 0 0
Fijando la base usual Bu = , , de S2 (R), trabajeremos a con-
0 0 1 0 0 1
tinuación reemplazando S2 (R) por R3 , entendiendo que cada matriz de S2 (R) se reemplaza por sus
coordenadas en Bu . Se tiene entonces:

Sistema de generadores de Uλ : {(λ, λ, −1), (0, −λ, 2)}.


 
λ λ −1
Dimensión de Uλ = rango , por Gauss-Jordan:
0 −λ 2
• para λ 6= 0, el rango de la matriz es 2, por lo que el sistema de generadores anterior es
una base, que denotaremos BUλ , para todo λ ∈ R \ {0},
 
0 0 −1
• para λ = 0, el rango de la matriz es 1, por lo que cualquiera resulta ser
0 0 2
una base BU0 = {(0, 0, 1)}.

Sistema de generadores de Wλ : {(2, −2, λ), (3, 1, −3)}.


 
2 −2 λ 2 −2
= 8 6= 0:
Dimensión de Wλ = rango . Puesto que el menor

3 1 −3 3 1
10
Del enunciado es fácil darse cuenta de que m(λ) 6= 0 (¿por qué?).
11
El lector puede desarrollar el Procedimiento 2, comprobando con facilidad: dim Uλ = 2 si λ 6= 0, dim Uλ = 1 si
λ = 0 y, para todo λ ∈ R, dim Wλ = 2, dim(Uλ + Wλ ) = 3.
• para todo λ, el rango de la matriz es 2, por lo que el sistema de generadores anterior es
una base, que denotaremos BWλ , para todo λ ∈ R.

El caso λ = 0 resulta inmediato de resolver, pues el único vector (0, 0, 1) de BU0 no puede escribirse
0 0 1

como combinación lineal de BW0 , ya que 2 −2
0 = 8 6= 0. Esto implica que la dimensión
3 1 −3
de la intersección es menor que 1, esto es, su dimensión es 0 (U0 ∩ W0 = {0}).
Consideraremos en adelante el caso λ 6= 0. Siguiendo el procedimento antes indicado, calculamos
ecuaciones implı́citas de Uλ y Wλ . Puesto que estos espacios tienen dimensión 2, habrá una única
ecuación implı́cita para cada uno de ellos, que se obtiene de manera canónica (imponiendo que las
incógnitas (x, y, z) sean combinación lineal de la base BUλ , BWλ que se tiene de cada subespacio12 ):

x y z

Ecuación implı́cita para Uλ : 0 = λ λ −1 = λx − 2λy − λ2 z.
0 −λ 2
O equivalentemente (simplificando al ser λ 6= 0): x − 2y − λz = 0


x y z
Ecuación implı́cita para Wλ : 0 = 2 −2 λ = (6 − λ)x + (6 + 3λ)y + 8z.
3 1 −3
Ası́, Uλ ∩ Wλ está determinado por el subespacio solución del sistema:

x −2y −λz = 0
(15)
(6 − λ)x +(6 + 3λ)y +8z = 0

Para comprobar si estas ecuaciones son independientes, debemos calcular el rango de la matriz:
 
1 −2 −λ
6 − λ 6 + 3λ 8

El rango de esta matriz es al menos 1, y su rango será 1 si y sólo si se cumplen simultáneamente13 :



1 −2
= 6 + 3λ + 12 − 2λ = λ + 18,
1 −λ
0 = 0 = (16)
6 − λ 6 + 3λ 6−λ 8

De la primera ecuación se obtiene λ = −18. Como este valor no es solución de la segunda, el rango
de la matriz es siempre 2. Por tanto, dim(Uλ ∩ Wλ ) = 3 − 2 = 1. En resumen:

0 si λ = 0
dim(Uλ ∩ Wλ ) =
1 si λ ∈ R \ {0}

12
Y, por comodidad de cálculo, desarrollando cada determinante por los adjuntos de la lı́nea donde aparecen x, y, x.
13
Los determinantes a continuación se obtiene orlando el elemento no nulo 1 con elementos de la segunda fila (y
las otras columnas)
RESULTADO ADICIONAL: base de Uλ ∩ Wλ

Como se ha dicho, podemos también calcular una base de la intersección Uλ ∩ Wλ .


En el caso λ = 0 se ha visto que la intersección es {0}, por lo que la única base de este subespacio
es el conjunto vacı́o14 :

BUλ ∩Wλ = ∅, para λ = 0.

Para el caso λ 6= 0 la base se obtendrá resolviendo el sistema (15) por el método de Cramer.
Teniendo en cuenta la primera igualdad en (16), para λ 6= −18 se pueden tomar x, y como incógnitas
principales15 : y la regla de Crámer genera:

λz
−2 1
λz
−8z 6 + 3λ 3λ2 + 6λ − 16 6 − λ −8z λ2 − 6λ − 8
x= = z, y= = z
λ + 18 λ + 18 λ + 18 λ + 18
Tomando z = λ + 18 se obtiene como base:

BUλ ∩Wλ = {(3λ2 + 6λ − 16, λ2 − 6λ − 8, λ + 18)} ∀λ ∈ R \ {0, −18}

Para λ = −18 el valor concreto del segundo menor en (16) es:



1 18
= 8 1 18 = −8 · 53 = −424.


24 8 3 1

Tomando x, z como incógnitas principales en (15), la regla de Cramer genera la solución:




2y −λ 1
2y

−(6 + 3λ)y 8 2
3λ + 6λ − 16 6 − λ −(6 + 3λ)y λ + 18
x= = y, z= y= y
−424 424 −424 424
que debe evaluarse en λ = −18, obteniéndose x = 200y/424 = 25y/53, z = 0. Tomando y = 53 se
obtiene como base:

BUλ ∩Wλ = {(25, 53, 0)} para λ = −18.

14
Este es un convenio justificado en la teorı́a.
15
Y pasando los términos en z al otro miembro, de modo que esta incógnita se trata como un término independiente.
3. Se considera, en el espacio vectorial de matrices cuadradas M2 (R), la aplicación lineal:
1
F : M2 (R) → M2 (R), F (A) = A − At , ∀A ∈ M2 (R).
2

Determinar, en el caso de que sea posible (o, en caso contrario, justificar la imposibilidad):

a) Dos bases, B y B 0 , de M2 (R) tales que la matriz de F en esas bases sea diagonal y con
todos sus elementos pertenecientes a {0, 1}.
b) Una base B de M2 (R) tal que la matriz de F en esa base sea diagonal con todos sus
elementos pertenecientes a {0, 1}.

Solución. a) Se sabe del estudio del rango y matrices equivalentes en teorı́a (Proposición 3.67) que
tales bases B, B 0 deben existir16 . Para construir B tomaremos una base del núcleo de F , y la
ampliamos hasta una de M2 (R).
 
a b
Cálculo del núcleo de F y de B. Para cada A = ∈ M2 (R) se tiene:
c d
1
b − 12 c
     
a b 1 a c 2a
F (A) = − = ∈ M2 (R)
c d 2 b d c − 12 b 1
2d

Por lo que F (A) = 0 si y sólo si a = 0, c = 2b, b = 2c, d = 0, esto es, si y sólo si A = 0. Por tanto,
Nuc F = {0} (su base serı́a el conjunto vacı́o) y podemos tomar como B cualquier base de M2 (R).
Por sencillez, la escogemos igual a la base usual, esto es:
       
1 0 0 1 0 0 0 0
B= , , ,
0 0 0 0 1 0 0 1

Cálculo de B 0 . En general, B 0 se calcula tomando las imágenes de los vectores de B que no


están en el Nuc F (necesariamente, esas imágenes forman un conjunto linealmente independiente),
y ampliando ese conjunto de imágenes hasta una base del codominio. En nuestro caso, B no contiene
ningún vector de Nuc F (pues se demostró Nuc F = {0}), por lo que basta con tomar como B 0 las
imágenes de los vectores de B, esto es:
        
0 1 0 0 1 0 0 0 0
B = F( ), F ( ), F ( ), F ( )
0 0 0 0 1 0 0 1

Explı́citamente:
        
0 1/2 0 0 1 0 −1/2 0 0
B = , , , .
0 0 −1/2 0 1 0 0 1/2

De hecho, es inmediato comprobar:


 
1 0 0 0
0 1 0 0 
M (F, B 0 ← B) = 


 0 0 1 0 
0 0 0 1

(igual a la matriz identidad I4 ), la cual es de la forma que se pedı́a.


16
De hecho, el resultado general incluye el caso de aplicaciones lineales entre espacios vectoriales distintos.
b) La base B pedida en este caso NO existe.
De hecho, si tal base existiese, se tendrı́a necesariamente M (F, B) = I4 , ya que el rango de
esa matriz, por coincidir con el de F , tendrı́a que ser 4, lo que no permitirı́a que hubiera ningún
elemento nulo en la diagonal.
Sin embargo, la igualdad M (F, B) = I4 forzarı́a a que F sea la aplicación identidad (pues cada
elemento de la base B se aplicarı́a mediante F en sı́ mismo), lo que es absurdo.17

17
Se puede también descartar la existencia de la base B usando directamente un resultado sobre matrices semejantes
visto en clase (Ejercicio 3.38): un endomorfismo f admite una base B tal que M (f, B) es de la forma explicada en el
enunciado b) si y sólo si f ◦ f = f (f es un proyector). Como claramente el endomorfismo F no verifica esta relación,
tal base no existe.
4. Se considera, en el espacio de polinomios R3 [x]:

Las formas lineales: φ(p(x)) = p(1), ψ(p(x)) = p0 (1) − p(0).


El subespacio vectorial U = {a0 + a1 x + a2 x2 + a3 x3 : a1 = 0, a3 = −2a2 }

Determinar, calculando su matriz en la base usual de R3 [x], un endomorfismo f de R3 [x] cuyo


traspuesto verifique: Nuc f t = L{φ, ψ}, Im f t = an U .

Solución. De entre los procedimientos de resolver el problema, señalamos:


1. Hallar directamente el endormorfismo f t usando las condiciones requeridas (las cuales se
enuncian sólo sobre f t ). Una vez calculada su matriz en la base dual de la usual de R3 [x],
basta con trasponerla para calcular la de f .

2. Determinar condiciones sobre f que sean equivalentes a las que se imponen sobre f t , y calcular
f de modo que verifique estas condiciones. Para ello se usan relaciones conocidas vistas en
teorı́a, concretamente:

Como an(Im f )= Nuc f t se tiene Im f = an(Nuc f t )). Por tanto, la primera condición
sobre f t , Nuc f t = L{φ, ψ}, resulta equivalente a la condición sobre f :
Imf = an(Nuc f t )= an({φ, ψ}), esto es, Im f = {p(x) ∈ R3 [x] : p(1) = 0, p0 (1) − p(0) = 0}
Como an(Nuc f )= Im f t se tiene Nuc f = an(Im f t ). Por tanto, la segunda condición
sobre f t , Im f t = an (U ), resulta equivalente a la condición sobre f : Nuc f= U .

Esto es, el problema resulta ser equivalente a obtener in endomorfismo f de R3 [x] que verifique
las dos relaciones recuadradas.
A continuación, seguiremos el procedimiento directo18 1.

Sea Bu = (1, x, x2 , x3 ) la base usual de R3 [x] y Bu∗ = (φ1 , φ2 , φ3 , φ4 ) su dual. Obsérvese que U se
define como solucion de un sistema de dos ecuaciones lineales independientes, o, equivalentemente,
como el anulador de las formas lineales asociadas al sistema:

U = an{φ2 , 2φ3 + φ4 }.

Ası́, la segunda condición sobre f t equivale a:

Imf t = L{φ2 , 2φ3 + φ4 }

(recuérdese an(an(S))=L(S) para cualquier subconjunto S de un espacio vectorial o de su dual).


Con respecto a Nuc f t , {φ, ψ} es linealmente independiente; de hecho, las coordenadas de φ, ψ en
Bu (esto es, las n-úplas horizontales de sus coordenadas en Bu∗ ) son:

M (φ, 1 ← Bu ) = (1, 1, 1, 1), M (ψ, 1 ← Bu ) = (−1, 1, 2, 3).

Para calcular f t , determinemos primero una base B ∗ de R3 [x]∗ que amplı́e a {φ, ψ}. Una elección
sencilla consiste en ampliar con elementos de Bu∗ , por ejemplo: B ∗ = (φ, ψ, φ3 , φ4 ). Esto es posible
puesto que:
1 1 1 1
1 1 1
−1 1 2 3
= −1 1 2 = 1 1 6= 0


0 0 1 0 −1 1
0 0 1
0 0 0 1
18
Los pasos en el procedimiento 2 son similares. La única ventaja para algunos es que al resolverlo ya no hay que
hacer ninguna referencia al espacio dual.
Basta entonces con tomar f t imponiendo que se anule sobre los dos primeros vectores de B ∗ y que
aplique los dos últimos en la base {φ2 , 2φ3 + φ4 } de Im f t , esto es:
 
0 0 0 0
 0 0 1 0 
M (f t , Bu∗ ← B ∗ ) = 
 0 0 0 2 

0 0 0 1

Calculemos ahora M (f t , Bu∗ ) mediante la relación:

M (f t , Bu∗ ) = M (f t , Bu∗ ← B ∗ ) · M (I, B ∗ ← Bu∗ ). (17)

Para calcular M (I, B ∗ ← Bu∗ ), basta con hallar la inversa de M (I, Bu∗ ← B ∗ ) (esta última se calcula
inmediatamente):
   
1 −1 0 0 1 1 0 0
1 1 0 0  1 −1 1 0 0
M (I, Bu∗ ← B ∗ ) =  ; M (I, B ∗ ← Bu∗ ) = M (I, Bu∗ ← B ∗ )−1 = 
   

 1 2 1 0  2  1 −3 2 0 
1 3 0 1 2 −4 0 2

donde la inversa se obtiene o bien por el algoritmo de su cálculo usando adjuntos19 o bien por
Gauss-Jordan. Sustituyendo en (17):
     
0 0 0 0 1 1 0 0 0 0 0 0
1  −1 1 −3 2 0 
M (f t , Bu∗ ) = 
0 0 1 0  1 0 = 1
0 
 
·  
 0 0 0 2  2  1 −3 2 0  2 4 −8 0 4 
0 0 0 1 2 −4 0 2 2 −4 0 2

Por tanto, la matriz pedida de f no es más que la traspuesta de la anterior, esto es:
 
0 1 4 2
1  0 −3 −8 −4 
M (f, Bu ) =  
2 0 2 0 0 
0 0 4 2

 
19 E 0
Este algorimo se simplifica porque, como se trabaja con una matriz del tipo su inversa es del tipo
F I2
 −1 
E 0
F0 I2
GEOMETRÍA I (16/17 1a parte)

1. Sea V (K) un e.v. finitamente generado.

a) Demostrar que si S = {w1 , . . . , wm } ⊂ V es un sistema de generadores, entonces existe


una base B de V incluida en S.
b) Demostrar que si H = {u1 , . . . , uk } ⊂ V es linealmente independiente, entonces existe
una base B de V que incluye a H.

2. Sean V y V 0 son dos espacios vectoriales sobre un mismo cuerpo K, y U ⊂ V , U 0 ⊂ V 0


subespacios vectoriales.

a) Demostrar que U × U 0 es un subespacio vectorial del espacio producto (V × V 0 )(K).


b) Determinar si es posible o no construir todo subespacio vectorial W de V × V 0 de este
modo (esto es, como un producto del tipo U × U 0 ).

3. Se consideran en M2 (R) los siguientes subespacios vectoriales Uλ , Vµ dependientes de los


parámetros λ, µ ∈ R:    
1 − λ −2 2 −1
Uλ = L{ , }
0 −4 0 λ+1
 
x y
Wµ = { : µx + y + z = 0, x + µy + z = 0, x + y + µz = 0}
z t

a) Determinar las dimensiones de Uλ y Wµ según el valor de los parámetros λ, µ.


b) Para cada par de valores de (λ, µ), determinar si es verdadero o falso que se verifica:
1) Uλ ⊕ Wµ
2) M2 (R) = Uλ + Wµ
(1) Sea V (K) un e.v. finitamente generado.

a) Demostrar que si S = {w1 , . . . , wm } ⊂ V es un sistema de generadores, entonces existe


una base B de V incluida en S.
b) Demostrar que si H = {u1 , . . . , uk } ⊂ V es linealmente independiente, entonces existe
una base B de V que incluye a H.20

a) Razonando por inducción, para m = 1 el resultado se sigue porque: (i) si w1 6= 0 entonces


S = {w1 } es linealmente independiente y, como se parte de que S es un sistema de generadores,
también será una base, y (ii) si w1 = 0 entonces V = L(S) = {0}, y el espacio vectorial trivial {0}
admite por base (como un caso lı́mite) el conjunto vacı́o ∅ (que también es un subconjunto de V ).
Supuesto válido por hipótesis de inducción el resultado para m ∈ N, sea ahora S = {w1 , . . . , wm ,
wm+1 }. En el caso de que S sea linealmente independiente, será también una base y se sigue el
resultado. En caso contrario, si todos los elementos wj fueran 0, de nuevo el vacı́o serı́a una base y,
si no, se sabe por las caracterizaciones de la dependencia lineal que alguno de los elementos de S se
podrá escribir como combinación lineal del resto. Reordenando los elementos de S si es necesario,
podemos suponer sin pérdida de generalidad que este elemento es el último, esto es, que existen
escalares a1 , . . . , am ∈ K:
Xm
wm+1 = ai wi . (18)
i=1

En consecuencia, el conjunto S0 que se obtiene suprimiendo wm+1 de S (esto es, S 0 := S −


{wm+1 }), sigue siendo un sistema de generadores. En efecto, cualquier v ∈ V se podrá escribir
como combinación lineal de los elementos de S 0 ya que, al ser S un sistema de generadores, existen
b1 , . . . , bm , bm+1 ∈ K tales que:
m m m m
! ! !
X X X X
v= bi wi + bm+1 wm+1 = bi wi + bm+1 · ai wi = (bi + bm+1 ai ) wi ∈ L(S 0 )
i=1 i=1 i=1 i=1

(la segunda igualdad sin más que usar (18)).


Puesto que S 0 es entonces un sistema de generadores y tiene m elementos, se le puede aplicar la
hipótesis de inducción, y un subconjunto de S 0 (y, por tanto, de S) será una base, como se querı́a.

b) Puesto que V es finitamente generado, podemos tomar un sistema de generadores finito G =


{v1 , . . . , vl }. La base B se obtiene ampliando H con elementos de G en l pasos como sigue.
Como primer paso, si v1 6∈ L(H) se define B1 := H ∪ {v1 }; en caso contrario, se toma B1 := H.
Análogamente, supuesto definido Bj para j = 1, . . . , l − 1, se define Bj+1 según el caso: si vj+1 6∈
L(Bj ) se toma Bj+1 = Bj ∪ {vj+1 }, en caso contrario, se toma Bj+1 := Bj . Comprobemos entonces
que Bl es la base B requerida.
Bl es un sistema de generadores porque en cada paso j-ésimo vj ∈ L(Bj ) (simplemente, por
cómo se define Bj ). Puesto que Bj ⊂ Bl se sigue entonces vj ∈ L(Bl ) para todo j = 1, . . . , l, esto
es, G ⊂ L(Bl ) y, por tanto V (= L(G)) ⊂ L(Bl ), como se querı́a.
Para comprobar que Bl es linealmente independiente, obsérvese primero que B1 lo es porque,
o bien B1 es igual a H (que era linealmente independiente por hipótesis) o bien B1 se obtiene
añadiendo al conjunto linealmente independiente H un vector que no depende linealmente de los
de21 H. Análogamente, supuesto que Bj es linealmente independiente el conjunto Bj+1 se obtiene
por el mismo proceso, por lo que todos los Bj son linealmente independientes, como se querı́a.
20
Aunque ambos apartados están resueltos en teorı́a, proporcionamos ahora demostraciones autocontenidas en un
lenguaje un tanto más formal (con el que el alumno no debiera de sentirse ya incómodo).
21
Se sabe que esta forma de ampliar un conjunto linealmente independiente preserva la independencia lineal (¡com-
pruébese!).
(2) Sean V y V 0 son dos espacios vectoriales sobre un mismo cuerpo K, y U ⊂ V , U 0 ⊂ V 0
subespacios vectoriales.

a) Demostrar que U × U 0 es un subespacio vectorial del espacio producto (V × V 0 )(K).


b) Determinar si es posible o no construir todo subespacio vectorial W de V × V 0 de este
modo (esto es, como un producto del tipo U × U 0 ).

a) Recordemos que las operaciones de V × V 0 se definen componente a componente, esto es:

(v, v 0 ) + (w, w0 ) := (v + w, v 0 + w0 ) ∀(v, v 0 ), (w, w0 ) ∈ V × V 0


a · (v, v 0 ) := (a · v, a · v 0 ) ∀(v, v 0 ) ∈ V × V 0 , ∀a ∈ K,

donde, en cada miembro derecho de estas igualdades, las operaciones que aparecen para la primera
componente se llevan a cabo en V (K), y para la segunda componente en V 0 (K).
Para demostrar que U × U 0 es un subespacio vectorial de V × V 0 , debemos comprobar primero
que no es vacı́o, lo cual resulta obvio porque, por ser U y U 0 subespacios, el neutro 0 de V debe
pertenecer a U y el neutro 00 de V debe pertenecer a U 0 , con lo que (0, 00 ) ∈ U ×U 0 (y ası́ U ×U 0 6= ∅).
A continuación, debemos comprobar que las operaciones + y ·K de V × V 0 se restringen a U × U 0 ,
lo cual se resume en demostrar:

a · (v, v 0 ) + b · (w, w0 ) ∈ V × V 0 , ∀(v, v 0 ), (w, w0 ) ∈ V × V 0 , ∀a, b ∈ K. (19)

Ahora bien, por la definición de las operaciones en V × V 0 :

a · (v, v 0 ) + b · (w, w0 ) = (a · v, a · v 0 ) + (b · w, b · w0 ) = (a · v + b · w, a · v 0 + b · w0 ).

Por ser U un subespacio vectorial, a · v + b · w ∈ U y por serlo U 0 , se tiene a · v 0 + b · w0 ∈ U 0 . Ası́,

(a · v + b · w, a · v 0 + b · w0 ) ∈ U × U 0

y se obtiene la inclusión requerida en (19).

b) No es posible. Como contrajemplo, tómese V (K) = V 0 (K) = R(R) y el subespacio W ⊂ R × R


definido por:
W = L{(1, 1)}.
Los únicos subespacios vectoriales de R(R) son los impropios, {0} y R, por lo que los únicos
subespacios del tipo producto U × U 0 en R × R son los siguientes cuatro:

{0} × {0}, {0} × R, R × {0}, R × R.

Claramente ninguno de ellos coincide con W , de donde se deduce el resultado.


(3) Se consideran en M2 (R) los siguientes subespacios vectoriales Uλ , Vµ dependientes de los
parámetros λ, µ ∈ R:    
1 − λ −2 2 −1
Uλ = L{ , }
0 −4 0 λ+1
 
x y
Wµ = { : µx + y + z = 0, x + µy + z = 0, x + y + µz = 0}
z t

a) Determinar las dimensiones de Uλ y Wµ según el valor de los parámetros λ, µ.


b) Para cada par de valores de (λ, µ), determinar si es verdadero o falso que se verifica:
1) Uλ ⊕ Wµ
2) M2 (R) = Uλ + Wµ

a) Puesto que Uλ está generado por dos vectores no nulos, su dimensión será 1 ó 2. Para distinguir
entre estos dos casos, basta con calcular, según el valor de λ ∈ R, el rango de la matriz A formada
por las coordenadas de estos vectores respecto a la base usual de M2 (R), esto es, de
 
1−λ 2
 −2 −1 
A=  0

0 
−4 λ + 1

Para ello podemos suprimir la tercera fila, ya que está compuesta de ceros, y calcular cuándo
se anulan simultáneamente los dos menores que se obtienen al orlar el elemento 2. Ası́, debemos
resolver simultáneamente en λ el sistema no lineal de ecuaciones:

1 − λ 2 1 − λ 2 = 1 − λ2 + 8 = 9 − λ2 .

0 = = λ − 1 + 4 = λ + 3, 0 =
−2 −1 −4 λ + 1

Puesto que sólo λ = −3 es solución de ambas ecuaciones, se tiene entonces:



1 si λ = −3
dim Uλ =
2 si λ 6= −3

Como Wµ viene dado como la solución de un sistema lineal de 3 ecuaciones y 4 incógnitas,


su dimensión será 4 menos el rango de la matriz del sistema Mµ (pues este rango coincide con el
número de ecuaciones independientes), siendo:
 
µ 1 1
Mµ =  1 µ 1  .
1 1 µ

Para ello resolvemos en µ, aplicando propiedades elementales de los determinantes22 la ecuación:



µ 1 1 0 0 1
2
1 −1 = (1 − µ)2 (µ + 2)

0 = 1 µ 1 = 1 − µ µ − 1 1 = (1 − µ)
1 + µ 1
1 1 µ 1 − µ2 1 − µ µ

Las soluciones son 1, −2, por lo que r(Mµ ) = 3 para µ 6= 1, −2, y fácilmente se obtiene r(Mµ=1 ) = 1
(las tres filas coinciden) y r(Mµ=−2 ) = 2 (hay menores de orden 2 distintos de 0).
22
Por supuesto, también se puede desarrollar usando la regla de Sarrus, y calcular las raı́ces del polinomio de grado
3 en µ usando la regla de Ruffini.
De hecho, podemos calcular una base en cada caso, concluyéndose:
  
0 0

 1 si µ 6= 1, −2 Base: { }



 0 1  
0 0 1 1

dim(Wµ ) = 2 si µ = −2 Base: { , }

 0 1 1 0   
0 0 1 0 0 1


 3 si µ = 1 Base: { , , }


0 1 −1 0 −1 0
b) Obsérvese que Uλ ⊕ Wµ equivale a decir Uλ ∩ Wµ = {0}, esto es dim(Uλ ∩ Wµ ) = 0, y que
M2 (R) = Uλ + Wµ equivale a dim(Uλ + Wµ ) = 4. Puesto que para cada par (λ, µ) conocemos las
dimensiones de Uλ y Wµ , el problema de determinar si ocurre M2 (R) = Uλ + Wµ equivale al de
Uλ ⊕ Wµ gracias a la fórmula de Grassmann:
dim(Uλ + Wµ ) = dimUλ + dimWµ − dim(Uλ ∩ Wµ ).
Caso λ = −3. Como dim Uλ=−3 = 1, podemos escoger como base de Uλ la primera de las dos
matrices que definen su sistema de generadores en el enunciado, y se tiene:
 
4 −2
Uλ ∩ Wµ 6= {0} ⇐⇒ Uλ ⊂ Wµ ⇐⇒ ∈ Wµ .
0 −4
Esta última relación no se da para ningún valor de µ. Por tanto Uλ ⊕ Vµ , y aplicando Grassmann:
Si µ 6= 1, −2, dim(Uλ + Wµ ) = 1 + 1 − 0 = 2, por lo que M2 (R) 6= Uλ + Vµ .
Si µ = −2, dim(Uλ + Wµ ) = 1 + 2 − 0 = 3, por lo que M2 (R) 6= Uλ + Vµ .
Si µ = 1, dim(Uλ + Wµ ) = 1 + 3 − 0 = 4, por lo que M2 (R) = Uλ + Vµ .
Caso λ 6= −3. Como ahora dim Uλ = 2, el enunciado provee directamente una base de Uλ (cuyas
coordenadas se escribieron en la matriz A). Para calcular dim(Uλ + Vµ ) basta con tomar para cada
valor de µ la base de Wµ anteriormente calculada, ampliar la matriz A a una matriz Aµ añadiendo
sus correspondientes coordenadas, y calcular el rango de esta matriz. Concretamente:
Si µ 6= 1, −2 (calculando el menor de Aµ suprimiendo su tercera fila):
 
1−λ 2 0
1 − λ

 −2 2 0
−1 0 
−2
Aµ =   0 , −1 0 6= 0, =⇒ dim(Uλ +Wµ )(= r(Aµ )) = 3.
0 0
−4 λ + 1 1
−4 λ + 1 1
Por tanto, dim(Uλ ∩ Wµ ) = 2 + 1 − 3 = 0 y se da Uλ ⊕ Wµ pero M2 (R) 6= Uλ + Vµ .
Si µ = −2 (calculando detAµ mediante los adjuntos de su tercera columna):
 
1−λ 2 0 1
1 − λ

 −2 2 1
−1 0 1
−2
Aµ =   , −1 1 =
6 0, =⇒ dim(Uλ +Wµ )(= r(Aµ )) = 4.
0 0 0 1 
0 0 1
−4 λ + 1 1 0
Por tanto, dim(Uλ ∩ Wµ ) = 2 + 2 − 4 = 0 y se dan Uλ ⊕ Wµ y M2 (R) = Uλ + Vµ .
Si µ = 1 (calculando como antes obviando la última columna):
 
1−λ 2 0 1 0
1 − λ 2

 −2 1
−1 0 0 1 
Aµ =   , −2 −1 0 6= 0, =⇒ dim(Uλ +Wµ )(= r(Aµ )) = 4.
0 0 0 −1 −1 
0 0 −1
−4 λ + 1 1 0 0
Por tanto, dim(Uλ ∩ Wµ ) = 3 + 2 − 4 = 1 y se da M2 (R) = Uλ + Vµ pero no Uλ ⊕ Wµ .
GEOMETRÍA I (16/17 2a parte)

1. Sean V (K), V 0 (K) dos espacios vectoriales finitamente generados, y f : V → V 0 una aplicación
lineal.

a) Demostrar: an(Imf ) = Nuc f t .


b) Razonar que los rangos de f y f t coinciden.

2. Se considera el espacio vectorial de las matrices antisimétricas A3 (R) y la aplicación lineal


f : R4 → A3 (R) que se obtiene extendiendo por linealidad las igualdades:
   
0 1 2 0 1 1
f (1, 0, 0, 0) =  −1 0 1 , f (0, 1, 0, 0) =  −1 0 5 ,
−2 −1 0 −1 −5 0
   
0 3 5 0 1 3
f (0, 0, 1, 0) =  −3 0 7 , f (0, 0, 0, 1) =  −1 0 −3  .
−5 −7 0 −3 3 0
Determinar una base 4 0
 ordenada
 B de R y otra B de A3 (R) tales que la matriz de f en estas
Ir O
bases sea del tipo: ∈ Mm×n (R), para ciertos números naturales m, n, r.
O O

3. Se considera el espacio vectorial de polinomios R2 [x] y los conjuntos ordenados de formas


lineales C = (φ1 , φ2 , φ3 ) y C 0 = (ψ 1 , ψ 2 , ψ 3 ) definidos por:

φ1 (p(x)) = p(−1), φ2 (p(x)) = p(1), φ3 (p(x)) = p(2);


Z 1
ψ 1 (p(x)) = 3 p(x)dx, ψ 2 (p(x)) = p0 (1), ψ 3 (p(x)) = p00 (1).
−1

donde p0 (1)
y p00 (1) denotan, respectivamente, primera y segunda derivada del polinomio p(x)
evaluada en 1.

a) Demostrar que C y C 0 son bases de R2 [x]∗ .


b) Calcular la matriz de cambio de base (matriz de paso) de C a C 0 .
0
c) Calcular dos bases, B y B 0 , de R2 [x] tales que B ∗ = C y B ∗ = C 0 .
(1) Sean V (K), V 0 (K) dos espacios vectoriales finitamente generados, y f : V → V 0 una aplicación
lineal.

a) Demostrar: an(Imf ) = Nuc f t .


b) Razonar que los rangos de f y f t coinciden.

a) Obsérvese en primer lugar que como Imf ⊂ V 0 se tiene an(Imf )⊂ V 0∗ y, como f t : V 0∗ → V ∗ ,


Nucf t ⊂ V 0∗ , esto es, tanto an(Imf ) como Nuc f t son subespacios del mismo espacio vectorial, V 0∗ .
Sea entonces φ0 ∈ V 0∗ . Teniendo en cuenta la definición de anulador, y que los elementos de
Imf son los que se escriben como f (v) para algún v ∈ V , se sigue:

φ0 ∈ an(Imf ) ⇐⇒ φ0 (f (v)) = 0, ∀v ∈ V ⇐⇒ φ0 ◦ f = 0.

Como φ0 ◦ f : V → K, la igualdad φ0 ◦ f = 0 quiere decir que φ0 ◦ f ∈ V ∗ es la forma lineal nula


sobre V . Ahora bien, como por la definición de la aplicación traspuesta se tiene f t (φ0 ) = φ0 ◦ f ,
podemos decir entonces:

φ0 ◦ f = 0 ⇐⇒ f t (φ0 ) = 0 ⇐⇒ φ0 ∈ Nucf t ,

por lo que la igualdad requerida es inmediata de las dos lı́neas de equivalencias anteriores.

b) Sea n0 la dimensión de V 0 . Calculando dimensiones en los subespacios del apartado anterior


se tiene:
dim (an(Imf )) = dimV 0 − dim(Imf ) = n0 − r(f )
dim (Nucf ) = dimV − dim(Imf ) = n0 − r(f t ).
t 0∗ t

Como se ha probado que ambos subespacios coinciden, sus dimensiones también serán iguales, de
donde se sigue inmediatamente r(f ) = r(f t ).
Una manera alternativa de razonar la igualdad entre los rangos es la siguiente. Se sabe que,
escogidas bases B, B 0 de V y V 0 , respectivamente, el rango de f coincide con el rango de la matriz
M (f, B 0 ← B) y el de f t con el de la matriz M (f t , B ∗ ← B 0∗ ), donde los rangos de esas matrices
se calculan como el número máximo de columnas linealmente independientes. Puesto que también
se sabe que la matriz M (f t , B ∗ ← B 0∗ ) es la traspuesta de M (f, B 0 ← B), basta entonces con
demostrar que el rango de una matriz coincide con el de su traspuesta, esto es, que el número máximo
de columnas linealmente independientes de una matriz cualquiera A coincide con su número máximo
de filas linealmente independientes. Este resultado también es conocido por una demostración
directa hecha al final de la primera parte del curso.
(3) Se considera el espacio vectorial de las matrices antisimétricas A3 (R) y la aplicación lineal
f : R4 → A3 (R) que se obtiene extendiendo por linealidad las igualdades:
   
0 1 2 0 1 1
f (1, 0, 0, 0) =  −1 0 1 , f (0, 1, 0, 0) =  −1 0 5 ,
−2 −1 0 −1 −5 0
   
0 3 5 0 1 3
f (0, 0, 1, 0) =  −3 0 7 , f (0, 0, 0, 1) =  −1 0 −3  .
−5 −7 0 −3 3 0
Determinar una base 4 0
 ordenada
 B de R y otra B de A3 (R) tales que la matriz de f en estas
Ir O
bases sea del tipo: ∈ Mm×n (R), para ciertos números naturales m, n, r.
O O

Sea Bu la base usual de R4 y Bu0 la base usual de las matrices antisimétricas, esto es,
     
0 1 0 0 0 1 0 0 0
Bu0 = −1 0 0 ,  0 0 0 , 0 0 1
0 0 0 −1 0 0 0 −1 0

Por como se define f , es inmediato que su matriz en esas bases es:


 
1 1 3 1
0
M (f, Bu ← Bu ) = 2 1
 5 3
1 5 7 −3

(de hecho, en cada columna aparecen, convenientemente ordenados, los escalares de la parte trian-
gular superior de las imágenes de cada elemento de Bu ).
Siguiendo el procedimiento que se conoce por la teorı́a, construiremos B tomando una base de
Nucf y ampliándola a una de R4 (teniendo la precaución de situar los vectores de la ampliación en
primer lugar). El rango de f es 2 porque en la matriz M (f, Bu0 ← Bu ) se tiene:

1 1 3 1 1 1
1 1
2 1 = −1 6= 0,
2 1 5 = 0, 2 1 3 = 0, (20)

1 5 7 1 5 −3

(esto es, existe un menor de orden 2 distinto de 0, y los de orden 3 que se obtienen orlándolo son
iguales a 0). Por tanto, el núcleo de f tiene dimensión n − r(f ) = 4 − 2 = 2. Puesto que la tercera
fila de M (f, Bu0 ← Bu ) tiene que ser combinación lineal de las dos primeras, el núcleo se obtiene
solucionando el correspondiente sistema de ecuaciones principales:
 
  x   
1 1 3 1  y
 =
 0 x + y = −3z − t
, esto es, .
2 1 5 3 z  0 2x + y = −5z − 3t
t

En la última expresión el sistema se ha escrito en función de las incógnitas principales x, y (con


parámetros z, t), de modo que se puede solucionar mediante la regla de Cramer. De hecho, como
el determinante de la matriz del sistema (calculado en (20)) es -1, se tiene:

−3z − t 1 1 −3z − t
x = − = −2z − 2t y = − = −z + t
−5z − 3t 1 2 −5z − 3t
y una base del núcleo es23 BN = {(−2, −1, 1, 0), (−2, 1, 0, 1)}. Esta base se puede ampliar hasta
una de R4 usando elementos de Bu . De hecho, como:

1 0 0 0

0 1 0 0 1 0
−2 −1 1 0 = 0 1 6= 0,


−2 1 0 1

la base B requerida puede escogerse como:

B = ((1, 0, 0, 0), (0, 1, 0, 0), (−2, −1, 1, 0), (−2, 1, 0, 1)) .

Para construir la base B 0 , basta con tomar como primeros dos vectores24 f (1, 0, 0, 0) y f (0, 1, 0, 0)
(los cuales ya se conocen del enunciado del problema) y ampliarlos hasta cualquier base de A3 (R)
usando un vector de Bu0 . De hecho, podemos ampliar con el primer vector de Bu0 puesto que

1 2 1
3 5 7 = 2 1 6= 0.

5 7
1 0 0

Esto es, la base B 0 requerida puede escogerse como:


     
0 1 2 0 1 1 0 1 0
B0 =  −1 0 1  ,  −1 0 5  ,  −1 0 0 .
−2 −1 0 −1 −5 0 0 0 0

Por construcción, se sigue:  


1 0 0 0
M(f , B0 ← B) = 0 1 0 0 .
0 0 0 0

23
tomando las elecciones canónicas independientes (z = 1, t = 0), (z = 0, t = 1).
24
obsérvese que está garantizado, por la construcción de B, tanto que las imágenes de estos dos vectores tienen que
ser independientes como que las imágenes de los otros dos vectores de la base B deben ser 0.
(4) Se considera el espacio vectorial de polinomios R2 [x] y los conjuntos ordenados de formas
lineales C = (φ1 , φ2 , φ3 ) y C 0 = (ψ 1 , ψ 2 , ψ 3 ) definidos por:

φ1 (p(x)) = p(−1), φ2 (p(x)) = p(1), φ3 (p(x)) = p(2);


Z 1
ψ 1 (p(x)) = 3 p(x)dx, ψ 2 (p(x)) = p0 (1), ψ 3 (p(x)) = p00 (1).
−1

donde p0 (1)
y p00 (1) denotan, respectivamente, primera y segunda derivada del polinomio p(x)
evaluada en 1.

a) Demostrar que C y C 0 son bases de R2 [x]∗ .


b) Calcular la matriz de cambio de base (matriz de paso) de C a C 0 .
0
c) Calcular dos bases, B y B 0 , de R2 [x] tales que B ∗ = C y B ∗ = C 0 .

Sea Bu = (1, x, x2 ) la base usual de R2 [x]. Dada cualquier forma lineal Ψ ∈ R2 [x] sus coordenadas
en Bu∗ se obtienen simplemente como (Ψ(1), Ψ(x), Ψ(x2 )). Calculando estas coordenadas para cada
uno de los elementos de C y C 0 , y escribiéndolas ordenadamente por columnas, se obtienen entonces
sendas matrices:
   
1 1 1 6 0 0
M (I, Bu∗ ← C) = −1 1 2 , M (I, Bu∗ ← C 0 ) = 0 1 0 .
1 1 4 2 2 2

a) Al ser dim (R2 [x]∗ ) = 3 y estar formado cada uno de los conjuntos C y C 0 por tres vectores,
basta con demostrar que las correspondientes coordenadas en Bu∗ son independientes, esto es, que
los determinantes de las matrices anteriores son distintos de 0:

1 1 1 0 2 3 6 0 0
2 3
−1 1 2 = −1 1 2 = 0 1 0 = 12 (6= 0).
2 6 = 6 (6= 0),


1 1 4 0 2 6 2 2 2

b) Al ser C, C 0 , B ∗ bases del mismo espacio vectorial, basta con aplicar fórmulas de cambio de base:

M (I, C 0 ← C) = M (I, C 0 ← Bu∗ ) · M (I, Bu∗ ← C)


 −1  
6 0 0 1 1 1
= 0 1 0 −1 1 2
2 2 2 1 1 4   
2 0 0 1 1 1 2 2 2
1  1 
= 12 0 12 0   −1 1 2 = 12 −12 12 24 ,
−2 −12 6 1 1 4 16 −8 −2

donde la matriz inversa se calcula por cualquier algoritmo conocido (p. ej., (A−1 )ij = ∆ji / detA).

c) Usando B ∗ = C, la base pedida B verifica:


−1 t
  
1 1 1 2 6 −2
1
M (I, Bu ← B) = M (I, B ∗ ← Bu∗ )t = (M (I, Bu∗ ← C)−1 )t = −1 1 2  = −3 3 0
 
6
1 1 4 1 −3 2
esto es,
B = ((2 − 3x + x2 )/6, (2 + x − x2 )/2, (−1 + x2 )/3).
Análogamente para B 0 , usando B 0∗ = C 0 (y aprovechando que M (I, C 0 ← Bu∗ ) se habı́a calculado):
 t  
2 0 0 1 0 −1
1  1
M (I, Bu ← B 0 ) = M (I, C 0 ← Bu∗ )t = 0 12 0 = 0 6 −6
12 6
−2 −12 6 0 0 3

esto es,
B0 = (1/6, x, (−1 − 6x + 3x2 )/6).

También podría gustarte