Documentos de Académico
Documentos de Profesional
Documentos de Cultura
(i) Hallar Im(fλ ) y Ker(fλ ), según los valores del parámetro λ. Decidir si fλ es inyectiva,
sobreyectiva o biyectiva.
T
(ii) Obtener, según los valores de λ,L una base de Ker(fλ ) Im(fλ ) y de Ker(fλ ) + Im(fλ ).
¿Para qué valores R3 = Ker(fλ ) Im(fλ )?.
(iii) Para los valores de λ que sea posible, encontrar bases de R3 tales que la matriz asociada
a fλ en esas bases sea la siguiente:
1 0 0
0 1 0 .
0 0 0
f ◦ f = f,
Im f t = an(S2 (R)), y
Ker f t = an(A2 (R)),
donde S2 (R) y A2 (R) son los subespacios de matrices simétricas y antisimétricas, respectiva-
mente, del espacio vectorial real M2 (R) de las matrices cuadradas 2 × 2.
1. Razónese si son verdaderas o falsas las afirmaciones siguientes:
Solución.
a) VERDADERO. De hecho, es cierto en dimensión finita con más generalidad (para cualquier
vector y n-úpla no nulos). Daremos dos razonamientos, el primero más heurı́stico usando matrices
y el segundo formulado de manera general y con elementos más básicos.
(obsérvese que las coordenadas de p(x) en B̄ son (1, 0, 0, 0, 0)t ). Basta entonces con escoger las
columnas restantes de modo que se obtenga una matriz regular. Ası́, por ejemplo, escogemos:
0 1 0 0 0
1 0 0 0 0
M (I, B ← B̄) =
2 0 1 0 0 ,
3 0 0 1 0
4 0 0 0 1
1
Es inmediato que su determinante es −1 6= 0 porque, al ser la caja 2 × 3 superior derecha igual a 0, basta con
tomar el producto de los determinantes de las dos cajas diagonales.
Razonamiento 2. Sea V (K) un espacio vectorial de dimensión n, sea v ∈ V no nulo y (a1 , . . . , an ) ∈
K n no nula. Demostraremos que existe una base B tal que (a1 , . . . , an )t sean las coordenadas de
v en B. (Obsérvese que el caso particular V = R4 [x], v = p(x), (a1 , . . . , an ) = (0, 1, 2, 3, 4) es el
resultado buscado.)
Para ello, sea i un ı́ndice tal que ai 6= 0, y ampliemos v hasta una base de V (K),
en la cual el vector v original se ha ubicado en la posición i-ésima. Observemos que existe un vector
vi ∈ V que hace que se verifique la igualdad:
vi = a−1
i (v − a1 v1 + · · · − ai−1 vi−1 − ai+1 vi+1 · · · − an vn ) .
En esta expresión se observa que, al escribir vi como combinación lineal de la base B̄, la coordenada
correspondiente a v es a−1
i . Por ser este escalar distinto de 0, al reemplazar en B̄ el vector v por vi
se obtiene una nueva base2 ,
Nota. Es de señalar que se verifican las siguientes propiedades relacionadas, que se pueden
comprobar como ejercicio:
2
Éste es un resultado básico y conocido, aunque no del todo trivial ¡compruébese directamente!
2. Para cada λ ∈ R, se considera el endomorfismo fλ : R3 → R3 cuya matriz asociada en la base
usual es la siguiente:
1 3/2 λ−1
0 −1/2 −1 .
2
0 1 − λ /2 1
(i) Hallar Im(fλ ) y Ker(fλ ), según los valores del parámetro λ. Decidir si fλ es inyectiva,
sobreyectiva o biyectiva.
T
(ii) Obtener, segúnn los valores de λ,Luna base de Ker(fλ ) Im(fλ ) y de Ker(fλ ) + Im(fλ ).
¿Para qué valores R3 = Ker(fλ ) Im(fλ )?.
(iii) Para los valores de λ que sea posible, encontrar bases de R3 tales que la matriz asociada
a fλ en esas bases sea la siguiente:
1 0 0
0 1 0 .
0 0 0
Solución.
(i) Como la dimensión del conjunto imagen es el rango de la matriz asociada en cuaquier base,
comenzaremos calculando el rango de M = M (fλ , Bu ) (= M (fλ , Bu ← Bu )):
1 3/2 λ − 1
−1 = (1 − λ2 )/2,
0
−1/2
0 1 − λ2 /2 1
por lo tanto el rango de M es 3 para todo λ 6= ±1 y rango de M igual a 2 para λ = 1 y λ = −1 (es
de notar que siempre podemos encontrar una submatriz 2 × 2 con determinante distinto de cero,
por ejemplo, la formada por las dos primeras filas y columnas). Distinguimos pues los siguientes
casos:
Caso 1: si λ 6= ±1, dim(Im(fλ )) = rg(M ) = 3 y por tanto Im(fλ ) = R3 y Ker(fλ ) = {(0, 0, 0)}
ya que dim(Ker(fλ )) = dim(R3 ) − dim(Im(fλ )) = 3 − 3 = 0. La aplicación fλ es inyectiva y
sobreyectiva, luego es un isomorfismo.
Caso 2: si λ = 1, dim(Im(f1 )) = rg(M ) = 2 y una base de Im(f1 ) es la formada por dos de
las columnas de M que no sean proporcionales. Es decir,
Im(f1 ) = L((1, 0, 0), (3/2, −1/2, 1/2), (0, −1, 1)) = L((1, 0, 0), (0, −1, 1)),
y {(1, 0, 0), (0, −1, 1)} es una base de Im(f1 ).
Usando la fórmula de las dimensiones dim(Ker(f1 )) = 3 − 2 = 1. Para obtener una base del
núcleo resolvemos el SEL,
1 3/2 0 x 0
0 −1/2 −1 y = 0 ,
0 1/2 1 z 0
ya que el núcleo está formado por los vectores de R3 con imagen nula. Las soluciones del SEL
son z = µ, y = −2µ, x = 3µ con µ ∈ R y, por tanto,
T
(ii) Para λ 6= ±1, como el núcleo está formado sólo por el vector nulo, entonces Ker(fλ ) Im(fλ ) =
{(0, 0, 0)}. Usando la fórmula de Grassman
\
dim(Ker(fλ ) + Im(fλ )) = dim(Ker(fλ )) + dim(Im(fλ )) − dim(Ker(fλ ) Im(fλ )) = 3,
Para λ = 1 sabemos que Ker(f1 ) + Im(f1 ) = L((3, −2, 1), (1, 0, 0), (0, −1, 1)) ya que un sistema
de generadores de la suma se obtiene al unir las bases de cada uno de los subespacios vectoriales
involucrados. Además podemos comprobar inmediatamente que los tres vectores son linealmente
independientes (el determinante de la matriz formada con ellos es 6= 0). Por tanto, los tres vectores
3
T
forman base y Ker(f1 ) + Im(f1 ) = R . Por la fórmula de Grassmann, Ker(f1 ) Im(f1 ) = {(0, 0, 0)}
y la suma es también directa.
Finalmente para λ = −1, Ker(f−1 ) + Im(f−1 ) = L((5, −2, 1), (1, 0, 0), (−2, −1, 1))
T y los tres
vectores son linealmente independientes. Ası́, Ker(f−1 ) + Im(f−1 ) = R3 y Ker(f−1 ) Im(f−1 ) =
{(0, 0, 0)}, por lo que la suma es directa.
Resumiendo, R3 = Ker(fλ )
L
Im(fλ ) para todo λ ∈ R.
(iii) Como el rango de la matriz que nos dan en este apartado tiene rango 2, la matriz M será
equivalente a la nueva matriz sólo para λ = ±1. Para estos valores de λ vamos a encontrar bases
B y B 0 de R3 para las cuales
1 0 0
M (fλ , B 0 ← B) = 0 1 0 .
0 0 0
Es de remarcar que la base del núcleo se ha incluido al final de la base B porque la columna nula
aparece también al final de la matriz.
Una vez fijada la base B, para que la matriz asociada a la aplicación tenga la forma deseada, la
base B 0 debe estar formada por las imágenes de (0, 1, 0) y (0, 0, 1) (los vectores que hemos añadido
a la base del núcleo para formar la base B) y ampliarla a una base de R3 . Luego,
f ◦ f = f,
Im f t = an(S2 (R)), y
Ker f t = an(A2 (R)),
donde S2 (R) y A2 (R) son los subespacios de matrices simétricas y antisimétricas, respectiva-
mente, del espacio vectorial real M2 (R) de las matrices cuadradas 2 × 2.
Como dos subespacios vectoriales son iguales si y sólo si sus anuladores coinciden, esto equivale a:
Recordemos también que son bases de S2 (R), A2 (R), resp., los conjuntos BS y BA definidos por:
1 0 0 0 0 1 0 1
BS = , , , BA = .
0 0 0 1 1 0 −1 0
B = BS ∪ BA
0 0 0 1
a b
Si queremos obtener explı́citamente f ( ), podemos hacerlo cambiando de esta base a la
c d
1 0 0 1 0 0 0 0
usual de las matrices, esto es, Bu = ( , , , ) (¡compruébese!).
0 0 0 0 1 0 0 1
a b
Alternativamente, podemos calcular f ( ) con facilidad teniendo en cuenta que cualquier
c d
matriz cuadrada A se puede escribir como suma de una matriz simétrica y otra antisimétrica:
1 1
A = (A + At ) + (A − At )
2 2
Ası́, se tiene:
a b 1 2a b + c 1 0 b−c
= 2 +2
c d b + c 2d −b + c 0
1 0 0 0 0 1 0 1
= a +d + 21 (b + c) + 12 (b − c) .
0 0 0 1 1 0 −1 0
esto es:
a b 1 0 b−c a b
f( )= , ∀ ∈ M2 (R).
c d 2 −b + c 0 c d
GEOMETRÍA I (18/19)
3. Se considera el espacio vectorial R2 [x] de los polinomios de grado menor o igual a 2. Constrúya-
se un endomorfismo f de R2 [x] que verifique:
(donde p0 (0), p00 (0) denotan, resp., la primera y segunda derivada del polinomio en 0). De-
termı́nese la matriz de f en la baseusual de R2 [x] y, caso de ser posible, determı́nese una
Ir 0
base B tal que M (f, B) = , para algún r ∈ N.
0 0
Solución. Para la implicación (⇒) es suficiente cualquiera de los siguientes dos razonamientos.
1. Como {φ, ψ} es linealmente independiente, ninguna de las dos formas es la formal lineal nula,
por lo que sus núcleos Nuc(φ), Nuc(ψ) son dos hiperplanos. Se sabe además que la indepen-
dencia lineal obliga a que estos hiperplanos sean distintos (y, al tener la misma dimensión, no
puede estar incluido uno en el otro). Ası́, Nuc(φ)+ Nuc(ψ) = V , ya que esta suma tiene que
ser un subespacio vectorial de V que incluya estrictamente a Nuc(φ) y, como la dimensión del
hiperplano Nuc(φ) es n − 1, el único subespacio vectorial de mayor dimensión que lo contiene
es todo V . En consecuencia:
dim (Nuc(φ) ∩ Nuc(ψ))= dim(Nuc(φ)) + dim (Nuc(ψ)) − dim(Nuc(φ)+ Nuc(ψ))
= (n − 1) + (n − 1)− dim V = n − 2.
2. Es inmediato de la definición de anulador que an{φ, ψ} = (Nuc φ) ∩ (Nuc ψ). Por tanto,
dim (Nuc(φ) ∩ Nuc(ψ))= dim(an{φ, ψ})= dimV -dim (L{φ, ψ}) = n − 2
(la última igualdad porque, al ser {φ, ψ} linealmente independente, dim(L{φ, ψ}) = 2).
Para la implicación (⇐), razonando por el contrarrecı́proco se sigue que, si {φ, ψ} es linealmente
dependiente, entonces una de las formas lineales se puede escribir somo combinación lineal de la
otra. Suponiendo sin pérdida de generalidad ψ = aφ para algún a ∈ K, se obtiene directamente
Nuc(φ) ⊂ Nuc(ψ) por lo que (Nuc φ) ∩ (Nuc ψ)= Nuc(ψ). Como la dimensión de este núcleo es
o bien n o bien n − 1 (dependiendo de si ψ es la forma lineal nula o no), se sigue dim((Nuc φ) ∩
(Nuc ψ))≥ n − 1 y, por tanto, distinta de n − 2.
Solución.
a) VERDADERA. Obsérvese que la inclusión Nuc(f ) ⊂ Nuc(f ◦ f ) ocurre para todo endo-
morfismo (pues si v ∈ Nuc(f ) entonces4 (f ◦ f )(v) = f (f (v)) = f (0) = 0). Por tanto, basta con
demostrar dim (Nuc(f ◦ f )) = dim(Nuc(f )). Esto se deduce de:
dim (Nuc (f ◦ f )) = dim V − dim (Im(f ◦ f )) = dim V − dim (Im (f )) = dim (Nuc f ),
donde en la primera y la última igualdad se ha aplicado el teorema del rango (a la aplicación lineal
f ◦ f y a f , resp.), y en la segunda la hipótesis sobre5 f .
4
Aplicando, resp., la definición de composición, que v ∈ Nuc(f ), y que f es lineal.
5
Es de señalar que esta hipótesis, Im(f ◦ f ) = Im(f ), no implica f ◦ f = f . De hecho, cualquier automorfismo
distinto de la aplicación identidad es un contraejemplo a esa implicación (¡compruébese!).
Se considera el espacio vectorial R2 [x] de los polinomios de grado menor o igual
a 2. Constrúyase un endomorfismo f de R2 [x] que verifique:
(donde p0 (0), p00 (0) denotan, resp., la primera y segunda derivada del polinomio en
0). Determı́nese la matriz de f en la baseusual de R2 [x] y, caso de ser posible,
Ir 0
determı́nese una base B tal que M (f, B) = , para algún r ∈ N.
0 0
BImf = {2 − 2x + x2 }.
Para definir f , ampliemos BImf hasta una base B̄ de R2 [x]. Para ello, podemos tomar la base
usual Bu = (1, x, x2 ) y reemplazar uno de sus vectores, por ejemplo, el tercero, por 2 − 2x + x2 ,
obteniendo ası́ la base:
B̄ = (1, x, 2 − 2x + x2 ) (5)
(el hecho de que B̄ siga siendo una base está garantizado porque la tercera coordenada de 2−2x+x2
en Bu es distinta de 0). Para asegurar también la condición f ◦ f = f , basta entonces con definir
f imponiendo:
f (1) = f (x) = 0, f (2 − 2x + x2 ) = 2 − 2x + x2 (6)
y extendiendo por linealidad estas igualdades. De hecho, es inmediato de ellas dim(Nuc(f )) ≥ 2,
dim(Im(f ))≥ 1, y que en ambos casos se debe dar la igualdad (pues por el teorema del rango
dim(Nuc(f )) + dim(Nuc(f ))= 3). También es inmediato de la última igualdad en (6) que Im(f )
incluye el subespacio pedido y que, de hecho, es igual a él (pues la dimensión de este subespacio y
la de Im(f ) es la misma, igual a 1). La condición f ◦ f = f se satisface porque basta con que se
cumpla sobra una base y, efectivamente, se tiene:
Por tanto, esta matriz, junto con expresión de B̄ en (5), también define f .
Cálculo de la matriz de f en Bu . Para calcular M (f, Bu ), obsérvese que (6) proporciona direc-
tamente f (1) y f (x), por lo que basta con calcular f (x2 ). Para ello, podemos escribir x2 como
combinación lineal de B̄ y aplicar (6), esto es:
Alternativamente, también se puede calcular M (f, Bu ) a partir de M (f, B̄) usando un cambio de
base. En efecto, P := M (I, Bu ← B̄) se calcula directamente de (5) y su inversa P −1 por cualquiera
de los algoritmos de cálculo (Gauss-Jordan o adjuntos):
1 0 2 1 0 −2
P = M (I, Bu ← B̄) = 0 1 −2 , P −1 = M (I, B̄ ← Bu ) = 0 1 2 .
0 0 1 0 0 1
Usamos entonces M (f, Bu ) = M (I, Bu ← B̄) · M (f, B̄) · M (I, B̄ ← Bu ), esto es:
1 0 2 0 0 0 1 0 −2 0 0 2
M (f, Bu ) = 0 1 −2 · 0 0 0 · 0 1 2 = 0 0 −2 .
0 0 1 0 0 1 0 0 1 0 0 1
Cálculo de la base B requerida. Esta base tiene que existir pues, como se estudió en la asignatura,
un endomorfismo verifica f ◦ f = f (que define los proyectores) si y sólo si su matriz en
la igualdad
Ir 0
alguna base es del tipo , donde r = rango(f ).
0 0
De hecho, se sabe que f ◦ f = f implica R2 [x] = Im(f ) ⊕ Nuc(f ). Basta entonces con tomar
como B cualquier base cuyos primeros elementos formen una base de Im(f ) y los restantes una base
de Nuc(f ). Teniendo en cuenta la construcción de B̄ y de f , es suficiente reordenar los elementos
de B̄ en (5). Esto es, definimos:
B = (2 − 2x + x2 , 1, x)
y, directamente de (6), se sigue:
1 0 0
M (f, B) = 0 0 0 .
0 0 0
4. Se considera en el espacio vectorial de las matrices cuadradas M2 (R) el subespacio
Uk definido, para cada k ∈ R, por:
k k−1 k+2 2
Uk = L{ , }
k+1 k 0 k+2
Como un cálculo previo, hallemos una base y la dimensión de Uk , según los valores de k. Puesto
que se nos proporciona un sistema de generadores con dos elementos, basta con discutir el rango
de la matriz de las correspondientes coordenadas en la base usual de M2 (R), esto es, de
k k+2
k−1 2
. (7)
k+1 0
k k+2
Como su elemento (2, 2) es 2 (6= 0), el rango es siempre al menos 1 (el segundo vector del sistema
de generadores es siempre distinto de 0). Orlando este elemento mediante la tercera fila, se obtiene
el menor:
k−1 2
k + 1 0 = −2(k + 1). (8)
Para k 6= −1 este menor es distinto de 0, por lo que los dos vectores son linealmente independientes.
Para k = −1 la matriz resulta ser:
−1 1
−2 2
0 0 . (9)
−1 1
Su rango es 1, puesto que las dos columnas son claramente proporcionales6 . En resumen:
2 6 −1
si k =
dim(Uk ) =
1 si k = −1
6
También se puede comprobar que el rango es 1 porque se anulan
los tres
menores que se obtienen orlando el
−1 1 −2 2
elemento (2,2), esto es, el menor (20) y los menores = = 0.
−2 2 −1 1
Apartado 1. Para calcular las ecuaciones implı́citas distinguimos entonces los casos:
Caso k 6= −1. Debemos obtener 2 (=dim M2 (R) −dim Uk ) ecuaciones implı́citas, asegurando7
a k k+2
b k−1 2
rango
c k+1
= 2.
0
d k k+2
Ası́, se obtienen las ecuaciones requeridas orlando el menor de orden 2 no nulo (20):
a k k + 2 b k−1 2
b k−1 2 = 0, c k+1 0 = 0
c k+1 0 d k k+2
Esto es,
2a −b =0
c =0 (11)
a −d = 0
7
Obsérvese que, siguiendo el procedimiento general para calcular ecuaciones implicitas, la siguiente matriz se
obtiene añadiéndole a la matriz de la fórmula (7) (que tiene rango 2 al ser k 6= −1) como primera columna las
coordenadas de un elemento arbitrario de M2 (R) en la base usual de M2 (R).
8
Además es posible seguir simplificando estas ecuaciones usando transformaciones elementales. De hecho, restando
la primera a la segunda (y dividiendo por 2) se obtiene el sistema equivalente:
Trabajaremos con (10) sólo para ilustrar el método general pero, por supuesto, se puede proseguir con estas ecuaciones
simplificadas.
Apartado 2. Para cualquier subespacio Z de un espacio vectorial V , se sabe dim (an(Z)) =
dim(V )− dim(Z) por lo que esta dimensión coincide con el número de ecuaciones implı́citas (inde-
pendientes) necesarias para determinar9 Z. Puesto que el enunciado nos proporciona las ecuaciones
implı́citas de W
a −d = 0
(12)
c =0
y en el apartado anterior calculamos unas para Uk , la intersección Uk ∩ W coincide con el conjunto
de soluciones del SEL formado por la reunión de ambos sistemas de ecuaciones implı́citas.
En consecuencia, basta con calcular el número máximo de ecuaciones independientes de este SEL.
Caso k 6= −1. Uk ∩ W viene dado como solución del SEL formado por (10) y (12), de matriz:
−2 (k + 2) −(k − 2) 0
0 (k + 2) −(k − 2) −2
Mk := (13)
1 0 0 −1
0 0 1 0
Es suficiente calcular el rango de Mk . Aunque se puede hacer sólo para los valores pedidos k = 1, ±2,
lo estudiaremos en general. El procedimiento usual consiste en calcular en primer lugar para qué
valores de k se anula el determinante: para los que no se anule el rango de la matriz (y, por tanto, la
dimensión pedida del anulador) serı́a igual a 4, y para los que se anule será inferior. Desarrollando
por los adjuntos de la última fila el cálculo se reduce a estudiar si se anula:
−2 (k + 2) 0 −2 (k + 2) −2
0 (k + 2) −2 = 0 (k + 2) −2 = (k + 2) −2
(k + 2) −2
1 0 −1 1 0 0
(la primera igualdad sumando la primera columna a la última). Claramente, el último determinante
es 0 independientemente de k, por lo que rango(Mk ) < 4. Por otra parte, Mk contiene el menor
0 −1
= 1 6= 0
1 0
por lo que rango(Mk ) ≥ 2. Para determinar los valores para los que el rango de Mk es 3, orlaremos
este menor. Orlando con la primera columna (en la cual no aparece k) se tiene el menor:
0 −(k − 2) −2
= − −(k − 2) −2 6= 0.
1 0 −1
0
1 0
1 0
Ası́, rango(Mk ) = 3 para todo k y, por tanto, también dim(an(Uk ∩ W ))= 3 para k 6= −1.
Caso k = −1. Uk=−1 ∩ W viene dado como solución del SEL formado por (11) y (12), de
matriz:
2 −1 0 0
0 0 1 0
1
0 0 −1 (14)
1 0 0 −1
0 0 1 0
Claramente las dos últimas filas coinciden con las anteriores, mientras que las tres primeras son
independientes (de hecho, se corresponden con las ecuaciones implı́citas de Uk=−1 , por lo que
Uk=−1 ⊂ W y Uk=−1 ∩ W = Uk=−1 ). En consecuencia, el rango de la matriz es 3 y también
dim(an(Uk ∩ W ))= 3 para k = −1 .
9
De hecho, estas ecuaciones implı́citas generan de un modo natural una base de an(Z).
Nota. Vale la pena recapitular las distintas posibilidades obtenidas en los casos anteriores:
Caso k 6= −1: dim(Uk ) = 2 y dim(Uk ∩ W )= 1 (al venir determinado por tres ecuaciones
independientes); en consecuencia, dim(Uk + W )= 2 + 2 − 1 = 3.
a) Sea una matriz A ∈ M4 (K) cuyas cuatro columnas, consideradas como un subconjunto
C del e.v. K 4 (K), verifican: cualquier subconjunto de tres elementos de C es linealmente
independiente. Entonces, C es linealmente independiente.
b) Sean S = {u, v}, S 0 = {u0 , v 0 } dos subconjuntos de un espacio vectorial V (K) tales que:
Cada subconjunto S y S 0 es linealmente independiente.
Ningún vector de S se puede escribir como combinación lineal de vectores de S 0 , ni
ninguno de S 0 como combinación lineal de los de S.
Entonces, S ∪ S 0 es linealmente independiente.
Determinar, en el caso de que sea posible (o, en caso contrario, justificar la imposibilidad):
a) Dos bases, B y B 0 , de M2 (R) tales que la matriz de F en esas bases sea diagonal y con
todos sus elementos pertenecientes a {0, 1}.
b) Una base B de M2 (R) tal que la matriz de F en esa base sea diagonal con todos sus
elementos pertenecientes a {0, 1}.
a) Sea una matriz A ∈ M4 (K) cuyas cuatro columnas, consideradas como un subconjunto
C del e.v. K 4 (K), verifican: cualquier subconjunto de tres elementos de C es linealmente
independiente. Entonces, C es linealmente independiente.
b) Sean S = {u, v}, S 0 = {u0 , v 0 } dos subconjuntos de un espacio vectorial V (K) tales que:
Cada subconjunto S y S 0 es linealmente independiente.
Ningún vector de S se puede escribir como combinación lineal de vectores de S 0 , ni
ninguno de S 0 como combinación lineal de los de S.
Entonces, S ∪ S 0 es linealmente independiente.
Solución. a) Como consideraciones previas, el aserto serı́a claramente falso si, en lugar de considerar
A como una matriz n × n con n = 4, se considerara cuadrada con n = 2 (pues si se toma como C un
conjunto de dos vectores linealmente dependientes no nulos de K 2 (K), p. ej., C = {(1, 0), (2, 0)},
cada subconjunto de C con un elemento es linealmente independiente) o con n = 3 (si se toma
como C el conjunto de tres vectores coplanarios linealmente independientes dos a dos, p. ej., C =
{(1, 0, 0), (0, 1, 0), (1, 1, 0)}, cada subconjunto de C con dos elementos es linealmente independiente).
No hay pues motivos para pensar que, para n = 4 esta afirmación vaya a ser cierta. Más aún,
el procedimiento general de cálculo del rango usando determinantes aplicado a la matriz A del
enunciado, asegurarı́a sólo que el rango de A es tres (al haber menores no nulos de orden tres):
para asegurar que sea cuatro, exigirı́a comprobar que un menor de orden cuatro (en este caso, el
determinante de toda la matriz) sea no nulo.
Un contraejemplo inspirado en la discusión anterior serı́a tomar C como un conjunto de 4 vecto-
res contenidos en un mismo subespacio U ⊂ K 4 de modo que cada tres de sus elementos formen una
base de U . P. ej, se puede escoger que tres vectores de C sean {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)}, los
cuales forman una base del subespacio U := R3 × {0}, y como cuarto vector (1, 1, 1, 0), el cual tam-
bién está contenido en U y puede reemplazarse por cualquiera de los anteriores para formar una base
de U (pues al escribir (1, 1, 1, 0) como combinación lineal de la base ((1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0))
ninguna de sus coordenadas es nula). Esto es, escribiéndolos por columnas, la matriz
1 0 0 1
0 1 0 1
0 0 1 1
0 0 0 0
Solución. Hay dos procedimientos generales y naturales para resolver este problema:
1. Hallar unas ecuaciones implı́citas para Uλ y para Wλ con respecto a alguna base del espacio
S2 (R) (el cual tiene dimensión 3).
Juntando todas estas ecuaciones, se obtiene un SEL cuya solución proporciona Uλ ∩ Wλ .
Extrayendo de él un SEL equivalente de ecuaciones independientes, se obtiene para cada λ
un conjunto de10 m(λ) ∈ {0, 1, 2, 3} ecuaciones implı́citas para Uλ ∩ Wλ .
Ası́, la dimensión pedida será 3 − m(λ).
Si se quiere, se puede además calcular una base de este subespacio, sin más que solucionar el
SEL obtenido.
2. Calcular las dimensiones de Uλ , Wλ y Uλ + Wλ , y aplicar entonces la fórmula de Grassmann:
dim Uλ ∩ Wλ = dim Uλ + dim Wλ - dim (Uλ + Wλ ).
El cálculo de las dimensiones requeridas es sencillo, pues se nos proporciona un sistema de
generadores de Uλ , uno de Wλ y, uniendo ambos sistemas, uno también de Uλ + Wλ .
En consecuencia, por este procedimiento, todo el problema reside en calcular la dimensión
de tres subespacios, Uλ , Wλ y Uλ + Wλ , de cada uno de los cuales se conoce un sistema de
generadores, lo cual se reduce a calcular el rango de tres matrices.
Es de remarcar que por este procedimiento, que es más sencillo, obtendrı́amos sólo la dimen-
sión de Uλ ∩ Wλ (a fin de cuentas, lo que se pide) pero no una base suya.
Pese a ser un poco más largo, seguiremos el primer procedimiento y, aunque no lo pida el enunciado,
calcularemos además una base de 11
la intersección.
1 0 0 1 0 0
Fijando la base usual Bu = , , de S2 (R), trabajeremos a con-
0 0 1 0 0 1
tinuación reemplazando S2 (R) por R3 , entendiendo que cada matriz de S2 (R) se reemplaza por sus
coordenadas en Bu . Se tiene entonces:
El caso λ = 0 resulta inmediato de resolver, pues el único vector (0, 0, 1) de BU0 no puede escribirse
0 0 1
como combinación lineal de BW0 , ya que 2 −2
0 = 8 6= 0. Esto implica que la dimensión
3 1 −3
de la intersección es menor que 1, esto es, su dimensión es 0 (U0 ∩ W0 = {0}).
Consideraremos en adelante el caso λ 6= 0. Siguiendo el procedimento antes indicado, calculamos
ecuaciones implı́citas de Uλ y Wλ . Puesto que estos espacios tienen dimensión 2, habrá una única
ecuación implı́cita para cada uno de ellos, que se obtiene de manera canónica (imponiendo que las
incógnitas (x, y, z) sean combinación lineal de la base BUλ , BWλ que se tiene de cada subespacio12 ):
x y z
Ecuación implı́cita para Uλ : 0 = λ λ −1 = λx − 2λy − λ2 z.
0 −λ 2
O equivalentemente (simplificando al ser λ 6= 0): x − 2y − λz = 0
x y z
Ecuación implı́cita para Wλ : 0 = 2 −2 λ = (6 − λ)x + (6 + 3λ)y + 8z.
3 1 −3
Ası́, Uλ ∩ Wλ está determinado por el subespacio solución del sistema:
x −2y −λz = 0
(15)
(6 − λ)x +(6 + 3λ)y +8z = 0
Para comprobar si estas ecuaciones son independientes, debemos calcular el rango de la matriz:
1 −2 −λ
6 − λ 6 + 3λ 8
De la primera ecuación se obtiene λ = −18. Como este valor no es solución de la segunda, el rango
de la matriz es siempre 2. Por tanto, dim(Uλ ∩ Wλ ) = 3 − 2 = 1. En resumen:
0 si λ = 0
dim(Uλ ∩ Wλ ) =
1 si λ ∈ R \ {0}
12
Y, por comodidad de cálculo, desarrollando cada determinante por los adjuntos de la lı́nea donde aparecen x, y, x.
13
Los determinantes a continuación se obtiene orlando el elemento no nulo 1 con elementos de la segunda fila (y
las otras columnas)
RESULTADO ADICIONAL: base de Uλ ∩ Wλ
Para el caso λ 6= 0 la base se obtendrá resolviendo el sistema (15) por el método de Cramer.
Teniendo en cuenta la primera igualdad en (16), para λ 6= −18 se pueden tomar x, y como incógnitas
principales15 : y la regla de Crámer genera:
λz
−2 1
λz
−8z 6 + 3λ 3λ2 + 6λ − 16 6 − λ −8z λ2 − 6λ − 8
x= = z, y= = z
λ + 18 λ + 18 λ + 18 λ + 18
Tomando z = λ + 18 se obtiene como base:
14
Este es un convenio justificado en la teorı́a.
15
Y pasando los términos en z al otro miembro, de modo que esta incógnita se trata como un término independiente.
3. Se considera, en el espacio vectorial de matrices cuadradas M2 (R), la aplicación lineal:
1
F : M2 (R) → M2 (R), F (A) = A − At , ∀A ∈ M2 (R).
2
Determinar, en el caso de que sea posible (o, en caso contrario, justificar la imposibilidad):
a) Dos bases, B y B 0 , de M2 (R) tales que la matriz de F en esas bases sea diagonal y con
todos sus elementos pertenecientes a {0, 1}.
b) Una base B de M2 (R) tal que la matriz de F en esa base sea diagonal con todos sus
elementos pertenecientes a {0, 1}.
Solución. a) Se sabe del estudio del rango y matrices equivalentes en teorı́a (Proposición 3.67) que
tales bases B, B 0 deben existir16 . Para construir B tomaremos una base del núcleo de F , y la
ampliamos hasta una de M2 (R).
a b
Cálculo del núcleo de F y de B. Para cada A = ∈ M2 (R) se tiene:
c d
1
b − 12 c
a b 1 a c 2a
F (A) = − = ∈ M2 (R)
c d 2 b d c − 12 b 1
2d
Por lo que F (A) = 0 si y sólo si a = 0, c = 2b, b = 2c, d = 0, esto es, si y sólo si A = 0. Por tanto,
Nuc F = {0} (su base serı́a el conjunto vacı́o) y podemos tomar como B cualquier base de M2 (R).
Por sencillez, la escogemos igual a la base usual, esto es:
1 0 0 1 0 0 0 0
B= , , ,
0 0 0 0 1 0 0 1
Explı́citamente:
0 1/2 0 0 1 0 −1/2 0 0
B = , , , .
0 0 −1/2 0 1 0 0 1/2
17
Se puede también descartar la existencia de la base B usando directamente un resultado sobre matrices semejantes
visto en clase (Ejercicio 3.38): un endomorfismo f admite una base B tal que M (f, B) es de la forma explicada en el
enunciado b) si y sólo si f ◦ f = f (f es un proyector). Como claramente el endomorfismo F no verifica esta relación,
tal base no existe.
4. Se considera, en el espacio de polinomios R3 [x]:
2. Determinar condiciones sobre f que sean equivalentes a las que se imponen sobre f t , y calcular
f de modo que verifique estas condiciones. Para ello se usan relaciones conocidas vistas en
teorı́a, concretamente:
Como an(Im f )= Nuc f t se tiene Im f = an(Nuc f t )). Por tanto, la primera condición
sobre f t , Nuc f t = L{φ, ψ}, resulta equivalente a la condición sobre f :
Imf = an(Nuc f t )= an({φ, ψ}), esto es, Im f = {p(x) ∈ R3 [x] : p(1) = 0, p0 (1) − p(0) = 0}
Como an(Nuc f )= Im f t se tiene Nuc f = an(Im f t ). Por tanto, la segunda condición
sobre f t , Im f t = an (U ), resulta equivalente a la condición sobre f : Nuc f= U .
Esto es, el problema resulta ser equivalente a obtener in endomorfismo f de R3 [x] que verifique
las dos relaciones recuadradas.
A continuación, seguiremos el procedimiento directo18 1.
Sea Bu = (1, x, x2 , x3 ) la base usual de R3 [x] y Bu∗ = (φ1 , φ2 , φ3 , φ4 ) su dual. Obsérvese que U se
define como solucion de un sistema de dos ecuaciones lineales independientes, o, equivalentemente,
como el anulador de las formas lineales asociadas al sistema:
U = an{φ2 , 2φ3 + φ4 }.
Para calcular f t , determinemos primero una base B ∗ de R3 [x]∗ que amplı́e a {φ, ψ}. Una elección
sencilla consiste en ampliar con elementos de Bu∗ , por ejemplo: B ∗ = (φ, ψ, φ3 , φ4 ). Esto es posible
puesto que:
1 1 1 1
1 1 1
−1 1 2 3
= −1 1 2 = 1 1 6= 0
0 0 1 0 −1 1
0 0 1
0 0 0 1
18
Los pasos en el procedimiento 2 son similares. La única ventaja para algunos es que al resolverlo ya no hay que
hacer ninguna referencia al espacio dual.
Basta entonces con tomar f t imponiendo que se anule sobre los dos primeros vectores de B ∗ y que
aplique los dos últimos en la base {φ2 , 2φ3 + φ4 } de Im f t , esto es:
0 0 0 0
0 0 1 0
M (f t , Bu∗ ← B ∗ ) =
0 0 0 2
0 0 0 1
Para calcular M (I, B ∗ ← Bu∗ ), basta con hallar la inversa de M (I, Bu∗ ← B ∗ ) (esta última se calcula
inmediatamente):
1 −1 0 0 1 1 0 0
1 1 0 0 1 −1 1 0 0
M (I, Bu∗ ← B ∗ ) = ; M (I, B ∗ ← Bu∗ ) = M (I, Bu∗ ← B ∗ )−1 =
1 2 1 0 2 1 −3 2 0
1 3 0 1 2 −4 0 2
donde la inversa se obtiene o bien por el algoritmo de su cálculo usando adjuntos19 o bien por
Gauss-Jordan. Sustituyendo en (17):
0 0 0 0 1 1 0 0 0 0 0 0
1 −1 1 −3 2 0
M (f t , Bu∗ ) =
0 0 1 0 1 0 = 1
0
·
0 0 0 2 2 1 −3 2 0 2 4 −8 0 4
0 0 0 1 2 −4 0 2 2 −4 0 2
Por tanto, la matriz pedida de f no es más que la traspuesta de la anterior, esto es:
0 1 4 2
1 0 −3 −8 −4
M (f, Bu ) =
2 0 2 0 0
0 0 4 2
19 E 0
Este algorimo se simplifica porque, como se trabaja con una matriz del tipo su inversa es del tipo
F I2
−1
E 0
F0 I2
GEOMETRÍA I (16/17 1a parte)
donde, en cada miembro derecho de estas igualdades, las operaciones que aparecen para la primera
componente se llevan a cabo en V (K), y para la segunda componente en V 0 (K).
Para demostrar que U × U 0 es un subespacio vectorial de V × V 0 , debemos comprobar primero
que no es vacı́o, lo cual resulta obvio porque, por ser U y U 0 subespacios, el neutro 0 de V debe
pertenecer a U y el neutro 00 de V debe pertenecer a U 0 , con lo que (0, 00 ) ∈ U ×U 0 (y ası́ U ×U 0 6= ∅).
A continuación, debemos comprobar que las operaciones + y ·K de V × V 0 se restringen a U × U 0 ,
lo cual se resume en demostrar:
a · (v, v 0 ) + b · (w, w0 ) = (a · v, a · v 0 ) + (b · w, b · w0 ) = (a · v + b · w, a · v 0 + b · w0 ).
(a · v + b · w, a · v 0 + b · w0 ) ∈ U × U 0
a) Puesto que Uλ está generado por dos vectores no nulos, su dimensión será 1 ó 2. Para distinguir
entre estos dos casos, basta con calcular, según el valor de λ ∈ R, el rango de la matriz A formada
por las coordenadas de estos vectores respecto a la base usual de M2 (R), esto es, de
1−λ 2
−2 −1
A= 0
0
−4 λ + 1
Para ello podemos suprimir la tercera fila, ya que está compuesta de ceros, y calcular cuándo
se anulan simultáneamente los dos menores que se obtienen al orlar el elemento 2. Ası́, debemos
resolver simultáneamente en λ el sistema no lineal de ecuaciones:
1 − λ 2 1 − λ 2 = 1 − λ2 + 8 = 9 − λ2 .
0 = = λ − 1 + 4 = λ + 3, 0 =
−2 −1 −4 λ + 1
Las soluciones son 1, −2, por lo que r(Mµ ) = 3 para µ 6= 1, −2, y fácilmente se obtiene r(Mµ=1 ) = 1
(las tres filas coinciden) y r(Mµ=−2 ) = 2 (hay menores de orden 2 distintos de 0).
22
Por supuesto, también se puede desarrollar usando la regla de Sarrus, y calcular las raı́ces del polinomio de grado
3 en µ usando la regla de Ruffini.
De hecho, podemos calcular una base en cada caso, concluyéndose:
0 0
1 si µ 6= 1, −2 Base: { }
0 1
0 0 1 1
dim(Wµ ) = 2 si µ = −2 Base: { , }
0 1 1 0
0 0 1 0 0 1
3 si µ = 1 Base: { , , }
0 1 −1 0 −1 0
b) Obsérvese que Uλ ⊕ Wµ equivale a decir Uλ ∩ Wµ = {0}, esto es dim(Uλ ∩ Wµ ) = 0, y que
M2 (R) = Uλ + Wµ equivale a dim(Uλ + Wµ ) = 4. Puesto que para cada par (λ, µ) conocemos las
dimensiones de Uλ y Wµ , el problema de determinar si ocurre M2 (R) = Uλ + Wµ equivale al de
Uλ ⊕ Wµ gracias a la fórmula de Grassmann:
dim(Uλ + Wµ ) = dimUλ + dimWµ − dim(Uλ ∩ Wµ ).
Caso λ = −3. Como dim Uλ=−3 = 1, podemos escoger como base de Uλ la primera de las dos
matrices que definen su sistema de generadores en el enunciado, y se tiene:
4 −2
Uλ ∩ Wµ 6= {0} ⇐⇒ Uλ ⊂ Wµ ⇐⇒ ∈ Wµ .
0 −4
Esta última relación no se da para ningún valor de µ. Por tanto Uλ ⊕ Vµ , y aplicando Grassmann:
Si µ 6= 1, −2, dim(Uλ + Wµ ) = 1 + 1 − 0 = 2, por lo que M2 (R) 6= Uλ + Vµ .
Si µ = −2, dim(Uλ + Wµ ) = 1 + 2 − 0 = 3, por lo que M2 (R) 6= Uλ + Vµ .
Si µ = 1, dim(Uλ + Wµ ) = 1 + 3 − 0 = 4, por lo que M2 (R) = Uλ + Vµ .
Caso λ 6= −3. Como ahora dim Uλ = 2, el enunciado provee directamente una base de Uλ (cuyas
coordenadas se escribieron en la matriz A). Para calcular dim(Uλ + Vµ ) basta con tomar para cada
valor de µ la base de Wµ anteriormente calculada, ampliar la matriz A a una matriz Aµ añadiendo
sus correspondientes coordenadas, y calcular el rango de esta matriz. Concretamente:
Si µ 6= 1, −2 (calculando el menor de Aµ suprimiendo su tercera fila):
1−λ 2 0
1 − λ
−2 2 0
−1 0
−2
Aµ = 0 , −1 0 6= 0, =⇒ dim(Uλ +Wµ )(= r(Aµ )) = 3.
0 0
−4 λ + 1 1
−4 λ + 1 1
Por tanto, dim(Uλ ∩ Wµ ) = 2 + 1 − 3 = 0 y se da Uλ ⊕ Wµ pero M2 (R) 6= Uλ + Vµ .
Si µ = −2 (calculando detAµ mediante los adjuntos de su tercera columna):
1−λ 2 0 1
1 − λ
−2 2 1
−1 0 1
−2
Aµ = , −1 1 =
6 0, =⇒ dim(Uλ +Wµ )(= r(Aµ )) = 4.
0 0 0 1
0 0 1
−4 λ + 1 1 0
Por tanto, dim(Uλ ∩ Wµ ) = 2 + 2 − 4 = 0 y se dan Uλ ⊕ Wµ y M2 (R) = Uλ + Vµ .
Si µ = 1 (calculando como antes obviando la última columna):
1−λ 2 0 1 0
1 − λ 2
−2 1
−1 0 0 1
Aµ = , −2 −1 0 6= 0, =⇒ dim(Uλ +Wµ )(= r(Aµ )) = 4.
0 0 0 −1 −1
0 0 −1
−4 λ + 1 1 0 0
Por tanto, dim(Uλ ∩ Wµ ) = 3 + 2 − 4 = 1 y se da M2 (R) = Uλ + Vµ pero no Uλ ⊕ Wµ .
GEOMETRÍA I (16/17 2a parte)
1. Sean V (K), V 0 (K) dos espacios vectoriales finitamente generados, y f : V → V 0 una aplicación
lineal.
donde p0 (1)
y p00 (1) denotan, respectivamente, primera y segunda derivada del polinomio p(x)
evaluada en 1.
φ0 ∈ an(Imf ) ⇐⇒ φ0 (f (v)) = 0, ∀v ∈ V ⇐⇒ φ0 ◦ f = 0.
φ0 ◦ f = 0 ⇐⇒ f t (φ0 ) = 0 ⇐⇒ φ0 ∈ Nucf t ,
por lo que la igualdad requerida es inmediata de las dos lı́neas de equivalencias anteriores.
Como se ha probado que ambos subespacios coinciden, sus dimensiones también serán iguales, de
donde se sigue inmediatamente r(f ) = r(f t ).
Una manera alternativa de razonar la igualdad entre los rangos es la siguiente. Se sabe que,
escogidas bases B, B 0 de V y V 0 , respectivamente, el rango de f coincide con el rango de la matriz
M (f, B 0 ← B) y el de f t con el de la matriz M (f t , B ∗ ← B 0∗ ), donde los rangos de esas matrices
se calculan como el número máximo de columnas linealmente independientes. Puesto que también
se sabe que la matriz M (f t , B ∗ ← B 0∗ ) es la traspuesta de M (f, B 0 ← B), basta entonces con
demostrar que el rango de una matriz coincide con el de su traspuesta, esto es, que el número máximo
de columnas linealmente independientes de una matriz cualquiera A coincide con su número máximo
de filas linealmente independientes. Este resultado también es conocido por una demostración
directa hecha al final de la primera parte del curso.
(3) Se considera el espacio vectorial de las matrices antisimétricas A3 (R) y la aplicación lineal
f : R4 → A3 (R) que se obtiene extendiendo por linealidad las igualdades:
0 1 2 0 1 1
f (1, 0, 0, 0) = −1 0 1 , f (0, 1, 0, 0) = −1 0 5 ,
−2 −1 0 −1 −5 0
0 3 5 0 1 3
f (0, 0, 1, 0) = −3 0 7 , f (0, 0, 0, 1) = −1 0 −3 .
−5 −7 0 −3 3 0
Determinar una base 4 0
ordenada
B de R y otra B de A3 (R) tales que la matriz de f en estas
Ir O
bases sea del tipo: ∈ Mm×n (R), para ciertos números naturales m, n, r.
O O
Sea Bu la base usual de R4 y Bu0 la base usual de las matrices antisimétricas, esto es,
0 1 0 0 0 1 0 0 0
Bu0 = −1 0 0 , 0 0 0 , 0 0 1
0 0 0 −1 0 0 0 −1 0
(de hecho, en cada columna aparecen, convenientemente ordenados, los escalares de la parte trian-
gular superior de las imágenes de cada elemento de Bu ).
Siguiendo el procedimiento que se conoce por la teorı́a, construiremos B tomando una base de
Nucf y ampliándola a una de R4 (teniendo la precaución de situar los vectores de la ampliación en
primer lugar). El rango de f es 2 porque en la matriz M (f, Bu0 ← Bu ) se tiene:
1 1 3 1 1 1
1 1
2 1 = −1 6= 0,
2 1 5 = 0, 2 1 3 = 0, (20)
1 5 7 1 5 −3
(esto es, existe un menor de orden 2 distinto de 0, y los de orden 3 que se obtienen orlándolo son
iguales a 0). Por tanto, el núcleo de f tiene dimensión n − r(f ) = 4 − 2 = 2. Puesto que la tercera
fila de M (f, Bu0 ← Bu ) tiene que ser combinación lineal de las dos primeras, el núcleo se obtiene
solucionando el correspondiente sistema de ecuaciones principales:
x
1 1 3 1 y
=
0 x + y = −3z − t
, esto es, .
2 1 5 3 z 0 2x + y = −5z − 3t
t
Para construir la base B 0 , basta con tomar como primeros dos vectores24 f (1, 0, 0, 0) y f (0, 1, 0, 0)
(los cuales ya se conocen del enunciado del problema) y ampliarlos hasta cualquier base de A3 (R)
usando un vector de Bu0 . De hecho, podemos ampliar con el primer vector de Bu0 puesto que
1 2 1
3 5 7 = 2 1 6= 0.
5 7
1 0 0
23
tomando las elecciones canónicas independientes (z = 1, t = 0), (z = 0, t = 1).
24
obsérvese que está garantizado, por la construcción de B, tanto que las imágenes de estos dos vectores tienen que
ser independientes como que las imágenes de los otros dos vectores de la base B deben ser 0.
(4) Se considera el espacio vectorial de polinomios R2 [x] y los conjuntos ordenados de formas
lineales C = (φ1 , φ2 , φ3 ) y C 0 = (ψ 1 , ψ 2 , ψ 3 ) definidos por:
donde p0 (1)
y p00 (1) denotan, respectivamente, primera y segunda derivada del polinomio p(x)
evaluada en 1.
Sea Bu = (1, x, x2 ) la base usual de R2 [x]. Dada cualquier forma lineal Ψ ∈ R2 [x] sus coordenadas
en Bu∗ se obtienen simplemente como (Ψ(1), Ψ(x), Ψ(x2 )). Calculando estas coordenadas para cada
uno de los elementos de C y C 0 , y escribiéndolas ordenadamente por columnas, se obtienen entonces
sendas matrices:
1 1 1 6 0 0
M (I, Bu∗ ← C) = −1 1 2 , M (I, Bu∗ ← C 0 ) = 0 1 0 .
1 1 4 2 2 2
a) Al ser dim (R2 [x]∗ ) = 3 y estar formado cada uno de los conjuntos C y C 0 por tres vectores,
basta con demostrar que las correspondientes coordenadas en Bu∗ son independientes, esto es, que
los determinantes de las matrices anteriores son distintos de 0:
1 1 1 0 2 3 6 0 0
2 3
−1 1 2 = −1 1 2 = 0 1 0 = 12 (6= 0).
2 6 = 6 (6= 0),
1 1 4 0 2 6 2 2 2
b) Al ser C, C 0 , B ∗ bases del mismo espacio vectorial, basta con aplicar fórmulas de cambio de base:
donde la matriz inversa se calcula por cualquier algoritmo conocido (p. ej., (A−1 )ij = ∆ji / detA).
esto es,
B0 = (1/6, x, (−1 − 6x + 3x2 )/6).