Está en la página 1de 5

RECOPILACIÓN DE DEMOSTRACIONES

I.- ESPACIOS VECTORIALES. SUBESPACIOS, BASES Y DIMENSIÓN.

Probar que {𝐞𝟏 , … , 𝐞𝐩 } es linealmente dependiente si y sólo si alguno de ellos es


combinación lineal de los restantes

(⇒) Si {e1 , … , ep } es linealmente dependiente, existe algún 𝜆𝑖 ∈ ℝ tal que, si 𝜆1 𝑒1 + ⋯ + 𝜆𝑝 𝑒𝑝 = 0,


entonces 𝜆𝑖 ≠ 0. Supongamos 𝜆𝑘 ≠ 0. Entonces 𝜆1 𝑒1 + ⋯ + 𝜆𝑘 𝑒𝑘 + ⋯ 𝜆𝑝 𝑒𝑝 = 0. Esta relación se puede
𝜆1
expresar como 𝜆1 𝑒1 + ⋯ 𝜆𝑝 𝑒𝑝 = −𝜆𝑘 𝑒𝑘 . Si dividimos esta expresión por 𝜆𝑘 ≠ 0, tenemos que 𝑒 +
−𝜆𝑘 1
𝜆𝑝 𝜆𝑖
⋯+ 𝑒 = 𝑒𝑘 , de donde 𝛼1 𝑒1 + ⋯ + 𝛼𝑝 𝑒𝑝 = 𝑒𝑘 , siendo 𝛼𝑖 = . Por lo tanto, 𝑒𝑘 es combinación
−𝜆𝑘 𝑝 −𝜆𝑘
lineal de {e1 , … , ep }.

(⇐) Sea 𝑒𝑘 el vector que es combinación lineal de los restantes. Entonces 𝜆1 𝑒1 + ⋯ + 𝜆𝑝 𝑒𝑝 = 𝑒𝑘 , de


donde 𝜆1 𝑒1 + ⋯ − 𝑒𝑘 + ⋯ + 𝜆𝑝 𝑒𝑝 = 0; o sea 𝜆1 𝑒1 + ⋯ + (−1)𝑒𝑘 + ⋯ + 𝜆𝑝 𝑒𝑝 = 0. Por lo tanto, existe
un 𝜆𝑖 ≠ 0 y, por lo tanto, {e1 , … , 𝑒𝑘 , … , ep } es linealmente independiente.

Probar que si un conjunto {𝐞𝟏 , … , 𝐞𝐩 } es una base de E, entonces es un sistema libre que deja
de serlo al añadirle otro vector.

Sea 𝐿 = {e1 , … , ep } una base de E. Por ser base es libre y generador, por lo que, dado cualquier vector
𝑒𝑘 que no pertenezca a L, se cumple que 𝛼1 𝑒1 + ⋯ + 𝛼𝑝 𝑒𝑝 = 𝑒𝑘 . De modo que, si añadimos a L el
vector 𝑒𝑘 , el conjunto 𝐿´ = {e1 , … , 𝑒𝑘 , … , ep } ya no es un sistema libre, al ser uno de sus vectores
combinación lineal de los restantes.

Probar que si un conjunto {𝐞𝟏 , … , 𝐞𝐩 } es una base de E, entonces es un sistema generador


que deja de serlo al prescindir de uno de sus vectores.

Sea 𝐿 = {e1 , … , ep } una base de E. Por ser base es libre y generador, por lo que, dado cualquier vector
𝑒𝑘 que no pertenezca a L, se cumple que 𝛼1 𝑒1 + ⋯ + 𝛼𝑝 𝑒𝑝 = 𝑒𝑘 . Si extraemos de L un vector
(supongamos 𝑒𝑛 ), se cumplirá que 𝑒𝑛 no es combinación lineal del resto de los vectores de L, con lo que
L habrá dejado de ser sistema generador de E.

Probar que si 𝑬𝟏 y 𝑬𝟐 son dos subespacios vectoriales de E, entonces 𝑬𝟏 + 𝑬𝟐 también es un


subespacio vectorial de E.

Sean 𝑢 y 𝑣 dos vectores de 𝐸1 + 𝐸2. Entonces se verifica que 𝑢 = 𝑒1 + 𝑒2, con 𝑒1 ∈ 𝐸1 𝑦 𝑒2 ∈ 𝐸2 y 𝑣 =


𝑒´1 + 𝑒´2, con 𝑒´1 ∈ 𝐸1 𝑦 𝑒´2 ∈ 𝐸2 . Tenemos que probar que cualquier combinación lineal de 𝑢 y 𝑣
también pertenece a 𝐸1 + 𝐸2. En efecto, 𝛼𝑢 + 𝛽𝑣 = 𝛼(𝑒1 + 𝑒2 ) + 𝛽(𝑒´1 + 𝑒´2 ) = (𝛼𝑒1 + 𝛽𝑒´1 )+ (𝛼𝑒2 +
𝛽𝑒´2 ), donde (𝛼𝑒1 + 𝛽𝑒´1 ) 𝜖 𝐸1 y (𝛼𝑒2 + 𝛽𝑒´2 ) 𝜖 𝐸2 , por ser ambos subespacios vectoriales de E. Por lo
tanto, 𝐸1 + 𝐸2 es un subespacio vectorial de E.

Probar que si 𝑬𝟏 y 𝑬𝟐 son dos subespacios vectoriales de E, entonces 𝑬𝟏 ∩ 𝑬𝟐 también es un


subespacio vectorial de E.

Sean 𝑢 y 𝑣 dos vectores de 𝐸1 ∩ 𝐸2. Entonces se verifica que 𝑢 ∈ 𝐸1 , 𝑢 ∈ 𝐸2, 𝑣 ∈ 𝐸1 y 𝑣 ∈ 𝐸2. Tenemos
que probar que cualquier combinación lineal de 𝑢 y 𝑣 pertenece también a 𝐸1 ∩ 𝐸2. En efecto, 𝛼𝑢 +
𝛽𝑣 ∈ 𝐸1 ∩ 𝐸2, ya que 𝛼𝑢 + 𝛽𝑣 ∈ 𝐸1 y 𝛼𝑢 + 𝛽𝑣 ∈ 𝐸2, por ser ambos subespacios vectoriales de E. Por lo
tanto, 𝐸1 ∩ 𝐸2 es un subespacio vectorial de E.
II.- APLICACIONES LINEALES

Probar que si un conjunto {𝐞𝟏 , … , 𝐞𝐩 } es linealmente dependiente, entonces


{𝐟(𝐞𝟏 ), … , 𝐟(𝐞𝐩) } también lo es.

Sea {e1 , … , ep } un conjunto de vectores linealmente dependientes. Entonces 𝜆1 𝑒1 + ⋯ + 𝜆𝑝 𝑒𝑝 = 0


admite al menos un 𝜆𝑖 ≠ 0. {f(e1 ), … , f(ep) } será linealmente dependiente si 𝜆1 𝑓(𝑒1 ) + ⋯ + 𝜆𝑝 𝑓(𝑒𝑝 ) =
0 admite algún 𝜆𝑖 ≠ 0. Por ser f una aplicación lineal, se cumple que
𝜆1 𝑓(𝑒1 ) + ⋯ + 𝜆𝑝 𝑓(𝑒𝑝 ) = 𝑓(𝜆1 𝑒1) + ⋯ + 𝑓(𝜆𝑝 𝑒𝑝 ) = 𝑓(𝜆1 𝑒1 + ⋯ + 𝜆𝑝 𝑒𝑝 ) = 𝑓(0) = 0 .
Pero como {e1 , … , ep } es linealmente dependiente, existe algún 𝜆𝑖 ∈ ℝ tal que 𝜆𝑖 ≠ 0. Por lo tanto,
{f(e1 ), … , f(ep) } será linealmente dependiente.

Sea 𝒇: 𝑬𝟏 → 𝑬𝟐 una aplicación lineal entre dos k-espacios vectoriales. Probar que la imagen
del 0 de E1 es el 0 de E2.

0 = 𝑒 − 𝑒, ∀𝑒 ∈ 𝐸1, de donde 𝑓(0) = 𝑓(𝑒 − 𝑒) = 𝑓(𝑒) − 𝑓(𝑒) = 0.


Por lo tanto, 𝑓(0) = 0.

Sea 𝒇: 𝑬 → 𝑬´ una aplicación lineal. Probar que Kerf es un subespacio vectorial de E.

Sean u y v dos vectores de E pertenecientes a Kerf. Entonces se cumple que 𝑓(𝑢) = 0 𝑦 𝑓(𝑣) = 0.
Tenemos que probar que cualquier combinación lineal de u y v también pertenece a Kerf. Es decir, se
tiene que cumplir que 𝑓(𝛼𝑢 + 𝛽𝑣) = 0. En efecto: 𝑓(𝛼𝑢 + 𝛽𝑣) = 𝛼 · 𝑓(𝑢) + 𝛽 · 𝑓(𝑣) = 𝛼 · 0 + 𝛽 · 0 =
0. Por lo tanto, Kerf es un subespacio vectorial de E.

Sea 𝒇: 𝑬 → 𝑬´ una aplicación lineal. Probar que Imf es un subespacio vectorial de E´.

Sean u´ y v´ dos vectores de E´ pertenecientes a Imf. Entonces se cumple que existen dos vectores 𝑢 ∈
𝐸, 𝑣 ∈ 𝐸 tales que 𝑓(𝑢) = 𝑢´ 𝑦 𝑓(𝑣) = 𝑣. Tenemos que probar que cualquier combinación lineal de u´ y
v´ también pertenece a Imf, es decir, que cualquier combinación lineal de u´ y v´ es la antiimagen de un
vector de E. En efecto, 𝛼𝑢´ + 𝛽𝑣´ = 𝛼𝑓(𝑢) + 𝛽𝑓(𝑣) = 𝑓(𝛼𝑢 + 𝛽𝑣). Y (𝛼𝑢 + 𝛽𝑣) es un vector de E, por
ser E un subespacio vectorial. Por lo tanto Imf es un subespacio vectorial de E´.

Sea 𝒇: 𝑬 → 𝑬´ una aplicación lineal. Probar que si {𝐞𝟏 , … , 𝐞𝐩 } es un sistema generador de E,


entonces {𝐟(𝐞𝟏 ), … , 𝐟(𝐞𝐩) } es un sistema generador de Imf.

Si {e1 , … , ep } es un sistema generador de E, existen escalares 𝜆𝑖 ≠ 0 tales que 𝜆1 𝑒1 + ⋯ + 𝜆𝑝 𝑒𝑝 = 𝑒 ,


para todo 𝑒 ∈ 𝐸. Entonces, 𝑓(𝜆1 𝑒1 + ⋯ + 𝜆𝑝 𝑒𝑝 ) = 𝑓(𝑒) y por lo tanto, 𝜆1 𝑓(𝑒1 ) + ⋯ + 𝜆𝑝 𝑓(𝑒𝑝 ) = 𝑓(𝑒)
para todo 𝑓(𝑒) ∈ 𝐼𝑚𝑓. Es decir, {𝑓(𝑒1 ), … , 𝑓(𝑒𝑝) } es un sistema generador de Imf.

Sea 𝒇: 𝑬𝟏 → 𝑬𝟐 una aplicación lineal epiyectiva entre dos k-espacios vectoriales. Demostrar
que la imagen de una base de E1 es un sistema generador de E2.

Sea {𝑒1 , … , 𝑒𝑛 } una base de E1. Entonces {𝑒1 , … , 𝑒𝑛 } es un sistema generador de E1, por lo que
∀𝑒 ∈ 𝐸1 𝑒 = 𝛼1 𝑒1 + ⋯ + 𝛼𝑛 𝑒𝑛 , con 𝛼1 , … , 𝛼𝑛 ∈ 𝐾.
Además, 𝑒´ = 𝑓(𝑒) = 𝑓(𝛼1 𝑒1 + ⋯ + 𝛼𝑛 𝑒𝑛 ) = 𝛼1 𝑓(𝑒1 ) + ⋯ + 𝛼𝑛 𝑓(𝑒𝑛 ), ya que f es un homomorfismo.
Por tanto todo vector de E2 se puede expresar como combinación lineal de {𝑓(𝑒1 ), … , 𝑓(𝑒𝑛 )}.
En consecuencia, {𝑓(𝑒1 ), … , 𝑓(𝑒𝑛 )} es un sistema generador de E2.

Sea 𝒇: 𝑬 → 𝑬´ una aplicación lineal. Probar que 𝒌𝒆𝒓𝒇 = {𝟎} ⇔ 𝒇 es inyectiva.

Demostremos primero que si 𝑓: 𝐸 → 𝐸´es una aplicación inyectiva, entonces 𝐾𝑒𝑟𝑓 = {0}. En efecto, si
𝑓: 𝐸 → 𝐸´es inyectiva, no podría haber dos elementos distintos de E de modo que su imagen fuera el
elemento neutro de E´. Y es sabido que si 𝑓: 𝐸 → 𝐸´ es una aplicación lineal, entonces 𝑓(0) = 0. Por lo
tanto, solamente 0 pertenece a Kerf. Es decir, 𝐾𝑒𝑟𝑓 = {0}.
En segundo lugar demostraremos que si 𝐾𝑒𝑟𝑓 = {0} entonces 𝑓: 𝐸 → 𝐸´es una aplicación inyectiva. En
efecto, supongamos dos vectores distintos, e y e´ tales que 𝑓(𝑒) = 𝑓(𝑒´). Entonces, 𝑓(𝑒 − 𝑒´) = 0, con
lo que (𝑒 − 𝑒´) ∈ 𝐾𝑒𝑟𝑓. Pero 𝐾𝑒𝑟𝑓 = {0}, entonces (𝑒 − 𝑒´) = 0, con lo que 𝑒 = 𝑒´, lo que contradice
la hipótesis de que sean distintos, es decir, si 𝐾𝑒𝑟𝑓 = {0} la aplicación sólo puede ser inyectiva.

Sea 𝒇: 𝑬 → 𝑬´ una aplicación lineal inyectiva. Probar que si un conjunto {𝒆𝟏 , … , 𝒆𝒑 } es


linealmente independiente, entonces {𝒇(𝒆𝟏 ), … , 𝒇(𝒆𝒑) } también lo es.

Demostraremos que, en las condiciones dadas, 𝜆1 𝑓(𝑒1 ) + ⋯ + 𝜆𝑝 𝑓(𝑒𝑝 ) = 0 sólo admite la solución
trivial 𝜆1 = ⋯ = 𝜆𝑝 = 0. En efecto, 𝜆1 𝑓(𝑒1 ) + ⋯ + 𝜆𝑝 𝑓(𝑒𝑝 ) = 𝑓(𝜆1 𝑒1 + ⋯ + 𝜆𝑝 𝑒𝑝 ) = 0 implica que
𝜆1 𝑒1 + ⋯ + 𝜆𝑝 𝑒𝑝 ∈ 𝐾𝑒𝑟𝑓. Y si la aplicación es inyectiva, 𝐾𝑒𝑟𝑓 = {0}, por lo tanto, 𝜆1 𝑒1 + ⋯ + 𝜆𝑝 𝑒𝑝 =
0 y, como {𝑒1 , … , 𝑒𝑝 } son linealmente independientes, 𝜆1 = ⋯ = 𝜆𝑝 = 0. Por lo tanto,
{𝑓(𝑒1 ), … , 𝑓(𝑒𝑝 )} es linealmente indepediente.

Sea 𝒇: 𝑬 → 𝑬 un homomorfismo. Probar que f es inyectivo si y sólo si es epiyectivo.

La demostración se basa en la aplicación de la ecuación 𝑑𝑖𝑚𝐼𝑚𝑓 + 𝑑𝑖𝑚𝐾𝑒𝑟𝑓 = 𝑑𝑖𝑚𝐸. En efecto, si la


aplicación es inyectiva, 𝐾𝑒𝑟𝑓 = {0} y, por lo tanto, 𝑑𝑖𝑚𝐾𝑒𝑟𝑓 = 0. Por lo tanto, 𝑑𝑖𝑚𝐼𝑚𝑓 = 𝑑𝑖𝑚𝐸, lo
que quiere decir que 𝐼𝑚𝑓 = 𝐸 y, por lo tanto, 𝑓: 𝐸 → 𝐸 es epiyectiva.
El recíproco se demuestra análogamente. Si 𝐼𝑚𝑓 = 𝐸 se verifica que 𝑑𝑖𝑚𝐼𝑚𝑓 = 𝑑𝑖𝑚𝐸 y, por tanto,
según la ecuación 𝑑𝑖𝑚𝐼𝑚𝑓 + 𝑑𝑖𝑚𝐾𝑒𝑟𝑓 = 𝑑𝑖𝑚𝐸 , 𝑑𝑖𝑚𝐾𝑒𝑟𝑓 = 0 y, en consecuencia, 𝐾𝑒𝑟𝑓 = {0} y la
aplicación es inyectiva.

Sea 𝒇: 𝑬 → 𝑬´ una aplicación lineal. Probar que si 𝒅𝒊𝒎 𝑬 > 𝒅𝒊𝒎𝑬´ la aplicación no puede
ser inyectiva.

Supongamos que 𝑓: 𝐸 → 𝐸´ es inyectiva. Entonces, 𝑑𝑖𝑚𝐾𝑒𝑟𝑓 = 0 y, por consiguiente, según la


ecuación 𝑑𝑖𝑚𝐼𝑚𝑓 + 𝑑𝑖𝑚𝐾𝑒𝑟𝑓 = 𝑑𝑖𝑚𝐸, se infiere que 𝑑𝑖𝑚𝐼𝑚𝑓 = 𝑑𝑖𝑚𝐸 lo que implica que 𝑑𝑖𝑚𝐸 ≤
𝑑𝑖𝑚𝐸´, porque si no fuese así, 𝑑𝑖𝑚𝐼𝑚𝑓 sería mayor que la dimensión del subespacio al que pertenece
(!). Por lo tanto, 𝑓: 𝐸 → 𝐸´ sólo puede ser inyectiva si 𝑑𝑖𝑚 𝐸 ≤ 𝑑𝑖𝑚𝐸´.

Sea 𝒇: 𝑬 → 𝑬´ una aplicación lineal. Probar que si 𝒅𝒊𝒎 𝑬 < 𝒅𝒊𝒎𝑬´ la aplicación no puede
ser epiyectiva.

Supongamos que 𝑓: 𝐸 → 𝐸´. Entonces se verificaría que 𝑑𝑖𝑚𝐼𝑚𝑓 = 𝑑𝑖𝑚𝐸´. Aplicando esto a la ecuación
de dimensiones: 𝑑𝑖𝑚𝐸´ + 𝑑𝑖𝑚𝐾𝑒𝑟𝑓 = 𝑑𝑖𝑚𝐸. Esto implica que 𝑑𝑖𝑚 𝐸 ≥ 𝑑𝑖𝑚𝐸´. Pues, de otro modo,
𝑑𝑖𝑚𝐾𝑒𝑟𝑓 < 0 (!). Por lo tanto, 𝑓: 𝐸 → 𝐸´ sólo puede ser epiyectiva si 𝑑𝑖𝑚 𝐸 ≥ 𝑑𝑖𝑚𝐸´.

De las dos proposiciones anteriores, se concluye que una aplicación sólo puede ser biyectiva si 𝑑𝑖𝑚 𝐸 =
𝑑𝑖𝑚𝐸´.
Sea 𝒇: 𝑬 → 𝑬 un homomorfismo. Probar que si f es biyectivo su matriz asociada es invertible.

La demostración se basa en el hecho de que 𝑑𝑖𝑚𝐼𝑚𝑓 = 𝑟𝑎𝑛𝑔𝑜 (𝐴).


Si la aplicación es biyectiva, es epiyectiva y, por lo tanto, 𝑑𝑖𝑚𝐼𝑚𝑓 = dim 𝐸, con lo que la matriz
asociada es de rango completo y por lo tanto su determinante es distinto de 0 y en consecuencia, es
invertible.

III. DIAGONALIZACIÓN DE ENDOMORFISMOS

Probar que dos matrices semejantes tienen el mismo determinante

Dos matrices A y A´ son semejantes si están asociadas al mismo endomorfismo, pero en distintas bases.
Por lo tanto, existe una fórmula de cambio de base que las relaciona: 𝐴´ = 𝑃 · 𝐴 · 𝑃−1. Tomando
1 |𝑃|
determinantes: |𝐴´| = |𝑃 · 𝐴 · 𝑃−1 | = |𝑃| · |𝐴| · |𝑃−1 | = |𝑃| · |𝐴| · |𝑃| = |𝑃| · |𝐴| = |𝐴|. Por lo tanto,
|𝐴´| = |𝐴|.

Probar que el conjunto de vectores propios asociados a un valor propio 𝝀 es un subespacio


vectorial.

Sea 𝑉(𝜆) el conjunto formado por los vectores propios de un endomorfismo asociados al valor propio 𝜆.
Para que 𝑉(𝜆) sea un subespacio vectorial se tiene que cumplir que cualquier combinación lineal
formada con vectores de 𝑉(𝜆) pertenezcan también a 𝑉(𝜆). En efecto: si 𝑉(𝜆) = {𝑒1 , … 𝑒𝑝 }, se tiene
que cumplir que 𝑓(𝛼1 𝑒1 + ⋯ + 𝛼𝑝 𝑒𝑝 ) = 𝜆 · (𝛼1 𝑒1 + ⋯ + 𝛼𝑝 𝑒𝑝 ) . Veamos: 𝑓(𝛼1 𝑒1 + ⋯ + 𝛼𝑝 𝑒𝑝 ) =
𝑓(𝛼1 𝑒1 ) + ⋯ + 𝑓(𝛼𝑝 𝑒𝑝 ) = 𝛼1 𝑓(𝑒1 ) + ⋯ + 𝛼𝑝 𝑓(𝑒𝑝 ) = 𝛼1 𝜆𝑒1 + ⋯ + 𝛼𝑝 𝜆𝑒𝑝 = 𝜆 · (𝛼1 𝑒1 + ⋯ + 𝛼𝑝 𝑒𝑝 ) .

Por lo tanto, 𝑉(𝜆) es un subespacio vectorial de E.

Probar que los valores propios de un endomorfismo son las raíces de su polinomio
característico.

El polinomio característico de un endomorfismo es |𝐴 − 𝑥𝐼|, donde A es la matriz asociada al


endomorfismo.
Por otro lado, λ es valor propio de A si existe un vector 𝑒 ≠ 0 tal que 𝐴𝑒 = 𝜆𝑒.
Así pues,
𝐴𝑒 = 𝜆𝑒 ⇒ 𝐴𝑒 − 𝜆𝑒 = 0 ⇒ (𝐴 − 𝜆𝐼)𝑒 = 0 ⟹ 𝑒 ∈ 𝐾𝑒𝑟(𝐴 − 𝜆𝐼) ⇒
⇒ 𝑑𝑖𝑚𝐾𝑒𝑟(𝐴 − 𝜆𝐼) ≥ 1 ⟹ 𝑛 − 𝑟𝑔(𝐴 − 𝜆𝐼) ≥ 1 ⇒ 𝑟𝑔(𝐴 − 𝜆𝐼) ≠ 𝑛 ⟹ |𝐴 − 𝜆𝐼| = 0
Queda demostrado que si 𝜆 es un valor propio de A, el determinante |𝐴 − 𝜆𝐼| = 0 y, por tanto, es
solución de la ecuación característica.

Probar que dos matrices semejantes tienen el mismo polinomio característico y, por tanto,
los mismos valores propios.

Dos matrices 𝐴, 𝐴´ son semejantes si existe una matriz invertible P, tal que 𝐴 = 𝑃 · 𝐴´ · 𝑃−1 .
𝐴 = 𝑃 · 𝐴´ · 𝑃−1 ⇒ |𝐴 − 𝜆𝐼| = |𝑃 · 𝐴´ · 𝑃−1 − 𝜆𝐼| = |𝑃 · 𝐴´ · 𝑃−1 − 𝜆 · 𝑃 · 𝑃−1 | = |𝑃 · (𝐴´ · 𝑃−1 − 𝜆 ·
𝑃−1 )| = |𝑃 · (𝐴´ − 𝜆𝐼) · 𝑃−1 | = |𝑃| · |(𝐴´ − 𝜆𝐼)| · |𝑃−1 | = |𝑃| · |𝑃−1 | · |(𝐴´ − 𝜆𝐼)| = |𝐼||𝐴´ − 𝜆𝐼| =
|𝐴´ − 𝜆𝐼|.
Por tanto, |𝐴 − 𝜆𝐼| = |𝐴´ − 𝜆𝐼| , como queríamos demostrar.

También podría gustarte