Está en la página 1de 69

Fascı́culos de Álgebra Lineal

Quinto Fascı́culo:

Espacios Vectoriales

Neptalı́ Romero
Universidad Centroccidental Lisandro Alvarado
Decanato de Ciencias y Tecnologı́a
Unidad de Investigación en Ciencias Matemáticas
Departamento de Matemáticas

Junio, 2006
Índice general

5. Espacios Vectoriales. 3
5.1. Nota histórica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
5.2. Definición y ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
5.2.1. Ejemplos de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
5.2.2. Propiedades básicas generales en los espacios vectoriales . . . . . . . . . . . . . . . 9
5.2.3. Ejercicios propuestos de la Sección 5.2 . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.3. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.3.1. Ejemplos de subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.3.2. Subespacios generados por un conjunto de vectores. . . . . . . . . . . . . . . . . . 17
5.3.3. Ejercicios propuestos de la Sección 5.3 . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.4. Independencia y dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.4.1. Sobre la independencia lineal en Kn . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.4.2. Ejercicios propuestos de la Sección 5.4 . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.5. Bases, Dimensión y Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.5.1. Bases de espacios vectoriales: definición y ejemplos . . . . . . . . . . . . . . . . . . 42
5.5.2. Dimensión de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.5.3. Coordenadas en espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.5.4. Cambios de coordenadas en espacios vectoriales . . . . . . . . . . . . . . . . . . . . 51
5.5.5. Ejercicios propuestos de la Sección 5.5 . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.6. Sumas de subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.6.1. Sumas directas de subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . 64
5.6.2. Ejercicios propuestos de la Sección 5.6 . . . . . . . . . . . . . . . . . . . . . . . . . 68

2
5
Espacios Vectoriales.

5.1. Nota histórica


La geometrı́a cartesiana introducida por Fermat y Descartes alrededor de 1636, tuvo gran influencia
en los matemáticos que construyeron y consideraron inicialmente métodos algebraicos en la geometrı́a.
Sin embargo, a mediados del siglo XIX hubo cierta insatisfacción con estos métodos; por lo que muchos
matemáticos comenzaron a procurar otras alternativas independientes de esas consideraciones cartesianas.
Se ha establecido el inicio del siglo XIX, con los trabajos de Bolzano, como el momento del nacimiento
del concepto de vector. De hecho, en 1804 Bolzano publica un libro sobre los fundamentos de la geometrı́a
elemental “Betrachtungen über einige Gegenstände der Elementargoemetrie”, donde considera puntos,
rectas y planos sobre los cuales define operaciones de adición y multiplicación por escalares. Este es
considerado un paso importante hacia la aparición del concepto abstracto de espacio vectorial.
Posteriormente fueron apareciendo diferentes contribuciones en esa búsqueda de una axiomática gene-
ral. Entre los matemáticos de la época, los principales en aportar avances, encontramos cronológicamente
a: Poncelet y Chasles (fundadores de la geometrı́a sintética); Möbius, entre 1827 y 1837, publica relevantes
trabajos sobre coordenadas y cálculos baricentricos en los cuales son empleadas cantidades vectoriales.
En 1832, Bellavitis publica un trabajo, conteniendo también cantidades vectoriales, en el que los objetos
de trabajos fueron segmentos AB (A y B puntos del plano), penso en AB y BA como objetos diferentes
(es decir, vectores anclados en puntos distintos en la nomenclatura moderna), además definió segmentos
equipolentes sobre los cuales introdujo operaciones, que esencialmente producen la estructura de espa-
cio vectorial tal y como es considerada en la actualidad. Hamilton, en un trabajo publicado en 1833,
representó los números complejos como un espacio vectorial real de dimensión 2, aunque no utilizó tales
términos abstractos. Luego en 1857 Cayley introduce el álgebra de matrices; lo que representó un sig-
nificativo avance hacia sistemas algebraicos más abstractos; una década más tarde, Laguerre introdujo
operaciones de adición y multiplicación de sistemas de ecuaciones lineales mediante el uso de los coeficien-
tes de tales ecuaciones, con esas ideas se contribuyó a la unificació de sistemas algebraicos tales como los
números complejos, los cuaterniones, introducidos por Hamilton, y otras nociones algebraicas propuestas
por Galois y Cauchy.
Otro matemático con una importante influencia en el desarrollo inicial del Álgebra Lineal fue Grass-
mann. Su trabajo, de mucha originalidad, fue fundamentalmente influenciado por las nociones de las
coordenadas baricentricas introducidas por Möbius. Una de sus principales contribuciones, “Die Aus-
dehnungslehre”, apareció publicada en varias versiones; la primera de las cuales ocurrieron en 1844; pero
debido a su dificultad para ser leida, no encontró opiniones favorables entre importantes matemáticos de la
época; por tal motivo Grassmann produce una versión más legible en 1862. En tal publicación Grassmann
estudia un álgebra cuyos elementos son cantidades abstractas; sobre estas cantidades definió operaciones
de adición, multiplicación por escalares y también una multiplicación. Ese trabajo contiene la axiomáti-
ca moderna de la estructura de espacio vectorial; aunque sobre cantidades abstractas, aún no cubrı́a la
generalidad de esa estructura algebraica. Adicionalmente, por el hecho de tener también una multipli-
cación entre tales cantidades, se tiene una estructura algebraica más rica que la de espacio vectorial;
éstas son llamadas álgebras, y más precisamente álgebras de Grassmann. En la primera versión de este
reconocido trabajo aparecen las ideas de dependencia e independencia lineal, al igual que la noción de
producto escalar. En la versión del año 1862, aparece una larga introducción en la que Grassmann ofrece

3
4 5. Espacios Vectoriales.

un sumario de su teorı́a; en ella la defiende, pues ya habı́a sido objetada por un considerable número
de matemáticos contemporaneos a él; la justificación (dada por Grassmann) de su teorı́a incluye una
formulación axiomática de la misma, lo cual muestra lo aventajado que estaba Grassmann para la época.
Cauchy y Saint-Venant afirmaron haber inventado estructuras similares a los de Grassmann. La afir-
mación de Saint-Venant es considerada justa, pues en un trabajo por él publicado en 1845, multiplica
segmentos de rectas en una forma análoga a la introducida por Grassmann. En efecto, cuando Grassmann
leyó el artı́culo de Saint-Venant concluyó que éste no habı́a leido su trabajo de 1844, por lo que envió dos
copias de las partes más relevantes a Cauchy, para que le entregase una de ellas a Saint-Venant. Sin
embargo (¡algo tı́pico de Cauchy!), en el año 1853 este notable matemático publica “Sur les clefs algébri-
que” en la revista Comptes Rendus de Francia; allı́ Cauchy describe un método simbólico que coincide
con lo expuesto por Grassmann en su trabajo, pero no menciona a éste último para nada. Conocida tal
publicación, Grassmann se queja ante la Academia de Ciencias de que su trabajo es primero que el de
Cauchy; en 1854 un comité fue nombrado por la Academia de Ciencias para investigar quién tuvo la
prioridad. ¡Aún se espera por el informe del comité!
El primer matemático en darle importancia al trabajo de Grassmann fue Hankel. En 1867 escribió el
artı́culo “Theorie der complexen Zahlensysteme” en el que son definidos objetos de estudio en forma
abstracta; le otorga créditos al trabajo “Die Ausdehnungslehre” de Grassmann como los fundamentos de
su trabajo.
Sin embargo, el primero en dar una definición axiomática de espacio vectorial real fue Peano; esta
axiomática aparece en el libro “Calcolo geometrico secondo l’Ausdehnungslehre di H. Grassmann preceduto
dalle operazioni della logica deduttiva”, publicado en Italia en el año 1888. Peano da créditos de su
trabajo tanto a Leibniz y Möbius, como a Grassmann y Hamilton. En el notable libro de Peano son
dadas las nociones básicas de las operaciones con conjuntos, introduciendo la notación moderna de la
unión, intersección y pertenencia a un conjunto. Aunque el libro tuvo poca influencia por muchos años,
es notable la forma moderna de como se exponen las nociones de la estructura de espacios vectoriales.
Incluso allı́ se introduce la definición de dimensión de espacios vectoriales, como el número máximo de
objetos (en nuestra nomenclatura, vectores) linealmente independientes; muestra que espacios vectoriales
finito dimensionales tienen bases y ofrece ejemplos de espacios vectoriales de dimensión infinita; además
también introdujo el concepto de operadores lineales, incluso ofrece una definición de suma y producto
de operadores lineales.

En la década de los 1890’s, Pincherle trabajó sobre una teorı́a formal de operadores lineales en espacios
vectoriales de dimensión infinita; sin embargo, este trabajo de Pincherle no tuvo como base los trabajos
de Peano, en su lugar, se soporta en los trabajos de Leibniz y d’Alembert. Al igual que muchos trabajos
en esta área de la Matemática, éste tuvo muy poco impacto inmediato; de hecho los espacios vectoriales
infinito dimensionales y su axiomática no se estudiaron de nuevo hasta que Banach y sus socios tomaron
el tema en la década de los años 1920.
Aunque no fue alcanzando el nivel de la abstracción que Peano habı́a logrado, Hilbert y su discipulo
Schmidt estudiaron los espacios infinito dimensionales de funciones en el año 1904. Schmidt introdujo en
1908 el idioma geométrico en la teorı́a de los espacios de Hilbert; sin embargo, el enfoque completo de tal
axiomática aparece en el año 1920 con la tesis doctoral de Banach. 1

1 Buena parte de la información histórica acá suministrada puede ser encontrada en la magnı́fica página de Internet:

www-groups.dcs.st-and.ac.uk/∼history/HistTopics/Abstract linear spaces.html


5.2. Definición y ejemplos. 5

5.2. Definición y ejemplos.


Nos proponemos ahora a estudiar la estructura algebraica abstracta conocida como espacio vectorial,
también denominada espacio lineal. Ejemplos de conjuntos que poseen esta estructura ya han sido consi-
derado; de hecho, los conjuntos: Rn , RnP , Cn y Mm×n (R), junto a sus respectivas operaciones de adición
y multiplicación por escalares, son espacios vectoriales.
En lo que sigue K denotará indistintamente al cuerpo de los números reales y al cuerpo de los números
complejos. Cuando exista la necesidad de hacer mención en especial a estos cuerpos, lo haremos con la
notación usual; esta es, R y C respectivamente.
Definición 5.1. Un espacio vectorial sobre K es cualquier conjunto V no vacı́o dotado de dos operaciones:

+: V×V → V y ·: K×V → V
(5.1)
(u, v) → u+v (α, u) → αu

tales que, para todo u, v, w ∈ V y todo α, β ∈ K se cumplen los siguientes axiomas de linealidad:
[A1] u + v = v + u. (Conmutatividad)

[A2] u + (v + w) = (u + v) + w. (Asociatividad)

[A3] Existe un único OV ∈ V, denominado vector nulo en V, tal que u + OV = u, para todo u ∈ V.
(Elemento Neutro)

[A4] Para cada u ∈ V existe un único u′ ∈ V, denominado vector simétrico de u, tal que u + u′ = OV .
(Elemento Simétrico)

[M1] α(u + v) = αu + αv. (Distributividad)

[M2] (α + β)u = αu + βu. (Distributividad)

[M3] α(βu) = (αβ)u = αβu.

[M4] 1u = u.
Los elementos de V son llamados vectores; mientras que los elementos de K son denominados escalares.
A los vectores u + v y αu en (5.1) se les conoce con el nombre de vector suma de u y v y vector producto
de α y u, respectivamente.
Comentario 5.1.
Es necesario hacer énfasis en que la estructura vectorial sobre un conjunto no vacı́o V depende
exclusivamente de las operaciones + (adición de vectores) y · (multiplicación por escalares). En
ocasiones se acostumbra decir que el triplete (V, +, ·) es un K-espacio vectorial; siendo que el prefijo
K de este calificativo se establece dependiendo donde se haya definido la multiplicación por escalares.
Ası́, cuando en esta operación externa se emplea el cuerpo de los números reales R, se dice que V
es un espacio vectorial real, o un R-espacio vectorial; mientras que y si K = C, entonces V es un
espacio vectorial complejo, o simplemente un C-espacio vectorial.

Puede ocurrir que sobre un mismo conjunto V puedan definirse más de una estructura vectorial;
obviamente para que esto ocurra al menos una de las operaciones, + o ·, debe ser modificada; de
manera que con las nuevas operaciones también se satisfaga la axiomática en la definición de espacio
vectorial.
6 5. Espacios Vectoriales.

La notación introducida en la definición de espacio vectorial para el vector simétrico, u′ , del vector
u es provisional; más adelante fijaremos, a partir de algunas propiedades derivadas de la definición
anterior, una notación más apropiada.

5.2.1. Ejemplos de espacios vectoriales


A continuación presentaremos algunos ejemplos clásicos de espacios vectoriales; en distintas ocasiones
nos estaremos refiriendo a ellos empleando la nomenclatura que acá introduciremos.

• Espacio euclidiano real de dimensión n: Rn .


El primer ejemplo se refiere al conjunto de puntos Rn (n ≥ 1); como ya sabemos, sobre tal conjunto
se definen las operaciones usuales de adición y multiplicación por escalares en R:

(α1 , · · · , αn ) + (β1 , · · · , βn ) = (α1 + β1 , · · · , αn + βn ) y


α(α1 , · · · , αn ) = (αα1 , · · · , ααn ), α ∈ R.

Es bien conocido que el triplete (Rn , +, ·) satisface cada uno de los axiomas de la definición 5.1; por
tanto Rn es un espacio vectorial sobre R. Es común denominar a Rn , con esta estructura, como el espacio
euclidiano real de dimensión n. Note que OR = (0, · · · , 0) mientras que el simétrico de (α1 , · · · , αn ) es
(−α1 , · · · , −αn ). En particular, el propio conjunto R con las operaciones usuales de adición y multiplica-
ción de números reales es un espacio vectorial real.

• Espacio de vectores anclados en un punto: RnP .


Fijemos cualquier punto P ∈ Rn . El conjunto de vectores en Rn anclados en P , RnP , con las operaciones
usuales de adición de vectores y multiplicación de escalares en R por vectores en RnP :
−−→ −→ −→
P Q + P R = P S donde S =Q+R−P
−−→ −→
αP Q = P S donde S = α(Q − P ) + P, α ∈ R

es un espacio vectorial sobre R; pues RnP dotado de tales operaciones satisface todos los axiomas de la
definición 5.1.

• Espacios vectoriales de matrices: Mm×n (K).


Para cualquier par de enteros positivos m, n consideremos sobre el conjunto Mm×n (K), de todas
las matrices de orden m × n con coeficientes en K, las operaciones usuales de adición de matrices y
multiplicación por escalares en K:

a11 a12 ··· a1n b11 b12 ··· b1n a11 + b11 a12 + b12 ··· a1n + b1n
     
 a21 a22 ··· a2n   b21
  b22 ··· b2n   a21 + b21
  a22 + b22 ··· a2n + b2n 
..  +  .. ..  = 
 
 . .. .. .. .. .. .. .. ..
 ..

. . .   . . . .   . . . . 
am1 am2 ··· amn bm1 bm2 ··· bmn am1 + b1m am2 + bm2 ··· amn + bmn

a11 a12 ··· a1n α a11 α a12 ··· α a1n


   
 a21 a22 ··· a2n   α a21 α a22 ··· α a2n 
α . ..  =  .. ..  , α ∈ K.
   
.. .. .. ..
 .. . . .   . . . . 
am1 am2 ··· amn α am1 α am2 ··· α amn
5.2. Definición y ejemplos. 7

Como bien es conocido, Mm×n (K) con tales operaciones satisface cada uno de los axiomas de la definición
5.1; por tanto el triplete (Mm×n (K), +, ·) es un K-espacio vectorial.

• Cn con dos estructuras vectoriales.


Sobre Cn definimos la adición usual de n-úplas complejas:

(a1 , a2 , · · · , an ) + (b1 , b2 , · · · , bn ) = (a1 + b1 , a2 + b2 , · · · , an + bn )

y la multiplicación por escalares en C:

α(a1 , a2 , · · · , an ) = (αa1 , αa2 , · · · , αan ), α ∈ C.

Exactamente igual a la forma como se verifica que Rn con las operaciones usuales de adición y multipli-
cación por escalares en R, se muestra que Cn dotado de las operaciones arriba definidas es un espacio
vectorial sobre C. Nuevamente tenemos que OC = (0, 0, · · · , 0) y el simétrico de (a1 , a2 , · · · , an ) ∈ Cn es
(−a1 , −a2 , · · · , −an ). Al conjunto Cn con esta estructura se le conoce por espacio euclidiano complejo
n-dimensional. Obviamente C es un espacio vectorial sobre C.
Además de la estructura vectorial compleja arriba descrita, en Cn puede definirse una estructura
de espacio vectorial sobre R. Para ello se considera la misma adición anterior; y la multiplicación por
escalares de la misma forma pero con escalares reales; es decir, dados α ∈ R y (a1 , · · · , an ) ∈ Cn , entonces
α(a1 , · · · , an ) = (αa1 , αa2 , · · · , αan ). Es simple verificar que aunque se esté multiplicando números reales
por n-úplas en C n , también se cumplen cada uno de los axiomas de la definición de espacio vectorial;
pero esta vez sobre el cuerpo de los números reales. Como antes, el vector nulo de Cn como R-espacio
vectorial es la n-úpla nula, y el vector simétrico de (a1 , a2 , · · · , an ) ∈ Cn es (−a1 , −a2 , · · · , −an ).
Dado que Rn es un R-espacio vectorial y Cn es un C-espacio vectorial, ambas estructuras se resumen
diciendo que Kn es un espacio vectorial sobre K con las operaciones usuales de adición y multiplicación
por escalares en K. Note la similitud con Mm×n (K).

• Espacio de funciones con valores en R.


Sea S un conjunto no vacı́o cualquiera, denotamos por F(S, R) al conjunto de todas las funciones de
S en R2 ; es decir: F(S, R) = {f : S → R : f es función}. Sobre tal conjunto se definen las operaciones
de adición y multiplicación por escalares en R como sigue:

Adición: dadas f, g : S → R en F(S, R), se define la función f + g : S → R, conocida por suma de


f y g, como la correspondencia que asigna a cada s ∈ S el número real (f + g)(s) = f (s) + g(s);

Multiplicación por escalares: dadas f : S → R ∈ F(S, R) y α ∈ R, se define αf : S → R como


la función dada por (αf )(s) = αf (s) para cada s ∈ S. A αf se le conoce como la función producto
de α y f .

Verifiquemos ahora que F(S, R) junto con las operaciones que acabamos de definir constituye un espacio
vectorial sobre R. Para comenzar, observe que para todo par de funciones f, g ∈ F(S, R) se cumple que
f + g = g + f , pues para todo s ∈ S se tiene f (s) + g(s) = g(s) + f (s) ya que la adición en R es
2 Recuerde que una aplicación del conjunto A en el conjunto B es cualquier correspondencia de h : A → B tal que a
cada elemento a ∈ A le hace corresponder un único elemento h(a) ∈ B. Es común encontrar en la literatura matemática
el calificativo función para las aplicaciones, también conocidas como transformaciones, que toman valores en conjuntos
numéricos.
8 5. Espacios Vectoriales.

conmutativa. Similarmente, de la asociatividad de la adición en R sigue que (f + g) + h = f + (g + h)


para toda f, g, h ∈ F(S, R). Por otra parte, claramente el elemento neutro (vector nulo de F(S, R)) para
la operación de adición de funciones es la función nula; es decir, la función que a cada elemento en S
le asigna el número real cero; denotamos tal función por O; esto sigue del hecho que f + O = f pues
(f + O)(s) = f (s) + O(s) = f (s) + 0 = f (s) para todo s ∈ S; además, la función O : S → R es la única
con tal propiedad. Adicionalmente, el elemento simétrico de f ∈ F(S, R) es la función g : S → R definida
para cada s ∈ S por g(s) = −f (s), pues (f + g)(s) = f (s) + g(s) = f (s) + (−f (s)) = O(s) = 0. De esta
forma hemos verificado los axiomas [A1], [A2], [A3] y [A4]; dejamos al lector la tarea de verificar que
también se satisfacen [M1], [M2], [M3] y [M4].
Es necesario hacer notar que en las definiciones de las operaciones hemos utilizado el mismo sı́mbolo
+ para sumar tanto funciones como números reales; igualmente, en la multiplicación por escalares hemos
omitido el sı́mbolo · para no recargar la notación. En general esto ocurrirá con mucha frecuencia a lo largo
del texto esperando no crear mayor confusión en la notación, pero manteniendo presente la diferencia en
las operaciones representadas por el mismo sı́mbolo.

• Espacio de sucesiones de números reales: RN .


Una sucesión de números reales: x1 , x2 , · · · , xn , · · · , que denotamos por (xn )n∈N , puede ser entendida
como una función del conjunto de los números naturales N = {0, 1, 2, · · · } en R; ası́, el conjunto F(N, R)
denota al conjunto de todas las sucesiones con valores en R. En este caso, estamos denotando una función
f : N → R mediante sus imágenes (xn )n∈N ; esto es, xn = f (n) para cada n ∈ N. De esta forma, las
operaciones de adición de funciones y multiplicación de un escalar en R por una función de N en R del
ejemplo anterior se traducen de la siguiente manera:

(xn )n∈N + (yn )n∈N = (xn + yn )n∈N y α(xn )n∈N = (αxn )n∈N .

Sigue por tanto que el elemento neutro para la adición de sucesiones es la sucesión nula (on )n∈N , donde
on = 0 para todo n ≥ 0; además, el simétrico de la sucesión (xn )n∈N es la sucesión (yn )n∈N donde
yn = −xn para cada entero n ≥ 0.
En ocasiones al espacio vectorial en R de las sucesiones de números reales se le acostumbra denotar
mediante el sı́mbolo RN .

• Espacio de funciones polinómicas reales: P(R).


Denotamos por P(R) al conjunto de todas las funciones polinómicas con coeficientes en R; esto es, una
función f : R → R pertenece a P(R) si, y sólo si, existe un entero n ≥ 0 y constantes reales: a0 , a1 , · · · , an
tales que para cada x ∈ R se tiene:

f (x) = a0 + a1 x + a2 x2 + · · · + an−1 xn−1 + an xn ;

si an 6= 0, se dice que la función polinómica f es de grado n. Las operaciones de adición de funciones


polinómicas reales y de multiplicación por escalares se definen como antes; esto es, dadas funciones
f, g ∈ P(R) y α ∈ R, las funciones f + g y αf son definidas, para cada x ∈ R, por

(f + g)(x) = f (x) + g(x) y (αf )(x) = αf (x).

Observe que si las funciones f y g son dadas por las expresiones algebraicas:

f (x) = a0 + a1 x + · · · + an−1 xn−1 + an xn y g(x) = b0 + b1 x + · · · + bm−1 xn−1 + bm xm ,


5.2. Definición y ejemplos. 9

con m ≥ n, entonces

(f + g)(x) = a0 + b0 + (a1 + b1 )x + · · · + (an + bn )xn + bn+1 xn+1 + · · · + bm xm ;

mientras que
(αf )(x) = αa0 + αa1 x + · · · + αan−1 xn−1 + αan xn .
Como antes, es simple verificar que P(R) dotado de este par de operaciones es un R-espacio vectorial;
siendo que su vector nulo es la función polinómica nula O : R → R dada por O(x) = 0 para todo x ∈ R;
además, el simétrico de la función polinómica dada por f (x) = a0 + a1 x + · · · + an−1 xn−1 + an xn es la
función polinómica g : R → R cuya regla de correspondencia es g(x) = −a0 −a1 x−· · ·−an−1 xn−1 −an xn .

• Espacio de funciones polinómicas de grado menor o igual a n en R: Pn (R).


Consideremos el conjunto Pn (R) de todas las funciones polinómicas de grado menor o igual a n con
valores en los reales; es decir, son funciones de R en R como en el ejemplo anterior; excepto que su grado
(mayor exponente de la variable) no excede a n. Dotando a Pn (R) con las mismas operaciones definidas
para P(R), tendremos otro R-espacio vectorial, el espacio de las funciones polinómicas de grado menor
o igual a n. Obviamente Pn (R) ⊂ P(R) para todo entero n ≥ 0. Note que las funciones polinómicas de
grado 0 son las funciones constantes.

• Espacios de funciones reales de clase C k .


Para cada entero k ≥ 0 y cada intervalo [a, b] ⊂ R denotamos por C k ([a, b], R) al conjunto de todas las
funciones continuas f : [a, b] → R que tienen derivada continua hasta el orden k en [a, b]; debe entenderse
que las derivadas en los extremos del intervalo son las derivadas laterales. Cuando k = 0, C 0 ([a, b], R) es el
conjunto de todas las funciones continuas en [a, b] con valores en R. En cualquier caso, C k ([a, b], R) dotado
de la adición y multiplicación por escalares como las introducidas en F(S, R), es un espacio vectorial sobre
R. Dejamos al lector la verificación de cada uno de los axiomas de la definición 5.1 de espacio vectorial.
También tiene esa estructura si sustituimos [a, b] por cualquier intervalo abierto, e incluso por R.
Igualmente es un espacio vectorial real cuando tomamos k = +∞; es decir, funciones que son infinitamente
diferenciables.

5.2.2. Propiedades básicas generales en los espacios vectoriales


Las siguientes propiedades son obtenidas directamente de la propia definición de espacio vectorial.

Proposición 5.1. Sea (V, +, ·) cualquier K-espacio vectorial. Para todo u, v, w ∈ V y cada α ∈ K siempre
se cumplen:

a) Si u + w = v + w, entonces u = v (Ley de Cancelación).

b) α v = OV si, y sólamente si, α = 0 o v = OV .

c) El simétrico de v es igual a (−1)v; en adelante denotado por −v.

Demostración:

a) Supongamos que para u, v, w ∈ V se tiene que u + w = v + w; entonces sumando a ambos lados de


esta igualdad el simétrico del vector w, w′ , tenemos (u + w) + w′ = (v + w) + w′ . Luego usando la
asociatividad de la adición tenemos u + (w + w′ ) = v + (w + w′ ), por lo que u + OV = v + OV pues
w + w′ = OV ; de aquı́ que u = v.
10 5. Espacios Vectoriales.

b) (⇐=) Veamos primero que 0 v = OV . Es claro que 0 v + 0 v = (0 + 0)v = 0 v = OV + 0v; por tanto
sigue de a) que 0 v = OV . Para mostrar que α OV = OV observe que

α OV + α OV = α(OV + OV ) = α OV = α OV + OV .

Nuevamente de la primera propiedad se concluye que α OV = OV .


(=⇒) Supongamos que α ∈ K y v ∈ V son tales que α v = OV ; deseamos verificar que α = 0 o v =
OV . Supongamos que α 6= 0; por tanto existe α−1 ∈ K tal que αα−1 = 1. De esta forma si α v = OV ,
entonces α−1 (α v) = α−1 OV = OV ; pero por [M3] y [M4] sigue que α−1 (α v) = (α−1 α)v = 1v = v,
de donde v = OV .

c) Probar que (−1)v es el simétrico de v equivale a verificar, en función de [A4], que v + (−1)v = OV .
Probemos entonces esta igualdad:

v + (−1)v = 1v + (−1)v = (1 + (−1))v = 0 v = OV .

Con esto queda demostrada la proposición.

Proposición 5.2. Si (V, +, ·) es cualquier K-espacio vectorial, entonces


a) Para cualquier número finito de vectores v1 , v2 , · · · , vk en V y cada escalar α ∈ V se satisface:

α(v1 + v2 + · · · + vk ) = αv1 + αv2 + · · · + αvk . (5.2)

b) Para cualquier número finito de escalares α1 , α2 , · · · , αk en K y cada vector v ∈ V se cumple:

(α1 + α2 + · · · + αk )v = α1 v + α2 v + · · · + αk v. (5.3)

Demostración: Procederemos por inducción sobre el número k ≥ 2.


El axioma de linealidad [M1] nos dice justamente que (5.2) se satisface para k = 2. Supongamos que esa
identidad es satisfecha para todos los valores 2 ≤ k ≤ ℓ (hipótesis inductiva), mostremos entonces que se
cumple para k = ℓ + 1. En efecto:

α(v1 + v2 + · · · + vℓ + vℓ+1 ) = α((v1 + v2 + · · · + vℓ ) + vℓ+1 ) (¿por qué?)


= α(v1 + v2 + · · · + vℓ ) + αvℓ+1 (¿por qué?)
= (αv1 + αv2 + · · · + αvℓ ) + αvℓ+1 (¿por qué?)
= αv1 + αv2 + · · · + αvℓ + αvℓ+1 (¿por qué?)

De esta maneta la primera parte está demostrada. La parte b) se demuestra en forma similar, por
tanto se deja como un ejercicio para el lector.

Comentario 5.2. Las igualdades de la proposición anterior se expresan de forma compacta utilizando
la notación de sumatoria; esto es:
k
! k k
! k
X X X X
α vℓ = αvℓ y αℓ v = αℓ v.
ℓ=1 ℓ=1 ℓ=1 ℓ=1

Usando la proposición anterior se deduce fácilmente (¡demuéstrelo!) que


k
! m  k X m m X k
X X X X
αℓ  vj  = αℓ vj = αℓ vj .
ℓ=1 j=1 ℓ=1 j=1 j=1 ℓ=1
5.2. Definición y ejemplos. 11

Por extenso estas dos igualdades significan:

(α1 + · · · + αk )(v1 + · · · + vm ) = (α1 + · · · + αk )v1 + · · · + (α1 + · · · + αk )vm


= α1 v1 + · · · + αk v1 + · · · + α1 vm + · · · + αk vm .

5.2.3. Ejercicios propuestos de la Sección 5.2


1. Determinar cuáles de las ternas (Vj , +, ·) forman un K-espacio vectorial.

a) V1 = C = {a + ib : a, b ∈ R y i = −1} y K = R, con

(a + ib) + (c + id) = (a + c) + i(b + d) y α(a + ib) = αa + iαb.

b) V2 = C y K = C, con las operaciones

(a + ib) + (c + id) = (a + c) + i(b + d) y (α + iβ)(a + ib) = (αa − βb) + i(βa + αb).


  
a 0
c) V3 = : a, b ∈ R y K = R, con las operaciones:
b 0
         
a 0 c 0 a+c 0 a 0 αa 0
+ = y α = .
b 0 d 0 b+d 0 b 0 αb 0

d ) V4 = (x, y) ∈ R2 : y = 2x y K = R, con las operaciones de adición y multiplicación usuales




en R2 .
e) V5 = (x, y) ∈ R2 : y = 2x + a y K = R, con las operaciones de adición y multiplicación


usuales en R2 ; siendo que a es una constante real no nula.


f ) V6 = un plano en R3 que pase por el origen y K = R, con las operaciones de adición y
multiplicación usuales en R3 .
g) V7 = un plano en R3 que no pase por el origen y K = R, con las operaciones de adición y
multiplicación usuales en R3 .
h) V8 = R2 y K = R, con las operaciones:

(a, b) + (c, d) = (a + c, b + d − 1) y α(a, b) = (αa + 2α, b).

2. Sea S un conjunto no vacı́o cualquiera. Se denota por F(S, C) al conjunto de todas las funciones
f : S → C. Sobre F(S, C) se definen las operaciones de adición y multiplicación por escalares en C
como siguen: para cada f : S → C, g : S → C en F(S, C), y α ∈ C, las funciones f + g y αf son
dadas, para cada s ∈ S, por

(f + g)(s) = f (s) + g(s) y (αf )(s) = αf (s).

Demostrar que F(S, C) con tales operaciones es un C-espacio vectorial.

3. Sean S un conjunto no vacı́o cualquiera y V un espacio vectorial sobre K. Se denota por F(S, V)
al conjunto de todas las funciones f : S → V. Sobre F(S, V) se definen las operaciones de adición
y multiplicación por escalares en K como siguen: para cada f : S → V, g : S → V en F(S, V), y
α ∈ K, las funciones f + g y αf son dadas, para cada s ∈ S, por

(f + g)(s) = f (s) + g(s) y (αf )(s) = αf (s).

Demostrar que F(S, V) con tales operaciones es un K-espacio vectorial.


12 5. Espacios Vectoriales.

4. Emplear la estructura del espacio de funciones anterior, para describir una estructura de espacio
vectorial sobre los conjuntos:

a) CN = {(wn )n∈N : wn ∈ C}, el conjunto de todas las sucesiones con valores en C.


b) VN = {(vn )n∈N : vn ∈ V}, el conjunto de todas las sucesiones con valores en V.
c) P(C) el conjunto de todas las funciones polinómicas con coeficientes en C y valores en C; esto
es, los elementos de P(C) son las funciones f : C → C dadas por f (w) = a0 + a1 w + · · · + an wn ,
donde a0 , a1 , · · · , an con constantes en C. Análogamente con las funciones polinómicas de grado
menor o igual a n con valores en C.

5. Sea V un K-espacio vectorial, demostrar que para cualquier número de escalares α1 , α2 · · · , αk ∈ K


y de vectores v1 , v2 , · · · , vm ∈ V valen:
Pk Pk
a) ( ℓ=1 αℓ )v = ℓ=1 αℓ v.
Pk
αℓ )( m
P Pk Pm Pm Pk
b) ( ℓ=1 j=1 vj ) = ℓ=1 j=1 αℓ vj = j=1 ℓ=1 αℓ vj .

6. Sea V un K-espacio vectorial, demostrar que para todo α ∈ K y cada u, v ∈ V valen:

a) (−α)v = α(−v) = −(αv).


b) α(u − v) = αu − αv.

7. Sean (V1 , +1 , ·1 ) y (V2 , +2 , ·2 ) dos K-espacios vectoriales. Sobre el producto cartesiano

V1 × V2 = {(v1 , v2 ) : v1 ∈ V1 y v2 ∈ V2 }

se definen operaciones adición y multiplicación por escalares en K:

(v1 , v2 ) + (w1 , w2 ) = (v1 +1 w1 , v2 +2 w2 ) y α(v1 , v2 ) = (α ·1 v1 , α ·2 v2 ), α ∈ K.

Demostrar que V1 × V2 con estas dos operaciones es un espacio vectorial sobre K. Tal espacio es
conocido como espacio vectorial producto de V1 por V2 .
Extender esta noción a un producto finito cualquiera V1 × V2 × · · · × Vn .

8. Dotar al conjunto Rn × P(R) de una estructura de espacio vectorial.

9. Dotar a los conjunto Mm×n (C) y P(C) de una estructura de espacio vectorial sobre R.

10. ¿Podrá dotarse a Rn de una estructura de espacio vectorial sobre C?



→ −

11. Sea A un vector no nulo de Rn . Denote por L( A ) al conjunto de todas las rectas paralelas a la

→ −

recta que pasa por el origen en la dirección de A ; esto es, L pertene a L( A ) si, y sólo si, existe

− −

P ∈ Rn tal que L = L(P, A ). Demostrar que L( A ) dotado de las operaciones:

− →
− −
→ →
− →

L(P, A ) + L(Q, A ) = L(P + Q, A ) y αL(P, A ) = L(αP, A ),


con α ∈ R, es un R-espacio vectorial. L( A ) es conocido como el espacio vectorial de todas las rectas


paralelas al vector A . ¿Cuál es el vector nulo de tal espacio vectorial?, ¿cuál es el simétrico de la


recta L(P, A )?
5.3. Subespacios vectoriales 13

12. En Rn (n ≥ 2) considere el hiperplano π dado por la ecuación a1 x1 +a2 x2 +· · ·+an xn = 0, recuerde


que los coeficientes de esta ecuación no son todos nulos. Sea [π] el conjunto de todos los hiperplanos
en Rn paralelos a π; note que π ′ ∈ [π] si, y sólo si, existe b ∈ R tal que a1 x1 + a2 x2 + · · · + an xn = b
es la ecuación cartesiana que describe a π ′ . Sobre [π] se definen las operaciones ⊕ y ⊙ como sigue:
dados π1 , π2 ∈ [π] descritos, respectivamente, por las ecuaciones a1 x1 + a2 x2 + · · · + an xn = b1
y a1 x1 + a2 x2 + · · · + an xn = b2 ; y α ∈ R, los planos π1 ⊕ π2 y α ⊙ π1 tienen como ecuaciones
cartesianas respectivas a:

a1 x1 + a2 x2 + · · · + an xn = b1 + b2 y a1 x1 + a2 x2 + · · · + an xn = αb1

Demostrar que el triplete ([π], ⊕, ⊙) es un R-espacio vectorial. ¿Cuál es el vector nulo de tal espacio
vectorial?, ¿cuál es el simétrico del hiperplano π1 ?

13. En la definición 5.1 de espacio vectorial se establece, ver axiomas [A3] y [A4], la unicidad del vector
nulo y del vector simétrico de cada vector en V. Estas condiciones de unicidad pueden ser obviadas
de la definición, de hecho suponga que en la definción 5.1 los axiomas [A3] y [A4] son sustituidos
por:

[A3’] Existe un vector OV , tal que para todo u ∈ V, u + OV = u.


[A4’] Para cada u ∈ V existe un vector u′ ∈ V tal que u + u′ = OV .

A partir de esta nueva definición de espacio vectorial:

a) Verificar que la Ley de Cancelación, item a) de la proposición 5.1, continúa siendo valida.
b) Usando la Ley de Cancelación, demostrar la unicidad del elemento neutro y la unicidad del
elemento simétrico de cada vector.

5.3. Subespacios vectoriales


Todo K-espacio vectorial V posee ciertos subconjuntos que a su vez son K-espacios vectoriales con las
mismas operaciones que definen la estructura vectorial de V. Por ejemplo, Pn (R) dentro de P(R) tiene
estructura de espacio vectorial; igualmente C k ([a, b], R) dentro de C 0 ([a, b], R).

Definición 5.2. Dados un K-espacio vectorial V y un subconjunto no vacı́o U de V. Se dice que U es un


subespacio vectorial de V (o simplemente, subespacio de V), si son satisfechas las siguientes propiedades:

a) OV ∈ U

b) para todo u, v ∈ U, u + v ∈ U (U cerrado bajo la adición)

c) para todo u ∈ U y cada α ∈ K, αu ∈ U (U cerrado bajo la multiplicación por escalares)

Comentario 5.3. Consideremos cualquier K-espacio vectorial V y un subconjunto no vacı́o U de V,


el cual no es necesariamente un subespacio vectorial de V. Es claro que los vectores de U satisfacen los
axiomas de linealidad [A1], [A2], [M1], [M2], [M3] y [M4]. En general no es cierto que U contenga al vector
nulo en V y los simétricos de los vectores en él; que son los axiomas que restan para que el conjunto U
tenga estructura de espacio vectorial con las mismas operaciones de V. Esto no ocurre cuando U es un
subespacio vectorial de V; en efecto, la siguiente proposición es suficientemente clara al respecto.
14 5. Espacios Vectoriales.

Teorema 5.1. Sea V un K-espacio vectorial. Un subconjunto no vacı́o U de V es un subespacio vectorial


de V si, y sólamente si, U tiene estructura de espacio vectorial sobre K con las mismas operaciones de
V.

Demostración: Supongamos que U es subespacio vectorial de V. Según el comentario anterior, las


restricciones a U de las operaciones de adición y multiplicación por escalares satisfacen [A1], [A2], [M1],
[M2], [M3] y [M4]. Resta por tanto mostrar que también satisface [A3] y [A4].
Dado que OV ∈ U y este vector es el único que satisface v + OV para todo v ∈ V, entonces OV es el
único vector de U tal que u + OV para todo u ∈ U.
Para mostrar [A4], observe que para todo vector u ∈ U, su simétrico −u también está en U ya que
(−1)u ∈ U y (−1)u = −u, ver proposición 5.1 en la página 9. Finalmente, como en V, −u es el único
vector que satisface u + (−u) = OV y OV es el neutro en U, entonces −u es el único vector en U que
satisface u + (−u) = OV , con lo cual U también cumple [A4] y en consecuencia (U, +, ·) es un espacio
vectorial sobre K.
El recı́proco es obvio, pues si U es espacio vectorial con las operaciones de adición y multiplicación
por escalares de V, entonces se cumplen las condiciones a), b) y c) de la definición 5.2.

La siguiente proposición ofrece una caracterización de subespacios vectoriales que junta en una sóla
condición las tres partes que deben ser chequeadas según la definición 5.2.

Proposición 5.3. Un subconjunto U del espacio vectorial V sobre K es un subespacio vectorial de V si,
y sólamente si, es no vacı́o y para todo u, v ∈ U y cada escalar α ∈ K, vale u + αv ∈ U.

Demostración: Dejamos al lector verificar esta caracterización.

Proposición 5.4. Sean V un espacio vectorial sobre K y U un subespacio vectorial cualquier de V. Cual-
quiera sea el entero positivo n, cualesquiera sean los vectores u1 , · · · , un en U y los escalares α1 , · · · , αn
en K, siempre se tiene α1 u1 + · · · + αn un ∈ U.

Demostración: La demostración sigue por inducción matemática sobre el entero n y de la misma


definición de subespacio vectorial. Dejamos los detalles al lector.

5.3.1. Ejemplos de subespacios vectoriales


Como se verá más adelante, existe una manera simple de generar subespacios vectoriales de un espacio
vectorial dado, no obstante exponemos a continuación algunos ejemplos clásicos de diferentes subespacios
vectoriales.

• Subespacios triviales
Consideremos cualquier espacio vectorial sobre K, digamos V. Claramente el propio espacio vectorial
V y el subconjunto U = {OV } son subespacios vectoriales de V; éstos son conocidos como los subespacios
triviales de V, en ocasiones nos referiremos a {OV } como el subespacio nulo de V.

• R como subespacio vectorial del R-espacio vectorial C


Es bien conocido que sobre el conjunto de los números complejos C (de hecho sobre Cn ) pueden
ser construidas estructuras vectoriales tanto sobre el propio C como sobre R. En este último caso la
multiplicación por escalares que define esta estructura se lleva a efecto con números reales. Consideremos
entonces el R-espacio vectorial C. Dado que R lo podemos ver como un subconjunto de C y como para
5.3. Subespacios vectoriales 15

todo u, v ∈ R y cada escalar α ∈ R se tiene que u + αv ∈ R, entonces de la proposición 5.3) sigue que R
es un subespacio vectorial de C. Esto deja de ser cierto si consideramos en C la estructura de C espacio
vectorial, es decir cuando la multiplicación por escalares se efectúa sobre el propio C; la razon es que el
producto de un número complejo por un número real no necesariamente es un número real; por ejemplo,
(1 + i)2 = 2 + 2i ∈/ R; ası́ que esta multiplicación por escalares no es cerrada en R.

• Hiperplanos de Kn conteniendo el origen


Fijemos constantes a1 , · · · , an ∈ K. Consideremos el conjunto H de todas las n-úplas (x1 , · · · , xn ) que
satisfacen la ecuación lineal
a1 x1 + a2 x2 + · · · + an xn = 0. (5.4)
Note que si a1 = a2 = · · · = an = 0, entonces H = Kn , por tanto es un subespacio trivial de Kn ;
sin embargo, cuando al menos una de las constantes a’s es diferente de 0, entonces H es también un
subespacio vectorial de Kn ; en este caso denominado hiperplano de Kn que pasa por el origen con normal
(a1 , · · · , an ). Veamos que en este caso H es un subespacio vectorial de Kn . Claramente el vector nulo
(0, · · · , 0) de Kn está en H pues sus coordenadas satisfacen la ecuación (5.4). Supongamos entonces que
se tienen u = (u1 , · · · , un ), v = (v1 , · · · , vn ) ∈ H; es decir
a1 u1 + a2 u2 + · · · + an un = 0 y a1 v1 + a2 v2 + · · · + an vn = 0,
y sea α ∈ K. Veamos que u + αv ∈ H. Dado que u + αv = (u1 + αv1 , · · · , un + αvn ), como
a1 (u1 + αv1 ) + · · · + an (un + αvn ) = a1 u1 + · · · + an un + a1 (αv1 ) + · · · + an (αvn )
= a1 u1 + · · · + an un + α(a1 v1 + · · · + an vn )
= 0 + 0 = 0,
n
se tiene que H es un subespacio vectorial de K .
No todos los hiperplanos de Kn son subespacios vectoriales de Kn ; más precisamente, si fijamos
constantes a1 , · · · , an , b en K donde al menos una de las a’s es diferente de cero y b 6= 0, entonces el
conjunto de todos las n-úplas (x1 , · · · , xn ) ∈ Kn tales que
a1 x1 + a2 x2 + · · · + an xn = b,
es un hiperplano de Kn no es subespacio vectorial de 0Kn . De serlo H contendrı́a al origen, pero (0, · · · , 0)
no satisface la anterior ecuación.

• Espacio solución de sistemas de ecuaciones lineales homogéneos


Consideremos cualquier sistema de ecuaciones lineales homogéneo con coeficientes en K:
a11 x1 + a12 x2 + · · · + a1n xn = 0



 a21 x1 + a22 x2 + · · · + a2n xn = 0

.. . (5.5)


 .

am1 x1 + am2 x2 + · · · + amn xn = 0
Recordemos que este sistema de ecuaciones lineales se representa matricialmente como AX = O, donde
a11 a12 · · · a1n
 
 a21 a22 · · · a2n 
A= . ..  es la matriz del sistema. Como sabemos, tal sistema siempre admite solu-
 
..
 .. . ··· . 
am1 am2 · · · amn
ción, por lo menos la trivial. Además, el conjunto solución de (5.5) es el conjunto S(A, O) de todas las
16 5. Espacios Vectoriales.

n-úplas (x1 , · · · , xn ) ∈ Kn que satisfacen cada una de las ecuaciones en (5.5); o en términos matriciales,
 
x1
 .. 
S(A, O) es el conjunto de vectores unicolumnas X =  .  ∈ Mn×1 (K) tales que AX = O. Sin impor-
xn
tar la manera como consideremos el conjunto solución de (5.5), como n-úplas o vectores unicolumnas,
S(A, O) es siempre un subespacio vectorial. En efecto, mostraremos una demostración de esta afirmación
siguiendo la notación matricial. En primer lugar ya sabemos que el vector nulo está en S(A, O). Tomemos
X1 , X2 ∈ S(A, O), que es AX1 = O = AX2 , y sea α cualquier escalar en K. Dado que

A(X1 + αX2 ) = AX1 + A(αX2 ) = AX1 + αAX2 = O + αO = O,

entonces X1 + αX2 ∈ S(A, O); por tanto S(A, O) es un subespacio vectorial de Mn×1 (K), o de Kn según
sea la interpretación que demos al coonjunto de soluciones del sistema.
En adelante llamaremos espacio solución de AX = O al subespacio vectorial S(A, O). Observe que los
hiperplanos que pasan por el origen son casos particulares de sistemas de ecuaciones lineales homogéneos.
Es importante mencionar que para cualquier sistema de ecuaciones lineales no homogéneo, digamos
AX = B con A ∈ Mm×n (K) y B ∈ Mm×1 (K) diferente de O, su conjunto solución no es un subespacio
vectorial. La razón es muy simple: el vector nulo no pertenece al conjunto solución pues AO = O 6= B.

• Matrices simétricas
En el espacio de todas las matrices cuadradas de orden n sobre K, Mn×n (K), el subconjunto Sn (K)
de todas las matrices simétricas es un subespacio vectorial. Recordemos que A ∈ Mn×n (K) es simétrica
si, y sólo si, A = At .
Obviamente la matriz nula es simétrica; es decir O ∈ Sn (K). Supongamos que tenemos matrices
A, B ∈ Sn (K) y cualquier escalar α ∈ K. Para mostrar que en efecto Sn (K) es un subespacio vectorial de
Mn×n (K) bastará verificar que la matriz A + αB es también simétrica. Pero esto es simple de chequear
haciendo uso de las propiedades de la traspuesta de matrices. De hecho:

(A + αB)t = At + (αB)t = At + αB t = A + αB.

• Espacio solución de ecuaciones diferenciales


3
Una ecuación diferencial ordinaria de orden k ≥ 1 es cualquier expresión del tipo:

y (k) + ak−1 (t)y (k−1) + · · · + a1 (t)y ′ + a0 (t)y = 0, (5.6)

donde: aj : I → R, j = 0, · · · , k, es una función continua definida en el intervalo I de R; y la variable


y asume valores en el espacio vectorial de todas las funciones de clase C k (I, R); esto es, las funciones
diferenciables hasta orden k con la derivada k-ésima es continua. Una solución de (5.6) es justamente una
función f : I → R de clase C k tal que:

f (k) (t) + ak−1 (t)f (k−1) (t) + · · · + a1 (t)f ′ (t) + a0 (t)f (t) = 0, (5.7)

para todo t ∈ I. Observe que la función constante igual a 0, O : I → R con O(t) = 0 para todo t ∈ I, es
solución de (5.6). Por tanto, el conjunto H de todas las funciones f : I → R de clase C k que resuelven
(5.6) es no vacı́o: por lo menos contiene a la función nula, que es justamente el elemento neutro del espacio
vectorial de todas las funciones de clase C k . Veamos que además de ser no vacı́o, H es un subespacio
3 Este ejemplo puede ser obviado por aquellos lectores que no familiarizados con ecuaciones diferenciales ordinarias
5.3. Subespacios vectoriales 17

vectorial de C k (I, R). Consideremos funciones f, g ∈ H; es decir, f y g satisfacen (5.6), y sea α ∈ R;


verifiquemos entonces que f + αg ∈ H; esto es, la función f + αg también satisface la ecuación diferencial
(5.6). En efecto, dado que para cada t ∈ I se cumplen:

f (k) (t) + ak−1 (t)f (k−1) (t) + · · · + a1 (t)f ′ (t) + a0 (t)f (t) = 0 y
g (k) (t) + ak−1 (t)g (k−1) (t) + · · · + a1 (t)g ′ (t) + a0 (t)g(t) = 0.

De esta forma

(f + αg)(k) (t) + ak−1 (t)(f + αg)(k−1) (t) + · · · + a1 (t)(f + αg)′ (t) + a0 (t)(f + αg)(t)
= (f (k) (t) + αg (k) (t)) + ak−1 (t)(f (k−1) (t) + αg (k−1) (t)) + · · · + a1 (t)(f ′ (t) + αg ′ (t))
+a0 (t)(f (t) + αg(t))
(k) (k−1) ′
= f (t) + ak−1 (t)f (t) + · · · + a1 (t)f (t) + a0 (t)f (t)
+α(g (k) (t) + ak−1 (t)g (k−1) (t) + · · · + a1 (t)g ′ (t) + a0 (t)g(t))
= 0 + α0 = 0.

De esta forma, H es un subespacio vectorial de C k (I, R).

5.3.2. Subespacios generados por un conjunto de vectores.


Una parte importante del Álgebra Lineal está constituida por la noción de subespacios generados
por un conjunto de vectores cualesquiera; tal noción está intimamente relacionada con el concepto de
combinación lineal, el cual es un mecanismo para construir subespacios vectoriales de un espacio vectorial
dado. Recuerde que si V un K-espacio vectorial cualquiera, entonces para cualquier número finito de
vectores v1 , v2 , · · · , vk ∈ V, e igual número de escalares α1 , α2 , · · · , αk ∈ K, α1 v1 + α2 v2 + · · · + αk vk es
un vector de V.

Definición 5.3. Sea V cualquier espacio vectorial sobre K.


• El vector u ∈ V es combinación lineal de los vectores v1 , v2 , · · · , vk si, y sólo si, existen escalares
α1 , α2 , · · · , αk ∈ K tales que

k
X
u = α1 v1 + α2 v2 + · · · + αk vk (equivalentemente u = αℓ vℓ ).
ℓ=1

• Dado un subconjunto no vacı́o U de V, CL(U) denota el conjunto de todas las combinaciones lineales
de vectores en U; es decir,
( k
)
X
CL(U) = αℓ vℓ : vℓ ∈ U, αℓ ∈ K con ℓ = 1, 2, · · · , k y k ≥ 1 .
ℓ=1

Note que las combinaciones lineales son siempre sumas finitas de vectores en un mismo espacio vectorial
V sobre K; además, los factores de tales sumas son iguales a la multiplicación de escalares en K por vectores
en V. Observe también que si U es un subconjunto no vacı́o de V, entonces u ∈ CL(U) si, y sólo si, exite
un número finito de vectores en U, digamos v1 , · · · , vk , y el mismo número de escalares α1 , · · · , αn ∈ K
k
X
tales que u = α1 v1 + · · · + αk vk = αℓ vℓ .
ℓ=1
18 5. Espacios Vectoriales.

Proposición 5.5. Si U es cualquier subconjunto no vacı́o de un espacio vectorial V sobre K, entonces


CL(U) es un subespacio vectorial de V y U ⊂ CL(U).

Demostración: Veamos que CL(U) es un subespacio vectorial de V. Dado que U es no vacı́o y el


vector nulo OV satisface OV = 0v1 + · · · + 0vm para cualquier colección de vectores v1 , · · · , vm , entonces
OV ∈ CL(U). Por otra parte, dado que v = 1v para todo v ∈ V, entonces U ⊂ CL(U).
Sean u, v ∈ CL(U) y α ∈ K. Luego existen finitos de vectores, digamos u1 , u2 , · · · , um , v1 , v2 , · · · , vn
en U, y escalares α1 , α2 , · · · , αm , β1 , β2 , · · · , βn ∈ K tales que

u = α1 u1 + α2 u2 + · · · + αm um y v = β1 v1 + β2 v2 + · · · + βn vn .

Sigue por tanto que

u + αv = α1 u1 + α2 u2 + · · · + αm um + α(β1 v1 + β2 v2 + · · · + βn vn )
= α1 u1 + α2 u2 + · · · + αm um + αβ1 v1 + αβ2 v2 + · · · + αβn vn ,

que también es una combinación lineal de vectores en U; por lo que u + αv ∈ CL(U). Ası́ CL(U) es un
subespacio vectorial de V. De esta forma la demostración está completa.

Definición 5.4. Sean V un espacio vectorial sobre K y U un subconjunto no vacı́o de V. Al subespacio


vectorial CL(U) de V se le conoce con el nombre de subespacio vectorial generado por U; en adelante
será denotado por S(U). 4 Dado un subespacio vectorial W de V, un conjunto de vectores U en V se dice
generador de W si S(U) = W.

Creemos conveniente insistir en lo siguiente: dados un espacio vectorial V sobre K y un subconjunto


no vacı́o U de V, los vectores de S(U) son caracterizados por:

v ∈ S(U) si, y sólamente si, existe un número finito de vectores v1 , · · · , vn ∈ U y el mismo número
de escalares α1 , · · · , αn ∈ K tales que v = α1 v1 + · · · + αn vn .

Ejemplo 5.1.

1. Consideremos en el K-espacio vectorial Kn la colección de sus vectores canónicos:

E1 = (1, 0, · · · , 0), E2 = (0, 1, 0, · · · , 0), · · · , En = (0, · · · , 0, 1).

Es fácil mostrar que para cada (x1 , x2 , · · · , xn ) ∈ Kn , la única forma de escribir a (x1 , x2 , · · · , xn )
como combinación lineal de E1 , E2 , · · · , En es:
n
X
(x1 , x2 , · · · , xn ) = x1 E1 + x2 E2 + · · · + xn En = xℓ E ℓ .
ℓ=1

Esto dice que {E1 , · · · , En } es un generador de Kn pues S({E1 , · · · , En }) = Kn .


Recordemos que sobre Cn (n ≥ 1) se tienen dos estructuras de espacio vectorial: una compleja y otra
real. En la compleja, como acabamos de mostrar, los canónicos sirven para expresar cualquier n-
úpla de Cn como combinación lineal de ellos. Sin embargo, esta propiedad deja de ser cierta cuando
consideramos a Cn como un espacio vectorial sobre R. Por ejemplo tomemos, por simplicidad, el caso
4 Es frecuente encontrar en los libros de Álgebra Lineal, especialemente los escritos en inglés, la notación span(U) para

designar el subespacio generado por el conjunto U; también son empleadas las notaciones < U > y [U]. Acá adoptamos la
notación S(U) para simbolizar con la letra S la palabra subespacio.
5.3. Subespacios vectoriales 19

n = 2. En C2 , como un espacio vectorial sobre R, consideremos el vector w = (i, 0). Afirmamos que
w no puede escribirse como combinación lineal de los vectores canónicos E1 = (1, 0) y E2 = (0, 1).
De lo contrario, existirı́an escalares α, β ∈ R tales que

(i, 0) = α(1, 0) + β(0, 1) = (α, β),

de donde α = i ∈ R; lo cual es obviamente falso. Lo que si puede ser verificado sin dificultad es
que todo vector (α1 + iβ1 , α2 + iβ2 ) ∈ C2 , considerado como un R-espacio vectorial, se escribe
(de manera única) como combinación lineal de los vectores E1 = (1, 0), E2 = (0, 1), E3 = (i, 0) y
E4 = (0, i). De hecho esta propiedad es extendida a Cn como un espacio vectorial sobre R.

2. En Mm×n (K) como un K-espacio vectorial tenemos m × n matrices canónicas:

E11 , E12 , · · · , E1n , E21 , E22 , · · · , E2n , · · · , Em1 , Em2 , · · · , Emn


(
1, si i = r, j = s
donde, para cada 1 ≤ r ≤ m y 1 ≤ s ≤ n, Ers = [δij ]m×n , con δij = ;
0, en cualquier otro caso
esto es, Ers tiene todas sus entradas iguales a 0, excepto la entrada ubicada en la fila r y columna
s que es igual a 1.
Una simple verificación muestra que para cualquier matriz A = [aij ]m×n en Mm×n (K), se tiene:
m X
X n
A= aij Eij = a11 E11 + · · · + a1n E1n + · · · + am1 Em1 + · · · + amn Emn ;
i=1 j=1

además, esta es la unica forma de escribir a A como combinación lineal de las matrices canónicas de
Mm×n (K). En particular esto implica que S({Ers : 1 ≤ r ≤ m y 1 ≤ s ≤ n}) = Mm×n (K); es decir,
el conjunto de todas las matrices canónicas en Mm×n (K) es generador de ese espacio vectorial.

3. Consideremos ahora el R-espacio vectorial Pn (R) de todas las funciones polinómicas reales de grado
menor o igual a n; es decir, el R-espacio vectorial dado en la página 9. Las funciones polinómicas
p0 , p1 , · · · , pn : R → R definidas, para cada x ∈ R, por

p0 (x) = 0, p1 (x) = x, · · · , pn (x) = xn

son denominadas funciones polinómicas canónicas de Pn (R). Como sabemos, para toda función en
p : R → R en Pn (R) existen constantes a0 , · · · , an en R tales que para cada x ∈ R se cumple
p(x) = a0 + a1 x + · · · + an xn ; por tanto, p = a0 p0 + a1 p1 + · · · + an pn ; pues para todo x ∈ R se
tiene p(x) = a0 p0 (x) + a1 p1 (x) + · · · + an pn (x). De lo cual sigue que S({p0 , p1 , · · · , pn }) = Pn (R).
Empleando los mismos argumentos se demuestra (se deja al lector) que si pn : R → R es la función
dada por pn (x) = xn para cada x ∈ R, entonces U = {pn : n ≥ 0} genera al espacio vectorial P(R);
es decir, S(U) = P(R).

4. En R2 veamos cuál es el subespacio vectorial generado por v = (1, 2). Las combinaciones lineales
formadas con v son justamente los vectores αv, con α recorriendo R. Es decir, (x, y) ∈ S({v}) si, y
sólamente si, existe un escalar α ∈ R tal que (x, y) = α(1, 2) = (α, 2α); lo que equivale a decir que
x = α y y = 2α. Esto es, S({v}) = {(x, y) ∈ R2 : y = 2x}; que es la recta de R2 que pasa por el
origen en la dirección del vector v = (1, 2).
20 5. Espacios Vectoriales.

5. Consideremos en R3 los vectores v = (1, 2, 1) y u = (2, 4, 2); note que u y v son paralelos, de hecho,
u = 2v. Veamos quién es S({u, v}):

(x, y, z) ∈ S({u, v}) ⇐⇒ ∃α, β ∈ R tal que (x, y, z) = α(1, 2, 1) + β(2, 4, 2)


⇐⇒ ∃α, β ∈ R tal que (x, y, z) = (α + 2β, 2α + 4β, α + 2β)
⇐⇒ ∃α, β ∈ R tal que (x, y, z) = (α + 2β)(1, 2, 1)
⇐⇒ (x, y, z) = δ(1, 2, 1) con δ = α + 2β y α, β ∈ R
⇐⇒ (x, y, z) ∈ S({v}).

Esta secuencia de equivalencias permiten concluir S({u, v}) = S({v}); por lo que dar una caracte-
rización del lugar geométrico que ocupan los vectores de S({u, v}) en R3 , equivale a caracterizar
los vectores de S({v}). Dejamos al lector la verificación de S({v}) es la recta en R3 que pasa por el
origen en la dirección de v = (1, 2, 1); es decir:

S({v}) = {(x, y, z) ∈ R3 : 2x = y = 2z}.

6. En el ejemplo anterior consideramos dos vectores paralelos y observamos que el conjunto de las
combinaciones lineales con esos dos vectores es igual al conjunto de las combinaciones lineales de
uno de ellos. Tomemos ahora dos vectores no paralelos en R3 : u = (1, 1, 2) y v = (−1, 0, −3), y
determinemos el subespacio vectorial de R3 generado por tales vectores. Claramente (x, y, z) perte-
nece a S({u, v}) si, y sólo si, existen escalares α, β ∈ R tales que (x, y, z) = αu + βv. La existencia
de
 tales escalares satisfaciendo esa condición equivale a decir que el sistema de ecuaciones lineales
 α−β =x
α = y tiene solución. Ahora bien, esto ocurre si, y sólamente si, la matriz del sistema
2α − 3β = z

   
1 −1 1 −1 x
 1 0  y su ampliada  1 0 y  tienen el mismo rango. De esta forma, al determinar
2 −3 2 −3 z
los valores de x, y y z de manera que las matrices anteriores tengan el mismo rango, estaremos
caracterizando (en términos de las variables x, y, z) los vectores (x, y, z) de R3 que pertencen al
subespacio vectorial S({u, v}).
Procedamos entonces a descubrir tales relaciones que determinan los valores posibles de x, y, z.
Para ello examinamos los rango de las matrices de arriba; esto se hace, como siempre, empleando
operaciones elementales por filas:
     
1 −1 x 1 −1 x 1 −1 x
f2 −→f2 −f1 f3 −→f3 +2f2
 1 0 y  −−−−−−−→  0 1 y − x  −−−−−−−−→  0 1 y−x .
2 −3 z 0 −2 z − 2x 0 0 z + 2y − 4x

De acá sigue que las matrices del sistema y su ampliada tienen el mimso rango si, y sólamente si,
−4x + 2y + z = 0. Esto equivale a decir que (x, y, z) ∈ S({u, v}) si, y sólo si, −4x + 2y + z = 0. En
otras palabras S({u, v}) = {(x, y, z) ∈ R3 : −4x + 2y + z = 0} es el plano que pasa por el origen y
→ −−−−−−→

con vector normal N = (−4, 2, 1).

7. En P3 (R), el espacio de todas las funciones polinómicas de grado menor o igual a 3, consideremos
los vectores (funciones polinómicas en P3 (R)): p0 , p1 , p2 , p3 dadas por

p0 (x) = 2, p1 (x) = 1 + x, p2 (x) = −x2 y p3 (x) = x + x2 , para cada x ∈ R.


5.3. Subespacios vectoriales 21

Deseamos determinar las funciones en P3 (R) que pertenecen a S({p0 , p1 , p2 , p3 }). Supongamos que
p ∈ S({p0 , p1 , p2 , p3 }); es decir, existen escalares α0 , α1 , α2 , α3 ∈ R tales que

p = α0 p0 + α1 p1 + α2 p2 + α3 p3 ;

en otras palabras, si hacemos p(x) = a0 + a1 x + a2 x2 + a3 x3 para todo x ∈ R, entonces:

a 0 + a 1 x + a 2 x2 + a 3 x3 = α0 p0 (x) + α1 p1 (x) + α2 p2 (x) + α3 p3 (x)


= 2α0 + α1 (1 + x) + α2 (−x2 ) + α3 (x + x2 )
= (2α0 + α1 ) + (α1 + α3 )x + (−α2 + α3 )x2

vale para todo x ∈ R. Claramente de acá sigue que p ∈ S({p0 , p1 , p2 , p3 }) si, y sólo si, existen
2α0 + α1 = a0



 α +α =a
1 3 1
escalares α0 , α1 , α2 , α3 en R de manera que el sistema de ecuaciones lineales

 −α2 + α3 = a2

0 = a3
tenga solución; en otras palabras, las matrices del sistema y su ampliada:

2 1 0 0 2 1 0 0 a0
   
 0 1 1 0   0 1 1 0 a1 
 0 0 −1 1  y  0 0 −1 1 a2 
   

0 0 0 0 0 0 0 0 a3

tienen igual rango. Note que la matriz del sistema tiene rango 3 pues es escalonada; por tanto ambas
tienen el mismo rango si, y sólamente si, a3 = 0. De esta manera, el subespacio vectorial de P3 (R)
generado por las funciones polinómicas p0 , p1 , p2 , p3 es

S({p0 , p1 , p2 , p3 }) = {p : p(x) = a0 + a1 x + a2 x2 , con a0 , a1 , a2 ∈ R}.



x + 2y − z + w = 0

8. Consideremos el sistema de ecuaciones lineales homogéneo x + 2y + w = 0 . Deseamos
2x + 4y − z + 2w = 0

encontrar un conjunto generador del espacio solución de este sistema de ecuaciones lineales ho-
mogéneas. Para determinar el conjunto solución, o si se quiere la solución general de tal sistema de
ecuaciones, procedemos a encontrar la forma canónica de Gauss-Jordan de la matriz del sistema;
 
1 2 −1 1
esto es, la forma escalonada reducida por filas de la matriz del sistema A =  1 2 0 1 .
2 4 −1 2
     
1 2 −1 1 1 2 −1 1 1 2 0 1
f2 →f2 −f1 f1 →f1 −f2
 1 2 0 1  −−−−−−−−→  0 0 1 0  −−−−−−−→  0 0 1 0  .
f3 →f3 −2 f1 f3 →f3 −f2
2 4 −1 2 0 0 1 0 0 0 0 0
 
1 2 0 1
Ası́ C =  0 0 1 0  es la forma canónica de Gauss-Jordan de A, luego rg(A) = 2 y el número
0 0 0 0
de variables libres del sistema dado es también 2 (rango - número de incógnitas). Note que las
variables libres pueden ser elegidascomo y y w. Como el sistema de ecuaciones lineales homogéneo
x + 2y + w = 0
correspondiente a la matriz C es , al asignarle a las variables libre los valores
z=0
22 5. Espacios Vectoriales.

canónicos: y = 1, w = 0, y y = 0, w = 1, tenemos como soluciones generadoras del espacio solución


del sistema AX = O a los vectores unicolumna:
−2 −1
   
 1   0 
 0  y S2 =  0  .
S1 =    

0 1

De esta forma, S(A, O) = S({S1 , S2 }); esto es, cualquier solución S de AX = O tiene la forma

−2α − β
 
 α 
S = αS1 + βS2 =   , con α y β variando en R.
 0 
β

La siguiente proposición establece un criterio general, en términos de sistemas de ecuaciones lineales,


para saber cuando un vector dado en Km , es combinación lineal de una determinada colección finita de
vectores en Km ; de otra forma, cuando un vector en Km pertenece al subespacio vectorial de Km generado
por un número finito de vectores.

Proposición 5.6. Dada una colección cualquiera de n vectores en Km :

v1 = (a11 , · · · , am1 ), v2 = (a12 , · · · , am2 ), · · · , vn = (a1n , · · · , amn ),

el vector v = (b1 , · · · , bm ) es combinación lineal de v1 , v2 , · · · , vn si, y sólamente si, el sistema de ecua-


a11 α1 + a12 α2 + · · · + a1n αn = b1



 a21 α1 + a22 α2 + · · · + a2n αn = b2

ciones lineales .. tiene solución.


 .

am1 α1 + am2 α2 + · · · + amn αn = bm
Demostración: El vector v = (b1 , · · · , bm ) es combinación lineal de v1 , v2 , · · · , vn si, y sólamente si,
existen escalares α1 , α2 , · · · , αn ∈ K tales que v = α1 v1 + α2 v2 + · · · + αn vn ; es decir,

(b1 , · · · , bm ) = α1 (a11 , · · · , am1 ) + α2 (a12 , · · · , am2 ) + · · · + αn (a1n , · · · , amn )


= (α1 a11 + α2 a12 + · · · + αn a1n , · · · , α1 am1 + α2 am2 + · · · + αn amn );

igualando componentes tenemos que v ∈ S({v1 , · · · , vn }) si y sólo si, existe (α1 , · · · , αn ) ∈ Kn que es
 a11 α1 + a12 α2 + · · · + a1n αn = b1


 a21 α1 + a22 α2 + · · · + a2n αn = b2

solución del sistema de ecuaciones lineales .. .


 .

am1 α1 + am2 α2 + · · · + amn αn = bm

Ejemplo 5.2. Consideremos los vectores v1 = (1, 2, −1, 0), v2 = (0, −1, 1, 2) y v3 = (1, 2, 2, 1). Deseamos
averiguar si los vectores u1 = (−2, −1, −1, −6) y u2 = (0, 0, 0, 1) pertenecen al subespacio vectorial de R4
generado por v1 , v2 y v3 .
En lugar de aplicar de manera particular la proposición anterior analizando los sistemas de ecuacio-
α1 + α3 = −2  α1 + α3 = 0
 

 
2α1 − α2 + 2α3 = −1 2α1 − α2 + 2α3 = 0
 
nes lineales y , caracterizaremos todos los vectores en

 −α 1 + α2 + 2α3 = −1 
 −α 1 + α2 + 2α3 = 0
 
2α2 + α3 = −6 2α2 + α3 = 1
5.3. Subespacios vectoriales 23

S({v1 , v2 , v3 }). Obviamente de la proposición anterior tenemos que (x, y, z, w) ∈ S({v1 , v2 , v3 }) si, y sólo
α1 + α3 = x 1 0 1 1 0 1 x
    


2α1 − α2 + 2α3 = y  2 −1 2   2 −1 2 y 

si, tiene solución; es decir,   y   tienen el

 −α1 + α2 + 2α3 = z  −1 1 2   −1 1 2 z 

2α2 + α3 = w 0 2 1 0 2 1 w
mismo rango. Procedamos por tanto a calcular estos rangos:

1 0 1 x 1 0 1 x 1 0 1 x
     
 2 −1 2 y  f2 →f2 −2f1  0 −1 0 y − 2x  f3 →f3 +f2  0 −1 0 −2x + y 
 − −−−−−−→   −−−−−−−→  
 −1 1 2 z  f3 →f3 +f1  0 1 3 x+z   0 0 3 −x + y + z 
0 2 1 w 0 2 1 w 0 2 1 w
1 0 1 x 1 0 1 x
   
f4 →f4 +2f2  0 −1 0 −2x + y  f →f
 −−4−−−4 − 2
f
3 3 
 0 −1 0 −2x + y 
−−−−−−−→   0 −− −→  .
0 3 −x + y + z  0 0 3 −x + y + z 
0 0 2 −4x + 2y + w 0 0 0 − 10 4 2
3 x + 3y − 3z + w

Claramente de acá sigue que la matriz del sistema tiene rango igual a 3; por tanto, el subespacio vectorial
generado por los vectores v1 , v2 , v3 es

S({v1 , v2 , v3 }) = {(x, y, z, w) ∈ R4 : 10x − 4y + 2z − 3w = 0}.


−−−−−−−−−−→
Note que S({v1 , v2 , v3 }) es el hiperplano de R4 que pasa por el origen y tiene como normal a ((10, −4, 2, −1).
Retornando a los vectores u1 y u2 dados, cada uno de ellos está en S({v1 , v2 , v3 }) si, y sólamente si, sus
componentes satisfacen la ecuación lineal 10x − 4y + 2z − 3w = 0. Una simple cuenta nos dice que
u1 ∈ S({v1 , v2 , v3 }) y u2 ∈
/ S({v1 , v2 , v3 }).

Comentario 5.4. Note que el criterio anterior equivale a decir:

el vector v = (b1 , · · · , bm ) pertenece al subespacio vectorial de Km generado por los vectores

v1 = (a11 , · · · , am1 ), v2 = (a12 , · · · , am2 ), · · · , vn = (a1n , · · · , amn )

a11 a12 ··· a1n a11 a12 ··· a1n b1


   
 a21 a22 ··· a2n   a21 a22 ··· a2n b2 
si, y sólamente si, rg   = rg   .
   
.. .. .. .. .. .. .. .. ..
 . . . .   . . . . . 
am1 am2 ··· amn am1 am2 ··· amn bm

Observe que las componentes de los vectores v1 , · · · , vn conforman las columnas de la primera matriz,
que es la matriz del sistema en el enunciado de la proposición anterior; mientras que las componentes de
v constituyen la última columna de la segunda matriz.
Es importante mencionar que el criterio presentado no es exclusivo para vectores en Km ; como vere-
mos más adelante, también tiene la misma utilidad en contextos más generales; para ello será necesario
introducir la noción de coordenadas en una cierta categorı́a de espacios vectoriales abstractos, en la que
Km es solo un ejemplo.

El teorema a continuación expone algunas propiedades generales de los subespacios vectoriales gene-
rados por un conjunto de vectores.

Teorema 5.2. En todo espacio vectorial V sobre K se cumplen:


24 5. Espacios Vectoriales.

a) Si U = {OV }, entonces S(U) = {OV }.

b) Si U y W son subconjuntos no vacı́os cualesquiera de V y U ⊂ W, entonces S(U) ⊂ S(W).

c) Si U y W son subconjuntos no vacı́os cualesquiera de V y W ⊂ S(U′ ), donde U′ = U \ W, entonces


S(U) = S(U′ ).

d) Si U y W son subconjuntos no vacı́os cualesquiera de V tales que W es un subespacio vectorial que


contiene a U, entonces S(U) ⊂ W.

Demostración:

a) Dado que para cualquier escalar α ∈ K se cumple αOV = OV , entonces S(U) = {OV }.

b) Sea v ∈ S(U), luego existen v1 , · · · , vn en U y α1 , · · · , αn ∈ K tales que v = α1 v1 + · · · + αn vn .


Dado que U ⊂ W, entonces v1 , · · · , vn también están en W. Por tanto v ∈ W, pues este vector es
combinación lineal de vectores en W. Ası́, S(U) ⊂ S(W).

c) Observe que de la parte b) anterior, S(U′ ) ⊂ S(U). Luego resta mostrar que S(U) ⊂ S(U′ ).
Sea v ∈ S(U); como antes, existen vectores v1 , · · · , vn en U y escalares α1 , · · · , αn en K tales que
v = α1 v1 + · · · + αn vn . Si los vectores vi (i = 1, · · · , n) están todos en U′ , pues entonces v ∈ S(U′ )
y no habrı́a nada que mostrar. Sin embargo, puede ocurrir que algunos de ellos no pertenezcan a
U′ . Para simplificar la demostración asumamos que el vector v1 ∈ / U′ y los restantes, v2 , · · · , vn , si

están en U . Note que si v1 ∈ / U , entonces v1 ∈ W (recuerde que U = U′ ∪ W). Ahora bien, dado

que W ⊂ S(U′ ), entonces existen vectores u1 , · · · , um en U′ y escalares β1 , · · · , βm en K tales que


v1 = β1 u1 + · · · + βm um . De esta forma:

v = α1 v1 + · · · + αn vn
= α1 (β1 u1 + · · · + βm um ) + α2 v2 + · · · + αn vn
= α1 β1 u1 + · · · + α1 βm um + α2 v2 + · · · + αn vn .

Note que los todos los vectores u1 , · · · , um , v2 , · · · , vn están en U′ . Esto implica que v ∈ S(U′ ); por
tanto S(U) ⊂ S(U′ ).

d) De la parte b) anterior se tiene que S(U) ⊂ S(W). Sin embargo, para todo subespacio vectorial
W siempre se cumple que S(W) = W. Claramente si demostramos esta afirmación, entonces la
demostración de la parte d) sigue.
De la proposición 5.5 tenemos que W ⊂ S(W). Mostremos entonces que S(W) ⊂ W. Sea v ∈ S(W);
luego existen w1 , · · · , wr en W y β1 , · · · , βr en K tales que v = β1 w1 + · · · + βr wr . Por ser W
subespacio vectorial, las operaciones de adición y multiplicación por escalares son cerradas, ver
proposición 5.4, sigue por tanto que v ∈ W. Con lo cual S(W) ⊂ W.

De esta forma la demostración del teorema está completa.

Las partes c) y d) del teorema que acabamos de demostrar, tienen un importante significado. En
primer lugar, la parte c) dice que de un conjunto de vectores se puede extraer, si es que existe, la parte
superflua y continuar generando el mismo subespacio vectorial. Por otra parte, la propiedad d) establece
que el subespacio vectorial generado por un subconjunto no vacı́o es el menor de todos los subespacios
vectoriales que contienen tal subconjunto de vectores.
La siguiente propiedad es consecuencia inmediata del teorema anterior.
5.3. Subespacios vectoriales 25

Corolario 5.1. Sea V un espacio vectorial sobre K. Si los vectores v1 , · · · , vm ∈ V son tales que cada
uno de ellos es combinación lineal de u1 , · · · , uℓ ∈ V, entonces S({v1 , · · · , vm }) ⊂ S({u1 , · · · , uℓ }).

Demostración: Por hipótesis tenemos que {v1 , · · · , vm } ⊂ S({u1 , · · · , uℓ }), por tanto de la parte b)
del teorema 5.2 sigue que S({v1 , · · · , vm }) ⊂ S(S({u1 , · · · , uℓ })). Pero en la demostración de la parte
d) anterior, mostramos que el subespacio vectorial generado por un subespacio vectorial es este mismo
subespacio; en este caso tenemos que S(S({u1 , · · · , uℓ })) = S({u1 , · · · , uℓ }), de esta forma lo afirmado
en el enunciado del corolario se desprende.

Comentario 5.5. Para fines prácticos es importante resaltar la estrecha relación entre las nociones de
combinaciones lineales que venimos tratando y la de matrices equivalentes por filas.
Supongamos que tenemos dos matrices equivalentes por fila A, B ∈ Mm×n (K) cuyas filas son, respec-
tivamente, los vectores de Kn : A(1) , · · · , A(m) y B(1) , · · · , B(m) . Sean g1 , · · · , gs operaciones elementales
por filas tales que A = (gs ◦ · · · ◦ g1 )(B). Obviamente, B = (g1−1 ◦ · · · ◦ gs−1 )(A). Observe que al aplicar
sobre B la operación elemental por filas fj → fj + δfi (resp. fj → δfj , o fj ↔ fi ), entonces cada una de
las filas de la matriz resultante es combinación lineal de las filas de B; de hecho, la la fila j de esta matriz
resultante es B(j) +δB(i) (resp. δB(j) ó B(i) ). Por tanto, como A se obtiene de B mediante la aplicación de
un número finito de operaciones elementales por filas, entonces cada una de las filas de A es combinación
lineal de las filas de B; esto es, para todos los enteros j = 1, · · · , m se cumple A(j) ∈ S({B(1) , · · · , B(m) }).
Esto implica, ver corolario anterior, que S({A(1) , · · · , A(m) }) ⊂ S({B(1) , · · · , B(m) }). De la misma forma,
como B = g1−1 · · · gs−1 (A), entonces también es cierto que S({B(1) , · · · , B(m) }) ⊂ S({A(1) , · · · , A(m) });
por tanto S({A(1) , · · · , A(m) }) = S({B(1) , · · · , B(m) }). Con estos argumentos hemos demostrado:

Si A y B son matrices de orden m × n con coeficientes en K equivalentes por filas, entonces

S({A(1) , · · · , A(m) }) = S({B(1) , · · · , B(m) }),

donde A(1) , · · · , A(m) y B(1) , · · · , B(m) son las respectivas filas de A y B

En realidad el recı́proco de esta propiedad también es cierto; ver ejercicio propuesto 18 en la página 29.
Por tanto, la relación entre las nociones de operaciones elementales por filas y de combinación lineal se
expresa en el enunciado del siguiente teorema:

Teorema 5.3. Dos matrices A y B en Mm×n (K) son equivalentes por filas si, y sólamente si,

S({A(1) , · · · , A(m) }) = S({B(1) , · · · , B(m) }).

Podrı́amos afinar un poco más la relación establecida entre la equivalencia por filas de un par de
matrices cualesquiera de orden m × n con ceficientes en K. En efecto, no es difı́cil mostrar, haciendo uso
del teorema anterior, la siguiente propiedad.

Proposición 5.7. Si A, B son matrices en Mm×n (K) y B es una forma escalonada equivalente por filas
a la matriz A, entonces
S({A(1) , · · · , A(m) }) = S({B(1) , · · · , B(r) }),

donde B(1) , · · · , B(r) son las filas no nulas de la matriz B.

Demostración: Se dejan los detalles al lector.


26 5. Espacios Vectoriales.

Ejemplo 5.3. En R3 consideremos v1 = (1, 2, 1), v2 = (2, 0, −2), v3 = (3, 2, −1) y v4 = (2, −8, −10). Sea
1 2 1
 
 2 0 −2 
A= 3
; note que las filas de A están constituidas por los vectores v1 , v2 , v3 , v4 . Dado que
2 −1 
2 −8 −10

1 2 1 1 2 1 1 0 −1
     
f2 →f2 −2 f1  0 −4 −4  f2 →− 14 f2  0 1 1  0 1 1 
→f1 −2 f2
 −−−f−1−

A −−−−−−−−−−−→   0 −4 −4  −−−−−−→ 
  −−−−−−−→  ,
f3 → f3 − 3 f1 0 −4 −4  f3 → f3 + 4 f2
 0 0 0 
f4 → f4 − 2 f1 0 −12 −12 0 −12 −12 f4 → f4 + 12 f2 0 0 0

entonces el subespacio de R3 generado por los vectores v1 , v2 , v3 y v4 es igual al subespacio generado por
u1 = (1, 0, −1) y u2 = (0, 1, 1). Esto es, S({v1 , v2 , v3 , v4 }) = S({u1 , u2 }); observe que tal subespacio es el
plano de R3 que pasa por el origen y está orientado por los vectores u1 y u2 .

Otra interesante propiedad de los subespacios vectoriales, que a su vez está relacionada con la noción
de subespacio generado por un conjunto no vacı́o, es la siguiente:

Proposición 5.8. Sean V un espacio vectorial sobre K e I una colección\ cualquiera de ı́ndices (finito o
no). Si para cada i ∈ I, Ui es un subespacio de V, entonces la intersección Ui es también un subespacio
i∈I
de V.
\
Demostración: Dado que para cada i ∈ I, OV ∈ Ui , entonces OV ∈ Ui . Supongamos ahora que
i∈I
\
u, v ∈ Ui y α ∈ K son cualesquiera. Luego para cada i ∈ I se tiene que u, v ∈ Ui ; ahora, como
i∈I
cada uno de los conjuntos Ui , i ∈ I, es subespacio\de V, sigue\ de la proposición 5.3, ver página 14, que
u + αv ∈ Ui para todo i ∈ I, por tanto u + αv ∈ Ui ; ası́ Ui es subespacio vectorial de V.
i∈I i∈I

Comentario 5.6.

1. Hemos visto que el conjunto solución de cualquier sistema de ecuaciones lineales homogéneas es un
subespacio vectorial; también sabemos que un hiperplano pasando por el origen es un subespacio
vectorial; además, como un sistema de ecuaciones lineales se interpreta geométricamente como la
intersección de hiperplanos, entonces de la proposición anterior también se concluye que el conjunto
solución de cualquier sistema de ecuaciones lineales homogéneas es un subespacio vectorial.

2. En el teorema 5.2 mostramos que S(U) es el menor subespacio vectorial que contiene a U. Al
considerar HU como la colección de todos los subespacios vectoriales\
de V que contienen al conjunto
U, entonces de la proposición precedente se desprende que S(U ) = W . Dejamos la verificación
W ∈HU
de los detalles de esta afirmación al lector.

5.3.3. Ejercicios propuestos de la Sección 5.3


1. Decidir cuáles de los subconjuntos U son subespacios vectoriales del espacio vectorial V indicado:

a) V = R3 ; U = {(x, y, z) ∈ R3 : 2x + y − z = 0 y x + 3y − 2z = 1}.
b) V = R3 ; U = {(x, y, z) ∈ R3 : x + y = 0 y x + 3y − 2z = 0}.
5.3. Subespacios vectoriales 27

c) V = R3 ; U es la esfera unitaria en R3 ; esto es, U = S 2 = {(x, y, z) ∈ R3 : x2 + y 2 + z 2 = 1}.


d ) V = Rn ; U = {(x1 , · · · , xn ) ∈ Rn : xn ≥ 0}.
e) V = R3 ; U = {(x, y, z) ∈ R3 : x−2
2 = y − 1 y z = 0}.
f ) V = R2 ; U es el conjunto de todos los (x, y) ∈ R2 cuya segunda componente es un número
racional.
g) V = C2 como un R-espacio vectorial; U = R2 . ¿Qué puede decir si C2 es un C-espacio vectorial?
  
a11 a12
h) V = M2×2 (R); U = ∈ M2×2 (R) : 2a12 + 3a21 = 1 .
a21 a22
  
a11 a12
i ) V = M2×2 (R); U = ∈ M2×2 (R) : 2a12 + 3a21 = 0 .
a21 a22
    
a11 a12 1 0
j ) V = M2×2 (R); U = ∈ M2×2 (R) : AB = BA ; donde B = .
a21 a22 2 1
k ) V = Mn×n (K); U es el conjunto de todas las matrices triangulares, inferiores o superiores.
l) V = P2 (R); U es el conjunto de todas las funciones polinómicas de grado menor o igual a 2
cuyo término independiente es igual a 1.
m) V = P2 (R); U es el conjunto de todas las funciones polinómicas p : R → R de grado menor o
igual a 2, p(x) = ax2 + bx + c, tales que p(1) = 0.
n) V = P(R); U es el conjunto de todas las funciones polinomiales con coeficientes en R que
tienen grado igual a 2.
ñ) V = C 2 ([0, 1], R); U = {f ∈ V : sen tf ′′ (t) + et f ′ (t) = cos t, ∀ t ∈ [0, 1]}.
o) V = C 2 ([0, 1], R); U = {f ∈ V : sen tf ′′ (t) + et f ′ (t) = 0, ∀ t ∈ [0, 1]}.
R1
p) V = C([0, 1], R); U = {f ∈ V : 0 f (t) dt = 0}.
R1
q) V = C([0, 1], R); U = {f ∈ V : 0 f (t) dt ≥ 0}.

2. Demostrar que cada uno de los subconjuntos U de los espacios vectoriales V indicados son subes-
pacios vectoriales:

a) V = Rn ; U = {(x1 , · · · , xn ) ∈ Rn : x1 = 0}. ¿Ocurre lo mismo si los vectores de U son tales


que x1 = 1?
b) V = Mn×n (K); U es el conjunto de todas las matrices en V que son:
a) escalares; b) diagonales; c) triangulares inferiores; d) triangulares superiores.
c) V = Mn×n (C); U es el conjunto de todas las matrices en V que son:
a) antisimétricas (A = −At ); b) hermitianas, es decir A∗ = A;
siendo que A∗ = [bij ] es la matriz, conocida como la traspuesta conjugada de A, que se define
a partir de A = [aij ] como bij = aji , esto es, bij el conjugado de aij , para cada i, j = 1, · · · , n.
d ) V = Mn×n (K); U es el conjunto de todas las matrices de orden n × n con coeficientes en K
cuya traza es nula; siendo que:
Definición 5.5. Dada A = [aij ] ∈ Mn×n (K), se conoce como traza de A al escalar obtenido
por la suma de las entradas en la diagonal; esto es, tra(A) = a11 + a22 + · · · + ann .
28 5. Espacios Vectoriales.

e) V = F(R, R); U = {f ∈ V : f (−t) = f (t), ∀ t ∈ R}. Toda función f : R → R que satisfaga


f (−t) = f (t) para todo t ∈ R, se denomina función par.
f ) V = F(R, R); U = {f ∈ V : f (−t) = −f (t), ∀ t ∈ R}. Toda función f : R → R que satisfaga
f (−t) = −f (t) para todo t ∈ R, se denomina función impar.
g) V = F(R, R); U = {f ∈ V : f (t + α) = f (t), ∀ t ∈ R}; donde α > 0 es fijo.
h) V = F(R, R); U = {f ∈ V : f (h(t)) = f (t), ∀ t ∈ R}; donde h ∈ F(R, R) es fija. ¿Qué función
h hace que U sea el subespacio vectorial anterior?
i ) V = RN el espacio de todas las sucesiones con valores en R.
1) U el conjunto de todas las sucesiones en RN cuyo número de términos no nulos es finito.
2) U el conjunto de todas las sucesiones {an }n≥0 en RN tales que a2n = 0 para todo n ≥ 0.
3) U el conjunto de todas las sucesiones en RN que son acotadas. Una sucesión {an }n≥0 en
RN se dice acotada si existe M > 0 tal que |an | ≤ M para todo n ≥ 0.

3. Demostrar que en el espacio vectorial R los únicos subespacios son los triviales; esto es, el propio R
y W = {0}.

4. ¿Es (−3, 2, 1, −2) combinación lineal de (2, 1, 0, −1), (1, −1, 2, 1) y (0, −1, 3, 2)?
       
2 −2 1 1 0 0 1 0
5. ¿Es combinación lineal de , y ?
5 0 1 0 1 −1 0 1

6. Hallar, si es posible, los valores de t ∈ R tales que (1, −1, t) ∈ S({(3, 0, −2), (2, −1, 1)}).

7. Determine si existen valores de a, b ∈ R tales que (−2, 4, 4, 5) pertenezca al subespacio generado


por (1, 0, 1, 1), (1, a, 1, 0) y (−1, 1, b, 1)

8. Verificar que (1, 1 + i, 2i) está en el subespacio vectorial de C3 , como C-espacio vectorial, generado
por (1, 2, 1), (0, 1, 1) y (0, 0, 1). ¿Continúa siendo cierta la propiedad si se considera a C3 como un
R-espacio vectorial?

9. Dadas funciones f, f1 , f2 , f3 : R → R, decidir si f ∈ S({f1 , f2 , f3 }) en el espacio vectorial V dado.

a) f (x) = 2x2 + x − 1; f1 (x) = 2, f2 (x) = x + 1 y f3 (x) = −x + 2; V = P2 (R).


b) f (x) = 2x2 + x − 1; f1 (x) = 2, f2 (x) = 2x − 1 y f3 (x) = x2 + 1; V = P2 (R).
c) f (x) = sen(x); f1 (x) = − sen(x), f2 (x) = cos(x) y f3 (x) = ex ; V = F(R, R).
d ) f (x) = sen(x); f1 (x) = x + 1, f2 (x) = cos(x) y f3 (x) = e−2x ; V = F(R, R).

10. Considere el espacio vectorial RN de todas las sucesiones con valores en R. Para cada entero positivo
k, sea ek = (ek,n )n≥1 la sucesión cuyas entradas son nulas, excepta la ubicada en la posición k que
es igual a 1; esto es, ek,n = 0 si n 6= k y ek,n = 1 si n = k.

a) Verificar que la sucesión u = (un )n≥1 , donde un = 0 para todo n ≥ 10 es combinación lineal
de las sucesiones e1 , · · · , e10 .
b) Demostrar que S({ek : k ≥ 1}) es el conjunto de todas las sucesiones eventualmente nulas; que
son las sucesiones (un )n≥1 que a partir de una cierta entrada es nula, es decir, existe n0 ≥ 0
tal que un = 0 para todo n ≥ n0 .
c) Considere la sucesión u = (un )n≥1 , donde un = 0 para todo n par. ¿está u en S({ek : k ≥ 1})?
5.3. Subespacios vectoriales 29

11. Describa, en cada caso, el subespacio vectorial generado por los vectores indicados y el espacio
vectorial V dado.

a) v = (1, −1, −1) en V = R3 .


b) v1 = (1, 2, −1), v2 = (−2, −4, −2) en V = R3 .
c) v1 = (1, −1, 1), v2 = (0, 1, −2), v3 = (2, −1, 0) en V = R3 .
d ) v1 = (0, 1, −1), v2 = (2, −1, 1), v3 = (1, −1, 0) en V = R3 .
   
2 1 1 1
e) A1 = , A2 = en M2×2 (R).
0 −1 0 1
f ) f1 , f2 polinomios en P4 (R) dados por f1 (x) = 2 + x2 y f2 (x) = 1 − x4 .
g) f1 , f2 , · · · polinomios en P(R) dados por fk (x) = x2k para cada k ≥ 1 y cada x ∈ R.
h) v1 = (1, 1) y v2 = (0, 1) en V = C2 como un C-espacio vectorial.
i ) v1 = (1, 1) y v2 = (0, 1) en V = C2 como un R-espacio vectorial. ¿obtuvo el mismo conjunto
que en el item anterior? Explique.

12. En R2 considere los conjuntos G1 = {(x, y) : x ≥ 0, y = 0}, G2 = {(x, y) : x = 0, y ≥ 0} y


G3 = G1 ∪ G2 . Demostrar que: S(G1 ) = {(x, y) : y = 0}, S(G2 ) = {(x, y) : x = 0} y S(G3 ) = R2 .
¿Es cierta la igualdad S(G1 ∪ G2 ) = S(G1 ) ∪ S(G2 )?

13. En K3 determine, en cada caso, si S({u1 , u2 , u3 }) = S({v1 , v2 , v3 })

a) u1 = (1, 0, 1), u2 = (1, 1, 0), u3 = (2, 0, 0); y v1 = (1, 1, 1), v2 = (−1, 1, 0), v3 = (1, 0, 0).
b) u1 = (1, 2, 1), u2 = (1, 1, 2), u3 = (2, 1, 0); y v1 = (1, 1, 1), v2 = (−1, 1, 0), v3 = (0, 0, 0).

14. En R3 encontrar de tres pares de vectores no nulos u1 , u2 ; v1 , v2 y w1 , w2 tales que: u1 ∦ u2 ; v1 ∦ v2 ,


w1 ∦ w2 , S({u1 , u2 }) = S({v1 , v2 }) y S({u1 , u2 } 6= S({w1 , w2 }).

15. ¿Existen v1 , v2 , v3 ∈ R3 , no nulos, tales que S({v1 , v2 }) = S({v2 , v3 }) pero S({v1 , v2 }) 6= S({v1 , v3 })?
En caso afirmativo, muestre un ejemplo; de lo contrario, explique al razón de tal imposibilidad.

16. Sean A, B ∈ Mn×n (K) y C = AB. Demostrar que cada fila de C pertence a S({B(1) , · · · , B(n) };
mientras que cada columna de C está en S({A(1) , · · · , A(n) }. Recordar que B(j) denota la fila j de
B, y A(j) es la columna j de A.

17. Sean A, B ∈ Mm×n (K). Suponga que B es una forma escalonada equivalente por filas a la matriz A
y que en el proceso de escalonización no se intercambiaron filas. Demostrar que si B tiene 0 < r < m
filas nulas, demotrar que las últimas r filas de A pertencen a S({A(1) , · · · , A(m−r) }).
¿Qué ocurre si en el proceso de escalonización para obtener a B se emplean operaciones elementales
por filas que intercambien filas?; esto es, ¿qué filas de A se escriben como combinación lineal de las
otras?

18. Sean A, B ∈ Mm×n (K). Si A(1) , · · · , A(m) y B(1) , · · · , B(m) son las filas de A y B respectivamente,
y S({A(1) , · · · , A(m) }) = S({B(1) , · · · , B(m) }), entonces A y B son equivalentes por filas.

19. Sean A, B ∈ Mm×n (K) equivalentes por filas, si B es una forma escalonada de A, entonces
S({A(1) , · · · , A(m) }) = S({B(1) , · · · , B(r) }), siendo B(1) , · · · , B(r) las filas no nulas de B

20. Sean K-espacio vectorial V y vectores v1 , · · · , vr vectores en V. Demostrar:


30 5. Espacios Vectoriales.

a) Si λ1 , · · · , λr ∈ K son no nulos, entonces S({v1 , · · · , vr }) = S({λ1 v1 , · · · , λr vr }).


b) Si u ∈ S({v1 , · · · , vr }), entonces S({v1 , · · · , vr }) = S({u, v1 , · · · , vr }).
c) Si uno de los vectores de v1 , · · · , vr es combinación lineal de los restantes, por ejemplo que vj
sea combinación lineal de v1 , · · · , vj−1 , vj+1 , · · · , vr , entonces

S({v1 , · · · , vr }) = S({v1 , · · · , vj−1 , vj+1 , · · · , vr }).

21. Determinar un conjunto generador de los espacios solución de cada uno de los sistemas de ecuaciones
lineales homogéneos que se indican:
 
 2x + y − z + 2w = 0  ix + y + z = 0
a) x − 2y − w = 0 ; en R4 . b) x − 2iy − z = 0 ; en C3 .
3y + z + 4w = 0 −y + (−1 + i)z = 0
 

22. En Rn considere el producto interno h, i usual. Dado cualquier conjunto W no vacı́o en Rn ; se define
el complemento ortogonal de W , el cual se denota por W ⊥ , como el conjunto

W ⊥ = {(x1 , · · · , xn ) ∈ Rn : h(x1 , · · · , xn ), wi = 0 para todo w ∈ W }.

a) Determine W ⊥ en cada uno de los casos que se indican:


1) W = {(1, 2, −1)} 2) W = {(1, 1, 1), (0, −2, 1)}
3) W = {(x, y, z) ∈ R3 : 2x − y + 2z = 1} 4) W igual al origen, y W igual a R3
b) Demostrar que W ⊥ es un subespacio vectorial de Rn , y W ⊥⊥ = S(W ).

c) {0}⊥ = Rn y (Rn ) = {0}.

23. Mediante un ejemplo, muestre que la siguiente proposición es falsa:


Sea V un espacio vectorial sobre K. Si U y W son subespacios de V, entonces U ∪ W es también
un subespacio de V.
Demuestre que la unión de dos subespacios es también subespacio si, y sólo si, uno de ellos está con-
tenido en el otro.

24. Sean V un espacio vectorial sobre K y U un subconjunto no vacı́o de V. Si HU denota la colección


\ de
todos los subespacios vectoriales de V que contienen al conjunto U , demostrar que S(U ) = W.
W ∈HU
En los siguientes ejercicios presentamos algunos ejemplos y propiedades propiedades generales de
una clase especial de conjuntos no vacı́os en espacios vectoriales reales, se trata de los conjuntos
convexos.

Definición 5.6. Sea V un espacio vectorial sobre R. Dados dos vectores cualesquiera u, v ∈ V
(u 6= v), se denomina segmento de recta con extremos u y v al conjunto

[u, v] = {(1 − α)u + αv : α ∈ [0, 1]}.

Un subconjunto no vacı́o C de V se dice convexo si para todo u, v ∈ C, con u 6= v, se tiene [u, v] ⊂ C.


Geométricamente, un subconjunto C de un espacio vectorial V es convexo si para cualquier par de
sus puntos, el segmento de recta que los une está contenido en C. Por conveniencia se asume que
el conjunto vacı́o es un conjunto convexo.
5.3. Subespacios vectoriales 31

u v
(1 − α)u + αv

segmento [u, v]
Conjunto convexo Conjunto no convexo

25. Verificar que cada uno de los conjuntos que a continuación se muestran son conjuntos convexos:

a) Cualquier subconjunto unitario {u} ⊂ V. ¿Es convexo un subconjunto finito con más de un
vector? ¿Es convexo el propio espacio vectorial V?
b) {(x, y) ∈ R2 : 0 ≤ x ≤ 1, y y = 0}.
c) Dadas constantes reales a, b, c con a2 + b2 > 0; los semiplanos cerrados de R2

{(x, y) ∈ R2 : ax + by ≤ c} y {(x, y) ∈ R2 : ax + by ≥ c}

Igualmente los semiplanos abiertos:

{(x, y) ∈ R2 : ax + by < c} y {(x, y) ∈ R2 : ax + by > c}.

En general, para Rn (n ≥ 2) los semihiperplanos cerrados:

{(x1 , · · · , xn ) ∈ Rn : a1 x1 + · · · + an xn ≤ b} y {(x1 , · · · , xn ) ∈ Rn : a1 x1 + · · · + an xn ≥ b};

también los semihiperplanos abiertos:

{(x1 , · · · , xn ) ∈ Rn : a1 x1 + · · · + an xn < b} y {(x1 , · · · , xn ) ∈ Rn : a1 x1 + · · · + an xn > b};

donde a1 , · · · , an , b son constantes reales y al menos una de las a’s es diferente de 0. Igualmente
son conjuntos convexos todos los hiperplanos de Rn ; estos son los conjuntos de la forma

{(x1 , · · · , xn ) ∈ Rn : a1 x1 + · · · + an xn = b},

donde a1 , · · · , an , b son como arriba.

26. Dada\
cualquier colección {Ci }i∈I de conjunto convexos en el espacio vectorial V, demostrar que
C= Ci es también convexo; acá I es un conjunto arbitrario de ı́ndices.
i∈I

27. Demostrar que el conjunto de puntos (x, y) ∈ R2 que satiafacen el sistema de inecuaciones lineales

 a1 x + b1 y ≥ c1

.. es un conjunto convexo de R2 .
 .
am x + bm y ≥ cm

28. Demostrar que el disco unitario D = {(x, y) ∈ R2 : x2 + y 2 ≤ 1} es un conjunto convexo. ¿Es el


cı́rculo unitario S 1 = {(x, y) ∈ R2 : x2 + y 2 = 1} convexo?
32 5. Espacios Vectoriales.

5.4. Independencia y dependencia lineal


En diferentes situaciones de común ocurrencia en problemas propios del Álgebra Lineal, ası́ como en
otras áreas de la Matemática y otras ciencias donde los modelos lineales hacen aparición, es necesario
optimizar el número de vectores que generan determinados subespacios de ciertos espacios vectoriales.
Este aspecto, entre otros, trae consigo los fundamentales conceptos de independencia y dependencia lineal
de vectores que estudiaremos a continuación.

Definición 5.7. Sea V un espacio vectorial sobre K. Un subconjunto no vacı́o U de V se dice:

(a) linealmente independiente (abreviadamente LI) si el vector nulo de V, OV , no puede escribirse como
combinación lineal no trivial 5 de vectores en U .

(b) linealmente dependiente (abreviadamente LD) si U no es linealmente independiente; esto es, el


vector nulo de V, OV , se puede escribir como combinación lineal no trivial de vectores en U .

Cuando el conjunto U es finito, digamos U = {u1 , · · · , un }, decimos que los vectores u1 , · · · , un son
linealmente independientes (resp. linealmente dependientes) si U es linealmente independiente (resp.
linealmente dependiente).

Comentario 5.7. Observe que la independencia lineal es la negación de la dependencia lineal y viceversa;
esto es, un conjunto U en V no es LI si, y sólo si, LD. Consecuentemente, dado cualquier conjunto U en
el espacio vectorial V, se tiene que U o es LI, o bien es LD.
Cada una de las propiedades que se listan a continuación son consecuencias de las definiciones de
independencia y dependencia lineal en cualquier espacio vectorial V sobre K:

1. Todo subconjunto U de V que contenga a OV es LD.

Demostración: Sea U un subconjunto de V tal que OV ∈ U . Dado que OV = 1 · OV , entonces U


es LD pues se ha escrito a OV como combinación lineal no trivial de vectores en U .

2. Un subconjunto unitario U = {u} de V es LI si, y sólo si, u 6= OV .

Demostración: Obviamente de la propiedad anterior sigue que si v es LI, entonces v 6= OV .


Recı́procamente, si suponemos que αu = OV , entonces, como sabemos, α = 0 ó u = OV ; pero lo
segundo no es cierto, de manera que α = 0; por tanto es imposible escribir a OV como combinación
lineal no trivial de u.

Un subconjunto no vacı́o U de V es LI si, y sólo si, para cualquier colección


finita u1 , · · · , un en U se cumple:
3.
α1 u1 + · · · + αn un = OV =⇒ α1 = · · · = αn = 0. (5.8)

Demostración: Sean u1 , · · · , un vectores cualesquiera en U . Supongamos que no se cumple (5.8);


es decir, se tiene α1 u1 + · · · + αn un = OV pero algunos de los escalares α1 , · · · , αn es distinto de 0;
esto significa que hemos escrito a OV como combinación no trivial de vectores en U ; por lo que U
es LD. Recı́procamente, supongamos que para cualquier colección finita u1 , · · · , un en U se cumple
5 Una combinación lineal α1 u1 + · · · + αn un se dice trivial si los escalares α1 , · · · , αn en K son todos iguales a 0
5.4. Independencia y dependencia lineal 33

(5.8), veamos que U es LI. Por el absurdo supongamos que U es LD, entonces OV se puede escribir
como combinación lineal no trivial de vectores en U ; esto es, existen vectores u1 , · · · , un en U y
α1 , · · · , αn escalares en K no todos nulos tales que α1 u1 + · · · + αn un = OV ; que es justamente la
negación de la condicional (5.8).

Un subconjunto no vacı́o U de V es LD si, y sólo si, existe una colección finita


4. de vectores u1 , · · · , un en U tal que uno de tales vectores es combinación lineal
de los restantes.

Demostración: Se deja como ejercicio para el lector.

5. Sea U un conjunto LI. Si W es no vacı́o y W ⊂ U , entonces W es LI.

Demostración: Note que si W no es LI, por tanto LD, entonces existen vectores w1 , · · · , wm ∈ W
y escalares β1 , · · · , βm no todos nulos tales que β1 w1 + · · · + βm wm = OV . Luego en U (W ⊂ U ) hay
una colección finita de vectores mediante la cual el vector nulo OV se escribe como una combinación
lineal no trivial de tales vectores; es decir, U es LD; lo cual es una contradicción y ası́ W es LI.

6. Si U es un subconjunto LD de V y U ⊂ W , entonces W es también LD.

Demostración: Se deja como ejercicio para el lector.

Ejemplo 5.4.

1. En Kn los vectores canónicos E1 , · · · , En son linealmente independientes; de hecho la ecuación


vectorial
α1 E1 + · · · + αn En = (0, · · · , 0)
implica que α1 = · · · = αn = 0, pues α1 E1 + · · · + αn En = (α1 , · · · , αn ).

2. En Mm×n (K), el conjunto de las matrices canónicas Eij , i = 1, · · · , m y j = 1, · · · , n, son linealmente


independientes. En efecto, si suponemos que
m X
X n
α11 E11 + · · · + α1n E1n + · · · + αm1 Em1 + · · · + αmn Emn = αij Eij = Om×n ,
i=1 j=1

α11 ··· α1n


 
m X
X n  α21 ··· α2n 
entonces αij = 0 para cada i = 1, · · · , m y j = 1, · · · , n; pues αij Eij =  .
 
.. .. ..
i=1 j=1
 . . . 
αm1 · · · αmn
Recuerde que Eij (i = 1, · · · , m y j = 1, · · · , n) es la matriz que tiene el dı́gito 1 en su entrada
definida por la fila i y la columna j.

3. En Pn (R) las funciones polinómicas f0 , f1 , · · · , fn : R → R definidas, para cada x ∈ R, por:

f0 (x) = 1, f1 (x) = x, · · · , fn (x) = xn ,

son linealmente independientes. Consideremos la ecuación polinomial α0 f0 + α1 f1 + · · · + αn fn = o,


donde α0 , α1 , · · · , αn son números reales y o : R → R es la función nula (vector nulo de Pn (R)).
34 5. Espacios Vectoriales.

Para verificar la independencia lineal de las funciones consideradas, debemos de concluir que los
escalares α0 , α1 , · · · , αn deben ser todos iguales a 0.
Ahora bien, de la anterior ecuación polinomial tenemos que α0 + α1 x + · · · + αn xn = 0 para todo
x ∈ R. ¿Cómo demostrar que estos escalares son iguales a cero? Sabemos que para cada m ≥ 1, la
derivada m-ésima de xm es igual a m! 6 ; mientras que la derivada m-ésima de xj es igual a cero
para cada entero positivo 0 ≤ j ≤ m − 1. Por tanto si derivamos la anterior igualdad n veces,
tenemos n!αn = 0, pero n! 6= 0, por lo que αn = 0. Luego la ecuación de arriba se reduce a
α0 + α1 x + · · · + αn−1 xn−1 = 0 para cada x ∈ R. Repitiendo el mismo argumento n − 1 veces
tendremos que αn = αn−1 = · · · = α1 = 0 y la ecuación reducida a α0 = 0. Con cual hemos
verificado que las funciones polinomiales canónica de Pn (R) son linealmente independientes.

4. Sean v1 = (1, 2, 2), v2 = (−1, 3, 0), v3 = (1, 7, 4) en R3 , veamos si tales vectores son o no linealmente
independientes. Para ello necesitamos estudiar la ecuación vectorial

α(1, 2, 2) + β(−1, 3, 0) + λ(1, 7, 4) = (0, 0, 0).

Es claro que estudiar las soluciones


 de esta ecuación vectorial equivale al estudio de las soluciones
 α−β+λ=0
del sistema lineal homogéneo 2α + 3β + 7λ = 0 . Determinemos entonces el rango de la matriz
2α + 4λ = 0

del sistema, el cual nos permitirá concluir si el sistema tiene soluciones distintas de la trivial.
     
1 −1 1 1 −1 1 1 −1 1
f2 →f2 −2 f1 f3 →f3 − 52 f2
 2 3 7  −−−−−−−−→  0 5 5  −−−−−−−−→  0 5 5 .
f3 →f3 −2 f1
2 0 4 0 2 2 0 0 0

De esta forma tenemos que el rango de la matriz del sistema es 2, que es menor al número de
incógnitas, que es igual a 3; por tanto el sistema tiene soluciones distintas a la solución trivial; es
decir, existen escalares α, β, λ no todos nulos tales que α(1, 2, 2) + β(−1, 3, 0) + λ(1, 7, 4) = (0, 0, 0).
Luego los vectores v1 , v2 , v3 son linealmente dependientes.

5. Veamos ahora que u1 = (1, 2, 1), u2 = (2, −1, 3), u3 = (1, −1, 2) son linealmente independientes. Al
igual que en ejemplo anterior, después de plantearnos la ecuación vectorial

α(1, 2, 1) + β(2, −1, 3) + λ(1, −1, 2) = (0, 0, 0),



 α + 2β + λ = 0
el problema se reduce a estudiar el sistema lineal homogéneo 2α − β − λ = 0 . Determinemos
α + 3β + 2λ = 0

por tanto el rango de la matriz de este sistema (el sı́mbolo ∼ corresponde en cada caso a apropiadas
operaciones elementales por filas).
       
1 2 1 1 2 1 1 2 1 1 2 1
 2 −1 −1  ∼  0 −5 −3  ∼  0 1 1  ∼  0 1 1 .
1 3 2 0 1 1 0 −5 −3 0 0 2

Dado que el rango de la matriz del sistema y el número de incognitas del sistema son iguales,
entonces el sistema tiene solución única: la trivial, que es α = β = λ = 0. Por tanto los vectores
u1 , u2 , u3 son linealmente independientes.
6 Dado un entero positivo m, se denota por m! al entero m(m − 1) · · · 2, el cual es conocido como el factorial de m
5.4. Independencia y dependencia lineal 35

6. El paralelismo de vectores en Rn es un caso particular de dependencia lineal. Recordemos que dos


vectores no nulos de Rn , u = (a1 , · · · , an ) y v = (b1 , · · · , bn ) son paralelos si existe α 6= 0 en R tal
que u = αv. Obviamente de aca sigue que 1u + (−α)v = (0, · · · , 0), por lo que u y v son linealmente
dependientes. Esta noción de paralelismo en Rn se extiende al cualquier espacio vectorial, de hecho:
Definición 5.8. Dos vectores no nulos u, v en un espacio vectorial V sobre K se dicen paralelos si
existe un escalar α 6= 0 en K tal que u = αv.

Con esta noción general de paralelismo se demuestra, muy fácilmente, que si dos vectores u, v en
un espacio vectorial V sobre K son paralelos, entonces son linealmente dependientes. Aún más, se
puede demostrar que dos vectores no nulos u, v ∈ V son linealmente independientes si, y sólo si, no
son paralelos. Se dejan los detalles al lector.
7. Hasta ahora hemos mostrado ejemplos de conjuntos finitos de vectores LI; sin embargo, existen
espacios vectoriales en los cuales existen subconjuntos con una cantidad infinita de vectores que son
LI. Veamos algunos de tales ejemplos.
a) Consideremos el espacio vectorial P(R) de todas las funciones polinómicas. Del ejemplo 3
anterior sabemos que el conjunto de funciones polinómicas Sn = {f0 , f1 , · · · , fn } es LI en
Pn (R); claramente esto implica que Sn es LI en P(R) sin importar el valor del entero n.
Haciendo uso de estos argumentos se demuestra de forma muy simple que el conjunto infinito
S = {fn : n ≥ 0} es LI en P(R).
(
1 si n = k
b) El conjunto de sucesiones C = {ek = (ek,n )n≥0 : k ≥ 1}, donde ek,n = , es LI
0 si n 6= k
en el espacio vectorial RN de todas las sucesiones con valores en R, ver ejercicio propuesto 10
en la página 28. Note que C es un conjunto infinito: para cada par de enteros no negativos j, k
con j 6= k se tiene que ej 6= ek . Dejamos los detalles al lector.

5.4.1. Sobre la independencia lineal en Kn


Dedicaremos un apartado especial al análisis de la independencia lineal en el espacio vectorial Kn
sobre K, con las operaciones de adición y multiplicación por escalares usuales. Consideremos por tanto
una colección finita cualquiera de vectores en Kn , digamos:
v1 = (a11 , a21 , · · · , an1 ), v2 = (a12 , a22 , · · · , an2 ), · · · , vm = (a1m , a2m , · · · , anm ).
Para realizar el análisis de la independencia lineal de los vectores v1 , · · · , vm emplearemos dos estrategias,
que aunque luzcan diferentes, esencialmente son iguales.

• Estrategia 1 (Sistemas de ecuaciones lineales):


Como bien es conocido, tal colección de vectores es LD si, y sólo si, existen escalares α1 , α2 , · · · , αm
en K, no todos nulos, tales que:
α1 (a11 , a21 , · · · , an1 ) + α2 (a12 , a22 , · · · , an2 ) + · · · + αm (a1m , a2m , · · · , anm ) = (0, · · · , 0). (5.9)
Claramente esto equivale a decir que el sistema de ecuaciones lineales homogéneo
a11 α1 + a12 α2 + · · · + a1m αm = 0



 a21 α1 + a22 α2 + · · · + a2m αm = 0

.. (5.10)


 .

an1 α1 + an2 α2 + · · · + anm αm = 0
36 5. Espacios Vectoriales.

adimite soluciones diferentes de la trivial. Haciendo uso del teorema de Rouché-Frobenius, tenemos que el
anterior sistema de ecuaciones lineales homogéneo admite soluciones distinta de la solución nula si, y sólo
a11 a12 · · · a1m
 
 a21 a22 · · · a2m 
si, el rango de la matriz del sistema, A =  . .. , es menor que el número de incógnitas,
 
.. ..
 .. . . . 
an1 an2 · · · anm
que en este caso es m, pues son m los vectores a los que le estamos estudiando su independencia lineal.
Note que las columnas de esta matriz son justamente los vectores dados.
Ejemplo 5.5. En R4 consideremos los vectores v1 = (1, −1, 0, 1), v2 = (2, 0, 1, 0) y v3 = (0, 1, 1, 0).
1 2 0
 
 −1 0 1 
Siguiendo los argumentos expuestos debemos estimar el rango de la matriz A = 
 0 1
. Veamos:
1 
1 0 0

1 2 0 1 2 0 1 2 0
     
f2 →f2 +f1  0 2 1  f3 →f3 − 21 f2  0 2 1  f4 →f4 −2 f3  0 2 1 
A −−−−−−−→  −−−−−−−−→  1 −
 −−−−−−−→ 
1 ;

f4 →f4 −f1  0 1 1  f4 →f4 +f2  0 0  0 0
2 2
0 −2 0 0 0 1 0 0 0
de acá que A tiene rango 3, número que coincide con el número de incógnitas del sistema correspondiente
al planteamiento del análisis de la dependencia o independencia lineal de tales vectores, tal y como se
expuso arriba. De esta forma, los vectores v1 , v2 , v3 son LI.
Si en lugar de v1 , v2 y v3 consideramos los vectores v1 , v2 y u3 = (0, 2, 1, −2), entonces mediante el
mismo procedimiento, se concluye que los vectores v1 , v2 y u3 son LD. En efecto, dado que
1 2 0 1 2 0 1 2 0 1 2 0
       
 −1 0 2  f2 →f2 +f1  0 2 2  f2 ←→f3  0 1 1  f3 →f3 − f2  0 1 1 
 − −−−−−−→  − −−−−→   −− −−−−−−→  ,
 0 1 1  f4 →f4 −f1  0 1 1   0 2 2  f4 →f4 +2 f2  0 0 0 
1 0 −2 0 −2 −2 0 −2 −2 0 0 0

1 2 0
 
 −1 0 2 
entonces rg 
 0
 = 2; por tanto v1 , v2 y u3 son LD.
1 1 
1 0 −2
Comentario 5.8. Es importante recordar que el rango de una matriz A ∈ Mn×m (K) siempre satisface
rg(A) ≤ mı́n{m, n}; esto es, rg(A) nunca excede al menor número de filas y columnas de A); por otra
parte, del teorema de Rouché-Frobenius se desprende que si un sistema de ecuaciones lineales homogéneas
AX = O, con A ∈ Mn×m (K), tiene más incógnitas que ecuaciones; es decir m > n, entonces tal sistema
de ecuaciones lineales tiene infinitas soluciones. Estas observaciones implican la siguiente afirmación:
cualquier subconjunto en Kn con más de n vectores, es un conjunto LD;
esto sigue del hecho que el sistema de ecuaciones lineales homogéneas correspondiente al planteamiento
del análisis de la dependencia o independencia lineal, ver (5.10), tiene más incógnitas que ecuaciones.

• Estrategia 2 (Operaciones elementales por filas):


Como vimos en la anterior estrategia, las operaciones elementales por fila juegan un especial papel
en la determinanción de la dependencia o independencia lineal de un conjunto finito de vectores en Kn .
5.4. Independencia y dependencia lineal 37

En ese procedimiento ubicamos los vectores dados como las filas de una matriz cuyo rango es estimado.
Ahora procederemos ubicando los vectores como filas de una matriz; para decidir sobre la dependencia o
independencia lineal de tales filas emplearemos el siguiente lema.

Lema 5.1. Dada A ∈ Mm×n (K). Entonces las filas A(1) , · · · , A(m) de A son vectores LD en Kn si, y
sólo si, rg(A) < m.

Demostración: Supongamos que las filas de A son LD como vectores de Kn ; esto es, una de ellas es
combinación lineal de las otras. Observe que si una de las filas de A es nula, no hay nada que demostrar
pues el proceso de escalonamiento se le aplica a la parte no nula de A colocando en las últimas filas las
no nulas. Supongamos por tanto que las filas de A son nulas, y sin perder generalidad, que la última fila
A(m) es combinación lineal de las restantes; es decir, existen ı́ndices 1 ≤ i1 < · · · < is < m y escalares no
nulos α1 , · · · , αs en K tales que
A(m) = α1 A(i1 ) + · · · + αs A(is ) .

Al aplicar sobre A la secuencia de las s operaciones elementales por filas:

fm → fm − α1 fi1 , fm → fm − α2 fi2 , · · · , fm → fm − αs fis ;

la matriz B obtenida tiene como última fila a A(m) − α1 A(i1 ) − · · · − αs A(is ) , que es nula por hipótesis.
Por tanto cualquier forma escalonada equivalente por filas a A tiene al menos una fila nula, este significa
claramente que rg(A) < m.
Supongamos ahora que rg(A) < m. Si alguna fila de A es nula, entonces A(1) , · · · , A(m) son LD;
recuerde que todo conjunto de vectores que contenga al vector nulo siempre es LD. Asumiremos entonces
que todas las filas de A son no nulas. Sea B una forma escalonada equivalente por filas a A. Dado que
rg(A) < m, B tiene por lo menos la última fila nula. Esto significa que, salvo intercambio de filas, hay
una fila en A, digamos A(j) , que al aplicarle una secuencia finita de operaciones elementales por filas

fj → fj − α1 fi1 , fj → fj − α2 fi2 , · · · , fj → fj − αs fis ;

con αk 6= 0 y ik 6= i para todo k = 1, · · · , s, tal fila se anula. Observe que la fila resultante al aplicar tal
secuencia de operaciones elementales por filas es A(j) − α1 A(i1 ) − · · · − αs A(is ) , la cual hemos dicho que
es nula, es decir A(j) = α1 A(i1 ) + · · · + αs A(is ) . Esto claramente implica que las filas de A son LD.

De esta forma al considerar m vectores cualesquiera de Kn , digamos:

v1 = (a11 , a12 , · · · , a1n ), v2 = (a21 , a22 , · · · , a2n ), · · · , vm = (am1 , am2 , · · · , amn ),

a11 a12 ··· a1n


 
 a21 a22 ··· a2n 
y la matriz A =  . ..  cuyas filas tales vectores, entonces v1 , v2 , · · · , vm son LD si,
 
.. ..
 .. . . . 
am1 am2 · · · amn
y sólamente si rg(A) < m; o equivalentemente, v1 , v2 , · · · , vm son LI si, y sólamente si rg(A) = m.
Adicionalmente supongamos que B es una matriz escalonada equivalente por filas a A. Si rg(A) = r,
entonces B tiene exactamente r filas no nulas (las primeras). Por tanto, haciendo uso de la proposición
5.7 tenemos que el espacio generado por v1 , · · · , vm es igual al espacio generado por las filas no nulas de
B (consideradas éstas como vectores de Kn ); pero ocurre algo bien interesante, es que las filas no nulas
de B son LI.
38 5. Espacios Vectoriales.

Ejemplo 5.6. En R4 consideremos lo vectores:

v1 = (1, 1, 1, −1), v2 = (2, 2, 2, −2), v3 = (1, 2, 1, 0) y v4 = (−2, −3, −2, 1);

deseamos saber si son LD; y además encontrar un conjunto LI que genere el mismo subespacio vectorial
que ellos generan. Siguiendo la estrategia 2, construimos una matriz cuyas filas son los vectores dados
y luego procedemos a encontrar una forma escalonada equivalente por filas a tal matriz. Ası́ pues, sea
1 1 1 −1
 
 2 2 2 −2 
A=  1
; observe que cada fila corresponde a uno de los vectores dados. Como:
2 1 0 
−2 −3 −2 1

1 1 1 −1 1 1 1 −1 1 1 1 −1
     
f2 →f2 −2 f1  0 0 0 0  f2 ←→f3  0 1 0 1  f4 →f4 +f2  0 1 0 1 
A −−−−−−−−−−−→   0
− −−−−→  −−−−−−−→  ,
f3 → f3 − f1 1 0 1   0 0 0 0   0 0 0 0 
f4 → f4 + 2 f1 0 −1 0 −1 0 −1 0 −1 0 0 0 0

entonces rg(A) = 2, por lo que los vectores v1 , v2 , v3 , v4 son LD; además, dado que las filas no nulas de
la forma escalonada obtenida son v1 = (1, 1, 1, −1) y v3 = (0, 1, 0, 1), se tiene que el subespacio de R4
generado por v1 , v2 , v3 y v4 , S({v1 , v2 , v3 , v4 }), es exactamente igual al subespacio S({v1 , v3 }).

Cerramos esta sección con el siguiente comentario.

Comentario 5.9. Bien es conocido que dada cualquier matriz A ∈ Mm×n (K), el conjunto solución del
sistema de ecuaciones lineales homogéneo AX = O es un subespacio vectorial de Kn (o de Mn×1 (K)). La
forma para encontrar un conjunto de vectores generadores (la solución general de AX = O) de obtiene
mediante el conocido método de Gauss; que no es otra cosa que encontrar un conjunto de soluciones
particulares (y especiales) de un sistema escalonado equivalente al dado. Recordemos como es que funciona
este método.
Supongamos que A tiene rango rg(A) = r < m; note que si r = m, la única solución de AX = O es
la trivial; por tanto el conjunto solución deeste sistema es el trivial. Supongamos que la forma canónica

1 0 ··· 0 0 c1,r+1 c1,r+2 ··· c1n
 0 1 ··· 0 0 c2,r+1 c2,r+2 ··· c2n 
 
 . . .
 .. .. . . ... ... .. .. .. 
 . . . 

 0 0 · · · 1 0 cr−1,r+1 cr−1,r+2 · · · cr−1,n 
 
de Gauss-Jordan de A es la matriz C =   . En
 0 0 ··· 0 1 cr,r+1 cr,r+2 ··· crn 
 
 0 0 ··· 0 0 0 0 ··· 0 
 .. .. .. .. .. .. ..
 

 . . . . . . . 
0 0 ··· 0 0 0 0 ··· 0
general la forma canónica de Gauss-Jordan de una matriz dada no tiene porque tener en sus primeras r
columnas las que aparecen en la matriz de arriba; sin embargo queremos señalar que el haberla supuesto de
la forma como lo hicimos no resta generalidad, pues bastarı́a con renombrar apropiadamente las variables
del sistema para que la forma canónica de Gauss-Jordan sea de la forma que hemos considerado; esto
justamente equivale a intercambiar algunas columnas de la matriz en cuestión.
Ahora bien, como el rango de A es r, el sistema tiene n − r incógnitas o variables libres; en este caso
son las variables que corresponden a las columnas donde no están los pivotes de C: xr+1 , · · · , xn . Al
asignarle los valores canónicos a tales variables libres, tal y como se muestra en el siguiente cuadro
5.4. Independencia y dependencia lineal 39

xr+1 xr+2 ··· xn


1 0 ··· 0
0 1 ··· 0
.. .. .. ..
. . . .
0 0 ··· 1
se obtienen las siguientes n − r soluciones (soluciones básicas) de AX = O:
     
−c1,r+1 −c1,r+2 −c1n
 ..   ..   .. 

 . 


 . 

 .



 −c   −c   −c 
 r,r+1   r,r+2   rn 
1 0  0
     
S1 =   , S2 =   , · · · , Sn−r =  ,
    
 0   1   0 
.. ..  ..
     
    

 . 


 . 

 .



 0   0   0 
0 0 1

de manera que cualquier solución de AX = 0 es escrita como combinación lineal de estas soluciónes
básicas; es decir, el conjunto S1 , · · · , Sn−r generan al espacio solución del sistema. En adición a esta
conocida propiedad, es simple verificar que S1 , · · · , Sn−r son LI; esto sigue del hecho que las últimas n − r
componentes de tales soluciones constituyen los vectores canónicos. Ası́, {S1 , · · · , Sn−r } es un conjunto
generador y linealmente independiente del espacio solución del sistema de ecuaciones lineales homogéneo
AX = 0.

5.4.2. Ejercicios propuestos de la Sección 5.4


1. Determine la dependencia o independencia lineal de cada uno de los conjuntos que se muestran a
continuación:

a) En R3 dotado de la estructura vectorial usual:


1) {v1 , v2 , v3 } con v1 = (2, 1, 0), v2 = (−1, 1, 1) y v3 = (2, 1, 1).
2) {v1 , v2 , v3 } con v1 = (2, 1, 0), v2 = (−1, 0, 1) y v3 = (0, 1, 1).
3) {v1 , v2 , v3 , v4 } con v1 = (2, 1, 0), v2 = (−1, 0, 1), v3 = (0, 1, 1) y v4 = (1, 1, 1).
b) En C2 dotado de la estructura vectorial sobre C usual:
1) {v1 } con v1 = (2 + i, 1).
2) {v1 , v2 } con v1 = (2, 1 + i), v2 = (2i, −1 + i).
3) {v1 , v2 } con v1 = (2, 1 + i), v2 = (−2i, −1 + i).
4) {v1 , v2 , v3 , v4 } con v1 = (2, 1), v2 = (−1, 0), v3 = (0, i) y v4 = (1 − i, 1 + i).
c) Las mismas colecciones de vectores del ejercicio anterior pero ahora considerando a C2 con la
estructura vectorial sobre R.
d ) En M2×2 (R) con la estructura usual de espacio vectorial:
   
2 1 −4 −2
1) {A1 , A2 } donde A1 = y A2 = .
0 −1 0 2
   
2 1 −4 −2
2) {A1 , A2 } donde A1 = y A2 = .
0 −1 1 2
40 5. Espacios Vectoriales.

     
0 1 1 −2 1 1
3) {A1 , A2 , A3 } donde A1 = , A2 = y A3 = .
0 −1 1 2 1 −1
     
0 1 1 −2 1 0
4) {A1 , A2 , A3 } donde A1 = , A2 = y A3 = . ¿Puede notar
0 −1 1 2 1 0
alguna diferencia con el ejercicio anterior?
e) En P2 (R) con estructura vectorial usual:
1) {p1 , p2 } donde p1 (x) = 1 y p2 (x) = 1 − x2 , para cada x ∈ R.
2) {p1 , p2 , p3 } donde p1 (x) = −2, p2 (x) = 1 + x2 y p3 (x) = x + x2 , para cada x ∈ R.
f ) En F([0, π], R) con estructura vectorial usual:
1) {f1 , f2 } donde f1 (x) = sen x y f2 (x) = cos x, para cada x ∈ [0, π].
2) {f1 , f2 , f3 } donde f1 (x) = −2, f2 (x) = 1 + cos 2x y f3 (x) = −1 + 2 cos2 x, para cada
x ∈ [0, π].
3) {fn : n ≥ 0} donde cada fn (x) = cos nx, para cada x ∈ [0, π].

2. Construya en R3 un conjunto de tres vectores {v1 , v2 , v3 } que sea LD, pero que si embargo los
conjuntos {v1 , v2 }, {v1 , v3 } y {v2 , v3 } sean LI.

3. Sea V un espacio vectorial sobre K. Un subconjunto no vacı́o U de V es LD si, y sólo si, existe
un subconjunto finito {u1 , · · · , un } en U tal que uno de tales vectores es combinación lineal de los
restantes.

4. Sea V un espacio vectorial sobre K. Si U es un subconjunto LD de V y U ⊂ W , entonces W es


también LD.

5. Sea V un espacio vectorial sobre K. Si u1 , · · · , un son vectores LI y α1 , · · · , αn−1 son escalares


cualesquiera, demostrar que u1 , · · · , un−1 , un +α1 u1 +· · ·+αn−1 un−1 también son LI. ¿Es verdadero
el recı́proco?

6. Sean V un espacio vectorial sobre K y v1 , · · · , vn vectores LI en V. Demostrar que cada vector en


el subespacio generado por v1 , · · · , vn se escribe de manera única como combinación lineal de ellos;
esto es, demuestre que si α1 v1 + · · · + αn vn = β1 v1 + · · · + βn vn entonces α1 = β1 , · · · , αn = βn .

7. Decidir acerca de la veracidad o falsedad de cada una de las siguientes proposiciones. Demostrar
cada una de las que son verdaderas y exhiba un contraejemplo para cada una de las falsas:

a) En Kn con la estructura usual de espacio vectorial sobre K:


1) Todo subconjunto finito con n vectores es LI.
2) Todo subconjunto finito con n vectores es LD.
3) Todo subconjunto finito con menos de n vectores es LI.
4) Todo subconjunto finito con menos de n vectores es LD.
5) Todo subconjunto finito con más de n vectores es LD.
6) Todo subconjunto finito con más de n vectores es LI.
b) En C2 con la estructura usual de espacio vectorial sobre R, los vectores (1, 0), (0, 1), (i, 0), (0, i)
son LI.
c) El conjunto {v1 , · · · , vn } de vectores en el espacio vectorial V sobre K es LD si, y sólo si, todos
son diferentes del vector nulo OV .
5.4. Independencia y dependencia lineal 41

d ) El conjunto {v1 , · · · , vn } de vectores en el espacio vectorial V sobre K es LD si, y sólo si,


alguno de ellos es el vector nulo OV .
e) El conjunto {v1 , · · · , vn } de vectores en el espacio vectorial V sobre K es LI si, y sólo si, todos
son diferentes del vector nulo OV .
f ) Si un subconjunto no vacı́o U de vectores en el espacio vectorial V sobre K es LD, entonces
cada vector u ∈ U es combinación de vectores en U que son diferentes de u.
g) Si un subconjunto no vacı́o U de vectores en el espacio vectorial V sobre K contiene al vector
nulo OV , entonces es LD.
h) Si los vectores u, v en el espacio vectorial V sobre K es LI y w no pertenece al subespacio
generado por {u, v}, entonces u, v, w son LD.
i ) Dados vectores u1 , · · · , un y w en el espacio vectorial V sobre K; si w ∈ S({u1 , · · · , un }),
entonces u1 , · · · , un , w son LD.
j ) Dados vectores u1 , · · · , un y w en el espacio vectorial V sobre K; si u1 , · · · , un , w son LD,
entonces w ∈ S({u1 , · · · , un }).

8. Demostrar que las filas no nulas de cualquier matriz escalonada son vectores LI. ¿Ocurre lo mismo
con las columnas no nulas de una tal matriz?

9. Sean V un espacio vectorial sobre K y v1 , · · · , vn vectores en V. Demostrar que si v1 , · · · , vn son


LI, entonces también lo son los vectores v1 , v1 + v2 , · · · , v1 + v2 + · · · + vn . ¿Es cierto el recı́proco?

10. Considere el Rn es producto interno usual h(a1 , · · · , an ), (b1 , · · · , bn )i = a1 b1 + · · · + an bn . Sean


v1 , · · · , vk vectores en Rn tales que hvi , vj i = 0 si i 6= j; mientras que hvi , vi i > 0. Demostrar que
k ≤ n.

11. Sea A ∈ Mm×m (K) invertible. Demostrar que los vectores (unicolumnas) v1 , · · · , vk ∈ Km son LI
si, y sólo si, Av1 , · · · , Avk son LI. ¿Ocurre lo mismo si A ∈ Mm×m (K) es cualquier matriz no nula?

12. Sean V un espacio vectorial sobre K, y u, v ∈ V vectores LI. Demostrar que para cada entero n ≥ 1,
se tiene que u + (n − 1)v y u + nv son LI; sin embargo u + (n − 1)v, u + nv, u + (n + 1)v son LD.

13. Sea V un espacio vectorial sobre K. Demostrar que si para cada entero n ≥ 0 se tiene un conjunto
An que es LI en V, y además A0 ⊂ A1 ⊂ · · · ⊂ An ⊂ · · · , entonces A = +∞
S
n=0 An es LI.

14. Haciendo uso del ejercicio anterior, demuestre:

a) {fn : n ≥ 0} es LI en P(R), donde fn es la función polinómica fn (x) = xn para cada x ∈ R.


b) {en : n ≥ 1} es LI en RN , donde en es la sucesión canónica (0, · · · , 0, 1, 0, · · · , 0, · · · ) siendo
que el dı́gito 1 está en la posición n.

15. En el espacio de todas las funciones de R en R, F(R, R), considere para cada entero n ≥ 0 la función
fn definida mediante fn (x) = enx para cada x ∈ R. ¿Es LI el conjunto {fn : n ≥ 0}?

16. Sea A un conjunto no vacı́o cualquiera. Para cada a ∈ A se define la función χa : A → R por
χa (b) = 1, si b = a; caso contrario χa (b) = 0. Demostrar que {χa : a ∈ A} es LI en el espacio
vectorial real F(A, R). A las funciones χa se les denomina funciones caracterı́sticas.
42 5. Espacios Vectoriales.

5.5. Bases, Dimensión y Coordenadas


Mediante algunos ejemplos presentados en la sección anterior se observó que un mismo subespacio
puede ser generado por diferentes subconjuntos de vectores; de hecho mostramos algunos ejemplos en los
que se logró obtener un nuevo conjunto generador, sino que además ese nuevo conjunto es LI. En realidad
el nuevo concepto que a continuación introduciremos tiene ese espı́ritu.

5.5.1. Bases de espacios vectoriales: definición y ejemplos


Sea V cualquier espacio vectorial sobre K; como siempre, K = R o K = C.

Definición 5.9. Un subconjunto no vacı́o B de V se denomina base del espacio vectorial V (o simplemente
base de V) si satisface las dos siguientes propiedades:

(a) B es LI; y

(b) B es un generador V; es decir, S(B) = V , o equivalentemente, todo vector de V se escribe como


combinación lineal de vectores en B.

Ejemplo 5.7.

1. En el espacio vectorial Kn con la estructura usual sobre K, el conjunto formado por los n vectores
canónicos,
e1 = (1, 0, · · · , 0), e2 = (0, 1, 0, · · · , 0), · · · , en = (0, · · · , 0, 1),
es una base de Kn . Al conjunto C = {e1 , e2 , · · · , en } se le denomina base canónica de Kn .

2. En el espacio vectorial sobre K, Mm×n (K), el conjunto de todas las matrices canónicas Eij (i =
1, · · · , m y j = 1, · · · , n) es una base de este espacio. En efecto, en el ejemplo 2, ver página
33, el conjunto B = {Eij : i = 1, · · · , m y j = 1, · · · , n} es LI; y además, para cada matriz
Xm X n
A = [aij ] ∈ Mm×n (K) se cumple que A = aij Eij ; esto es, B es un generador de Mm×n (K).
i=1 j=1
B es denominada base canónica de Mm×n (K).

3. Como bien es conocido, al conjunto Cn se le puede dotar de, al menos, dos estructuras vectoriales
distintas: una sobre C y otra sobre R. En la primera de estas estructuras, el item 1 este ejemplo
muestra una base (la canónica); pero este mismo conjunto de vectores no es un generador de Cn
como un espacio vectorial sobre R. Veamos esto en un caso particular. En C2 con la estructura de
espacio vectorial real, el vector (1, i), por ejemplo, no puede ser escrito como combinación lineal,
con coeficientes en R2 , de los vectores canónicos e1 = (1, 0) y e2 = (0, 1). No obstante, vemos que
B = {(1, 0), (i, 0), (0, 1), (0, i)} es base de C2 como espacio vectorial sobre R.

independencia lineal:
Sean a, b, c, d escalares en R tales que a(1, 0) + b(i, 0) + c(0, 1) + d(0, i) = OC2 = (0, 0); luego
(a + ib, c + id) = (0, 0), por lo que a = b = c = d = 0.
generan a C2 como un R-espacio vectorial:
Dado cualquier vector w = (a + ib, c + id) ∈ C2 , con a, b, c, d ∈ R, es evidente que para tal
vector se tiene w = a(1, 0) + b(i, 0) + c(0, 1) + d(0, i); por tanto, B = {(1, 0), (i, 0), (0, 1), (0, i)}
genera a C2 con la estructura de espacio vectorial sobre R.
5.5. Bases, Dimensión y Coordenadas 43

De esta forma, B = {(1, 0), (i, 0), (0, 1), (0, i)} es una base de este espacio vectorial real.

4. Consideremos el espacio vectorial de todas las funciones polinómicas de grado menor igual que n,
Pn (R); en vista de que para cada vector p ∈ Pn (R) existen escalares a0 , a1 , · · · , an ∈ R tales que
para todo x ∈ R se tiene p(x) = a0 + a1 x + · · · + an xn , entonces p = a0 f0 + a1 f1 + · · · + an fn ,
donde las funciones fk : R → R son definidas, para cada x ∈ R, por fk (x) = xk . Esto dice que el
conjunto {f0 , f1 , · · · , fn } es un generador de Pn (R); por otra parte, en el ejemplo 3 de la página 33 se
mostró que este mismo conjunto de funciones polinómicas es LI en Pn (R); por tanto {f0 , f1 , · · · , fn }
es una base de este espacio vectorial sobre R.

5. Consideremos el espacio vectorial dado por las soluciones del sistema lineal homogéneo AX = O,
siendo A ∈ Mm×n (K). Suponiendo que tal espacio no es trivial nulo, entonces el conjunto de
soluciones básicas, ver comentario 5.9 en la página 38, es base de ese espacio vectorial.

5.5.2. Dimensión de espacios vectoriales


La noción de dimensión en espacios vectoriales está estrechamente relacionada con el concepto de base
en espacios vectoriales. Existen dos tipos de dimensiones: las finitas e infinitas. En los espacios vectoriales
que se denominan dimensión infinita sólo abordaremos aspectos muy simples; el estudio de propiedades
más profundas escapan al nivel de estas notas. En cuanto a los espacios vectoriales de dimensión finita,
éstos poseen, como veremos, una estructura algebraica realmente simple: intrı́nsecamente todo espacio
vectorial real (resp. complejo) es como un Rn (resp. Cn ).
Los siguientes dos resultados son fundamentales; en particular permitirán introducir el concepto de
dimensión.

Teorema 5.4. Sea V un espacio vectorial sobre K. Si V tiene un subconjunto generador con m (m ≥ 1)
vectores, entonces todo subconjunto de V con más de m vectores es LD.

Demostración: Sea B = {u1 , · · · , um } un conjunto generador de V. Si C = {v1 , · · · , vn } ⊂ V es tal que


n > m, mostraremos que C es LD.
Dado que B es un generador de V, para cada j = 1, · · · , n existen escalares a1j , · · · , amj ∈ K de
manera que cada vector vj (j = 1, · · · , n) se escribe como:

vj = a1j u1 + · · · + amj um .

Sean x1 , · · · , xn escalares cualesquiera en K, entonces

x1 v1 + · · · + xn vn = x1 (a11 u1 + · · · + am1 um ) + · · · + xn (a1n u1 + · · · + amn um )


= (a11 x1 + · · · + a1n xn )u1 + · · · + (am1 x1 + · · · + amn xn )um . (5.11)
 
a11 · · · a1n
 .. .. .. . En vista de que n > m, del teorema de Rouché-
Ahora consideremos la matriz A =  . . . 
am1 · · · amn
Frobenius, el sistema AX= O admite soluciones no triviales; esto es, existen escalares x1 , · · · , xn ∈ K
 a11 x1 + · · · + a1n xn = 0

no todos nulos tales que .. . Tomemos una de estas colecciones de escalares
 .
am1 x1 + · · · + amn xn = 0

x1 , · · · , xn ; al sustituirlos en (5.11) se tiene una combinación lineal no trivial x1 v1 + · · · + xn vn = OV ;
por tanto v1 , · · · , vn son LD.
44 5. Espacios Vectoriales.

Teorema 5.5. Sean V un espacio vectorial sobre K y v1 , · · · , vn son vectores LI en V. Si w ∈ V y


w∈/ S({v1 , · · · , vn }), entonces v1 , · · · , vn , w son LI.

Demostración: Sean α1 , · · · , αn , β escalares en K tales que α1 v1 + · · · + αn vn + βw = OV . Mostraremos


que α1 = · · · = αn = β = 0. Supongamos inicialmente que β 6= 0; entonces de la anterior igualdad
podemos escribir −βw = α1 v1 + · · · + αn vn , de donde
   
α1 αn
w= − v1 + · · · + − vn ;
β β

es decir, w ∈ S({v1 , · · · , vn }), lo cual no es cierto. Luego β = 0. Esto implica que α1 v1 + · · · + αn vn = OV ;


pero como los vectores v1 , · · · , vn son LI, entonces se conlcuye que α1 = · · · = αn = 0; con lo cual la
demostración está completa.

Corolario 5.2. Sea V un espacio vectorial sobre K. Si V no admite subconjuntos generadores con un
número finito de vectores, entonces V tiene un subconjunto infinito que es LI.

Demostración: Sea v1 un vector no nulo en V (¿por qué existe un tal vector?). Por ser no nulo, {v1 }
es LI. Ahora bien, por hipótesis {v1 } no genera a V, luego existe un vector v2 ∈ / S({v1 }). Del teorema
anterior sigue que {v1 , v2 } es LI. Nuevamente, como este conjunto no genera a V, existe v3 ∈ / S({v1 , v2 });
y de la misma forma, {v1 , v2 , v3 } es LI. Nótese que esta misma lı́nea de argumentos puede emplearse
indefinidamente, por lo que pueden seleccionarse vectores v1 , v2 , · · · , vn , · · · en V tales que, para cada
n ≥ 1 se cumple que {v1 , v2 , · · · , vn } es LI y vn+1 ∈
/ S({v1 , v2 , · · · , vn+1 }). De allı́ que el conjunto
{v1 , v2 , · · · , vn , · · · } es LI.

Definición 5.10. Dado un espacio vectorial V sobre K, se dice que es:

(a) de dimensión finita (o finito dimensional) si V admite un conjunto generador con un número finito
de vectores;

(b) de dimensión infinita (o infinito dimensional) si V admite conjuntos LI con un número infinito de
vectores.

Observe que los teoremas anteriores, y su corolario, garantizan la no ambigüedad de la definición que
acabamos de introducir; es decir, un espacio vectorial no puede ser al mismo tiempo finito-dimensional y
de dimensión infinita; además, todo espacio vectorial o es finito-dimensional, o es de dimensión infinita.

Ejemplo 5.8.

1. Los espacios vectoriales: Kn con la estructura usual sobre K; Mm×n (K), Pn (R), el espacio solución
de todo sistema de ecuaciones lineales homogéneo, el espacio vectorial nulo {OV }7 y Cn como un
espacio vectorial sobre R, son algunos de los ejemplos de espacios vectoriales finito dimensionales.

2. Los espacios vectoriales P(R), RN y C k ([a, b], R), cualquiera sea el entero no negativo k, tienen
dimensión infinita; en cada uno de ellos posee subconjuntos infinitos que son LI. En efecto, el
conjunto {fn : n ≥ 0}, donde fn : R → R es la función definida por fn (t) = tn para todo t ∈ R,
es LI tanto en P(R) como en C k ([a, b], R); mientras que el conjunto {en : n ≥ 1} de las sucesiones
canónicas es LI en RN ; recuerde que en es la sucesión cuya entrada n-ésima es igual a 1 y las
restantes son 0.
7 Este espacio vectorial trivial tiene como generador el propio vector nulo; carece de interés teórico, y únicamente es

empleado para mostrar algunos ejemplos patológicos.


5.5. Bases, Dimensión y Coordenadas 45

El siguiente teorema establece una jerarquı́a de contención entre los conjuntos que son generadores,
las bases y los conjuntos LI en espacios vectoriales de dimensión finita sobre K.

Teorema 5.6. En todo espacio vectorial finito dimensional V sobre K, diferente del espacio trivial nulo,
siempre se satisfacen:

(a) Extracción de una base: Si C = {u1 , · · · , um } es un subconjunto generador de V, entonces existe


un subconjunto de C que es base de V.

(b) Completación de conjuntos LI: Si C = {u1 , · · · , um } es un subconjunto LI de V, entonces


existe un número finito de vectores que anexados a C determina una base de V.

Demostración:
Extracción de bases: Sea C = {u1 , · · · , um } un conjunto generador de V. Si los vectores u1 , · · · , um
son LI, pues entonces C es una base y no hay nada que extraer. Supongamos por tanto que u1 , · · · , um
son LD. Como sabemos, esto equivale a que uno de tales vectores es combinación lineal de los restantes;
sin perder generalidad, supongamos que um es combinación lineal de u1 , · · · , um−1 . Es simple verificar
que S({u1 , · · · , um−1 }) = S(C) = V; ası́ que {u1 , · · · , um−1 } es también un conjunto generador de V.
Al repetir estos mismos argumentos, dado que V no es el espacio trivial nulo, tendremos un subconjunto
finito de C que genera a V y es LI; es decir, es una base de V.
Completación de conjuntos LI: Sea C = {u1 , · · · , um } un conjunto LI en V. Si S(C) = V, entonces
C es base de V y no hay nada que anexar. Si por el contrario S(C) V, entonces existe um+1 ∈
V \ S(C); luego del teorema 5.5 se tiene que {u1 , · · · , um , um+1 } es LI. Como antes, repetimos los mismos
argumentos, y como V es finito dimensional este proceso de anexión acaba en algún momento, de lo
contrario se podrı́a construir un conjunto LI con infinitos vectores. De esta forma, existe un número finito
de vectores, digamos, um+1 , · · · , un tales que C ∪ {um+1 , · · · , un } es LI y genera a V; es decir, es una
base del espacio vectorial V.

Es importante resaltar que todo espacio vectorial finito dimensional y diferente del espacio nulo tiene
bases; en realidad esta afirmación es independiente del tipo de dimensión: finita o infinita; pero para
dar una demostración en el caso infinito dimensional se requiere de argumentos tan poderosos como el
denominado Lema de Zorn 8 . No obstante en el caso finito dimensional la demostración es consecuencia de
la segunda parte del teorema anterior. En efecto, si V es un espacio vectorial finito dimensional diferente
del espacio nulo, entonces en V hay por lo menos un vector v 6= OV (¡de hecho hay infinitos!). Dado que
todo vector no nulo es LI, {v} puede ser completado hasta obtener una base de V.

Teorema 5.7. Si V es un espacio vectorial sobre K de dimensión finita y diferente del espacio nulo,
entonces todas las bases de V tienen la misma cantidad de vectores.

Demostración: Dado que V es de dimensión finita y distinto del espacio nulo, sus bases, que ya
sabemos existen por el teorema 5.6, tienen un número finito de vectores. Supongamos entonces que
B1 = {u1 , · · · , um } y B2 = {v1 , · · · , vn } son dos bases de V. Como B1 es un generador de V y B2 es LI,
sigue del teorema 5.4 que n ≤ m. De la misma forma, al intercambiar los papeles de B1 y B2 , se tiene
m ≤ n. Ası́ n = m.

Definición 5.11. Dado V un espacio vectorial finito dimensional, se dice que V tiene como dimensión
al número natural n ≥ 1, si es no trivial y el número de los vectores en cada una de sus bases es igual
8 El lector interesado podrá conocer algunos detalles de este lema en la referencia: T. Hungerford. Algebra. Graduate

Texts in Mathematics. 73. Springer-Verlag (1974)


46 5. Espacios Vectoriales.

a n. En caso de ser V el espacio vectorial nulo, su dimensión es 0. Este número natural asociado a los
espacios finito dimensionales se denota por dim V.

Ejemplo 5.9. En ejemplos anteriores mostramos bases para los espacios vectoriales Kn , Mm×n (K) y
Pn (R), por tanto tenemos que:

dim Kn = n; dim Mm×n (K) = mn y dim Pn (R) = n + 1.

Aún cuando Cn tiene dimensiń n cuando es considerado como un espacio vectorial sobre C; sin embargo,
el R-espacio vectorial Cn tiene dimensión 2n (se deja al lector la verificación de esta afirmación).
En cuanto a la dimensión del espacio solución del sistema de ecuaciones lineales homogéneas AX = O,
donde A ∈ Mm×n (K) tiene rango r, ésta es igual a n − r; es decir, dim S(A, O) es el número de incógintas
menos el rango de la matriz; el cual coincide con el número de variables libres del sistema de ecuaciones
lineales AX = O. Como caso particular, los hiperplanos de Rn que pasan por el origen tienen todos
dimensión n − 1.

Teorema 5.8. Sea V un espacio vectorial sobre K con dim V = n. Si U es cualquier subespacio de V,
entonces dim U ≤ n. Además, si dim U = n, entonces U = V.

Demostración: Sea U un subespacio vectorial de V. Si U = {OV }, entonces dim U = 0 ≤ n. Si por


el contrario {OV } U, entonces U posee vectores no nulos y por tanto contiene subconjunto LI con al
menos un vector; note que U es de dimensión finita, pues si fuese de dimensión infinita, U admite un
subconjunto LI con infinitos vectores, pero tales vectores también son LI en V pues U ⊂ V; sin embargo
esto es imposible ya que V es finito dimensional. Sean {u1 , · · · , um } una base de U; dado que este conjunto
es LI en V, éste puede ser completado hasta tenerse una base de V; lo cual implica claramente que m ≤ n.
Sea U un subespacio vectorial de V con dim U = n. Si n = 0, entonces es claro que U = V = {OV }.
Supongamos que n ≥ 1, y sea {u1 , · · · , un } una base de U. En particular tenemos que u1 , · · · , un son
LI en V. Si {u1 , · · · , un } no fuese base de V, entonces existe un vector v ∈ V, no nulo, tal que v ∈ /
S({u1 , · · · , un }) = U. Luego por el teorema 5.5 se tiene que {u1 , · · · , un , v} es un conjunto LI en V, lo
cual no puede ser pues dim V = n; pues de lo contrario el conjunto {u1 , · · · , un , v} puede ser completado
hasta obtener una base de V, de lo cual sigue que dim V ≥ n + 1. De esta forma, {u1 , · · · , un }, además
de ser LI, genera a V (es base de V); de donde S({u1 , · · · , un }) = V, y por tanto U = V.

Consecuencias importantes de los resultados anteriores tenemos las siguientes:

Corolario 5.3. En todo espacio vectorial V sobre K de dim V = n ≥ 1 se cumplen:

(a) Si {u1 , · · · , um } es un conjunto LI de vectores en V, entonces m ≤ n.

(b) Si {w1 , · · · , wr } genera a V, entonces n ≤ r.

(c) Todo subconjunto LI o generador de V con n vectores es base de V.

(d) Para cualquier entero k = 0, 1, · · · , n, V admite subespacios de dimensión k.

Demostración: Se deja al lector.

Ejemplo 5.10. Consideremos en R3 los vectores:

v1 = (1, −1, −1), v2 = (2, −1, 0), v3 = (0, 2, 1), v4 = (1, 0, 1) y v5 = (2, 1, 1);

veamos que S({v1 , v2 , v3 , v4 , v5 }) = R3 , para luego extraer de ese conjunto una base de R3 . Para mostrar
que S({v1 , v2 , v3 , v4 , v5 }) = R3 bastará con verificar que en tal subconjunto hay 3 vectores que son LI,
5.5. Bases, Dimensión y Coordenadas 47

recuerde que dim R3 = 3 y todo subconjunto LI con 3 vectores en un espacio de dimensión 3 es base de ese
espacio. Por tanto, si consideramos la matriz cuyas filas son los vectores dados, y esa matriz es equivalente
a una matriz escalonada con rango 3, entonces en {v1 , v2 , v3 , v4 , v5 } y habrá dos de sus vectores que son
combinación lineal de los otros 3; esos dos vectores son los que se deben quitar
 de {v1 , v2, v3 , v4 , v5 } para
1 −1 −1
 2 1 0 
 
3
de esta forma tener una base de R . Con estos preliminares, sea A =  0 2 1  Procedamos a
 
 1 0 1 
 

2 1 1
buscar una forma escalonada equivalente por filas a A:
     
1 −1 −1 1 −1 −1 1 −1 −1
 2 1 0   0 3 −2   0 1 0 
     
 f2 →f2 −2 f1   f2 ←→f4 
 0 2 1  −−−−−−−−−−→  0 2 1  −−−−−→  0 2 1 
 
 f4 → f4 − f1 
 1 0 1  f5 → f5 − f1  0 1 0   0 3 −2 
   

2 1 1 0 3 1 0 3 1
   
1 −1 −1 1 −1 −1
 0 1 0   0 1 0 
   
f3 →f3 −2 f2  f4 →f4 +2 f3 
−−−−−−−−−−−→  0 0 1  −−−−−−−−→  0 0 1  = B.
 
f4 → f4 − 3 f2 f 5 →f 5 −f 3
 0 0 −2   0 0 0 
   
f5 → f5 − 3 f2
0 0 1 0 0 0

En vista que B tiene rango 3, entonces {v1 , v2 , v3 , v4 , v5 } genera a R3 . Por otra parte, una forma de precisar
3 vectores LI en {v1 , v2 , v3 , v4 , v5 } es hacer corresponder las filas no nulas de B con las respectivas filas de
A de las que provienen. Note que las tres primeras filas de B son LI, por tanto constituyen una base de
R3 . Ahora bien, la primera fila de B provino de la primera fila de A, de hecho no tuvo ninguna alteración
al igual que la tercera fila de B; sin embargo, la segunda fila de B proviene de la cuarta fila de A, note
que se efectuó la operación f2 ←→ f4 . De esta forma concluimos que los vectores v1 , v3 y v4 son LI, por
tanto {v1 , v3 , v4 } es una base de R3 .
Ejemplo 5.11. Dados v1 = (1, −1, 0, −1, 1), v2 = (1, 0, 2, 0, 1) y v3 = (0, 1, 1, 1, 1) en R5 , queremos en
primer lugar saber si tales vectores son LI; de ser ası́, construiremos una base de R5 que contenga tales
vectores.  
1 −1 0 −1 1
Sea A =  1 0 2 0 1 ; note que las filas de A son los vectores dados. En vista que:
0 1 1 1 1
   
1 −1 0 −1 1 1 −1 0 −1 1
f2 →f2 −f1 f3 →f3 −f2
A −−−−−−−→  0 1 2 1 0  −−−−−−−→  0 1 2 1 0  = B,
0 1 1 1 1 0 0 −1 0 1

entonces rg(A) = 3 y por tanto {v1 , v2 , v3 } es LI en R5 . Luego existen vectores v4 , v5 ∈ R5 tales


que {v1 , v2 , v3 , v4 , v5 } es base de R5 . Para obtener unos tales vectores basta con agregar a la matriz
B unas apropiadas filas,dos en este caso, de forma tal que la nueva matriz tenga rango 5. Por ejemplo,

1 −1 0 −1 1
 0 1 2 1 0 
 
 0 0 −1 0 1  tiene rango igual a 5; es decir, los vectores en R5 dados por tales filas son LI.
 
 0 0 0 1 0 
 

0 0 0 0 1
48 5. Espacios Vectoriales.

De esta forma, si hacemos v4 = (0, 0, 0, 1, 0) y v5 = (0, 0, 0, 0, 1), entonces {v1 , v2 , v3 , v4 , v5 } es base de


R5 .
→ −−−−−−−→

Ejemplo 5.12. Sea W el hiperplano de R4 que pasa por el origen con vector normal N = (1, 0, 2, −1);
esto es, W = {(x, y, z, w) ∈ R4 : x + 2z − w = 0}. Dados v1 = (1, 2, 0, 1) y v2 = (0, 1, 0, 0) en W ; queremos
ver si v1 y v2 son LI y, como antes, construir una base de W que contenga a estos dos vectores. Observe
que en efecto v1 , v2 ∈ W pues satisfacen la ecuación lineal que define a W ; además, v1 y v2 son LI pues
v1 ∦ v2 . Recuerde que dim W = 3 pues se trata de un hiperplano en R4 ; por tanto debemos encontrar
un vector v3 ∈ W tal que {v1 , v2 , v3 } sea base de W . Procediendo como en el ejemplo anterior, debemos
 
1 2 0 1
hallar un vector en W que anexado como fila a la matriz , haga que la matriz de orden
0 1 0 0
3 × 4 ası́ construida tenga rango 3. Por ejemplo, el vector v3 = (0, 0, 1, 2) sirve para tales fines, pues
 
1 2 0 1
v3 ∈ W y la matriz  0 1 0 0  tiene rango 3. De esta forma, {v1 , v2 , v3 } es base de W .
0 0 1 2
 
1 2 0 1
Note que la matriz  0 1 0 0  también tiene rango 3, pero {v1 , v2 , u}, con u = (0, 0, 1, 0), no es
0 0 1 0
base de W pues de u ∈ / W . De hecho {v1 , v2 , u} es base de otro hiperplano en R4 distinto de W .

5.5.3. Coordenadas en espacios vectoriales


El concepto de coordenadas que introduciremos es exclusivo de los espacios vectoriales finito-dimensionales;
mediante esta noción se mostrará la simplicidad de este tipo de estructura algebraica. Primero es nece-
sario mostrar la siguiente propiedad de las bases en espacios vectoriales de dimensión finita; la misma,
además de ofrecer otra caracterización de las bases en estos espacios, contiene el germen fundamental de
la noción de coordenadas.

Teorema 5.9. Sea V un espacio vectorial sobre K de dimensión n ≥ 1. Un subconjunto B = {v1 , · · · , vn }


de V es base si, y sólo si, todo vector de V se escribe de manera única como combinación lineal de los
vectores en el conjunto B.

Demostración: Supongamos que B es base de V; esto es, B es LI y generador de V. Por ser generador,
todo vector de V es combinación lineal de vectores en B. Mostremos que esto ocurre de forma única. Por
el absurdo, supongamos que el vector v se escribe de dos maneras como combinación lineal de vectores
en B, esto es, supongamos que existen escalares α1 , · · · , αn y β1 , · · · , βn en K tales que

v = α1 v1 + · · · + αn vn = β1 vv + · · · + βn vn .

De acá que (α1 − β1 )v1 + · · · + (αn − βn )vn = OV ; pero como B es LI, α1 − β1 = · · · = αn − βn = 0; es


decir, αi = βi para todo i = 1, · · · , n.
El recı́proco es inmediato; se dejan los detalles al lector.

Definición 5.12. Sea V un espacio vectorial sobre K de dimensión finita n ≥ 1. Se conoce como base
ordenada de V a toda secuencia ordenada de n vectores en V que constituyan una base de V. Esto es,
una secuencia B = (v1 , · · · , vn ) es una base ordenada de V si el conjunto {v1 , · · · , vn } es base de V.

Observe que según esta definición, dada una base B = {v1 , · · · , vn } de un espacio vectorial V,
existen varias (¿cuántas de ellas hay?) bases ordenadas asociadas; por ejemplo B1 = (v1 , · · · , vn ) y
5.5. Bases, Dimensión y Coordenadas 49

B2 = (vn , · · · , v1 ) son dos bases ordenadas; aun cuando ambas constituyen el mismo conjunto, son dife-
rentes pues están ordenadas de forma distinta.
Sea B = (v1 , · · · , vn ) una base ordenada del espacio vectorial V sobre K. Entonces, para cada vector
v ∈ V existe una única n-úpla (α1 , · · · , αn ) ∈ Kn tal que

v = α1 v1 + · · · + αn vn . (5.12)

Es decir, la base ordenada B determina una correspondencia de V en Kn ; esto es, una aplicación con
dominio en V y conjunto de llegada Kn (V 7−→ Kn ), que asigna a cada vector v de V un único vector
(α1 , · · · , αn ) ∈ Kn que satisfaga (5.12). Debido al tratamiento matricial que se emplea en el Álgebra
Lineal, es conveniente, y ası́ lo haremos en adelante, emplear la notación unicolumna para las n-úplas
provenientes de la aplicación V 7−→ Kn que define una determinada base ordenada.

Definición 5.13. Sean V un espacio vectorial sobre K de dimensión finita n ≥ 1 y B = (v1 , · · · , vn )


una base ordenada de V. Dado un vector v ∈ V, se denomina vector de coordenadas de v en la base B
 
α1
 .. 
(o matriz de coordenadas de v en la base B) al único vector unicolumna [v]B =  .  cuyas entradas
αn
satisfacen (5.12). En otras palabras:
 
α1
[v]B =  ...  ⇐⇒ v = α1 v1 + · · · + αn vn . (5.13)
 

αn

Ejemplo 5.13.

1. Consideremos en Kn , con la estructura usual sobre K, la base ordenada C = (e1 , · · · , en ) (en adelante
base canónica). Dado que para cada vector v = (x1 , · · · , xn ) ∈ Kn se tiene v = x1 e1 + · · · + xn en ,
 
x1
 .. 
entonces [v]C =  . ; esto es, el vector de coordenadas en la base canónica de cualquier vector en
xn
Kn coincide con la noción original de “coordenadas euclidianas” en tal espacio.
No obstante, si consideramos, por ejemplo en R3 la base C ′ = (e3 , e1 , e2 ), entonces el vector de
 
x3
coordenadas de v = (x1 , x2 , x3 ) es [v]C = x1 .
′ 
x2

2. En P2 (R) consideremos la base B = (p1 , p2 , p3 ), donde p1 , p2 , p3 : R → R son definidas, para cada


x ∈ R, por p1 (x) = 1 + x, p2 (x) = x − x2 y p3 (x) = 1 − x2 .
Veamos cual es el vector de coordenadas en B de cualquier función polinomial p : R → R dada
por p(x) = a + bx + cx2 para cada x ∈ R. El primer paso para esta búsqueda es escribir a p como
combinación lineal de p1 , p2 y p3 . Entonces hagamos el planteamiento:

a + bx + cx2 = α1 (1 + x) + α2 (x − x2 ) + α3 (1 − x2 );

de acá sigue claramente que

a + bx + cx2 = (α1 + α3 ) + (α1 + α2 )x + (−α2 − α3 )x2 ;


50 5. Espacios Vectoriales.


 α1 + α3 = a
por tanto los escalares α1 , α2 , α3 ∈ R deben satisfacer α1 + α2 = b . Para conocer tales valores
−α2 − α3 = c

debemos resolver este sistema de ecuaciones lineales. Como siempre se tiene que estudiar la matriz
ampliada de este sistema de ecuaciones lineales:
     
1 0 1 a 1 0 1 a 1 0 1 a
f2 →f2 −f1 f3 →f3 +f2
 1 1 0 b  −−−−−−−→  0 1 −1 b − a  −−−−−−−→  0 1 −1 b−a 
0 −1 −1 c 0 −1 −1 c 0 0 −2 −a + b + c
1 0 0 a+b+c
   
1
1 0 1 a 2
f3 →− f3 f1 →f1 −f3
−−−−−2−→  0 1 −1 b − a  −−−−−−−→  0 1 0 −a+b−c 2
;
a−b−c f2 →f2 +f3 a−b−c
0 0 1 2 0 0 1 2

de donde:
a+b+c −a + b − c a−b−c
α1 = , α2 = y α3 = .
2 2 2
 
a+b+c
1
Ası́ que [p]B = −a + b − c. En particular, si p es la función polinomial dada, para cada x ∈ R,
2
a−b−c
 
3
por p(x) = 2 + 3x − 2x2 , entonces [p]B = 3 pues p = 3p1 + 3p2 + p3 .
1
3. Sean V cualquier espacio vectorial sobre K de dimensión n ≥ 1, y B = (v1 , · · · , vn ) una base
 
0
 .. 
ordenada de V. Dado que OV se escribe como OV = 0 v1 + · · · + 0 vn , entonces [OV ]B =  . . Por
0
otra parte, como:
v1 = 1 v1 + 0 v2 + · · · + 0 vn−1 + 0 vn



 v2 = 0 v1 + 1 v2 + 0 v3 + · · · + 0 vn

.. ,


 .

vn = 0 v1 + 0 v2 + · · · + 0 vn−1 + 1 vn
     
1 0 0
0 1 0
     
. .
0
 
 .. ,
entonces [v1 ]B =   .  , · · · , [vn ]B =  .. ; es decir, los vectores de coordenadas de los
[v2 ]B = 
  
.
0 . 0
   
0 0 1
vectores de la base ordenada coinciden con los canónicos de Kn .
Teorema 5.10. Sean V un espacio vectorial sobre K con dim V = n ≥ 1 y B = (v1 , · · · , vn ) una base
ordenada de V. La aplicación ΦB : V → Kn (identificamos Mn×1 (K) con K n ) que asocia a cada v ∈ V
su vector de coordenadas [v]B , ΦB (v) = [v]B , es:
(a) biyectiva; y

(b) preserva la estructura vectorial entre los espacios vectoriales V y Kn ; esto es, para todo u, v ∈ V y
cada α ∈ K se cumple:
[u + αv]B = [u]B + α[v]B . (5.14)
5.5. Bases, Dimensión y Coordenadas 51

Demostración:
(a) Recordemos que una aplicación cualquiera f : A → B es inyectiva si, y sólamente si, para todo a, b ∈ A,
f (a) = f (b) implica a = b. Supongamos entonces que u, v son vectores en V tales que [u]B = [v]B ; digamos
 
α1
 .. 
que [u]B = [v]B =  . . Luego de la definición de coordenadas de un vector sigue que
αn
v = α1 v1 + · · · + αn vn = u;

es decir, ΦB es inyectiva.
 
α1
Para mostrar la sobreyectividad de ΦB se debe verificar que para cualquier  ...  ∈ Kn existe un
 

αn
 
α1
vector v ∈ V tal que ΦB (v) = [v]B =  ... . Esto es simple, pues tomar el vector v = α1 v1 + · · · + αn vn .
 

αn
(b) Dados u, v ∈ V y α ∈ K; sean α1 , · · · , αn y β1 , · · · , βn en K tales que

u = α1 v1 + · · · + αn vn y v = β1 v1 + · · · + βn vn . (5.15)
     
α1 β1 α1 + αβ1
 ..   ..  ..
Por definición tenemos que [u]B =  . , [v]B =  . ; además, [u + αv]B =   pues de (5.15)
 
.
αn βn αn + αβn
     
α1 + αβ1 α1 β1
.
.. . . 
se tiene u + αv = (α1 + αβ1 )v1 + · · · + (αn + αβn )vn ; y como   =  ..  + α  .. , entonces
    

αn + αβn αn βn
ΦB (u + αv) = ΦB (u) + αΦB (v); es decir, (5.14) vale.

Comentario 5.10. El resultado que acabamos de mostrar permite identificar biunı́vocamente cualquier
espacio vectorial V de dimensión n ≥ 1 sobre K con el espacio vectorial Kn ; además, esta identificación
respeta la estructura vectorial de ambos espacios. En otras palabras, las operaciones de adición y multi-
plicación por escalares en V se comportan como las operaciones usuales del espacio vectorial Kn . Ası́, las
operaciones de adición y multiplicación por escalares en cualquier espacio vectorial sobre R (resp. C) de
dimensión n ≥ 1 son como las correspondientes operaciones en el espacio vectorial Rn (resp. Cn )
El uso de coordenadas en un espacio vectorial de dimensión finita n ≥ 1 provenientes de una base
ordenada, además de constituir una herramienta teórica mediante la cual se obtiene la identificación
arriba descrita, tienen otra utilidad, y es que buena parte de los resultados del Álgebra Lineal, requieren
de apropiadas bases ordenadas para su tratamiento. Esto hace necesario que sean estudiadas las relaciones
que existen entre diferentes bases ordenadas en un mismo espacio vectorial.

5.5.4. Cambios de coordenadas en espacios vectoriales


Sean V es un espacio vectorial sobre K de dimensión n ≥ 1; B = (u1 , · · · , un ) y B′ = (u′1 , · · · , u′n )
bases (ordenadas) de V. Cada vector de una de estas bases se escribe de manera única como combinación
lineal de los vectores de la otra base; por ejemplo, para cada j = 1, · · · , n existen únicos escalares
p1j , · · · , pnj ∈ K tales que
u′j = p1j u1 + · · · + pnj un . (5.16)
52 5. Espacios Vectoriales.

Tomemos cualquier vector u ∈ V; en la base B ′ este vector también se escribe de manera única:
 
α1
u = α1 u1 + · · · + αn un ; es decir, [u]B′ =  ...  ;
′ ′  

αn

por tanto, usando (5.16) tenemos:

u = α1 (p11 u1 + · · · + pn1 un ) + · · · + αn (p1n u1 + · · · + pnn un )


= (p11 α1 + · · · + p1n αn )u1 + · · · + (pn1 α1 + · · · + pnn αn )un ;

con lo cual     
p11 α1 + · · · + p1n αn p11 ··· p1n α1
[u]B =  .
.   .. .. ..   ..  = P [u] ′ .
= . (5.17)

. . .  .  B

pn1 α1 + · · · + pnn αn pn1 ··· pnn αn


A la matriz P = [pij ] ∈ Mn×n (K) anterior se le conoce como matriz de cambio de la base B hacia la
base B′ . Note que para obtener la matriz P , cada vector u′j de B′ se escribe como combinación lineal de los
vectores de la base ordenada B, los escalares pij , i = 1, · · · , n, que intervienen en esa combinación lineal
se colocan ordenadamente como la j-ésima columna de P ; por tanto tal matriz depende exclusivamente
de las bases ordenadas consideradas, y no de algunos vectores en particular.
La razón por la cual a la matriz P se le llama de matriz de cambio de la base B hacia la base B ′ ,
será expuesta cuando se estudien las transformaciones lineales entre espacios vectoriales; de hecho P
induce una aplicación biyectiva T : V → V que envı́a la base B en la base B ′ ; esto es, T (ui ) = u′i para
todo i = 1, · · · , n.

Proposición 5.9. Sean V es un espacio vectorial sobre K de dimensión n ≥ 1, B = (u1 , · · · , un ) y


B′ = (u′1 , · · · , u′n ) bases ordenadas de V. Si P es la matriz de cambio de la base B hacia la base B ′ ,
entonces P es invertible y es la única matriz en Mn×n (K) que satisface (5.17) para todo u ∈ V. Además,
P −1 es la matriz de cambio de la base B′ hacia la base B.

Demostración: Recordemos que una matriz cuadrada A ∈ Mn×n (K) es invertible si, y sólo si, el sistema
de ecuaciones lineales homogéneo AX = O tiene como única solución la trivial. Supongamos que P no
 
α1
 .. 
es invertible, entonces existe X =  .  no nulo tal que P X = O. Ahora bien, dado que la aplicación
αn
 
0
u 7−→ [u]B′ es biyectiva y [u]B′ =  ...  si, y sólo si, u = OV , entonces existe un vector u ∈ V no nulo tal
 

0
   
0 0
 ..   .. 
que [u]B′ = X, por tanto P [u]B′ =  . . Por otra parte, (5.17) implica que  .  = [u]B ; es decir, u = OV ,
0 0
lo cual es una contradicción. De esta forma hemos demostrado que P es invertible.
Para demostrar la segunda parte de la proposición, supongamos que P, Q son matrices en Mn×n (K)
tales que para todo vector u ∈ V se cumplen

P [u]B′ = [u]B y Q[u]B′ = [u]B .


5.5. Bases, Dimensión y Coordenadas 53

De acá sigue P X = QX para toda X ∈ Mn×1 (K), recuerde V y Mn×1 (K) están biunı́vocamente identi-
ficados mediante los vectores de coordenadas. Ahora bien, es un simple ejercicio mostrar que para todo
par de matrices A, B ∈ Mm×n (K) siempre se cumple que A = B si, y sólo si, AX = BX para todo
X ∈ Mn×1 (K). Luego P = Q.
Por último, dado que P [u]B′ = [u]B para todo u ∈ V y P es invertible, entonces [u]B′ = P −1 [u]B para
todo u ∈ V; por tanto P −1 es la matriz de cambio de la base B′ hacia la base B.

El siguiente resultado permite emplear los vectores de coordenadas para estudiar propiedades como:
dependencia e independencia lineal y conjuntos generadores.

Proposición 5.10. Sean V es un espacio vectorial sobre K de dimensión n ≥ 1 y B una base ordenada
de V. Entonces:

(a) v1 , · · · , vm son LI en V si, y sólo si, [v1 ]B , · · · , [vm ]B son LI en Kn .

(b) {Y1 , · · · , Yk } (k ≤ m) es base del subespacio de Kn generado por [v1 ]B , · · · , [vm ]B si, y sólo si, los
vectores w1 , · · · , wk ∈ V tales que Yi = [wi ]B para i = 1, · · · , k constituyen una base del subespacio
S({v1 , · · · , vm }) de V.

Demostración: Observe que para todo v ∈ V y cualesquiera sean los escalares α1 , · · · , αm , siempre se
cumple:
α1 v1 + · · · + αm vm = v ⇐⇒ α1 [v1 ]B + · · · + αm [vm ]B = [v]B .

En efecto, dado que la aplicación v 7−→ [v]B preserva las operaciones de adición y multiplicación por
escalares, ver teorema 5.10, entonces:

α1 v1 + · · · + αm vm = v ⇐⇒ [α1 v1 + · · · + αm vm ]B = [v]B
⇐⇒ α1 [v1 ]B + · · · + αm [vm ]B = [v]B .

(a) De lo anterior tenemos que

0
 
0
α1 v1 + · · · + αm vm = OV ⇐⇒ α1 [v1 ]B + · · · + αm [vm ]B =  .  ;
 
 .. 
0

de lo cual sigue la parte (a) de la proposición.


(b) Supongamos que {Y1 , · · · , Yk } es base de S({[v1 ]B , · · · , [vm ]B }); es decir, Y1 , · · · , Yk son LI y cada
vector Y ∈ S({[v1 ]B , · · · , [vm ]B }) se escribe como combinación lineal de Y1 , · · · , Yk . De la parte (a)
tenemos que los vectores w1 , · · · , wk , con [wi ]B = Yi , para i = 1, · · · , k, son LI. Mostremos ahora que todo
vector en S({v1 , · · · , vm }) es combinación lineal de w1 , · · · , wk . Sea v ∈ S({v1 , · · · , vm }); esto es, para
ciertos escalares α1 , · · · , αm ∈ K se tiene que v = α1 v1 +· · ·+αm vm . Luego, [v]B = α1 [v1 ]B +· · ·+αm [vm ]B ;
por tanto [v]B ∈ S({[v1 ]B , · · · , [vm ]B }), y como {Y1 , · · · , Yk } es base de este subespacio, existen escalares
β1 , · · · , βk ∈ K tales que [v]B = β1 Y1 + · · · + βk Yk ; de acá que v = β1 w1 + · · · + βk wk . De esta forma,
{w1 , · · · , wk } es base del subespacio generado por los vectores v1 , · · · , vm .
Finalmente, supongamos que {w1 , · · · , wk } es base de S({v1 , · · · , vm }). La demostración de que
{[w1 ]B , · · · , [wk ]B } es base de S({[v1 ]B , · · · , [vm ]B }) sigue similarmente a la anterior; se dejan los detalles
al lector.
54 5. Espacios Vectoriales.

Ejemplo 5.14. Consideremos en R3 las bases ordenadas: C = (e1 , e2 , e3 ) (la canónica) y B = (v1 , v2 , v3 ),
donde v1 = (1, 1, 0), v2 = (0, 0, 1) y v3 = (0, 1, 1). Dado que:

v1 = 1 e1 + 1 e2 + 0 e3 , v2 = 0 e1 + 0 e2 + 1 e3 y v3 = 0 e1 + 1 e2 + 1 e3 ,
 
1 0 0
entonces la matriz de cambio de C hacia B es P = 1 0 1. Note que las columnas de P son justamente
0 1 1
los vectores de la base ordenada B; en realidad esto es un hecho general: en Kn , la matriz de cambio de
la base canónica hacia cualquier otra base ordenada B de Kn tiene como columnas, ubicadas en el mismo
orden, los vectores de B.
 
2
En el caso que estamos considerando observe, por ejemplo, que 1 = [(2, 5, 4)]B puesto que
3

2(1, 1, 0) + 1(0, 0, 1) + 3(0, 1, 1) = (2, 5, 4);


 
2
mientas que en la base canónica C, 1 es precisamente la 3-úpla (2, 1, 3).
3

Ejemplo 5.15. Consieremos en P2 (R) las funciones polinómicas p1 , p2 , p3 , q1 , q2 , q3 definidas, para cada
x ∈ R, por

p1 (x) = 2 + 3x + 2x2 , p2 (x) = 1 + x + x2 y p3 (x) = 1 + x + 2x2 ;


q1 (x) = 1 − x2 , q2 (x) = 3 + x − 2x2 y q3 (x) = 1 + x − x2 .

Afirmamos que B = (p1 , p2 , p3 ) y B′ = (q1 , q2 , q3 ) son bases ordenadas de P2 (R). Dado que dim P2 (R) = 3,
basta verificar que los conjuntos {p1 , p2 , p3 } y {q1 , q2 , q3 } son LI. Mostraremos que el primero lo es, la
verificación de esa propiedad para el segundo conjunto es idéntica. Sea C la base ordenada canónica de
P2 (R); es decir, C = (e0 , e1 , e2 ), donde ei (x) = xi para todo x ∈ R. Claramente tenemos que:
     
2 1 1
[p1 ]C = 3 , [p2 ]C = 1 y [p3 ]C = 1 ;
2 1 2
    
2 1 1
por tanto p1 , p2 , p3 son LI si, y sólo si, 3 , 1 1 también lo son (ver proposición anterior); y esto
2 1 2
 
2 3 2
último equivale a que la matriz  1 1 1  tenga rango 3. Esto es lo que efectivamente chequearemos:
1 1 2
     
2 3 2 1 1 1 1 1 1
f1 ←→f2 f2 →f2 −2f1
 1 1 1  −−−−−→  2 3 2  −−−−−−−→  0 2 1  .
f3 →f3 −f1
1 1 2 1 1 2 0 0 1

Conocido entonces que B y B′ son bases ordenadas de P2 (R), vamos a determinar la matriz de cambio
de B hacia B′ . Lo primero es escribir cada vector de B′ como combinación lineal de los vectores en B.
5.5. Bases, Dimensión y Coordenadas 55

Observe que cualquier función polinomial p ∈ P2 (R), dada por p(x) = a + bx + cx2 , es combinación lineal
de p1 , p2 , p3 si, y sólo si, existen escalares α, β, γ ∈ R tales que, para cada x ∈ R, se cumple:

a + bx + cx2 = α(2 + 3x + 2x2 ) + β(1 + x + x2 ) + γ(1 + x + 2x2 ).

En vista de que dos funciones polinomiales  son iguales siempre que sus coeficientes sean iguales, sigue
 2α + β + γ = a
que los escalares α, β y γ deben satisfacer 3α + β + γ = b . Pasemos entonces a resolver este sistema
2α + β + 2γ = c

(que es compatible determinado, ¿por qué?). Como de costumbre emplearemos el método matricial y la
reducción por filas para ello.
     
2 1 1 a 2 1 1 a 2 1 1 a
f2 →f2 − 32 f1 f →−2 f
 3 1 1 b  −−−−−−−−→  0 − 1 − 1 b − 3 a  −−−−−−→  0 1 1 3a − 2b 
2 2

f3 →f3 −f1 2 2 2
2 1 2 c 0 0 1 c−a 0 0 1 c−a
   
2 0 0 −2a + 2b 2 0 0 −2a + 2b
f1 →f1 −f2 f2 →f2 −f3
−−−−−−−→  0 1 1 3a − 2b  −−−−−−−→  0 1 0 4a − 2b − c  ;
0 0 1 c−a 0 0 1 c−a

de acá sigue que


α = −a + b, β = 4a − 2b − c y γ = c − a.
De esta forma, para cada x ∈ R vale:

a + bx + cx2 = (−a + b)(2 + 3x + 2x2 ) + (4a − 2b − c)(1 + x + x2 ) + (−a + c)(1 + x + 2x2 ).

En particular tenemos:

q1 = (−1) p1 + 5 p2 + (−2) p3 , q2 = (−2) p1 + 12 p2 + (−5) p3 y q3 = 0 p1 + 3 p2 + (−2) p3 ,


 
−1 −2 0
por lo que matriz de cambio de base requerida es P =  5 12 3 .
−2 −5 −2
Aprovechando las mismas cuentas anteriores, consideremos los vectores unicolumnas:
       
−1 1 2 1
X1 =  −2  , X2 =  2  , X3 =  4  y X4 =  2  .
−1 2 1 0

Supongamos que tales vectores unicolumnas son los vectores de coordenadas en la base B de funciones
polinómicas: h1 , h2 , h3 y h4 respectivamente; esto es, [hi ]B = Xi para i = 1, 2, 3, 4. Deseamos obtener a
partir de estos vectores de coordenadas una base del espacio generado por h1 , h2 , h3 y h4 ; es decir, una
base del subespacio S({h1 , h2 , h3 , h4 }). Para ello consideraremos la matriz cuyas filas son los vectores de
coordenadas dados, y luego procederemos a obtener una forma escalonada equivalente a tal matriz, las
filas no nulas de esa matriz constituyen vectores de coordenadas que son una base del espacio generado por
X1 , X2 , X3 y X4 ; por tanto, de acuerdo a la proposición 5.10, las correspondiente funciones polinómicas
definen una base del subespacio S({h1 , h2 , h3 , h4 }). Procedamos entonces con las cuentas:

−1 −2 −1 −1 −2 −1 −1 −2 −1
     
 1 2 2  →f2 +f1  0 0 1  f3 →f3 +f2  0 0 1 
  −−−f−2−−−−−−−→  − −−−−−−→  .
 2 4 1  f3 → f3 + 2 f1
 0 0 −1  f4 →f4 +f2  0 0 0 
1 2 0 f4 → f4 + f1 0 0 −1 0 0 0
56 5. Espacios Vectoriales.

Claramente esta última matriz es una forma escalonada equivalente por filas a la matriz inicial; las filas
   
−1 0
no nulas de esta forma escalonada representan a los vectores unicolumnas Y1 =  −2  y Y2 =  0 
−1 1
que son LI y generan al mismo subespacio vectorial que X1 , X2 , X3 y X4 ; es decir, {Y1 , Y2 } es base
de S({X1 , X2 , X3 , X4 }). Al interpretar los vectores unicolumnas Y1 y Y2 como vectores de coordenadas
de ciertas funciones polinómicas g1 , g2 ∈ P2 (R) (Yi = [gi ]B , i = 1, 2); tenemos que {g1 , g2 } es base de
S({h1 , h2 , h3 , h4 }). Note que para cada x ∈ R se tiene

g1 (x) = (−1)(2 + 3x + 2x2 ) + (−2)(1 + x + x2 ) + (−1)(1 + x + 2x2 ) = −5 − 6x − 6x2


g2 (x) = 0 (2 + 3x + 2x2 ) + 0 (1 + x + x2 ) + 1 (1 + x + 2x2 ) = 1 + x + 2x2 .

Para concluir con este ejemplo nos gustarı́a observar que en vista de no haberse efectuado operaciones
elementales por filas del tipo fi ←→ fj , como las filas nulas de la forma escalonada obtenida son las
dos últimas, entonces los vectores unicolumnas X3 , X4 son combinación lineal de los dos primeros; por
lo que además de ser {X1 , X2 } LI, sigue que S({X1 , X2 , X3 , X4 }) = S({X1 , X2 }); ası́, {X1 , X2 } es base
del espacio generado por los vectores unicolumnas X1 , X2 , X3 y X4 . Esto nos permite tener al conjunto
{h1 , h2 } como una base de S({h1 , h2 , h3 , h4 }).

5.5.5. Ejercicios propuestos de la Sección 5.5


1. Decidir cuales de los siguientes conjuntos son base del espacio vectorial que se indica:

a) v1 = (2, 1, 1), v2 = (0, 1, 1), v3 = (1, 1, 0); V = R3 .


b) v1 = (0, 2, −1, 1), v2 = (1, 0, 1, 0), v3 = (1, 1, 0, 1), v4 = (1, 4, −2, 3); V = R4 .
c) v1 = (i, 1), v2 = (0, 1); V = C2 como C-espacio vectorial.
d ) v1 = (−i, 2 − i), v2 = (2, 2 + 4i); V = C2 como C-espacio vectorial.
e) v1 = (0, 2), v2 = (i, 0), v3 = (1, 1), v4 = (i, 4); V = C2 como R-espacio vectorial.
f ) p1 , p2 , p3 siendo que p1 (x) = 1 − x2 , p2 (x) = x, p3 (x) = 2 − x + x2 ; V = P2 (R).
g) v1 = (2, 1, 1), v2 = (1, 0, −1); V el plano de R3 dado por x − y − z = 0.
h) v1 = (0, 1, −1, −1), v2 = (1, 0, 1, 1); V el espacio solución del sistema de ecuaciones lineales
 2x + y + z + w = 0


x+z+w =0

homogéneo .

 x+y =0

4x + z + w = 0
i ) v1 = (1, 0, 1, −1), v2 = (0, 2, 1, 1); V el espacio solución del sistema de ecuaciones lineales
 −x + 2y + z = 0


x+z+w =0

homogéneo .
 2y + 2z + w = 0


y+z+w =0

2. Exhiba una base, y dimensión, para cada uno de los espacios vectoriales que a continuación se
indican:

a) V = {(x, y, z, w) ∈ R4 : x = y = z = w};
b) V = {(x, y, z, w) ∈ C4 : ix = y, z = w}; (como C-espacio vectorial)
5.5. Bases, Dimensión y Coordenadas 57

V = (x, y, z, w) ∈ R4 : x + y + z − w = 0 y − x + y + w = 0 .

c)
d ) V = S({p1 , p2 , p3 }), donde cada pi ∈ P2 (R) (i = 1, 2, 3) es definida, para cada x ∈ R, por:

p1 (x) = 1 + x2 , p2 (x) = 2 − x + x2 y p3 (x) = 1 − x.

e) V = {A ∈ Mm×m (K) : A es escalar}; recuerde que A es escalar si existe α ∈ K tal que


A = αIm , siendo Im la matriz identidad de orden m.
f ) V = {A ∈ Mm×m (K) : A es diagonal}; recuerde que A = [aij ] ∈ Mm×m (K) es diagonal, si
aij = 0 siempre que i 6= j.
g) V = {A ∈ Mm×m (K) : A es triangular superior}; recuerde que A = [aij ] ∈ Mm×m (K) es
triangular superior si aij = 0 siempre que i > j.
h) V = {A ∈ Mm×m (K) : A es triangular inferior}; recuerde que A = [aij ] ∈ Mm×m (K) es
triangular inferior si aij = 0 siempre que i < j.
i ) V = {A ∈ Mm×m (K) : traza(A) = 0}; recuerde que si A = [aij ] ∈ Mm×m (K), su traza es la
suma de los elementos en la diagonal.
j ) V = {A ∈ Mm×m (K) : A = At } (matrices simétricas).
k ) V = {A ∈ Mm×m (K) : A = −At } (matrices antisimétricas).

3. Sea V un espacio vectorial sobre K con dim V = n ≥ 1. Demostrar que:

a) todo subconjunto LI de V con n vectores es una base de V;


b) cualquier subconjunto generador de V con n vectores es base de V.
c) el espacio vectorial V adimite subespacios vectoriales de dimensión k para todo k ≥ 0.
d ) si {u1 , · · · , um } es LI y {w1 , · · · , wr } genera a V, entonces m ≤ n ≤ r.
e) si {u1 , · · · , un } es base de V, entonces también lo es {u1 , u2 − u1 · · · , un − u1 }. ¿Es verdadero
el recı́proco?

4. Decidir acerca de la veracidad o falsedad de cada una de las siguientes proposiciones. Demuestre
las que sean verdaderas y exhiba un contraejemplo para cada una de las falsas.

a) Si {v1 , · · · , vn } es base de V, entonces v1 , · · · , vn , v son LD para todo v ∈ V \ {OV }.


b) Si {v1 , · · · , vn } genera a V, entonces tal conjunto es base.
c) Si {v1 , · · · , vn } es LI en V, entonces tal conjunto es base.
d ) Si dim V = n y {v1 , · · · , vk } genera a V, entonces k ≥ n.
e) Si dim V = n y {v1 , · · · , vk } es LI en V, entonces tal conjunto es base de un subespacio vectorial
de dimensión k.
f ) Todo subespacio vectorial de Rn tiene dimensión k para algún 0 ≤ k ≤ n.
g) En el espacio vectorial de las funciones polinómicas de grado menor o igual a n, Pn (R), se
puede construir una base cuyas funciones tienen grado n.
h) Si V tiene dimensión n ≥ 1, entonces todo subconjunto con n vectores no nulos es LI.
 
1 0 1
i ) A = 2 1 1 es la matriz de cambio de la base canónica de R3 hacia la base (v1 , v2 , v3 )
2 1 0
donde v1 = (1, 2, 2), v2 = (0, 1, 1) y v3 = (1, 1, 0).
58 5. Espacios Vectoriales.

 
0
 .. 
j ) Si V tiene dimensión n ≥ 1 y B es una base ordenada de V, entonces [v]B =  .  si, y sólo si
0
v = OV .
k ) Si V tiene dimensión n ≥ 1 y v ∈ V es tal que [v]B es constante para cualquier base ordenada
B, entonces v = OV .

5. ¿Qué representan geométricamente los subespacios vectoriales de dimensiones 0, 1, 2 y 3 del espacio


vectorial R3 ? ¿Existe sólo un número finito de subespacios vectoriales de dimensión k en R3 ?

6. Sean V un espacio vectorial de dimensión finita sobre K, B = {v1 , · · · , vn } una base de V y a1 , · · · , an


son constantes en K, no todas nulas. Demostrar que el conjunto U , formado por todos los vectores
v = α1 v1 + · · · + αn vn tales que a1 α1 + · · · + an αn = 0, es un subespacio vectorial de V cuya
dimensión es n − 1.

7. Sean V un espacio vectorial de dimensión finita sobre K, B = {v1 , · · · , vn } una base de V. Si la


a11 a12 · · · a1n
 
a21 a22 · · · a2n 
matriz A =  . ..  ∈ Mk×m (K) tiene rango r, demostrar que el conjunto U de
 
..
 .. . ··· . 
ak1 ak2 · · · akn
   
α1 0
 ..   .. 
vectores v = α1 v1 + · · · + αn vn tales que A  .  =  . , es un subespacio vectorial de V de
αn 0
dimensión n − r.

8. Para resolver este ejercicio es necesario recordar la estructura de espacio vectorial producto, esta
noción fue introducida en el ejercicio propuesto número 7 en la página 12.
Sean V y U espacios vectoriales sobre K de dimensiones n ≥ 1 y m ≥ 1, respectivamente. Si B es
una base de V y B′ es una base de U, demostrar que {(v, u) ∈ V × U : v ∈ B y v ∈ B ′ } es una
base de V × U. Concluya que dim(V × U) = nm. ¿Qué ocurre si uno de los espacios vectorial dados
es el espacio nulo? ¿Sigue siendo válida la fórmula de la dimensión del espacio vectorial producto?
Haciendo uso de la propiedad expuesta determinar la dimensión del espacio vectorial real Cn con
n ≥ 2.

9. Demostrar que el conjunto B = {fn : n ≥ 0}, donde cada fn : R → R es la función definida, para
cada x ∈ R, por fn (x) = xn , es una base de P(R). En consecuencia P(R) es un espacio vectorial
de dimensión infinita.

10. Considere en el espacio vectorial RN , de todas las sucesiones con valores en R, las sucesiones canóni-
cas en con n ≥ 1; recuerde que en = (en,k )k≥1 , donde en,k = 0 si n 6= k y en,n = 1. Demuestre que
{en : n ≥ 1} es LI, pero no genera a RN .
La obtención de una base para RN es ciertamente complicado; de hecho, no siempre es simple exhibir
bases para espacios vectoriales infinito dimensionales.

11. En P2 (R), B = (p1 , p2 , p3 ) y B′ = (q1 , q2 , q3 ), con

p1 (x) = 1 + x, p2 (x) = x + x2 y p3 (x) = 1 + x2


q1 (x) = 1, q2 (x) = 1 + x y q3 (x) = 1 + x + x2 ,
5.6. Sumas de subespacios vectoriales 59

son bases ordenadas. Determine la matriz de cambio de la base B hacia la base B ′ . Encuentre el los
vectores de coordenadas [p]B y [p]B′ , donde p es función polinómica definida, para cada x ∈ R, por
p(x) = 2 − x + x2 . Considere las funciones polinómicas h1 , h2 , h3 , h4 de P2 (R) tales que
       
3 1 5 2
[h1 ]B′ =  1  , [h2 ]B′ =  2  , [h3 ]B′ =  0  y [h4 ]B′ =  −1  .
2 −1 5 3

Determine una base del subespacio vectorial generado por h1 , h2 , h3 y h4 . ¿Cuáles son los vectores
de coordenadas de tal base en B?

12. Sean V es un espacio vectorial sobre K de dimensión n ≥ 1, B = (u1 , · · · , un ), B′ = (u′1 , · · · , u′n ) y


B′′ = (u′′1 , · · · , u′′n ) bases ordenadas de V. Si P es la matriz de cambio de la base B hacia la base
B′ y Q es la matriz de cambio de la base B ′ hacia la base B′′ ; determine la matriz de cambio de la
base B hacia la base B′′

13. Sea V un espacio vectorial real de dimensión finita n ≥ 1. Sobre el conjunto de todas las posibles
bases ordenadas de V se define la siguiente relación ∼: dadas dos bases ordenadas B y B ′ , B ∼ B′
si, y sólo si, la matriz de cambio de base de B hacia B ′ tiene determinante positivo. Demostrar que
∼ es una relación de equivalencia. ¿Cuántas clases de equivalencia hay?

14. Una base ordenada B = (u1 , · · · , un ) en Rn se dice que es una orientación positiva de Rn , si
det AB > 0, donde AB es la matriz n × n cuyas columnas son, respectivamente, los vectores
u1 , · · · , un . Cuando det AB < 0, se dice que B es una orientación negativa de Rn .

a) ¿Qué tipo de orientación induce la base canónica C = (e1 , · · · , en )?


b) Demostrar que la base ordenada B es una orientación positiva de Rn si, y sólo si, C ∼ B.

5.6. Sumas de subespacios vectoriales


Estudiaremos en esta sección los conceptos de sumas y sumas directas de subespacios vectoriales.
Tales nociones, además de mostrar nuevas formas de construir subespacios vectoriales a partir de otros,
son de gran utilidad en el estudio de otros tópicos del Álgebra Lineal.

Definición 5.14. Sean V un espacio vectorial sobre K, y W1 , · · · , Wk subconjuntos no vacı́os de V. Se


define la suma de tales subconjuntos, lo cual se denota por W1 + · · · + Wk , como

W1 + · · · + Wk = {v ∈ V : v = w1 + · · · + wk , donde wi ∈ Wi , i = 1, · · · , k}. (5.18)

Note que:

v ∈ W1 + · · · + Wk si, y sólo si, existen w1 ∈ W1 , · · · , wk ∈ Wk tales que v = w1 + · · · + wk ;

esto es, todo vector en W1 + · · · + Wk es la suma de k vectores, uno en cada uno de los subconjuntos que
se están sumando.

Teorema 5.11. Sea V un espacio vectorial sobre K. Si W1 , · · · , Wk son subespacios vectoriales de V,


entonces W1 + · · · + Wk es también un subespacio vectorial de V. Además, Wi ⊂ W1 + · · · + Wk para cada
i = 1, · · · , k; de hecho, Wi1 +· · ·+Wis ⊂ W1 +· · ·+Wk , cualesquiera sean los ı́ndices 1 ≤ i1 < · · · < is ≤ k.
60 5. Espacios Vectoriales.

Demostración: Observe que OV ∈ W1 + · · · + Wk , pues OV ∈ Wi para cada i = 1, · · · , k y además


OV = OV + · · · + OV . Por otra parte, si u, v ∈ W1 + · · · + Wk y α ∈ K, entonces existen vectores
v1 , w1 ∈ W1 , · · · , vk , wk ∈ Wk tales que u = v1 + · · · + vk y v = w1 + · · · + wk . Luego

u + αv = (v1 + · · · + vk ) + α(w1 + · · · + wk )
= (v1 + αw1 ) + · · · + (vk + αwk );

pero como cada Wi (i = 1, · · · , k) es un subespacio vectorial de V, entonces vi + αwi ∈ Wi para todo


i = 1, · · · , k; sigue por tanto que u + αv ∈ W1 + · · · + Wk . Lo cual demuestra que W1 + · · · + Wk es un
subespacio de V.
La segunda parte de la demostración es consecuencia inmediata de la siguiente observación: cuales-
quiera sean los vectores wij ∈ Wij (j = 1, · · · , s) con 1 ≤ i1 < · · · < is ≤ k, siempre podemos escribir

w i1 + · · · + w is = O V + · · · + O V + w i1 + O V + · · · + O V + w is + O V + · · · + O V .

De esta forma la demostración está completa.

Corolario 5.4. Sean V un espacio vectorial sobre K, y U, W subespacios vectoriales de V.

(a) Si U = W , entonces U + W = U .

(b) Si W = {OV }, entonces U + W = U .

Demostración: Se deja como ejercicio para el lector.

Ejemplo 5.16. En general la suma de subconjunto no vacı́os en un espacio vectorial V no tiene porqué ser
subespacio vectorial de V. Por ejemplo, sean W1 = {(1, −1)} y W2 = {(x, y) ∈ R2 : x = y}, note que W1
no es subespacio vectorial de R2 . Afirmamos que W1 + W2 no es subespacio vectorial de R2 . En efecto,
cualquier vector en W1 + W2 es de la forma: (1, −1) + α(1, 1) con α ∈ R; observe que todo vector en W2
se escribe como un múltiplo de (1, 1) (W2 es la recta que pasa por el origen con director (1, 1)). De esta
forma, W1 + W2 es la recta que pasa por (1, −1) con director (1, 1). Obviamente (0, 0) ∈ / W1 + W2 , por
lo que tal subconjunto no es subespacio vectorial de R2 .

Ejemplo 5.17. En M2×2 (R) consideremos los subespacios vectoriales


     
a 0 a b
W1 = : a, b, c ∈ R y W2 = : a, b, c ∈ R .
b c c 0
 
a11 a12
Dado que toda matriz de M2×2 (R) la podemos escribir como
a21 a22
     
a11 a12 a 0 0 a12
= 11 + ,
a21 a22 a21 a22 0 0
   
a 0 0 a12
donde 11 ∈ W1 y ∈ W2 , entonces M2×2 (R) = W1 +W2 . Note que el subespacio W1 ∩W2
a21 a22 0 0
  
a 0
es diferente del subespacio trivial nulo, de hecho W1 ∩ W2 = : a, b ∈ R .
b 0
5.6. Sumas de subespacios vectoriales 61

Ejemplo 5.18. Consideremos en R3 los subespacios vectoriales

U1 = (x, y, z) ∈ R3 : 2x = y = −z y U2 = (x, y, z) ∈ R3 : 2x = 3y = z ;
 

note que ambos subespacios vectoriales son rectas que pasan por el origen; la primera de ellas dirigida
por el vector (1, 2, −2) y la segunda por (3, 2, 6); es decir

U1 = S({(1, 2, −2)}) y U2 = S({(3, 2, 6)}).

Determinemos el subespacio vectorial U1 + U2 . Por definición, (x, y, z) ∈ U1 + U2 si, y sólo si, existen
u1 ∈ U1 y u2 ∈ U2 tales que (x, y, z) = u1 + u2 . Ahora bien, todo vector de U1 es de la forma α(1, 2, −2)
con α variando en R; similarmente u2 = β(3, 2, 6) con β ∈ R. Esto implica que (x, y, z) ∈ U1 + U2 si, y
sólo si, existen α, β ∈ R tales que (x, y, z) = α(1, 2, −2) + β(3, 2, 6). En otras palabras

U1 + U2 = {(x, y, z) ∈ R3 : (x, y, z) = α(1, 2, −2) + β(3, 2, 6), con α, β ∈ R};

es decir, U1 + U2 es el plano en R3 que pasa por el origen y está orientado por (1, 2, −2) y (3, 2, 6); o
equivalentemente, U1 + U2 = {(x, y, z) ∈ R3 : 4x − 3y − z = 0}. Note que en este ejemplo el subespacio
vectorial U1 ∩ U2 = {(0, 0, 0)}.

Teorema 5.12 (Dimensión de la suma). Sea V un espacio vectorial sobre K. Si U y W son subespacios
vectoriales de V, ambos de dimensión finita, entonces U + W también es de dimensión finita y se cumple:

dim (U + W ) = dim U + dim W − dim (U ∩ W ). (5.19)

Demostración: Dado que el subespacio vectorial U ∩W está contenido tanto en U como en W , entonces
U ∩ W es de dimensión finita; y su dimensión es menor o igual tanto a la dimensión de U como la de
W . Por otra parte, observe que si alguno de los subespacios vectoriales U y W es igual al subespacio
vectorial nulo, entonces U ∩ W = {OV } y dim (U + W ) = dim U + dim W − dim (U ∩ W ); ver corolario
5.4. Supongamos entonces que tanto U como W son diferentes al subespacio trivial nulo. Analizaremos
los dos siguientes posibles casos:
Caso 1: U ∩ W es el subespacio vectorial nulo.
Sean {u1 , · · · , uk } y {w1 , · · · , wℓ } bases de U y W respectivamente; claramente dim U = k y dim W = ℓ.
Afirmamos que {u1 , · · · , uk , w1 , · · · , wℓ } es base de U + W . Para demostrar esta afirmación debemos
verificar que este conjunto es LI y que todo vector en U + W se escribe como combinación lineal de los
vectores u1 , · · · , uk , w1 , · · · , wℓ . En efecto:
• independencia lineal
supongamos que tenemos escalares α1 , · · · , αk , β1 , · · · , βℓ tales que

α1 u1 + · · · + αk uk + β1 w1 + · · · + βℓ wℓ = OV .

De acá sigue que α1 u1 + · · · + αk uk = (−β1 )w1 + · · · + (−βℓ )wℓ . Note que α1 u1 + · · · + αk uk ∈ U ,


y por esta igualdad también pertenece a W , por tanto α1 u1 + · · · + αk uk = OV . Pero los vectores
u1 , · · · , uk son LI, luego α1 = · · · = αk = 0. De la misma forma se muestra que β1 = · · · = βℓ = 0.
Ası́ {u1 , · · · , uk , w1 , · · · , wℓ } es LI.
• generadores
Sea u + w cualquier vector en U + W , u ∈ U y w ∈ W . Dado que {u1 , · · · , uk } y {w1 , · · · , wℓ } bases de U
y W respectivamente, entonces existen escalares α1 , · · · , αk , β1 , · · · , βℓ tales que u = α1 u1 + · · · + αk uk
y w = β1 w1 + · · · + βℓ wℓ ; luego u + w = α1 u1 + · · · + αk uk + β1 w1 + · · · + βℓ wℓ . Esto demuestra que
{u1 , · · · , uk , w1 , · · · , wℓ } genera a U + W .
62 5. Espacios Vectoriales.

De esta forma, {u1 , · · · , uk , w1 , · · · , wℓ } es base de U + W , y ası́:

dim (U + W ) = k + ℓ = dim U + dim W = dim U + dim W − dim (U ∩ W ),

pues dim (U ∩ W ) = 0, dim U = k y dim W = ℓ.


Caso 2: U ∩ W 6= {OV }.
Sea {v1 , · · · , vr } una base de U ∩ W . Dado que estos vectores son LI tanto en U como en W , recuerde
que U ∩ W ⊂ U y U ∩ W ⊂ W , entonces podemos anexarle a este conjunto hasta obtener bases de U
y W . Por ejemplo, supongamos que {v1 , · · · , vr , u1 , · · · , uk } es base de U y {v1 , · · · , vr , w1 , · · · , wℓ } es
base de W . Mostraremos que {v1 , · · · , vr , u1 , · · · , uk , w1 , · · · , wℓ } es base de U + W . Note que bajo estas
hipótesis tenemos: dim (U ∩ W ) = r, dim U = r + k y dim W = r + ℓ.
• v1 , · · · , vr , u1 , · · · , uk , w1 , · · · , wℓ son LI.
Sean γ1 , · · · , γr , α1 , · · · , αk , β1 , · · · , βℓ ∈ K tales que

γ1 v1 + · · · + γr vr + α1 u1 + · · · + αk uk + β1 w1 + · · · + βℓ wℓ = OV . (5.20)

Esto implica que β1 w1 + · · · + βℓ wℓ ∈ U , pero por estar también en W , entonces está en U ∩ W . Luego
existen escalares δ1 , · · · , δr tales que β1 w1 +· · ·+βℓ wℓ = δ1 v1 +· · ·+δr vr . De la anterior igualdad tenemos
que
(γ1 + δ1 )v1 + · · · + (γr + δr )vr + α1 u1 + · · · + αk uk = OV ;
pero v1 , · · · , vr , u1 , · · · , uk son LI, en particular esto implica que α1 = · · · = αk = 0. De esta forma,
de (5.20) se tiene γ1 v1 + · · · + γr vr + β1 w1 + · · · + βℓ wℓ = OV , entonces de la independencia lineal de
v1 , · · · , vr , w1 , · · · , wℓ sigue que γ1 = · · · = γr = β1 = · · · = βℓ = 0, de lo cual se tiene la independecia
lineal de los vectores v1 , · · · , vr , u1 , · · · , uk , w1 , · · · , wℓ .
• {v1 , · · · , vr , u1 , · · · , uk , w1 , · · · , wℓ } genera a U + W .
Observe inicialmente que S({v1 , · · · , vr , u1 , · · · , uk , w1 , · · · , wℓ }) ⊂ U + W , pues cada uno de los vectores
vi ’s, uj ’s y wm ’s está en U + W ; recuerde el teorema 5.2, ver página 23.
Sea u + w cualquier vector en U + W , u ∈ U y w ∈ W . Claramente podemos escribir

u = γ1 v1 + · · · + γr vr + α1 u1 + · · · + αk uk y v = δ1 v1 + · · · + δr vr + β1 w1 + · · · + βℓ wℓ ;

de donde

u + w = (γ1 + δ1 )v1 + · · · + (γr + δr )vr + α1 u1 + · · · + αk uk + β1 w1 + · · · + βℓ wℓ ;

ası́, U + W ⊂ S({v1 , · · · , vr , u1 , · · · , uk , w1 , · · · , wℓ }) y {v1 , · · · , vr , u1 , · · · , uk , w1 , · · · , wℓ } genera al su-


bespacio vectorial U + W . Finalmente, dado que

dim (U ∩ W ) = r, dim U = r + k, dim W = r + ℓ y dim (U + W ) = r + k + l,

entonces la fórmula de la dimensión de la suma sigue.

Corolario 5.5. Sea V un espacio vectorial sobre K. Si W1 , · · · , Wk (k ≥ 2) son subespacios vectoriales


de V, cada uno de los cuales es de dimensión finita, entonces vale la fórmula

dim (W1 + · · · + Wk ) = dim W1 + · · · + dim Wk − dim (W1 ∩ W2 )


−dim ((W1 + W2 ) ∩ W3 ) − · · · − dim ((W1 + · · · + Wk−1 ) ∩ Wk ).

Demostración: La demostración sigue de la fórmula (5.19) e inducción sobre el entero k. Se dejan los
detalles al lector.
5.6. Sumas de subespacios vectoriales 63

Corolario 5.6. Sea V un espacio vectorial de dimensión n ≥ 1 sobre K. Si U y W son subespacios


vectoriales de V tales que dim U + dim W > n, entonces el subespacio vectorial U ∩ W es diferente del
subespacio trivial nulo.

Demostración: Se deja al lector.

Ejemplo 5.19. En R4 consideremos los subespacios vectoriales:

U = S({u1 , u2 }) y W = {(x, y, z, w) ∈ R4 : x − y + z = 0 y 2x − y + w = 0},

donde u1 = (1, 3, 2, 1) y u2 = (1, 0, 1, 0). Note que {u1 , u2 } es base de U pues tales vectores son LI (¡son
no paralelos!); por tanto dim U = 2. Con estos datos queremos:

caracterizar los vectores de U + W y U ∩ W ; y

determinar una base y dimensión tanto de U + W como de U ∩ W .



x−y+z =0
Claramente W es el espacio solución del sistema de ecuaciones lineales homogéneos .
2x − y + w = 0
Para obtener una base de W procedemos como siempre, analizando la matriz de tal sistema. Dado que
   
1 −1 1 0 f2 →f2 −2f1 1 −1 1 0
−−−−−−−→ ,
2 −1 0 1 0 1 −2 1

entonces las variables libres de este sistema pueden ser tomadas como z y w; que al asignarles valores
canónicos se obtiene como base de W a {(1, 2, 1, 0), (−1, −1, 0, 1)}. Por tanto dim W = 2.
Para facilitar nuestro trabajo caracterizaremos los vectores de U en términos de las relaciones lineales
que cumplen. Sea (x, y, z, w) ∈ U ; entonces existen escalares α, β ∈ R tales que (x, y, z, w) = αu1 + βu2 .
α+β =x



 3α = y
Esto es equivalente a que el sistema de ecuaciones lineales tenga solución; o equivalente-

 2α + β=z

α=w
1 1 1 1 x
   
 3 0   3 0 y 
mente, a que las matrices  2 1  y  2 1 z  tengan el mismo rango. Calculemos entonces tales
  

1 0 1 0 w
rangos; como

1 1 x 1 1 x 1 1 x
     
 3 0 y  0 −3 y − 3x  0 −3 y − 3x
 −−−f−2 →f2 −3f1 f3 →3f3 −f2 
 

 2 −−−−−−−→  − −−−−−−→  ,
1 z  f3 → f3 − 2f1
 0 −1 z − 2x  f4 →3f4 −f2  0 0 −3x − y + 3z 
1 0 w f4 → f4 − f1 0 −1 w − x 0 0 −y + 3w

entonces U = {(x, y, z, w) ∈ R4 : −3x − y + 3z = 0 y − y + 3w = 0}. En vista de las caracterizaciones


que se tienen para U y W , se concluye que

U ∩ W = {(x, y, z, w) ∈ R4 : x − y + z = 0, 2x − y + w = 0, −3x − y + 3z = 0 y − y + 3w = 0}.

x−y+z =0



2x − y + w =0

Es decir, U ∩W es el espacio solución del sistema de ecuaciones lineales homogéneo .

 −3x − y + 3z =0

−y + 3w =0
64 5. Espacios Vectoriales.

De la misma forma como se procedió con W , encontraremos una base de U ∩ W . Como

1 −1 1 0 1 −1 1 0 1 −1 1 0
     
 2 −1 0 1  f2 →f2 −2f1  0 1 −2 1  f3 →f3 +4f2  0 1 −2 1 
 − −−−−−−→   −−− −−−−−−−→  ;
 −3 −1 3 0  f3 →f3 +3f1  0 −4 6 0  f4 → f4 + f2
 0 0 −2 4 
0 −1 0 3 0 −1 0 3 f 4 → f 4 + f 3 0 0 0 0

sigue que w puede ser considerada como la variable libre del sistema, y por tanto {(1, 3, 2, 1)} es una base
de U ∩ W . Obviamente dim (U ∩ W ) = 1.; por tanto del teorema anterior sigue que dim (U + W ) = 3.
Para determinar U + W , observe que {(1, 3, 2, 1), (1, 0, 1, 0), (1, 2, 1, 0), (−1, −1, 0, 1)} genera a tal
subespacio; ver ejercicio propuesto 7 en la página 69. De esta forma, (x, y, z, w) ∈ U + W si, y sólo
si, existen escalares α, β, γ, δ tales que

(x, y, z, w) = α(1, 3, 2, 1) + β(1, 0, 1, 0) + γ(1, 2, 1, 0) + δ(−1, −1, 0, 1);

1 1 1 −1 1 1 1 −1 x
   
 3 0 2 −1 
  3 0 2 −1 y 
como antes, esto equivale a que los rangos de A = 
 2 yB=  sean
1 1 0   2 1 1 0 z 
1 0 0 1 1 0 0 1 w
iguales. Ahora bien, dado que

1 1 1 −1 x 1 1 1 −1 x
   
f2 →f2 −3f1  0 −3 1 2 y − 3x  f4 →f4 −f3  0 −3 1 2 y − 3x 
B −−−−−−−−−−−→   −− −−−−−−→  ,
f3 → f3 − 2f1
 0 −1 −1 2 z − 2x  f 3 →−3f 3 +f 2
 0 0 2 −4 4x + y − 3z 
f4 → f4 − f1 0 −1 −1 2 w−z 0 0 0 0 2x − 2z + w

entonces U + W = {(x, y, z, w) ∈ R4 : 2x − 2z + w = 0}; es decir, U + W es el hiperplano de R4 que pasa


por el origen con vector normal (2, 0, −2, 1). Es obvio que a partir de la ecuación lineal 2x − 2z + w = 0
podemos extraer una base de U + W ; basta asignarle valores canónicos a tres variables libres. En este
caso podemos elegir como variables libres a y, z, w. El siguiente cuadro resume este proceder

y z w x
1 0 0 0
0 1 0 1
0 0 1 − 12

por tanto {(0, 1, 0, 0), (1, 0, 1, 0), (− 21 , 0, 0, 1)} es base de U + W .


Otro procedimiento para obtener una base de U + W es el siguiente: como conocemos un conjunto
generador de este subespacio vectorial, podemos emplear una de las estrategias antes estudiadas para
determinar una base de U +W , ver Estrategia 2 en la página 36; más precisamente, se colocan los vectores
generadores como filas de una matriz, se obtiene una matriz escalonada equivalente a la construida y ası́ las
filas no nulas de esa forma escalonada constituyen una base de tal espacio. Cualquiera de las dos vı́as
descrita sirve para tal fin.

5.6.1. Sumas directas de subespacios vectoriales


En diversas situaciones dentro de la teorı́a del Álgebra Lineal se hace necesario descomponer el espacio
vectorial de una manera especial. Una de las principales formas de lograr una tal descomposición es
mediante la noción de sumas directas; que es el tópico que abordaremos a continuación.
5.6. Sumas de subespacios vectoriales 65

Definición 5.15. Sean V un espacio vectorial sobre K y W1 , · · · , Wk subespacios vectoriales de V. Se


dice que W1 , · · · , Wk son independientes si cada vector en W1 + · · · + Wk se escribe de manera única
como suma de vectores en W1 , · · · , Wk .

Proposición 5.11. Los subespacios vectoriales W1 , · · · , Wk de V son independientes si, y sólo si, la
única forma de escribir a OV como suma de vectores en W1 , · · · , Wk es la trivial: OV = OV + · · · + OV .

Demostración: (=⇒) Supongamos que W1 , · · · , Wk son independientes, y que OV = w1 + · · · + wk ,


donde wi ∈ Wi para cada i = 1, · · · , k. Dado que obviamente OV = OV + · · · + OV y OV ∈ Wi para cada
i = 1, · · · , k, entonces wi = OV para i = 1, · · · , k.
(⇐=) Sea u ∈ W1 + · · · + Wk ; supongamos que w se escribe de dos maneras como suma de vectores en
W1 , · · · , Wk ; es decir, u = w1 + · · · + wk y u = v1 + · · · + vk , donde wi , vi ∈ Wi para cada i = 1, · · · , k.
De acá sigue que OV = (w1 − v1 ) + · · · + (wk − vk ); entonces por hipótesis se concluye que wi = vi para
todo i = 1, · · · , k. Esto es, los subespacios vectoriales W1 , · · · , Wk son independientes.

Observe que esta caracterización de la independencia de subespacios vectoriales cuando es colocada


sobre dos subespacios, digamos W1 y W2 , equivale a que el único vector en común de estos subespacios
en el vector nulo OV . En efecto, supongamos que w ∈ W1 ∩ W2 , dado que OV = w + (−w), entonces si
W1 , W2 son independientes, sigue que w = OV .

Ejemplo 5.20. En el ejemplo 5.17, ver página 60, se mostró dos subespacios de M2×2 (R) que no son
independientes; mientras que en el ejemplo 5.18, página 61, se mostró un par de subespacios vectoriales
de R3 que son independientes.

Ejemplo 5.21. Sea F(R, R) el espacio vectorial de todas las funciones de R en R. Es simple verificar
que el conjunto de funciones pares P (R, R), y el de funciones impares I(R, R):

P (R, R) = {f ∈ F(R, R) : f (x) = f (−x), ∀ x ∈ R}, I(R, R) = {f ∈ F(R, R) : f (x) = −f (−x), ∀ x ∈ R}

son subespacios vectoriales de F(R, R). Afirmamos que P (R, R) y I(R, R) son independientes. De acuerdo
a lo comentado arriba, es suficiente con verificar que la única función que al mismo tiempo par e impar
es la función nula. En efecto, sea f ∈ P (R, R) ∩ I(R, R); esto es, para cada x ∈ R valen f (x) = f (−x) y
f (x) = −f (−x). De cada, es claro que f (x) = −f (x) para todo x ∈ R; esto es, f (x) = 0 para todo x ∈ R.
Por tanto f es la función nula y P (R, R), I(R, R) son independientes.

Teorema 5.13. Sea V un espacio vectorial sobre K. Sean W1 , · · · , Wk subespacios vectoriales de V,


todos finitos dimensionales y diferentes del trivial nulo, y sea W = W1 + · · · + Wk . Entonces las siguiente
afirmaciones son equivalentes:

(a) W1 , · · · , Wk son independientes.

(b) Para todo j con 2 ≤ j ≤ k se cumple Wj ∩ (W1 + · · · + Wj−1 ) = {OV }.

(c) Si {w1i , · · · , wℓi i } es base de Wi (i = 1, · · · , k), entonces {w11 , · · · , wℓ11 , w12 , · · · , wℓ22 , · · · , w1k , · · · , wℓkk }
es base de W .

Demostración: ((a) =⇒ (b)) Sean 2 ≤ j ≤ k y v ∈ Wj ∩ (W1 + · · · + Wj−1 ). En particular esto


implica que v = w1 + · · · + wj−1 donde w1 ∈ W1 , · · · , wj−1 ∈ Wj−1 . Dado que v ∈ Wj , entonces
OV = w1 + · · · + wj−1 + (−v) + OV + · · · + OV ; y como los subespacios son independientes, sigue que
w1 = · · · = wj−1 = v = OV , esto implica (b).
((b) =⇒ (c)) Dado que el conjunto {w1i , · · · , wℓi i } genera al subespacio vectorial Wi , para todo i = 1, · · · , k,
66 5. Espacios Vectoriales.

entonces del ejercicio 7, página 69, sigue que {w11 , · · · , wℓ11 , w12 , · · · , wℓ22 , · · · , w1k , · · · , wℓkk } genera a W .
Resta mostrar por tanto que {w11 , · · · , wℓ11 , w12 , · · · , wℓ22 , · · · , w1k , · · · , wℓkk } es LI. Supongamos que

α11 w11 + · · · + αℓ11 wℓ11 + α12 w12 + · · · + αℓ22 wℓ22 + · · · + α1k w1k + · · · + αℓkk wℓkk = OV . (5.21)

De esta igualdad sigue que

(−α1k )w1k + · · · + (−αℓkk )wℓkk = α11 w11 + · · · + αℓ11 wℓ11 + · · · + α1k−1 w1k−1 + · · · + αℓk−1
k−1
wℓk−1
k−1
,

por tanto

α1k w1k + · · · + αℓkk wℓkk = OV = α11 w11 + · · · + αℓ11 wℓ11 + · · · + α1k−1 w1k−1 + · · · + αℓk−1
k−1
wℓk−1
k−1

pues por hipótesis Wk ∩ (W1 + · · · + Wk−1 ) = {OV }. Ahora bien, dado que {w1k , · · · , wℓkk } es LI, entonces
para todo 1 ≤ j ≤ ℓk se tiene αjk = 0. Por tanto de (5.21) sigue que

(−α1k−1 )w1k−1 + · · · + (−αℓk−1


k−1
)wℓk−1
k−1
= α11 w11 + · · · + αℓ11 wℓ11 + · · · + α1k−2 w1k−2 + · · · + αℓk−2
k−2
wℓk−2
k−2
.

Nuevamente de Wk−1 ∩ (W1 + · · · + Wk−2 ) = {OV } y la independencia lineal de {w1k−1 , · · · , wℓk−1


k−1
} sigue
que αjk−1 = 0 para todo 1 ≤ j ≤ ℓk−1 . Repitiendo estos mismos argumentos, dado que hay un número
finito de subespacios Wj (1 ≤ j ≤ k) se concluye que

α11 = · · · = αℓ11 = α12 = · · · = αℓ22 = · · · = α1k = · · · = αℓkk = 0,

lo cual demuestra (c).


((c) =⇒ (a)) Supongamos que los subespacios vectoriales W1 , · · · , Wk no son independientes; es decir,
existen vectores w1 ∈ W1 , · · · , wk ∈ Wk , no todos nulos, tales que OV = w1 + · · · + wk . Al escribir cada
vector wi (i = 1, · · · , k) como combinación lineal de los vectores w1i , · · · , wℓi i , al menos uno de los escalares
que intervienen en esas combinaciones lineales debe ser diferente de 0, luego el vector nulo se escribe como
combinación lineal diferente de la trivial con los vectores w11 , · · · , wℓ11 , w12 , · · · , wℓ22 , · · · , w1k , · · · , wℓkk , lo
cual es una contradicción pues estos vectores son LI por constituir una base del subespacio suma W .

Comentario 5.11.

Note que si W1 , · · · , Wk son subespacios vectoriales de V, independientes y finito dimensionales,


entonces dim (W1 + · · · + Wk ) = dim W1 + · · · + dim Wk .

Si se excluye la hipótesis de la finitud en la dimensión de los subespacios vectoriales W1 , · · · , Wk ,


entonces se tiene la siguiente versión del teorema anterior:

Teorema 5.14. Sea V un espacio vectorial sobre K. Sean W1 , · · · , Wk subespacios vectoriales


cualesquiera de V. Entonces W1 , · · · , Wk son independientes si, y sólamente si, para todo j con
2 ≤ j ≤ k se cumple Wj ∩ (W1 + · · · + Wj−1 ) = {OV }.

Definición 5.16. Sean V un espacio vectorial sobre K, W1 , · · · , Wk y W = W1 + · · · + Wk subespacios


vectoriales de V. Se dice que W es la suma directa de W1 , · · · , Wk siempre que tales estos subespacios
sean independientes. Tal propiedad se expresa mediante W = W1 ⊕ · · · ⊕ Wk .

Claramente cualquiera de las caracterizaciones dadas para la independencia de subespacios vectoriales,


ver teoremas 5.13 y 5.14, ofrece un criterio para decidir cuando una colección finita de subespacios
determina que su suma sea directa. En particular, observe que todo espacio vectorial V de dimensión
5.6. Sumas de subespacios vectoriales 67

finita n ≥ 1 sobre K, siempre se puede expresar como suma directa de una cantidad finita (menor o igual
a n) de subespacios; por ejemplo, considere una base B = {v1 , · · · , vn } de V; para cada i = 1, · · · , n sea
Wi el subespacio generado por el vector vi ; esto es, Wi = {αvi : α ∈ K}. Dado que todo vector v de V se
escribe de manera única como combinación lineal de los vectores en B; es decir, existen únicos escalares
α1 , · · · , αn tales que v = α1 v1 + · · · + αn vn . Luego del teorema 5.13 sigue que V = W1 ⊕ · · · ⊕ Wn .
Si un espacio vectorial V se expresa como suma directa de subespacios W1 , · · · , Wk , entonces se dice
que V es descompuesto en k factores; esto se debe a que cada vector de V se escribe de manera única
como la suma de k vectores, uno por cada subespacio W1 , · · · , Wk .
Ejemplo 5.22. En R3 consideremos los subespacios vectoriales: W1 la recta que pasa por el origen y
dirigida por v = (0, 1, 1); y W2 el generado por u1 = (2, 1, 1), u2 = (1, 0, −1) y u3 = (1, −1, −4). Veamos
si R3 = W1 ⊕ W2 .
Obviamente W1 tiene como base a {v}. Para obtener una base de W2 procederemos como siempre:
colocamos los vectores generadores de W2 como filas de una matriz y buscamos una forma escalonada
equivalente por filas a la matriz ası́ construida, luego una base de W2 es el conjunto de vectores constituido
por las filas no nulas de la matriz escalonada obtenida. Ası́, de
       
2 1 1 1 0 −1 1 0 −1 1 0 −1
f1 ←→f2 f2 →f2 −2f1 f3 →f3 +f2
 1 0 −1  −−−−−→  2 1 1  −−−−−−−→  0 1 3  −−−−−−−→  0 1 3 ,
f3 →f3 −f1
1 −1 −4 1 −1 −4 0 −1 −3 0 0 0

sigue que W2 tiene dimensión 2 (¡es un plano!) y tiene como base a {(1, 0, −1), (0, 1, 3)}. Finalmente,
haciendo uso del teorema 5.13, chequearemos si {(1, 0, −1), (0, 1, 3), (0, 1, 1)} es base de R3 ; esto equivale
     
1 0 −1 1 0 −1 1 0 −1
f3 →f3 −f2
a chequear si  0 1 3  es invertible. Como  0 1 3  −−−−−−−→  0 1 3 , entonces
0 1 1 0 1 1 0 0 −2
{(1, 0, −1), (0, 1, 3), (0, 1, 1)} es LI, y por tanto base de R3 , con lo cual R3 = W1 ⊕ W2 .
Note que si en lugar de considerar al subespacio W1 como el indicado arriba, suponemos que éste
es generado por el vector u = (1, 2, 5), entonces R3 no es suma directa de W1 y W2 . En efecto, es facil
 
1 0 −1
chequear que en este caso la matriz  0 1 3  es no invertible; por que la unión de las bases de
1 2 5
W1 y W2 no constituyen una base de R3 . También se puede verificar sin dificultad que la recta W1
está contenida en el plano W2 , de manera que W1 ∩ W2 6= {(0, 0, 0)}.
Ejemplo 5.23. En el ejemplo 5.21 mostramos que en F(R, R), los subespacios vectoriales P (R, R) (fun-
ciones pares) e I(R, R) (funciones impares) son independientes, de hecho la única función que par e impar
al mismo tiempo es la función nula. Veamos ahora que F(R, R) = P (R, R) ⊕ I(R, R); para ello basta
(dada la independencia) mostrar que toda función f : R → R se escribe como la suma de una función
par y otra impar. Consideremos cualquier función f : R → R, sean g : R → R y h : R → R las funciones
definidas, para cada x ∈ R, mediante las reglas:
1 1
g(x) = (f (x) + f (−x)) y h(x) = (f (x) − f (−x)).
2 2
Dado que para cada x ∈ R se cumplen:
1 1
g(−x) = (f (−x) + f (−(−x))) = (f (x) + f (−x)) = g(x); y
2 2
1 1
h(−x) = (f (−x) − f (−(−x))) = − (f (x) − f (−x)) = h(x),
2 2
68 5. Espacios Vectoriales.

entonces g es una función par, mientras que h es impar. Además, g(x) + h(x) = f (x) para todo x ∈ R,
por tanto g + h = f . De esta manera, F(R, R) = P (R, R) ⊕ I(R, R).

5.6.2. Ejercicios propuestos de la Sección 5.6


1. Decidir acerca de la veracidad o falsedad de cada una de las siguientes proposiciones; demuestre las
que sean verdaderas, o muestre un contraejemplo para aquellas que sean falsas.

a) Si U y W son subconjuntos cualesquiera del espacio vectorial V, entonces U + W es un subes-


pacio vectorial de V.
b) Sean U y W son subespacios vectoriales del espacio vectorial V. Si U está contenido en W ,
entonces U +W = W . ¿Ocurre lo mismo si en lugar de ser U y W subespacios, son subconjuntos
cualesquiera no vacı́os?
c) Si U y W son dos planos de R3 que pasan por el origen (por tanto subespacios vectoriales de
R3 ), entonces U + W = R3 .
d ) Si U y W son dos planos no paralelos de R3 que pasan por el origen, entonces U + W = R3 .
e) Si U y W son dos planos de R3 que pasan por el origen, entonces dim (U + W ) = 4.
f ) Si U y W son dos planos no paralelos de R3 que pasan por el origen, entonces dim (U +W ) = 3.
g) Si U y W son dos planos no paralelos de R3 que pasan por el origen, entonces U y W son
independientes.
h) Sea V un espacio vectorial sobre K. Si U y W son subespacios vectoriales de V tales que
dim U = 2 y dim W = 3, entonces U + W tiene dimensión 5, 4 o 3.
i ) Si U y W son subespacios vectoriales finito dimensionales del espacio vectorial V, entonces
dim (U + W ) ≥ dim U .
j ) Sean U y W son subespacios vectoriales del espacio vectorial V. Si U ∩ W = {OV }, entonces
V = U ⊕ W.
k ) Sean U y W son subespacios vectoriales del espacio vectorial V. Si U + W = V, entonces
V = U ⊕ W.

2. En R4 considere los subespacios: U generado por los vectores u1 = (2, 1, 0, −1), u2 = (1, 1, −1, 2) y
u3 = (1, 0, 1, −3); y W = {(x, y, z, w) ∈ R4 : x − 3y + z − w = 0 y y + w = 0}. Caracterizar los
subespacios U + W y U ∩ W ; determine una base y dimensión de los mismos.

3. En M2×2 (R) considere los subespacios vectoriales: U = {A ∈ M2×2 (R) : A = At } y W está consti-
 
a b
tuido por todas las matrices tales que: 2a − b + c = 0, a + 2b + c + d = 0 y a − 3b + d = 0.
c d
Determine una base y dimensión de ambos. ¿Son independientes U y W ? ¿Es M2×2 (R) = U ⊕ W ?

4. Considere en Mm×m (K) los subespacios vectoriales: Sm×m (K) y Am×m (K) de todas las matrices
simétricas y antisimétricas respectivamente; recuerde que A ∈ Sm×m (K), si At = A; mientras que
B ∈ Am×m (K), si B t = −B. Demostrar que Mm×m (K) = Sm×m (K) ⊕ Am×m (K).

5. Sean V un espacio vectorial sobre K y U es el espacio generado por los vectores v1 , · · · , vk . Si


u1 , · · · , um son vectores que no pertenecen a U , demostrar que U y el subespacio generado por
u1 , · · · , um son independientes.
5.6. Sumas de subespacios vectoriales 69

6. Sean V un espacio vectorial de dimensión finita n ≥ 1 sobre K y U un subespacio de V con


1 ≤ dim U = k < n. Demostrar que existe un subespacio vectorial W de V tal que V = U ⊕ W ;
observe que un tal subespacio W satisface dim W = n − k.
7. Sean U y W subespacios vectoriales del espacio vectorial V. Si U = S(B1 ) y W = S(B2 ), demuestre
que U + W es generado por B1 ∪ B2 ; en otras palabras S(B1 ∪ B2 ) = S(B1 ) + S(B2 ).
8. Sea V cualquier espacio vectorial sobre K. Si B1 , · · · , Bk son subconjuntos no vacı́os de V, entonces
S(B1 ∪ · · · ∪ Bk ) = S(B1 ) + · · · + S(Bk ). La demostración sigue del ejercicio anterior y haciendo
uso de inducción sobre k.
9. Sean V un espacio vectorial sobre K y W1 , · · · , Wk subespacios vectoriales finito dimensionales de
V. Demostrar que:
a) W1 + · · · + Wk también es finito dimensional y dim (W1 + · · · + Wk ) ≤ dim W1 + · · · + dim Wk .
b) Si dim (W1 + · · · + Wk ) = dim W1 + · · · + dim Wk , entonces W1 , · · · , Wk son independientes.
10. Demostrar los corolarios 5.5 y 5.6.
11. Demostrar el teorema 5.14.
12. Sean V un espacio vectorial sobre K y W1 , · · · , Wk subespacios vectoriales de V. Demostrar que
W1 , · · · , Wk son independientes si, y sólo si, para cada j ∈ {1, · · · , k} se cumple
Wj ∩ (W1 + · · · + Wj−1 + Wj+1 + · · · + Wk ) = {OV }.

13. Sean V un espacio vectorial sobre K, y W un subespacio cualquiera de V. Dado un vector cualquiera
v ∈ V, se define la variedad afı́n de W pasando por v al conjunto v + W = {v + w : w ∈ W }.
a) En R3 , sea W = {(x, y, z) ∈ R3 : 2x + y − z = 0}. Determine v + W siendo que v = (2, 1, 1).
¿Es v + W un subespacio de R3 ?
b) Demostrar las siguientes propiedades:
1) v + W es subespacio de V si, y sólo si, v ∈ W .
2) v + W = u + W si, y sólo si, u − w ∈ W .
c) Considere el conjunto A(W ) de todas las variedades afines del subespacio W ; esto es,
A(W ) = {v + W : v ∈ V}.
Se definen en A(W ) las siguientes operaciones:
adición: (u + W ) + (v + W ) = (u + v) + W ; u, v ∈ V.
multiplicación por escalares: α(u + W ) = (αu) + W ; α ∈ K y u ∈ V.
1) Demostrar que estas operaciones están bien definidas, esto es, demuestre que si u, u′ , v, v ′
son vectores en V tales que u + W = u′ + W y v + W = v ′ + W , entonces
(u + W ) + (v + W ) = (u′ + W ) + (v ′ + W ) y α(u + W ) = α(u′ + W ).
2) Demostrar que A(W ) dotado de estas dos operaciones es un espacio vectorial sobre K.
¿Cuál es su vector nulo? ¿cuál es el simétrico de u + W ? El espacio vectorial A(W ) es
conocido con el nombre de espacio cociente de V módulo W ; se acostumbra denotar por
V/W .

→ −−−→
3) Determine R2 /W , donde W es la recta que pasa por el origen con director A = (1, 1).
Haga un diseño de R2 /W , ¿qué observa?

También podría gustarte