Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Fasciculo 5
Fasciculo 5
Quinto Fascı́culo:
Espacios Vectoriales
Neptalı́ Romero
Universidad Centroccidental Lisandro Alvarado
Decanato de Ciencias y Tecnologı́a
Unidad de Investigación en Ciencias Matemáticas
Departamento de Matemáticas
Junio, 2006
Índice general
5. Espacios Vectoriales. 3
5.1. Nota histórica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
5.2. Definición y ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
5.2.1. Ejemplos de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
5.2.2. Propiedades básicas generales en los espacios vectoriales . . . . . . . . . . . . . . . 9
5.2.3. Ejercicios propuestos de la Sección 5.2 . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.3. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.3.1. Ejemplos de subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.3.2. Subespacios generados por un conjunto de vectores. . . . . . . . . . . . . . . . . . 17
5.3.3. Ejercicios propuestos de la Sección 5.3 . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.4. Independencia y dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.4.1. Sobre la independencia lineal en Kn . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.4.2. Ejercicios propuestos de la Sección 5.4 . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.5. Bases, Dimensión y Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.5.1. Bases de espacios vectoriales: definición y ejemplos . . . . . . . . . . . . . . . . . . 42
5.5.2. Dimensión de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.5.3. Coordenadas en espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.5.4. Cambios de coordenadas en espacios vectoriales . . . . . . . . . . . . . . . . . . . . 51
5.5.5. Ejercicios propuestos de la Sección 5.5 . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.6. Sumas de subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.6.1. Sumas directas de subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . 64
5.6.2. Ejercicios propuestos de la Sección 5.6 . . . . . . . . . . . . . . . . . . . . . . . . . 68
2
5
Espacios Vectoriales.
3
4 5. Espacios Vectoriales.
un sumario de su teorı́a; en ella la defiende, pues ya habı́a sido objetada por un considerable número
de matemáticos contemporaneos a él; la justificación (dada por Grassmann) de su teorı́a incluye una
formulación axiomática de la misma, lo cual muestra lo aventajado que estaba Grassmann para la época.
Cauchy y Saint-Venant afirmaron haber inventado estructuras similares a los de Grassmann. La afir-
mación de Saint-Venant es considerada justa, pues en un trabajo por él publicado en 1845, multiplica
segmentos de rectas en una forma análoga a la introducida por Grassmann. En efecto, cuando Grassmann
leyó el artı́culo de Saint-Venant concluyó que éste no habı́a leido su trabajo de 1844, por lo que envió dos
copias de las partes más relevantes a Cauchy, para que le entregase una de ellas a Saint-Venant. Sin
embargo (¡algo tı́pico de Cauchy!), en el año 1853 este notable matemático publica “Sur les clefs algébri-
que” en la revista Comptes Rendus de Francia; allı́ Cauchy describe un método simbólico que coincide
con lo expuesto por Grassmann en su trabajo, pero no menciona a éste último para nada. Conocida tal
publicación, Grassmann se queja ante la Academia de Ciencias de que su trabajo es primero que el de
Cauchy; en 1854 un comité fue nombrado por la Academia de Ciencias para investigar quién tuvo la
prioridad. ¡Aún se espera por el informe del comité!
El primer matemático en darle importancia al trabajo de Grassmann fue Hankel. En 1867 escribió el
artı́culo “Theorie der complexen Zahlensysteme” en el que son definidos objetos de estudio en forma
abstracta; le otorga créditos al trabajo “Die Ausdehnungslehre” de Grassmann como los fundamentos de
su trabajo.
Sin embargo, el primero en dar una definición axiomática de espacio vectorial real fue Peano; esta
axiomática aparece en el libro “Calcolo geometrico secondo l’Ausdehnungslehre di H. Grassmann preceduto
dalle operazioni della logica deduttiva”, publicado en Italia en el año 1888. Peano da créditos de su
trabajo tanto a Leibniz y Möbius, como a Grassmann y Hamilton. En el notable libro de Peano son
dadas las nociones básicas de las operaciones con conjuntos, introduciendo la notación moderna de la
unión, intersección y pertenencia a un conjunto. Aunque el libro tuvo poca influencia por muchos años,
es notable la forma moderna de como se exponen las nociones de la estructura de espacios vectoriales.
Incluso allı́ se introduce la definición de dimensión de espacios vectoriales, como el número máximo de
objetos (en nuestra nomenclatura, vectores) linealmente independientes; muestra que espacios vectoriales
finito dimensionales tienen bases y ofrece ejemplos de espacios vectoriales de dimensión infinita; además
también introdujo el concepto de operadores lineales, incluso ofrece una definición de suma y producto
de operadores lineales.
En la década de los 1890’s, Pincherle trabajó sobre una teorı́a formal de operadores lineales en espacios
vectoriales de dimensión infinita; sin embargo, este trabajo de Pincherle no tuvo como base los trabajos
de Peano, en su lugar, se soporta en los trabajos de Leibniz y d’Alembert. Al igual que muchos trabajos
en esta área de la Matemática, éste tuvo muy poco impacto inmediato; de hecho los espacios vectoriales
infinito dimensionales y su axiomática no se estudiaron de nuevo hasta que Banach y sus socios tomaron
el tema en la década de los años 1920.
Aunque no fue alcanzando el nivel de la abstracción que Peano habı́a logrado, Hilbert y su discipulo
Schmidt estudiaron los espacios infinito dimensionales de funciones en el año 1904. Schmidt introdujo en
1908 el idioma geométrico en la teorı́a de los espacios de Hilbert; sin embargo, el enfoque completo de tal
axiomática aparece en el año 1920 con la tesis doctoral de Banach. 1
1 Buena parte de la información histórica acá suministrada puede ser encontrada en la magnı́fica página de Internet:
+: V×V → V y ·: K×V → V
(5.1)
(u, v) → u+v (α, u) → αu
tales que, para todo u, v, w ∈ V y todo α, β ∈ K se cumplen los siguientes axiomas de linealidad:
[A1] u + v = v + u. (Conmutatividad)
[A2] u + (v + w) = (u + v) + w. (Asociatividad)
[A3] Existe un único OV ∈ V, denominado vector nulo en V, tal que u + OV = u, para todo u ∈ V.
(Elemento Neutro)
[A4] Para cada u ∈ V existe un único u′ ∈ V, denominado vector simétrico de u, tal que u + u′ = OV .
(Elemento Simétrico)
[M4] 1u = u.
Los elementos de V son llamados vectores; mientras que los elementos de K son denominados escalares.
A los vectores u + v y αu en (5.1) se les conoce con el nombre de vector suma de u y v y vector producto
de α y u, respectivamente.
Comentario 5.1.
Es necesario hacer énfasis en que la estructura vectorial sobre un conjunto no vacı́o V depende
exclusivamente de las operaciones + (adición de vectores) y · (multiplicación por escalares). En
ocasiones se acostumbra decir que el triplete (V, +, ·) es un K-espacio vectorial; siendo que el prefijo
K de este calificativo se establece dependiendo donde se haya definido la multiplicación por escalares.
Ası́, cuando en esta operación externa se emplea el cuerpo de los números reales R, se dice que V
es un espacio vectorial real, o un R-espacio vectorial; mientras que y si K = C, entonces V es un
espacio vectorial complejo, o simplemente un C-espacio vectorial.
Puede ocurrir que sobre un mismo conjunto V puedan definirse más de una estructura vectorial;
obviamente para que esto ocurra al menos una de las operaciones, + o ·, debe ser modificada; de
manera que con las nuevas operaciones también se satisfaga la axiomática en la definición de espacio
vectorial.
6 5. Espacios Vectoriales.
La notación introducida en la definición de espacio vectorial para el vector simétrico, u′ , del vector
u es provisional; más adelante fijaremos, a partir de algunas propiedades derivadas de la definición
anterior, una notación más apropiada.
Es bien conocido que el triplete (Rn , +, ·) satisface cada uno de los axiomas de la definición 5.1; por
tanto Rn es un espacio vectorial sobre R. Es común denominar a Rn , con esta estructura, como el espacio
euclidiano real de dimensión n. Note que OR = (0, · · · , 0) mientras que el simétrico de (α1 , · · · , αn ) es
(−α1 , · · · , −αn ). En particular, el propio conjunto R con las operaciones usuales de adición y multiplica-
ción de números reales es un espacio vectorial real.
es un espacio vectorial sobre R; pues RnP dotado de tales operaciones satisface todos los axiomas de la
definición 5.1.
a11 a12 ··· a1n b11 b12 ··· b1n a11 + b11 a12 + b12 ··· a1n + b1n
a21 a22 ··· a2n b21
b22 ··· b2n a21 + b21
a22 + b22 ··· a2n + b2n
.. + .. .. =
. .. .. .. .. .. .. .. ..
..
. . . . . . . . . . .
am1 am2 ··· amn bm1 bm2 ··· bmn am1 + b1m am2 + bm2 ··· amn + bmn
Como bien es conocido, Mm×n (K) con tales operaciones satisface cada uno de los axiomas de la definición
5.1; por tanto el triplete (Mm×n (K), +, ·) es un K-espacio vectorial.
Exactamente igual a la forma como se verifica que Rn con las operaciones usuales de adición y multipli-
cación por escalares en R, se muestra que Cn dotado de las operaciones arriba definidas es un espacio
vectorial sobre C. Nuevamente tenemos que OC = (0, 0, · · · , 0) y el simétrico de (a1 , a2 , · · · , an ) ∈ Cn es
(−a1 , −a2 , · · · , −an ). Al conjunto Cn con esta estructura se le conoce por espacio euclidiano complejo
n-dimensional. Obviamente C es un espacio vectorial sobre C.
Además de la estructura vectorial compleja arriba descrita, en Cn puede definirse una estructura
de espacio vectorial sobre R. Para ello se considera la misma adición anterior; y la multiplicación por
escalares de la misma forma pero con escalares reales; es decir, dados α ∈ R y (a1 , · · · , an ) ∈ Cn , entonces
α(a1 , · · · , an ) = (αa1 , αa2 , · · · , αan ). Es simple verificar que aunque se esté multiplicando números reales
por n-úplas en C n , también se cumplen cada uno de los axiomas de la definición de espacio vectorial;
pero esta vez sobre el cuerpo de los números reales. Como antes, el vector nulo de Cn como R-espacio
vectorial es la n-úpla nula, y el vector simétrico de (a1 , a2 , · · · , an ) ∈ Cn es (−a1 , −a2 , · · · , −an ).
Dado que Rn es un R-espacio vectorial y Cn es un C-espacio vectorial, ambas estructuras se resumen
diciendo que Kn es un espacio vectorial sobre K con las operaciones usuales de adición y multiplicación
por escalares en K. Note la similitud con Mm×n (K).
Verifiquemos ahora que F(S, R) junto con las operaciones que acabamos de definir constituye un espacio
vectorial sobre R. Para comenzar, observe que para todo par de funciones f, g ∈ F(S, R) se cumple que
f + g = g + f , pues para todo s ∈ S se tiene f (s) + g(s) = g(s) + f (s) ya que la adición en R es
2 Recuerde que una aplicación del conjunto A en el conjunto B es cualquier correspondencia de h : A → B tal que a
cada elemento a ∈ A le hace corresponder un único elemento h(a) ∈ B. Es común encontrar en la literatura matemática
el calificativo función para las aplicaciones, también conocidas como transformaciones, que toman valores en conjuntos
numéricos.
8 5. Espacios Vectoriales.
(xn )n∈N + (yn )n∈N = (xn + yn )n∈N y α(xn )n∈N = (αxn )n∈N .
Sigue por tanto que el elemento neutro para la adición de sucesiones es la sucesión nula (on )n∈N , donde
on = 0 para todo n ≥ 0; además, el simétrico de la sucesión (xn )n∈N es la sucesión (yn )n∈N donde
yn = −xn para cada entero n ≥ 0.
En ocasiones al espacio vectorial en R de las sucesiones de números reales se le acostumbra denotar
mediante el sı́mbolo RN .
Observe que si las funciones f y g son dadas por las expresiones algebraicas:
con m ≥ n, entonces
mientras que
(αf )(x) = αa0 + αa1 x + · · · + αan−1 xn−1 + αan xn .
Como antes, es simple verificar que P(R) dotado de este par de operaciones es un R-espacio vectorial;
siendo que su vector nulo es la función polinómica nula O : R → R dada por O(x) = 0 para todo x ∈ R;
además, el simétrico de la función polinómica dada por f (x) = a0 + a1 x + · · · + an−1 xn−1 + an xn es la
función polinómica g : R → R cuya regla de correspondencia es g(x) = −a0 −a1 x−· · ·−an−1 xn−1 −an xn .
Proposición 5.1. Sea (V, +, ·) cualquier K-espacio vectorial. Para todo u, v, w ∈ V y cada α ∈ K siempre
se cumplen:
Demostración:
b) (⇐=) Veamos primero que 0 v = OV . Es claro que 0 v + 0 v = (0 + 0)v = 0 v = OV + 0v; por tanto
sigue de a) que 0 v = OV . Para mostrar que α OV = OV observe que
α OV + α OV = α(OV + OV ) = α OV = α OV + OV .
c) Probar que (−1)v es el simétrico de v equivale a verificar, en función de [A4], que v + (−1)v = OV .
Probemos entonces esta igualdad:
(α1 + α2 + · · · + αk )v = α1 v + α2 v + · · · + αk v. (5.3)
De esta maneta la primera parte está demostrada. La parte b) se demuestra en forma similar, por
tanto se deja como un ejercicio para el lector.
Comentario 5.2. Las igualdades de la proposición anterior se expresan de forma compacta utilizando
la notación de sumatoria; esto es:
k
! k k
! k
X X X X
α vℓ = αvℓ y αℓ v = αℓ v.
ℓ=1 ℓ=1 ℓ=1 ℓ=1
en R2 .
e) V5 = (x, y) ∈ R2 : y = 2x + a y K = R, con las operaciones de adición y multiplicación
2. Sea S un conjunto no vacı́o cualquiera. Se denota por F(S, C) al conjunto de todas las funciones
f : S → C. Sobre F(S, C) se definen las operaciones de adición y multiplicación por escalares en C
como siguen: para cada f : S → C, g : S → C en F(S, C), y α ∈ C, las funciones f + g y αf son
dadas, para cada s ∈ S, por
3. Sean S un conjunto no vacı́o cualquiera y V un espacio vectorial sobre K. Se denota por F(S, V)
al conjunto de todas las funciones f : S → V. Sobre F(S, V) se definen las operaciones de adición
y multiplicación por escalares en K como siguen: para cada f : S → V, g : S → V en F(S, V), y
α ∈ K, las funciones f + g y αf son dadas, para cada s ∈ S, por
4. Emplear la estructura del espacio de funciones anterior, para describir una estructura de espacio
vectorial sobre los conjuntos:
V1 × V2 = {(v1 , v2 ) : v1 ∈ V1 y v2 ∈ V2 }
Demostrar que V1 × V2 con estas dos operaciones es un espacio vectorial sobre K. Tal espacio es
conocido como espacio vectorial producto de V1 por V2 .
Extender esta noción a un producto finito cualquiera V1 × V2 × · · · × Vn .
9. Dotar a los conjunto Mm×n (C) y P(C) de una estructura de espacio vectorial sobre R.
a1 x1 + a2 x2 + · · · + an xn = b1 + b2 y a1 x1 + a2 x2 + · · · + an xn = αb1
Demostrar que el triplete ([π], ⊕, ⊙) es un R-espacio vectorial. ¿Cuál es el vector nulo de tal espacio
vectorial?, ¿cuál es el simétrico del hiperplano π1 ?
13. En la definición 5.1 de espacio vectorial se establece, ver axiomas [A3] y [A4], la unicidad del vector
nulo y del vector simétrico de cada vector en V. Estas condiciones de unicidad pueden ser obviadas
de la definición, de hecho suponga que en la definción 5.1 los axiomas [A3] y [A4] son sustituidos
por:
a) Verificar que la Ley de Cancelación, item a) de la proposición 5.1, continúa siendo valida.
b) Usando la Ley de Cancelación, demostrar la unicidad del elemento neutro y la unicidad del
elemento simétrico de cada vector.
a) OV ∈ U
La siguiente proposición ofrece una caracterización de subespacios vectoriales que junta en una sóla
condición las tres partes que deben ser chequeadas según la definición 5.2.
Proposición 5.3. Un subconjunto U del espacio vectorial V sobre K es un subespacio vectorial de V si,
y sólamente si, es no vacı́o y para todo u, v ∈ U y cada escalar α ∈ K, vale u + αv ∈ U.
Proposición 5.4. Sean V un espacio vectorial sobre K y U un subespacio vectorial cualquier de V. Cual-
quiera sea el entero positivo n, cualesquiera sean los vectores u1 , · · · , un en U y los escalares α1 , · · · , αn
en K, siempre se tiene α1 u1 + · · · + αn un ∈ U.
• Subespacios triviales
Consideremos cualquier espacio vectorial sobre K, digamos V. Claramente el propio espacio vectorial
V y el subconjunto U = {OV } son subespacios vectoriales de V; éstos son conocidos como los subespacios
triviales de V, en ocasiones nos referiremos a {OV } como el subespacio nulo de V.
todo u, v ∈ R y cada escalar α ∈ R se tiene que u + αv ∈ R, entonces de la proposición 5.3) sigue que R
es un subespacio vectorial de C. Esto deja de ser cierto si consideramos en C la estructura de C espacio
vectorial, es decir cuando la multiplicación por escalares se efectúa sobre el propio C; la razon es que el
producto de un número complejo por un número real no necesariamente es un número real; por ejemplo,
(1 + i)2 = 2 + 2i ∈/ R; ası́ que esta multiplicación por escalares no es cerrada en R.
n-úplas (x1 , · · · , xn ) ∈ Kn que satisfacen cada una de las ecuaciones en (5.5); o en términos matriciales,
x1
..
S(A, O) es el conjunto de vectores unicolumnas X = . ∈ Mn×1 (K) tales que AX = O. Sin impor-
xn
tar la manera como consideremos el conjunto solución de (5.5), como n-úplas o vectores unicolumnas,
S(A, O) es siempre un subespacio vectorial. En efecto, mostraremos una demostración de esta afirmación
siguiendo la notación matricial. En primer lugar ya sabemos que el vector nulo está en S(A, O). Tomemos
X1 , X2 ∈ S(A, O), que es AX1 = O = AX2 , y sea α cualquier escalar en K. Dado que
entonces X1 + αX2 ∈ S(A, O); por tanto S(A, O) es un subespacio vectorial de Mn×1 (K), o de Kn según
sea la interpretación que demos al coonjunto de soluciones del sistema.
En adelante llamaremos espacio solución de AX = O al subespacio vectorial S(A, O). Observe que los
hiperplanos que pasan por el origen son casos particulares de sistemas de ecuaciones lineales homogéneos.
Es importante mencionar que para cualquier sistema de ecuaciones lineales no homogéneo, digamos
AX = B con A ∈ Mm×n (K) y B ∈ Mm×1 (K) diferente de O, su conjunto solución no es un subespacio
vectorial. La razón es muy simple: el vector nulo no pertenece al conjunto solución pues AO = O 6= B.
• Matrices simétricas
En el espacio de todas las matrices cuadradas de orden n sobre K, Mn×n (K), el subconjunto Sn (K)
de todas las matrices simétricas es un subespacio vectorial. Recordemos que A ∈ Mn×n (K) es simétrica
si, y sólo si, A = At .
Obviamente la matriz nula es simétrica; es decir O ∈ Sn (K). Supongamos que tenemos matrices
A, B ∈ Sn (K) y cualquier escalar α ∈ K. Para mostrar que en efecto Sn (K) es un subespacio vectorial de
Mn×n (K) bastará verificar que la matriz A + αB es también simétrica. Pero esto es simple de chequear
haciendo uso de las propiedades de la traspuesta de matrices. De hecho:
f (k) (t) + ak−1 (t)f (k−1) (t) + · · · + a1 (t)f ′ (t) + a0 (t)f (t) = 0, (5.7)
para todo t ∈ I. Observe que la función constante igual a 0, O : I → R con O(t) = 0 para todo t ∈ I, es
solución de (5.6). Por tanto, el conjunto H de todas las funciones f : I → R de clase C k que resuelven
(5.6) es no vacı́o: por lo menos contiene a la función nula, que es justamente el elemento neutro del espacio
vectorial de todas las funciones de clase C k . Veamos que además de ser no vacı́o, H es un subespacio
3 Este ejemplo puede ser obviado por aquellos lectores que no familiarizados con ecuaciones diferenciales ordinarias
5.3. Subespacios vectoriales 17
f (k) (t) + ak−1 (t)f (k−1) (t) + · · · + a1 (t)f ′ (t) + a0 (t)f (t) = 0 y
g (k) (t) + ak−1 (t)g (k−1) (t) + · · · + a1 (t)g ′ (t) + a0 (t)g(t) = 0.
De esta forma
(f + αg)(k) (t) + ak−1 (t)(f + αg)(k−1) (t) + · · · + a1 (t)(f + αg)′ (t) + a0 (t)(f + αg)(t)
= (f (k) (t) + αg (k) (t)) + ak−1 (t)(f (k−1) (t) + αg (k−1) (t)) + · · · + a1 (t)(f ′ (t) + αg ′ (t))
+a0 (t)(f (t) + αg(t))
(k) (k−1) ′
= f (t) + ak−1 (t)f (t) + · · · + a1 (t)f (t) + a0 (t)f (t)
+α(g (k) (t) + ak−1 (t)g (k−1) (t) + · · · + a1 (t)g ′ (t) + a0 (t)g(t))
= 0 + α0 = 0.
k
X
u = α1 v1 + α2 v2 + · · · + αk vk (equivalentemente u = αℓ vℓ ).
ℓ=1
• Dado un subconjunto no vacı́o U de V, CL(U) denota el conjunto de todas las combinaciones lineales
de vectores en U; es decir,
( k
)
X
CL(U) = αℓ vℓ : vℓ ∈ U, αℓ ∈ K con ℓ = 1, 2, · · · , k y k ≥ 1 .
ℓ=1
Note que las combinaciones lineales son siempre sumas finitas de vectores en un mismo espacio vectorial
V sobre K; además, los factores de tales sumas son iguales a la multiplicación de escalares en K por vectores
en V. Observe también que si U es un subconjunto no vacı́o de V, entonces u ∈ CL(U) si, y sólo si, exite
un número finito de vectores en U, digamos v1 , · · · , vk , y el mismo número de escalares α1 , · · · , αn ∈ K
k
X
tales que u = α1 v1 + · · · + αk vk = αℓ vℓ .
ℓ=1
18 5. Espacios Vectoriales.
u = α1 u1 + α2 u2 + · · · + αm um y v = β1 v1 + β2 v2 + · · · + βn vn .
u + αv = α1 u1 + α2 u2 + · · · + αm um + α(β1 v1 + β2 v2 + · · · + βn vn )
= α1 u1 + α2 u2 + · · · + αm um + αβ1 v1 + αβ2 v2 + · · · + αβn vn ,
que también es una combinación lineal de vectores en U; por lo que u + αv ∈ CL(U). Ası́ CL(U) es un
subespacio vectorial de V. De esta forma la demostración está completa.
v ∈ S(U) si, y sólamente si, existe un número finito de vectores v1 , · · · , vn ∈ U y el mismo número
de escalares α1 , · · · , αn ∈ K tales que v = α1 v1 + · · · + αn vn .
Ejemplo 5.1.
Es fácil mostrar que para cada (x1 , x2 , · · · , xn ) ∈ Kn , la única forma de escribir a (x1 , x2 , · · · , xn )
como combinación lineal de E1 , E2 , · · · , En es:
n
X
(x1 , x2 , · · · , xn ) = x1 E1 + x2 E2 + · · · + xn En = xℓ E ℓ .
ℓ=1
designar el subespacio generado por el conjunto U; también son empleadas las notaciones < U > y [U]. Acá adoptamos la
notación S(U) para simbolizar con la letra S la palabra subespacio.
5.3. Subespacios vectoriales 19
n = 2. En C2 , como un espacio vectorial sobre R, consideremos el vector w = (i, 0). Afirmamos que
w no puede escribirse como combinación lineal de los vectores canónicos E1 = (1, 0) y E2 = (0, 1).
De lo contrario, existirı́an escalares α, β ∈ R tales que
de donde α = i ∈ R; lo cual es obviamente falso. Lo que si puede ser verificado sin dificultad es
que todo vector (α1 + iβ1 , α2 + iβ2 ) ∈ C2 , considerado como un R-espacio vectorial, se escribe
(de manera única) como combinación lineal de los vectores E1 = (1, 0), E2 = (0, 1), E3 = (i, 0) y
E4 = (0, i). De hecho esta propiedad es extendida a Cn como un espacio vectorial sobre R.
además, esta es la unica forma de escribir a A como combinación lineal de las matrices canónicas de
Mm×n (K). En particular esto implica que S({Ers : 1 ≤ r ≤ m y 1 ≤ s ≤ n}) = Mm×n (K); es decir,
el conjunto de todas las matrices canónicas en Mm×n (K) es generador de ese espacio vectorial.
3. Consideremos ahora el R-espacio vectorial Pn (R) de todas las funciones polinómicas reales de grado
menor o igual a n; es decir, el R-espacio vectorial dado en la página 9. Las funciones polinómicas
p0 , p1 , · · · , pn : R → R definidas, para cada x ∈ R, por
son denominadas funciones polinómicas canónicas de Pn (R). Como sabemos, para toda función en
p : R → R en Pn (R) existen constantes a0 , · · · , an en R tales que para cada x ∈ R se cumple
p(x) = a0 + a1 x + · · · + an xn ; por tanto, p = a0 p0 + a1 p1 + · · · + an pn ; pues para todo x ∈ R se
tiene p(x) = a0 p0 (x) + a1 p1 (x) + · · · + an pn (x). De lo cual sigue que S({p0 , p1 , · · · , pn }) = Pn (R).
Empleando los mismos argumentos se demuestra (se deja al lector) que si pn : R → R es la función
dada por pn (x) = xn para cada x ∈ R, entonces U = {pn : n ≥ 0} genera al espacio vectorial P(R);
es decir, S(U) = P(R).
4. En R2 veamos cuál es el subespacio vectorial generado por v = (1, 2). Las combinaciones lineales
formadas con v son justamente los vectores αv, con α recorriendo R. Es decir, (x, y) ∈ S({v}) si, y
sólamente si, existe un escalar α ∈ R tal que (x, y) = α(1, 2) = (α, 2α); lo que equivale a decir que
x = α y y = 2α. Esto es, S({v}) = {(x, y) ∈ R2 : y = 2x}; que es la recta de R2 que pasa por el
origen en la dirección del vector v = (1, 2).
20 5. Espacios Vectoriales.
5. Consideremos en R3 los vectores v = (1, 2, 1) y u = (2, 4, 2); note que u y v son paralelos, de hecho,
u = 2v. Veamos quién es S({u, v}):
Esta secuencia de equivalencias permiten concluir S({u, v}) = S({v}); por lo que dar una caracte-
rización del lugar geométrico que ocupan los vectores de S({u, v}) en R3 , equivale a caracterizar
los vectores de S({v}). Dejamos al lector la verificación de S({v}) es la recta en R3 que pasa por el
origen en la dirección de v = (1, 2, 1); es decir:
6. En el ejemplo anterior consideramos dos vectores paralelos y observamos que el conjunto de las
combinaciones lineales con esos dos vectores es igual al conjunto de las combinaciones lineales de
uno de ellos. Tomemos ahora dos vectores no paralelos en R3 : u = (1, 1, 2) y v = (−1, 0, −3), y
determinemos el subespacio vectorial de R3 generado por tales vectores. Claramente (x, y, z) perte-
nece a S({u, v}) si, y sólo si, existen escalares α, β ∈ R tales que (x, y, z) = αu + βv. La existencia
de
tales escalares satisfaciendo esa condición equivale a decir que el sistema de ecuaciones lineales
α−β =x
α = y tiene solución. Ahora bien, esto ocurre si, y sólamente si, la matriz del sistema
2α − 3β = z
1 −1 1 −1 x
1 0 y su ampliada 1 0 y tienen el mismo rango. De esta forma, al determinar
2 −3 2 −3 z
los valores de x, y y z de manera que las matrices anteriores tengan el mismo rango, estaremos
caracterizando (en términos de las variables x, y, z) los vectores (x, y, z) de R3 que pertencen al
subespacio vectorial S({u, v}).
Procedamos entonces a descubrir tales relaciones que determinan los valores posibles de x, y, z.
Para ello examinamos los rango de las matrices de arriba; esto se hace, como siempre, empleando
operaciones elementales por filas:
1 −1 x 1 −1 x 1 −1 x
f2 −→f2 −f1 f3 −→f3 +2f2
1 0 y −−−−−−−→ 0 1 y − x −−−−−−−−→ 0 1 y−x .
2 −3 z 0 −2 z − 2x 0 0 z + 2y − 4x
De acá sigue que las matrices del sistema y su ampliada tienen el mimso rango si, y sólamente si,
−4x + 2y + z = 0. Esto equivale a decir que (x, y, z) ∈ S({u, v}) si, y sólo si, −4x + 2y + z = 0. En
otras palabras S({u, v}) = {(x, y, z) ∈ R3 : −4x + 2y + z = 0} es el plano que pasa por el origen y
→ −−−−−−→
−
con vector normal N = (−4, 2, 1).
7. En P3 (R), el espacio de todas las funciones polinómicas de grado menor o igual a 3, consideremos
los vectores (funciones polinómicas en P3 (R)): p0 , p1 , p2 , p3 dadas por
Deseamos determinar las funciones en P3 (R) que pertenecen a S({p0 , p1 , p2 , p3 }). Supongamos que
p ∈ S({p0 , p1 , p2 , p3 }); es decir, existen escalares α0 , α1 , α2 , α3 ∈ R tales que
p = α0 p0 + α1 p1 + α2 p2 + α3 p3 ;
vale para todo x ∈ R. Claramente de acá sigue que p ∈ S({p0 , p1 , p2 , p3 }) si, y sólo si, existen
2α0 + α1 = a0
α +α =a
1 3 1
escalares α0 , α1 , α2 , α3 en R de manera que el sistema de ecuaciones lineales
−α2 + α3 = a2
0 = a3
tenga solución; en otras palabras, las matrices del sistema y su ampliada:
2 1 0 0 2 1 0 0 a0
0 1 1 0 0 1 1 0 a1
0 0 −1 1 y 0 0 −1 1 a2
0 0 0 0 0 0 0 0 a3
tienen igual rango. Note que la matriz del sistema tiene rango 3 pues es escalonada; por tanto ambas
tienen el mismo rango si, y sólamente si, a3 = 0. De esta manera, el subespacio vectorial de P3 (R)
generado por las funciones polinómicas p0 , p1 , p2 , p3 es
0 1
De esta forma, S(A, O) = S({S1 , S2 }); esto es, cualquier solución S de AX = O tiene la forma
−2α − β
α
S = αS1 + βS2 = , con α y β variando en R.
0
β
igualando componentes tenemos que v ∈ S({v1 , · · · , vn }) si y sólo si, existe (α1 , · · · , αn ) ∈ Kn que es
a11 α1 + a12 α2 + · · · + a1n αn = b1
a21 α1 + a22 α2 + · · · + a2n αn = b2
solución del sistema de ecuaciones lineales .. .
.
am1 α1 + am2 α2 + · · · + amn αn = bm
Ejemplo 5.2. Consideremos los vectores v1 = (1, 2, −1, 0), v2 = (0, −1, 1, 2) y v3 = (1, 2, 2, 1). Deseamos
averiguar si los vectores u1 = (−2, −1, −1, −6) y u2 = (0, 0, 0, 1) pertenecen al subespacio vectorial de R4
generado por v1 , v2 y v3 .
En lugar de aplicar de manera particular la proposición anterior analizando los sistemas de ecuacio-
α1 + α3 = −2 α1 + α3 = 0
2α1 − α2 + 2α3 = −1 2α1 − α2 + 2α3 = 0
nes lineales y , caracterizaremos todos los vectores en
−α 1 + α2 + 2α3 = −1
−α 1 + α2 + 2α3 = 0
2α2 + α3 = −6 2α2 + α3 = 1
5.3. Subespacios vectoriales 23
S({v1 , v2 , v3 }). Obviamente de la proposición anterior tenemos que (x, y, z, w) ∈ S({v1 , v2 , v3 }) si, y sólo
α1 + α3 = x 1 0 1 1 0 1 x
2α1 − α2 + 2α3 = y 2 −1 2 2 −1 2 y
si, tiene solución; es decir, y tienen el
−α1 + α2 + 2α3 = z −1 1 2 −1 1 2 z
2α2 + α3 = w 0 2 1 0 2 1 w
mismo rango. Procedamos por tanto a calcular estos rangos:
1 0 1 x 1 0 1 x 1 0 1 x
2 −1 2 y f2 →f2 −2f1 0 −1 0 y − 2x f3 →f3 +f2 0 −1 0 −2x + y
− −−−−−−→ −−−−−−−→
−1 1 2 z f3 →f3 +f1 0 1 3 x+z 0 0 3 −x + y + z
0 2 1 w 0 2 1 w 0 2 1 w
1 0 1 x 1 0 1 x
f4 →f4 +2f2 0 −1 0 −2x + y f →f
−−4−−−4 − 2
f
3 3
0 −1 0 −2x + y
−−−−−−−→ 0 −− −→ .
0 3 −x + y + z 0 0 3 −x + y + z
0 0 2 −4x + 2y + w 0 0 0 − 10 4 2
3 x + 3y − 3z + w
Claramente de acá sigue que la matriz del sistema tiene rango igual a 3; por tanto, el subespacio vectorial
generado por los vectores v1 , v2 , v3 es
Observe que las componentes de los vectores v1 , · · · , vn conforman las columnas de la primera matriz,
que es la matriz del sistema en el enunciado de la proposición anterior; mientras que las componentes de
v constituyen la última columna de la segunda matriz.
Es importante mencionar que el criterio presentado no es exclusivo para vectores en Km ; como vere-
mos más adelante, también tiene la misma utilidad en contextos más generales; para ello será necesario
introducir la noción de coordenadas en una cierta categorı́a de espacios vectoriales abstractos, en la que
Km es solo un ejemplo.
El teorema a continuación expone algunas propiedades generales de los subespacios vectoriales gene-
rados por un conjunto de vectores.
Demostración:
a) Dado que para cualquier escalar α ∈ K se cumple αOV = OV , entonces S(U) = {OV }.
c) Observe que de la parte b) anterior, S(U′ ) ⊂ S(U). Luego resta mostrar que S(U) ⊂ S(U′ ).
Sea v ∈ S(U); como antes, existen vectores v1 , · · · , vn en U y escalares α1 , · · · , αn en K tales que
v = α1 v1 + · · · + αn vn . Si los vectores vi (i = 1, · · · , n) están todos en U′ , pues entonces v ∈ S(U′ )
y no habrı́a nada que mostrar. Sin embargo, puede ocurrir que algunos de ellos no pertenezcan a
U′ . Para simplificar la demostración asumamos que el vector v1 ∈ / U′ y los restantes, v2 , · · · , vn , si
′
están en U . Note que si v1 ∈ / U , entonces v1 ∈ W (recuerde que U = U′ ∪ W). Ahora bien, dado
′
v = α1 v1 + · · · + αn vn
= α1 (β1 u1 + · · · + βm um ) + α2 v2 + · · · + αn vn
= α1 β1 u1 + · · · + α1 βm um + α2 v2 + · · · + αn vn .
Note que los todos los vectores u1 , · · · , um , v2 , · · · , vn están en U′ . Esto implica que v ∈ S(U′ ); por
tanto S(U) ⊂ S(U′ ).
d) De la parte b) anterior se tiene que S(U) ⊂ S(W). Sin embargo, para todo subespacio vectorial
W siempre se cumple que S(W) = W. Claramente si demostramos esta afirmación, entonces la
demostración de la parte d) sigue.
De la proposición 5.5 tenemos que W ⊂ S(W). Mostremos entonces que S(W) ⊂ W. Sea v ∈ S(W);
luego existen w1 , · · · , wr en W y β1 , · · · , βr en K tales que v = β1 w1 + · · · + βr wr . Por ser W
subespacio vectorial, las operaciones de adición y multiplicación por escalares son cerradas, ver
proposición 5.4, sigue por tanto que v ∈ W. Con lo cual S(W) ⊂ W.
Las partes c) y d) del teorema que acabamos de demostrar, tienen un importante significado. En
primer lugar, la parte c) dice que de un conjunto de vectores se puede extraer, si es que existe, la parte
superflua y continuar generando el mismo subespacio vectorial. Por otra parte, la propiedad d) establece
que el subespacio vectorial generado por un subconjunto no vacı́o es el menor de todos los subespacios
vectoriales que contienen tal subconjunto de vectores.
La siguiente propiedad es consecuencia inmediata del teorema anterior.
5.3. Subespacios vectoriales 25
Corolario 5.1. Sea V un espacio vectorial sobre K. Si los vectores v1 , · · · , vm ∈ V son tales que cada
uno de ellos es combinación lineal de u1 , · · · , uℓ ∈ V, entonces S({v1 , · · · , vm }) ⊂ S({u1 , · · · , uℓ }).
Demostración: Por hipótesis tenemos que {v1 , · · · , vm } ⊂ S({u1 , · · · , uℓ }), por tanto de la parte b)
del teorema 5.2 sigue que S({v1 , · · · , vm }) ⊂ S(S({u1 , · · · , uℓ })). Pero en la demostración de la parte
d) anterior, mostramos que el subespacio vectorial generado por un subespacio vectorial es este mismo
subespacio; en este caso tenemos que S(S({u1 , · · · , uℓ })) = S({u1 , · · · , uℓ }), de esta forma lo afirmado
en el enunciado del corolario se desprende.
Comentario 5.5. Para fines prácticos es importante resaltar la estrecha relación entre las nociones de
combinaciones lineales que venimos tratando y la de matrices equivalentes por filas.
Supongamos que tenemos dos matrices equivalentes por fila A, B ∈ Mm×n (K) cuyas filas son, respec-
tivamente, los vectores de Kn : A(1) , · · · , A(m) y B(1) , · · · , B(m) . Sean g1 , · · · , gs operaciones elementales
por filas tales que A = (gs ◦ · · · ◦ g1 )(B). Obviamente, B = (g1−1 ◦ · · · ◦ gs−1 )(A). Observe que al aplicar
sobre B la operación elemental por filas fj → fj + δfi (resp. fj → δfj , o fj ↔ fi ), entonces cada una de
las filas de la matriz resultante es combinación lineal de las filas de B; de hecho, la la fila j de esta matriz
resultante es B(j) +δB(i) (resp. δB(j) ó B(i) ). Por tanto, como A se obtiene de B mediante la aplicación de
un número finito de operaciones elementales por filas, entonces cada una de las filas de A es combinación
lineal de las filas de B; esto es, para todos los enteros j = 1, · · · , m se cumple A(j) ∈ S({B(1) , · · · , B(m) }).
Esto implica, ver corolario anterior, que S({A(1) , · · · , A(m) }) ⊂ S({B(1) , · · · , B(m) }). De la misma forma,
como B = g1−1 · · · gs−1 (A), entonces también es cierto que S({B(1) , · · · , B(m) }) ⊂ S({A(1) , · · · , A(m) });
por tanto S({A(1) , · · · , A(m) }) = S({B(1) , · · · , B(m) }). Con estos argumentos hemos demostrado:
En realidad el recı́proco de esta propiedad también es cierto; ver ejercicio propuesto 18 en la página 29.
Por tanto, la relación entre las nociones de operaciones elementales por filas y de combinación lineal se
expresa en el enunciado del siguiente teorema:
Teorema 5.3. Dos matrices A y B en Mm×n (K) son equivalentes por filas si, y sólamente si,
Podrı́amos afinar un poco más la relación establecida entre la equivalencia por filas de un par de
matrices cualesquiera de orden m × n con ceficientes en K. En efecto, no es difı́cil mostrar, haciendo uso
del teorema anterior, la siguiente propiedad.
Proposición 5.7. Si A, B son matrices en Mm×n (K) y B es una forma escalonada equivalente por filas
a la matriz A, entonces
S({A(1) , · · · , A(m) }) = S({B(1) , · · · , B(r) }),
Ejemplo 5.3. En R3 consideremos v1 = (1, 2, 1), v2 = (2, 0, −2), v3 = (3, 2, −1) y v4 = (2, −8, −10). Sea
1 2 1
2 0 −2
A= 3
; note que las filas de A están constituidas por los vectores v1 , v2 , v3 , v4 . Dado que
2 −1
2 −8 −10
1 2 1 1 2 1 1 0 −1
f2 →f2 −2 f1 0 −4 −4 f2 →− 14 f2 0 1 1 0 1 1
→f1 −2 f2
−−−f−1−
A −−−−−−−−−−−→ 0 −4 −4 −−−−−−→
−−−−−−−→ ,
f3 → f3 − 3 f1 0 −4 −4 f3 → f3 + 4 f2
0 0 0
f4 → f4 − 2 f1 0 −12 −12 0 −12 −12 f4 → f4 + 12 f2 0 0 0
entonces el subespacio de R3 generado por los vectores v1 , v2 , v3 y v4 es igual al subespacio generado por
u1 = (1, 0, −1) y u2 = (0, 1, 1). Esto es, S({v1 , v2 , v3 , v4 }) = S({u1 , u2 }); observe que tal subespacio es el
plano de R3 que pasa por el origen y está orientado por los vectores u1 y u2 .
Otra interesante propiedad de los subespacios vectoriales, que a su vez está relacionada con la noción
de subespacio generado por un conjunto no vacı́o, es la siguiente:
Proposición 5.8. Sean V un espacio vectorial sobre K e I una colección\ cualquiera de ı́ndices (finito o
no). Si para cada i ∈ I, Ui es un subespacio de V, entonces la intersección Ui es también un subespacio
i∈I
de V.
\
Demostración: Dado que para cada i ∈ I, OV ∈ Ui , entonces OV ∈ Ui . Supongamos ahora que
i∈I
\
u, v ∈ Ui y α ∈ K son cualesquiera. Luego para cada i ∈ I se tiene que u, v ∈ Ui ; ahora, como
i∈I
cada uno de los conjuntos Ui , i ∈ I, es subespacio\de V, sigue\ de la proposición 5.3, ver página 14, que
u + αv ∈ Ui para todo i ∈ I, por tanto u + αv ∈ Ui ; ası́ Ui es subespacio vectorial de V.
i∈I i∈I
Comentario 5.6.
1. Hemos visto que el conjunto solución de cualquier sistema de ecuaciones lineales homogéneas es un
subespacio vectorial; también sabemos que un hiperplano pasando por el origen es un subespacio
vectorial; además, como un sistema de ecuaciones lineales se interpreta geométricamente como la
intersección de hiperplanos, entonces de la proposición anterior también se concluye que el conjunto
solución de cualquier sistema de ecuaciones lineales homogéneas es un subespacio vectorial.
2. En el teorema 5.2 mostramos que S(U) es el menor subespacio vectorial que contiene a U. Al
considerar HU como la colección de todos los subespacios vectoriales\
de V que contienen al conjunto
U, entonces de la proposición precedente se desprende que S(U ) = W . Dejamos la verificación
W ∈HU
de los detalles de esta afirmación al lector.
a) V = R3 ; U = {(x, y, z) ∈ R3 : 2x + y − z = 0 y x + 3y − 2z = 1}.
b) V = R3 ; U = {(x, y, z) ∈ R3 : x + y = 0 y x + 3y − 2z = 0}.
5.3. Subespacios vectoriales 27
2. Demostrar que cada uno de los subconjuntos U de los espacios vectoriales V indicados son subes-
pacios vectoriales:
3. Demostrar que en el espacio vectorial R los únicos subespacios son los triviales; esto es, el propio R
y W = {0}.
4. ¿Es (−3, 2, 1, −2) combinación lineal de (2, 1, 0, −1), (1, −1, 2, 1) y (0, −1, 3, 2)?
2 −2 1 1 0 0 1 0
5. ¿Es combinación lineal de , y ?
5 0 1 0 1 −1 0 1
6. Hallar, si es posible, los valores de t ∈ R tales que (1, −1, t) ∈ S({(3, 0, −2), (2, −1, 1)}).
8. Verificar que (1, 1 + i, 2i) está en el subespacio vectorial de C3 , como C-espacio vectorial, generado
por (1, 2, 1), (0, 1, 1) y (0, 0, 1). ¿Continúa siendo cierta la propiedad si se considera a C3 como un
R-espacio vectorial?
10. Considere el espacio vectorial RN de todas las sucesiones con valores en R. Para cada entero positivo
k, sea ek = (ek,n )n≥1 la sucesión cuyas entradas son nulas, excepta la ubicada en la posición k que
es igual a 1; esto es, ek,n = 0 si n 6= k y ek,n = 1 si n = k.
a) Verificar que la sucesión u = (un )n≥1 , donde un = 0 para todo n ≥ 10 es combinación lineal
de las sucesiones e1 , · · · , e10 .
b) Demostrar que S({ek : k ≥ 1}) es el conjunto de todas las sucesiones eventualmente nulas; que
son las sucesiones (un )n≥1 que a partir de una cierta entrada es nula, es decir, existe n0 ≥ 0
tal que un = 0 para todo n ≥ n0 .
c) Considere la sucesión u = (un )n≥1 , donde un = 0 para todo n par. ¿está u en S({ek : k ≥ 1})?
5.3. Subespacios vectoriales 29
11. Describa, en cada caso, el subespacio vectorial generado por los vectores indicados y el espacio
vectorial V dado.
a) u1 = (1, 0, 1), u2 = (1, 1, 0), u3 = (2, 0, 0); y v1 = (1, 1, 1), v2 = (−1, 1, 0), v3 = (1, 0, 0).
b) u1 = (1, 2, 1), u2 = (1, 1, 2), u3 = (2, 1, 0); y v1 = (1, 1, 1), v2 = (−1, 1, 0), v3 = (0, 0, 0).
15. ¿Existen v1 , v2 , v3 ∈ R3 , no nulos, tales que S({v1 , v2 }) = S({v2 , v3 }) pero S({v1 , v2 }) 6= S({v1 , v3 })?
En caso afirmativo, muestre un ejemplo; de lo contrario, explique al razón de tal imposibilidad.
16. Sean A, B ∈ Mn×n (K) y C = AB. Demostrar que cada fila de C pertence a S({B(1) , · · · , B(n) };
mientras que cada columna de C está en S({A(1) , · · · , A(n) }. Recordar que B(j) denota la fila j de
B, y A(j) es la columna j de A.
17. Sean A, B ∈ Mm×n (K). Suponga que B es una forma escalonada equivalente por filas a la matriz A
y que en el proceso de escalonización no se intercambiaron filas. Demostrar que si B tiene 0 < r < m
filas nulas, demotrar que las últimas r filas de A pertencen a S({A(1) , · · · , A(m−r) }).
¿Qué ocurre si en el proceso de escalonización para obtener a B se emplean operaciones elementales
por filas que intercambien filas?; esto es, ¿qué filas de A se escriben como combinación lineal de las
otras?
18. Sean A, B ∈ Mm×n (K). Si A(1) , · · · , A(m) y B(1) , · · · , B(m) son las filas de A y B respectivamente,
y S({A(1) , · · · , A(m) }) = S({B(1) , · · · , B(m) }), entonces A y B son equivalentes por filas.
19. Sean A, B ∈ Mm×n (K) equivalentes por filas, si B es una forma escalonada de A, entonces
S({A(1) , · · · , A(m) }) = S({B(1) , · · · , B(r) }), siendo B(1) , · · · , B(r) las filas no nulas de B
21. Determinar un conjunto generador de los espacios solución de cada uno de los sistemas de ecuaciones
lineales homogéneos que se indican:
2x + y − z + 2w = 0 ix + y + z = 0
a) x − 2y − w = 0 ; en R4 . b) x − 2iy − z = 0 ; en C3 .
3y + z + 4w = 0 −y + (−1 + i)z = 0
22. En Rn considere el producto interno h, i usual. Dado cualquier conjunto W no vacı́o en Rn ; se define
el complemento ortogonal de W , el cual se denota por W ⊥ , como el conjunto
Definición 5.6. Sea V un espacio vectorial sobre R. Dados dos vectores cualesquiera u, v ∈ V
(u 6= v), se denomina segmento de recta con extremos u y v al conjunto
u v
(1 − α)u + αv
segmento [u, v]
Conjunto convexo Conjunto no convexo
25. Verificar que cada uno de los conjuntos que a continuación se muestran son conjuntos convexos:
a) Cualquier subconjunto unitario {u} ⊂ V. ¿Es convexo un subconjunto finito con más de un
vector? ¿Es convexo el propio espacio vectorial V?
b) {(x, y) ∈ R2 : 0 ≤ x ≤ 1, y y = 0}.
c) Dadas constantes reales a, b, c con a2 + b2 > 0; los semiplanos cerrados de R2
{(x, y) ∈ R2 : ax + by ≤ c} y {(x, y) ∈ R2 : ax + by ≥ c}
donde a1 , · · · , an , b son constantes reales y al menos una de las a’s es diferente de 0. Igualmente
son conjuntos convexos todos los hiperplanos de Rn ; estos son los conjuntos de la forma
{(x1 , · · · , xn ) ∈ Rn : a1 x1 + · · · + an xn = b},
26. Dada\
cualquier colección {Ci }i∈I de conjunto convexos en el espacio vectorial V, demostrar que
C= Ci es también convexo; acá I es un conjunto arbitrario de ı́ndices.
i∈I
27. Demostrar que el conjunto de puntos (x, y) ∈ R2 que satiafacen el sistema de inecuaciones lineales
a1 x + b1 y ≥ c1
.. es un conjunto convexo de R2 .
.
am x + bm y ≥ cm
(a) linealmente independiente (abreviadamente LI) si el vector nulo de V, OV , no puede escribirse como
combinación lineal no trivial 5 de vectores en U .
Cuando el conjunto U es finito, digamos U = {u1 , · · · , un }, decimos que los vectores u1 , · · · , un son
linealmente independientes (resp. linealmente dependientes) si U es linealmente independiente (resp.
linealmente dependiente).
Comentario 5.7. Observe que la independencia lineal es la negación de la dependencia lineal y viceversa;
esto es, un conjunto U en V no es LI si, y sólo si, LD. Consecuentemente, dado cualquier conjunto U en
el espacio vectorial V, se tiene que U o es LI, o bien es LD.
Cada una de las propiedades que se listan a continuación son consecuencias de las definiciones de
independencia y dependencia lineal en cualquier espacio vectorial V sobre K:
(5.8), veamos que U es LI. Por el absurdo supongamos que U es LD, entonces OV se puede escribir
como combinación lineal no trivial de vectores en U ; esto es, existen vectores u1 , · · · , un en U y
α1 , · · · , αn escalares en K no todos nulos tales que α1 u1 + · · · + αn un = OV ; que es justamente la
negación de la condicional (5.8).
Demostración: Note que si W no es LI, por tanto LD, entonces existen vectores w1 , · · · , wm ∈ W
y escalares β1 , · · · , βm no todos nulos tales que β1 w1 + · · · + βm wm = OV . Luego en U (W ⊂ U ) hay
una colección finita de vectores mediante la cual el vector nulo OV se escribe como una combinación
lineal no trivial de tales vectores; es decir, U es LD; lo cual es una contradicción y ası́ W es LI.
Ejemplo 5.4.
Para verificar la independencia lineal de las funciones consideradas, debemos de concluir que los
escalares α0 , α1 , · · · , αn deben ser todos iguales a 0.
Ahora bien, de la anterior ecuación polinomial tenemos que α0 + α1 x + · · · + αn xn = 0 para todo
x ∈ R. ¿Cómo demostrar que estos escalares son iguales a cero? Sabemos que para cada m ≥ 1, la
derivada m-ésima de xm es igual a m! 6 ; mientras que la derivada m-ésima de xj es igual a cero
para cada entero positivo 0 ≤ j ≤ m − 1. Por tanto si derivamos la anterior igualdad n veces,
tenemos n!αn = 0, pero n! 6= 0, por lo que αn = 0. Luego la ecuación de arriba se reduce a
α0 + α1 x + · · · + αn−1 xn−1 = 0 para cada x ∈ R. Repitiendo el mismo argumento n − 1 veces
tendremos que αn = αn−1 = · · · = α1 = 0 y la ecuación reducida a α0 = 0. Con cual hemos
verificado que las funciones polinomiales canónica de Pn (R) son linealmente independientes.
4. Sean v1 = (1, 2, 2), v2 = (−1, 3, 0), v3 = (1, 7, 4) en R3 , veamos si tales vectores son o no linealmente
independientes. Para ello necesitamos estudiar la ecuación vectorial
De esta forma tenemos que el rango de la matriz del sistema es 2, que es menor al número de
incógnitas, que es igual a 3; por tanto el sistema tiene soluciones distintas a la solución trivial; es
decir, existen escalares α, β, λ no todos nulos tales que α(1, 2, 2) + β(−1, 3, 0) + λ(1, 7, 4) = (0, 0, 0).
Luego los vectores v1 , v2 , v3 son linealmente dependientes.
5. Veamos ahora que u1 = (1, 2, 1), u2 = (2, −1, 3), u3 = (1, −1, 2) son linealmente independientes. Al
igual que en ejemplo anterior, después de plantearnos la ecuación vectorial
Dado que el rango de la matriz del sistema y el número de incognitas del sistema son iguales,
entonces el sistema tiene solución única: la trivial, que es α = β = λ = 0. Por tanto los vectores
u1 , u2 , u3 son linealmente independientes.
6 Dado un entero positivo m, se denota por m! al entero m(m − 1) · · · 2, el cual es conocido como el factorial de m
5.4. Independencia y dependencia lineal 35
Con esta noción general de paralelismo se demuestra, muy fácilmente, que si dos vectores u, v en
un espacio vectorial V sobre K son paralelos, entonces son linealmente dependientes. Aún más, se
puede demostrar que dos vectores no nulos u, v ∈ V son linealmente independientes si, y sólo si, no
son paralelos. Se dejan los detalles al lector.
7. Hasta ahora hemos mostrado ejemplos de conjuntos finitos de vectores LI; sin embargo, existen
espacios vectoriales en los cuales existen subconjuntos con una cantidad infinita de vectores que son
LI. Veamos algunos de tales ejemplos.
a) Consideremos el espacio vectorial P(R) de todas las funciones polinómicas. Del ejemplo 3
anterior sabemos que el conjunto de funciones polinómicas Sn = {f0 , f1 , · · · , fn } es LI en
Pn (R); claramente esto implica que Sn es LI en P(R) sin importar el valor del entero n.
Haciendo uso de estos argumentos se demuestra de forma muy simple que el conjunto infinito
S = {fn : n ≥ 0} es LI en P(R).
(
1 si n = k
b) El conjunto de sucesiones C = {ek = (ek,n )n≥0 : k ≥ 1}, donde ek,n = , es LI
0 si n 6= k
en el espacio vectorial RN de todas las sucesiones con valores en R, ver ejercicio propuesto 10
en la página 28. Note que C es un conjunto infinito: para cada par de enteros no negativos j, k
con j 6= k se tiene que ej 6= ek . Dejamos los detalles al lector.
adimite soluciones diferentes de la trivial. Haciendo uso del teorema de Rouché-Frobenius, tenemos que el
anterior sistema de ecuaciones lineales homogéneo admite soluciones distinta de la solución nula si, y sólo
a11 a12 · · · a1m
a21 a22 · · · a2m
si, el rango de la matriz del sistema, A = . .. , es menor que el número de incógnitas,
.. ..
.. . . .
an1 an2 · · · anm
que en este caso es m, pues son m los vectores a los que le estamos estudiando su independencia lineal.
Note que las columnas de esta matriz son justamente los vectores dados.
Ejemplo 5.5. En R4 consideremos los vectores v1 = (1, −1, 0, 1), v2 = (2, 0, 1, 0) y v3 = (0, 1, 1, 0).
1 2 0
−1 0 1
Siguiendo los argumentos expuestos debemos estimar el rango de la matriz A =
0 1
. Veamos:
1
1 0 0
1 2 0 1 2 0 1 2 0
f2 →f2 +f1 0 2 1 f3 →f3 − 21 f2 0 2 1 f4 →f4 −2 f3 0 2 1
A −−−−−−−→ −−−−−−−−→ 1 −
−−−−−−−→
1 ;
f4 →f4 −f1 0 1 1 f4 →f4 +f2 0 0 0 0
2 2
0 −2 0 0 0 1 0 0 0
de acá que A tiene rango 3, número que coincide con el número de incógnitas del sistema correspondiente
al planteamiento del análisis de la dependencia o independencia lineal de tales vectores, tal y como se
expuso arriba. De esta forma, los vectores v1 , v2 , v3 son LI.
Si en lugar de v1 , v2 y v3 consideramos los vectores v1 , v2 y u3 = (0, 2, 1, −2), entonces mediante el
mismo procedimiento, se concluye que los vectores v1 , v2 y u3 son LD. En efecto, dado que
1 2 0 1 2 0 1 2 0 1 2 0
−1 0 2 f2 →f2 +f1 0 2 2 f2 ←→f3 0 1 1 f3 →f3 − f2 0 1 1
− −−−−−−→ − −−−−→ −− −−−−−−→ ,
0 1 1 f4 →f4 −f1 0 1 1 0 2 2 f4 →f4 +2 f2 0 0 0
1 0 −2 0 −2 −2 0 −2 −2 0 0 0
1 2 0
−1 0 2
entonces rg
0
= 2; por tanto v1 , v2 y u3 son LD.
1 1
1 0 −2
Comentario 5.8. Es importante recordar que el rango de una matriz A ∈ Mn×m (K) siempre satisface
rg(A) ≤ mı́n{m, n}; esto es, rg(A) nunca excede al menor número de filas y columnas de A); por otra
parte, del teorema de Rouché-Frobenius se desprende que si un sistema de ecuaciones lineales homogéneas
AX = O, con A ∈ Mn×m (K), tiene más incógnitas que ecuaciones; es decir m > n, entonces tal sistema
de ecuaciones lineales tiene infinitas soluciones. Estas observaciones implican la siguiente afirmación:
cualquier subconjunto en Kn con más de n vectores, es un conjunto LD;
esto sigue del hecho que el sistema de ecuaciones lineales homogéneas correspondiente al planteamiento
del análisis de la dependencia o independencia lineal, ver (5.10), tiene más incógnitas que ecuaciones.
En ese procedimiento ubicamos los vectores dados como las filas de una matriz cuyo rango es estimado.
Ahora procederemos ubicando los vectores como filas de una matriz; para decidir sobre la dependencia o
independencia lineal de tales filas emplearemos el siguiente lema.
Lema 5.1. Dada A ∈ Mm×n (K). Entonces las filas A(1) , · · · , A(m) de A son vectores LD en Kn si, y
sólo si, rg(A) < m.
Demostración: Supongamos que las filas de A son LD como vectores de Kn ; esto es, una de ellas es
combinación lineal de las otras. Observe que si una de las filas de A es nula, no hay nada que demostrar
pues el proceso de escalonamiento se le aplica a la parte no nula de A colocando en las últimas filas las
no nulas. Supongamos por tanto que las filas de A son nulas, y sin perder generalidad, que la última fila
A(m) es combinación lineal de las restantes; es decir, existen ı́ndices 1 ≤ i1 < · · · < is < m y escalares no
nulos α1 , · · · , αs en K tales que
A(m) = α1 A(i1 ) + · · · + αs A(is ) .
la matriz B obtenida tiene como última fila a A(m) − α1 A(i1 ) − · · · − αs A(is ) , que es nula por hipótesis.
Por tanto cualquier forma escalonada equivalente por filas a A tiene al menos una fila nula, este significa
claramente que rg(A) < m.
Supongamos ahora que rg(A) < m. Si alguna fila de A es nula, entonces A(1) , · · · , A(m) son LD;
recuerde que todo conjunto de vectores que contenga al vector nulo siempre es LD. Asumiremos entonces
que todas las filas de A son no nulas. Sea B una forma escalonada equivalente por filas a A. Dado que
rg(A) < m, B tiene por lo menos la última fila nula. Esto significa que, salvo intercambio de filas, hay
una fila en A, digamos A(j) , que al aplicarle una secuencia finita de operaciones elementales por filas
con αk 6= 0 y ik 6= i para todo k = 1, · · · , s, tal fila se anula. Observe que la fila resultante al aplicar tal
secuencia de operaciones elementales por filas es A(j) − α1 A(i1 ) − · · · − αs A(is ) , la cual hemos dicho que
es nula, es decir A(j) = α1 A(i1 ) + · · · + αs A(is ) . Esto claramente implica que las filas de A son LD.
deseamos saber si son LD; y además encontrar un conjunto LI que genere el mismo subespacio vectorial
que ellos generan. Siguiendo la estrategia 2, construimos una matriz cuyas filas son los vectores dados
y luego procedemos a encontrar una forma escalonada equivalente por filas a tal matriz. Ası́ pues, sea
1 1 1 −1
2 2 2 −2
A= 1
; observe que cada fila corresponde a uno de los vectores dados. Como:
2 1 0
−2 −3 −2 1
1 1 1 −1 1 1 1 −1 1 1 1 −1
f2 →f2 −2 f1 0 0 0 0 f2 ←→f3 0 1 0 1 f4 →f4 +f2 0 1 0 1
A −−−−−−−−−−−→ 0
− −−−−→ −−−−−−−→ ,
f3 → f3 − f1 1 0 1 0 0 0 0 0 0 0 0
f4 → f4 + 2 f1 0 −1 0 −1 0 −1 0 −1 0 0 0 0
entonces rg(A) = 2, por lo que los vectores v1 , v2 , v3 , v4 son LD; además, dado que las filas no nulas de
la forma escalonada obtenida son v1 = (1, 1, 1, −1) y v3 = (0, 1, 0, 1), se tiene que el subespacio de R4
generado por v1 , v2 , v3 y v4 , S({v1 , v2 , v3 , v4 }), es exactamente igual al subespacio S({v1 , v3 }).
Comentario 5.9. Bien es conocido que dada cualquier matriz A ∈ Mm×n (K), el conjunto solución del
sistema de ecuaciones lineales homogéneo AX = O es un subespacio vectorial de Kn (o de Mn×1 (K)). La
forma para encontrar un conjunto de vectores generadores (la solución general de AX = O) de obtiene
mediante el conocido método de Gauss; que no es otra cosa que encontrar un conjunto de soluciones
particulares (y especiales) de un sistema escalonado equivalente al dado. Recordemos como es que funciona
este método.
Supongamos que A tiene rango rg(A) = r < m; note que si r = m, la única solución de AX = O es
la trivial; por tanto el conjunto solución deeste sistema es el trivial. Supongamos que la forma canónica
1 0 ··· 0 0 c1,r+1 c1,r+2 ··· c1n
0 1 ··· 0 0 c2,r+1 c2,r+2 ··· c2n
. . .
.. .. . . ... ... .. .. ..
. . .
0 0 · · · 1 0 cr−1,r+1 cr−1,r+2 · · · cr−1,n
de Gauss-Jordan de A es la matriz C = . En
0 0 ··· 0 1 cr,r+1 cr,r+2 ··· crn
0 0 ··· 0 0 0 0 ··· 0
.. .. .. .. .. .. ..
. . . . . . .
0 0 ··· 0 0 0 0 ··· 0
general la forma canónica de Gauss-Jordan de una matriz dada no tiene porque tener en sus primeras r
columnas las que aparecen en la matriz de arriba; sin embargo queremos señalar que el haberla supuesto de
la forma como lo hicimos no resta generalidad, pues bastarı́a con renombrar apropiadamente las variables
del sistema para que la forma canónica de Gauss-Jordan sea de la forma que hemos considerado; esto
justamente equivale a intercambiar algunas columnas de la matriz en cuestión.
Ahora bien, como el rango de A es r, el sistema tiene n − r incógnitas o variables libres; en este caso
son las variables que corresponden a las columnas donde no están los pivotes de C: xr+1 , · · · , xn . Al
asignarle los valores canónicos a tales variables libres, tal y como se muestra en el siguiente cuadro
5.4. Independencia y dependencia lineal 39
de manera que cualquier solución de AX = 0 es escrita como combinación lineal de estas soluciónes
básicas; es decir, el conjunto S1 , · · · , Sn−r generan al espacio solución del sistema. En adición a esta
conocida propiedad, es simple verificar que S1 , · · · , Sn−r son LI; esto sigue del hecho que las últimas n − r
componentes de tales soluciones constituyen los vectores canónicos. Ası́, {S1 , · · · , Sn−r } es un conjunto
generador y linealmente independiente del espacio solución del sistema de ecuaciones lineales homogéneo
AX = 0.
0 1 1 −2 1 1
3) {A1 , A2 , A3 } donde A1 = , A2 = y A3 = .
0 −1 1 2 1 −1
0 1 1 −2 1 0
4) {A1 , A2 , A3 } donde A1 = , A2 = y A3 = . ¿Puede notar
0 −1 1 2 1 0
alguna diferencia con el ejercicio anterior?
e) En P2 (R) con estructura vectorial usual:
1) {p1 , p2 } donde p1 (x) = 1 y p2 (x) = 1 − x2 , para cada x ∈ R.
2) {p1 , p2 , p3 } donde p1 (x) = −2, p2 (x) = 1 + x2 y p3 (x) = x + x2 , para cada x ∈ R.
f ) En F([0, π], R) con estructura vectorial usual:
1) {f1 , f2 } donde f1 (x) = sen x y f2 (x) = cos x, para cada x ∈ [0, π].
2) {f1 , f2 , f3 } donde f1 (x) = −2, f2 (x) = 1 + cos 2x y f3 (x) = −1 + 2 cos2 x, para cada
x ∈ [0, π].
3) {fn : n ≥ 0} donde cada fn (x) = cos nx, para cada x ∈ [0, π].
2. Construya en R3 un conjunto de tres vectores {v1 , v2 , v3 } que sea LD, pero que si embargo los
conjuntos {v1 , v2 }, {v1 , v3 } y {v2 , v3 } sean LI.
3. Sea V un espacio vectorial sobre K. Un subconjunto no vacı́o U de V es LD si, y sólo si, existe
un subconjunto finito {u1 , · · · , un } en U tal que uno de tales vectores es combinación lineal de los
restantes.
7. Decidir acerca de la veracidad o falsedad de cada una de las siguientes proposiciones. Demostrar
cada una de las que son verdaderas y exhiba un contraejemplo para cada una de las falsas:
8. Demostrar que las filas no nulas de cualquier matriz escalonada son vectores LI. ¿Ocurre lo mismo
con las columnas no nulas de una tal matriz?
11. Sea A ∈ Mm×m (K) invertible. Demostrar que los vectores (unicolumnas) v1 , · · · , vk ∈ Km son LI
si, y sólo si, Av1 , · · · , Avk son LI. ¿Ocurre lo mismo si A ∈ Mm×m (K) es cualquier matriz no nula?
12. Sean V un espacio vectorial sobre K, y u, v ∈ V vectores LI. Demostrar que para cada entero n ≥ 1,
se tiene que u + (n − 1)v y u + nv son LI; sin embargo u + (n − 1)v, u + nv, u + (n + 1)v son LD.
13. Sea V un espacio vectorial sobre K. Demostrar que si para cada entero n ≥ 0 se tiene un conjunto
An que es LI en V, y además A0 ⊂ A1 ⊂ · · · ⊂ An ⊂ · · · , entonces A = +∞
S
n=0 An es LI.
15. En el espacio de todas las funciones de R en R, F(R, R), considere para cada entero n ≥ 0 la función
fn definida mediante fn (x) = enx para cada x ∈ R. ¿Es LI el conjunto {fn : n ≥ 0}?
16. Sea A un conjunto no vacı́o cualquiera. Para cada a ∈ A se define la función χa : A → R por
χa (b) = 1, si b = a; caso contrario χa (b) = 0. Demostrar que {χa : a ∈ A} es LI en el espacio
vectorial real F(A, R). A las funciones χa se les denomina funciones caracterı́sticas.
42 5. Espacios Vectoriales.
Definición 5.9. Un subconjunto no vacı́o B de V se denomina base del espacio vectorial V (o simplemente
base de V) si satisface las dos siguientes propiedades:
(a) B es LI; y
Ejemplo 5.7.
1. En el espacio vectorial Kn con la estructura usual sobre K, el conjunto formado por los n vectores
canónicos,
e1 = (1, 0, · · · , 0), e2 = (0, 1, 0, · · · , 0), · · · , en = (0, · · · , 0, 1),
es una base de Kn . Al conjunto C = {e1 , e2 , · · · , en } se le denomina base canónica de Kn .
2. En el espacio vectorial sobre K, Mm×n (K), el conjunto de todas las matrices canónicas Eij (i =
1, · · · , m y j = 1, · · · , n) es una base de este espacio. En efecto, en el ejemplo 2, ver página
33, el conjunto B = {Eij : i = 1, · · · , m y j = 1, · · · , n} es LI; y además, para cada matriz
Xm X n
A = [aij ] ∈ Mm×n (K) se cumple que A = aij Eij ; esto es, B es un generador de Mm×n (K).
i=1 j=1
B es denominada base canónica de Mm×n (K).
3. Como bien es conocido, al conjunto Cn se le puede dotar de, al menos, dos estructuras vectoriales
distintas: una sobre C y otra sobre R. En la primera de estas estructuras, el item 1 este ejemplo
muestra una base (la canónica); pero este mismo conjunto de vectores no es un generador de Cn
como un espacio vectorial sobre R. Veamos esto en un caso particular. En C2 con la estructura de
espacio vectorial real, el vector (1, i), por ejemplo, no puede ser escrito como combinación lineal,
con coeficientes en R2 , de los vectores canónicos e1 = (1, 0) y e2 = (0, 1). No obstante, vemos que
B = {(1, 0), (i, 0), (0, 1), (0, i)} es base de C2 como espacio vectorial sobre R.
independencia lineal:
Sean a, b, c, d escalares en R tales que a(1, 0) + b(i, 0) + c(0, 1) + d(0, i) = OC2 = (0, 0); luego
(a + ib, c + id) = (0, 0), por lo que a = b = c = d = 0.
generan a C2 como un R-espacio vectorial:
Dado cualquier vector w = (a + ib, c + id) ∈ C2 , con a, b, c, d ∈ R, es evidente que para tal
vector se tiene w = a(1, 0) + b(i, 0) + c(0, 1) + d(0, i); por tanto, B = {(1, 0), (i, 0), (0, 1), (0, i)}
genera a C2 con la estructura de espacio vectorial sobre R.
5.5. Bases, Dimensión y Coordenadas 43
De esta forma, B = {(1, 0), (i, 0), (0, 1), (0, i)} es una base de este espacio vectorial real.
4. Consideremos el espacio vectorial de todas las funciones polinómicas de grado menor igual que n,
Pn (R); en vista de que para cada vector p ∈ Pn (R) existen escalares a0 , a1 , · · · , an ∈ R tales que
para todo x ∈ R se tiene p(x) = a0 + a1 x + · · · + an xn , entonces p = a0 f0 + a1 f1 + · · · + an fn ,
donde las funciones fk : R → R son definidas, para cada x ∈ R, por fk (x) = xk . Esto dice que el
conjunto {f0 , f1 , · · · , fn } es un generador de Pn (R); por otra parte, en el ejemplo 3 de la página 33 se
mostró que este mismo conjunto de funciones polinómicas es LI en Pn (R); por tanto {f0 , f1 , · · · , fn }
es una base de este espacio vectorial sobre R.
5. Consideremos el espacio vectorial dado por las soluciones del sistema lineal homogéneo AX = O,
siendo A ∈ Mm×n (K). Suponiendo que tal espacio no es trivial nulo, entonces el conjunto de
soluciones básicas, ver comentario 5.9 en la página 38, es base de ese espacio vectorial.
Teorema 5.4. Sea V un espacio vectorial sobre K. Si V tiene un subconjunto generador con m (m ≥ 1)
vectores, entonces todo subconjunto de V con más de m vectores es LD.
vj = a1j u1 + · · · + amj um .
Corolario 5.2. Sea V un espacio vectorial sobre K. Si V no admite subconjuntos generadores con un
número finito de vectores, entonces V tiene un subconjunto infinito que es LI.
Demostración: Sea v1 un vector no nulo en V (¿por qué existe un tal vector?). Por ser no nulo, {v1 }
es LI. Ahora bien, por hipótesis {v1 } no genera a V, luego existe un vector v2 ∈ / S({v1 }). Del teorema
anterior sigue que {v1 , v2 } es LI. Nuevamente, como este conjunto no genera a V, existe v3 ∈ / S({v1 , v2 });
y de la misma forma, {v1 , v2 , v3 } es LI. Nótese que esta misma lı́nea de argumentos puede emplearse
indefinidamente, por lo que pueden seleccionarse vectores v1 , v2 , · · · , vn , · · · en V tales que, para cada
n ≥ 1 se cumple que {v1 , v2 , · · · , vn } es LI y vn+1 ∈
/ S({v1 , v2 , · · · , vn+1 }). De allı́ que el conjunto
{v1 , v2 , · · · , vn , · · · } es LI.
(a) de dimensión finita (o finito dimensional) si V admite un conjunto generador con un número finito
de vectores;
(b) de dimensión infinita (o infinito dimensional) si V admite conjuntos LI con un número infinito de
vectores.
Observe que los teoremas anteriores, y su corolario, garantizan la no ambigüedad de la definición que
acabamos de introducir; es decir, un espacio vectorial no puede ser al mismo tiempo finito-dimensional y
de dimensión infinita; además, todo espacio vectorial o es finito-dimensional, o es de dimensión infinita.
Ejemplo 5.8.
1. Los espacios vectoriales: Kn con la estructura usual sobre K; Mm×n (K), Pn (R), el espacio solución
de todo sistema de ecuaciones lineales homogéneo, el espacio vectorial nulo {OV }7 y Cn como un
espacio vectorial sobre R, son algunos de los ejemplos de espacios vectoriales finito dimensionales.
2. Los espacios vectoriales P(R), RN y C k ([a, b], R), cualquiera sea el entero no negativo k, tienen
dimensión infinita; en cada uno de ellos posee subconjuntos infinitos que son LI. En efecto, el
conjunto {fn : n ≥ 0}, donde fn : R → R es la función definida por fn (t) = tn para todo t ∈ R,
es LI tanto en P(R) como en C k ([a, b], R); mientras que el conjunto {en : n ≥ 1} de las sucesiones
canónicas es LI en RN ; recuerde que en es la sucesión cuya entrada n-ésima es igual a 1 y las
restantes son 0.
7 Este espacio vectorial trivial tiene como generador el propio vector nulo; carece de interés teórico, y únicamente es
El siguiente teorema establece una jerarquı́a de contención entre los conjuntos que son generadores,
las bases y los conjuntos LI en espacios vectoriales de dimensión finita sobre K.
Teorema 5.6. En todo espacio vectorial finito dimensional V sobre K, diferente del espacio trivial nulo,
siempre se satisfacen:
Demostración:
Extracción de bases: Sea C = {u1 , · · · , um } un conjunto generador de V. Si los vectores u1 , · · · , um
son LI, pues entonces C es una base y no hay nada que extraer. Supongamos por tanto que u1 , · · · , um
son LD. Como sabemos, esto equivale a que uno de tales vectores es combinación lineal de los restantes;
sin perder generalidad, supongamos que um es combinación lineal de u1 , · · · , um−1 . Es simple verificar
que S({u1 , · · · , um−1 }) = S(C) = V; ası́ que {u1 , · · · , um−1 } es también un conjunto generador de V.
Al repetir estos mismos argumentos, dado que V no es el espacio trivial nulo, tendremos un subconjunto
finito de C que genera a V y es LI; es decir, es una base de V.
Completación de conjuntos LI: Sea C = {u1 , · · · , um } un conjunto LI en V. Si S(C) = V, entonces
C es base de V y no hay nada que anexar. Si por el contrario S(C) V, entonces existe um+1 ∈
V \ S(C); luego del teorema 5.5 se tiene que {u1 , · · · , um , um+1 } es LI. Como antes, repetimos los mismos
argumentos, y como V es finito dimensional este proceso de anexión acaba en algún momento, de lo
contrario se podrı́a construir un conjunto LI con infinitos vectores. De esta forma, existe un número finito
de vectores, digamos, um+1 , · · · , un tales que C ∪ {um+1 , · · · , un } es LI y genera a V; es decir, es una
base del espacio vectorial V.
Es importante resaltar que todo espacio vectorial finito dimensional y diferente del espacio nulo tiene
bases; en realidad esta afirmación es independiente del tipo de dimensión: finita o infinita; pero para
dar una demostración en el caso infinito dimensional se requiere de argumentos tan poderosos como el
denominado Lema de Zorn 8 . No obstante en el caso finito dimensional la demostración es consecuencia de
la segunda parte del teorema anterior. En efecto, si V es un espacio vectorial finito dimensional diferente
del espacio nulo, entonces en V hay por lo menos un vector v 6= OV (¡de hecho hay infinitos!). Dado que
todo vector no nulo es LI, {v} puede ser completado hasta obtener una base de V.
Teorema 5.7. Si V es un espacio vectorial sobre K de dimensión finita y diferente del espacio nulo,
entonces todas las bases de V tienen la misma cantidad de vectores.
Demostración: Dado que V es de dimensión finita y distinto del espacio nulo, sus bases, que ya
sabemos existen por el teorema 5.6, tienen un número finito de vectores. Supongamos entonces que
B1 = {u1 , · · · , um } y B2 = {v1 , · · · , vn } son dos bases de V. Como B1 es un generador de V y B2 es LI,
sigue del teorema 5.4 que n ≤ m. De la misma forma, al intercambiar los papeles de B1 y B2 , se tiene
m ≤ n. Ası́ n = m.
Definición 5.11. Dado V un espacio vectorial finito dimensional, se dice que V tiene como dimensión
al número natural n ≥ 1, si es no trivial y el número de los vectores en cada una de sus bases es igual
8 El lector interesado podrá conocer algunos detalles de este lema en la referencia: T. Hungerford. Algebra. Graduate
a n. En caso de ser V el espacio vectorial nulo, su dimensión es 0. Este número natural asociado a los
espacios finito dimensionales se denota por dim V.
Ejemplo 5.9. En ejemplos anteriores mostramos bases para los espacios vectoriales Kn , Mm×n (K) y
Pn (R), por tanto tenemos que:
Aún cuando Cn tiene dimensiń n cuando es considerado como un espacio vectorial sobre C; sin embargo,
el R-espacio vectorial Cn tiene dimensión 2n (se deja al lector la verificación de esta afirmación).
En cuanto a la dimensión del espacio solución del sistema de ecuaciones lineales homogéneas AX = O,
donde A ∈ Mm×n (K) tiene rango r, ésta es igual a n − r; es decir, dim S(A, O) es el número de incógintas
menos el rango de la matriz; el cual coincide con el número de variables libres del sistema de ecuaciones
lineales AX = O. Como caso particular, los hiperplanos de Rn que pasan por el origen tienen todos
dimensión n − 1.
Teorema 5.8. Sea V un espacio vectorial sobre K con dim V = n. Si U es cualquier subespacio de V,
entonces dim U ≤ n. Además, si dim U = n, entonces U = V.
v1 = (1, −1, −1), v2 = (2, −1, 0), v3 = (0, 2, 1), v4 = (1, 0, 1) y v5 = (2, 1, 1);
veamos que S({v1 , v2 , v3 , v4 , v5 }) = R3 , para luego extraer de ese conjunto una base de R3 . Para mostrar
que S({v1 , v2 , v3 , v4 , v5 }) = R3 bastará con verificar que en tal subconjunto hay 3 vectores que son LI,
5.5. Bases, Dimensión y Coordenadas 47
recuerde que dim R3 = 3 y todo subconjunto LI con 3 vectores en un espacio de dimensión 3 es base de ese
espacio. Por tanto, si consideramos la matriz cuyas filas son los vectores dados, y esa matriz es equivalente
a una matriz escalonada con rango 3, entonces en {v1 , v2 , v3 , v4 , v5 } y habrá dos de sus vectores que son
combinación lineal de los otros 3; esos dos vectores son los que se deben quitar
de {v1 , v2, v3 , v4 , v5 } para
1 −1 −1
2 1 0
3
de esta forma tener una base de R . Con estos preliminares, sea A = 0 2 1 Procedamos a
1 0 1
2 1 1
buscar una forma escalonada equivalente por filas a A:
1 −1 −1 1 −1 −1 1 −1 −1
2 1 0 0 3 −2 0 1 0
f2 →f2 −2 f1 f2 ←→f4
0 2 1 −−−−−−−−−−→ 0 2 1 −−−−−→ 0 2 1
f4 → f4 − f1
1 0 1 f5 → f5 − f1 0 1 0 0 3 −2
2 1 1 0 3 1 0 3 1
1 −1 −1 1 −1 −1
0 1 0 0 1 0
f3 →f3 −2 f2 f4 →f4 +2 f3
−−−−−−−−−−−→ 0 0 1 −−−−−−−−→ 0 0 1 = B.
f4 → f4 − 3 f2 f 5 →f 5 −f 3
0 0 −2 0 0 0
f5 → f5 − 3 f2
0 0 1 0 0 0
En vista que B tiene rango 3, entonces {v1 , v2 , v3 , v4 , v5 } genera a R3 . Por otra parte, una forma de precisar
3 vectores LI en {v1 , v2 , v3 , v4 , v5 } es hacer corresponder las filas no nulas de B con las respectivas filas de
A de las que provienen. Note que las tres primeras filas de B son LI, por tanto constituyen una base de
R3 . Ahora bien, la primera fila de B provino de la primera fila de A, de hecho no tuvo ninguna alteración
al igual que la tercera fila de B; sin embargo, la segunda fila de B proviene de la cuarta fila de A, note
que se efectuó la operación f2 ←→ f4 . De esta forma concluimos que los vectores v1 , v3 y v4 son LI, por
tanto {v1 , v3 , v4 } es una base de R3 .
Ejemplo 5.11. Dados v1 = (1, −1, 0, −1, 1), v2 = (1, 0, 2, 0, 1) y v3 = (0, 1, 1, 1, 1) en R5 , queremos en
primer lugar saber si tales vectores son LI; de ser ası́, construiremos una base de R5 que contenga tales
vectores.
1 −1 0 −1 1
Sea A = 1 0 2 0 1 ; note que las filas de A son los vectores dados. En vista que:
0 1 1 1 1
1 −1 0 −1 1 1 −1 0 −1 1
f2 →f2 −f1 f3 →f3 −f2
A −−−−−−−→ 0 1 2 1 0 −−−−−−−→ 0 1 2 1 0 = B,
0 1 1 1 1 0 0 −1 0 1
0 0 0 0 1
48 5. Espacios Vectoriales.
Demostración: Supongamos que B es base de V; esto es, B es LI y generador de V. Por ser generador,
todo vector de V es combinación lineal de vectores en B. Mostremos que esto ocurre de forma única. Por
el absurdo, supongamos que el vector v se escribe de dos maneras como combinación lineal de vectores
en B, esto es, supongamos que existen escalares α1 , · · · , αn y β1 , · · · , βn en K tales que
v = α1 v1 + · · · + αn vn = β1 vv + · · · + βn vn .
Definición 5.12. Sea V un espacio vectorial sobre K de dimensión finita n ≥ 1. Se conoce como base
ordenada de V a toda secuencia ordenada de n vectores en V que constituyan una base de V. Esto es,
una secuencia B = (v1 , · · · , vn ) es una base ordenada de V si el conjunto {v1 , · · · , vn } es base de V.
Observe que según esta definición, dada una base B = {v1 , · · · , vn } de un espacio vectorial V,
existen varias (¿cuántas de ellas hay?) bases ordenadas asociadas; por ejemplo B1 = (v1 , · · · , vn ) y
5.5. Bases, Dimensión y Coordenadas 49
B2 = (vn , · · · , v1 ) son dos bases ordenadas; aun cuando ambas constituyen el mismo conjunto, son dife-
rentes pues están ordenadas de forma distinta.
Sea B = (v1 , · · · , vn ) una base ordenada del espacio vectorial V sobre K. Entonces, para cada vector
v ∈ V existe una única n-úpla (α1 , · · · , αn ) ∈ Kn tal que
v = α1 v1 + · · · + αn vn . (5.12)
Es decir, la base ordenada B determina una correspondencia de V en Kn ; esto es, una aplicación con
dominio en V y conjunto de llegada Kn (V 7−→ Kn ), que asigna a cada vector v de V un único vector
(α1 , · · · , αn ) ∈ Kn que satisfaga (5.12). Debido al tratamiento matricial que se emplea en el Álgebra
Lineal, es conveniente, y ası́ lo haremos en adelante, emplear la notación unicolumna para las n-úplas
provenientes de la aplicación V 7−→ Kn que define una determinada base ordenada.
αn
Ejemplo 5.13.
1. Consideremos en Kn , con la estructura usual sobre K, la base ordenada C = (e1 , · · · , en ) (en adelante
base canónica). Dado que para cada vector v = (x1 , · · · , xn ) ∈ Kn se tiene v = x1 e1 + · · · + xn en ,
x1
..
entonces [v]C = . ; esto es, el vector de coordenadas en la base canónica de cualquier vector en
xn
Kn coincide con la noción original de “coordenadas euclidianas” en tal espacio.
No obstante, si consideramos, por ejemplo en R3 la base C ′ = (e3 , e1 , e2 ), entonces el vector de
x3
coordenadas de v = (x1 , x2 , x3 ) es [v]C = x1 .
′
x2
a + bx + cx2 = α1 (1 + x) + α2 (x − x2 ) + α3 (1 − x2 );
α1 + α3 = a
por tanto los escalares α1 , α2 , α3 ∈ R deben satisfacer α1 + α2 = b . Para conocer tales valores
−α2 − α3 = c
debemos resolver este sistema de ecuaciones lineales. Como siempre se tiene que estudiar la matriz
ampliada de este sistema de ecuaciones lineales:
1 0 1 a 1 0 1 a 1 0 1 a
f2 →f2 −f1 f3 →f3 +f2
1 1 0 b −−−−−−−→ 0 1 −1 b − a −−−−−−−→ 0 1 −1 b−a
0 −1 −1 c 0 −1 −1 c 0 0 −2 −a + b + c
1 0 0 a+b+c
1
1 0 1 a 2
f3 →− f3 f1 →f1 −f3
−−−−−2−→ 0 1 −1 b − a −−−−−−−→ 0 1 0 −a+b−c 2
;
a−b−c f2 →f2 +f3 a−b−c
0 0 1 2 0 0 1 2
de donde:
a+b+c −a + b − c a−b−c
α1 = , α2 = y α3 = .
2 2 2
a+b+c
1
Ası́ que [p]B = −a + b − c. En particular, si p es la función polinomial dada, para cada x ∈ R,
2
a−b−c
3
por p(x) = 2 + 3x − 2x2 , entonces [p]B = 3 pues p = 3p1 + 3p2 + p3 .
1
3. Sean V cualquier espacio vectorial sobre K de dimensión n ≥ 1, y B = (v1 , · · · , vn ) una base
0
..
ordenada de V. Dado que OV se escribe como OV = 0 v1 + · · · + 0 vn , entonces [OV ]B = . . Por
0
otra parte, como:
v1 = 1 v1 + 0 v2 + · · · + 0 vn−1 + 0 vn
v2 = 0 v1 + 1 v2 + 0 v3 + · · · + 0 vn
.. ,
.
vn = 0 v1 + 0 v2 + · · · + 0 vn−1 + 1 vn
1 0 0
0 1 0
. .
0
.. ,
entonces [v1 ]B = . , · · · , [vn ]B = .. ; es decir, los vectores de coordenadas de los
[v2 ]B =
.
0 . 0
0 0 1
vectores de la base ordenada coinciden con los canónicos de Kn .
Teorema 5.10. Sean V un espacio vectorial sobre K con dim V = n ≥ 1 y B = (v1 , · · · , vn ) una base
ordenada de V. La aplicación ΦB : V → Kn (identificamos Mn×1 (K) con K n ) que asocia a cada v ∈ V
su vector de coordenadas [v]B , ΦB (v) = [v]B , es:
(a) biyectiva; y
(b) preserva la estructura vectorial entre los espacios vectoriales V y Kn ; esto es, para todo u, v ∈ V y
cada α ∈ K se cumple:
[u + αv]B = [u]B + α[v]B . (5.14)
5.5. Bases, Dimensión y Coordenadas 51
Demostración:
(a) Recordemos que una aplicación cualquiera f : A → B es inyectiva si, y sólamente si, para todo a, b ∈ A,
f (a) = f (b) implica a = b. Supongamos entonces que u, v son vectores en V tales que [u]B = [v]B ; digamos
α1
..
que [u]B = [v]B = . . Luego de la definición de coordenadas de un vector sigue que
αn
v = α1 v1 + · · · + αn vn = u;
es decir, ΦB es inyectiva.
α1
Para mostrar la sobreyectividad de ΦB se debe verificar que para cualquier ... ∈ Kn existe un
αn
α1
vector v ∈ V tal que ΦB (v) = [v]B = ... . Esto es simple, pues tomar el vector v = α1 v1 + · · · + αn vn .
αn
(b) Dados u, v ∈ V y α ∈ K; sean α1 , · · · , αn y β1 , · · · , βn en K tales que
u = α1 v1 + · · · + αn vn y v = β1 v1 + · · · + βn vn . (5.15)
α1 β1 α1 + αβ1
.. .. ..
Por definición tenemos que [u]B = . , [v]B = . ; además, [u + αv]B = pues de (5.15)
.
αn βn αn + αβn
α1 + αβ1 α1 β1
.
.. . .
se tiene u + αv = (α1 + αβ1 )v1 + · · · + (αn + αβn )vn ; y como = .. + α .. , entonces
αn + αβn αn βn
ΦB (u + αv) = ΦB (u) + αΦB (v); es decir, (5.14) vale.
Comentario 5.10. El resultado que acabamos de mostrar permite identificar biunı́vocamente cualquier
espacio vectorial V de dimensión n ≥ 1 sobre K con el espacio vectorial Kn ; además, esta identificación
respeta la estructura vectorial de ambos espacios. En otras palabras, las operaciones de adición y multi-
plicación por escalares en V se comportan como las operaciones usuales del espacio vectorial Kn . Ası́, las
operaciones de adición y multiplicación por escalares en cualquier espacio vectorial sobre R (resp. C) de
dimensión n ≥ 1 son como las correspondientes operaciones en el espacio vectorial Rn (resp. Cn )
El uso de coordenadas en un espacio vectorial de dimensión finita n ≥ 1 provenientes de una base
ordenada, además de constituir una herramienta teórica mediante la cual se obtiene la identificación
arriba descrita, tienen otra utilidad, y es que buena parte de los resultados del Álgebra Lineal, requieren
de apropiadas bases ordenadas para su tratamiento. Esto hace necesario que sean estudiadas las relaciones
que existen entre diferentes bases ordenadas en un mismo espacio vectorial.
Tomemos cualquier vector u ∈ V; en la base B ′ este vector también se escribe de manera única:
α1
u = α1 u1 + · · · + αn un ; es decir, [u]B′ = ... ;
′ ′
αn
con lo cual
p11 α1 + · · · + p1n αn p11 ··· p1n α1
[u]B = .
. .. .. .. .. = P [u] ′ .
= . (5.17)
. . . . B
Demostración: Recordemos que una matriz cuadrada A ∈ Mn×n (K) es invertible si, y sólo si, el sistema
de ecuaciones lineales homogéneo AX = O tiene como única solución la trivial. Supongamos que P no
α1
..
es invertible, entonces existe X = . no nulo tal que P X = O. Ahora bien, dado que la aplicación
αn
0
u 7−→ [u]B′ es biyectiva y [u]B′ = ... si, y sólo si, u = OV , entonces existe un vector u ∈ V no nulo tal
0
0 0
.. ..
que [u]B′ = X, por tanto P [u]B′ = . . Por otra parte, (5.17) implica que . = [u]B ; es decir, u = OV ,
0 0
lo cual es una contradicción. De esta forma hemos demostrado que P es invertible.
Para demostrar la segunda parte de la proposición, supongamos que P, Q son matrices en Mn×n (K)
tales que para todo vector u ∈ V se cumplen
De acá sigue P X = QX para toda X ∈ Mn×1 (K), recuerde V y Mn×1 (K) están biunı́vocamente identi-
ficados mediante los vectores de coordenadas. Ahora bien, es un simple ejercicio mostrar que para todo
par de matrices A, B ∈ Mm×n (K) siempre se cumple que A = B si, y sólo si, AX = BX para todo
X ∈ Mn×1 (K). Luego P = Q.
Por último, dado que P [u]B′ = [u]B para todo u ∈ V y P es invertible, entonces [u]B′ = P −1 [u]B para
todo u ∈ V; por tanto P −1 es la matriz de cambio de la base B′ hacia la base B.
El siguiente resultado permite emplear los vectores de coordenadas para estudiar propiedades como:
dependencia e independencia lineal y conjuntos generadores.
Proposición 5.10. Sean V es un espacio vectorial sobre K de dimensión n ≥ 1 y B una base ordenada
de V. Entonces:
(b) {Y1 , · · · , Yk } (k ≤ m) es base del subespacio de Kn generado por [v1 ]B , · · · , [vm ]B si, y sólo si, los
vectores w1 , · · · , wk ∈ V tales que Yi = [wi ]B para i = 1, · · · , k constituyen una base del subespacio
S({v1 , · · · , vm }) de V.
Demostración: Observe que para todo v ∈ V y cualesquiera sean los escalares α1 , · · · , αm , siempre se
cumple:
α1 v1 + · · · + αm vm = v ⇐⇒ α1 [v1 ]B + · · · + αm [vm ]B = [v]B .
En efecto, dado que la aplicación v 7−→ [v]B preserva las operaciones de adición y multiplicación por
escalares, ver teorema 5.10, entonces:
α1 v1 + · · · + αm vm = v ⇐⇒ [α1 v1 + · · · + αm vm ]B = [v]B
⇐⇒ α1 [v1 ]B + · · · + αm [vm ]B = [v]B .
0
0
α1 v1 + · · · + αm vm = OV ⇐⇒ α1 [v1 ]B + · · · + αm [vm ]B = . ;
..
0
Ejemplo 5.14. Consideremos en R3 las bases ordenadas: C = (e1 , e2 , e3 ) (la canónica) y B = (v1 , v2 , v3 ),
donde v1 = (1, 1, 0), v2 = (0, 0, 1) y v3 = (0, 1, 1). Dado que:
v1 = 1 e1 + 1 e2 + 0 e3 , v2 = 0 e1 + 0 e2 + 1 e3 y v3 = 0 e1 + 1 e2 + 1 e3 ,
1 0 0
entonces la matriz de cambio de C hacia B es P = 1 0 1. Note que las columnas de P son justamente
0 1 1
los vectores de la base ordenada B; en realidad esto es un hecho general: en Kn , la matriz de cambio de
la base canónica hacia cualquier otra base ordenada B de Kn tiene como columnas, ubicadas en el mismo
orden, los vectores de B.
2
En el caso que estamos considerando observe, por ejemplo, que 1 = [(2, 5, 4)]B puesto que
3
Ejemplo 5.15. Consieremos en P2 (R) las funciones polinómicas p1 , p2 , p3 , q1 , q2 , q3 definidas, para cada
x ∈ R, por
Afirmamos que B = (p1 , p2 , p3 ) y B′ = (q1 , q2 , q3 ) son bases ordenadas de P2 (R). Dado que dim P2 (R) = 3,
basta verificar que los conjuntos {p1 , p2 , p3 } y {q1 , q2 , q3 } son LI. Mostraremos que el primero lo es, la
verificación de esa propiedad para el segundo conjunto es idéntica. Sea C la base ordenada canónica de
P2 (R); es decir, C = (e0 , e1 , e2 ), donde ei (x) = xi para todo x ∈ R. Claramente tenemos que:
2 1 1
[p1 ]C = 3 , [p2 ]C = 1 y [p3 ]C = 1 ;
2 1 2
2 1 1
por tanto p1 , p2 , p3 son LI si, y sólo si, 3 , 1 1 también lo son (ver proposición anterior); y esto
2 1 2
2 3 2
último equivale a que la matriz 1 1 1 tenga rango 3. Esto es lo que efectivamente chequearemos:
1 1 2
2 3 2 1 1 1 1 1 1
f1 ←→f2 f2 →f2 −2f1
1 1 1 −−−−−→ 2 3 2 −−−−−−−→ 0 2 1 .
f3 →f3 −f1
1 1 2 1 1 2 0 0 1
Conocido entonces que B y B′ son bases ordenadas de P2 (R), vamos a determinar la matriz de cambio
de B hacia B′ . Lo primero es escribir cada vector de B′ como combinación lineal de los vectores en B.
5.5. Bases, Dimensión y Coordenadas 55
Observe que cualquier función polinomial p ∈ P2 (R), dada por p(x) = a + bx + cx2 , es combinación lineal
de p1 , p2 , p3 si, y sólo si, existen escalares α, β, γ ∈ R tales que, para cada x ∈ R, se cumple:
En vista de que dos funciones polinomiales son iguales siempre que sus coeficientes sean iguales, sigue
2α + β + γ = a
que los escalares α, β y γ deben satisfacer 3α + β + γ = b . Pasemos entonces a resolver este sistema
2α + β + 2γ = c
(que es compatible determinado, ¿por qué?). Como de costumbre emplearemos el método matricial y la
reducción por filas para ello.
2 1 1 a 2 1 1 a 2 1 1 a
f2 →f2 − 32 f1 f →−2 f
3 1 1 b −−−−−−−−→ 0 − 1 − 1 b − 3 a −−−−−−→ 0 1 1 3a − 2b
2 2
f3 →f3 −f1 2 2 2
2 1 2 c 0 0 1 c−a 0 0 1 c−a
2 0 0 −2a + 2b 2 0 0 −2a + 2b
f1 →f1 −f2 f2 →f2 −f3
−−−−−−−→ 0 1 1 3a − 2b −−−−−−−→ 0 1 0 4a − 2b − c ;
0 0 1 c−a 0 0 1 c−a
En particular tenemos:
Supongamos que tales vectores unicolumnas son los vectores de coordenadas en la base B de funciones
polinómicas: h1 , h2 , h3 y h4 respectivamente; esto es, [hi ]B = Xi para i = 1, 2, 3, 4. Deseamos obtener a
partir de estos vectores de coordenadas una base del espacio generado por h1 , h2 , h3 y h4 ; es decir, una
base del subespacio S({h1 , h2 , h3 , h4 }). Para ello consideraremos la matriz cuyas filas son los vectores de
coordenadas dados, y luego procederemos a obtener una forma escalonada equivalente a tal matriz, las
filas no nulas de esa matriz constituyen vectores de coordenadas que son una base del espacio generado por
X1 , X2 , X3 y X4 ; por tanto, de acuerdo a la proposición 5.10, las correspondiente funciones polinómicas
definen una base del subespacio S({h1 , h2 , h3 , h4 }). Procedamos entonces con las cuentas:
−1 −2 −1 −1 −2 −1 −1 −2 −1
1 2 2 →f2 +f1 0 0 1 f3 →f3 +f2 0 0 1
−−−f−2−−−−−−−→ − −−−−−−→ .
2 4 1 f3 → f3 + 2 f1
0 0 −1 f4 →f4 +f2 0 0 0
1 2 0 f4 → f4 + f1 0 0 −1 0 0 0
56 5. Espacios Vectoriales.
Claramente esta última matriz es una forma escalonada equivalente por filas a la matriz inicial; las filas
−1 0
no nulas de esta forma escalonada representan a los vectores unicolumnas Y1 = −2 y Y2 = 0
−1 1
que son LI y generan al mismo subespacio vectorial que X1 , X2 , X3 y X4 ; es decir, {Y1 , Y2 } es base
de S({X1 , X2 , X3 , X4 }). Al interpretar los vectores unicolumnas Y1 y Y2 como vectores de coordenadas
de ciertas funciones polinómicas g1 , g2 ∈ P2 (R) (Yi = [gi ]B , i = 1, 2); tenemos que {g1 , g2 } es base de
S({h1 , h2 , h3 , h4 }). Note que para cada x ∈ R se tiene
Para concluir con este ejemplo nos gustarı́a observar que en vista de no haberse efectuado operaciones
elementales por filas del tipo fi ←→ fj , como las filas nulas de la forma escalonada obtenida son las
dos últimas, entonces los vectores unicolumnas X3 , X4 son combinación lineal de los dos primeros; por
lo que además de ser {X1 , X2 } LI, sigue que S({X1 , X2 , X3 , X4 }) = S({X1 , X2 }); ası́, {X1 , X2 } es base
del espacio generado por los vectores unicolumnas X1 , X2 , X3 y X4 . Esto nos permite tener al conjunto
{h1 , h2 } como una base de S({h1 , h2 , h3 , h4 }).
2. Exhiba una base, y dimensión, para cada uno de los espacios vectoriales que a continuación se
indican:
a) V = {(x, y, z, w) ∈ R4 : x = y = z = w};
b) V = {(x, y, z, w) ∈ C4 : ix = y, z = w}; (como C-espacio vectorial)
5.5. Bases, Dimensión y Coordenadas 57
V = (x, y, z, w) ∈ R4 : x + y + z − w = 0 y − x + y + w = 0 .
c)
d ) V = S({p1 , p2 , p3 }), donde cada pi ∈ P2 (R) (i = 1, 2, 3) es definida, para cada x ∈ R, por:
4. Decidir acerca de la veracidad o falsedad de cada una de las siguientes proposiciones. Demuestre
las que sean verdaderas y exhiba un contraejemplo para cada una de las falsas.
0
..
j ) Si V tiene dimensión n ≥ 1 y B es una base ordenada de V, entonces [v]B = . si, y sólo si
0
v = OV .
k ) Si V tiene dimensión n ≥ 1 y v ∈ V es tal que [v]B es constante para cualquier base ordenada
B, entonces v = OV .
8. Para resolver este ejercicio es necesario recordar la estructura de espacio vectorial producto, esta
noción fue introducida en el ejercicio propuesto número 7 en la página 12.
Sean V y U espacios vectoriales sobre K de dimensiones n ≥ 1 y m ≥ 1, respectivamente. Si B es
una base de V y B′ es una base de U, demostrar que {(v, u) ∈ V × U : v ∈ B y v ∈ B ′ } es una
base de V × U. Concluya que dim(V × U) = nm. ¿Qué ocurre si uno de los espacios vectorial dados
es el espacio nulo? ¿Sigue siendo válida la fórmula de la dimensión del espacio vectorial producto?
Haciendo uso de la propiedad expuesta determinar la dimensión del espacio vectorial real Cn con
n ≥ 2.
9. Demostrar que el conjunto B = {fn : n ≥ 0}, donde cada fn : R → R es la función definida, para
cada x ∈ R, por fn (x) = xn , es una base de P(R). En consecuencia P(R) es un espacio vectorial
de dimensión infinita.
10. Considere en el espacio vectorial RN , de todas las sucesiones con valores en R, las sucesiones canóni-
cas en con n ≥ 1; recuerde que en = (en,k )k≥1 , donde en,k = 0 si n 6= k y en,n = 1. Demuestre que
{en : n ≥ 1} es LI, pero no genera a RN .
La obtención de una base para RN es ciertamente complicado; de hecho, no siempre es simple exhibir
bases para espacios vectoriales infinito dimensionales.
son bases ordenadas. Determine la matriz de cambio de la base B hacia la base B ′ . Encuentre el los
vectores de coordenadas [p]B y [p]B′ , donde p es función polinómica definida, para cada x ∈ R, por
p(x) = 2 − x + x2 . Considere las funciones polinómicas h1 , h2 , h3 , h4 de P2 (R) tales que
3 1 5 2
[h1 ]B′ = 1 , [h2 ]B′ = 2 , [h3 ]B′ = 0 y [h4 ]B′ = −1 .
2 −1 5 3
Determine una base del subespacio vectorial generado por h1 , h2 , h3 y h4 . ¿Cuáles son los vectores
de coordenadas de tal base en B?
13. Sea V un espacio vectorial real de dimensión finita n ≥ 1. Sobre el conjunto de todas las posibles
bases ordenadas de V se define la siguiente relación ∼: dadas dos bases ordenadas B y B ′ , B ∼ B′
si, y sólo si, la matriz de cambio de base de B hacia B ′ tiene determinante positivo. Demostrar que
∼ es una relación de equivalencia. ¿Cuántas clases de equivalencia hay?
14. Una base ordenada B = (u1 , · · · , un ) en Rn se dice que es una orientación positiva de Rn , si
det AB > 0, donde AB es la matriz n × n cuyas columnas son, respectivamente, los vectores
u1 , · · · , un . Cuando det AB < 0, se dice que B es una orientación negativa de Rn .
Note que:
esto es, todo vector en W1 + · · · + Wk es la suma de k vectores, uno en cada uno de los subconjuntos que
se están sumando.
u + αv = (v1 + · · · + vk ) + α(w1 + · · · + wk )
= (v1 + αw1 ) + · · · + (vk + αwk );
w i1 + · · · + w is = O V + · · · + O V + w i1 + O V + · · · + O V + w is + O V + · · · + O V .
(a) Si U = W , entonces U + W = U .
Ejemplo 5.16. En general la suma de subconjunto no vacı́os en un espacio vectorial V no tiene porqué ser
subespacio vectorial de V. Por ejemplo, sean W1 = {(1, −1)} y W2 = {(x, y) ∈ R2 : x = y}, note que W1
no es subespacio vectorial de R2 . Afirmamos que W1 + W2 no es subespacio vectorial de R2 . En efecto,
cualquier vector en W1 + W2 es de la forma: (1, −1) + α(1, 1) con α ∈ R; observe que todo vector en W2
se escribe como un múltiplo de (1, 1) (W2 es la recta que pasa por el origen con director (1, 1)). De esta
forma, W1 + W2 es la recta que pasa por (1, −1) con director (1, 1). Obviamente (0, 0) ∈ / W1 + W2 , por
lo que tal subconjunto no es subespacio vectorial de R2 .
U1 = (x, y, z) ∈ R3 : 2x = y = −z y U2 = (x, y, z) ∈ R3 : 2x = 3y = z ;
note que ambos subespacios vectoriales son rectas que pasan por el origen; la primera de ellas dirigida
por el vector (1, 2, −2) y la segunda por (3, 2, 6); es decir
Determinemos el subespacio vectorial U1 + U2 . Por definición, (x, y, z) ∈ U1 + U2 si, y sólo si, existen
u1 ∈ U1 y u2 ∈ U2 tales que (x, y, z) = u1 + u2 . Ahora bien, todo vector de U1 es de la forma α(1, 2, −2)
con α variando en R; similarmente u2 = β(3, 2, 6) con β ∈ R. Esto implica que (x, y, z) ∈ U1 + U2 si, y
sólo si, existen α, β ∈ R tales que (x, y, z) = α(1, 2, −2) + β(3, 2, 6). En otras palabras
es decir, U1 + U2 es el plano en R3 que pasa por el origen y está orientado por (1, 2, −2) y (3, 2, 6); o
equivalentemente, U1 + U2 = {(x, y, z) ∈ R3 : 4x − 3y − z = 0}. Note que en este ejemplo el subespacio
vectorial U1 ∩ U2 = {(0, 0, 0)}.
Teorema 5.12 (Dimensión de la suma). Sea V un espacio vectorial sobre K. Si U y W son subespacios
vectoriales de V, ambos de dimensión finita, entonces U + W también es de dimensión finita y se cumple:
Demostración: Dado que el subespacio vectorial U ∩W está contenido tanto en U como en W , entonces
U ∩ W es de dimensión finita; y su dimensión es menor o igual tanto a la dimensión de U como la de
W . Por otra parte, observe que si alguno de los subespacios vectoriales U y W es igual al subespacio
vectorial nulo, entonces U ∩ W = {OV } y dim (U + W ) = dim U + dim W − dim (U ∩ W ); ver corolario
5.4. Supongamos entonces que tanto U como W son diferentes al subespacio trivial nulo. Analizaremos
los dos siguientes posibles casos:
Caso 1: U ∩ W es el subespacio vectorial nulo.
Sean {u1 , · · · , uk } y {w1 , · · · , wℓ } bases de U y W respectivamente; claramente dim U = k y dim W = ℓ.
Afirmamos que {u1 , · · · , uk , w1 , · · · , wℓ } es base de U + W . Para demostrar esta afirmación debemos
verificar que este conjunto es LI y que todo vector en U + W se escribe como combinación lineal de los
vectores u1 , · · · , uk , w1 , · · · , wℓ . En efecto:
• independencia lineal
supongamos que tenemos escalares α1 , · · · , αk , β1 , · · · , βℓ tales que
α1 u1 + · · · + αk uk + β1 w1 + · · · + βℓ wℓ = OV .
γ1 v1 + · · · + γr vr + α1 u1 + · · · + αk uk + β1 w1 + · · · + βℓ wℓ = OV . (5.20)
Esto implica que β1 w1 + · · · + βℓ wℓ ∈ U , pero por estar también en W , entonces está en U ∩ W . Luego
existen escalares δ1 , · · · , δr tales que β1 w1 +· · ·+βℓ wℓ = δ1 v1 +· · ·+δr vr . De la anterior igualdad tenemos
que
(γ1 + δ1 )v1 + · · · + (γr + δr )vr + α1 u1 + · · · + αk uk = OV ;
pero v1 , · · · , vr , u1 , · · · , uk son LI, en particular esto implica que α1 = · · · = αk = 0. De esta forma,
de (5.20) se tiene γ1 v1 + · · · + γr vr + β1 w1 + · · · + βℓ wℓ = OV , entonces de la independencia lineal de
v1 , · · · , vr , w1 , · · · , wℓ sigue que γ1 = · · · = γr = β1 = · · · = βℓ = 0, de lo cual se tiene la independecia
lineal de los vectores v1 , · · · , vr , u1 , · · · , uk , w1 , · · · , wℓ .
• {v1 , · · · , vr , u1 , · · · , uk , w1 , · · · , wℓ } genera a U + W .
Observe inicialmente que S({v1 , · · · , vr , u1 , · · · , uk , w1 , · · · , wℓ }) ⊂ U + W , pues cada uno de los vectores
vi ’s, uj ’s y wm ’s está en U + W ; recuerde el teorema 5.2, ver página 23.
Sea u + w cualquier vector en U + W , u ∈ U y w ∈ W . Claramente podemos escribir
u = γ1 v1 + · · · + γr vr + α1 u1 + · · · + αk uk y v = δ1 v1 + · · · + δr vr + β1 w1 + · · · + βℓ wℓ ;
de donde
Demostración: La demostración sigue de la fórmula (5.19) e inducción sobre el entero k. Se dejan los
detalles al lector.
5.6. Sumas de subespacios vectoriales 63
donde u1 = (1, 3, 2, 1) y u2 = (1, 0, 1, 0). Note que {u1 , u2 } es base de U pues tales vectores son LI (¡son
no paralelos!); por tanto dim U = 2. Con estos datos queremos:
entonces las variables libres de este sistema pueden ser tomadas como z y w; que al asignarles valores
canónicos se obtiene como base de W a {(1, 2, 1, 0), (−1, −1, 0, 1)}. Por tanto dim W = 2.
Para facilitar nuestro trabajo caracterizaremos los vectores de U en términos de las relaciones lineales
que cumplen. Sea (x, y, z, w) ∈ U ; entonces existen escalares α, β ∈ R tales que (x, y, z, w) = αu1 + βu2 .
α+β =x
3α = y
Esto es equivalente a que el sistema de ecuaciones lineales tenga solución; o equivalente-
2α + β=z
α=w
1 1 1 1 x
3 0 3 0 y
mente, a que las matrices 2 1 y 2 1 z tengan el mismo rango. Calculemos entonces tales
1 0 1 0 w
rangos; como
1 1 x 1 1 x 1 1 x
3 0 y 0 −3 y − 3x 0 −3 y − 3x
−−−f−2 →f2 −3f1 f3 →3f3 −f2
2 −−−−−−−→ − −−−−−−→ ,
1 z f3 → f3 − 2f1
0 −1 z − 2x f4 →3f4 −f2 0 0 −3x − y + 3z
1 0 w f4 → f4 − f1 0 −1 w − x 0 0 −y + 3w
x−y+z =0
2x − y + w =0
Es decir, U ∩W es el espacio solución del sistema de ecuaciones lineales homogéneo .
−3x − y + 3z =0
−y + 3w =0
64 5. Espacios Vectoriales.
1 −1 1 0 1 −1 1 0 1 −1 1 0
2 −1 0 1 f2 →f2 −2f1 0 1 −2 1 f3 →f3 +4f2 0 1 −2 1
− −−−−−−→ −−− −−−−−−−→ ;
−3 −1 3 0 f3 →f3 +3f1 0 −4 6 0 f4 → f4 + f2
0 0 −2 4
0 −1 0 3 0 −1 0 3 f 4 → f 4 + f 3 0 0 0 0
sigue que w puede ser considerada como la variable libre del sistema, y por tanto {(1, 3, 2, 1)} es una base
de U ∩ W . Obviamente dim (U ∩ W ) = 1.; por tanto del teorema anterior sigue que dim (U + W ) = 3.
Para determinar U + W , observe que {(1, 3, 2, 1), (1, 0, 1, 0), (1, 2, 1, 0), (−1, −1, 0, 1)} genera a tal
subespacio; ver ejercicio propuesto 7 en la página 69. De esta forma, (x, y, z, w) ∈ U + W si, y sólo
si, existen escalares α, β, γ, δ tales que
1 1 1 −1 1 1 1 −1 x
3 0 2 −1
3 0 2 −1 y
como antes, esto equivale a que los rangos de A =
2 yB= sean
1 1 0 2 1 1 0 z
1 0 0 1 1 0 0 1 w
iguales. Ahora bien, dado que
1 1 1 −1 x 1 1 1 −1 x
f2 →f2 −3f1 0 −3 1 2 y − 3x f4 →f4 −f3 0 −3 1 2 y − 3x
B −−−−−−−−−−−→ −− −−−−−−→ ,
f3 → f3 − 2f1
0 −1 −1 2 z − 2x f 3 →−3f 3 +f 2
0 0 2 −4 4x + y − 3z
f4 → f4 − f1 0 −1 −1 2 w−z 0 0 0 0 2x − 2z + w
y z w x
1 0 0 0
0 1 0 1
0 0 1 − 12
Proposición 5.11. Los subespacios vectoriales W1 , · · · , Wk de V son independientes si, y sólo si, la
única forma de escribir a OV como suma de vectores en W1 , · · · , Wk es la trivial: OV = OV + · · · + OV .
Ejemplo 5.20. En el ejemplo 5.17, ver página 60, se mostró dos subespacios de M2×2 (R) que no son
independientes; mientras que en el ejemplo 5.18, página 61, se mostró un par de subespacios vectoriales
de R3 que son independientes.
Ejemplo 5.21. Sea F(R, R) el espacio vectorial de todas las funciones de R en R. Es simple verificar
que el conjunto de funciones pares P (R, R), y el de funciones impares I(R, R):
son subespacios vectoriales de F(R, R). Afirmamos que P (R, R) y I(R, R) son independientes. De acuerdo
a lo comentado arriba, es suficiente con verificar que la única función que al mismo tiempo par e impar
es la función nula. En efecto, sea f ∈ P (R, R) ∩ I(R, R); esto es, para cada x ∈ R valen f (x) = f (−x) y
f (x) = −f (−x). De cada, es claro que f (x) = −f (x) para todo x ∈ R; esto es, f (x) = 0 para todo x ∈ R.
Por tanto f es la función nula y P (R, R), I(R, R) son independientes.
(c) Si {w1i , · · · , wℓi i } es base de Wi (i = 1, · · · , k), entonces {w11 , · · · , wℓ11 , w12 , · · · , wℓ22 , · · · , w1k , · · · , wℓkk }
es base de W .
entonces del ejercicio 7, página 69, sigue que {w11 , · · · , wℓ11 , w12 , · · · , wℓ22 , · · · , w1k , · · · , wℓkk } genera a W .
Resta mostrar por tanto que {w11 , · · · , wℓ11 , w12 , · · · , wℓ22 , · · · , w1k , · · · , wℓkk } es LI. Supongamos que
α11 w11 + · · · + αℓ11 wℓ11 + α12 w12 + · · · + αℓ22 wℓ22 + · · · + α1k w1k + · · · + αℓkk wℓkk = OV . (5.21)
(−α1k )w1k + · · · + (−αℓkk )wℓkk = α11 w11 + · · · + αℓ11 wℓ11 + · · · + α1k−1 w1k−1 + · · · + αℓk−1
k−1
wℓk−1
k−1
,
por tanto
α1k w1k + · · · + αℓkk wℓkk = OV = α11 w11 + · · · + αℓ11 wℓ11 + · · · + α1k−1 w1k−1 + · · · + αℓk−1
k−1
wℓk−1
k−1
pues por hipótesis Wk ∩ (W1 + · · · + Wk−1 ) = {OV }. Ahora bien, dado que {w1k , · · · , wℓkk } es LI, entonces
para todo 1 ≤ j ≤ ℓk se tiene αjk = 0. Por tanto de (5.21) sigue que
Comentario 5.11.
finita n ≥ 1 sobre K, siempre se puede expresar como suma directa de una cantidad finita (menor o igual
a n) de subespacios; por ejemplo, considere una base B = {v1 , · · · , vn } de V; para cada i = 1, · · · , n sea
Wi el subespacio generado por el vector vi ; esto es, Wi = {αvi : α ∈ K}. Dado que todo vector v de V se
escribe de manera única como combinación lineal de los vectores en B; es decir, existen únicos escalares
α1 , · · · , αn tales que v = α1 v1 + · · · + αn vn . Luego del teorema 5.13 sigue que V = W1 ⊕ · · · ⊕ Wn .
Si un espacio vectorial V se expresa como suma directa de subespacios W1 , · · · , Wk , entonces se dice
que V es descompuesto en k factores; esto se debe a que cada vector de V se escribe de manera única
como la suma de k vectores, uno por cada subespacio W1 , · · · , Wk .
Ejemplo 5.22. En R3 consideremos los subespacios vectoriales: W1 la recta que pasa por el origen y
dirigida por v = (0, 1, 1); y W2 el generado por u1 = (2, 1, 1), u2 = (1, 0, −1) y u3 = (1, −1, −4). Veamos
si R3 = W1 ⊕ W2 .
Obviamente W1 tiene como base a {v}. Para obtener una base de W2 procederemos como siempre:
colocamos los vectores generadores de W2 como filas de una matriz y buscamos una forma escalonada
equivalente por filas a la matriz ası́ construida, luego una base de W2 es el conjunto de vectores constituido
por las filas no nulas de la matriz escalonada obtenida. Ası́, de
2 1 1 1 0 −1 1 0 −1 1 0 −1
f1 ←→f2 f2 →f2 −2f1 f3 →f3 +f2
1 0 −1 −−−−−→ 2 1 1 −−−−−−−→ 0 1 3 −−−−−−−→ 0 1 3 ,
f3 →f3 −f1
1 −1 −4 1 −1 −4 0 −1 −3 0 0 0
sigue que W2 tiene dimensión 2 (¡es un plano!) y tiene como base a {(1, 0, −1), (0, 1, 3)}. Finalmente,
haciendo uso del teorema 5.13, chequearemos si {(1, 0, −1), (0, 1, 3), (0, 1, 1)} es base de R3 ; esto equivale
1 0 −1 1 0 −1 1 0 −1
f3 →f3 −f2
a chequear si 0 1 3 es invertible. Como 0 1 3 −−−−−−−→ 0 1 3 , entonces
0 1 1 0 1 1 0 0 −2
{(1, 0, −1), (0, 1, 3), (0, 1, 1)} es LI, y por tanto base de R3 , con lo cual R3 = W1 ⊕ W2 .
Note que si en lugar de considerar al subespacio W1 como el indicado arriba, suponemos que éste
es generado por el vector u = (1, 2, 5), entonces R3 no es suma directa de W1 y W2 . En efecto, es facil
1 0 −1
chequear que en este caso la matriz 0 1 3 es no invertible; por que la unión de las bases de
1 2 5
W1 y W2 no constituyen una base de R3 . También se puede verificar sin dificultad que la recta W1
está contenida en el plano W2 , de manera que W1 ∩ W2 6= {(0, 0, 0)}.
Ejemplo 5.23. En el ejemplo 5.21 mostramos que en F(R, R), los subespacios vectoriales P (R, R) (fun-
ciones pares) e I(R, R) (funciones impares) son independientes, de hecho la única función que par e impar
al mismo tiempo es la función nula. Veamos ahora que F(R, R) = P (R, R) ⊕ I(R, R); para ello basta
(dada la independencia) mostrar que toda función f : R → R se escribe como la suma de una función
par y otra impar. Consideremos cualquier función f : R → R, sean g : R → R y h : R → R las funciones
definidas, para cada x ∈ R, mediante las reglas:
1 1
g(x) = (f (x) + f (−x)) y h(x) = (f (x) − f (−x)).
2 2
Dado que para cada x ∈ R se cumplen:
1 1
g(−x) = (f (−x) + f (−(−x))) = (f (x) + f (−x)) = g(x); y
2 2
1 1
h(−x) = (f (−x) − f (−(−x))) = − (f (x) − f (−x)) = h(x),
2 2
68 5. Espacios Vectoriales.
entonces g es una función par, mientras que h es impar. Además, g(x) + h(x) = f (x) para todo x ∈ R,
por tanto g + h = f . De esta manera, F(R, R) = P (R, R) ⊕ I(R, R).
2. En R4 considere los subespacios: U generado por los vectores u1 = (2, 1, 0, −1), u2 = (1, 1, −1, 2) y
u3 = (1, 0, 1, −3); y W = {(x, y, z, w) ∈ R4 : x − 3y + z − w = 0 y y + w = 0}. Caracterizar los
subespacios U + W y U ∩ W ; determine una base y dimensión de los mismos.
3. En M2×2 (R) considere los subespacios vectoriales: U = {A ∈ M2×2 (R) : A = At } y W está consti-
a b
tuido por todas las matrices tales que: 2a − b + c = 0, a + 2b + c + d = 0 y a − 3b + d = 0.
c d
Determine una base y dimensión de ambos. ¿Son independientes U y W ? ¿Es M2×2 (R) = U ⊕ W ?
4. Considere en Mm×m (K) los subespacios vectoriales: Sm×m (K) y Am×m (K) de todas las matrices
simétricas y antisimétricas respectivamente; recuerde que A ∈ Sm×m (K), si At = A; mientras que
B ∈ Am×m (K), si B t = −B. Demostrar que Mm×m (K) = Sm×m (K) ⊕ Am×m (K).
13. Sean V un espacio vectorial sobre K, y W un subespacio cualquiera de V. Dado un vector cualquiera
v ∈ V, se define la variedad afı́n de W pasando por v al conjunto v + W = {v + w : w ∈ W }.
a) En R3 , sea W = {(x, y, z) ∈ R3 : 2x + y − z = 0}. Determine v + W siendo que v = (2, 1, 1).
¿Es v + W un subespacio de R3 ?
b) Demostrar las siguientes propiedades:
1) v + W es subespacio de V si, y sólo si, v ∈ W .
2) v + W = u + W si, y sólo si, u − w ∈ W .
c) Considere el conjunto A(W ) de todas las variedades afines del subespacio W ; esto es,
A(W ) = {v + W : v ∈ V}.
Se definen en A(W ) las siguientes operaciones:
adición: (u + W ) + (v + W ) = (u + v) + W ; u, v ∈ V.
multiplicación por escalares: α(u + W ) = (αu) + W ; α ∈ K y u ∈ V.
1) Demostrar que estas operaciones están bien definidas, esto es, demuestre que si u, u′ , v, v ′
son vectores en V tales que u + W = u′ + W y v + W = v ′ + W , entonces
(u + W ) + (v + W ) = (u′ + W ) + (v ′ + W ) y α(u + W ) = α(u′ + W ).
2) Demostrar que A(W ) dotado de estas dos operaciones es un espacio vectorial sobre K.
¿Cuál es su vector nulo? ¿cuál es el simétrico de u + W ? El espacio vectorial A(W ) es
conocido con el nombre de espacio cociente de V módulo W ; se acostumbra denotar por
V/W .
−
→ −−−→
3) Determine R2 /W , donde W es la recta que pasa por el origen con director A = (1, 1).
Haga un diseño de R2 /W , ¿qué observa?