Está en la página 1de 18

Espacio vectorial

Ir a la navegaciónIr a la búsqueda
Este artículo está orientado a proporcionar un tratamiento riguroso y abstracto del
concepto de espacio vectorial. Para una introducción más accesible al concepto,
véase Vector

Representación artística de un espacio vectorial.


En álgebra lineal, un espacio vectorial (o también llamado espacio lineal) es una
estructura algebraica creada a partir de un conjunto no vacío, una operación
interna (llamada suma, definida para los elementos del conjunto) y una operación
externa (llamada producto por un escalar, definida entre dicho conjunto y otro
conjunto, con estructura de cuerpo) que satisface 8 propiedades fundamentales.

A los elementos de un espacio vectorial se les llama vectores y a los elementos del
cuerpo se les conoce como escalares.

Índice
1 Historia
2 Notación
3 Definición
3.1 Observaciones
3.2 Propiedades
3.3 Primer ejemplo con demostración
4 Ejemplos
4.1 Los cuerpos
4.2 Sucesiones sobre un cuerpo '"`UNIQ--postMath-000000A5-QINU`"'
4.3 Espacios de aplicaciones sobre un cuerpo
4.3.1 Los polinomios
4.3.2 Funciones trigonométricas
4.4 Los sistemas de ecuaciones lineales homogéneas
5 Subespacio vectorial
5.1 Definición
5.2 Consecuencias
6 Resultados internos
6.1 Combinación lineal
6.1.1 Proposición 1
6.2 Independencia lineal
6.2.1 Proposición 2
6.3 Base de un espacio vectorial
6.4 Base formalmente
6.4.1 Teorema de la base de generadores
6.4.2 Teorema Steinitz
6.5 Observación
6.6 Dimensión
6.6.1 Notación
6.7 Intersección de subespacios vectoriales
6.8 Suma de subespacios vectoriales
6.9 Teorema Fórmula de Grassmann
6.10 Suma directa de subespacios vectoriales
6.11 Cociente de espacios vectoriales
7 Construcciones básicas
7.1 Suma directa de espacios vectoriales
8 Espacios vectoriales con estructura adicional
8.1 Espacios normados
8.2 Espacios vectoriales topológicos
8.3 Espacios de Banach
8.4 Espacios prehilbertianos
8.5 Espacios de Hilbert
9 Morfismos entre espacios vectoriales
9.1 Aplicaciones lineales
10 Véase también
11 Referencias
11.1 Notas
11.2 Referencias históricas
11.3 Bibliografía
12 Enlaces externos
Historia
Históricamente, las primeras ideas que condujeron a los espacios vectoriales
modernos se remontan al siglo XVII: geometría analítica, matrices y sistemas de
ecuaciones lineales.

Los espacios vectoriales se derivan de la geometría afín a través de la


introducción de coordenadas en el plano o el espacio tridimensional. Alrededor de
1636, los matemáticos franceses Descartes y Fermat fundaron las bases de la
geometría analítica mediante la vinculación de las soluciones de una ecuación con
dos variables a la determinación de una curva plana.nota 1 Para lograr una solución
geométrica sin usar coordenadas, Bernhard Bolzano introdujo en 1804 ciertas
operaciones sobre puntos, líneas y planos, que son predecesores de los
vectores.nota 2 Este trabajo hizo uso del concepto de coordenadas baricéntricas de
August Ferdinand Möbius de 1827.nota 3

La primera formulación moderna y axiomática se debe a Giuseppe Peano, a finales del


siglo XIX. Los siguientes avances en la teoría de espacios vectoriales provienen
del análisis funcional, principalmente de espacios de funciones. Los problemas de
Análisis funcional requerían resolver problemas sobre la convergencia. Esto se hizo
dotando a los espacios vectoriales de una adecuada topología, permitiendo tener en
cuenta cuestiones de proximidad y continuidad. Estos espacios vectoriales
topológicos, en particular los espacios de Banach y los espacios de Hilbert tienen
una teoría más rica y elaborada.

El origen de la definición de los vectores es la definición de Giusto Bellavitis de


bipoint, que es un segmento orientado, uno de cuyos extremos es el origen y el otro
un objetivo. Los vectores se reconsideraron con la presentación de los números
complejos de Argand y Hamilton y la creación de los cuaterniones por este último
(Hamilton fue además el que inventó el nombre de vector).nota 4 Son elementos de R2
y R4; el tratamiento mediante combinaciones lineales se remonta a Laguerre en 1867,
quien también definió los sistemas de ecuaciones lineales.

En 1857, Cayley introdujo la notación matricial que permite una armonización y


simplificación de las aplicaciones lineales. Casi al mismo tiempo, Grassmann
estudió el cálculo baricéntrico iniciado por Möbius. Previó conjuntos de objetos
abstractos dotados de operaciones.nota 5 En su trabajo, los conceptos de
independencia lineal y dimensión, así como de producto escalar están presentes. En
realidad el trabajo de Grassmann de 1844 supera el marco de los espacios
vectoriales, ya que teniendo en cuenta la multiplicación, también, lo llevó a lo
que hoy en día se llaman álgebras. El matemático italiano Peano dio la primera
definición moderna de espacios vectoriales y aplicaciones lineales en 1888.nota 6

Un desarrollo importante de los espacios vectoriales se debe a la construcción de


los espacios de funciones por Henri Lebesgue. Esto más tarde fue formalizado por
Banach en su tesis doctoral de 1920nota 7 y por Hilbert. En este momento, el
álgebra y el nuevo campo del análisis funcional empezaron a interactuar, en
particular con conceptos clave tales como los espacios de funciones p-integrables y
los espacios de Hilbert. También en este tiempo, los primeros estudios sobre
espacios vectoriales de infinitas dimensiones se realizaron.

Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la


ciencia y la ingeniería. Se utilizan en métodos como las series de Fourier, que se
utiliza en las rutinas modernas de compresión de imágenes y sonido, o proporcionan
el marco para resolver ecuaciones en derivadas parciales. Además, los espacios
vectoriales proporcionan una forma abstracta libre de coordenadas de tratar con
objetos geométricos y físicos, tales como tensores, que a su vez permiten estudiar
las propiedades locales de variedades mediante técnicas de linealización.

Notación
Dado un espacio vectorial {\displaystyle V}{\displaystyle V} sobre un cuerpo
{\displaystyle K}{\displaystyle K}, se distinguen los elementos de {\displaystyle
V}V y los de {\displaystyle K}K.

Los elementos de {\displaystyle V}{\displaystyle V} suelen denotarse por

{\displaystyle \mathbf {u} ,\mathbf {v} ,\mathbf {w} }{\displaystyle \mathbf


{u} ,\mathbf {v} ,\mathbf {w} }
y son llamados vectores.

Dependiendo las fuentes que se consulten, también es común denotarlos por

{\displaystyle {\bar {u}},{\bar {v}},{\bar {w}}}{\displaystyle {\bar {u}},{\bar


{v}},{\bar {w}}}
y si el texto es de física entonces suelen denotarse por

{\displaystyle {\vec {u}},{\vec {v}},{\vec {w}}}{\displaystyle {\vec {u}},{\vec


{v}},{\vec {w}}}
Mientras que los elementos de {\displaystyle K}{\displaystyle K} se denotan como

{\displaystyle a,b,\alpha ,\beta }{\displaystyle a,b,\alpha ,\beta }


y son llamados escalares.

Definición
Un espacio vectorial sobre un cuerpo {\displaystyle K}{\displaystyle K} (como el
cuerpo de los números reales o los números complejos) es un conjunto no vacío,
digamos {\displaystyle V}V, dotado de dos operaciones para las cuales será cerrado:

{\displaystyle {\begin{array}{llccl}{\mbox{Suma}}&+:&{V\times V}&\rightarrow


&{V}\\&&(\mathbf {u} ,\mathbf {v} )&\mapsto &\mathbf {u} +\mathbf {v} \end{array}}}
{\displaystyle {\begin{array}{llccl}{\mbox{Suma}}&+:&{V\times V}&\rightarrow
&{V}\\&&(\mathbf {u} ,\mathbf {v} )&\mapsto &\mathbf {u} +\mathbf {v} \end{array}}}
operación interna tal que:

Tenga la propiedad conmutativa:


{\displaystyle \mathbf {u} +\mathbf {v} =\mathbf {v} +\mathbf {u} ,\quad
\forall \;\mathbf {u} ,\mathbf {v} \in V}{\displaystyle \mathbf {u} +\mathbf {v}
=\mathbf {v} +\mathbf {u} ,\quad \forall \;\mathbf {u} ,\mathbf {v} \in V}
Tenga la propiedad asociativa:
{\displaystyle \mathbf {u} +(\mathbf {v} +\mathbf {w} )=(\mathbf {u} +\mathbf {v} )
+\mathbf {w} ,\quad \forall \;\mathbf {u} ,\mathbf {v} ,\mathbf {w} \in V}
{\displaystyle \mathbf {u} +(\mathbf {v} +\mathbf {w} )=(\mathbf {u} +\mathbf {v} )
+\mathbf {w} ,\quad \forall \;\mathbf {u} ,\mathbf {v} ,\mathbf {w} \in V}
Exista el elemento neutro:
{\displaystyle \exists \;\mathbf {e} \in {}V:}{\displaystyle \exists \;\mathbf
{e} \in {}V:} {\displaystyle \mathbf {u} +\mathbf {e} =\mathbf {u} ,}{\displaystyle
\mathbf {u} +\mathbf {e} =\mathbf {u} ,} {\displaystyle \forall \;\mathbf {u} \in
V}{\displaystyle \forall \;\mathbf {u} \in V}
Exista el elemento opuesto:
{\displaystyle \forall \;\mathbf {u} \in V,\quad \exists -\mathbf {u} \in {}V:}
{\displaystyle \forall \;\mathbf {u} \in V,\quad \exists -\mathbf {u} \in {}V:}
{\displaystyle \mathbf {u} +(-\mathbf {u} )=\mathbf {e} }{\displaystyle \mathbf {u}
+(-\mathbf {u} )=\mathbf {e} }
Y tenga la operación producto por un escalar:

{\displaystyle {\begin{array}{llccl}{\mbox{Producto}}&\cdot {}:&{K\times


V}&\rightarrow &{V}\\&&{(a,\mathbf {u} )}&\mapsto &a\cdot \mathbf {u} \end{array}}}
{\displaystyle {\begin{array}{llccl}{\mbox{Producto}}&\cdot {}:&{K\times
V}&\rightarrow &{V}\\&&{(a,\mathbf {u} )}&\mapsto &a\cdot \mathbf {u} \end{array}}}
operación externa tal que:

Tenga la propiedad asociativa:


{\displaystyle {\mathit {a}}\cdot ({\mathit {b}}\cdot \mathbf {u} )=({\mathit
{a}}\cdot {\mathit {b}})\cdot \mathbf {u} ,}
\mathit{a} \cdot (\mathit{b} \cdot \mathbf{u})=(\mathit{a} \cdot \mathit{b})
\cdot \mathbf{u} , {\displaystyle \forall \;{\mathit {a}},{\mathit {b}}\in {}K,}
{\displaystyle \forall \;{\mathit {a}},{\mathit {b}}\in {}K,} {\displaystyle
\forall \;\mathbf {u} \in V}{\displaystyle \forall \;\mathbf {u} \in V}
Exista el elemento neutro:
{\displaystyle \exists \;e\in {K}:}{\displaystyle \exists \;e\in {K}:}
{\displaystyle e\cdot \mathbf {u} =\mathbf {u} ,}{\displaystyle e\cdot \mathbf {u}
=\mathbf {u} ,} {\displaystyle \forall \;\mathbf {u} \in V}{\displaystyle
\forall \;\mathbf {u} \in V}
Tenga la propiedad distributiva respecto de la suma vectorial:
{\displaystyle {\mathit {a}}\cdot (\mathbf {u} +\mathbf {v} )={\mathit {a}}\cdot
\mathbf {u} +{\mathit {a}}\cdot \mathbf {v} ,}
\mathit{a} \cdot (\mathbf{u}+ \mathbf{v}) =
\mathit{a} \cdot \mathbf{u}+ \mathit{a} \cdot \mathbf{v} , {\displaystyle
\forall \;{\mathit {a}}\in K,}{\displaystyle \forall \;{\mathit {a}}\in K,}
{\displaystyle \forall \;\mathbf {u} ,\mathbf {v} \in V}{\displaystyle \forall
\;\mathbf {u} ,\mathbf {v} \in V}
Tenga la propiedad distributiva respecto de la suma escalar:
{\displaystyle ({\mathit {a}}+{\mathit {b}})\cdot \mathbf {u} ={\mathit
{a}}\cdot \mathbf {u} +{\mathit {b}}\cdot \mathbf {u} ,}
(\mathit{a} + \mathit{b}) \cdot \mathbf{u} =
\mathit{a} \cdot \mathbf{u} + \mathit{b} \cdot \mathbf{u} , {\displaystyle
\forall {}{\mathit {a}},{\mathit {b}}\in {}K,}
\forall{} \mathit{a}, \mathit{b} \in{} K , {\displaystyle \forall \;\mathbf {u}
\in V}{\displaystyle \forall \;\mathbf {u} \in V}
Véase también: Espacio euclídeo
Véase también: Vector
Véase también: Representación gráfica de vectores
Observaciones
La denominación de las dos operaciones no condiciona la definición de espacio
vectorial por lo que es habitual encontrar traducciones de obras en las que se
utiliza multiplicación para el producto y adición para la suma, usando las
distinciones propias de la aritmética.

Para demostrar que un conjunto {\displaystyle V_{}^{}}V_{{}}^{{}} es un espacio


vectorial:

Lo es si sus dos operaciones, por ejemplo {\displaystyle \odot (V,V)}\odot(V,V) y


{\displaystyle \ast (V,K),} \ast(V,K) , admiten una redefinición del tipo
{\displaystyle +(V,V)=\odot (V,V)}+(V,V)=\odot(V,V) y {\displaystyle \cdot
(K,V)=\ast (V,K)} \cdot(K,V)=\ast(V,K) cumpliendo las 8 condiciones exigidas.
Si supiésemos que {\displaystyle V_{}^{}}V_{{}}^{{}} es un grupo conmutativo o
abeliano respecto la suma ya tendríamos probados los apartados 1, 2, 3 y 4.
Si supiésemos que el producto es una acción por la izquierda de {\displaystyle
V_{}^{}}V_{{}}^{{}} tendríamos probados los apartados 5 y 6.
Si no, se dice lo contrario:
{\displaystyle {\mathit {a}}\mathbf {v} \neq \mathbf {v} {\mathit {a}}}
\mathit{a} \mathbf{v} \neq
\mathbf{v} \mathit{a}
.
Propiedades
Unicidad del vector neutro de la propiedad 3
Unicidad del vector opuesto de la propiedad 4
Unicidad del elemento {\displaystyle 1_{}^{}} 1_{}^{} en el cuerpo {\displaystyle
K_{}^{}} K_{}^{}
Unicidad del elemento inverso en el cuerpo {\displaystyle K_{}^{}}K_{{}}^{{}}
Producto de un escalar por el vector neutro
Producto del escalar 0 por un vector
Si {\displaystyle {\mathit {a}}\cdot \mathbf {u} =\mathbf {0} \Rightarrow }
\mathit{a} \cdot \mathbf{u} =
\mathbf{0}
\Rightarrow {\displaystyle {\mathit {a}}={\mathit {0}}\quad \lor \quad \mathbf
{u} =\mathbf {0} .}{\displaystyle {\mathit {a}}={\mathit {0}}\quad \lor \quad
\mathbf {u} =\mathbf {0} .}

Si {\displaystyle a_{}^{}=0,}a_{}^{}=0, es cierto.


Si {\displaystyle a\neq 0,}
a \neq 0 ,
entonces:
{\displaystyle \exists !\;a^{-1}\in K:}
\exists ! \; a^{-1} \in K : {\displaystyle a^{-1}a=1\Rightarrow } a^{-1}a=1
\Rightarrow {\displaystyle u=}
u= {\displaystyle 1u=}1u= {\displaystyle (a^{-1}a)u=}(a^{-1}a)u= {\displaystyle
a^{-1}(au)=}a^{-1}(au)= {\displaystyle a^{-1}0=0\Rightarrow }a^{-1}0=0
\Rightarrow {\displaystyle u_{}^{}=0.}
u_{}^{}=0.
Notación

{\displaystyle -au=-(au)\,}-au=-(au) \,.


Observación

{\displaystyle -au=(-a)u=a(-u)\,} -au=(-a)u=a(-u) \,


Si {\displaystyle au+a(-u)=a(u-u)=a0=0\Rightarrow } au+a(-u)=a(u-u)=a0=0
\Rightarrow {\displaystyle a(-u)=-au\,} a(-u)=-au \,
Si {\displaystyle au+(-a)u=(a-a)u=0u=0\Rightarrow } au+(-a)u=(a-a)u=0u=0
\Rightarrow {\displaystyle (-a)u=-au\,} (-a)u=-au \,
Primer ejemplo con demostración
Se quiere probar que {\displaystyle \mathbb {R} ^{2}}\mathbb {R} ^{2} es un espacio
vectorial sobre {\displaystyle \mathbb {R} }\mathbb{R}

Si {\displaystyle \mathbb {R} ^{2}}\mathbb {R} ^{2} juega el papel de


{\displaystyle V\;}V \; y {\displaystyle \mathbb {R} }\mathbb{R} el de
{\displaystyle K\;} K \;:

Los elementos:

{\displaystyle \mathbf {u} \in V=\mathbb {R} ^{2}=\mathbb {R} \times {}\mathbb
{R} }
\mathbf{u} \in V =
\mathbb{R}^2 =
\mathbb{R} \times{}\mathbb{R}
son, de forma genérica:

{\displaystyle \mathbf {u} =(u_{x},u_{y})}


\mathbf{u} =(u_x,u_y)
es decir, pares de números reales. Por claridad se conserva la denominación del
vector, en este caso u, en sus coordenadas, añadiendo el subíndice x o y para
denominar su componente en el eje x o y respectivamente

En {\displaystyle V\;} V \; se define la operación suma:

{\displaystyle {\begin{array}{ccll}+:&{V\times {}V}&\longrightarrow


{}&{V}\\&(\mathbf {u} ,\mathbf {v} )&\mapsto &\mathbf {w} =\mathbf {u} +\mathbf {v}
\end{array}}}
\begin{array}{ccll}
+: & {V \times{} V} & \longrightarrow{} & {V} \\
& (\mathbf{u},\mathbf{v}) & \mapsto & \mathbf{w}= \mathbf{u}
+ \mathbf{v}
\end{array}
donde:

{\displaystyle \mathbf {u} =(u_{x},u_{y})}


\mathbf{u} = (u_x, u_y)
{\displaystyle \mathbf {v} =(v_{x},v_{y})}
\mathbf{v} = (v_x, v_y)
{\displaystyle \mathbf {w} =(w_{x},w_{y})}
\mathbf{w} = (w_x, w_y)
y la suma de u y v sería:

{\displaystyle \mathbf {u} +\mathbf {v} =(u_{x},u_{y})+(v_{x},v_{y})=(u_{x}


+v_{x},u_{y}+v_{y})=(w_{x},w_{y})=\mathbf {w} }
\mathbf{u} + \mathbf{v} =
(u_x, u_y) + (v_x, v_y) =
(u_x + v_x, u_y + v_y) =
(w_x, w_y) =
\mathbf{w}
donde:

{\displaystyle {\begin{array}{l}w_{x}=u_{x}+v_{x}\\w_{y}=u_{y}+v_{y}\end{array}}}
\begin{array}{l}
w_x = u_x + v_x \\
w_y = u_y + v_y
\end{array}
esto implica que la suma de vectores es interna y bien definida.

La operación interna suma tiene las propiedades:

1) La propiedad conmutativa, es decir:

{\displaystyle \mathbf {u} +\mathbf {v} =\mathbf {v} +\mathbf {u} ,\quad \forall
{}\mathbf {u} ,\mathbf {v} \in {}V}
\mathbf{u} + \mathbf{v} = \mathbf{v} + \mathbf{u} , \quad
\forall{} \mathbf{u}, \mathbf{v} \in{} V
{\displaystyle \mathbf {u} +\mathbf {v} =\mathbf {v} +\mathbf {u} }
\mathbf{u} + \mathbf{v} =
\mathbf{v} + \mathbf{u}
{\displaystyle (u_{x},u_{y})+(v_{x},v_{y})=\mathbf {v} +\mathbf {u} }
(u_x, u_y) + (v_x, v_y) =
\mathbf{v} + \mathbf{u}
{\displaystyle (u_{x}+v_{x},u_{y}+v_{y})=\mathbf {v} +\mathbf {u} }
(u_x + v_x, u_y + v_y) =
\mathbf{v} + \mathbf{u}
{\displaystyle (v_{x}+u_{x},v_{y}+u_{y})=\mathbf {v} +\mathbf {u} }
(v_x + u_x, v_y + u_y) =
\mathbf{v} + \mathbf{u}
{\displaystyle (v_{x},v_{y})+(u_{x},u_{y})=\mathbf {v} +\mathbf {u} }
(v_x, v_y) + (u_x, u_y) =
\mathbf{v} + \mathbf{u}
{\displaystyle \mathbf {v} +\mathbf {u} =\mathbf {v} +\mathbf {u} }
\mathbf{v} + \mathbf{u} =
\mathbf{v} + \mathbf{u}
2) La propiedad asociativa:

{\displaystyle (\mathbf {u} +\mathbf {v} )+\mathbf {w} =\mathbf {u} +(\mathbf {v}
+\mathbf {w} )}
(\mathbf{u} + \mathbf{v}) + \mathbf{w}=
\mathbf{u} + (\mathbf{v} + \mathbf{w})
{\displaystyle {\Big (}(u_{x},u_{y})+(v_{x},v_{y}){\Big )}+
(w_{x},w_{y})=(u_{x},u_{y})+{\Big (}(v_{x},v_{y})+(w_{x},w_{y}){\Big )}}
\Big( (u_x, u_y) + (v_x, v_y) \Big) + (w_x, w_y) =
(u_x, u_y) + \Big( (v_x, v_y) + (w_x, w_y) \Big)
{\displaystyle (u_{x}+v_{x},u_{y}+v_{y})+(w_{x},w_{y})=(u_{x},u_{y})+(v_{x}
+w_{x},v_{y}+w_{y})\;}
(u_x + v_x, u_y + v_y) + (w_x, w_y)=
(u_x, u_y) + (v_x + w_x, v_y + w_y) \;
{\displaystyle (u_{x}+v_{x}+w_{x},u_{y}+v_{y}+w_{y})=(u_{x}+v_{x}+w_{x},u_{y}+v_{y}
+w_{y})\;}
(u_x + v_x + w_x, u_y + v_y + w_y) =
(u_x + v_x + w_x, u_y + v_y + w_y) \;
3) tiene elemento neutro {\displaystyle \mathbf {0} } \mathbf{0} :

{\displaystyle \mathbf {u} +\mathbf {0} =\mathbf {u} }


\mathbf{u} + \mathbf{0} = \mathbf{u}
{\displaystyle (u_{x},u_{y})+(0,0)=(u_{x}+0,u_{y}+0)=(u_{x},u_{y})\;}
(u_x, u_y) + (0, 0) =
(u_x + 0, u_y + 0) =
(u_x, u_y) \;
4) tenga elemento opuesto:

{\displaystyle \mathbf {u} =(u_{x},u_{y})}


\mathbf{u} = (u_x, u_y)
{\displaystyle \mathbf {-u} =(-u_{x},-u_{y})}
\mathbf{-u} = (-u_x, -u_y)
{\displaystyle \mathbf {u} +(\mathbf {-u} )=(u_{x},u_{y})+(-u_{x},-u_{y})=(u_{x}-
u_{x},u_{y}-u_{y})=(0,0)=\mathbf {0} }
\mathbf{u} + ( \mathbf{-u}) =
(u_x, u_y) + (-u_x, -u_y) =
(u_x - u_x, u_y - u_y) =
(0, 0) = \mathbf{0}
La operación producto por un escalar:

{\displaystyle {\begin{array}{ccll}\cdot :&K\times V&\longrightarrow &V\\&({\mathit


{a}},\mathbf {u} )&\mapsto &\mathbf {v} ={\mathit {a}}\cdot \mathbf {u}
\end{array}}}
\begin{array}{ccll}
\cdot : & K \times V & \longrightarrow & V \\
& (\mathit{a}, \mathbf{u}) & \mapsto & \mathbf{v}=
\mathit{a} \cdot \mathbf{u}
\end{array}
El producto de a y u será:

{\displaystyle {\mathit {a}}\cdot \mathbf {u} =a\cdot (u_{x},u_{y})=(a\cdot


u_{x},a\cdot u_{y})=(v_{x},v_{y})=\mathbf {v} }
\mathit{a} \cdot \mathbf{u} =
a \cdot (u_x, u_y) =
(a \cdot u_x, a \cdot u_y) =
(v_x, v_y) =
\mathbf{v}
donde:

{\displaystyle {\begin{array}{l}v_{x}=a\cdot u_{x}\\v_{y}=a\cdot u_{y}\end{array}}}


\begin{array}{l}
v_x = a \cdot u_x \\
v_y = a \cdot u_y
\end{array}
esto implica que la multiplicación de vector por escalar es externa y aun así está
bien definida.

5) tenga la propiedad asociativa:

{\displaystyle {\mathit {a}}\cdot ({\mathit {b}}\cdot \mathbf {u} )=({\mathit


{a}}\cdot {\mathit {b}})\cdot \mathbf {u} ,\quad \forall {}{\mathit {a}},{\mathit
{b}}\in {}K,\quad \forall {}\mathbf {u} \in {}V}
\mathit{a} \cdot (\mathit{b} \cdot \mathbf{u})=(\mathit{a} \cdot \mathit{b})
\cdot \mathbf{u} , \quad
\forall{} \mathit{a} ,\mathit{b} \in{}K , \quad
\forall{} \mathbf{u} \in{} V
Esto es:

{\displaystyle {\mathit {a}}\cdot ({\mathit {b}}\cdot \mathbf {u} )=({\mathit


{a}}\cdot {\mathit {b}})\cdot \mathbf {u} }
\mathit{a} \cdot (\mathit{b} \cdot \mathbf{u})=
(\mathit{a} \cdot \mathit{b}) \cdot \mathbf{u}
{\displaystyle {\mathit {a}}\cdot ({\mathit {b}}\cdot (u_{x},u_{y}))=({\mathit
{a}}\cdot {\mathit {b}})\cdot (u_{x},u_{y})}
\mathit{a} \cdot (\mathit{b} \cdot (u_x, u_y))=
(\mathit{a} \cdot \mathit{b}) \cdot (u_x, u_y)
{\displaystyle {\mathit {a}}\cdot ({\mathit {b}}\cdot u_{x},{\mathit {b}}\cdot
u_{y})=({\mathit {a}}\cdot {\mathit {b}})\cdot (u_{x},u_{y})}
\mathit{a} \cdot (\mathit{b} \cdot u_x, \mathit{b} \cdot u_y)=
(\mathit{a} \cdot \mathit{b}) \cdot (u_x, u_y)
{\displaystyle ({\mathit {a}}\cdot {\mathit {b}}\cdot u_{x},{\mathit {a}}\cdot
{\mathit {b}}\cdot u_{y})=({\mathit {a}}\cdot {\mathit {b}}\cdot u_{x},{\mathit
{a}}\cdot {\mathit {b}}\cdot u_{y})}
(\mathit{a} \cdot \mathit{b} \cdot u_x, \mathit{a} \cdot \mathit{b} \cdot u_y)=
(\mathit{a} \cdot \mathit{b} \cdot u_x, \mathit{a} \cdot \mathit{b} \cdot u_y)
6) {\displaystyle {\mathit {1}}\in {}R}\mathit{1} \in{} R sea elemento neutro en el
producto:

{\displaystyle {\mathit {1}}\cdot \mathbf {u} =\mathbf {u} ,\quad \forall {}\mathbf
{u} \in {}V}
\mathit{1} \cdot \mathbf{u} = \mathbf{u} , \quad
\forall{} \mathbf{u} \in{} V
Que resulta:

{\displaystyle {\mathit {1}}\cdot \mathbf {u} =\mathbf {u} }


\mathit{1} \cdot \mathbf{u} = \mathbf{u}
{\displaystyle {\mathit {1}}\cdot (u_{x},u_{y})=\mathbf {u} }
\mathit{1} \cdot (u_x, u_y) = \mathbf{u}
{\displaystyle ({\mathit {1}}\cdot u_{x},{\mathit {1}}\cdot u_{y})=\mathbf {u} }
(\mathit{1} \cdot u_x, \mathit{1} \cdot u_y) = \mathbf{u}
{\displaystyle (u_{x},u_{y})=\mathbf {u} }
(u_x, u_y) = \mathbf{u}
Que tiene la propiedad distributiva:

7) distributiva por la izquierda:

{\displaystyle {\mathit {a}}\cdot (\mathbf {u} +\mathbf {v} )={\mathit {a}}\cdot


\mathbf {u} +{\mathit {a}}\cdot \mathbf {v} ,\quad \forall {}{\mathit {a}}\in
{}R,\quad \forall {}\mathbf {u} ,\mathbf {v} \in {}V}
\mathit{a} \cdot (\mathbf{u} + \mathbf{v}) =
\mathit{a} \cdot \mathbf{u} + \mathit{a} \cdot \mathbf{v} , \quad
\forall{} \mathit{a}\in{}R , \quad
\forall{} \mathbf{u}, \mathbf{v} \in{} V
En este caso tenemos:

{\displaystyle {\mathit {a}}\cdot (\mathbf {u} +\mathbf {v} )={\mathit {a}}\cdot


\mathbf {u} +{\mathit {a}}\cdot \mathbf {v} }
\mathit{a} \cdot (\mathbf{u}+ \mathbf{v}) =
\mathit{a} \cdot \mathbf{u}+ \mathit{a} \cdot \mathbf{v}
{\displaystyle {\mathit {a}}\cdot ((u_{x},u_{y})+(v_{x},v_{y}))={\mathit {a}}\cdot
(u_{x},u_{y})+{\mathit {a}}\cdot (v_{x},v_{y})}
\mathit{a} \cdot ((u_x, u_y) + (v_x, v_y)) =
\mathit{a} \cdot (u_x, u_y) + \mathit{a} \cdot (v_x, v_y)
{\displaystyle {\mathit {a}}\cdot (u_{x}+v_{x},u_{y}+v_{y})=({\mathit {a}}\cdot
u_{x},{\mathit {a}}\cdot u_{y})+({\mathit {a}}\cdot v_{x},{\mathit {a}}\cdot
v_{y})}
\mathit{a} \cdot (u_x + v_x, u_y + v_y) =
(\mathit{a} \cdot u_x, \mathit{a} \cdot u_y) + (\mathit{a} \cdot v_x, \mathit{a}
\cdot v_y)
{\displaystyle {\mathit {a}}\cdot (u_{x}+v_{x},u_{y}+v_{y})=({\mathit {a}}\cdot
u_{x}+{\mathit {a}}\cdot v_{x},{\mathit {a}}\cdot u_{y}+{\mathit {a}}\cdot v_{y})}
\mathit{a} \cdot (u_x + v_x, u_y + v_y) =
(\mathit{a} \cdot u_x + \mathit{a} \cdot v_x, \mathit{a} \cdot u_y +
\mathit{a} \cdot v_y)
{\displaystyle ({\mathit {a}}\cdot (u_{x}+v_{x}),{\mathit {a}}\cdot (u_{y}
+v_{y}))=({\mathit {a}}\cdot (u_{x}+v_{x}),{\mathit {a}}\cdot (u_{y}+v_{y}))}
(\mathit{a} \cdot (u_x + v_x), \mathit{a} \cdot (u_y + v_y)) =
(\mathit{a} \cdot (u_x + v_x), \mathit{a} \cdot (u_y + v_y))
8) distributiva por la derecha:

{\displaystyle ({\mathit {a}}+{\mathit {b}})\cdot \mathbf {u} ={\mathit


{a}}\cdot \mathbf {u} +{\mathit {b}}\cdot \mathbf {u} ,\quad \forall {}{\mathit
{a}},{\mathit {b}}\in {}R,\quad \forall {}\mathbf {u} \in {}V}
(\mathit{a} + \mathit{b}) \cdot \mathbf{u} =
\mathit{a} \cdot \mathbf{u} + \mathit{b} \cdot \mathbf{u} , \quad
\forall{} \mathit{a}, \mathit{b} \in{} R , \quad
\forall{} \mathbf{u} \in{} V
Que en este caso tenemos:

{\displaystyle ({\mathit {a}}+{\mathit {b}})\cdot \mathbf {u} ={\mathit


{a}}\cdot \mathbf {u} +{\mathit {b}}\cdot \mathbf {u} }
(\mathit{a} + \mathit{b}) \cdot \mathbf{u} =
\mathit{a} \cdot \mathbf{u} + \mathit{b} \cdot \mathbf{u}
{\displaystyle ({\mathit {a}}+{\mathit {b}})\cdot (u_{x},u_{y})={\mathit {a}}\cdot
(u_{x},u_{y})+{\mathit {b}}\cdot (u_{x},u_{y})}
(\mathit{a} + \mathit{b}) \cdot (u_x, u_y) =
\mathit{a} \cdot (u_x, u_y) + \mathit{b} \cdot (u_x, u_y)
{\displaystyle ({\mathit {a}}+{\mathit {b}})\cdot (u_{x},u_{y})=({\mathit {a}}\cdot
u_{x},{\mathit {a}}\cdot u_{y})+({\mathit {b}}\cdot u_{x},{\mathit {b}}\cdot
u_{y})}
(\mathit{a} + \mathit{b}) \cdot (u_x, u_y) =
(\mathit{a} \cdot u_x, \mathit{a} \cdot u_y) + (\mathit{b} \cdot u_x, \mathit{b}
\cdot u_y)
{\displaystyle ({\mathit {a}}+{\mathit {b}})\cdot (u_{x},u_{y})=({\mathit {a}}\cdot
u_{x}+{\mathit {b}}\cdot u_{x},{\mathit {a}}\cdot u_{y}+{\mathit {b}}\cdot u_{y})}
(\mathit{a} + \mathit{b}) \cdot (u_x, u_y) =
(\mathit{a} \cdot u_x + \mathit{b} \cdot u_x, \mathit{a} \cdot u_y +
\mathit{b} \cdot u_y)
{\displaystyle (({\mathit {a}}+{\mathit {b}})\cdot u_{x},({\mathit {a}}+{\mathit
{b}})\cdot u_{y})=(({\mathit {a}}+{\mathit {b}})\cdot u_{x},({\mathit {a}}+{\mathit
{b}})\cdot u_{y})}
((\mathit{a} + \mathit{b}) \cdot u_x, (\mathit{a} + \mathit{b}) \cdot u_y) =
((\mathit{a} + \mathit{b}) \cdot u_x, (\mathit{a} + \mathit{b}) \cdot u_y)
Queda demostrado que es espacio vectorial.

Ejemplos
Los cuerpos
Todo cuerpo es un espacio vectorial sobre él mismo, usando como producto por
escalar el producto del cuerpo.

{\displaystyle \mathbb {C} } \mathbb{C} es un espacio vectorial de dimensión uno


sobre {\displaystyle \mathbb {C} } \mathbb{C}.
Todo cuerpo es un espacio vectorial sobre su subcuerpo, usando como producto por
escalar el producto del cuerpo.

{\displaystyle \mathbb {C} } \mathbb{C} es un espacio vectorial sobre


{\displaystyle \mathbb {R} }{\mathbb {R}}.
{\displaystyle \mathbb {C} } \mathbb{C} es un espacio vectorial sobre
{\displaystyle \mathbb {Q} } \mathbb{Q}.
Sucesiones sobre un cuerpo {\displaystyle K_{}^{}}K_{{}}^{{}}
El espacio vectorial más conocido notado como {\displaystyle K_{}^{n}} K_{}^n,
donde n>0 es un entero, tiene como elementos n-tuplas, es decir, sucesiones finitas
de {\displaystyle K_{}^{}}K_{{}}^{{}} de longitud n con las operaciones:

(u1, u2, ..., un)+(v1, v2, ..., vn)=(u1+v1, u2+v2, ..., un+vn).
a(u1, u2, ..., un)=(au1, au2, ..., aun).
Las sucesiones infinitas de {\displaystyle K^{}}K^{} son espacios vectoriales con
las operaciones:

(u1, u2, ..., un, ...)+(v1, v2, ..., vn, ...)=(u1+v1, u2+v2, ..., un+vn, ...).
a(u1, u2, ..., un, ...)=(au1, au2, ..., aun, ...).
El espacio de las matrices {\displaystyle n\times m}n \times m, {\displaystyle
M_{n\times m}(K)}M_{n \times m}(K), sobre {\displaystyle K^{}}K^{}, con las
operaciones:

{\displaystyle {\begin{pmatrix}x_{1,1}&\cdots &x_{1,m}\\\vdots &&\vdots


\\x_{n,1}&\cdots &x_{n,m}\end{pmatrix}}+{\begin{pmatrix}y_{1,1}&\cdots
&y_{1,m}\\\vdots &&\vdots \\y_{n,1}&\cdots
&y_{n,m}\end{pmatrix}}={\begin{pmatrix}x_{1,1}+y_{1,1}&\cdots &x_{1,m}
+y_{1,m}\\\vdots &&\vdots \\x_{n,1}+y_{n,1}&\cdots &x_{n,m}
+y_{n,m}\end{pmatrix}}} \begin{pmatrix} x_{1,1} & \cdots & x_{1,m} \\ \vdots & &
\vdots \\ x_{n,1} & \cdots & x_{n,m} \end{pmatrix} + \begin{pmatrix} y_{1,1} &
\cdots & y_{1,m} \\ \vdots & & \vdots \\ y_{n,1} & \cdots & y_{n,m} \end{pmatrix} =
\begin{pmatrix} x_{1,1}+y_{1,1} & \cdots & x_{1,m}+y_{1,m} \\ \vdots & & \vdots \\
x_{n,1}+y_{n,1} & \cdots & x_{n,m}+y_{n,m} \end{pmatrix}
{\displaystyle a{\begin{pmatrix}x_{1,1}&\cdots &x_{1,m}\\\vdots &&\vdots
\\x_{n,1}&\cdots &x_{n,m}\end{pmatrix}}={\begin{pmatrix}ax_{1,1}&\cdots
&ax_{1,m}\\\vdots &&\vdots \\ax_{n,1}&\cdots &ax_{n,m}\end{pmatrix}}} a
\begin{pmatrix} x_{1,1} & \cdots & x_{1,m} \\ \vdots & & \vdots \\ x_{n,1} & \cdots
& x_{n,m} \end{pmatrix} = \begin{pmatrix} ax_{1,1} & \cdots & ax_{1,m} \\ \vdots &
& \vdots \\ ax_{n,1} & \cdots & ax_{n,m} \end{pmatrix}
También son espacios vectoriales cualquier agrupación de elementos de
{\displaystyle K_{}^{}}K_{{}}^{{}} en las cuales se defina las operaciones suma y
producto entre estas agrupaciones, elemento a elemento, similar al de matrices
{\displaystyle n\times m}n \times m, así por ejemplo tenemos las cajas
{\displaystyle n\times m\times r}n \times m \times r sobre {\displaystyle
K_{}^{}}K_{{}}^{{}} que aparecen en el desarrollo de Taylor de orden 3 de una
función genérica.

Espacios de aplicaciones sobre un cuerpo


El conjunto {\displaystyle F_{}^{}}F_{}^{} de las aplicaciones {\displaystyle
f:M\rightarrow K} f : M \rightarrow K, {\displaystyle K^{}}K^{} un cuerpo y
{\displaystyle M_{}^{}}M_{}^{} un conjunto, también forman espacios vectoriales
mediante la suma y la multiplicación habitual:

{\displaystyle \forall f,g\in F,\;\forall a\in K}\forall f,g \in F,\; \forall a \in
K
{\displaystyle {\begin{matrix}(f+g)(w)&:=f(w)+g(w)_{}^{},\\\;\;\;\;(af)(w)&:=a(f)
(w)_{}^{}.\;\;\;\;\;\;\;\end{matrix}}}\begin{matrix}
(f + g)(w) &:= f(w) + g(w)_{}^{},\\
\;\;\;\;(af)(w) &:= a(f)(w)_{}^{}.\;\;\;\;\;\;\;
\end{matrix}
Los polinomios

Suma de f(x)=x+x2 y g(x)=-x2.


El espacio vectorial K[x] formado por funciones polinómicas, veámoslo:

Expresión general: {\displaystyle p(x)=r_{n}x^{n}+r_{n-1}x_{}^{n-1}+...


+r_{1}x+r_{0}} p(x) = r_n x^n+ r_{n-1} x_{}^{n-1}+ ... + r_1 x + r_0 ,donde los
coeficientes {\displaystyle r_{n},\;...,r_{0}\in K}r_n, \; ..., r_0 \in K,
considérese {\displaystyle \forall i>n\;r_{i}=0}{\displaystyle \forall
i>n\;r_{i}=0}.
{\displaystyle p(x)+q(x)=(r_{n}x^{n}+r_{n-1}x^{n-1}+...+r_{1}x+r_{0}^{})} p(x)
+q(x)=(r_n x^n+r_{n-1}x^{n-1}+ ... +r_1 x+r_0^{}) {\displaystyle +(s_{m}x^{m}+s_{m-
1}x^{m-1}+...+s_{1}x+s_{0}^{})}+(s_m x^m+ s_{m-1} x^{m-1}+ ... +s_1 x+s_0^{})
{\displaystyle =..._{}^{}}=..._{}^{} {\displaystyle =(t_{M}x^{M}+t_{M-1}x^{M-1}+...
+t_{1}x+t_{0}^{})=(p+q)(x)}=(t_M x^M+t_{M-1} x^{M-1}+...+t_1 x+t_0^{})=(p+q)(x),
donde {\displaystyle M=\max\{m,\;n\}_{}^{}}M= \max \{ m, \; n \}_{}^{} y
{\displaystyle t_{i}=r_{i}+s_{i}^{}} t_i=r_i+s_i^{},
{\displaystyle a(p(x))=a(r_{n}x^{n}+r_{n-1}x^{n-1}+...
+r_{1}x+r_{0}^{})}a(p(x))=a(r_n x^n+ r_{n-1}x^{n-1}+ ... +r_1 x+r_0^{})
{\displaystyle =(ar_{n}x^{n}+ar_{n-1}x^{n-1}+...+ar_{1}x+ar_{0}^{})}=( a r_n x^n+ a
r_{n-1}x^{n-1}+ ... +a r_1 x + a r_0^{}) {\displaystyle =t_{n}x^{n}+t_{n-1}x^{n-
1}+...+t_{1}x+t_{0}^{}=(ap)(x)}= t_n x^n+ t_{n-1}x^{n-1}+ ... + t_1 x + t_0^{}=(ap)
(x).
Las series de potencias son similares, salvo que se permiten infinitos términos
distintos de cero.

Funciones trigonométricas
Las funciones trigonométricas forman espacios vectoriales con las siguientes
operaciones:

Expresión general: {\displaystyle f(x)=a_{f}^{}\sum _{i=1}^{n}(b_{f,i}{\mbox{sen}}


(ix)+c_{f,i}\cos(ix))\in L^{2}}f(x)= a_f^{} \sum_{i=1}^n ( b_{f,i} \mbox{sen} (i x)
+ c_{f,i} \cos (i x) ) \in L^2
{\displaystyle (f+g)(x):=f(x)+g(x)_{}^{}}(f+g)(x):=f(x)+g(x)_{}^{} {\displaystyle
=a_{f}\sum _{i=1}^{n}(b_{f,i}{\mbox{sen}}(ix)+c_{f,i}\cos(ix))+a_{g}\sum _{i=1}^{n}
(b_{g,i}{\mbox{sen}}(ix)+c_{g,i}\cos(ix))}= a_f \sum_{i=1}^n ( b_{f,i} \mbox{sen}
(i x) + c_{f,i} \cos (i x) ) + a_g \sum_{i=1}^n ( b_{g,i} \mbox{sen} (i x) +
c_{g,i} \cos(i x) ) {\displaystyle =(a_{f}+a_{g})\sum _{i=1}^{n}((b_{f,i}+b_{g,i})
{\mbox{sen}}(ix)+(c_{f,i}+c_{g,i})\cos(ix))\in L^{2}}= ( a_f + a_g ) \sum_{i=1}^n (
(b_{f,i} + b_{g,i}) \mbox{sen} (i x) + ( c_{f,i} + c_{g,i} ) \cos(i x) ) \in L^2,
{\displaystyle (af)(x):=af(x)_{}^{}}(af)(x):=a f(x)_{}^{} {\displaystyle
=a(a_{f}\sum _{i=1}^{n}(b_{f,i}{\mbox{sen}}(ix)+c_{f,i}\cos(ix)))}= a ( a_f
\sum_{i=1}^n ( b_{f,i} \mbox{sen} (i x) + c_{f,i} \cos (i x) ) ) {\displaystyle
=aa_{f}\sum _{i=1}^{n}(ab_{f,i}{\mbox{sen}}(ix)+ac_{f,i}\cos(ix))\in L^{2}}=
aa_f \sum_{i=1}^n ( ab_{f,i} \mbox{sen} (i x) + ac_{f,i} \cos(i x) ) \in L^2.
Los sistemas de ecuaciones lineales homogéneas
Artículos principales: Ecuación lineal, Ecuación diferencial lineal y Sistemas de
ecuaciones lineales.

Sistema de 2 ecuaciones y 3 variables


{\displaystyle {\begin{cases}{\begin{matrix}a_{1,1}x_{1}&+\dots
&+a_{1,n}x_{n}&=0\\\vdots &&\vdots &\vdots \\a_{m,1}x_{1}&+\dots
&+a_{m,n}x_{n}&=0\end{matrix}}\end{cases}}\;\;}
\begin{cases}
\begin{matrix}
a_{1,1}x_1 & + \dots & + a_{1,n}x_n & =0 \\
\vdots & & \vdots & \vdots \\
a_{m,1}x_1 & + \dots & + a_{m,n}x_n & =0
\end{matrix}
\end{cases}
\;\; o equivalentemente {\displaystyle {\begin{pmatrix}a_{1,1}&+\dots
&+a_{1,n}\\\vdots &&\vdots &\\a_{m,1}&+\dots &+a_{m,n}\end{pmatrix}}
{\begin{pmatrix}x_{1}\\\vdots
\\x_{n}\end{pmatrix}}={\begin{pmatrix}0\\\vdots \\0\end{pmatrix}}}
\begin{pmatrix}
a_{1,1} & + \dots & + a_{1,n} \\
\vdots & & \vdots & \\
a_{m,1} & + \dots & + a_{m,n}
\end{pmatrix}
\begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix}
=\begin{pmatrix} 0 \\ \vdots \\ 0 \end{pmatrix}
simplificado como {\displaystyle A_{}^{}x=0}A_{}^{}x=0

Un sistema de ecuaciones lineales homogéneas( ecuaciones lineales en las que


{\displaystyle x=0_{}^{}}x=0_{}^{} es siempre una solución, es decir,
{\displaystyle (x_{1},\;\dots ,\;x_{n})=(0,\;\dots ,\;0)}(x_1,\; \dots ,\;
x_n)=(0,\; \dots ,\; 0)) posee soluciones que forman un espacio vectorial, se puede
ver en sus dos operaciones:

Si {\displaystyle Ax=0,Ay=0\Rightarrow Ax+Ay=0\Rightarrow }Ax=0,Ay=0 \Rightarrow


Ax+Ay=0 \Rightarrow {\displaystyle A(x+y)=0_{}^{}} A(x+y)=0_{}^{}
Si {\displaystyle Ax=0,a\in K\Rightarrow a(Ax)=0\Rightarrow }Ax=0,a \in K
\Rightarrow a(Ax)=0 \Rightarrow {\displaystyle A(ax)=0_{}^{}} A(ax)=0_{}^{}.
También que las ecuaciones en sí, filas de la matriz {\displaystyle A_{}^{}}A_{}^{}
notadas como una matriz {\displaystyle 1\times n}1\times n , es decir,
{\displaystyle E_{i}=(a_{i,1},\;\dots ,\;a_{i,n})} E_i=(a_{i,1}, \; \dots , \;
a_{i,n}), son un espacio vectorial, como se puede ver en sus dos operaciones:

Si {\displaystyle E_{i}x=0,\;E_{j}x=0\Rightarrow } E_ix=0,\; E_jx=0 \Rightarrow


{\displaystyle E_{i}^{}x+E_{j}x=0\Rightarrow (E_{i}+E_{j})x=0} E_i^{}x+E_jx=0
\Rightarrow (E_i+E_j)x=0
Si {\displaystyle E_{i}x=0,\;a\in K\Rightarrow } E_ix=0,\; a \in K \Rightarrow
{\displaystyle a(E_{i}^{}x)=0\Rightarrow (aE_{i})x=0} a(E_i^{}x)=0 \Rightarrow
(aE_i)x=0.
Subespacio vectorial
Definición
Sea {\displaystyle V}V un espacio vectorial sobre {\displaystyle K}K y
{\displaystyle U\subseteq V}{\displaystyle U\subseteq V} un subconjunto no vacío de
{\displaystyle V}{\displaystyle V}, se dice que {\displaystyle U}U es un subespacio
vectorial de {\displaystyle V}V si:

{\displaystyle u+v\in U}{\displaystyle u+v\in U}


{\displaystyle \beta u\in U}{\displaystyle \beta u\in U}
{\displaystyle \forall \;u,v\in U}{\displaystyle \forall \;u,v\in U} y
{\displaystyle \beta \in K}{\displaystyle \beta \in K}.

Consecuencias
{\displaystyle U}U hereda las operaciones de {\displaystyle V}V como aplicaciones
bien definidas, es decir que no escapan de {\displaystyle U}U, y como consecuencia
tenemos que {\displaystyle U}U es un espacio vectorial sobre {\displaystyle K}K.

Con cualquier subconjunto de elementos seleccionados en los espacios vectoriales


anteriores, no vacío, se pueden generar subespacios vectoriales, para ello sería
útil introducir nuevos conceptos que facilitarán el trabajo sobre estos nuevos
espacios vectoriales.

Resultados internos
Para detallar el comportamiento interno de todos los espacios vectoriales de modo
general es necesario exponer una serie de herramientas cronológicamente vinculadas
entre ellas, con las cuales es posible construir resultados válidos en cualquier
estructura que sea espacio vectorial.

Combinación lineal

Cada vector u es combinación lineal de forma única


Dado un espacio vectorial {\displaystyle E_{}^{}}E_{{}}^{{}}, diremos que un vector
{\displaystyle u\in E}{\displaystyle u\in E} es combinación lineal de los vectores
de {\displaystyle S=\{v_{1},\dots ,v_{n}\}\subseteq E}{\displaystyle S=\
{v_{1},\dots ,v_{n}\}\subseteq E} si existen {\displaystyle a_{1},\dots
,a_{n}\in \mathbb {R} }{\displaystyle a_{1},\dots ,a_{n}\in \mathbb {R} } tales que

{\displaystyle u=a_{1}v_{1}+\cdots +a_{n}v_{n}} u=a_1v_1+ \cdots + a_nv_n

Notaremos como {\displaystyle \langle S_{}^{}\rangle _{E}} \langle S_{}^{}


\rangle_E el conjunto resultante de todas las combinaciones lineales de los
vectores de {\displaystyle S_{}^{}\subset E} S_{}^{} \subset E.

Proposición 1
Dado {\displaystyle E_{}^{}}E_{{}}^{{}} un espacio vectorial y {\displaystyle
S\subset E_{}^{}}S \subset E_{}^{} un conjunto de vectores, el conjunto
{\displaystyle F=\langle S_{}^{}\rangle _{E}}F=\langle S_{}^{} \rangle_E es el
subespacio vectorial más pequeño contenido en {\displaystyle E_{}^{}}E_{{}}^{{}} y
que contiene a {\displaystyle S_{}^{}}S_{}^{}.

Demostración
Nota. En este caso se dice que {\displaystyle S_{}^{}} S_{}^{} es un sistema de
generadores que genera a {\displaystyle F_{}^{}}F_{}^{}.
Independencia lineal
Diremos que un conjunto {\displaystyle S_{}^{}=\{v_{1},\;\dots ,\;v_{n}\}}S_{}^{}=\
{ v_1, \; \dots , \; v_n \} de vectores es linealmente independiente si el vector 0
no se puede expresar como combinación lineal no nula de los vectores de
{\displaystyle S_{}^{}}S_{}^{}, es decir:

Si {\displaystyle 0=a_{1}v_{1}+\cdots +a_{n}v_{n}\Rightarrow a_{1}=\cdots


=a_{n}=0}0=a_1v_1+ \cdots + a_nv_n \Rightarrow a_1= \cdots = a_n = 0.
Diremos que un conjunto {\displaystyle S_{}^{}}S_{}^{} de vectores es linealmente
dependiente si no es linealmente independiente.

Proposición 2
{\displaystyle v_{1},\;\dots ,\;v_{n}}v_1,\; \dots, \; v_n son linealmente
dependientes {\displaystyle \Leftrightarrow \exists v_{i}\neq 0:v_{i}=\sum _{i\neq
j\geq 1}^{n}a_{j}v_{j}} \Leftrightarrow \exists v_i \neq 0 : v_i= \sum_{ i \neq
j \geq 1}^n a_jv_j

Demostración
Base de un espacio vectorial
Artículos principales: Base y Dimensión.
Las bases revelan la estructura de los espacios vectoriales de una manera concisa.
Una base es el menor conjunto (finito o infinito) B = {vi}i ∈ I de vectores que
generan todo el espacio. Esto significa que cualquier vector v puede ser expresado
como una suma (llamada combinación lineal) de elementos de la base

a1vi1 + a2vi2 + ... + anvin,


donde los ak son escalares y vik (k = 1, ..., n) elementos de la base B. La
minimalidad, por otro lado, se hace formal por el concepto de independencia lineal.
Un conjunto de vectores se dice que es linealmente independiente si ninguno de sus
elementos puede ser expresado como una combinación lineal de los restantes.
Equivalentemente, una ecuación

a1vi1 + ai2v2 + ... + anvin = 0


solo se consigue si todos los escalares a1, ..., an son iguales a cero. Por
definición de la base cada vector puede ser expresado como una suma finita de los
elementos de la base. Debido a la independencia lineal este tipo de representación
es única. Los espacios vectoriales a veces se introducen desde este punto de vista.

Base formalmente

v1 y v2 son base de un plano, si hubiese dependencia lineal (alineados), la


cuadrícula no podría generarse.
Dado un sistema de generadores, diremos que es una base si son linealmente
independientes.

Proposición 3. Dado un espacio vectorial {\displaystyle E,\;\{v_{1},\;\dots


,v_{n}\}=F\subset E} E, \; \{ v_1, \; \dots , v_n \} = F \subset E es una base
{\displaystyle \Leftrightarrow } \Leftrightarrow {\displaystyle \forall u\in
E,\;\exists !a_{i}\in K,\;i\in {1,\;\dots ,n}:} \forall u \in E, \; \exists !
a_i \in K ,\;i \in {1,\; \dots , n} : {\displaystyle u=\sum _{i=1}^{n}a_{i}v_{i}}
u=\sum_{i=1}^n a_iv_i.
Proposición 4. Dado un espacio vectorial {\displaystyle E,\;S=\{v_{1},\;\dots
,\;v_{n}\}} E, \; S= \{v_1,\; \dots , \; v_n \} linealmente independiente y
{\displaystyle u\notin \langle S\rangle \Rightarrow }u \notin \langle S \rangle
\Rightarrow {\displaystyle \{u\}\cup S=\{u,\;v_{1},\;\dots ,\;v_{n}\}} \{ u \}
\cup S = \{ u, \; v_1, \; \dots , \; v_n \} son linealmente independiente.
Teorema de la base de generadores
Todo sistema de generadores tiene una base.

Teorema Steinitz
Toda base de un espacio vectorial puede ser cambiada parcialmente por vectores
linealmente independientes.

Corolario. Si un espacio vectorial {\displaystyle E_{}^{}}E_{{}}^{{}} tiene una


base de {\displaystyle n_{}^{}}n_{}^{} vectores {\displaystyle
\Rightarrow }\Rightarrow cualquier otra base posee {\displaystyle n_{}^{}}n_{}^{}
vectores.
Observación
Todo espacio vectorial tiene una base. Este hecho se basa en el lema de Zorn, una
formulación equivalente del axioma de elección. Habida cuenta de los otros axiomas
de la teoría de conjuntos de Zermelo-Fraenkel, la existencia de bases es
equivalente al axioma de elección. El ultrafilter lemma, que es más débil que el
axioma de elección, implica que todas las bases de un espacio vectorial tienen el
mismo "tamaño", es decir, cardinalidad. Si el espacio es generado por un número
finito de vectores, todo lo anterior puede demostrarse sin necesidad de acudir a la
teoría de conjuntos.

Dimensión
Dado un espacio vectorial sobre {\displaystyle K_{}^{}} K_{}^{} :

Si tiene base finita, diremos dimensión al número de elementos de dicha base.


Si tiene base no finita, diremos que es de dimensión infinita.
Notación
Dado un espacio vectorial {\displaystyle E_{}^{}}E_{{}}^{{}} y un subespacio
{\displaystyle F_{}^{}\subset E}F_{}^{} \subset E, tenemos que:

Si {\displaystyle E_{}^{}}E_{{}}^{{}} tiene dimensión {\displaystyle n_{}^{}}


n_{}^{} lo indicaremos como {\displaystyle \dim(E)=n_{}^{}} \dim(E)=n_{}^{}.
Si {\displaystyle F_{}^{}}F_{}^{} tiene dimensión {\displaystyle m_{}^{}} m_{}^{}
como subespacio de {\displaystyle E_{}^{}}E_{{}}^{{}} lo indicaremos como
{\displaystyle \dim _{E}(F)=m_{}^{}} \dim_E(F)=m_{}^{}.
Intersección de subespacios vectoriales
Dado dos subespacios vectoriales {\displaystyle F,G\subset E} F, G \subset E, la
intersección es subespacio vectorial contenido en estos y lo notaremos como:

{\displaystyle F\cap G:=\{u:\;u\in F,\;u\in G\}} F \cap G:= \{ u : \; u \in F , \;


u \in G \}.
Observaciones. Para la intersección sucesiva de espacios vectoriales se procede,
inductivamente, de dos en dos.
La unión de subespacios vectoriales no es en general un subespacio vectorial.

Suma de subespacios vectoriales


Dado dos subespacios vectoriales {\displaystyle F,G\subset E}F, G \subset E, la
suma es un subespacio vectorial que contiene a estos y la notaremos como:

{\displaystyle F+G:=\{u=v_{1}+v_{2}:\;v_{1}\in F,\;v_{2}\in G\}} F+G:= \{ u=v_1+v_2


: \; v_1 \in F, \; v_2 \in G \} .
Si F y G son subespacios vectoriales de E, su suma F+G es el subespacio vectorial
de E más pequeño que contiene a F y a G.

Observación. Para la suma sucesiva de espacios vectoriales se procede,


inductivamente, de dos en dos.
Teorema Fórmula de Grassmann
Dado dos subespacios vectoriales {\displaystyle F,G\subset E}F, G \subset E de
dimensión finita, tenemos el resultado siguiente:

{\displaystyle \dim _{E}(F+G)=\dim _{E}(F)+\dim _{E}(G)-\dim _{E}(F\cap G)}


\dim_E(F+G) = \dim_E(F) + \dim_E(G) - \dim_E(F \cap G) .
Suma directa de subespacios vectoriales
Dados dos subespacios vectoriales {\displaystyle F,G\subset E}F, G \subset E,
diremos que {\displaystyle F+G_{}^{}}F+G_{}^{} es una suma directa si
{\displaystyle F\cap G={0}} F \cap G = {0} y lo notaremos como:

{\displaystyle F\oplus G} F \oplus G .


Cuando {\displaystyle F}F y {\displaystyle G}G están en suma directa, cada vector
de {\displaystyle F+G}F+G se expresa de forma única como suma de un vector de
{\displaystyle F}F y otro vector de {\displaystyle G}G.

Cociente de espacios vectoriales


Dado un espacio vectorial {\displaystyle E\,}E\, y un subespacio vectorial
{\displaystyle F\subset E}F \subset E .

Dados {\displaystyle u,v\in E}u,v\in E diremos que están relacionados módulo


{\displaystyle F\,}F\, si {\displaystyle u-v\in F} u-v \in F.

La relación anterior es una relación de equivalencia.


Se nota por {\displaystyle [u]=u+F:=\{u+v:v\in F\}} [u] =u+F: = \{u+v : v \in F \}
{\displaystyle =\{w:w=u+v,\;v\in F\}}= \{ w : w=u+v , \; v \in F \} a la clase de
{\displaystyle u\,}u\, módulo {\displaystyle F\,}F\,.
Llamaremos conjunto cociente o espacio cociente al conjunto de las clases de
equivalencia anterior:

Se nota por {\displaystyle E/F_{}^{}} E/F_{}^{} a dicho espacio cociente.


El espacio {\displaystyle E/F_{}^{}} E/F_{}^{} es un espacio vectorial con las
operaciones siguientes:

{\displaystyle {\begin{matrix}[u]+[v]&:=&[u+v]\\\;\;\;\;\;\;\;\lambda
[u]&:=&[\lambda u]\;\;\;\;\end{matrix}}}\begin{matrix} [u]+ [v] & := &
[u+v] \\ \;\;\;\;\;\;\;\lambda [u] & := & [ \lambda u]\;\;\;\; \end{matrix}
Construcciones básicas
Además de lo expuesto en los ejemplos anteriores, hay una serie de construcciones
que nos proporcionan espacios vectoriales a partir de otros. Además de las
definiciones concretas que figuran a continuación, también se caracterizan por
propiedades universales, que determina un objeto X especificando las aplicaciones
lineales de X a cualquier otro espacio vectorial.

Suma directa de espacios vectoriales


Dado dos espacios vectoriales {\displaystyle E,\;F_{}^{}}E,\; F_{}^{} sobre un
mismo cuerpo {\displaystyle K_{}^{}}K_{{}}^{{}}, llamaremos suma directa al espacio
vectorial {\displaystyle E\times F=}E \times F ={\displaystyle \
{u:=(u_{1},\;u_{2}):u_{1}\in E,\;u_{2}\in F\}} \{ u:=(u_1,\; u_2) : u_1 \in E,\;
u_2 \in F \} , veamos que están bien definidas las dos operaciones:

{\displaystyle u+v=(u_{1},\;u_{2})+(v_{1},\;v_{2})=}u+v=(u_1,\;u_2)+
(v_1,\;v_2)={\displaystyle (u_{1}+v_{1},\;u_{2}+v_{2})}(u_1+v_1,\; u_2+v_2),
{\displaystyle au=a(u_{1},\;u_{2})=}a u =a(u_1,\;u_2)={\displaystyle
(au_{1},\;au_{2})}(au_1,\;au_2).
Espacios vectoriales con estructura adicional
Desde el punto de vista del álgebra lineal, los espacios vectoriales se comprenden
completamente en la medida en que cualquier espacio vectorial se caracteriza, salvo
isomorfismos, por su dimensión. Sin embargo, los espacios vectoriales ad hoc no
ofrecen un marco para hacer frente a la cuestión fundamental para el análisis de si
una sucesión de funciones converge a otra función. Asimismo, el álgebra lineal no
está adaptada per se para hacer frente a series infinitas, ya que la suma solo
permite un número finito de términos para sumar. Las necesidades del análisis
funcional requieren considerar nuevas estructuras.

Espacios normados
Artículos principales: Espacio vectorial normado y Norma (matemáticas).
Un espacio vectorial es normado si está dotado de una norma.

Proposición 5. Un espacio normado es un espacio métrico, donde la distancia viene


dada por:
{\displaystyle d(x,y)=\|x-y\|} d(x,y)=\|x-y\|
Toda distancia inducida por la norma es una distancia.

Espacios vectoriales topológicos


Artículo principal: Espacio vectorial topológico
Dada una topología {\displaystyle \tau _{}^{}} \tau_{}^{} sobre un espacio
vectorial {\displaystyle X_{}^{}}X_{}^{} donde los puntos sean cerrados y las dos
operaciones del espacio vectorial sean continuas respecto dichas topología, diremos
que:

{\displaystyle \tau _{}^{}} \tau_{}^{} es una topología vectorial sobre


{\displaystyle X_{}^{}} X_{}^{},
{\displaystyle X_{}^{}} X_{}^{} es un espacio vectorial topológico.
Proposición 6.. Todo espacio vectorial topológico dotado de una métrica es espacio
normado.
Proposición 7.. Todo espacio normado es un espacio vectorial topológico.
Espacios de Banach
Artículo principal: Espacio de Banach
Un espacio de Banach es un espacio normado y completo.

Espacios prehilbertianos
Artículo principal: Espacio prehilbertiano
Un espacio prehilbertiano es un par {\displaystyle (E_{}^{},\langle \cdot |\cdot
\rangle )}(E_{}^{},\langle \cdot | \cdot \rangle), donde {\displaystyle
E_{}^{}}E_{{}}^{{}} es un espacio vectorial y {\displaystyle \langle \cdot
|\cdot \rangle } \langle \cdot | \cdot \rangle es un producto a escalar.

Espacios de Hilbert
Artículo principal: Espacio de Hilbert
Un espacio de Hilbert es un espacio prehilbertiano completo por la norma definida
por el producto escalar.

Morfismos entre espacios vectoriales


Son aplicaciones entre espacios vectoriales que mantienen la estructura de los
espacios vectoriales, es decir, conservan las dos operaciones y las propiedades de
estas de uno a otro de dichos espacios.

Aplicaciones lineales
Artículo principal: Aplicación lineal
Dado dos espacios vectoriales {\displaystyle E_{}^{}}E_{{}}^{{}} y {\displaystyle
F_{}^{}}F_{}^{}, sobre un mismo cuerpo, diremos que una aplicación {\displaystyle
f:E\rightarrow F}f:E \rightarrow F es lineal si:

{\displaystyle f(u+_{E}v)=f(u)+_{F}f(v)_{}^{}}f(u+_E v)=f(u)+_F f(v)_{}^{},


{\displaystyle f(a\cdot _{E}u)=a\cdot _{F}f(u)}f(a \cdot_E u)=a \cdot_F f(u).
Véase también
Combinación lineal
Sistema generador
Independencia lineal
Base (álgebra)
Teorema rango-nulidad
Base Ortogonal
Base Ortonormal
Coordenadas cartesianas
Producto escalar
Producto vectorial
Producto mixto
Producto tensorial
Ver el portal sobre Matemática Portal:Matemática. Contenido relacionado con
Matemática.
Wikilibros alberga un libro o manual sobre Espacio vectorial.
Referencias
Notas
Bourbaki, 1969, ch. "Álgabre linéaire et álgebre multilinéaire", pp. 78–91.
Bolzano, 1804.
Möbius, 1827.
Hamilton, 1853.
Grassmann, 1844.
Peano, 1888, ch. IX.
Banach, 1922.
Referencias históricas
Banach, Stefan (1922). Sur les opérations dans les ensembles abstraits et leur
application aux équations intégrales (On operations in abstract sets and their
application to integral equations) (en francés) 3. Fundamenta Mathematicae. ISSN
0016-2736.
Bolzano, Bernard (1804). Betrachtungen über einige Gegenstände der
Elementargeometrie (Considerations of some aspects of elementary geometry) (en
alemán).
Bourbaki, Nicolas (1969). Éléments d'histoire des mathématiques (Elements of
history of mathematics) (en francés). París: Hermann.
Grassmann, Hermann (1844). Die Lineale Ausdehnungslehre - Ein neuer Zweig der
Mathematik (en alemán).
Hamilton, William Rowan (1853). Lectures on Quaternions (en inglés). Royal Irish
Academy.
Möbius, August Ferdinand (1827). Der Barycentrische Calcul : ein neues Hülfsmittel
zur analytischen Behandlung der Geometrie (Barycentric calculus: a new utility for
an analytic treatment of geometry) (en alemán). Archivado desde el original el 12
de abril de 2009.
Moore, Gregory H. (1995), «The axiomatization of linear algebra: 1875–1940»,
Historia Mathematica 22 (3): 262-303, ISSN 0315-0860.
Peano, Giuseppe (1888). Calcolo Geometrico secondo l'Ausdehnungslehre di H.
Grassmann preceduto dalle Operazioni della Logica Deduttiva (en italiano). Turin

También podría gustarte