Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Parte II
Álgebra Lineal
Tema 4
Espacios vectoriales reales
Definición 88.- Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con
dos operaciones, una que recibe el nombre de “suma de vectores” y otra que recibe el nombre de “producto de
vectores por números reales” o “producto por escalares”, que verifican las siguientes propiedades:
(1) u + v ∈ V ; ∀ u, v ∈ V .
(2) u + v = v + u ; ∀ u, v ∈ V .
(3) u + (v + w ) = (u + v ) + w ; ∀ u, v , w ∈ V .
(4) Existe un vector, llamado vector cero y denotado por 0 , tal que: 0 + u = u + 0 = u ; ∀u ∈V.
(5) Para cada u ∈ V , existe un vector de V , llamado opuesto de u y denotado por −u , tal que
u + (−u ) = 0 .
(6) k u ∈ V ; ∀ k ∈ IR y ∀ u ∈ V .
(7) k(u + v ) = k u + k v ; ∀ k ∈ IR y ∀ u , v ∈ V .
(8) (k + l)u = k u + l u ; ∀ k, l ∈ IR y ∀ u ∈ V .
(9) (kl)u = k(l u ); ∀ k, l ∈ IR y ∀ u ∈ V .
(10) 1u = u ; ∀u ∈V.
Por ser los escalares de IR , se dice que V es un IR -espacio vectorial. Se pueden considerar espacios vectoriales
sobre otros cuerpos de escalares, como C .
Ejemplo Los conjuntos IRn , los conjuntos de polinomios Pn [X] = {P (X) ∈ IR[X] : gr(P ) ≤ n} y los conjuntos
de matrices reales Mm×n = {matrices de tamaño m×n }, con las operaciones usuales en cada uno de ellos, son
espacios vectoriales reales.
Propiedades 89.- Algunas propiedades que se deducen de las anteriores son:
(iv) k u = 0 ⇐⇒ k = 0 ó u = 0 .
(v) El vector cero de un espacio vectorial es único.
(1∗ ) u + v ∈ W ; ∀ u, v ∈ W (6∗ ) k u ∈ W ; ∀ u ∈ W y ∀ k ∈ IR
Ejemplo P2 [X] es un subespacio de P4 [X], pues es un subconjunto suyo y si P (X), Q(X) ∈ P2 [X], el grado de
kP (X) + lQ(X) es gr(kP + lQ) = máx{gr(kP ), gr(lQ)} ≤ máx{gr(P ), gr(Q)} ≤ 2, por lo que está en P2 [X].
Sin embargo, {P (X) : gr(P ) = 2} no es un subespacio de P4 [X] , por dos razones: primero, porque no contiene
al polinomio cero; y segundo, no verifica la propiedad (1∗ ) ya que X2 y 2X − X2 son polinomios del conjunto
pero su suma X2 + (2X − X2 ) = 2X es un polinomio de grado 1 que no está en el conjunto. △
Definición 91.- Se dice que un vector v ∈ V es una combinación lineal de los vectores v1 , v2 , . . . , vn si,
y sólo si, ∃ c1 , c2 , . . . , cn ∈ IR tales que v = c1 v1 + c2 v2 + · · · + cn vn .
Naturalmente lin S es un subespacio vectorial de V y, de hecho, es el más pequeño que contiene a los
vectores de S (ver ejercicio 4.6).
Definición 93.- Dado un conjunto S = { v1 , v2 , . . . , vk } de vectores del espacio vectorial V , la ecuación
vectorial c1 v1 + c2 v2 + · · · + ck vk = 0 tiene al menos una solución, a saber: c1 = c2 = · · · = ck = 0 . Si esta
solución es única, entonces se dice que S es un conjunto linealmente independiente (o que los vectores
de S son linealmente independientes). Si existen otras soluciones, entonces se dice que S es linealmente
dependiente (los vectores son linealmente dependientes).
Nota: Si los vectores { v1 , v2 , . . . , vk } son linealmente dependientes, al menos uno de ellos se puede escribir
como una combinación lineal de los restantes; y si son linealmente independientes ninguno de ellos puede ser
generado por los restantes. Es decir, se tiene la siguiente caracterización para que un conjunto de dos o más
vectores sea linealmente dependiente (ver ejercicio 4.7):
“Un conjunto de dos o más vectores es linealmente dependiente si, y sólo si, al menos uno
de los vectores es una combinación lineal de los restantes.”
Observación: El comentario anterior a esta definición nos indica la manera de reducir un conjunto generador
del espacio a una base.
Igualmente, podemos construir una base a partir de un conjunto linealmente independiente de vectores: si
S es linealmente independiente y lin S 6= V , tomando v ∈ V pero que v ∈ / lin S , el conjunto S ∪ { v } es
linealmente independiente (ver el Lema 96 siguiente); y ası́, se añaden vectores a S hasta generar V .
De cierta forma, estamos diciendo que una base tiene el menor número posible de generadores y el mayor
número posible de vectores linealmente independientes (ver Lema 97 siguiente); luego ¿no tendrá una base un
número fijo de vectores? La respuesta la proporciona el Teorema de la base.
Lema 97.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquier
conjunto { v1 , v2 , . . . , vm } de vectores de V, con m > n , es linealmente dependiente. ⊲
Teorema de la base 98.- Cualesquiera dos bases de un espacio vectorial tienen el mismo número de elementos.
Demostración:
La demostración es muy sencilla si tenemos en cuenta el Lema anterior, pues si B1 es una base de n elementos
y B2 es una base de m elementos, por ser B1 base y B2 linealmente independiente, m 6> n y por ser B2 base
y B1 linealmente independiente n 6> m , luego n = m.
Definición 99.- Un espacio vectorial V se dice de dimensión finita si tiene un conjunto finito de vectores
que forman una base, y llamaremos dimensión de V , dim V , al número de vectores de cualquier base de V .
Al espacio vectorial V = {0 } le consideramos de dimensión finita, de dimensión cero, aún cuando no tiene
conjuntos linealmente independientes.
Si no existe un conjunto finito de este tipo, se dice que V es de dimensión infinita (y no nos son ajenos pues
IR[X] es un espacio vectorial de dimensión infinita).
Ejemplo P2 [X] = {P (X) ∈ IR[X] : gr(P ) ≤ 2} tiene dimensión 3, pues B = {1, X, X2 } forman una base. En
general, dim(Pn [X]) = n + 1 y B = {1, X, . . . , Xn } es una base suya.
Ejemplo 100 Los conjuntos IRn = IR × IR × · · · × IR = {(x1 , . . . , xn ) : xi ∈ IR, ∀ i} con las operaciones
habituales de suma y producto por escalares
x + y = (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
λx = λ(x1 , . . . , xn ) = (λx1 , . . . , λxn )
son espacios vectoriales con dim IRn = n , ya que cualquier vector x ∈ IRn puede escribirse de la forma
x = (x1 , x2 , . . . , xn ) = x1 (1, 0, . . . , 0) + x2 (0, 1, . . . , 0) + · · · + xn (0, 0, . . . , 1)
y este conjunto de vectores
n o
B = e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1)
es linealmente independiente. A esta base se la denomina base canónica de IRn . △
Conocer a priori la dimensión de un espacio facilita la obtención de bases:
Proposición 101.- Si V es un espacio vectorial, con dim V = n. Entonces, un conjunto de n vectores de V
es base de V ,
a) si el conjunto es linealmente independiente, o b) si genera a V . ⊲
Nota: Al usar vectores de coordenadas, es imprescindible mantener el orden de los vectores. Si, en el ejemplo
anterior, tomamos como base B1 = { v2 , v3 , v1 }, tenemos que ( v )B1 = (−1, 2, 1) que es un vector de
coordenadas distinto de (v )B = (1, −1, 2).
Fijada una base, la unicidad de las coordenadas asigna a cada vector de V un único vector de IRn , de manera
que disponer de las coordenadas es, en el fondo, disponer del vector. Además, se cumple (ver ejercicio 4.14):
por lo que se puede trabajar sobre las coordenadas en lugar de sobre los vectores.
Proposición 104.- Si A es una matriz de tamaño m×n , entonces las operaciones elementales sobre las filas
(resp. columnas) de A no cambian el espacio de las filas (resp. columnas) de A.
Demostración:
Puesto que hacer operaciones elementales sobre las filas es hacer combinaciones lineales de los vectores fila, el
subespacio lineal generado es el mismo. (Igual para las columnas.)
b) Los vectores no nulos de una forma escalonada de la matriz At , forman una base de Ec (A).
Demostración:
Basta probar que los vectores no nulos de una forma escalonada son linealmente independientes, pero eso se
comprueba fácilmente ya que debajo de cada elemento principal sólo hay ceros.
Teorema 106.- Sea A una matriz de tamaño m×n , entonces: dim(Ef (A)) = dim(Ec (A)).
Demostración:
El resultado es inmediato, teniendo en cuenta que rg(A) = rg(At ), y que el rango coincide con el número de
vectores no nulos en la forma escalonada, ası́ como el resultado anterior.
Estos resultados nos permiten usar el método de Gauss, y por lo tanto nos ofrecen un operativo sencillo, para
comprobar cuando un conjunto de vectores es linealmente independiente y para obtener bases.
Por lo anterior, los vectores fila de la última matriz son linealmente independientes y dim Ef (A) = 3 . En
consecuencia, los tres vectores fila de la matriz A inicial que generan Ef (A) son también base, luego linealmente
independientes y los polinomios del enunciado también son linealmente independientes.
Además, forman una base de P2 [X] (¿por qué?). △
es decir, la columna i-ésima está constituida por las coordenadas en la base B2 , del vector ui de la base B1 .
En otras palabras, la matriz de cambio de base tiene por columnas las coordenadas en la base de llegada de
los vectores de la base de partida.
El porqué la matriz de paso se contruye ası́, puede observarse en la prueba de la proposición siguiente:
Proposición 108.- Sea P la matriz de paso de una base B1 en otra base B2 de un espacio V . Entonces:
1.- ∀ x ∈ V se tiene que [ x ]B2 = P · [x ]B1 .
Apartado 2: como los vectores de la base B1 son linealmente independientes, sus vectores de coordenadas en
la base B2 también lo son. Luego las columnas de P son vectores linealmente independientes y rg(P ) = n,
por lo que P es inversible.
Además, [ x ]B2 = P [ x ]B1 =⇒ P −1 [x ]B2 = P −1 P [x ]B1 =⇒ P −1 [x ]B2 = [x ]B1 y P −1 es la matriz
de cambio de la base B2 en la base B1 .
la matriz de paso de B a B1 .
Ejemplo Consideremos en IR3 la base canónica Bc = { e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} y la base
B1 = {v1 = (1, 0, −1), v2 = (2, −1, 1), v3 = (0, −1, 1)}.
Como v1 = 1(1, 0, 0) + 0(0, 1, 0) − 1(0, 0, 1) = e1 − e3 , se tiene que ( v1 )Bc = (1, 0, −1) ; y lo mismo para
los otros vectores, luego la matriz de paso de la base B1 a la base Bc será:
−1
µ ¶ 1 2 0 1 2 0
P = [v1 ]Bc [v2 ]Bc [v3 ]Bc = 0 −1 −1 y P −1 = 0 −1 −1
−1 1 1 −1 1 1
Nota: A la vista del ejemplo anterior, obtener las coordenadas de un vector de IRn en la base canónica de IRn
es inmediato, pues ( x )Bc = x . Pero ¡ciudado!, al trabajar con vectores de IRn no hay que confundir el vector
con las coordenadas en una base, pues la igualdad anterior únicamente es cierta en la base canónica.
1.- hu , v i = hv , u i; ∀ u , v ∈ V .
2.- hu + v , w i = hu , w i + hv , w i; ∀ u , v , w ∈ V .
3.- hk u, v i = khu , v i; ∀ u , v ∈ V y ∀ k ∈ IR .
4.- hu , u i ≥ 0; ∀ u ∈ V y hu , u i = 0 ⇐⇒ u = 0 .
Ejemplo Considerar en P2 [X] , la función hP (X), Q(X)i = P (1)Q(1) + P ′ (1)Q′ (1) + P ′′ (1)Q′′ (1).
(1) hP (X), Q(X)i = P (1)Q(1) + P ′ (1)Q′ (1) + P ′′ (1)Q′′ (1)
= Q(1)P (1) + Q′ (1)P ′ (1) + Q′′ (1)P ′′ (1) = hQ(X), P (X)i
³ ´ ³ ´ ³ ´
(2) hP (X) + R(X), Q(X)i = P (1) + R(1) Q(1) + P ′ (1) + R′ (1) Q′ (1) + P ′′ (1) + R′′ (1) Q′′ (1)
³ ´ ³ ´
= P (1)Q(1)+P ′ (1)Q′ (1)+P ′′ (1)Q′′ (1) + R(1)Q(1)+R′ (1)Q′ (1)+R′′ (1)Q′′ (1)
= hP (X), Q(X)i + hR(X), Q(X)i
′ ′ ′′ ′′
(3) hkP (X), Q(X)i = kP
³ (1)Q(1) + kP (1)Q (1) + kP (1)Q (1)
´
= k P (1)Q(1) + P ′ (1)Q′ (1) + P ′′ (1)Q′′ (1) = khP (X), Q(X)i
³ ´2 ³ ´2 ³ ´2
(4) hP (X), P (X)i = P (1)P (1) + P ′ (1)P ′ (1) + P ′′ (1)P ′′ (1) = P (1) + P ′ (1) + P ′′ (1) ≥ 0 .
Y, se da la igualdad si y sólo si, P (1) = P ′ (1) = P ′′ (1) = 0 . Entonces, sea P (X) = a + bX + cX2 , de donde
P (X) = b + 2cX y P ′′ (X) = 2c ; de las igualdades se
′
tiene:
a+b+c=0
P (1) = P ′ (1) = P ′′ (1) = 0 ⇐⇒ b + 2c = 0 ⇐⇒ a = b = c = 0 ⇐⇒ P (X) = 0 .
2c = 0
Luego tenemos un producto interno definido en P2 [X] . △
A partir de un producto interior sobre un espacio V se definen los conceptos de norma, distancia y ángulo.
Definición 110.- Si V es un espacio vectorial con producto interior, entonces la norma (o longitud o
módulo) de un vector v ∈ V se denota mediante kv k y se define como
p
k v k = + hv , v i.
Desigualdad de Cauchy-Schwarz 111.- Para todo u , v ∈ V, espacio con producto interior, se tiene
2 2
hu, vi2 ≤ kuk kvk o en la forma |hu, vi| ≤ kuk kvk . ⊲
luego, fijada una base, un producto interior se puede obtener a partir de las coordenadas en la base. La matriz
QB obtenida se denomina matriz de Gram o matriz métrica. Por las propiedades del producto interior, QB
es simétrica y los elementos de la diagonal positivos.
Definición 114.- Sobre el espacio vectorial IRn definimos la función que a cada x , y ∈ IRn le asocia
n
P
hx , y i = x · y = (x1 , . . . , xn ) · (y1 , . . . , yn ) = x1 y1 + · · · + xn yn = xi yi
i=1
Como puede comprobarse fácilmente dicha función es un producto interior, el que se conoce como producto
interior euclı́deo o producto escalar euclı́deo (ya usado en IR2 y IR3 ).
Este producto interior da lugar a la norma y distancia euclı́deas, ya conocidas:
p p
k x k = x21 + · · · + x2n y d(x , y ) = kx − y k = (x1 − y1 )2 + · · · + (xn − yn )2 .
Se llama espacio euclı́deo n -dimensional a IRn con el producto interior euclı́deo.
Nota: Si la matriz métrica del producto interior en la base B , QB , es la identidad, el producto interior se
reduce al producto escalar euclı́deo de los vectores de coordenadas. Esto ocurre precisamente para las bases
ortonormales que se estudian en la siguiente sección.
4.5.2 Ortogonalidad
Definición 115.- Si u y v son vectores distintos de cero de un espacio con producto interior, como conse-
cuencia de la desigualdad de Cauchy-Schwarz se tiene que −1 ≤ khuukk ,v i
v k ≤ 1 y, por tanto, existe un único
ángulo, θ , tal que
hu , v i
cos θ = , con 0 ≤ θ ≤ π
k uk k v k
Definición 116.- En un espacio vectorial con producto interior, dos vectores u y v se dicen que son orto-
gonales si hu, v i = 0 . Suele denotarse por u ⊥ v .
Si u es ortogonal a todos los vectores de un conjunto W , se dice que u es ortogonal a W .
Se dice que S = {v1 , v2 , . . . , vk } es un conjunto ortogonal si los vectores son ortogonales dos a dos, es
decir, si vi ⊥ vj para todo i 6= j .
Ejemplo Los vectores de la base canónica de IR3 con el producto escalar euclı́deo son ortogonales entre si,
pero no lo son si el producto interior definido es: hv , w i = v1 w1 + v1 w2 + v2 w1 + 2v2 w2 + v3 w3 . (Pruébese
que es un producto interior). En efecto: he1 , e2 i = h(1, 0, 0), (0, 1, 0)i = 0 + 1 + 0 + 0 + 0 = 1 6= 0 . △
Nota: Si dos vectores son ortogonales, el ángulo que forman es de π radianes (los famosos 90 grados). De hecho,
en IRn con el producto escalar euclı́deo, la ortogonalidad coincide con la perpendicularidad.
Una curiosidad:
Teorema general de Pitágoras 117.- Si u y v son dos vectores ortogonales de un espacio vectorial con
producto interior, entonces
2 2 2
ku + v k = kuk + kv k .
Este resultado, de fácil comprobación, se reduce en IR2 con el producto escalar al Teorema de Pitágoras.
También es sencillo probar el resultado siguiente (ver ejercicio 4.21):
Proposición 118.- Si w ⊥ { v1 , v2 , . . . , vk } , entonces w ⊥ lin{ v1 , v2 , . . . , vk } .
Definición 120.- Sean V un espacio vectorial de dimensión n con producto interior. Se dice que la base
B = {v1 , v2 , . . . , vn } es una base ortonormal de V , si B es un conjunto ortogonal y kvi k = 1 , ∀ i.
n³ ´ ³ ´o
√1 , √1 , √ −1 √1
Ejemplo Las bases canónica y B1 = 2 2 2
, 2
son ortonormales en IR2 con el producto escalar
√
euclı́deo. La base B2 = {(2, 0), (0, − 2)} es ortonormal para el producto interior hx, yi = x14y1 + x22y2 . △
Teorema 121.- Si B = {v1 , v2 , . . . , vn }³es una base ortonormal para un ´ espacio V con producto interior,
entonces ∀ v ∈ V se tiene que ( v )B = hv , v1 i, hv , v2 i, . . . , hv , vn i . Es decir,
v = hv , v1 iv1 + hv , v2 iv2 + · · · + hv , vn ivn ,
Demostración:
Si v = c1 v1 + · · · + ci vi + · · · + cn vn , para cada i, se tiene que
hv, vi i = hc1 v1 + · · · + ci vi + · · · + cn vn , vi i
2
= c1 hv1 , vi i + · · · + ci hvi , vi i + · · · + cn hvn , vi i = ci hvi , vi i = ci kvi k = ci
Es decir, en una base ortonormal, la obtención de cordenadas puede resultar más sencilla. Pero no sólo eso, si
no que también se tiene:
Teorema 122.- Si P es la matriz de paso de una base ortonormal B1 a otra base ortonormal B2 , entonces
P es una matriz ortogonal (es decir, P −1 = P t ).
La prueba es puramente operativa, usando la definición de matriz de paso y el apartado b) del ejercicio 4.24
(ver también el ejercicio 4.29).
Definición 123.- Sean V un espacio vectorial con producto interior, W subespacio de V y B =
{ w1 , w2 , . . . , wk } una base ortonormal de W . Para cada v ∈ V , llamaremos proyección ortogonal
de v sobre W al vector de W
ProyW (v ) = hv , w1 iw1 + hv , w2 iw2 + · · · + hv , wk iwk .
Al vector v −ProyW (v ) se le llama componente ortogonal de v sobre W .
El vector proyección ortogonal no depende la base ortonormal elegida, es decir, tomando cualquier base
ortonormal se obtiene el mismo vector. La prueba puede encontrarse en el Anexo 1, pág. 49, tras la demostración
del Lema 124 siguiente.
Lema 124.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base orto-
normal de W . Entonces para cada v ∈ V , el vector v − ProyW (v ) es ortogonal a W . ⊲
Proceso de ortonormalización de Gram-Schmidt 125.- Sean V un espacio vectorial con producto interior y
de dimensión finita. Vamos a describir este proceso que construye a partir de una base B = { v1 , v2 , . . . , vn }
una base ortonormal B ∗ = { u1 , u2 , . . . , un } .
Demostración:
v1
1 a etapa.- Como v1 6= 0 por ser de B , el vector u1 = tiene norma 1 y lin{u1 } = lin{v1 } .
kv1 k
2 a etapa.- Sea W1 = lin{ u1 }, por el Lema anterior, el vector v2 − ProyW1 (v2 ) es ortogonal a W1 , en
particular a u1 , y es distinto del vector 0 pues ProyW1 (v2 ) ∈ W1 y v2 ∈/ W1 = lin{ v1 }, entonces tiene que
4.6 Ejercicios
4.1 Determinar si son espacios vectoriales los siguientes conjuntos:
4.2 ¿Cuáles de los siguientes conjuntos son subespacios vectoriales de IR3 ó IR4 ?
4.3 Sean v1 = (2, 1, 0, 3) , v2 = (3, −1, 5, 2) y v3 = (−1, 0, 2, 1) vectores de IR4 . ¿Cuáles de los vectores
(2, 3, −7, 3) , (0, 0, 0, 0), (1, 1, 1, 1) y (−4, 6, −13, 4) , están en lin{ v1 , v2 , v3 } ?
4.7 Probar que si los vectores v1 , . . . , vk son linealmente dependientes, al menos uno de ellos se puede
escribir como una combinación lineal de los restantes.
4.8 Determinar la dimensión de los siguientes subespacios de IR4 :
4.9 Demostrar que los vectores solución de un sistema no homogéneo compatible, AX = B , de m ecuaciones
con n incógnitas no forman un subespacio de IRn . ¿Qué ocurre si el sistema es homogéneo, es decir, si
B = 0?
4.10 Sean E y F subespacios de un espacio V . Probar que: E ∩ F = {v ∈ V : v ∈ E y v ∈ F } es un
subespacio de V .
4.11 Considerar en IR4 los conjuntos de vectores:
A = {(1, 2, −1, 3), (0, 1, 0, 3)} B = {(1, −1, 1, 0), (2, 3, 1, 2), (0, 0, 0, 1)}
a) Hallar las dimensiones de lin(A) y de lin(B), y encontrar una base
b) Hallar las ecuaciones paramétricas de lin(A) y de lin(B).
c) Hallar las ecuaciones cartesianas de lin(A) y de lin(B).
d) Hallar la dimensión de lin(A) ∩ lin(B).
4.12 Consideremos en el espacio vectorial IR3 la base B = {u1 , u2 , u3 } . Sea E el subespacio engendrado
por los vectores
v1 = u1 + 3 u3 , v2 = 2 u1 − 3 u2 + u3 , v3 = 4u1 − 3u2 + 7 u3 .
Sea F el subespacio engendrado por los vectores
w1 = u1 + u2 + u3 , w2 = 2 u1 + 3 u2 + 4 u3 , w3 = 3 u1 + 4 u2 + 5 u3 .
Hallar una base de E , una base de F , el subespacio E ∩ F y una base de E ∩ F .
4.13 Sea M2×2 el espacio vectorial de las matrices cuadradas de orden 2 sobre IR y sea E el subconjunto de
µ ¶
a b+c
M2×2 formado por las matrices de la forma con a, b, c ∈ IR .
−b + c a
a) Demostrar que E es un subespacio vectorial.
µ ¶ µ ¶ µ ¶
1 0 0 1 0 1
b) Probar que las matrices A1 = , A2 = y A3 = , forman una base de E .
0 1 −1 0 1 0
4.14 Sea B una base de un espacio vectorial V de dimensión n. Demostrar que el conjunto {v1 , v2 , . . . , vn }
es una base de V si, y sólo si el conjunto {[ v1 ]B , [ v2 ]B , . . . , [vn ]B } es una base de IRn .
4.15 En una cierta base { u1 , u2 , u3 , u4 } de un espacio vectorial V , un vector w tiene por coordenadas
(3, 1, 2, 6). Hallar las coordenadas de W en otra base { v1 , v2 , v3 , v4 } cuyos vectores verifican que
v1 = u1 + u2 , v2 = 2u4 − u1 , v3 = u2 − u3 y v4 = 2u1 − u2 .
4.16 En IR3 se consideran las bases B = { v1 = (2, 0, 0), v2 = (0, −1, 2), v3 = (0, 0, −3)} y la base canónica
Bc = {e1 , e2 , e3 }. Hallar las coordenadas respecto de la base B del vector x = 4 e1 + e2 − 5 e3 .
4.19 a) Encontrar dos vectores de IR2 con norma euclı́dea uno y cuyo producto interior euclı́deo con (−2, 4)
sea cero.
b) Demostrar que hay un número infinito de vectores en IR3 con norma euclı́dea uno y cuyo producto
interior euclı́deo con (−1, 7, 2) es cero.
−1
4.20 Sean a = ( √15 , √ 5
) y b = ( √230 , √330 ). Demostrar que { a, b} es ortonormal si IR2 tiene el producto
interior hu , v i = 3u1 v1 + 2u2 v2 donde u = (u1 , u2 ) y v = (v1 , v2 ), y que no lo es si IR2 tiene el producto
interior euclı́deo.
4.21 Sea V un espacio con producto interior. Demostrar que si w es ortogonal a cada uno de los vectores
v1 , v2 , . . . , vk entonces es ortogonal a lin{v1 , v2 , . . . , vk }.
4.22 Considera IR3 con el producto interior euclideo. Utiliza el proceso de Gram-Schmidt para transformar,
en cada caso, la base {u1 , u2 , u3 } en una base ortonormal.
a) u1 = (1, 1, 1) , u2 = (−1, 1, 0) , u3 = (1, 2, 1).
b) u1 = (1, 0, 0) , u2 = (3, 7, −2) , u3 = (0, 4, 1).
4.23 Sea IR3 con el producto interior hu , v i = u1 v1 + 2u2 v2 + 3u3 v3 . Utilizar el proceso de Gram-Schmidt
para transformar la base formada por los vectores u1 = (1, 1, 1) , u2 = (1, 1, 0) y u3 = (1, 0, 0) en una
base ortonormal.
4.24 Sea B = { v1 , v2 , v3 } una base ortonormal de un espacio V con producto interior. Probar que:
2
a) k w k = hw , v1 i2 + hw , v2 i2 + hw , v3 i2 ; ∀w ∈V.
b) hu , w i = ( u )B · (w )B = [u ]tB [ w ]B ; ∀ u, w ∈ V .
4.25 Tomemos en IR4 el producto interior euclideo. Expresar el vector w = (−1, 2, 6, 0) en la forma w = w1 +
w2 donde, w1 esté en el subespacio W generado por los vectores u1 = (−1, 0, 1, 2) y u2 = (0, 1, 0, 1) ,
y w2 sea ortogonal a W .
4.26 Suponer que IR4 tiene el producto interior euclideo.
a) Hallar un vector ortogonal a u1 = (1, 0, 0, 0) y u4 = (0, 0, 0, 1) , y que forme ángulos iguales con los
vectores u2 = (0, 1, 0, 0) y u3 = (0, 0, 1, 0) .
b) Hallar un vector x de longitud 1, ortogonal a u1 y a u2 , tal que el coseno del ángulo entre x y
u3 sea el doble del coseno del ángulo entre x y u4 .
4.27 Hallar la distancia del vector u = (1, 1, 1, 1) de IR4 al subespacio generado por los vectores v1 = (1, 1, 1, 0)
y v2 = (1, 1, 0, 0) .
4.28 Dados los vectores x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ) de IR3 , demostrar que la expresión hx , y i =
2x1 y1 + 2x2 y2 + x3 y3 + x1 y2 + x2 y1 define un producto interior.
Encontrar una base { u1 , u2 , u3 } ortonormal respecto al producto interior anterior tal que u2 y u3
tengan igual dirección y sentido que los vectores (0, 1, 0) y (0, 0, 1) , respectivamente.
4.29 Probar que una matriz A de orden n es ortogonal si, y sólo si sus vectores fila forman un conjunto
ortonormal en IRn .