Está en la página 1de 129

V.Transformaciones Lineales.

APUNTES DE
MATEMATICAS

IV
Autor:Jorge Garca Nieva
Tecnologico de Estudios
Superiores del Oriente del
Estado de Mexico
29 de julio de 2010

V.Transformaciones Lineales.
1

INTRODUCCION
El Algebra Lineal es el estudio de los espacios
vectoriales y de los conceptos derivados de ellos, como
son las combinaciones lineales, los conjuntos bases y
la representacin de los elementos de un espacio
vectorial mediante ellas, las bases ortogonales , las
transformaciones lineales y sus representacion
matricial, los espacios asociados a los autovalores y
vectores
propios
de
una
transformacion
lineal(descomposicion espectral), etc.
El conocimiento de los conceptos anteriores y su
interrelacion, proporciona a los estudiantes de las
areas de ingeniera una solida base para trabajar en
la modelacion matematica de los fenomenos fsicos
dentro de sus respectivas areas.En efecto,la teora de
los espacios vectoriales tiene amplias aplicaciones ,
interviniendo por ejemplo en la resolucion matem
atica de problemas de optimizacion, como sucede
con el metodo simplex en la Ingeniera Industrial, o
bien en el tratamiento simplificado y elegante de la
teora de la regresion lineal y multilineal, la estad
stica avanzada , la teora del control de calidad, la
teora de la simulacion, la teora de las ecuaciones
diferenciales,etc.
Por lo anterior, es muy importante proporcionar a los
estudiantes material didactico de calidad, que no se
reduzca a la reproduccion sin sentido de calculos,
sino que tenga un nivel adecuado de la exposicion de
la parte teorica. Es con este fin como el autor de estas
notas ha recolectado una serie de resultados
importantes dentro del Algebra Lineal que han sido
considerados tradicionalmente como fundamentales
por los especialistas de esta area y que son
consideradas basicas dentro de un curso basico de
eta asignatura.
Estas notas comienzan con una exposicion acerca de
los numeros

V.Transformaciones Lineales.
2

complejos, lo cual es importante para abordar el tema


de las matrices ortogonales y sus aplicaciones en la
descripcion geometrica de fenomenos fsicos,am
en de que interviene en el tratamiento algebraico de
la diagonalizacion de la representacion de
transformaciones lineales mediante matrices y su
ulterior aplicacion en el tratamiento de sistemas din
amicos.
El captulo 2,trata de las matrices , sus
propiedades y conceptos fundamentales asociados.Los
conceptos estudiados en este captulo tienen relaci
on directa con el captulo 3, el cual trata sobre los
sistemas lineales y su resolucion mediante matrices,
expresado esto en el procedimiento de Gauss-Jordan ,
en el metodo de Cramer y en el metodo de la inversa
de la matriz de coeficientes de un sistema lineal. Cabe
notar que los conceptos estudiados en las unidades 2 y
3 son de amplia apliacacion en varios campos dentro
de la ingeniera,como por ejemplo,las ecuaciones
diferenciales, la Investigacion de operaciones y la
estadstica multivariable. En la unidad 4 se estudian
los espacios vectoriales, los cuales representan una
generalizacion de la geometra plana y del espacio a
espacios multidimensionales, as como a espacios con
objetos no necesariamente geometricos, como lo son
los espacios de matrices o de soluciones de un sistema
de ecuaciones ya sea algebraico lineal o de ecuaciones
diferenciales lineales , y que en ingeniera son de
suma importancia para estudiar fenomenos o
sistemas de tipo lineal. En la unidad 5 se estudian las
transformaciones lineales, las cuales aparecen en la pr
actica en el analisis de objetos que se pueden
ampliar, reducir,transladar o rotar; desde luego,su
aplicacion a la robotica es ineludible,as como en la
programacion de graficos.

V.Transformaciones Lineales.
4 Espacios vectoriales.
128
4.1.
Definicion de espacio
vectorial. . . . . . . . . . . . 128
4.2.
Definicion de subespacio vectorial y sus
propiedades. 135
4.3.
Combinacion lineal. Independencia lineal.
. . . . . . 140
4.4.
Base y dimension de un espacio vectorial,
cambio de
base. . . . . . . . . . . . . . . . . . . . . . . . 153
4.5.
Espacio vectorial con producto interno y
sus
propiedades. 179
4.6.
Base ortonormal, proceso de
ortonormalizacion de
Gram-Schmidt. . . . . . . . . . . . . . . . . . .
. 183
5 Transformaciones lineales.19315
5.1.
Introduccion a las transformaciones
lineales. . . . . 193
5.2.
Nucleo e imagen de una transformacion
lineal. . . . 212
5.3.
La matriz de una transformacion lineal
205
5.4.
Aplicacion de las transformaciones
lineales: reflexion,
dilatacion, contraccion y rotacion . . . . . . . 219

V.Transformaciones Lineales.
5

UNIDADIV

Espacios Vectoriales
Espacios Vectoriales, subespacios, combinaciones lineales y
bases.

4.1.Definicion de espacio vectorial


DdenEspacios Vectoriales
Definicion 4.1. Un espacio vectorial real es una terna (V,+,) formada por
un conjunto no vaco V, cuyos elementos llamaremos vectores, y dos
operaciones binarias + :
VV
V, llamada adicion vectorial, y : RV V, llamada multiplicacion por
escalar, satisfaciendo las siguientes condiciones
A0. u + v V para cualesquiera u,v V (cerradura de la adicion
vectorial)
A1. u+v = v+u para cualesquiera u,v V (conmutatividad de la adicion
vectorial)
A2. (u+v)+w = u+(v+w) para cualesquiera u,v,w V (asociatividad de la
adicion
vectorial)
/
/
V V tal que v + 0 V = v para cada v V (existencia de un elemento
A3. neutroExiste 0para la adicion vectorial)
A4. Para cada v V existe v V tal que v + v = 0/V (existencia de un
elemento opuesto para la adicion vectorial)
M0. v V para cualesquiera R y v V (cerradura de la multiplicaci
on por
escalar)

M1. ( + ) v = v + v para cualesquiera , R y v V


(distributividad de la multiplicacion por escalar respecto a la
adicion escalar)
M2. (u + v) = u+ v para cualesquiera R y u,v V
(distributividad de la multiplicacion por escalar respecto a la
adicion vectorial)

128
IV.Espacios Vectoriales
M3. () v = ( v) = ( v) para cualesquiera

, R y v V

(asociatividad de la multiplicacion escalar y la multiplicacion por


escalar)
M4. 1 v = v para cada v V (existencia de un elemento neutro para la
multiplicacion por escalar)
Observacion 4.1. Es de hacer notar que las expresiones a la derecha de las
igualdades en M1.
y M2. no son ambiguas pues, a pesar de no haberlo dicho, la operacion + tiene
mayor jerarqua que la operacion , esto es, ( u) + v puede ser escrito como
u + v pero en la expresi on (u + v) no pueden suprimirse los parentesis.
Observacion 4.2. La definicion 2.1 se puede extender considerando un campo
cualquiera K (ver apendices A y B) en lugar de R, en cuyo caso diremos que V es
un K-espacio vectorial y los elementos de K son llamados escalares. Por
ejemplo, podemos escoger K = C y en este caso V es llamado espacio vectorial
complejo.
En lo que resta del curso, solo consideraremos espacios vectoriales reales,
salvo que se diga lo contrario, y nos referiremos a estos como espacios
vectoriales (e.v.) en lugar de espacios vectoriales reales, a menos que haya
error a confusion.
Observacion 4.3. En adelante, siempre que no haya error a confusion,
en lugar de escribir v escribiremos v.

Observacion 4.4. Nos referiremos al conjunto V como espacio vectorial,


siempre que no se
), sobrentendiendo las operaciones + y tienda a confusion, en lugar de la terna
(V,+, Ejemplo 4.1.

1. El conjunto Rn = {(x1,x2,...,xn) : xi R para cada i {1,...,n}} junto con las


operaciones + y dadas como sigue
(x1,x2,...,xn) + (y1,y2,...,yn) = (x1 + y1,x2 + y2,...,xn + yn)
(x1,x2,...,xn) = (x1, x 2,..., x n)
donde R y (x1,x2,...,xn),(y1,y2,...,yn) Rn, es un espacio vectorial ( verif
quelo !)

129
IV.Espacios
2. El conjunto Mmn(R) junto con las operaciones + y , dadas en las
definiciones 1.4 y 1.5 respectivamente, del captulo 1, es un espacio
vectorial

3. Consideremos una matriz A Mmn(R). Los conjuntos S = {x Mn1(R) : Ax =


0/m1}

R = {y Mm1(R) : Ax = y para algun x Mn1(R)}


junto con las operaciones + y definidas en el captulo 1, son espacios
vectoriales (pruebelo!)
S es llamado espacio solucion del sistema homogeneo
Ax = 0/m1 o espacio nulo de
A, y R es llamado el espacio imagen de A. Estos espacios seran tratados
formalmente y en detalle en la seccion 2.6 del presente captulo.
4. Sea n N. Definamos

Pn[x] = {a0 + a1x + + anxn : a0,a1,...,an R}


Es decir, Pn[x] esta formado por todos los polinomios con coeficientes
reales en la variable x de grado menor o igual a n incluyendo el polinomio
nulo. Sobre Pn[x] consideremos las operaciones usuales de adicion de
polinomios y multiplicacion de un numero real por un polinomio. Entonces
Pn[x] es un espacio vectorial ( pruebelo !)
En general, si definimos el conjunto
P[x] = {p(x) : p(x) es un polinomio en la variable x}
entonces P[x] es un espacio vectorial junto con las operaciones usuales
antes mencionadas
( pruebelo !)
Es de hacer notar que el polinomio nulo O(x) = 0 no tiene grado! (por qu
e?), ademas, para cada n N se tiene que Pn[x] =6 (por que?) y Pn[x]
Pn+1[x] P[x] (por que?)
5. Sean a,b R con a < b. Definamos el conjunto F [a, b] de todas las
funciones reales definidas sobre el intervalo [a, b] y consideremos las
operaciones usuales de adicion de funciones y multiplicacion de una funci
on por un numero real, entonces F [a, b]
es un espacio vectorial (pruebelo!)

130
Espacios Vectoriales
6. El conjunto
V = {(x,y) R2 : y = x + 1}
junto con las operaciones definidas en la parte 1 de este ejemplo, no es un
espacio vectorial ya que (2,3),(0,1) V (por que?) pero
(2,3) + (0,1) = (2 + 0,3 + 1) = (2,4) / V
pues 4 =6 3 = 2 + 1, es decir, la adicion no es cerrada en V o V no es
cerrado bajo la adicion.
Sin embargo, si definimos sobre V las operaciones

(x,y) + (z,w) = (x + z,y + w


1) (x,y) = (x,(y 1) + 1)
entonces V es un espacio vectorial, en efecto, sean (x,y),(z,w),(a,b) V y
, R cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1.
De donde
y + w 1 = x + 1 + z + 1 1 = (x + z) + 1
y por lo tanto
(x,y) + (z,w) = (x + z,y + w 1) V
cumpliendose A0.
(x,y) + (z,w) = (x + z,y + w 1) = (z + x,w + y 1) = (z,w) + (x,y)
por lo que A1. es satisfecha.
((x,y) + (z,w)) + (a,b) = (x + z,y + w 1) + (a,b)
= ((x + z) + a,(y + w 1) +
b 1)
= (x + (z + a),y + (w + b 1)
1)
= (x,y) + (z + a,w + b 1)
= (x,y) + ((z,w) + (a,b))
as que A2. se cumple.

131
Definamos 0 V = (0,1). Entonces 0/VV (por que?) y ademas
/

(x,y) + (0,1) = (x + 0,y + 1 1) = (x,y)


luego se satisface A3.
Si (x,y) V, entonces (x,y + 2) V ya que
y + 2

= (x + 1) + 2
= x 1 + 2

(por que?)

= x + 1

Ademas
(x,y) + (x,y + 2) = (x + (x),y + (y + 2) 1) = (0,1) = 0/V

en consecuencia se cumple A4.


Verifique que se cumple el resto de la propiedades en la definicion 2.1. Qu
e podra concluir a partir de este ejemplo?
7. Dado un espacio vectorial V. Es facil probar que el conjunto {0/V}, junto con
las operaciones
+ y definidas sobre V, es un espacio vectorial.
Teorema 4.1. Los elementos 0/V y v dados en A3. y A4. respectivamente, son
unicos elementos de V que satisfacen dichas
propiedades.

Demostracion/ . Supongamos que existe x V tal que v + x = v para cada v V.


Luego, para v = 0VV, se tiene que
0/V +x = 0/V (4.1)
Por lo tanto
x

=
=

x + 0/V (por A3.)


0/V +x (por A1.)

0/V (por (2.1))

Lo que prueba la unicidad de 0/V .


Supongamos ahora que para v V existen

tales que

v + v = 0/V

(4.2)

v + v = 0/V
b

(4.3)

132
IV.Espacios
Luego
bv = v + 0/V (por A3.) v
+ (v + v) (por 4.2)
=
= (vb+ v) + v (por
A2.)
=
(/vV + vb) + v (por
= A1.)
0 +v (por 4.3)
= v + 0/V (por A1.)
= v

(por A3.)

con lo cual se obtiene la unicidad del opuesto aditivo.

Observacion 4.5. Al vector 0/V se le denomina vector nulo y el vector v es


llamado opuesto (aditivo) de v y es denotado por v.
Debido al teorema 2.1, las propiedades A3. y A4. pueden reescribirse,
respectivamente, como sigue.
A3. Existe un unico 0/VV tal que v + 0/V = v para cada v V (existencia y
unicidad del elemento neutro para la adicion vectorial)
A4. Para cada v V existe un unico v V tal que v + (v) = v v = 0/V
(existencia y unicidad del elemento opuesto para la adicion
vectorial)
Definicion 4.2. Sean V un espacio vectorial y u,v V cualesquiera. Definiremos
el vector u v, vector diferencia de u con v, como u v = u + (v)
Ejercicio 4.1. Sean V un espacio vectorial, v1,v2,...,vn,v V y 1,2,...,n, R
cualesquiera. Pruebe que
1. ( 1 + 2 + + n)v = 1v + 2v + + nv.
2. (v1 + v2 + + vn) = v1 + v2 + + vn.
Ejercicio 4.2 (Ley de Cancelacion). Sea V un espacio vectorial y u,v,w V. Si
u+v = u+ w,entonces v = w.

133
Teorema 4.2. Sea V un espacio vectorial.
Entonces
1. 0/V = 0/V para cada R.
2. 0v = 0/V para cada v V.
3. Si v = /0V, entonces = 0 o v = 0/V.
4. ()v = (v) = (v) para cualesquiera R y v V. En consecuencia
(1)v = v.

Demostracion.
1. Sea R cualquiera. Entonces
0/V +0/V

= (0/V
M2.)

+0/V)

(por

= 0/V (por A3.)


= 0/V +0/V (por A3.)
Y por la ley de cancelacion (ejercicio 2.2) se tiene que 0/V = 0/V.
2. Ejercicio!
3. Supongamos que v = 0/V.
Si = 0, no hay nada que probar, supongamos entonces que =6 0 y probemos
que v = 0/V.
Por ser =6 0, existe

v = 1v

R tal que
tanto

=1=

. Por lo

(por M4.)

= (1)v
(por la
Con lo que
4. Sean R

= 1(v)
M3.)

(por

1 0/V
= otesis)

(por

v + ()v =

hip
y v V cualesquiera. Entonces
( + ())v (por M1.)

=
=

parte 1)
culmina la prueba de la parte 3.

0v

0/V (por la parte 2)

134
Luego, por A4. (unicidad del opuesto aditivo), se tiene que ()v = (v).
De manera analoga se prueba que (v) = (v). Finalmente, haciendo
= 1 y por M4., obtenemos
(1)v = (1v) = v.

Observacion 4.6. En virtud de las igualdades en la parte 4 del teorema 2.2,


podemos escribir
v en lugar de (v) sin error a confusion.

4.2.
Definicion de subespaciovectorial y sus
propiedades.
Algunos subconjuntos de un espacio vectorial V son, a su vez, espacios
vectoriales, considerando sobre ellos las operaciones + y de V. En esta seccion
nos ocuparemos de dichos espacios vectoriales los cuales son llamados
subespacios vectoriales de V.
Definicion 4.3. Sea W un subconjunto no vaco de un espacio vectorial V.
Diremos que W es
un subespacio vectorial o simplemente subespacio de V si W junto con las
operaciones + y de V es un espacio vectorial.
Ejemplo 4.2.1. Dado un espacio vectorial V, entonces W = {0
V} es un subespacio de V, el cual es llamado
espacio vectorial nulo, as como tambien V (ver ejemplo 4.1 parte 7).
Estos subespacios son llamados subespacios triviales de V. Cualquier otro
subespacio de V, distinto de estos dos, es llamado subespacio no trivial.
Un subespacio de V distinto de V es llamado subespacio propio.
2. Dada una matriz real A Mmn(R). Los espacios S y R, dados en la parte 3 del
ejemplo
.1, son subespacios de Mn1(R) y Mm1(R) respectivamente.
3. De la parte 4 del ejemplo 4.1 podemos garantizar que para cada n N se
tiene que Pn[x] es un subespacio de Pn+1[x] y de P[x].
4. El conjunto C [a, b] formado por todas las funciones reales continuas sobre
el intervalo cerrado [a, b], es un subespacio de F [a, b].
En efecto, es claro que C [a, b] F [a, b] (por que?) y ademas, la funcion
nula esta en C [a, b] (por que?), por lo tanto C [a, b] es un subconjunto
no vaco de F [a, b].

135

Si f,g C [a, b] y R, entonces, por un resultado de Calculo, f + g,f C


[a, b], cumpliendose A0. y M0.
Finalmente, no es difcil probar que el resto de las propiedades en la
definicion 2.1 son satisfechas, con lo cual se obtiene que C [a, b] es un
subespacio de F [a, b].
Antes de dar algun otro ejemplo de subespacio vectorial, debemos hacer
notar que en realidad,
para probar que un subconjunto no vaco de un espacio vectorial es un
subespacio de este ultimo, solo es necesario probar que satisface las
propiedades A0. y M0. como veremos en el siguiente teorema.
Teorema 4.3. Sea V un espacio vectorial. Un subconjunto W de V es un
subespacio vectorial de V si y solo si
1. W =6 .
2. u + v W para cualesquiera u,v W, es decir, W es cerrado bajo la adicion
vectorial (definida sobre V).
3. v W para cualesquiera R y v V, es decir, W es cerrado bajo la
multiplicacion por escalar (definida sobre V).
Demostracion. Sean V un espacio vectorial y WV.
Supongamos que W es un subespacio de V. Entonces por definicion 4.3
tenemos que W6 = y ademas W es un espacio vectorial con las operaciones +
y definidas sobre V, por lo tanto u + v, v W para cualesquiera R y u, v
W.
Supongamos ahora que se cumplen las condiciones 1, 2 y 3 en el enunciado del
teorema. Debemos probar que W junto con las operaciones + y definidas sobre
V es un espacio vectorial. Segun las hipotesis las condiciones A0. y M0. se
satisfacen. Por otro lado, debido a que WV y las condiciones A1., A2., M1.,
M2., M3. y M4. se satisfacen para cualesquiera u, v, w V, entonces dichas
condiciones/WW y qus cumplenv W adu lesquierav W. u, v, w W y ,
R

. As

que

s olo

resta

probar

Como
W
=6 ,
existe
v0
de la condicion 3, 0v0 W, pero por la parte

W. Entonces,

que 0

en

virtud

2 del teorema 4.2 se tiene que 0v0 = 0/V, as que 0/VW y en consecuencia
existe 0/VW tal que para cada v W se tiene que v + 0/V = v, es decir, la

condicion A3. se satisface si sustituimos V por W. Esto ultimo significa que


0/W = 0/V, es decir, el vector nulo en todos los subespacios de V es el mismo.

136
Finalmente, sea v W cualquiera. Entonces, por la condicion 3, tenemos que
(1)v W y dado que (1)v = v (por la parte 4 del teorema 4.2), entonces v
W, en consecuencia para cada v W existe v W tal que v + (v) = 0 /V, es
decir, la condicion A4. se satisface si sustituimos V por W. Otra lectura que le
podemos dar a este resultado es que el vector opuesto aditivo de cualquier
vector en un subespacio, es tambien un vector del subespacio.

Observacion 4.7. Segun la demostracion del teorema 4.3, si W es un


subespacio vectorial de
un

espacio

As

que para

/V

W.

vectorial

V,

probar que

entonces

un subconjunto

W de un

espacio vectorial V es un subespacio de este ultimo, lo primero que debemos


probar es que 0/V W, esto a su vez garantiza que W =6 . Si 0/V/ W, entonces
W no es un subespacio de V.
El teorema 4.3 permite probar que un subconjunto de un espacio vectorial V es
un subespacio de este solo con probar tres condiciones, sin embargo, el
corolario siguiente nos permite hacer la misma pruebo con solo verificar dos
condiciones.
Corolario 4.4. Sea V un espacio vectorial. Un subconjunto W de V es un
subespacio de V si y solo si
1. W =6 .
2. u +vW para cualesquiera R y u,v W.
Demostracion. Supongamos primero que W es un subespacio vectorial de V y
probemos que las condiciones 1 y 2 se cumplen. En primer lugar W6 = por
definicion 2.3. Sean R y u, v W cualesquiera. Entonces, por la parte 3 del
teorema 2.3, tenemos que v W, luego, por la parte 2 del mismo teorema, se
tiene que u + v W.

Supongamos ahora que las condiciones 1 y 2 se cumplen y probemos que W es


un subespacio vectorial de V. Como W6 = , solo debemos probar que se
satisfacen las condiciones 2 y 3 del teorema 2.3.
Sean u,v W cualesquiera. Entonces u + v = u + 1v W (tomando = 1 en la
condicion 2 de la hipotesis).
Por otro lado, sean R y v W cualesquiera. Entonces 0/V = v + (v) = v +
(1)v W (tomando = 1 y u = v en la condicion 2 de la hipotesis) as que
v/V=+0 v W u = 0/V en la condicion 2 de la hipotesis). Lo cual concluye la
prueba.

( tomando

137
Observacion 4.8. Segun la observacion 2.7, la condicion 1 en el teorema 2.3
y la condicion
1 en el corolario 2.4, pueden ser sustituidas por la
siguiente condicion.
/V

W.

1. 0
Observacion 4.9. Recordemos que para probar que los conjuntos S y R,
definidos en la parte 3 del ejemplo 4.1, son subespacios de Mn1(R) y Mm1(R),
respectivamente (ver parte 2 del ejemplo 4.2), fue necesario probar que eran
espacios vectoriales (se dejo como ejercicio), sin embargo, al usar el teorema
4.3 o el corolario 4.4, vemos que no es necesario.
Ejercicio 4.3. Sean U, V y W espacios vectoriales. Pruebe que si W es un
subespacio de V y V es un subespacio de U, entonces W es un subespacio de U.
Ejemplo 4.3. Pruebe que W = {a+bx+cx2+dx3 P3[x] : 2ab+3cd =
0;a+b4c2d = 0} es un subespacio de P3[x].
Solucion. Es claro que WP3[x].
Por otro lado, el polinomio nulo O(x) = 0 = 0+0x+0x2+0x3 (vector nulo de P3[x])
pertenece a W ya que
( 2 0 0
0

+3 0

+0 4 0 2 0 =

0
0

Sean p(x) = a1 + b1x+ c1x2 +d1x3 y q(x) = a2 + b2x+ c2x2 +d2x3 polinomios
cualesquiera en W y R cualquiera. Entonces

2a1 b1 +3c1 d1

a1 +b1

4c1

2d1

0
0y
a2

( 2a2 b2 +3c2 d2 =
+b2

4c2

2d2

Segun el corolario 2.4 y la observacion 2.8, solo falta probar que p(x) +
q(x) W. Pero p(x) + q(x) = (a1 + b1x + c1x2 + d1x3) + (a2 + b2x +
c2x2 + d2x3)
=

(a1 + a2) + (b1 + b2)x + (c1 + c2)x2 + (d1 + d2)x3

(Ademas

2(a1 + a2) (b1 + b2) + 3(c1 + c2) (d1 + d2)


= 2a1 + 2a2 b1 b2 + 3c1 + 3c2 d1 d2
= (2a1 b1 + 3c1 d1) + (2a2 b2 + 3c2 d2) = 0

(por que?)

138
y
(a1 + a2) + (b1 + b2) 4(c1 + c2) 2(d1 + d2)
= a1 + a2 + b1 + b2 4c1 4c2 2d1 2d2
= (a1 + b1 4c1 2d1) + (a2 + b2 4c2 2d2) = 0

(por que?)

Por lo tanto p(x) + q(x) W y en consecuencia, W es un subespacio de P3[x].

Teorema 4.5. Sean W1 y W2 subespacios de un espacio vectorial V. Entonces W1


W2 es un subespacio de V.
Demostracion. Dado que W1,W2 V (ya que W1 y W2 son subespacios de V),
entonces W1 W2 V, ademas, debido a la observacion 4.7, se tiene que 0 /V W1
y 0/V W2 y por lo tanto 0/VW1 W2.
Sean R, u,v W1W2 cualesquiera. Entonces u,v W1 y u,v W2 y dado que
W1 y W2 son subespacios de V, tenemos que u+v W1 y u+v W2 y por lo tanto
u+v W1W2.
Luego, en virtud del corolario 4.4 y la observacion 4.8, tenemos que W1 W2 es
un subespacio de V.

Ejercicio 4.4. Dados dos subconjuntos A y B de un espacio vectorial V, definamos


el conjunto
A + B = {a + b : a A y b B}
Pruebe que si W1 y W2 son subespacios de V, entonces W1 + W2 es un subespacio
de V.
Ejercicio 4.5. Sean W1 y W2 dos subespacios de un espacio vectorial V tales que
W1W2 = {0/V} y V = W1 + W2. Pruebe que para cada v V existen unicos
vectores w1 W1 y w2 W2 tales que v = w1 + w2.
Ejercicio 4.6. Sean W1,W2,...,Wn subespacios de un espacio vectorial V.
Demuestre que W1 W2 Wn es un subespacio de V.
Sugerencia: Proceda por induccion matematica sobre n y use el teorema 4.5.

139

4.3.

Combinacion Lineal.Indepencia Lineal.

Consideremos una matriz real " cuadrada de orden 2


a
b#
c
Entonces " a b # " 1

0#"0
1#"0
0#"0
0#
=a+b+c+dcd00001001

Esta expresion es llamada combinacion lineal, definamos formalmente este


concepto.
Definicion 4.4. Sean V un espacio vectorial y v1,v2,...,vn,v V. Diremos que v es
combinacion lineal de v1,v2,...,vn si existen escalares 1,2,...,n R tales que
v = 1v1 + 2v2 + + nvn.
Observacion 4.10. En la definicion 2.4, podemos escoger una cantidad infinita
de vectores en V, en lugar de v1,v2,...,vn V, para definir combinacion lineal (ver
apendice B).

Ejemplo 4.4.
1. El ejemplo hecho al comienzo de la seccion nos dice que cualquier matriz
real cuadrada de orden 2 es combinacion lineal de las matrices

.
En general, si para cada i {1,...,m} y cada j {1,...,n} definimos la matriz Eij
Mmn(R) como aquella matriz cuya ij-esima componente es igual a 1 y el
resto es 0 , entonces toda matriz A Mmn(R) es combinacion lineal de las
matrices
E11,E12,...,E1n,E21,E22,...,E2n ...,Em1,Em2,...,Emn

2. Cualquier vector p(x) Pn[x] es combinacion lineal de los polinomios


1,x,...,xn (por que?)

140
Espacios Vectoriales
3. Cualquier vector (x1,x2,...,xn) Rn es combinacion lineal de los vectores de
Rn
e1 = (1,0,...,0), e2 = (0,1,0,...,0),..., en = (0,...,0,1)

Ejemplo 4.5. Determine si el vector v = (9,5,6) es combinacion lineal o no de


los vectores v1 = (3,2,6) y v2 = (1,3,2)
Solucion. Supongamos que el vector v es combinacion lineal de los vectores v1
y v2. Entonces existen 1,2 R tales que v = 1v1 + 2v2, es decir,
(9,5,6) = 1(3,2,6) + 2(1,3,2) = (31 2,21 32,61 + 22)
de donde
3111 222

2 3 =
6 +2 =

5
6

Resolvamos este sistema de ecuaciones. La matriz ampliada del sistema es


3 19
2 35
6 26
Hallemos la FERF de esta matriz

23 1395 F1
4 33 14

F2

F23 F23+ 2F11 01 11

1243145

F + F

6 26

26

6F

78

26

F2 111F2 100 264178143


001 010302

F13F13+426F2F2

FF

Obteniedo 1 = 2 y 2 = 3, por lo tanto v = 2v1 3v2, es decir, v es combinaci


on lineal de v1 y v2.

Ejemplo 4.6. Consideremos los polinomios p(x) = 54x+9x2, p1(x) = 2x+2x2,


p2(x) = 2 2x + 6x2 y p3(x) = x 4x2 Es p combinacion lineal de p1, p2 y p3?

141
Solucion. Al igual que en ejemplo precedente, vamos a suponer que la respuesta
a la pregunta es s, entonces existen 1,2,3 R tales que p(x) = 1p1(x) +
2p2(x) + 3p3(x), para cada x R, esto es,
5 4x + 9x2 = 1(2 x + 2x2) + 2(2 2x + 6x2) + 3(x 4x2)
x R)
obteniendo el sistema de ecuaciones
21
1 22
21

+22 = 5
+3 = 4

+62 43 =

La matriz ampliada de este sistema es equivalente por filas a la matriz

(para cada

112

por lo tanto, el sistema

1
0 19
( verifquelo !)

0
originalno

tiene

solucion

012

(por

que?),

en

consecuencia, p no es combi nacion lineal de p1, p2 y p3.


Si consideramos el polinomio p4(x) = 12x+3x2 Es p combinacion lineal de p1,
p2, p3 y p4?

Observacion 4.11. En terminos generales, el problema de decidir si un vector v


en un espacio vectorial V es combinacion lineal de algunos vectores v 1,v2,...,vn
V, esta relacionado con la resolucion de un sistema de ecuaciones adecuado,
como vimos en los dos ejemplos 4.5 y 4.6.
Ejercicio 4.7. Pruebe que si A,B Mmn(R) son equivalentes por filas, entonces
cada fila de B es combinacion lineal de las filas de A y viceversa.
Definicion 4.5. Sean V un espacio vectorial y v1,v2,...,vn V. El conjunto
gen({v1,v2,...,vn}) =
}
para algunos escalares 1,2,...,n R
{w V : w = 1v1 + 2v2 +

es llamado el espacio

generado por los . Es decir, gen({v1,v2,...,vn}) es el conjunto formado por todas


las combinaciones lineales de v1,v2,...,vn.

142
1. Segun la parte 1 del ejemplo 4.4 se tiene que
Mmn(R) = gen({E11,E12,...,E1n,E21,E22,...,E2n ...,Em1,Em2,...,Emn}) y
segun las partes 2 y 3 del mismo ejemplo, tenemos que

Pn[x] = gen({1,x,...,xn})

y Rn = gen({e1, e2,..., en})

2. El vector v = (9,5,6) pertenece al conjunto gen({(3,2,6),(1,3,2)}) (ver


ejemplo 4.5)

3. Del ejemplo 4.6 podemos garantizar que


5 4x + 9x2 / gen({2 x + 2x2,2 2x + 6x2,x 4x2})

Ejemplo 4.8. Hallar gen({2 x + 2x2,2 2x + 6x2,x 4x2})


Solucion. Notese primero que a+bx+cx2 gen({2x+2x2,22x+6x2,x4x2}) si
y solo si existen escalares 1,2,3 R tales que, para cada x R,
a + bx + cx2 =

1(2 x + 2x2) + 2(2 2x + 6x2) + 3(x 4x2)

= (2 1 + 22) + (1 22 + 3)x + (21 + 62 43)x2


Lo que equivale a decir que el sistema de ecuaciones
21 +22
1 22

+3

= a
= b

21 +62 43 = c
tiene al menos una solucion.
Resolvamos este sistema. La matriz ampliada del sistema es

2 2 0a
1 2
1b
2
6 4c

143
Hallemos la FERF de esta matriz

0a 1

1a +b

12 26 41c b F1 1F1 + F212 26 41cb


2
1
F2 F2 + F1F 0 2

a + b 1 0

1a + b

a + 2b F2 21F2 00
16
162a21a2bb+ c

F3 F3 2

6 6 2a 2b + c

F3 F3 6F2 00

10 10

a+b
a+12a4b+bc

Sin necesidad de hallar la FERF de la matriz, obtenemos que el sistema original


tiene solucion si y solo si a + 4b + c = 0.
En consecuencia
gen({2 x + 2x2,2 2x + 6x2,x 4x2}) = {a + bx + cx2 P3[x] : a + 4b + c =
0}

Es de hacer notar que el conjunto W, hallado en el ejemplo 4.8, es un


subespacio de P3[x] . Este resultado no es casual, como veremos en el siguiente
teorema.
Teorema

4.6.

Sean

un

espacio

vectorial

v1,v2,...,vn V.

Entonces

gen({v1,v2,...,vn}) es un subespacio de V.
Demostracion.

Definamos

{v1,v2,...,vn}.

Por

definicion,

gen(S)

gen({v1,v2,...,vn}) es un subconjunto de V. Ademas, por la parte 2 del teorema


4.2 y la parte 2 del ejercicio 4.1
0/V = 0(v1 + v2 + + vn) = 0 v1 + 0 v2 + + 0 vn gen(S).
Finalmente, sean R y u,v gen(S) cualesquiera. Entonces, por definicion
de gen(S) , existen 1,2,...,n,1,2,...,n R tales que
u = 1v1 + 2v2 + + nvn

v = 1v1 + 2v2 + + nvn

Por lo tanto
u + v

=
=

(1v1 + 2v2 + + nvn) + (1v1 + 2v2 + + nvn)


(1 + 1)v1 + (2 + 2)v2 + + (n + n)vn

144
As que u + v gen(S) y en consecuencia gen(S) es un subespacio de V.

Definicion 2.6. Sean V un espacio vectorial y v1, v2, . . . , vn V. Diremos que v1,
v2, . . . , vn generan a V o que el conjunto S = {v1, v2, . . . , vn} genera a V o que
S es un conjunto generador de V si V = gen(S) = gen({v1, v2, . . . , vn}).
Ejemplo 4.9. Por la parte 1 del ejemplo 4.7 podemos decir que:
1. Los vectores (matrices) E11,E12,...,E1n,E21,E22,...,E2n ...,Em1,Em2,...,Emn generan a
Mmn(R).
2. El conjunto {1,x,...,xn} genera a Pn[x].
3. {e1, e2,..., en} es un conjunto generador de Rn.
Ejemplo 4.10. Hallar un conjunto generador del subespacio W de P3[x] dado en
el ejemplo 2.3
Solucion. Sabemos que
W = {a + bx + cx2 + dx3 P3[x] : 2a b + 3c d = 0;a + b 4c 2d = 0}
As que a + bx + cx2 + dx3 W si y solo si
(

2a b +3c d
0a

+b

4c

2d

resolvamos este sistema homogeneo. La matriz del sistema es

La FERF de esta matriz es

( verifquelo !)
Por lo tanto, a + bx + cx2 + dx3 W si y solo si
(

a 13c d =
131c d =

0b
0

145
IVEspacios
o equivalentemente
(a

1
3

=
b =

113

c+d

c + d Haciendo c = 3 y d = , con

, R, obtenemos a + bx + cx2 + dx3 = ( + ) + (11 + )x + 3x2 + x3 =


(1 + 11x + 3x2) + (1 + x + x3) para cada x R. Luego
W = gen({1 + 11x + 3x2,1 + x + x3})
En consecuencia {1 + 11x + 3x2,1 + x + x3} es un conjunto generador de W.

Teorema 4.7. Sean V un espacio vectorial y v1,v2,...,vn,u V. Si u


gen({v1,v2,...,vn}), entonces
gen({v1,v2,...,vn,u}) = gen({v1,v2,...,vn})
Demostracion. Escojamos un vector

v gen({v1,v2,...,vn,u}) cualquiera.

Entonces existen 1,2,...,n, R tales que v = 1v1 + 2v2 + + nvn + u.


Pero por hipotesis u gen({v1,v2,...,vn}), entonces existen 1,2,...,n R tales
que u = 1v1 + 2v2 + + nvn.
Luego v = 1v1 + 2v2 + + nvn + (1v1 + 2v2 + + nvn) = (1 + 1)v1 +
+ (n + n)vn
en consecuencia
v gen({v1,v2,...,vn})
por lo tanto
gen({v1,v2,...,vn,u}) gen({v1,v2,...,vn}) (4.4)
Por otro lado, sea v gen({v1,v2,...,vn}) cualquiera. Entonces existen 1,2,...,n
R tales que v = 1v1 + 2v2 + + nvn as que v = 1v1 + 2v2 + + nvn = 1v1
+ 2v2 + + nvn + 0/V = 1v1 + 2v2 + + nvn + 0u
es decir, v gen({v1,v2,...,vn,u}) de donde
gen({v1,v2,...,vn}) gen({v1,v2,...,vn,u}) (4.5)
De (4.4) y (4.5) obtenemos que
gen({v1,v2,...,vn,u}) = gen({v1,v2,...,vn})

146

Independencia y Dependencia Lineal


Uno de los conceptos mas importantes en espacios vectoriales, y en el
algebra lineal en general, es el de independencia lineal, por lo que pedimos se
estudie con mucha detenimiento y cuidado la presente seccion del captulo.
Daremos una variedad de ejemplos para tratar de explicar lo mejor posible dicho
concepto.
Dados un espacio vectorial V y vectores v1,v2,...,vn V, entonces 0/V =
0v1+0v2++0vn, es decir, siempre podemos escribir el vector nulo 0 /V como
combinacion lineal de cualquier cantidad finita de vectores en V.
Ahora bien, en M23(R) escojamos los vectores

entonces

En conclusion, la unica manera de escribir al vector nulo, como combinaci


on lineal de una cantidad finita de vectores, no necesariamente es unica.
Estos dos ejemplos dan pie a la siguiente definicion.
Definicion 4.7. Sean V un espacio vectorial y v1,v2,...,vn V. Diremos
v1,v2,...,vnson linealmente independientes o que {v1,v2,...,vn} es un conjunto
linealmente indepen diente si la unica manera de escribir el vector nulo 0/V,
como combinacion lineal de los vectores v 1, v2, . . . , vn, es aquella en la cual
todos los escalares son iguales a cero (0), esto es, si 1v1
+ 2v2+ + nvn = 0

= 0. /V, entonces 1 = 2 = =

Diremos que v1,v2,...,vn son linealmente dependientes o que {v1,v2,...,vn} es


un conjunto linealmente dependiente si v1,v2,...,vn no son linealmente
independientes, es decir, existen escalares 1,2,..., nR, no todos nulos, tales
que 1v1 + 2v2 + + /nVv.n
=0
Ejemplo 4.11.
1. Segun el ejemplo dado previamente a la definicion 4.7, se tiene que A 1, A2,
A3 son lineal mente dependientes.

147
2. No es difcil probar que los conjuntos
{1,x,...,xn}, {e1, e2,..., en} y
{E11,E12,...,E1n,E21,E22,...,E2n,...,Em1,Em2,...,Emn}
son linealmente independientes (en sus correspondientes espacios).
3. Dados un espacio vectorial V y v1,v2,...,vn V, entonces {v1,v2,...,vn,0/V} es
linealmente dependiente pues
0/V = 0v1 + 0v2 + + 0vn + 10/V
es decir, en un espacio vectorial, cualquier conjunto finito de vectores que
contenga al vector nulo, es linealmente dependiente.
4. Sea v un vector no nulo en un espacio vectorial V, entonces el conjunto {v}
es linealmente independiente ya que si v = 0/V y dado que v =6 0/V,
entonces = 0 (en virtud de la parte
3 del teorema 4.2).
Antes de dar algun otro ejemplo, debemos hacer notar que para determinar
si un conjunto de vectores {v1,v2,...,vn}, en un espacio vectorial V, es
linealmente independiente o dependiente, debemos plantearnos la ecuacion
1v1 + 2v2 + + nvn = 0/V, la cual conduce, en general, a
n.

Si la solucion de

,...,un sistema de ecuaciones homogeneo con n inc

ognitas, a saber, 1, este sistema es unica, y en consecuencia 1 = 2 = =


n = 0, entonces {v1,v2,...,vn} es un conjunto linealmente independiente, en caso
contrario, {v1,v2,...,vn} es un conjunto linealmente dependiente.
Ejemplo 4.12. Consideremos los vectores p1(x),p2(x),p3(x),p4(x) P2[x] dados
en el ejemplo
4.6. Decidir si estos vectores son o no linealmente independientes.
Solucion. Como se comento antes del ejemplo, debemos estudiar la
ecuacion (para
todo x R)
1p1(x) + 2p2(x) + 3p3(x) + 4p4(x) = 0
Pero
1p1(x) + 2p2(x) + 3p3(x) + 4p4(x)
3(x

= 1(2 x + 2x2) + 2(2 2x + 6x2) +


4x2)

+4(1 2x + 3x2)
=
2

(21 + 2

+ 4) + (1 2

+ 3

4)x

+(21 + 6 2 4 3 + 3 4)x2

148
Obteniendo el siguiente sistema de ecuaciones homogeneo
21
1 22
21

+22 +4
+3 24

=
=

0
0

+62 43 +34 =

El cual sabemos tiene infinitas soluciones (por que?) y en consecuencia los


polinomios p1 (x) , p2(x), p3(x) y p4(x) son linealmente dependientes.

Ejemplo 4.13. Consideremos los polinomios p1(x), p2(x) y p4(x) del ejemplo
anterior son linealmente independientes?
Solucion. Como en el ejemplo anterior, debemos plantearnos la ecuacion
1p1(x) + 2p2(x) + 4p4(x) = 0

(para todo x R)

(4.6
)

Obteniendo el sistema
21 +22
+4 0
=
2
0
1
22 24 =
0
1
+62
+34 =

La matriz de este
sistema es Hallemos su
FERF.
2 2 1 1 1 2 1 0 1

2 2
1
1 2 2
2 6
3

1 2 2 F F + F 12 26 23

F F 00 16

2
2 12 2

1 0 132 3 3 2 1 0

F F 6F 00 10

1 0

FF2FF2+F32F3 00
10

01

1
0
1
F23 F23+ F1 1 0 2 3 5

F F 2F 0 6
13
13 3
14 3 1
F

F
0
2

149

4
0

De donde

1 = 2 = 4 = 0

En consecuencia la ecuacion 4.6 tiene como unica solucion la trivial y por lo


tanto p1(x), p2(x) y p4(x) son linealmente independientes.

5 4#
2

" 3 1 # y

. Es

, A2 =
1 1
3

Ejemplo 4.14. Sean A1 =

{A1,A2,A3} un conjunto linealmente independiente?


Solucion.

Sean

"

1,2,3 R tales que 1A1 + 2A2 + 3A3 = 0/2. Entonces


51 +"32 + 3

41 2 3 # = " 0
0#
21 + 2 43 1 + 32 + 53
0
0

De donde
51 +32

+3 = 0

41 2 3 =
21

+2 43

1 +32 +53 =

Resolvamos este sistema. La

matriz del sistema es


5

4 1 1 2 1
4
1 3
Hallemos su FERF.

150

Vectoriales

FF2 FF+2 2FF3

00

10

1 0 2
1
1 1
1
F3 F3 0
0
1
F4 F4 8F3 0 0 0
0 0
8
2 1
3 10
0
Por lo tanto 1 = 2 = 3 = 0 y en consecuencia
{A1,A2,A3} es linealmente independiente.

Teorema 4.8. Sean V un espacio vectorial y u,v V.


Los vectores u,v son linealmente depen dientes si y
solo si existe R tal que u = v o v = u.
Demostracion.

Supongamos

que

u,v

son

linealmente dependientes. Entonces existen ,


R, noSiambos =6 0nulos,, entoncestales
, obtenemos que u = v.
Si = 0, entonces v = 0/V y ademas, por hip
otesis, 6= 0 y en consecuencia v = 0/V = 0u.
Haciendo = 0, obtenemos v = u.
Supongamos ahora que existe R tal que u =
v o v = u. En consecuencia 1u+()v = 0/V o
u + (1)v = 0/V, en cualquier caso, concluimos
que u,v son linealmente dependientes.

Teorema 4.9. Sea A Mmn(R). Las columnas de A,


A(1),A(2),...,A(n), son linealmente dependientes en
Mm1(R) si y solo si el sistema Ax = 0/m1 tiene
soluciones no triviales.
Demostracion.

Sea

Mmn(R).

Entonces

A(1),A(2),...,A(n) son linealmente dependientes si y s

IV. Espacios
olo si existen escalares 1,2,...,n R, no todos
nulos, tales que
1A(1) + 2A(2) + + nA(n) = 0 m1
/

Por la observacion 4.20

(1)

+ 2A(2) + + nA(n) = A
1
A

As

que

A(1),A(2),...,A(n)

son

linealmente

dependientes si y solo si el sistema Ax = 0/m1


tiene soluciones no triviales.

151
Como consecuencia del teorema 4.9 obtenemos
los siguientes corolarios.
Corolario 4.10. Sea A Mnn(R). Entonces las
siguientes proposiciones son equivalentes.
1. det(A) =6 0.
2. Las

columnas

de

son

linealmente independientes.
3. Las filas de A, A(1),A(2),...,A(n), son linealmente
independientes.

Demostracion. (Ejercicio)

Corolario 4.11. Sea A Mmn(R). Si F es la FERF


de A, entonces las columnas de F
con los pivotes, representan las columnas de A que
son linealmente independientes, es decir, si
son las columnas de F con los
pivotes, entonces
son las
columnas

de

que

son

linealmente

independientes.
Demostracion. (Ejercicio)

Teorema 4.12. Sean {v1,v2,...,vn} un subconjunto


linealmente independiente de un espacio vectorial
V y u V tal que u / gen({v1,v2,...,vn}). Entonces
{v1,v2,...,vn,u} es linealmente independiente.
Demostracion. Sean 1,2,...,n, R tales que
1v1 + 2v2 + + nvn + u = 0/V
Si =6 0, entonces
lo que contradice la hipotesis de que u /
gen({v1,v2,...,vn}). Por lo tanto = 0, de donde
1v1 + 2v2 + + nvn = 0/V
y
dado
que
{v1,v2,...,vn}
es
linealmente
independiente, se tiene que 1 = 2 = = n = 0.
En consecuencia
independiente.

{v1,v2,...,vn,u}

es

linealmente

IV. Espacios
152

4.4.Base y dimension un
espacio vectorial,cambio
de base.
Segun el ejemplo 4.9 y la parte 2 del ejemplo
4.11 tenemos que:
1. {1,x,...,xn} es un conjunto generador de Pn[x] y
ademas es linealmente independiente.
2. {e1, e2,..., en} es un conjunto linealmente
independiente y genera a Rn.
3. {E11,E12,...,E1n,E21,E22,...,E2n ...,Em1,Em2,...,Emn} es
un

conjunto

generador

de

Mmn(R)

es

linealmente independiente.

Conjuntos con estas caractersticas nos son de


mucha utilidad en el estudio de los espacios
vectoriales y dan pie a la siguiente definicion.
Definicion 4.8. Sea V un espacio vectorial. Un
conjunto {v1,v2,...,vn}V es una base de
V si gen({v1,v2,...,vn}) = V, es decir, {v1,v2,...,vn} es
un conjunto generador de V.2. {v1, v2,...,vn} es
linealmente independiente.

Ejemplo 4.15.
1. {1,x,...,xn} es una base de Pn[x].
2. {e1, e2,..., en} es una base de Rn.
3. {E11,E12,...,E1n,E21,E22,...,E2n ...,Em1,Em2,...,Emn} es
una base de Mmn(R).

Cada una de estas bases es llamada base can


onica

estandar

del

correspondiente

espacio.
Ejemplo

4.16.

Ningun

conjunto

finito

de

polinomios en x es una base de P[x], en efecto,


consi deremos un conjunto finito cualquiera de
polinomios,

digamos

{p1(x),p2(x),...,pn(x)},

entonces para cualesquiera 1,2,...,n R tenemos


que 1p1(x)+2p2(x)++npn(x) es un polinomio a
lo sumo de grado k, donde k es el maximo entre
los grados de los polinomios p1, p2, . . . , pn, es
decir,

cualquier

combinacion

lineal

de

los

polinomios p1,p2,...,pn es un polinomio a lo sumo

153
de grado k, en consecuencia p(x) = xk+1 P[x] pero
p(x)

gen({p1(x),p2(x),...,pn(x)}),

de

donde

gen({p1(x),p2(x),...,pn(x)}) 6= P[x]. Lo cual prueba


lo afirmado al principio.
Lo anterior nos dice que P[x] no tiene una base
finita. Aunque en este captulo no trataremos las
bases infinitas (ver apendice B), afirmamos que
una base para P[x] es

Ejemplo 4.17. Hallar una base del subespacio

IV. Espacios
Solucion.

si y solo si 5a+6b+4c2d

= 0 o bien, si y solo si
As que

si y solo si

Por lo tanto

No es difcil probar que

es linealmente independiente, y en consecuencia


es una base de W.

Ejemplo

4.18.

Considere

los

polinomios

p1(x),p2(2),p4(x) P2[x] del ejemplo 4.13. Pruebe


que = {p1(x),p2(x),p4(x)} es una base de P2[x].
Solucion.

Sabemos

que

el

conjunto

{p1(x),p2(x),p4(x)} es linealmente independiente,


en virtud del ejemplo 4.13, asque solo falta
probar que dicho conjunto genera a P2[x]. Sea p(x)
= a+ bx+cx2 P2[x] cualquiera, queremos probar
que la ecuacion 1p1(x)+2p2(x)+4p4(x) =
p(x) ,

154
para todo x R, tiene solucion para 1,2,4 R.
Pero dicha ecuacion es equivalente al sistema

de ecuaciones
21
1 +22 +4 =
21 22 24 =
La matriz de este sistema es
+62 +34 =
2

a
b
c
1

1
2
2
2
6

3
y por el ejemplo 4.13, sabemos que es equivalente
por filas a I3, en consecuencia, el sistema en cuesti
on, tiene solucion (unica), lo cual concluye la
prueba.

Ejemplo 4.19. Considere los polinomios p1(x),


p2(x), p3(x) y p4(x) del ejemplo 2.12. Entonces
{p1(x), p2(x), p3(x), p4(x)} no es una base de P2[x],
por ser linealmente dependiente, sin embargo es
un conjunto generador de P2[x]. El conjunto {p1(x),
p2(x)} tampoco es una base de P2[x], por no ser un
conjunto generador de P2[x], pero es linealmente
independiente.
La unicidad de los escalares en el ejemplo 4.18 es
una regla la cual enunciaremos en el siguiente
teorema.
Teorema 4.13. Sea = {v1,v2,...,vn} una base de
un espacio vectorial V. Entonces para cada v V
existen unicos escalares 1,2,...,n R tales que v
= 1v1 + 2v2 + + nvn.
Demostracion. Sea v V un vector cualquiera.
Dado que = {v1,v2,...,vn} es una base de V,
entonces genera a V, as que la existencia de los
escalares en el enunciado del teorema esta
garantizada. Supongamos que existen escalares
1,2,...,n,1,2,...,n R tales que

IV. Espacios
v = 1v1 + 2v2 + + nvn
y
+ nvn

v = 1v1 + 2v2 +

Luego
0/V =

vv

=
(1v1 + 2v2 + + nvn)
(1v1 + 2v2 + + nvn)
=
(1 1)v1 + (2 2)v2 +
+ (n n)vn
Como = {v1,v2,...,vn} es una base, entonces es
linealmente independiente, por lo tanto
1 1 = 2 2 = = n n = 0

155
es decir,
1 = 1, 2 = 2,..., n = n
con lo cual obtenemos la unicidad de los escalares.

Notese que hemos hallado dos bases de P2[x], a


saber la base canonica c = {1, x, x2} y la base
= {p1(x), p2(x), p4(x)} del ejemplo 4.18, y ambas
tienen la misma cantidad de vectores, en este caso
tres (3), esta situacion no es para nada casual,
como veremos en el siguiente teorema.
Teorema 4.14.Sean

= {u1,u2,...,un} y

{v1,v2,...,vm} dos bases de un espacio vectorial


V. Entonces m = n, esto es, si un espacio
vectorial V tiene una base
finita,entonces todas sus bases tienen la misma
cantidad de elementos.
Demostracion. Supongamos que m < n. Dado que
2 es una base de V, entonces, para cada

1j,2j,...,mj

tales

que

{1,...,n},

existen

escalares
uj = 1jv1 + 2jv2 + + mjvm
Sean 1,2,...,n R tales que
Luego
0/V = 1(11v1 + 21v2 + + m1vm) + 2(12v1 +
22v2 + + m2vm) + +
+n(1nv1 + 2nv2 + + mnvm)
=

(111 + 122 + + 1nn)v1 + (211 + 222


+ + 2nn)v2 + +
+(m11 + m22 + + mnn)vm

Pero
2
=
{v1,v2,...,vm}
es
linealmente
independiente, por ser una base de V, as que
111 + 122 + + 1nn =

211 + 222 + + 2nn =

.
.

m11 + m22 + + mnn

Este es un sistema de ecuaciones lineales con m


ecuaciones y n incognitas que son 1,2,...,n.
Como m < n, al usar el teorema 4.16, concluimos
que

el

sistema

anterior

tiene

soluciones

no

triviales, es decir, existen 1,2,...,n R, no todos


nulos, tales que
1u1 + 2u2 + + nun = 0/V

es

decir,

156
{u1,u2,...,un}

es

linealmente

dependiente, lo que contradice el hecho de que 1


es una base de V, por lo tanto m n. An
alogamente se prueba que m n y por lo tanto m
= n.

IV. Espacios

El teorema 2.14 da pie a la siguiente definicion.


Definicion

4.9.

Sea

un

espacio

vectorial.

Diremos que V tiene dimension cero o dimen


sion nula si V = {0/V}, diremos que la dimensi
on de V es n si V tiene una base con n elementos,
en ambos casos diremos que V tiene dimension
finita. Si V no posee una base finita, diremos que V
tiene dimension infinita. En todos los casos la
dimension de V se denota por dim(V). Ejemplo
4.20.
1. Del ejemplo 4.15 podemos garantizar que
dim(Pn[x]) = n + 1, dim(Mmn(R)) = mn y
dim(Rn) = n.
2. Si W es el subespacio del ejemplo 4.17,
entonces dim(W) = 3.
3. El espacio vectorial P[x] es un espacio de
dimension infinita (ver ejemplo 4.16).
Observacion 4.13. El problema de encontrar la
dimension de un espacio vectorial esta rela
cionado con la busqueda de una base de dicho
espacio, como vimos en el ejemplo 4.20.
Teorema 4.15. Sean V un espacio vectorial de
dimension n y v1,v2,...,vm V.
1. Si {v1,v2,...,vm} es linealmente independiente,
entonces m n.
2. Si {v1,v2,...,vm} genera a V, entonces m n.

Demostracion. Sea = {u1,u2,...,un} una base de


V.
1. Suponga que m > n y haga una prueba ana
loga a la del teorema 4.14.
2. Ejercicio!

Como consecuencia del teorema 4.15 se tiene el


siguiente teorema.

157
Teorema 4.16. Sean V un espacio vectorial de
dimension n y S = {v1,v2,...,vn}V.
1. Si S es linealmente independiente, entonces S
es una base de V.
2. Si S genera a V, entonces S es una base de V.
Demostracion. Ejercicio!
Sugerencia: En ambos casos suponga que S no
es una base, luego para la parte 1 use el teorema
4.12 y para la parte 2 use el teorema 4.7.

Teorema 4.17. Sea W un subespacio de un espacio


vectorial de dimension finita V. Entonces dim(W)
dim(V). Ademas, si dim(W) = dim(V), entonces
W = V.
Demostracion. Sean dim(V) = n y W una
base de W. Entonces W es linealmente
indepen diente en W, luego W es linealmente

IV. Espacios
independiente en V (por que?). Por lo tanto,
por la parte
1 el teorema 2.15, W tiene a lo sumo n elementos,
esto es, dim(W) n = dim(V).
Ademas, si dim(W) = dim(V), entonces W es un
conjunto linealmente independiente con n
elementos. Por lo tanto W es una base de V (por
que?). En consecuencia W = gen(W) = V.

Observacion 4.14. Todo espacio vectorial que


contenga un subespacio de dimensien infinita, es
tambien de dimension infinita.
Ejemplo 4.21. Sean a,b R cualesquiera. Entonces
P[x] puede verse como un subespacio de C [a, b]
(por que?) y como P[x] tiene dimension finita
(ver parte 3 de ejemplo 4.20), entonces, por la
observacion 4.14, C [a, b] de dimension infinita.
Teorema 4.18. Sea V un espacio vectorial de
dimension n y S = {v1,v2,...,vm}V.
1. Si S es linealmente independiente, entonces
existe una base de V tal que S .
2. Si S genera a V, entonces existe una base de
V tal que S.
Demostracion.
1. Dado que S es linealmente independiente,
entonces m n, segun la parte 1 del
teorema
2.15. 158
Si S genera a V, entonces S es una base de V,
as que = S es una base de V que contiene
a S. De lo contrario, existe un vector vm+1 V

tal

que

vm+1 /

gen({v1,v2,...,vm}).

{v1,v2,...,vm,vm+1}

es

Luego

linealmente

independiente, en virtud del teorema 4.12.


Si {v1,v2,...,vm,vm+1} genera a V, entonces =
{v1,v2,...,vm,vm+1} es una base de V tal que S
. Sino, podemos escoger vm+2 V tal que vm+2
/ gen({v1,v2,...,vm,vm+1}) y al igual que antes
{v1,v2,...,vm,vm+1,vm+2}

es

linealmente

independiente.
Continuamos
completar

con
un

este

proceso

conjunto

hasta

linealmente

independiente = {v1,v2,...,vm,vm+1,...,vn}, el
cual es, por lo tanto, una base de V y ademas
S .
2. Ejercicio!
Sugerencia:

Si

es

linealmente

independiente, entonces = S es la base


buscada, de lo contrario existe k {1,...,m} tal
que

vk

gen({v1,v2,...,vk1,vk+1,...,vm}).

Continuar este proceso hasta obtener la base


buscada.

4.4.2 Rango, Nulidad, Espacio Fila y


Espacio Columna de una Matriz

En la observacion 4.9 se afirmo que en la


presente

seccion

se

probara

formalmente,

usando el corolario 2.4, que los conjuntos S y R,


definidos en la parte 3 del ejemplo 2.1, son
subespacios de Mn1(R) y Mm1(R), respectivamente.

IV. Espacios
Antes que nada definiremos mas formalmente
dichos conjuntos.
Definicion 4.10. Consideremos una matriz A
Mmn(R). El conjunto
N(A) = Ker(A) = {x Mn1(R) : Ax = 0/m1}
es llamado espacio nulo, nucleo o kernel de A;
y el conjunto
Im(A) = {y Mm1(R) : Ax = y
Mn1(R)}

para algunx

se conoce como imagen o recorrido de A.


Observacion 4.15. Notemos que por definicion y
Im(A) si y solo si existe x Mn1(R) tal que Ax =
y.

1 0

F F 00

2 3
10 10

159
40

x1

As que

si y solo si

o bien

De donde

Por lo tanto
N(

No es difcil probar que el conjunto


2


, 4

1 0
es linealmente independiente (pruebelo!) y por lo
tanto es una base de N(A). As que

y12 31
Por otro lado, sea y = y M (R). Entonces y
Im(A) si y solo si existe y3

IV. Espacios
M41(R) tal que Ax = y, es decir, y Im(A) si y solo
si el sistema Ax = y tiene solucion.

160
Resolvamos entonces este sistema, la matriz
ampliada de este sistema es
2 3
7 18y1
[A|y] = 2 0 4 6y2
2 9
13 42y3
La cual es equivalente por filas a la matriz ( verif
quelo !)

1 0
2 331 112y213
0
1 1 4 y y2
0 0
0
03y1 2y2 + y3
Por lo tanto y Im(A) si y solo si
3y1 2y2 + y3 = 0

(por que?)

equivalentemente

En

consecuencia

y por lo tanto
Im(

3
2

es difcil probar que

IV. Espacios
0

,
3

1
2

es linealmente independiente y en consecuencia


una base de Im(A). Luego r(A) = 2.

Con respecto al ejercicio anterior, notemos que


los pivotes en la FERF de A estan en las columnas
1 y 2, por lo tanto las columnas 1 y 2 de A,
2 3
2 ,
0

161
son linealmente independientes (use el corolario
2.11) y ademas
7

0
3 7

186
1 =
0
4
A
10
=
3 0
22 9 13
0
02
42 0 9

2 3

es decir

10 2 3 4 186 0 2 2

A 0 = 2 0 0 13
0 =
9
2
42 0 2
0

,
0

I
m
(

A
)

y por lo tanto
2

2 ,
0
2 9
es un subconjunto linealmente independiente de
Im(A). Al usar la parte 1 del teorema 4.16 tenemos

que

es una base para Im(A).

Este procedimiento es valido al momento de


hallar una base para Im(A) y es una manera mas
sencilla que la usada en el ejemplo previo, es decir,
si se quiere hallar una base para Im(A), no es
necesario saber para que valores de y el sistema
Ax = y tiene solucion.
Vamos a dar el algoritmo que nos permite hallar
una base para N(A) y una base para Im(A).
Algoritmo para hallar bases para N(A) e
Im(A), donde A Mmn(R).
Paso 1. Hallar la FERF de la matriz A.

IV. Espacios
162
Paso 2. La matriz hallada en el paso previo,
nos

permite

escribir

la

solucion

del

sistema Ax = 0/m1 como combinacion


lineal de ciertos vectores linealmente
independientes, dichos vectores forman
un base para N(A).
Paso 3. Las columnas con los pivotes, de la
matriz

hallada

representan

las

en

el

primer

columnas

de

paso,
A

que

forman una base para Im(A).


Antes de dar un ejemplo de como aplicar este
algoritmo,

daremos

Consideremos

una

algunos
matriz

resultados.
A

Mmn(R).

Denotaremos por C(A) al espacio generado por


las
columnas de

A, el cual llamaremos

espacio

columna de A, y denotaremos por R(A) al espacio


generado por las filas de A, el cual es llamado
espacio fila de A, esto es
C(A) = gen({A(1),A(2),...,A(n)})
y
R(A) = gen({A(1),A(2),...,A(m)})
Teorema 4.20. Si A,B Mmn(R) son tales que A y B
son equivalentes por filas, entonces
1. C(A) = Im(A).
2. R(A) = R(B).
3. dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A).
4. r(A) = r(B) y n(A) = n(B).
5. r(A) + n(A) = n.

Demostracion.
1. Por definicion de Im(A) sabemos que y
Im(A) si y solo si existe x Mn1(R) tal que Ax
= y.
x1
x2
Si hacemos x =
, entonces
.
xn
y =Ax = x1A(1) + x2A(2) + + xnA(n)
(ver observacion 1.20)
es

decir,

Im(A)

si

solo

si

En consecuencia C(A) = Im(A).

163
2. Como A y B son equivalentes por filas,
entonces cada fila de B es combinacion lineal
de las filas de A y viceversa (ver ejercicio 4.7),
es decir, para cada i {1,...,m} se tiene que
B(i) gen({A(1),A(2),...,A(m)}) y A(i)
gen({B(1),B(2),...,B(m)}). En consecuencia
R(A) = R(B)
3. Sea F Mmn(R) la FERF de A. Entonces las filas
no nulas de F son linealmente indepen dientes
(por que?) y en consecuencia forman una
base para R(F), por lo tanto, si k es el numero
de filas no nulas de F, entonces dim(R(F)) = k,
pero por la parte 2 R(A) = R(F ), asque
dim(R(A)) = dim(R(F )) = k.
Por otro lado, las columnas de F con los
pivotes, representan las columnas de A que
son linealmente independientes (en virtud del
corolario 4.11) y que en consecuencia forman

IV. Espacios
una base para C(A), pero la cantidad de
pivotes que tiene F es k, por lo tanto dim(C(A))
= k = dim(R(A)) y por la parte 1 tenemos que
dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A)
4.Queda como ejercicio.
5.Queda como ejercicio.

Corolario 4.21. A Mnn(R) es invertible si y solo


si r(A) = n.
Demostracion. Ejercicio!

Corolario 4.22. Sean A Mmn(R) y b Mm1(R).


Entonces el sistema Ax = b tiene al menos una
solucion si y solo si r([A|b]) = r(A).
Demostracion. Ejercicio!

Ejemplo 4.23. Hallar el espacio fila, el espacio


columna, el espacio nulo, la imagen, y una base
para cada uno de estos espacios; y la nulidad y el
rango de la matriz
2 2 6 1 8
4
1
3
2
19
A =
1 1 3 1
2 4 16 3

164
Solucion. Solo hace falta hallar la FERF de A.

6
14

2 6 1

A = 4 1 3 2 19

1 3 1

F1 F3 42 12

36 21 198

1 1 3

2 4 16
3
14 2 4
16
3
14
1 1
F 2 F2 + 4F1 0
3 3 1
6 1 1 3
1
6
FF43 FF34 22FF11 00 02 15100 112
452 F2 F2 F4 000 201 1050 111
432
1 1

1 0
0

F 4 F 4 F 2
FF3
F F 2F

F 3 F3

0
0

50

2
3

00

3 2

00

10 50 10 4 1

0 1 4 0
1
3
0

01 14

0
x1
x2

que x3 N(A) si y solo si


x4
x5

x1
2 +2x33
4

10 50 11 43 FF4FF4+

As

+3x555
= 0 x
5x
x = 0
+4x =

IV. Espacios
o equivalentemente

165
Luego

Por lo tanto, una base para el espacio nulo de A


es:

y as
N(A) = gen 1

Ademas, una base para el espacio fila de A es:


nh 1 0

0
0

3 i,h 0
0
1

1 5 0 1 i,h 0
4 io

luego
R(

Como los pivotes de la FERF de A estan en las


columnas 1,2 y 4, entonces las columnas 1,2 y

4 de A forman una base para el espacio imagen o


espacio columna de A, es decir,

4 , 1 , 2
1
1
1

es una base para C(A) = Im(A) y en consecuencia

166

C(A) = Im(A) = gen 4

, 1

1
1
1

, 2

IV. Espacios

Finalmente la nulidad y el rango de A son,


respectivamente, n(A) = dim(N(A)) = 2 y r(A) =
dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.

Ejercicio 4.8. Pruebe que si A Mnn(R), entonces


existe k n tal que para cada r k se cumple
.
1.
2..
Ademas, si A no es invertible, entonces todas las
contenciones en 1 y 2 son propias.

167

IV. Espacios
IV. Espacios Vectoriales

Matriz de Cambio de Base.

En este captulo y en el siguiente, los espacios vectoriales considerados, son


espacios vectoriales reales, salvo que se indique lo contrario, sin embargo,
muchas de las definiciones y teoremas expuestos en ellos, pueden generalizarse
para el caso en que no se consideren espacios vectoriales reales.

Sea V un espacio vectorial de dimension n. Dada una base = {v1,v2,...,vn}


de V, existen muchas formas de ordenar los vectores en , a saber n! formas
distintas, haremos una diferencia entre unas y otras definiendo lo que
llamaremos base ordenada.
Definicion 4.3.1. Sea V un espacio vectorial de dimension n. Una base
ordenada de V es una n-upla ordenada (v1,v2,...,vn) tal que {v1,v2,...,vn} es
una base de V.
Observacion 4.3.1. Para no recargar mucho la notacion escribiremos
{v1,v2,...,vn} en lugar de (v1,v2,...,vn) y para no caer en confusion diremos
{v1,v2,...,vn} es una base ordenada de V.
Ejemplo 4.3.1.
1. En R2 dos bases ordenadas distintas son: c = {(1,0),(0,1)} y = {(0,1),
(1,0)} la primera
2. seEndenominaRn las

basesla

baseordenadascanonicac ordenada=

{(1,0,..o.,simplemente0),(0,1,0,...,base0),..canonica.,(0,...,0de,1)R}2.yN
otese

que{(0,..c.,y0,1)son,(0,iguales...,0,1como,0),..bases.,

(1,de0,.R..2,,0)pero}
sondistintasdistintas,comoperobasescomoordenadas.bases son iguales. c
es llamada base canonica ordenada o simplemente base canonica
de Rn.

3. En Pn[x] las siguientes bases

son bases

ordenadas distintas, pero como bases iguales.

es llamada base can

onica ordenada o
simplemente

base canonica de Pn[x].

168
Vectoriales
4. En el espacio de las matrices Mmn(R), para cada i {1,...,n} y j {1,...,m},
consideremos la matriz Eij, cuya componente ij es igual a 1 y las restantes
son iguales a 0
( cero ).
La base

= {E11,E12,...,E1n,E21,E22,...,E2n,...,Em1,Em2,...,Emn} es llamada la

base canonica ordenada o simplemente base canonica de


Mmn(R). Las
siguientes
son bases ordenadas de Mmn(R), distintas entre si y distintas de c:
a) 1 = {E11,E21,...,Em1,E12,E22,...,Em2,...,E1n,E2n,...,Emn}
b) 2 = {Emn,...,Em2,Em1,...,E2n,...,E22,E21,E1n,...,E12,E11}
c) 3 = {Emn,...,E2n,E1n,...,Em2,...,E22,E12,Em1,...,E21,E11}
d) 4 = {E1n,...,E12,E11,E2n,...,E22,E21,...,Emn,...,Em2,Em1}
Dada una base {v 1,v2,...,vn} de V, sabemos que para cada v V existen u
nicos escalares Todas estas bases son iguales como bases (no ordenadas).
1,2,...,nR tales que
v = 1v1 + 2v2 + + nvn.
Si {v1,v2,...,vn} es una base ordenada, entonces los escalares 1,2,...,n R son
unicos y estan ordenados de forma unica, lo que da pie a la siguiente definici
on.
Definicion 4.3.2. Sea = {v1,v2,...,vn} una base ordenada de V y sea v V.
Definiremos la matriz de coordenadas de v en la base como la unica
matriz
1
2

IV. Espacios
[v] =
.
n

tal que v = 1v1 + 2v2 + + nvn.


Ejemplo 4.3.2. El conjunto = {1 + x,x + x2,1 + x2} es una base de P2[x] ( pru
ebelo !).
Para cualquier p(x) P2[x], encuentre [p(x)] .
Solucion. Sea p(x) = a0 + a1x + a2x2 con a0,a1,a2 R y sea
1
[p(x)] =
2
3

169
IV. Espacios Vectoriales
Entonces, para cada x R, tenemos
p(x) =

1(1 + x) + 2(x + x2) + 3(1 + x2)

(1 + 3) + (1 + 2)x +
3)x2
De donde se obtiene el sistema
11

Resolvemos el sistema

10

1a01

10

01aa 3 F F F

0a 0

+3 =

a0

a1

a2

+2

11

1 0

+3

10

10a0

00 11 11aa+2 a1

23

F F F 00 10 12 a01aa+1 1+aa2 1F F
a12a+1 +a

12a2

(2 +

10a0

00 10 1112a0

F12 F12 F33 0 1 02 121a00 +2112a11+2112aa22

1
F F + F 00
Luego

0a+a

1 2 a 0 2a 1 + 2a 2

2 2 2

a11 a2
[p(x)] =
[a + a x + a x ] = a
2 1a0 12a1 +
1 1 1 a01 1 1 1
1

= 2 1

121a00+ 1221a11 1212a22

+a+a
12a2

1 a00+

= 2 a + a + a2

a0 a1 + a2

1 1

= 2 1

1 a2 1 1

[p(x)]c

Teorema 4.3.1. Sea una base ordenada de un espacio vectorial V de dimensi


on n. Para cualesquiera u,v V y R se cumple que
1. [u + v] = [u] + [v]

170

IV. Espacios Vectoriales

2. [u] = [u]
Demostracion. Ejercicio!

Teorema 4.3.2. Sean 1 = {v1,v2,...,vn} y

= {u1,u2,...,un} bases ordenadas de un

espacio vectorial V. Entonces existe una unica matriz A Mnn(R) tal que

[v]2 = A[v]1

para cada v V

(4.1)

Demostracion. Para cada j {1,...,n} hagamos 1j


2j
[vj]2 =
.

nj

Entonces
vj = 1ju1 + 2ju2 + + njun
Sea v V cualquiera. Hagamos 1

1
2

[v]1 =
.

y
[v]2 =
. n
n

Entonces
1u1 + 2u2 + + nun = v
=
=

1v1 + 2v2 + + nvn


1(11u1 + 21u2 + + n1un) + 2(12u1 + 22u2 + + n2un) + +
+n(1nu1 + 2nu2 + + nnun)

(111 + 122 + + 1nn)u1 + (211 + 222 + + 2nn)u2 + +


+(n11 + n22 + + nnn)un

171
IV. Espacios Vectoriales

Por lo tanto
1 111 + 122 + + 1nn 11
=
=

12

n2

nnn 2nn21

22

11
[v]2 =

211 +
222 +

n n11 + n22 + + nnn n1


De donde

1n1 2

2n

21 1222 12nn

[v]1

n1 n2 nn

Haciend
o

2111
ij nn

= [ ]=
.
.
n1

1222

1n
2n

[vn]2 i

= h [v1]2 [v2]2
.

n2

nn

obtenemos la existencia de la matriz A que satisface (3.1)


Para probar la unicidad de A, notemos primero que la j-esima columna de A esta
dada por

(j)

2j

= [vj]2 A
.

1j

nj

Supongamos que B Mnn(R) es tal que


[v]2 = B[v]1

para cada v V As

que, para cada j {1,...,n}, tenemos que

[vj]2 = B[vj]1

172
IV. Espacios Vectoriales

Pero
0

.
0
[vj]1 =

1 j-esima fila
0
0

Luego

.
0
A(j) = [vj]2 = B[vj]1 = B 1

= B(j)

0
0

Por lo tanto B = A.

Definicion 4.4.3. La matriz A en el teorema anterior es llamada matriz de transici


on o matriz de cambio de base de 1 a 2 y se denota por M1,2.
Como su nombre lo indica, la matriz M1,2 permite hallar la matriz de coordenadas
de un vector v V en la base 2 conociendo la matriz de coordenadas de v en la base
1. Notese ademas que por su definicion, la columna j-esima de M1,2, representa
la matriz de coordenadas del j-esimo vector de 1 respecto a la base 2, esto es, si 1
= {v1,v2,...,vn}, entonces
M1,2 = h [v1]2 [v2]2 [vn]2 i
.
Ejemplo 4.3.3. Sea la base ordenada de P2[x] dada en el ejemplo 3.2. Entonces,
segun el ejemplo en cuestion, tenemos que

(por que?)

173
IV. Espacios Vectoriales
donde c es la base canonica ordenada de P2[x].
Antes de dar algun otro ejemplo, enunciaremos un primer resultado que
involucra matrices de transicion.
Teorema 4.3.3. Si V es un espacio vectorial de dimension n y 1 y 2 son dos
bases ordenadas de V, entonces la matriz M 1,2 es invertible y su inversa es M
.

2,1

Demostracion. Sea v V cualquiera. Entoncesy

[v]1 = M2,1[v]2

Por lo tanto, si 2 = {v1,v2[,v.]..2,=vnM},entonces1,2[v]1 para cada j {1,...,n}


0

se tiene que
0
j-esima fila 1 = [vj]2 = M1,2[vj]1 = M1,2M2,1[vj]2 = C(j) 0
0

.
donde C(j) es la j-esima columna de M1,2M2,1.
En consecuencia M1,2M2,1 = In y por lo tanto (M1,2)1 = M2,1.

Ejemplo 4.3.4. Consideremos las siguientes bases ordenadas de


R3
1 = {(1,2,0),(3,1,1),(0,1,3)}
y
,2)}
Hallar M1,2, Mc,2 y M2,1.
Solucion. Para hallar M1,2 debemos hallar las matrices de coordenadas de cada uno
de los vectores de 1 respecto a la base 2. Sean

[(1,2,0)] =

11

12

13

21
,
[(3, 1,1)] =
31 32
33

22

[(0,1,3)] = 23

174
IV. Espacios Vectoriales

Entonces

(1,2,0)

11

21(1,0,1)

(0,2,1) +

31

(3,1,2)

= (21 + 331 , 2 11 31 , 11 + 21 + 2
31)
(3,1,1) =

12(0,2,1) + 22(1,0,1) +
32(3,1,2)
=
(22 + 332 , 2
+ 2

12

32 ,

12

+ 22

32)

De donde

=
13(0,2,1) + 23(1,0,1) +
33(3,1,2)
(0,1,3)

=
(23 + 333 , 2 13 33 , 13 + 23
+ 2
+331
=
1 22 +332 =

21
33)
211
31 = 2 , 212
11
+21 +231
=
+232
=
23 +333
y

=
213
13
=

32 =
0 12

0
33 =
1
+23 +233
3

Debido a que la
1
matriz de cada
1uno de estos
sistemas

+22

la

misma, podemos
resolverlos
manera

de
simult

anea
considerando

la

siguiente matriz
tres
ampliada

0 1 31
3
0
2
0 12 1 1

1
1
20
1
3

es

veces

Notese que las tres primeras columnas de esta matriz, son las matrices de
coordenadas de cada uno de los vectores de la base 2 respecto a la base canonica,
y las tres ultimas colum nas, son las matrices de coordenadas de cada uno de los
vectores de la base 1 respecto a la base canonica. Este procedimiento es estandar
cada vez que busquemos una matriz de cambio de base.
0 1

31

21

01 1220 11 13

1 3

1 1

20

F F 0210 1321 13

10

175
IV. Espacios Vectoriales

1 1

2 3

1 1

F F 2F 00 21 53 21 33 50 F F 00 12 53 12 33 50

5
2 2 1 1
2
0
1
3 1 1
2 1 0
1
4
3
F F 00 21 53 21 33 50 F

F3

+ 2F

F 3 F

2 00

01 113

9 14 193 8 50

3 1 1
3 1 0
0 11111 161 1 1111 15
F F 5F 0
1
0
F
F F 00 01 31 1141 1193
1150 2 F2 + 3F3 0
0
1
114
1119
11 5

111 31

As que

Hallemos ahora Mc,2. En este caso la matriz aumentada que obtenemos es


0 1
31
2
0 10
1 1
20
Vemos

que

para

0
1
0

0
0
1

obtener

Mc,2 necesitamos aplicar, en el mismo orden, las

mismas OEF que aplicamos anteriormente (por que?), y obtenemos


1
0

1112 111

112

0
1

0111151
6
111
0 11

115

11

Por lo tanto

Notese que la matriz obtenida no es mas que la inversa de

=
2
1 1

2,c 0

1
0 1
2

176
IV. Espacios Vectoriales

Finalmente ( verifquelo !)

Algoritmo para hallar la matriz de transicion M1,2, donde 1 y 2 son bases


ordenadas de un espacio vectorial V de dimension n y c es la base canonica
ordenada de V. En general V = Rn, V = Pn1[x] o V = Mpq(R) con pq = n.
Paso 1. Hallar las matrices M2,c y M1,c.
Paso 2. Formar la la matriz ampliada [M2,c|M1,c].
Paso 3. Hallar la FERF de la matriz en el paso previo.
Paso 4. La matriz hallada en el paso previo tiene la forma [In|B]. Entonces M1,2 =
B.
Ejemplo 3.5. Sean 1, 2 y c como en el ejemplo anterior. Dado (x,y,z) R3, hallar

[(x,y,z)]2 y [(x,y,z)]1. c
Solucion.
Sabemos

que

[(x,y,z)]

por

lo

tanto

177
IV. Espacios Vectoriales
En este ultimo ejemplo se verifica que

c1

21

15 7

3 1 5 1

M , = M , M , =5 7 135 3 6 3 7 5 2 1 2
14
11

4 9 3

c1

M , =6

14
2 1
5
Este resultado no es casual, como se puede ver en el siguiente teorema
Teorema 4.4.4. Sean 1,

bases ordenadas de un espacio vectorial V de

dimensi on n. Entonces
M , = M , M ,
1

Demostracion. Sea v V cualquiera. Entonces

[v] = M , [v]
3

[v] = M , [v]
2

Luego
[v] = M , [v] = M , M , [v]
3

Por unicidad de la matriz M1,3 concluimos que


M , = M , M ,
1

Teorema 4.4.5. Sea una base ordenada de un espacio vectorial V de dimension n.


Entonces
{v1,v2,...,vn} es una base de V si y solo si la matriz cuadrada de orden n, cuya jesima columna es [vj] , tiene determinante distinto de cero.
Demostracion. Sea A Mnn(R) la matriz cuya j-esima columna es [vj]. Sean
1,2,...,n R tales que
1v1 + 2v2 + + nvn = 0
As que

178
IV. Espacios Vectoriales

Pero det(A) =6 0 si y solo si el sistema A

= 0/n1 tiene como unica solucion la


trivial, es

{ }
n
decir, si y solo si v1,v2,...,vn es linealmente independiente que a su vez, dado que
dim(V) = n, equivale a que {v1,v2,...,vn} es una base de V.

El Teorema anterior nos da una forma alternativa para saber si un conjunto


{v1,v2,...,vn}, en un espacio vectorial de dimension n, es una base para dicho
espacio.

4.5. Espacio vectorial con producto interno y sus propiedades.


Definicion 4.5.4. Sea V un espacio vectorial real. Un producto interno sobre V, es
una funci
on
que asocia, a cada par de vectores u,v V, un unico numero real denotado por hu,
vi, uv
ouv satisfaciendo las siguientes propiedades. Para cualesquiera u,v,w V y cada
R
1. hu, vi = hv , ui.
2. hu + v , wi = hu, wi + hv , wi.
3. h u, vi = hu, vi.. /V
h v , vi 0 y ademas hv , vi = 0 si y solo si v = 0 .
Un espacio vectorial real, en el cual se define un producto interno, es llamado
espacio (vectorial real) con producto interno (EPI). Otros nombres con los que
se conoce a los productos internos son producto interior, producto escalar y
producto punto. Ejemplo 4.5.6. Las siguientes funciones son productos internos
sobre Rn

179
IV. Espacios Vectoriales

1.

donde u = (u1,u2,...,un) y v = (v1,v2,...,vn).


En efecto, sean u,v,w Rn y R con u = (u1,u2,...,un); v = (v1,v2,...,vn) y w =
(w1,w2,...,wn). Entonces

u + v = (u1,u2,...,un) + (v1,v2,...,vn) = (u1 + v1,u2 + v2,...,un + vn), as que

u = (u1,u2,...,un) = (u1,u2,...,un), luego

Finalmente

Ademas, hu, ui = 0 si y solo si u2i = 0 para cada i {1,...,n} (por que?), esto
es, si y solo si u = 0/Rn.
Este producto interno es llamado producto interno euclidiano, usual o est
andar de Rn, salvo que se indique lo contrario, este es el producto interno que
consideraremos sobre Rn.

2.

donde p1,p2,...,pn son numeros reales positivos fijos, u =


(u1,u2,...,un) y v = (v1,v2,...,vn). Este producto interno es lo que se denomina
producto interno ponderado, si p1 = = pn = 1, este producto interno
coincide con el producto interno euclidiano. Pruebe que esta funcion es un
producto interno.

Ejemplo 4.5.7. En Mmn(R) la siguiente funcion define un producto interno (pru


ebelo!), el cual
se conoce como producto interno euclidiano, usual o estandar, al igual que en
el caso de
Rn, salvo que se indique otra cosa, este es el productom
consideraremos sobre Mmn(R).
XXaijbij
hA, Bi = i=1 j=1

interno

que

donde A = (aij)mn y B = (bij)mn.

180
IV. Espacios Vectoriales
Ejemplo 4.5.8. En el espacio de las funciones reales continuas en el intervalo [a, b],
C [ a,b], la funcion

es un producto interno, en efecto, sean f,g,h C [a, b] y R. Entonces

b
b hf + g , hi = Za (f(x) + g(x))h(x)dx = Za
(f(x)h(x) + g(x)h(x))dx
b

= Za f(x)h(x)dx + Za g(x)h(x)dx = hf , hi

+ hg , hi
hf , gi = Za f(x)g(x)dx = Za
f(x)g(x)dx = hf , gi
b b

[f(x)]2dx 0

hf , fi = Za f(x)f(x)dx = Za

Ademas hf , fi = 0 si y solo si f(x) = 0 para cada x [a, b] (por que?), es decir,


si y solo si f = O, donde O es la funcion nula sobre [a, b], esto es, O(x) = 0 para
todo x [a, b].
Siempre que no se indique otra cosa, este es el producto interno que consideraremos
sobre
C [a, b].
Ejemplo 4.5.9. En Pn[x] las siguientes funciones son productos internos.
1. Como Pn[x] es un subespacio de C [a, b], entonces el producto interno definido
en el ejemplo anterior, es un producto interno sobre Pn[x].
2.

. En Efecto, sean p,q,r Pn[x] y R. Entonces

181
IV. Espacios Vectoriales

.
Ademas, hp, pi = 0 si y solo si p(i) = 0 para cada i {0,...,n}.

Pero el unico polinomio en Pn[x], que tiene mas de n races, es el polinomio


nulo ( por que?), es decir, hp, pi = 0 si y solo si p es el polinomio nulo.

3.

(pruebelo!).

TeoremaEntonces 4.5.6. Sea V un espacio con producto interno h, i.

1. hu, v + wi = hu, vi + hu, wi para cualesquiera u,v,w V.


2. hu, vi = hu, vi para cualesquiera u,v V y R.
3. hu v , wi = hu, wihv , wi para cualesquiera u,v,w V.
4. hu, v/V wi = hu/V, vihu, wi para cualesquiera u,v,w V.
i = 0 = h0 , vi para todo v V.
5. hv , 0 /V
6. Si hu, vi = 0 para cada v V, entonces u = 0 .
Demostracion.
1. Sean u,v,w V cualesquiera. Entonces
hu, v + wi = hv + w , ui = hv , ui + hw , ui = hu, vi + hu, wi.
2. Sean u,v V y R cualesquiera. As que ello
debemos hallar la FERF de A.
hu, vi = hv , ui = hv , ui = hu, vi.
A3.=Sean u,v,w V cualesquiera. Luego

hu v , wi = hu + (v), wi = hu, wi + hv , wi = hu, wi + h(1)v , wi =


hu, wi + (1)hv , wi = hu, wihv , wi.

182
IV. Espacios Vectoriales
4. Sean u,v,w V cualesquiera. As que

hu, v wi = hv w , ui = hv , uihw , ui = hu, vihu, wi.


5. Sea v V cualquiera. Entonces
hv , 0/Vi = hv , 0/V +0/Vi = hv , 0/Vi + hv , 0/Vi.
As que hv , 0/Vi = 0 y ademas h0/V , vi = hv , 0/Vi = 0.
6. Como hu, vi = 0 para cada v V, entonces hu, ui = 0 (tomando v = u), luego u =
0/V
(por que?).

4.6. Bases Ortonormales . Proceso de Ortonormalizaci


on de Gram-Schmidt
Definicion 4.6.5. Sea h, i un producto interno sobre un espacio vectorial V y sean u,v
V. Diremos que u es ortogonal a v si hu, vi = 0, en cuyo caso escribiremos u v.
Observacion 4.6.2. Si u es ortogonal a v, entonces v es ortogonal a u. En
consecuencia, podemos escribir u y v son ortogonales en lugar de u es
ortogonal a v.
Ejemplo 4.6.10.
1. Sean x = (2,1,3) e y = (3,3,1). Entonces
hx, yi = (2)(3) + (1)(3) + (3)(1) = 6 3 3 = 0
as que x y.
2. La parte 5 del teorema 3.6 nos dice que en cualquier espacio vectorial V con
producto interno, el vector nulo 0/V es ortogonal a cualquier vector v V, adem
as, la parte 6 de este mismo teorema, nos dice que el unico vector que es
ortogonal a todo vector v V, es el vector nulo.
3. Las funciones f(x) = sen(x) y g(x) = cos(x), en C [ , ], son ortogonales.

183

IV. Espacios Vectoriales


4. En P2[x], los polinomios p(x) = 1+2x2 y q(x) = 2+x2 son ortogonales si
consideramos el producto interno definido en la parte 3 del ejemplo 3.9 (verif
quelo!), pero si consideramos el producto interno definido en la parte 2 del
mismo ejemplo, estos polinomios no son ortogonales ( verifquelo !).

Definicion 4.6.6. Sea h , i un producto interno sobre el espacio vectorial V.


Definiremos la nor-ma, magnitud, modulo o longitud (inducida por el producto
interno) de v V, como el numero real kvk dado por

Diremos que v V es unitario si kvk = 1.


Observacion 4.6.3. La norma de un vector no siempre esta definida en terminos
del producto interno (ver B), sin embargo, en este captulo nos ocuparemos de las
normas inducidas por un producto interno.
Dado que hv , vi 0 para cada v V, entonces la definicion anterior esta bien
fundada.
Ejemplo 4.6.11. Consideremos sobre R4 el producto interno euclidiano. Entonces

Ejem. 4.6.12. En P2[x] consideremos

el polinomio p(x) = 3 x2. Hallar kpk

considerando:
1. El producto interno definido en la parte 1 del ejemplo 3.9 con a = 1 y b = 1.
2. El producto interno definido en la parte 2 del ejemplo 3.9.
3. El producto interno definido en la parte 3 del ejemplo 3.9.
Solucion.

1.
2.

184
IV. Espacios Vectoriales 3.

A continuacion enunciaremos un teorema donde se dan a conocer algunas


propiedades de la norma, y que son consecuencia directa las propiedades del
producto interno, su demostracion se deja como ejercicio.
Teo.4.6.7. Sea V un EPI. Entonces para cada R y cualesquiera u,v V se cumple
que:
1. kuk 0 y kuk = 0 si y solo si u = 0/V.
2. kuk = ||kuk.
3. ku vk2 = kuk2 2hu, vi + kvk2.
El siguiente lema nos permitira demostrar el teorema que le sigue.
Lema 4.6..1. Sean u y v dos vectores unitarios en un EPI. Entonces |hu, vi| 1.
Demostracion. Usando la parte 3 del teorema 3.7, tenemos que

0 ku + vk2 = kuk2 + 2hu, vi + kvk2 = 1 + 2hu, vi + 1 = 2[1 + hu, vi]


As que
hu, vi1
Nuevamente, por la parte 3 del teorema 4.6.7, obtenemos
0 ku vk2 = kuk2 2hu, vi + kvk2 = 1 2hu, vi + 1 = 2[1 hu, vi]
luego

hu, vi 1
En consecuencia
|hu, vi| 1

En el teorema que enunciaremos a continuacion, se dan dos propiedades muy


importantes de la norma.

185
IV. Espacios Vectoriales
Teo-4.6.8. Sean u y v dos vectores en un EPI. Entonces 1.
|hu, vi|kukkvk (Desigualdad de Cauchy-Schwarz).

2. ku + vkkuk + kvk (Desigualdad Triangular).


Las igualdades se cumplen si y solo si uno de los vectores es multiplo escalar del
otro ( pru
ebelo!)
Demostracion.
|hu, vi | = 0 = kuk kvk.
1. Si u = 0/ V o v = 0/ V, entonces
u
/
u
yv
b=
b=
V = v y porlo tantolosvectores
kuk
En
casocontrario,
u
=0
y porel lema4.1
|hu
b, v
bi | 1
Pero
hu
b, v
bi =

u
v
,
kuk kvk

1
hu, vi
kuk kvk

1
hu, vi 1, es decir,hu, vi kuk kvk.
Porlo tanto
kuk kvk

2. Por la parte 3 del teorema 4.7 tenemos que


ku + vk2 = kuk2 + 2hu, vi + kvk2
y por la parte 1 (desigualdad de Cauchy-Schwarz)

sonunitarios,

hu, vi|hu, vi|kukkvk


As que ku + vk2 kuk2 + 2kukkvk + kvk2 = (kuk + kvk)2
Luego ku + vkkuk + kvk.

Def.4.6.7. Sea V un EPI y sean u,v V vectores no nulos. Definiremos el


angulo entre u y v como el numero real (u,v) [0, ] tal que h u vi

es decir,

186
IV. Espacios Vectoriales
Ejem. 4.6.13. Hallar el angulo entre los vectores u = (0,3,3) y v = (2,2,1)
Solucion.hu, vi = 0 2 + (3)2+ 3(1) = 9
kuk = p02 + (3)2 + 32= 18 = 32
kvkp22 + 22 + ( 1)2 = 9 = 3
As que

Def.4.6.8. Sea V un EPI y sea S = {v1, v2, . . . , vk}V. Diremos que S es un conjunto
ortogonal si vi vj para cualesquiera i, j {1, . . . , k} con i 6 = j. Si adicionalmente
vi es unitario para cada i {1, . . . , k}, diremos que S es un conjunto ortonormal.
Ejem. 4.6.14. Consideremos las siguientes matrices en M22(R)

y
Es S = {A1,A2,A3} un conjunto ortogonal? Es S ortonormal?
Solucion.
hA1 , A2i = 1 0 + 0 2 + 0(2) + 0 0 =
0 hA1 , A3i = 1 0 + 0 1 + 0 1 + 0 3 =

0 hA2 , A3i = 0 0 + 2 1 + (2)1 + 0 3


=0
As que S es ortogonal. Pero

Por lo tanto S no es ortonormal, sin embargo, S0 = {B1,B2,B3}, donde

y
s es un conjunto ortonormal ( verifquelo !).

Teorema4.6.9. Todo conjunto ortogonal finito de vectores no nulos en un EPI es


linealmente independiente.

187
IV. Espacios Vectoriales
Demostracion. Sea V un EPI y sea S = {v1,v2,...,vk}V un conjunto ortogonal de
vectores no nulos.
Sean 1,2,...,k R tales que
1v1 + 2v2 + + kvk = 0/V
Entonces, para cada j {1,...,k}, se tiene que
k k

0 = hvj , 0/Vi = hvj , 1v1 + 2v2 + + kvki = Xhvj , ivii = Xi hvj , vii = j hvj , vji
i=1

i=1

= jkvjk2 y dado que vj es no nulo,


entonces j = 0.
Por lo tanto S es linealmente independiente.

Def.4.6.9. Sean V un .EPI y = {v1,v2,...,vn} una base de V. Diremos que es una


base ortogonal (respectivamente ortonormal) si es un conjunto ortogonal
( respectivamente ortonormal).
Ejemplo 4.6.15.
1. Las bases canonicas de Rn y Mmn(R) son bases ortonormales.

2. Una base ortogonal de M22(R) es

pero no es ortonormal.
3. Una base ortonormal de P2[x], considerando el producto interno definido en la
parte 1 del ejemplo 4.6 .9 con a = 1 y b = 1, es

En efecto,

188
IV. Espacios Vectoriales

Ademas

Para finalizar esta seccion, nos plantearemos y solucionaremos el problema de


hallar una base ortonormal para un EPI de dimension finita o para un subespacio de
dimension finita de un EPI, comenzaremos con un ejemplo el cual ilustrara un

procedimiento, conocido como proceso de ortonormalizacion de Gram-Schmidt, que


nos permite encontrar tal base.
Ejem. 4.6.16. En P2[x] consideremos el producto interno dado en el ejemplo 3.15 y
consideremos la base de P2[x] = {1, x, x2}. Hallar una base ortonormal de P2[x]
partiendo de la base .
Solucion. Hagamos
v1 = 1,

v2 = xy

Entonces

v3 = x2

kv1k = sZ dx =
2
1
1

Sea
1 1 u1 =
k v1 = v1
2

As que ku1k = 1.
Ahora hagamos
w2 = v2 hv2 , u1iu1

189
IV. Espacios Vectoriales
Pero
.
Luego w2 = v2 = x, ademas
x

31

2 kw2k = Z1 x2dx = s 3

Si hacemos
1

3
u2 =
w2 = r x
kw2k 2
entonces ku2k = 1 y u1 u2 (ver ejemplo 3.15). Consideremos

= r3

Pero
De donde

Finalmente, hagamos

Entonces ku3k = 1, u3 u1 y u3 u2 (ver ejemplo 3.15).


Por lo tanto

es una base ortonormal de P2[x], la cual se obtuvo de .

190
IV. Espacios Vectoriales

El teorema siguiente generaliza el procedimiento que se uso en ejemplo anterior.


Teo.4.6.10 (Proceso de Ortonormalizacion de Gram-Schmidt). Sea V un EPI. Si W es
un subespacio de dimension finita de V, entonces W posee una base ortonormal. En
Particular, si V tiene dimension finita, entonces V posee una base ortonormal.
Demostracion. Sea W = {v1,v2,...,vm} una base de W. Procederemos a construir la
base ortonormal de W a partir de W.
En primer lugar, notemos que kvik =6 0/V para cada i {1,...,m}.
Paso 1. Sea

. Entonces gen({u1}) = gen({v1}) (por que?) y

Paso 2. Sea w2 = v2 hv2 , u1iu1. Entonces w2 6= 0/V, pues de lo contrario

lo cual contradice el hecho de que {v1,v2} es linealmente


independiente. Ademas hw2 , u1i = hv2 hv2 , u1iu1 , u1i = hv2 ,
u1ihhv2 , u1iu1 , u1i
= hv2 , u1ihv2 , u1ihu1 , u1i = hv2 , u1ihv2 , u1i = 0
Con lo que w2 u1.
Paso 3. Sea

. Entonces ku2k = 1 y u1 u2. As que {u1,u2} es

un conjunto ortonormal.
Ademas gen({u1,u2}) = gen({v1,v2}). En efecto, sea v gen({u1,u2} cualquiera.
Entonces existen 1,2 R tales que v = 1u1 + 2u2.
Luego

191
IV. Espacios Vectoriales
De donde v gen({v1,v2}), por tanto gen({u1,u2}) gen({v1,v2}) y as
gen({u1,u2}) es un subespacio de gen({v1,v2}), como {u1,u2} es un
conjunto ortonormal, y en consecuencia linealmente independiente
(por que?), entonces dim(gen({u1,u2})) = 2 = dim(gen({v1,v2})), as
que
gen({u1,u2}) = gen({v1,v2}) (por que?)
De manera recursiva, para k < m, obtenemos un conjunto ortonormal {u1,u2,...,uk}
tal que
gen({u1,u2,...,uk}) = gen({v1,v2,...,vk})

Paso 4. Sea
wk+1

vk+1 hvk+1 , u1iu1 hvk+1 , u2iu2 hvk+1 , ukiuk


k

vk+1 Xhvk+1 , uiiui


i=1

Entonces wk+1 W, wk+1 =6 0/V y para cada j {1,...,k} tenemos que

(por que?)
h

i h

= hvk+1 , uj i hvk+1 , uj ihuj , uji


vk+1 , uj
vk+1 , uj
(por que?)
=

es decir, wk+1 uj para cada j {1,...,k}.


Paso 5. Hagamos

. Entonces {u1,u2,...,uk,uk+1} es

un conjunto ortonormal y gen({u1,u2,...,uk,uk+1}) = gen({v1,v2,...,vk,vk+1})


( por que?).
Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no
nulos {u1,u2,...,um} en W, y por lo tanto, una base ortonormal de W.

192

Captulo V
Transformaciones Lineales. Autovalores y Autovectores de una
Matriz

5.1. Introduccion a lasTransformaciones Lineales


Definicion 5.1. Sean V y W dos espacios vectoriales y T : VW una funcion.
Diremos que T es una transformacion lineal si para cualesquiera u,v V y R
se cumple que
1. T(u + v) = T(u) + T(v).
2. T(u) = T(u).
Ejemplo 5.11. Sean V y W dos espacios vectoriales. La transformacion O : VW,
dada por O(v) = 0
/W

para cada v V, es una transformacion lineal (pruebelo!), llamada transformaci


on nula.

2. Sea V un espacio vectorial. Definamos IV : VV como sigue, IV(v) = v para cada


v V. Entonces IV es una transformacion lineal (pruebelo!), la cual es llamada
transformacion identidad sobre V.
3. Sean V un espacio vectorial de dimension n y una base ordenada de V.
Entonces T : VMn1(R) dada por T(v) = [v] es una transformacion lineal (ver
teorema 3.1 en el captulo anterior).
4. T : R3 R2, dada por T(x,y,z) = (2x + y,x z), es una transformacion lineal, en
efecto, dados (x,y,z),(a,b,c) R3 y R, se tiene que
T((x,y,z) + (a,b,c)) = T(x + a,y + b,z + c)
(2(x + a) + (y + b),(x + a) (z
=
+ c))
= (2x + 2a + y + b,x + a z
c)
= (2x + y,x z) + (2a + b,a c)
= T(x,y,z) + T(a,b,c)

193
T((x,y,z))

= T(x,y,z)
(2(x) + (y),(x)
=
(z))
= ((2x + y),(x z))

= (2x + y,x z)
= T(x,y,z)

5. La funcion T : R2 R3 dada por

no es una transformacion lineal, en efecto,


T(1,0) = (12,1 + 0,1 0) = (1,1,0)
T(2(1,0)) = T(2,0) = (22,2 + 0,2 0) = (4,2,0)
2T(1,0) = 2(1,1,0) = (2,2,0) 6= (4,2,0) = T(2(1,0))
6. T : P2[x] R2 dada por T(a + bx + cx2) = (2a + c + 3,b c) no es una
transformacion lineal, en efecto,
T(0) = (2 0 + 0 + 3,0 0) = (3,0)
T(0) + T(0) = (3,0) + (3,0) = (6,0)
T(0 + 0) = T(0) = (3,0) =6 (6,0) = T(0) + T(0)
7. Consideremos T : M22(R) P3[x] dada por

Entonces T es lineal (pruebelo!).


8. T : R3 P3[x] dada por
T(a,b,c) = b + (2a + c)x + (b 3c)x3

194

es lineal. En efecto, sean u,v R y R cualesquiera, con u = (a1,b1,c1) y v =


(a2,b2,c2). Entonces
T(u + v) = T((a1,b1,c1) + (a2,b2,c2))
= T(a1 + a2,b1 + b2,c1 + c2)
=

(b1 + b2) + [2(a1 + a2) + (c1 + c2)]x + [(b1 + b2) 3(c1 +


c2)]x3

= (b1 + b2) + (2a1 + 2a2 + c1 + c2)x + (b1 + b2 3c1 3c2)x3


= [b1 + (2a1 + c1)x + (b1 3c1)x3] + [b2 + (2a2 + c2)x + (b2
3c2)x3]
= T(a1,b1,c1) + T(a2,b2,c2)
= T(u) + T(v)

T(u)

T((a1,b1,c1))

, c ) =
T(a1, b
= b1 + (2a1 + c1)x + (b1 3c1)x3
= b1 + (2a1 + c1)x + (b1 3c1)x3
= [b1 + (2a1 + c1)x + (b1 3c1)x3]
= T(a1,b1,c1)
= T(u)

9. Sea A Mmn(R). Definamos T : Mn1(R) Mm1(R) como T(x) = Ax. No es difcil


probar que T es una transformacion lineal .
Este ultimo ejemplo nos dice que toda matriz define una transformacion lineal, m
as adelante veremos que toda transformacion lineal, entre espacios vectoriales de
dimension finita, esta asociada con una matriz.
El siguiente teorema nos sera de gran utilidad a la hora de decidir si una funcion
T es una transformacion lineal.
Teorema 5.1. Sean V y W dos espacios vectoriales. Una funcion T : VW es una
transformacion lineal si y solo si para cualesquiera u,v V y R se cumple que
T(u + v) =T(u) + T(v) T(u) + T(v).

195
Demostracion. Supongamos que T : VW es una transformacion lineal. Sean u,v
V y R cualesquiera. Entonces
T(u + v)

T(u) + T(v)

(por la condicin 1 de la definicion 4.1)

= T(u) + T(v)

(por la condicin 2 de la definicion 4.1)

Supongamos ahora que T : VW es tal que para cualesquiera u,v V y R se


cumple que

T(u + v) = T(u) + T(v)


Sean u,v V y R cualesquiera. Entonces
T(u + v) = T(u + 1 v) = T(u) + 1 T(v) = T(u) + T(v)
y ademas
T(0/V) = T(u + (1)u) = T(u) + (1)T(u) = 0/W
luego
T(v) = T(0/V +v) = T(0/V) + T(v) = 0/W +T(v) = T(v)
Por lo tanto T es lineal.

De ahora en adelante, gracias a este ultimo teorema, cuando queramos probar


que una funcion T, entre espacios vectoriales, es una transformacion lineal, no ser
a necesario probar las dos condiciones en la definicion 4.1, solo bastara probar la
condicion en el teorema anterior.
Teorema 5.2. Sean V y W dos espacios vectoriales y T : VW una transformacion
lineal.
Entonces, para cualesquiera u,v,v1,v2,...,vn V y 1,2,...,n R, se cumple que
1. T(0/V) = 0/W.
2. T(u v) = T(u) T(v).
3. T(1v1 + 2v2 + + nvn) = 1T(v1) + 2T(v2) + + nT(vn) Demostracion.

1. Sea v0 V cualquiera pero fijo. Entonces


T(0/V) = T(0 v0) = 0 T(v0) = 0/W
2. En virtud del teorema 4.1
T(u v) = T(u + (1)v) = T(u) + (1)T(v) = T(u) T(v)
3. Procederemos por induccion.
a) Veamos que se cumple para n = 2.
T(1v1 + 2v2) = T(1v1) + T(2v2) = 1T(v1) + 2T(v2)
b) (Hipotesis Inductiva) Supongamos que se cumple para n1, esto es,
supongamos que

T(1v1 + 2v2 + + n1vn1) = 1T(v1) + 2T(v2) + + n1T(vn1)


c) Probemos que se cumple para n.
T(1v1 + 2v2 + + n1vn1 + nvn)
= T((1v1 + 2v2 + + n1vn1) + nvn)
= T(1v1 + 2v2 + + n1vn1) + T(nvn)
(Hipotesis Inductiva) = 1T(v1) + 2T(v2) + + n1T(vn1) + nT(vn)

Teorema 5.3. Sean U, V y W espacios vectoriales y L : UV y T : VW dos


transformaciones lineales. Entonces T L : UW es tambien una transformacion
lineal.
Demostracion. Sean u1,u2 U y R cualesquiera. Entonces
(T L)(u1 + u2) = T(L(u1 + u2)) (definicion de composicion de funciones)
= T(L(u1) + L(u2)) (ya que L es lineal)
= T(L(u1)) + T(L(u2)) (ya que T es lineal)
(T L)(u1) + (T L)(u2) (definicion de composicion de
funciones)
Por lo tanto T L es lineal.
=

Teorema 5.4. Sean V y W dos espacios vectoriales, T,L : V W dos


transformaciones lineales y R. Entonces T + L : VW es tambien una
transformacion lineal.
Demostracion. Sean v1,v2 V y R cualesquiera. Entonces
(T + L)(v1 +
v2)

=
+

T(v1 + v2) (L)(v1 + v2) (definicion de suma de


funciones)
T(v1 + v2)
L(v1 + v2)
(definicion de multiplo escalar de funciones)

=
+

= T(v1) + T(v2) + (L(v1) + L(v2)) (pues T y L son lineales)


= T(v1) + T(v2) + L(v1) + L(v2)
= T(v1) + L(v1) + T(v2) + L(v2)
= T(v1) + L(v1) + (T(v2) + L(v2))
=

T(v1) + (L)(v1) + (T(v2) + (L)(v2))

(definicion de multiplo escalar de funciones)


= (T + L)(v1) + (T + L)(v2) (definicion de suma de funciones)
En consecuencia T + L es lineal.

Dado dos espacios vectoriales V y W, este ultimo teorema nos dice que el
conjunto formado
por todas las transformaciones lineales de V en W, junto con las operaciones usuales
de suma de funciones y multiplicacion por escalar, forman un espacio vectorial.
Teorema 5.5. Sean V y W dos espacios vectoriales y = {v1,v2,...,vn} una base de V.
Supongamos que T y L son dos transformaciones lineales de V en W tales que T(vi)
=
L(vi)
para cada i {1,...,n}. Entonces T = L, esto es, T(v) = L(v) para cada v V.
1,2,...,

nR tales que Demostracion. Sea v V cualquiera. Existen (unicos)


escalares
nvn

v = 1v1 + 2v2 + +

as que
(teorema 5.2 parte 3)
v ) T( ) =

T(

( hipotesis )
(teorema 5.2 parte
3) =

L(v)

Luego T = L.

El teorema anterior nos dice que si T : V W es una transformacion lineal y V


tiene dimension finita, basta con conocer como actua T en una base cualquiera de
V, para saber como actua T en cualquier v V.
Ejemplo 5.2. Hallar la transformacion lineal T de P2[x] en R2 tal que
T(1) = (2,1);
Solucion.

T(x) = (3,4);
(1,5)

T(x2) =

T(a0 + a1x + a2x2) =


=

T(a0 1 + a1x + a2x2)


a0T(1) + a1T(x) + a2T(x2)

=
a0(2,1) + a1(3,4) +
a2(1,5)
= (2a0 + 3a1 a2,a0 + 4a1 +
5a2)

Teorema 5.6 (Existencia y Unicidad de una Transformacion Lineal). Sean V y W dos


espacios vectoriales, = {v1,v2,...,vn} una base de V y w1,w2,...,wn W. Entonces
existe una unica transformacion lineal T : VW tal que T(vi) = wi para cada i
{1,...,n}.
Demostracion. Dado v V cualquiera, existen unicos escalares, 1,2,...,n R, tales
que

Definamos

La unicidad de los escalares 1,2,...,n R, garantiza que T es una funcion, ademas,


dado que w1,w2,...,wn W y W es un espacio vectorial, se tiene que T(v) W, por lo
tanto T es una funcion de V en W.
Por otro lado, para cada j {1,...,n}, se tiene que
j = 1, as que

, donde i = 0 si i 6= j y

199
Lineales.
Probemos ahora que T es lineal. Sean u,v V y R cualesquiera, entonces existen
unicos escalares 1,2,...,n,1,2,...,n R tales que

As que

Ademas

Por lo tanto

En consecuencia T es lineal.
Finalmente, probemos que T es unica. Supongamos que existe otra transformacion
lineal L :
VW tal que L(vi) = wi para cada i {1,...,n}.
Luego, por el teorema 5.5, se tiene que L = T.

Ejemplo 5.3. Hallar una transformacion lineal T : R3 M22(R) (si existe) tal que

T(2,2,1) = " 12 20 #;
T(2,1,2) =

"

T(0,1,3) = " 40 3 #;

32 51 #;T(1,1,0) = " 14 2 0 #

Solucion. Veamos cuales de los vectores (2,2,1),(0,1,3),(2,1,2),(1,1,0) son


linealmente independientes, para ello, consideremos la matriz
2 0 2 1
2
1
1 1
1 3
2
0

200
y hallemos su FERF.
2

0 2 1

1 3

1 3

1 1

1 3 2 0

2 1 1 1 F F 2 1 1 1 F F 2 1 1 1 1 3 2 0 2 0 2 1 2 0 2
1

F23 F23 2F11 0 5 25 10 F2 F2 + F3 010



F

F + 2F

6 6

1 0
F 3 F 3 3F 2
F F 6F 0
Dado que los pivotes
1 1

631 162

010

1
0
0
1 1 0
0
0
1
se encuentran en las columnas 1, 2 y 4, los vectores
(2,2,1),(0,1,3),(1,1,0)

son linealmente independientes, y en consecuencia, forman una base para R3 y por el


teorema
4.6, concluimos que existe una unica transformacion lineal tal que
T(2,2,1) = " 12 20 #;

T(0,1,3) = " 40 1 3 #;

T(1,1,0) = " 14 0 #
Hallemos T. Sea (x,y,z) R3 cualquiera. Hagamos
= {(2,2,1),(0,1,3),(1,1,0)}
debemos hallar [(x,y,z)], para ello hallemos la matriz Mc,.
2

12

31 1000 10

11

1 3

01 F F 22

F1 F1
122
301 11000
01 53 1000 10
12

010

F
1

F + 2F

11

201

0 2

00

01 1101

1
01

00

10 0 F23 F23 2F11

F2 F2 + F3 100 316

001010

001 210 FF13FF1336FF22

010110

0 01315 361 120

Por lo tanto
M
En consecuencia

c, 3 3 1
=
1
1
0
5 6 2

[(x,y,z)] = M

[(x,y,z)]

c,

Es decir

3x

3y



1
1
0
y
=
x+y
5 6 2 z 5x 6y 2z

(x,y,z) = (3x 3y z)(2,2,1) + (x + y)(0,1,3) + (5x 6y 2z)(1,1,0)


De donde
"
T(x,y,z) = (3x 3y z)T(2,2,1) + (x + =26x 30y
y)T(0,1,3)
10z
9x + 11y
+ 4z #
+(5x 6y 2z)T(1,1,0)
=
"2
0 # " 0 1 #
(3x 3y z)

1 2 + (x + y)

+(5x 6y 2z)" 1 0 #
4x 5y 3z

9x + 9y + 2z

Por ultimo

Por lo tanto, T es la transformacion lineal requerida (ademas, es unica).

Ejemplo 5.4. Hallar una transformacion lineal (si existe) T : R4 M31(R) tal que
0

T(1,2,1,1) =

202

T(2,1,3,0) = 1

2
3
T(0,5,1,2) = 5
;
T(1,7,0,3) =
7
8
11
Solucion. Veamos si el conjunto S = {(1,2,1,1);(2,1,3,0);(0,5,1,2);(1,7,0,3)} es
linealmente independiente, para ello consideremos la matriz

y hallemos su FERF

2 2

1 2
F

+ 2 F

2 1
5 7 F34F 34 F 1 1
00
F2 F3 00 51
51 1 5
3
1
0
1
1
0 2 3 F F F 0 2 2
F

31F 315

F4 F4 + 2F2 0

2 F

F 22 100

51

51

0 2 2 2

1
15

00 1 210 1 30

Por lo tanto, los dos primeros vectores de S son linealmente independientes, no


podemos proceder como en el ejemplo anterior, sin embargo, podemos completar
una base de R4 partiendo de estos dos vectores (el teorema de completacion de
bases nos lo permite) como hacerlo?, escojamos estos vectores entre los can
onicos, para saber cual de ellos escoger, consideremos la siguiente matriz

hallemos su FERF.

2
F

2 2

203
1 1 2

21 13
112 001

00
010

10
01
0 10
1 0

00

0 0

F
+
2 F
FF34F F34 F F1 1 000 251

F 1 F 1 2F2
F3 F3 5F2

0 0 0

1 1 0 1
F2 F3 0
2 0
0
0
2 1
0 2
1
0 3
0
1 0
0
F3 17F3
1 1 1
5
0

F4 F4 + 2F2
1

F
F 3F3

0
0
1

1
1
0
1
1
1 5 0
1
0
2 0
0 0 7 0 2

1 0 3 3
1
0
7 7 0
0 0 1
2
0

F2 F2 + F3

1 0

1
7 7 0 F4 F4 + 3F3 00
0 0 3 0
2
1

7
1

00

2
0
0
0
0

377

1
0
1
3
2
0

7
5

01

0
0

177

10

Sin necesidad de llegar a la FERF, nos damos cuenta que los vectores que
completan una base de R4 son (1,0,0,0);(0,1,0,0), es decir,
= {(1,2,1,1);(2,1,3,0);(1,0,0,0);(0,1,0,0)}
0

es una base de R4, haciendo

T(1,0,0,0) = T(0,1,0,0) = 0
garantizamos, segun el teorema 4.6, que existe una unica transformacion lineal
T : R4 M13(R)
que satisface las dos primeras igualdades en el enunciado del
0

ejercicio y
T(1,0,0,0) = T(0,1,0,0) = 0 0 4
Hallemos T. Al calcular la matriz de coordenadas de (x,y,z,w) R cualquiera, respecto
a la base , obtenemos ( verificarlo !)

i
(x,y,z,

w)

13

x
2 3z
13 w

13z

73w

13

204
Por lo tanto


T(x,y,z,w) =1z +

7
3

23

131w

Se puede verificar que T satisface las ultimas dos igualdades en el enunciado del
ejercicio, as que T es la transformacion buscada, pero a diferencia de la
transformacion hallada en el ejercicio anterior, esta no es unica, depende de la
escogencia de los vectores que completan la base del espacio de partida y la
escogencia de las imagenes de estos.

5.2.

Matriz de una Transformacion Lineal

En la seccion anterior, vimos que toda matriz A Mmn(R), define una transformaci
on lineal de Mn1(R) en Mm1(R), ademas, se comento que toda transformacion
lineal, entre espacios vectoriales de dimension finita, esta asociada con una matriz,
a continuacion enunciaremos y demostraremos un teorema que garantiza esta u
ltima afirmacion.

205
Teorema 5.7. Sean V y W dos espacios vectoriales, V = {v1,v2,...,vn} una base
ordenada de V,

= {w1,w2,...,wm} una base ordenada de W y T : VW una

transformacion
lineal.
Entonces existe un unica matriz A Mmn(R) tal que para cada v V
[T(v)]W = A[v] V
1j,2j,..., mjR

tales que
Demostracion. Para cada j {1,...,n}, existen escalares
mjwm

T(vj) = 1jw1 + 2jw2 + +


1j 2j es

decir

.
W mj
[T(vj)] =

Dado v V cualquiera, hagamos

1
2
[v]V =
. n

es decir

v = 1v1 + 2v2 + + nvn


De donde nvn)
T(v)

=
nT(vn)

T(1v1 + 2v2 + +
= 1T(v1) + 2T(v2) + +

1(11w1 +
+
mnwm)

= (111 +

21w2

+ +

+n(1nw1 +
12 2 +

+
+

m1wm)

+ 2(12w1 +

22w2

+ +

m2wm)

w2 + +

2n

1n n)w1 +

(211 +

22 2 +

2n n)w2 +

mn11n1)+wm1+(22 m+11++m12n2+n

11 12 1n 1
[T(v)]W =
Por lo tanto

=
m11 + m22 + + mnn m1 m2

22

2n

= A[v]V211 +
222 +
+
mnn
2nn
21

206
donde

11 12 1n
h
A=
=
[T(v1)]
.
.
.
m1

i 21 22
[T(vn)]W
W

2n

m2 mn

Lo cual demuestra la existencia de la matriz A satisfaciendo la tesis del teorema.


Probemos ahora su unicidad. Supongamos que B Mmn(R) es tal que para cada v V
[T(v)]W = B[v]V Luego,
para cada j {1,...,n}, tenemos que

[T(vj)]W = B[vj]V
Pero
0

.
0
[vj]V =

1 j-esima fila
0
0

Luego

.
A(j) = [T(vj)]W = B[vj]V = B(j)

Por lo tanto B = A.

Definicion 5.2. La matriz A en el teorema anterior, se denomina representacion


matricial de T respecto a las bases V y W, y la denotaremos por [T]V,W.
Observacion 5.1. Cuando W = V y W = V = , escribiremos [T] en lugar de [T],.
Ejemplo 5.5.
1. Si Ves un espacio vectorial de dimension n, W es un espacio vectorial de dimensi
on m,
V y W son bases ordenadas de V y W respectivamente, entonces [O]V,W =/0mn,
donde O
es la transformacion nula de V en W.

207
2. Si V es un espacio vectorial de dimension n y es una base ordenada de V,
entonces
[IV] = In, donde IV es la transformacion identidad sobre V.

Ejemplo 5.6.

Definamos T : M22(R) R3 como sigue

no es difcil probar que T es lineal (pruebelo!). Consideremos las bases canonicas


ordenadas V de M22(R) y W de R3. Hallar [T]V,W.
Solucion. En primer lugar

;
y as, por definicion de la matriz [T]V,W
1 0
0
1
0
[T]V,W = "T
!# W "T
0 0
0
0
1

0
!# W "T
0
0

0
1

!# W "T

!#

= h[(0,1,3)]W [(2,1,1)]W [(1,0,1)]W [(0,1,1)]W i


=

0
2 1 0
1 1 0
1
3 1 1
1

Ejemplo 5.7. Consideremos la transformacion lineal T : M22(R) P2[x] dada por

Sean V la base canonica ordenada de M22(R), W la base canonica ordenada de


P2[x] y

bases ordenadas de M22(R) y P2[x], respectivamente. Hallar [T]V,W y [T

bV,bW

208
Solucion. En primer lugar, hallaremos las imagenes, a traves de T, de cada uno de
los vectores de la base canonica V.

10

00 ! = 1 + x x2 ;
0

0!

T 00 1 0 ! = 1 + 2x 3x2
0

0 !

= 1 + x 3x ; T

= x 2x

Al igual que en ejemplo 4.6, por definicion de la matriz [T]V,W

Analogamente, para hallar [T]b ,b , hallemos primero las imagenes, a traves de


V

T, de cada uno de los vectores de la base

T
T

11
0 2 ! = 4 + 4x 4x2 ; T 11
2
4x
2

0 1 ! = 2 + x
1

3 ! = 4 + 8x 12x2 ; T 32 ! = 4 + 5x 14x2

1 1

Ahora hallemos las matrices de coordenadas de cada uno de estos vectores


respecto a la base

. Para ello consideremos la siguiente matriz cuatro veces

ampliada (por que?).


1
1

0
1

14 2
04
1

1 1 24 4 12 14
las

tres

4 4
8

primeras

columnas deWesta matriz, son las coordenadas de

los vectores de la base

bW, respecto a la base canonica , el resto de las

columnas, son las coordenadas de los vectores, hallados previamente, respecto a la


base canonica W, esto es, las tres primeras columnas de esta matriz representan la
matriz Mb

W,W

y las ultimas 4 columnas reperesentan la matriz [T]b , . La FERF de

esta matriz es

2 0
0
0

209
00 9 12 27
1
04
10
0

14

20

16

32
23

Por lo tanto
9 12 27
3
10 20
2
7
bV bW 0
El ejemplo 5.7 nos permite
16
[T] , = 4
23 escribir el siguiente algoritmo.
4
Algoritmo para hallar la
matriz [T]V,W, donde T : VW es una transformacion lineal; V = {v1,v2,...,vn} es
una base ordenada de V; W es una base ordenada del espacio vectorial W de dimensi
on m; y Wc es la base canonica ordenada de W. En general W = Rm, W = Pm1[x] o
W = Mpq(R) con pq = m.
Paso 1. Hallar T(v1),T(v2),...,T(vn).
Paso 2. Hallar las matrices MW,Wc y [T]V,Wc .
Paso 3. Formar la la matriz ampliada

Paso 4. Hallar la FERF de la matriz en el paso previo.


Paso 5. La matriz hallada en el paso previo tiene la forma [Im|B]. Entonces [T]V,W
= B.
Teorema 5.8. Sean U, V y W espacios vectoriales, L : UV y T : VW dos
transformaciones

lineales

U,

V y

W bases

ordenadas

respectivamente. Entonces
T

[ L] , = [T] , [L] ,
U

Demostracion. Sea u U cualquiera. Entonces


([T] , [L] , )[u] =
V

[T] , ([L] , [u] )


V

= [T] , [L(u)]
V

([T] , [L] , )[u]


V

[T(L(u))]W

[(T L)

de

U,

(u)]W.
210
Luego, por unicidad de la matriz [T L]U,W, se tiene que
T

[ L] , = [T] , [L] ,
U

Teorema 5.9. Sean V y W dos espacios vectoriales de dimension finita;


ordenadas de

bases

bases ordenadas de W y T : VW una transformacion

lineal. Entonces

Demostracion. Sea v V cualquiera. Entonces


[T(v)] = [T] , [v]
W

[v]V = MbV,V[v]bV
Luego

Por unicidad de la matriz [T]b ,b , se tiene que


V

Ejemplo 5.8. Consideremos


teorema

como en el ejemplo 5.7. Verificar el

5.9.
Solucion. Sabemos que

bV,bW 0

9 12
[T]
=
4
273
10
20 4 2
7
23
16

0
V,W 1
1 1
1
[T]
=
1
2
1 2
1 3 3
Por otro lado, facilmente obtenemos que

1 1
2
0

21
2
3

MbV,V =
1
1
1
3
0 1 1 2

211
y haciendo algunos calculos (no muchos ni muy complicados) obtenemos

bW

2 1 1 M , , = 2 2

1 1 1
Al sustituir, se obtiene que

Corolario 5.10. Sea V un espacio vectorial de dimension finita;

dos bases

ordenadas de V y T : VV una transformacion lineal. Entonces


[T]bV = MV,bV[T]VMbV,V
Demostracion. Ejercicio!

5.3.
Nucleo e Imagen de una Transformacion
Lineal
Definicion 5.3. Sean V y W dos espacios vectoriales y T : VW una transformacio
n lineal.
Definiremos
1. El nucleo o kernel de T como el conjunto
N(T) = Ker(T) = {v V : T(v) = 0/W}
2. La imagen o recorrido de T como el conjunto

Im(T) = {w W : T(v) = w

para algunv V}

Observacion 5.2. w Im(T) si y solo si existe v V tal que T(v) = w.


Teorema 5.11. Sean V y W dos espacios vectoriales y T : VW una transformacion
lineal.
Entonces N(T) es un subespacio vectorial de V e Im(T) es un subespacio vectorial de
W.

212
Demostracion. Es claro que N(T) V e Im(T) W.
Por la parte 1 del teorema 4.2, se tiene que T(0/V) = 0/W, as que 0/V N(T) y 0/W
Im(T), de donde, N(T) =6 e Im(T) =6 .
Por otro lado, sean v1,v2 N(T) y R cualesquiera. Entonces
T(v1) = 0/W = T(v2)
As que
T(v1 + v2) = T(v1) + T(v2) = 0/W +0/W = 0/W
Por lo tanto v1 + v2 N(T), en consecuencia, N(T) es un subespacio de V.
Finalmente, sean w1,w2 Im(T) y R cualesquiera. Entonces, existen v1,v2 V
tales que
T(v1) = w1 y T(v2) = w2.
Consideremos v = v1 + v2. As que v V y
T(v) = T(v1 + v2) = T(v1) + T(v2) = w1 + w2
De donde w1 + w2 Im(T), luego Im(T) es un subespacio de W.

Definicion 5.4. Sean V y W dos espacios vectoriales y T : VW una transformaci


on lineal.
Definiremos
1. La nulidad de T, denotada por n(T), como n(T) = dim(N(T)).
2. El rango de T, denotado por r(T), como r(T) = dim(Im(T)).

Ejemplo 5.9.
1. Consideremos la transformacion nula O : VW. Entonces N(O) = V e Im(O) =
{0/W}
(pruebelo!).
2. Para la transformacion identidad sobre V, IV : VV, se puede probar que Im(IV)
= V y N(IV) = {0/V} (pruebelo!).
Ejemplo 5.10. Sea T la transformacion dada en el ejemplo 4.6. Hallar n(T) y r(T).

213
Solucion. Por definicion

N(

si y solo si

Pero

2y z=

0
x y +w
3x y z
Es decir
sistema.

+w

(5.1)

si y solo si se satisface el sistema (4.1). Resolvamos este

0 2 1 0

1 2

1 1

13 11 10

3 3

1 1

1 1 F F 30 12 11 1 0 F F 3F1 00

22

11 20

F2

12F2 100

112 10121 201 F

13F 13+F22

0221 201
2F

12 3

0 212

1 1

1 0 221

100

10

01

F F 00

10 0

01 F F F

00

01 0

01

De donde
x1212z
=
0
yz=
0;
o bien
Haciendo

2,

w
=
con

x=
y
=

0
R,

1
212

w =
0
obtenemos

!
Por lo tanto
N(

214
y la nulidad de T es
n(T) = dim(N(T)) = 1
Por otro lado

Im(

para algun

si y solo si

Pero

2y z=

a
x y
3x y z

+w

+w

(5.2)

En consecuencia (a,b,c) Im(T) si y solo si el sistema (4.2) tiene solucion. Al


resolver este sistema, obtenemos
x12z

12a

y
+

12b + 12c x=
21z 12b + 12c
1
z
=
o bien
y
=
2a ;

1
2

32b

12c

w=

21a

32b
3

1
2

z+

1
2

12c

Por lo tanto, el sistema (4.2) tiene solucion para cada (a,b,c) R , en consecuencia
Im(T) = R3 y r(T) = 3.

Observa
5.3. Notese que la matriz de los sistemas (5.2) y (5.1) no es otra que la
que la matriz [T ]V,W, donde Vy Wson las bases canonicas de lo5 espacios M22(R) y
R3respectivamente .

Al igual que en el caso matricial, no hace falta resolver el sistema (4.2), la FERF de
la matriz de este sistema nos da toda la informacion, pero a diferencia del caso
matricial, los pivotes de esta matriz nos dan las coordenadas, respecto a la base can
onica de R3, de los vectores que forman una base para Im(T ). Para entender bien
este comentario, consideremos el siguiente ejemplo.
Ejemplo 5.11. Hallar el nucleo, la nulidad, la imagen y el rango de la transformacio
n lineal T dada en el ejemplo 4.7.

Solucion.

si y solo si

215
a
a

+b

c
= 0
+2b +c +d = 0
a
3b 3c 2d = 0
La matriz de este sistema es
V,W

[T]

1
1

(5.3)

1 1 0
2
1

1 3 3 2
donde V y W son las bases canonicas de M22(R) y P2[x] respectivamente. Su FERF
es

1 0 3 1
0 1
2
1
0 0
0
0
Por lo tanto
a

3c

; o bien ( b = 2c d

As que

En consecuencia
N(
y una base para N(T) es

luego n(T) = dim(N(T)) = 2. Los pivotes de la FERF de la matriz del sistema, estan en
las columnas 1 y 2, asque las columnas 1 y 2 de la matriz original, son las matrices
de coordenadas, respecto a W, de dos vectores que forman una base para Im(T), por
lo tanto r(T) = dim(Im(T)) = 2 ,
ademas
Im(

216
y una base para Im(T) es

La observacion 5.3 puede ser generalizada de la siguiente manera.


Teorema 5.12. Sean V y W dos espacios vectoriales,

= {v1,v2,...,vn} una base

ordenada de V, W = {w1,w2,...,wm} una base ordenada de W y T : VW una


transformacion lineal.
Entonces
1. {u1,u2,...,uk} es una base para N(T) si y solo si {[u1]

,[u2]V,...,[uk]V} es una

,[z2]W,...,[zr]W} es una

base para N([T]V, W)


2. {z1,z2,...,zr} es una base para Im(T) si y solo si {[z1]
base para Im([T]V, W)
Demostracion. Ver Apendice D.

Corolario 5.13. Sean V, W, V, W y T como en el teorema 5.12.


Entonces
1. n(T) = n([T]V, W)

2. r(T) = r([T]V, W)
3. n(T) + r(T) = n = dim(V)
Demostracion. Ejercicio!

El siguiente ejemplo ilustra estos resultados.


Sean V y
como en el ejemplo 5.7. Usar la matriz [T]b ,b para hallar el nucleo,
V

la nulidad, la imagen y el rango de la transformacion lineal T.


Solucion

Ejemplo 4.12.

En primer

Sean T

lugar, b recordemos que

217
Sabemos que
0 9 12 27
4
10
20
32
7
16
23

bV,bW

[T]

=
4

Sin mucha dificultad, obtenemos que la FERF de esta matriz es


1
0
Luego una base para N

0
0

533

1
0

12

3
0

es
5 1
4 ; 6
3 0


y usando el teorema 4.12, tenemos que estas dos matrices son las matrices de
coordenadas resdpecto a la base de dos vectores que forman una base para N(T),
hallemos estos vectores.

(5)

1
1

(1)

1
1

3!+
0
1
1

2
3

5 17
!
4

1
1

2
3

1
Luego, una base para N(T) es

1 1

!+2

0!
2

y as
N(
y n(T) = 2.

Calcular el conjunto imagen y su dimensise queda como


ejercicio.

218

5.4. Aplicaciones de las transformaciones: reflexin,


dilatacin,contraccin y rotacin.
Dilatacin o escalamiento 2D
El escalamiento 2D implica el cambio de tamao de un polgono, donde cada punto p = ( x1 ,x2 )
es transformado por la multiplicacin de dos factores de escalamiento: s1 y s2 a lo largo de los ejes X1 y
X2 respectivamente, de esta forma, las coordenadas del nuevo punto p ' = (x 1 ',x2 ') se obtienen como:

x1'= x1 s 1 x2 '= x2 s 2
Sea s = ( s1 ,s2 ) el vector de factores de escalamiento, y S(s) la matriz de escalamiento, en
coordenadas homogneas el escalamiento de un punto p en 2D se puede expresar como el producto
matricial p' = pS(s), es decir:

s1

[x1 ' x2 '1]= [x1

1] 0

x2
0

s2

Ecuacin 5.1: Expresin matricial para el escalamiento 2D.

La Figura
5.1 muestra
el efecto de escalamiento de una
s1=
figura
1.5 yscon
2 = 2.
X
X2

X1
1

X1
1

Figura 5.1: Ejemplo de escalamiento 2D.

V.Transformaciones Lineales.

114

Dilatacin o escalamineto 3D
Extendiendo la idea anterior a 3D, el escalamiento implica el cambio de tamao de un poliedro,
donde cada punto p = ( x1 ,x2 ,x3 ) es transformado por la multiplicacin de tres factores de
escalamiento: s1, s2 y s3 a lo largo de los ejes X1, X2 y X3 respectivamente, de esta forma, las
coordenadas del nuevo punto p' = (x1 ',x2 ',x3 ') se obtienen como:

x1'= x1 s 1 x2 '= x2 s 2
x3 '= x3 s 3
Sea s = ( s1 , s2 , s3 ) el vector de factores de escalamiento, y S(s) la matriz de escalamiento, en
coordenadas homogneas el escalamiento de un punto p en 3D se puede expresar como el producto
matricial p' = pS(s), es decir:

[x1 '

x2 '

x3 '

1]=

[x

x2

x3

s1

0
1]
0

s2

s3

Ecuacin 5.2: Expresin matricial para el escalamiento 3D.

La Figura 5.2 muestra el efecto de escalamiento de una figura con s1 = 2, s2 = 2.5 y s3 = 1.5.
V.Transformaciones Lineales.

115

X2

X2

X1
1

X3

X1

X3

Figura 5.2: Ejemplo de escalamiento 3D.

Escalamiento o dilatacin 4D
Extendiendo nuevamente la idea anterior a 4D, el escalamiento implica el cambio de tamao
de un politopo 4D, donde cada punto p = ( x1 ,x2 ,x3 ,x4 ) es transformado por la multiplicacin de
cuatro factores de escalamiento: s1, s2, s3 y s4 a lo largo de ejes que
forman

el

espacio

4D,

de

esta

forma, las

coordenadas del

nuevo
punto

p ' = (x1 ',x2 ',x3 ',x4 ') se obtienen como:

x1'= x1 s 1 x2 '= x2 s 2
x3 '= x3 s 3 x4 '= x4 s
4

Sea s = ( s1 , s2 ,s3 ,s4 ) el vector de factores de escalamiento, y S(s) la matriz de escalamiento,


en coordenadas homogneas el escalamiento de un punto p en 4D se puede expresar como el
producto matricial p' = pS(s), es decir:
V.Transformaciones Lineales.

116

s1
0

[x '

x2 '

x3 '

x4 '

1]0 0

s3

1]= [x1

x2

0 0

0
s
0
0
2

x3
x4 0

0
s4

0
0

Ecuacin 5.3: Expresin matricial para el escalamiento 4D.

Escalamiento o dilatacin nD
De esta forma, el escalamiento nD implica el cambio de tamao de un politopo nD en todas
sus dimensiones, como se observ anteriormente, se puede representar el escalamiento nD en su
forma matricial, donde los factores de escalamiento se localizan en la diagonal principal, cada uno
colocado en la columna que le corresponde a su respectivo eje. As, se obtiene la expresin
matricial de escalamiento para cualquier dimensin:
s1

[x '
1

x2 '

x3 ' xn'

1]= [x1 x2

x3

xn

s2

s3

0 0
0

1]

0 0

0
0
0

sn

0
0

Ecuacin 5.4: Expresin matricial para el escalamiento nD.

En general, la matriz de escalamiento S(s) para nD en coordenadas homogneas tendr un


tamao de (n+1) (n+1), en la cual, si se sustituyen los valores para n=2 y n=3, se obtienen las
matrices de escalamiento 2D y 3D respectivamente.

117

Translacin
La translacin permite desplazar un objeto a lo largo de sus dimensiones, como resultado se
obtiene un cambio de posicin.
V.Transformaciones Lineales
Lineales.
Translacin 2D
La translacin 2D implica el desplazamiento de un polgono, donde cada punto p = ( x1
,x2 ) es trasladado d1 unidades en el eje X1 y d2 unidades en el eje X2, de esta forma, las
coordenadas del nuevo punto p' = (x 1 ',x2 '), se obtienen como:

x1'= x1 + d 1 x2 '=
x2 + d 2
Sea d = ( d1 ,d2 ) el vector de distancias, y T(d) la matriz de translacin, en coordenadas
homogneas la translacin de un punto p en 2D se puede expresar como el producto matricial
p ' = pT(d), es decir:
1

[x '
1

x2 ' 1]= [x1 x2

1] 0 1
d2
d1

Ecuacin 5.5: Expresin matricial para la translacin 2D.

La Figura 3.3 muestra el efecto de translacin de una figura con d1 = 1 y d2 = 2.

118

X2

X2

X1

X1

Figura 5.3: Ejemplo de translacin 2D.

Translacin 3D
Basndose en la idea anterior, se tiene que la translacin 3D implica el desplazamiento de
un poliedro, donde cada punto p = ( x1 ,x2 ,x3 ) es trasladado d1 unidades
V.Transformaciones Lineales.
en el eje X1 , d2 unidades en el eje X2 y d3 unidades en el eje X3, de esta forma, las coordenadas del
nuevo punto p' = (x1 ',x2 ',x3 ') se obtienen como:

x1'= x1 + d 1 x2 '= x2 +
d 2 x3 '= x3 + d 3
Sea d = ( d1 , d2 ,d3 ) el vector de distancias, y T(d) la matriz de translacin, en coordenadas
homogneas la translacin de un punto p en 3D se puede expresar como el producto matricial p ' =
pT(d), es decir:

[x '
1

x2 '

x3 ' 1]=

[x

x2

x3

0
1]
0

d1

119

0
d2

1
d3

Ecuacin 5.6: Expresin matricial para la translacin 3D.

La Figura 5.4 muestra el efecto de translacin de una figura con d1 = 2, d2 = 0 y d3 = 2.


X2

X2

X1
1

X1

X3

X3

4
5

4
5

Figura 5.4: Ejemplo de translacin 3D.

V.Transformaciones Lineales.
Translacin 4D
Nuevamente tomando como base esta idea, se tiene que la translacin 4D implica el
desplazamiento de un politopo 4D, donde cada punto p = ( x1 ,x2 ,x3 ,x4 ) es trasladado por la suma de
cuatro distancias: d1, d2, d3, d4 a cada uno de los ejes que forman el espacio 4D, de esta forma, las
coordenadas del nuevo punto p' = (x1 ',x2 ',x3 ',x4 ') se obtiene como:

x1'= x1 + d 1 x2 '= x2 +
d 2 x3 '= x3 + d 3 x4 '=
x4 + d 4

120

Sea d = ( d1 , d2 ,d3 ,d 4) el vector de distancias, y T(d) la matriz de translacin, en coordenadas


homogneas la translacin de un punto p en 4D se puede expresar como el producto matricial p ' =
pT(d), es decir:

[x '

0
0

x2 '

x3 '

x4 '

1] 0 0

1]= [x1

x2

1
x3

x4

1
d4

0
0

d1
d3

d2

Ecuacin 5.7: Expresin matricial para la translacin 4D.

Translacin nD
De esta forma, la translacin nD implica el desplazamiento de un politopo nD sumando
parmetros de distancias a todas sus dimensiones, como se observ anteriormente, se puede representar
la translacin nD en su forma matricial, donde los parmetros de distancia se localizan en el ltimo
rengln de la matriz, cada uno colocado en la columna que le corresponde a su respectivo eje, y
colocando valores de 1 en la diagonal principal.
As, se obtiene la expresin matricial de translacin para cualquier dimensin:
V.Transformaciones Lineales.
1

[x '
1

x2 '

x3 ' xn'

1]= [x1 x2

x3

121

xn


0 0

1]

d2
0

d1

d3

0
0
0

1
dn
0

Ecuacin 5.8: Expresin matricial para la translacin nD.

En general, la matriz de translacin T(d) para nD en coordenadas homogneas tendr un


tamao de (n+1) (n+1), en la cual, si se substituyen los valores para n=2 y n=3, se obtienen
las matrices de translacin 2D y 3D respectivamente.

Rotacin
La rotacin permite girar un objeto sobre un eje de rotacin, dado un valor de ngulo de
rotacin y su direccin.

Rotaciones 2D
La rotacin de un objeto en 2D se lleva a cabo alrededor de un punto, que es el eje
puntual (cero-dimensional) de rotacin. Las rotaciones principales 2D son aquellas que se
llevan a cabo alrededor del origen, las rotaciones sobre cualquier otro punto arbitrario se
llaman rotaciones generales 2D. En esta Seccin 5.5 , se analizan slo las rotaciones
principales para todas las dimensiones, en la Seccin 5.6 se discuten las rotaciones generales.

Para generar una rotacin, se especifica el ngulo de rotacin , y el punto de rotacin


(pivote) sobre el cul el objeto ser rotado. Los ngulos de rotacin positivos definen una
rotacin en sentido contrario a las manecillas del reloj sobre el punto pivote (del eje X1 al eje
X2), entonces los ngulos de rotacin negativos producen una rotacin en el sentido de
V.Transformaciones Lineales.
las manecillas (del eje X2 al eje X1). [Hearn 95] describe la rotacin 2D como el giro sobre el eje
de rotacin que es perpendicular al plano X1X2 (mejor conocido como plano XY) y que pasa a
travs del punto pivote.
122

Si el punto pivote se encuentra sobre el origen (Figura 5.5), se tiene que: r es la distancia del
punto p = ( x 1 ,x2 ) al origen, define la posicin angular del punto p desde la horizontal, y el
ngulo de rotacin de p para producir el nuevo punto p ' = (x 1 ',x2 ').

X2

p=(x
1,x2)

r
p=(x
1,x2 )

X1

Figura 5.5: Rotacin de un punto en 2D alrededor del origen.

Utilizando coordenadas polares, el punto p = ( x1 , x2 ) se puede escribir como p = (r,) y el


punto p ' = (x 1 ',x2 ') como p '= (r,+). Pasando despus estos puntos de coordenadas polares a
rectangulares se tiene que:

x1 = r cos() x2 = rsin()
x1'= rcos(+)

x2 '= rsin(+)

Aplicando algunas propiedades trigonomtricas:

x1 '= rcos(+) = rcoscos rsinsin x2 '=


rsin(+) = r cossin+ rsincos

Substituyendo los valores de x1 = rcos() y x2 = rsin() se obtienen las ecuaciones para rotar un
punto p = ( x 1 ,x2 ) alrededor del origen dado un ngulo :
V.Transformaciones Lineales.

123

x1 ' = x1 cosx2 sin x2 '


=x1 sin+x2 cos

Ecuacin 5.9: Frmulas para la rotacin 2D alrededor del origen.

Sea R() la matriz de rotacin sobre el origen, en coordenadas homogneas la rotacin


de un punto p alrededor del origen en 2D se puede expresar como el producto matricial

p = p R , es decir:
cos
x2 '

[x '
1

[x

1]=

1]

x2

sin

sin

cos
0
0

Ecuacin 5.10: Expresin matricial para la rotacin 2D.

La Figura 5.6 muestra el efecto de rotacin de una figura con = 45.


X2

X2

X1
-1

-2

X1
-1

-2

-1

-1

-2

-2

Figura 5.6: Ejemplo de rotacin 2D.

Rotaciones 3D

124

A diferencia de la rotacin en el espacio 2D, donde para hacer rotar un objeto se


necesita un punto (cero-dimensional), en 3D para hacer rotar un objeto se necesitan dos
puntos no coincidentes que determinan un segmento de recta, cuya lnea de soporte define un
eje lineal (uni-dimensional) de rotacin.
V.Transformaciones Lineales.
Las rotaciones principales 3D, son aquellas cuando el eje de rotacin se encuentra sobre alguno
de los tres ejes principales: X1, X2 o X3, las rotaciones sobre cualquier otro eje arbitrario son llamadas
rotaciones generales 3D. Se recuerda que inicialmente, se analizan las rotaciones principales.
Por convencin, los ngulos de rotacin positivos producen rotaciones en contra de las manecillas
del reloj sobre el eje de rotacin, esto es si se observa el giro desde la parte positiva del eje hacia el
origen. Otra forma de determinar la direccin de un giro positivo es mediante la regla de la mano
derecha (Figura 5.7), que dice que: Si se coloca el dedo pulgar de la mano derecha sobre el eje de
rotacin apuntando hacia la parte positiva de dicho eje, el giro natural del resto de los dedos indica la
direccin positiva del giro.

X2

X2

X2

X1
X3

X1
X3

X1
X3

Figura 5.7: Regla de la mano derecha para obtener la direccin de un giro positivo en 3D.

Para entender el concepto de rotacin en 3D como una extensin de la rotacin 2D, hay que
recordar que la rotacin 2D es el giro sobre el eje de rotacin, que es perpendicular al plano X1X2, el
cual en 3D corresponde al eje X3, entonces se tiene la primera de las rotaciones principales .

125

De esta forma, por cada punto p = ( x1 ,x2 ,x3 ) dado un ngulo , puede ser rotado sobre el eje X3
en sentido contrario a las manecillas del reloj, obteniendo las coordenadas del nuevo punto p ' = (x1 ',x2
',x3 ') de la misma forma en como se analiz en el espacio 2D
V.Transformaciones Lineales.

quedando la coordenada x3 sin cambio, entonces, se extienden las formulas para la rotacin 2D
(Ecuacin 3.9) a 3D como:

x1 ' = x1 cosx2 sin x2 ' = x1


sin+x2 cos

x 3' = x 3
Ecuacin 5.11: Frmulas para la rotacin 3D alrededor del eje X3.

Sea R3() la matriz de rotacin alrededor del eje X3, en coordenadas homogneas la rotacin de
un punto p alrededor de dicho eje, se puede expresar como el producto matricial
'
()
p = p R3 , es decir:

[x '
1

x2 '

x3 ' 1]= [x1 x2

x3

cos sin

cos
sin
0
1]

0
0

0 0
0
0
1
0 0

Ecuacin 5.12: Expresin matricial para la rotacin 3D alrededor del eje X3.

126

La Figura 5.8 muestra el efecto de rotacin sobre el eje X3 de una figura con = 20.

X2

X2

X1

X1

X3

X3

4
5

4
5

Figura 5.8: Ejemplo de rotacin 3D sobre el eje X3.

V.Transformaciones Lineales.

Las ecuaciones para las rotaciones sobre el eje X1, y eje X2, pueden ser obtenidas mediante las
permutaciones cclicas de los parmetros x1, x2, x3:

x1 x2 x3 x1
como se muestra en la Figura 3.9

X2

X3

X1

X1
X3

X2
X1

X3
X2

Figura 5.9: Permutaciones cclicas de los ejes coordenados

127

Entonces, aplicando estas substituciones cclicas en la Ecuacin 5.11, se obtienen las ecuaciones
un ngulo .

para la rotacin alrededor del eje X1 dado


x 2 ' = x2 cos x3 sin x 1 '
=

= x 1 x 3 ' = x2 sin+ x3 cos x 2 '

x2

cos x3 sin

x 1 ' = x1 x3 ' = x2 sin+ x3 cos

Ecuacin 5.13: Frmulas para la rotacin 3D alrededor del eje X1.

Sea R1() la matriz de rotacin alrededor del eje X1, en coordenadas homogneas la rotacin de
un punto p alrededor de dicho eje, se puede expresar como el producto matricial

p = p R1 , es decir:

[x '
1

x2 '

x3 ' 1]= [x1 x2

x3

0
1]
0

0
cos

0
sin

0
sin cos

0
0
0

Ecuacin 5.14: Expresin matricial para la rotacin 3D alrededor del eje X1.

V.Transformaciones Lineales.
Aplicando nuevamente las substituciones cclicas en la Ecuacin 3.13, se obtienen las
frmulas para la rotacin alrededor del eje X2 dado un ngulo .

x 3 ' = x3 cos x1 sin x1 '


= x1 cos+ x3 sin x 1 ' =
x3 sin+ x1 cos x 2 ' = x2
x 2 ' = x2 x3 ' =x1 sin+ x3 cos

128

Ecuacin 5.15: Frmulas para la rotacin 3D alrededor del eje X2.

Sea R2() la matriz de rotacin alrededor del eje X2, en coordenadas homogneas la
rotacin de un punto p alrededor de dicho eje, se puede expresar como el producto matricial

p = p R2 , es decir:

[x '
1

x2 '

x3 ' 1]= [x1 x2

x3

cos

0
1]
sin

0 sin 0

1
0
0
0 cos

0
0
0

Ecuacin 3.16: Expresin matricial para la rotacin 3D alrededor del eje X2.

129