Está en la página 1de 19

127

.
Capítulo 5

TRANSFORMACIONES LINEALES
Martínez Héctor Jairo
Sanabria Ana María
Semestre 02, 2.007

5.1. Introducción
Recordemos que una función T : A −→ B es una “regla de asociación” entre los elementos de A y los elementos
de B, tal que a cada elemento a de A se le asocia un único elemento b de B al que le llamamos imagen de
a por medio de T y denotamos b = T (a). A los conjuntos A y B les llamamos dominio y codominio de T ,
respectivamente, y al subconjunto de B formado por todas las imágenes de los elementos de A lo llamamos
conjunto imagen de T y lo denotamos Im(T ).
En este capítulo, estamos interesados en el estudio de las funciones entre espacios vectoriales que sean
“compatibles” con las operaciones de suma y multiplicación por escalar definidas en cada uno de ellos;
es decir, que la imagen de una suma de vectores sea la suma de las imágenes y que la imagen de una
multiplicación por escalar de un vector sea también una multiplicación por escalar de la imagen del vector.

5.2. Definición y Propiedades Básicas


Precisemos la idea planteada en la introducción con la siguiente definición.
Definición 1: [Transformación Lineal ] Dados dos espacios vectoriales V y W , diremos que la función
T : V −→ W es una transformación lineal de V en W si
1. T (v1 + v2 ) = T (v1 ) + T (v2 ) para todo v1 , v2 ∈ V . (Propiedad aditiva)

2. T (λv1 ) = λT (v1 ) para todo v1 ∈ V y todo λ ∈ R. (Propiedad homogénea)

Observación: Es importante aclarar que estamos denotando de la misma forma la suma y el producto
por escalar definidos tanto en el espacio vectorial V como en el espacio vectorial W , asi sean operaciones
diferentes. Igualmente, el vector 0 de V y el de W los denotaremos igual, asi sean vectores diferentes.

128
CAPÍTULO 5. TRANSFORMACIONES LINEALES 129

 
x µ ¶
3 2 x − 2y
Ejemplo 1: Consideremos la función T : R −→ R , tal que T  y  = . Verifiquemos que T
2z − x
z
es una transformación lineal.
Veamos que T satisface la propiedad aditiva. Sean (x1 , y1 , z1 )T y (x2 , y2 , z2 )T vectores de R3 , entonces
     
x1 x2 x1 + x2 µ ¶
(x1 + x2 ) − 2(y1 + y2 )
T  y1  +  y2   = T  y1 + y2  =
2(z1 + z2 ) − (x1 + x2 )
z1 z2 z1 + z2
µ ¶
(x1 − 2y1 ) + (x2 − 2y2 )
=
(2z1 − x1 ) + (2z2 − x2 )
µ ¶ µ ¶
x1 − 2y1 x2 − 2y2
= +
2z1 − x1 2z2 − x2
   
x1 x2
= T  y1  + T  y2  .
z1 z2

Para verificar que T satisface la propiedad homogénea, tomemos el escalar λ y el vector (x, y, z)T . Entonces
    
x λx
T λ  y  = T  λy 
z λz
µ ¶
(λx) − 2(λy)
=
2(λz) − (λx)
µ ¶
x − 2y
= λ
2z − x
 
x
= λT  y  .
z
¤
 
a
Ejemplo 2: Sea T: R3 −→ P2 , tal que T  b  = (a + c)x + 2bx2 . Veamos que T es una transformación
c
lineal.
Para probar la propiedad aditiva, tomemos dos vectores de R3 , (a1 , b1 , c1 )T y (a2 , b2 , c2 )T . Entonces,
     
a1 a2 a1 + a2
T  b1  +  b2  = T  b1 + b2 
c1 c2 c1 + c2
= [(a1 + a2 ) + (c1 + c2 )]x + 2(b1 + b2 )x2
= [(a1 + c1 )x + 2b1 x2 ] + [(a2 + c2 )x + 2b2 x2 ]
   
a1 a2
= T  b1  + T  b2  .
c1 c2

Para verificar que T satisface la propiedad homogénea, tomemos el escalar λ y el vector (a, b, c)T . Entonces
    
a λa
T λ  b  = T  λb 
c λc
CAPÍTULO 5. TRANSFORMACIONES LINEALES 130

= (λa + λc)x + 2λbx2


= λ[(a + c)x + 2bx2 ]
 
a
= λT  b  .
c
¤
µ ¶
a
Ejemplo 3: Sea T R2 −→ P2 , tal que T = 1 + ax + 2bx2 . Determinemos si T es una transformación
b
lineal.
Para probar la propiedad aditiva, tomemos dos vectores de R2 , (a1 , b1 )T y (a2 , b2 )T . Entonces,
·µ ¶ µ ¶¸ µ ¶
a1 a2 a1 + a2
T + =T = 1 + (a1 + a2 )x + 2(b1 + b2 )x2 ,
b1 b2 b1 + b 2
pero
µ ¶ µ ¶
a1 a2
T +T = (1 + a1 x + 2b1 x2 ) + (1 + a2 x + 2b2 x2 ) = 2 + (a1 + a2 )x + 2(b1 + b2 )x2 ,
b1 b2
de donde, ·µ ¶ µ ¶¸ µ ¶ µ ¶
a1 a2 a1 a2
T + 6= T +T ;
b1 b2 b1 b2
por tanto, T no es una transformación lineal. ¤
n m
Ejemplo 4: Sea A una matriz m × n y sea la función T : R −→ R tal que T (x) = Ax. Determinemos si
T es una transformación lineal.
Por el Teorema 2 del Capítulo 2, dados x, y ∈ Rn y λ ∈ R, A(x + y) = Ax + Ay y A(λx) = λAx, de donde
concluimos que T es una transformación lineal. ¤
A las transformaciones como la del Ejemplo 4, las llamamos transformaciones matriciales. Veremos que todas
las transformaciones lineales de Rn en Rm son matriciales. Por ejemplo, notemos que la transformación lineal
del Ejemplo 1 es una transformación matricial:
   
x µ ¶ µ ¶ µ ¶ µ ¶ µ ¶ x
x − 2y 1 −2 0 1 −2 0 
T y = =x +y +z = y ,
2z − x −1 0 2 −1 0 2
z z
y por el resultado del Ejemplo 4, esto seria suficiente para demostrar que T es una transformación lineal.
Ejemplo 5: Verifiquemos que la función que a cada punto de R2 le asigna el punto de su reflexión a través
del Eje X es una transformación lineal.
y
6
(a, b)
(2, 1) *
*

-x

*
(2, −1) *
(a, −b)

Reflexión en el plano a través del Eje X


CAPÍTULO 5. TRANSFORMACIONES LINEALES 131

µ ¶ µ ¶
a a
De la figura anterior, es fácil ver que la función en cuestión es T : R2 −→ R2 , donde T = .
b −b
Por lo tanto, µ ¶ µ ¶ µ ¶ µ ¶µ ¶
a 1 0 1 0 a
T =a +b = ,
b 0 −1 0 −1 b
lo que muestra que T es una transformación matricial y por consiguiente una transformación lineal. ¤
Ejemplo 6: Sea la función T : V −→ W tal que T (v) = 0 para todo v ∈ V . Verifiquemos que T es una
transformación lineal.
Sean v1 y v2 vectores de V . Por ser V un espacio vectorial, v1 +v2 está en V y por tanto, T (v1 +v2 ) = 0. De
otro lado, T (v1 )+T (v2 ) = 0+0 = 0, de donde concluimos que la propiedad aditiva se satisface. Queda como
ejercicio para el lector verificar la propiedad homogénea. A esta transformación la llamamos transformación
nula. ¤
Ejemplo 7: Sea la función T : V −→ V tal que T (v) = v para todo v ∈ V . Es fácil verificar que T es
una transformación lineal, lo que dejamos como ejercicio para el lector. A esta transformación la llamamos
transformación idéntica. ¤
Podemos ver que las propiedades que caracterizan a una transformación lineal nos permiten demostrar que la
imagen de una combinación lineal de vectores por medio de una transformación lineal es la combinación lineal
de las imágenes de los vectores con los mismos coeficientes de la combinación lineal inicial. La demostración
consiste básicamente en aplicar la propiedad aditiva iteradamente y luego aplicar la propiedad homogénea a
cada sumando.
Teorema 1
Sean T : V −→ W una transformación lineal, v1 , v2 , . . . , vn vectores de V y λ1 , λ2 , . . . , λn escalares de R.
Entonces
T (λ1 v1 + λ2 v2 + . . . + λn vn ) = λ1 T (v1 ) + λ2 T (v2 ) + . . . + λn T (vn ).
De este resultado, se tiene trivialmente que una transformación lineal asigna el vector cero del dominio en
el vector cero del codominio y, por su importancia, lo enunciamos en el siguiente corolario.
Corolario 1.1
Sea T : V −→ W una transformación lineal, entonces

T (0) = 0.

El Teorema 1 también establece que, para el caso de las transformaciones lineales de Rn a Rm , las rectas
son enviadas en rectas o en el vector 0 y los planos son enviados en planos, en rectas o en el vector 0. En
general, el Teorema 1 permite demostrar que una transformación lineal asigna a un subespacio del dominio
un subespacio del codominio (Ver ejercicios).
Recordemos que dos funciones definidas sobre un mismo dominio y codominio son iguales, si y solo si, tienen
las mismas imágenes para todos y cada uno de los elementos del dominio. Aunque una transformación
lineal es una función, sus características especiales simplifican enormemente la propiedad de igualdad entre
transformaciones, como lo expresamos en el siguiente teorema.
Teorema 2
Sean B = {v1 , v2 , . . . , vn } una base del espacio vectorial V y T : V −→ W y S : V −→ W dos transforma-
ciones lineales.

T = S, si y solo si, S(v1 ) = T (v1 ), S(v2 ) = T (v2 ), . . . , S(vn ) = T (vn ).

Demostración: Por la igualdad entre funciones, es claro que si T = S, las imágenes de los elementos de la
base bajo las dos transformaciones son iguales. Para demostrar la otra implicación, recordemos que como B es
una base de V , para cada vector v de V , existen escalares λ1 , λ2 , . . . , λn tales que v = λ1 v1 +λ2 v2 +. . .+λn vn .
CAPÍTULO 5. TRANSFORMACIONES LINEALES 132

Por el Teorema 1 y la igualdad de las imágenes de los elementos de la base bajo las dos transformaciones,
tenemos

T (v) = λ1 T (v1 ) + λ2 T (v2 ) + . . . + λn T (vn )


= λ1 S(v1 ) + λ2 S(v2 ) + . . . + λn S(vn )
= S(v)

¤
Por los teoremas anteriores, es fácil ver que si conocemos la imagen de cada uno de los elementos de una
base del dominio de una transformación, podemos conocer la imagen de cualquier otro vector del dominio.
En otras palabras, que una transformación lineal queda completamente determinada por las imágenes de
cada uno de los elementos de una base del dominio, como lo enunciamos en el siguiente teorema.
Teorema 3
Si B = {v1 , v2 , . . . , vn } es una base del espacio vectorial V , existe una única transformación T : V −→ W ,
tal que w1 = T (v1 ), w2 = T (v2 ), . . . , wn = T (vn ) con w1 , w2 , . . . , wn ∈ W .
Demostración: Tenemos que B es una base de V , así que B es un conjunto generador de V y por tanto,
para cualquier vector v de V existen escalares λ1 , λ2 , . . . , λn tales que v = λ1 v1 + λ2 v2 + . . . + λn vn . Así,
que si sabemos que w1 = T (v1 ), w2 = T (v2 ), . . . , wn = T (vn ), podemos encontrar la imagen de cualquier
vector v de V . En efecto, por el Teorema 1,

T (v) = λ1 w1 + λ2 w2 + . . . + λn wn .

Nos queda por demostrar la unicidad de esta transformación. Supongamos que existen dos transformaciones
lineales T1 y T2 tales que T1 (vi ) = wi = T2 (vi ) para i = 1, 2, . . . , n. Por el Teorema 2, T1 y T2 son la misma
transformación. ¤
Ejemplo 8: Sea T : P2 −→ R3 la transformación lineal tal que T (1) = (1, 0, 0)T , T (x) = (1, 1, 0)T y
T (x2 ) = (1, 1, 1)T .Calculemos T (a + bx + cx2 ).
Dado que {1, x, x2 } es la base canónica de P2 , a + bx + cx2 = a · 1 + b · x + c · x2 , de tal forma que
       
1 1 1 a+b+c
T (a + bx + cx2 ) = a T (1) + b T (x) + c T (x2 ) = a  0  + b  1  + c  1  =  b + c  .
0 0 1 c
¤
T T 3
Ejemplo 9: Dados los vectores ©u1 = (−1, 3, −2) y u2 = (2, 0, 1)ª de R , encontremos una transformación
lineal T de R2 en el plano H = v ∈ R3 : v = tu1 + su2 , t, s ∈ R de R3 .
Si tomamos {e1 , e2 }, la base canónica de R2 , y dos vectores arbitrarios de H, por ejemplo, u1 y u2 , podemos
definir T (e1 ) = u1 y T (e2 ) = u2 , de tal manera que
     
µ ¶ −1 2 −x + 2y
x
T = x T (e1 ) + y T (e2 ) = x  3  + y  0  =  3x .
y
−2 1 −2x + y

Existe otra transformación de R2 en el plano H? ¤

5.3. Espacios Vectoriales Asociados a una Transformación Lineal


Definimos ahora, dos conjuntos asociados a una transformación lineal, los cuales resultan ser Espacios Vec-
toriales y fundamentales para determinar propiedades de este tipo especial de funciones.
CAPÍTULO 5. TRANSFORMACIONES LINEALES 133

Definición 2: [Núcleo de una Transformación Lineal ] Dada una transformación lineal T : V −→ W ,


definimos núcleo de T como el conjunto N u(T ) de todos los vectores de V cuya imagen es el vector 0 de W .
En otras palabras,
N u(T ) = {v ∈ V : T (v) = 0}.

Definición 3: [Imagen de una Transformación Lineal ] Dada una transformación lineal T : V −→ W ,


definimos imagen de T como el conjunto Im(T ) de todos los vectores de W para los cuales existe un vector
v de V , tal que T (v) = w. En otras palabras,
Im(T ) = {w ∈ W : existe v ∈ V tal que T (v) = w}.
µ ¶ µ ¶
a b a b
Ejemplo 10: Consideremos la transformación lineal T : M2×2 −→ M2×2 , tal que T =
c d 0 c+d
e identifiquemos N u(T ) e Im(T ).
µ ¶ µ ¶
a b a b
Como T = = 0 implica que a = b = 0 y c = −d, concluimos que
c d 0 c+d
½µ ¶ ¾ ½µ ¶ ¾
a b 0 0
N u(T ) = : a = 0, b = 0, c = −d, a, b, c, d ∈ R = :r∈R .
c d −r r
µ ¶ µ ¶
r s r s
Como las únicas matrices que son imágenes bajo T tienen la forma (en efecto, T =
0 t t−α α
µ ¶ ½µ ¶ ¾
r s r s
, para cualquier α ∈ R), tenemos que Im(T ) = , r, s, t ∈ R . ¤
0 t 0 t
Ejemplo 11: Sea T : P2 −→ R3 la transformación lineal del Ejemplo 8. Identifiquemos N u(T ) e Im(T ).
 
a+b+c
Como vimos en el Ejemplo 8, T (a + bx + cx2 ) =  b + c , de tal forma que T (a + bx + cx2 ) = 0 implica
c
que a = b = c = 0 y que cualquier vector de R3 es imagen bajo T (en efecto, T ((p − q) + (q − r)x + rx2 ) =
(p, q, r)T , para cualquier vector (p, q, r)T ∈ R3 ), por lo tanto,
N u(T ) = {0} e Im(T ) = R3 .
¤
Como ocurrió con los conjuntos asociados a una matriz, los conjuntos asociados a una transformación lineal
que acabamos de definir también son espacios vectoriales. En efecto, el núcleo es un subespacio del dominio
de la transformación y la imagen es un subespacio del codominio de la transformación, lo cual demostramos
en el siguiente teorema.
Teorema 4
Sean V y W espacios vectoriales y T : V −→ W una transformación lineal. Entonces
1. N u(T ) es subespacio vectorial de V .
2. Im(T ) es subespacio vectorial de W .

Demostración: Por el Teorema 1 del Capítulo 4, un subconjunto H no vacío de un espacio vectorial es un


subespacio vectorial, si y solo si, los elementos de H satisfacen las propiedades clausurativas para la suma y
el producto por escalar (Axiomas 1 y 6 de la definición de espacio vectorial).
1. Por el Corolario 1.1, 0 es un elemento de N u(T ), asi que N u(T ) es no vacío. De otro lado, si tomamos
dos vectores u y v de N u(T ) y un escalar λ, tenemos que T (u) = 0 y T (v) = 0, de modo que
T (u + v) = T (u) + T (v) = 0 + 0 = 0
T (λu) = λT (u) = λ0 = 0,
CAPÍTULO 5. TRANSFORMACIONES LINEALES 134

de donde concluimos que u + v y λu están en N u(T ).

2. De nuevo por el Corolario 1.1, 0 es un elemento de Im(T ), asi que Im(T ) es no vacío y si tomamos
dos vectores w1 y w2 de Im(T ) y un escalar λ, tenemos que existen v1 y v2 , vectores de V tales que
T (v1 ) = w1 y T (v2 ) = w2 , de modo que

w1 + w2 = T (v1 ) + T (v2 ) = T (v1 + v2 )


λw1 = λT (v1 ) = T (λv1 )

de donde concluimos que w1 + w2 y λw1 están en Im(T ). ¤

5.4. Matriz Asociada a una Transformación Lineal


Ya sabemos que una transformación lineal queda completamente determinada por la forma como actúa en
una base del dominio y que la función de Rm a Rn definida por T (x) = Ax para una matriz m × n dada es
una transformación lineal, la cual llamamos transformación matricial. En esta sección, demostraremos que
toda transformación lineal entre espacios vectoriales de dimensión finita puede ser representada como una
transformación matricial. Con este propósito, dadas una base del dominio y una base del codominio, para
cada transformación lineal, definamos una matriz asociada a ella, como la matriz cuyas columnas son las
coordenadas en la base del codominio de las imágenes bajo T de los elementos de la base del dominio.
Definición 4: [Matriz Asociada a una Transformación Lineal Respecto a las Bases B y B ′ ] Dadas la trans-
formación lineal T : V −→ W y las bases B = {v1 , v2 , . . . , vn } y B ′ de V y W , respectivamente, definimos
como matriz asociada a la transformación lineal T respecto a las bases B y B ′ a la matriz

[AT ]BB′ = [[T (v1 )]B′ [T (v2 )]B′ · · · [T (vn )]B′ ]

Mientras no haya necesidad de aclarar, denotaremos simplemente por AT la matriz asociada a la transfor-
mación, respecto a las bases dadas.
µ ¶
a−b
Ejemplo 12: Sea T : P2 −→ R2 la transformación lineal tal que T (a + bx + cx2 ) = y sean
c
½µ ¶ µ ¶¾
1 0
B = {1, 1 + x, 1 + x − x2 } y B ′ = , bases de P2 y R2 , respectivamente. Encontremos la
0 1
matriz asociada a la transformación, respecto a las bases dadas.
µ ¶ µ ¶ µ ¶
1 0 2 0
Tenemos que T (1) = = [T (1)]B , T (1 + x) =
′ = [T (1 + x)]B y T (1 + x − x ) =
′ =
0 0 −1
2
[T (1 + x − x )]B′ , de donde la matriz asociada a T respecto a las bases dadas es
µ ¶
1 0 0
AT = .
0 0 −1

¤
CAPÍTULO 5. TRANSFORMACIONES LINEALES 135

y
6

e2 (0, 1)
6
(1, 0)
- -x
e1
−e2 ?
(0, −1)

Rotación de 90o en el sentido de las manecillas del reloj

Ejemplo 13: Calculemos la matriz asociada a la transformación lineal S, que a cada vector del plano
cartesiano lo rota 90o en el sentido de las manecillas del reloj respecto a las base canónica de R2 . Sea
B = {e1 , e2 } la base canónica de R2 . Por la definición de S y la figura anterior, S(e1 ) = −e2 y S(e2 ) = e1 ;
por lo tanto, la matriz asociada a S respecto a la base canónica es
µ ¶
0 1
AS = .
−1 0

¤
Podemos ver que la matriz asociada a una transformación lineal permite expresar el vector de coordenadas
de la imagen de cualquier vector, en términos de su vector de coordenadas respecto a la base del dominio,
de tal manera que, en términos de los vectores de coordenadas, todas las transformaciones lineales resultan
ser matriciales, como lo expresa la siguiente propiedad de la matriz asociada a una transformación.
Teorema 5
Dadas la transformación lineal T : V −→ W , con V y W espacios vectoriales de dimensión finita y las bases
B = {v1 , v2 , . . . , vn } y B ′ de V y W , respectivamente, la matriz asociada a la transformación T respecto de
estas bases, [AT ], es la única matriz tal que, para todo v ∈ V

[T (v)]B′ = AT [v]B .

Demostración: Si v = λ1 v1 +λ2 v2 +. . .+λn vn , por el Teorema 1, T (v) = λ1 T (v1 )+λ2 T (v2 )+. . .+λn T (vn ).
De donde, por el Teorema 14 del Capítulo 4, la combinación se conserva para los vectores de coordenadas
respectivos respecto a una misma base; es decir, [T (v)]B′ = λ1 [T (v1 )]B′ + λ2 [T (v2 )]B′ + . . . + λn [T (vn )]B′ .
Así que, por definición de Ax, tenemos que

[T (v)]B′ = AT [v]B .

La unicidad se deja como ejercicio para el lector. (Ayuda: Ver demostración del Numeral 1 del Teorema 16
del Capítulo 4.) ¤
CAPÍTULO 5. TRANSFORMACIONES LINEALES 136

T
V - W
v w = T (v)

B B′

? ?
AT
Rn - Rm
[v]B [w]B′ = AT [v]B

Ejemplo 14: Verifiquemos el teorema anterior con la transformación


µ ¶y las bases del Ejemplo 12. Si T :
a − b
P2 −→ R2 es la transformación lineal T (a + bx + cx2 ) = y B = {1, 1 + x, 1 + x − x2 } y
½µ ¶ µ ¶¾ c
1 0
B′ = , son bases de P2 y R2 , respectivamente, la matriz asociada a la transformación,
0 1
µ ¶
1 0 0
respecto a las bases dadas es AT = . De otro lado, puesto que la base B ′ es la base canónica
µ ¶ 0 0 −1
a−b
de R2 , [T (a+bx+cx2 )]B′ = y, al resolver la ecuación a+bx+cx2 = λ1 (1)+λ2 (1+x)+λ3 (1+x−x2 ),
c
 
a−b
tenemos que λ1 = a − b, λ2 = b + c y λ3 = −c, asi que [a + bx + cx2 ]B =  b + c .
−c
Verifiquemos, finalmente, que
 
µ ¶ a−b µ ¶
1 0 0 a−b
[T (a + bx + cx2 )]B′ = AT [a + bx + cx2 ]B =  b+c = .
0 0 −1 c
−c

¤
El hecho de que fijadas las bases del dominio y codominio de una transformación lineal, ésta tenga una
matriz asociada, nos permite establecer las siguientes relaciones entre el espacio nulo de la matriz y el núcleo
de la transformación y entre el espacio columna de la matriz y la imagen de la transformación.
Teorema 6
Dadas la transformación lineal T : V −→ W , con V y W de dimensión finita, y las bases B y B ′ de V y W ,
respectivamente, si AT es la matriz asociada a la transformación respecto a las bases dadas, entonces
1. v ∈ N u(T ), si y solo si, [v]B ∈ NAT

2. w ∈ Im(T ), si y solo si, [w]B′ ∈ CAT

Demostración:
1. Tenemos que

v ∈ N u(T ) si y solo si T (v) = 0 ∈ W


si y solo si [T (v)]B′ = 0 (Teorema 14, Capítulo 4)
si y solo si AT [v]B = 0 (Teorema 5)
si y solo si [v]B ∈ NAT .
CAPÍTULO 5. TRANSFORMACIONES LINEALES 137

2. Similarmente,
w ∈ Im(T ) si y solo si existe v ∈ V tal que T (v) = w
si y solo si [w]B′ = [T (v)]B′ = AT [v]B (Teorema 5)
si y solo si [w]B′ ∈ CAT .

¤
Es importante que resaltemos que N u(T ) es un subespacio de V , el dominio de T , y que NAT es un subespacio
de Rn , de tal manera que si v ∈ N u(T ), el vector que está en NAT es el vector de coordenadas de v respecto
a la base dada de V , no v . Similarmente, Im(T ) es un subespacio de W , el codominio de T , y CAT es un
subespacio de Rm y si w ∈ Im(T ), el vector que está en el espacio columna de la matriz es el vector de
coordenadas de w respecto a la base dada de W , no w. Sin embargo, debemos anotar que las dimensiones
de N u(T ) e Im(T ) coinciden con las de NAT y CAT y por consiguiente,
dim(N u(T )) + dim(Im(T )) = dim(V ).

Cuando la transformación lineal va de un espacio en si mismo y tomamos la misma base, tanto en el dominio
como en el codominio, hablaremos simplemente de la matriz asociada a la transformación lineal respecto a la
base. Asi, por ejemplo, cuando tenemos la transformación idéntica, la matriz asociada resulta ser la matriz
idéntica, independientemente de la base que se tome.
De otro lado, al tomar distintas bases, tenemos distintas matrices asociadas a una misma transformación. El
siguiente teorema nos establece una relación entre dos matrices asociadas a una misma transformación y la
matriz cambio de base.
Teorema 7
Sea T : V −→ V una transformación lineal, con V un espacio vectorial de dimensión finita y sean B y B ′ dos
bases de V . Si P es la matriz de transición de B a B ′ , AT es la matriz asociada a T respecto a B y A′T es la
matriz asociada a T respecto a B ′ , entonces
A′T P = P AT . (5.1)

Demostración: Si P es la matriz de transición de B a B ′ , [w]B′ = P [w]B , para todo w ∈ V y en particular,


[T (v)]B′ = P [T (v)]B , para todo v ∈ V . De otro lado, como AT es la matriz asociada a T respecto a la base
B, [T (v)]B = AT [v]B ; así que
[T (v)]B′ = P [T (v)]B = P (AT [v]B ) = (P AT )[v]B .
Por el Teorema 16 del Capítulo 4, P −1 es la matriz de transición de B ′ a B. Por tanto,
[T (v)]B′ = (P AT )[v]B = (P AT )(P −1 [v]B′ ) = (P AT P −1 )[v]B′ .
Finalmente, por el Teorema 5, (P AT P −1 ) es la matriz asociada a T respecto a la base B ′ . Así, que A′T =
P AT P −1 , de donde se sigue la ecuación (5.1), que es lo que queríamos demostrar. ¤
Ejemplo 15: Verifiquemos el teorema anterior con la transformación lineal T : R2 −→ R2 tal que
µ ¶ µ ¶ ½µ ¶µ ¶¾ ½µ ¶ µ ¶¾
x x+y 1 1 ′ 1 0
T = y las bases B = yB = , .
y 2x − y 0 1 0 1
µ ¶
′ ′ 1 1
Por ser B la base canónica, la matriz de transición de B a B es P = .
0 1
De otro lado, tenemos que
µ ¶ µ ¶ µ ¶ µ ¶ · µ ¶¸ µ ¶
1 1 1 1 1 −1
T = = −1 +2 ; es decir, T =
0 2 0 1 0 2
µ ¶ µ ¶ µ ¶ µ ¶ · µ ¶¸ B µ ¶
1 2 1 1 1 1
T = = 1 +1 ; es decir, T =
1 1 0 1 1 B
1
CAPÍTULO 5. TRANSFORMACIONES LINEALES 138

· · µ ¶¸ · µ ¶¸ ¸ µ ¶
1 1 −1 1
Así que, la matriz asociada a T respecto a B es AT = T T = .
0 B
1 B
2 1
Similarmente, tenemos que
µ ¶ µ ¶ µ ¶ µ ¶ · µ ¶¸ µ ¶
1 1 1 0 1 1
T = = 1 +2 ; es decir,
T =
0 2 0 1 0 2
· µ ¶¸B

µ ¶ µ ¶ µ ¶ µ ¶ µ ¶
0 1 1 0 0 1
T = = 1 −1 ; es decir, T = .
1 −1 0 1 1 B′
−1
· · µ ¶¸ · µ ¶¸ ¸ µ ¶
1 0 1 1
Por lo tanto, la matriz asociada a T , respecto a B ′ es A′T = T T = .
0 B ′ 1 B ′ 2 −1
Finalmente, µ ¶µ ¶ µ ¶
1 1 −1 1 1 2
P AT = =
0 1 2 1 2 1
y µ ¶µ ¶ µ ¶
1 1 1 1 1 2
A′T P = =
2 −1 0 1 2 1
de donde vemos claramente que se cumple el teorema. ¤
Todas las matrices asociadas a una misma transformación (pero en diferente base) satisfacen la ecuación
(5.1) para alguna matriz invertible (que resulta ser la matriz cambio de base). A lasmatrices que satisfacen
esta ecuación las llamamos matrices semejantes, como lo establece la siguiente definición.
Definición 5: [Matrices Semejantes] Dadas dos matrices n × n, A y B, decimos que A y B son matrices
semejantes, si existe una matriz invertible P , tal que BP = P A o lo que es lo mismo, B = P AP −1 .
Ejemplo 16: En el Ejemplo 15, las matrices AT y A′T son semejantes. ¤

5.5. Isomorfismos
Aunque hay infinidad de espacios vectoriales, veremos que muchos de ellos son “ esencialmente el mismo”
respecto a la estructura de espacio vectorial. En esta sección, nos ocuparemos por analizar este concepto de
similitud, para lo cual utilizaremos las propiedades de ciertas transformaciones especiales, cuyas definiciones
damos a continuación.
Definición 6: [Transformación Inyectiva] Diremos que T : V −→ W es una transformación lineal inyectiva,
si y solo si, para cada w de Im(T ), existe un único v ∈ V tal que T (v) = w.
Ejemplo 17: Determinemos si la transformación del Ejemplo 10 es inyectiva.
Es fácil ver que la transformación no es inyectiva, ya que, por ejemplo,
µ ¶ µ ¶ µ ¶
1 1 1 1 1 1
T = =T .
1 3 0 4 2 2

¤
Ejemplo 18: Verifiquemos que la transformación lineal del Ejemplo 11 es una transformación inyectiva.
Tenemos que demostrar que si T (a1 + b1 x + c1 x2 ) = T (a2 +b2 x + c2 x2 ), entonces
 a1 = a2 , b1 = b2 y c1 = c2 ,
a1 + b1 + c1 a2 + b2 + c2
lo que es fácil de concluir al resolver la ecuación vectorial  b1 + c1 = b2 + c2 . ¤
c1 c2
CAPÍTULO 5. TRANSFORMACIONES LINEALES 139

Como lo habiamos mencionado al definir el núcleo y la imagen de una transformación, conocer estos su-
bespacios vectoriales nos permite identificar algunas propiedades de la transformación. Veamos algunas de
ellas.
Teorema 8
Sea T : V −→ W una transformación lineal. La transformación T es inyectiva, si y solo si, N u(T ) = {0}.
Demostración: Supongamos que T es inyectiva. Como T (0) = 0, 0 es el único elemento de N u(T ).
Demostremos ahora la implicación contraria. Supongamos que N u(T ) = {0} y veamos que si T (u) = T (v),
entonces u = v. Como T (u) = T (v), entonces T(u-v)=T (u) − T (v) = 0, lo que implica que u − v ∈ N u(T ).
Pero, como N u(T ) = {0}, entonces u − v = 0 y por tanto u = v. ¤
Un resultado bastante útil, que consignaremos en el siguiente teorema, es el que las transformaciones lineales
inyectivas envían conjuntos de vectores l.i. en conjuntos de vectores l.i., así, conocida una base del dominio,
podemos encontrar una base del espacio imagen de la transformación.
Teorema 9
Si T : V −→ W es una transformación lineal inyectiva y {v1 , v2 , . . . , vn } es un conjunto de vectores l.i.,
entonces {T (v1 ), T (v2 ), . . . , T (vn )} es un conjunto de vectores l.i.
Demostración: Supongamos que λ1 T (v1 )+λ2 T (v2 )+. . .+λn T (vn ) = 0. Por el Teorema 1, T (λ1 v1 +λ2 v2 +
. . . + λn vn ) = 0. Como T es inyectiva, λ1 v1 + λ2 v2 + . . . + λn vn = 0, lo que implica, por la independencia
lineal de {v1 , v2 , . . . , vn }, que λ1 = λ2 = . . . = λn = 0. ¤
Definición 7: [Transformación Sobreyectiva] Diremos que T : V −→ W es una transformación lineal
sobreyectiva, si y solo si, Im(T ) = W .
Ejemplo 19: Determinemos si la transformación del Ejemplo 10 es sobreyectiva.
µ ¶ µ ¶
a b a b
Dado que T = , es fácil ver que para que una matriz esté en la imagen de T , la
c d 0 c+d
componente (1,2) debe ser 0, lo que nos indica que Im(T ) 6= M2×2 y por tanto T no es sobreyectiva. ¤
Ejemplo 20: Verifiquemos que la transformación del Ejemplo 12 es sobreyectiva.
µ ¶
u
Tenemos que verificar que para cualquier vector ∈ R2 , existe un polinomio (a + bx + cx2 ) ∈ P2 , tal
v
µ ¶ µ ¶
a−b u
que T (a + bx + cx2 ) = = , para lo cual basta con tomar c = v y a y b tales que a − b = u.¤
c v
Con los conceptos de inyectividad y sobreyectividad y los resultados hasta ahora obtenidos, podemos ver
que si una transformación entre los espacios vectoriales V y W es tanto inyectiva, como sobreyectiva (iso-
morfismo), es porque tienen esencialmente la misma estructura de espacio vectorial; en otra palabras, son
“esencialmente los mismos” (isomorfos), como lo expresamos en la siguiente definición.
Definición 8: [Isomorfismo] Diremos que una transformación lineal T : V −→ W es un isomorfismo, si y
solo si, T es inyectiva y sobreyectiva.
Definición 9: [Espacios Vectoriales Isomorfos] Si dados dos espacios vectoriales V y W , existe un isomor-
fismo T : V −→ W , diremos que V y W son isomorfos.
 
a
Ejemplo 21: Determinemos si T : R3 −→ P2 tal que T  b  = a + bx + cx2 es un isomorfismo.
c
Debemos determinar si T es inyectiva, y en caso de serlo, determinar si también es sobreyectiva. Para
CAPÍTULO 5. TRANSFORMACIONES LINEALES 140

determinar si T es inyectiva supongamos que


   
a1 a2
T  b1  = a1 + b1 x + c1 x2 = T  b2  = a2 + b2 x + c2 x2
c1 c2

de donde, por igualdad de polinomios, a1 = a2 , b1 = b2 y c1 = c2 , lo que implica que T es inyectiva.


 
a
Ahora, al tomar un polinomio arbitrario a + bx + cx2 , podemos exhibir un elemento de R3 , a saber,  b 
c
 
a
tal que T  b  = a + bx + cx2 lo que implica que T es sobreyectiva y por lo tanto, T es un isomorfismo ¤
c
Ejemplo 22: La transformación del Ejemplo 10 resultó no ser sobreyectiva (ver Ejemplo 19), por tanto no
es un isomorfismo. ¤
Cuando el dominio y el codominio tienen la misma dimensión, cualquier transformación lineal que sea
inyectiva o sobreyectiva resulta ser un isomorfismo, lo cual demostramos en el siguiente teorema.
Teorema 10
Si T : V −→ W es una transformación lineal, con V y W espacios vectoriales de dimensión finita y dim(V ) =
dim(W ), entonces
1. si T es inyectiva, T es sobreyectiva.
2. si T es sobreyectiva, T es inyectiva.

Demostración:
1. Si T es inyectiva y {v1 , v2 , . . . , vn } es una base de V , entonces, {T (v1 ), T (v2 ), . . . , T (vn }) es una base de
Im(T ), por los Teoremas 1 y 9. Así que dim(V ) = dim(Im(T )). Pero por hipótesis, dim(W ) = dim(V ),
por lo tanto, Im(T ) = W , de donde concluimos que T es sobreyectiva.
2. Por el Teorema 6, dim(N u(T )) + dim(Im(T )) = dim(V ). Por ser T sobreyectiva, dim(Im(T )) =
dim(W ) y por hipótesis dimV = dimW , así que dim(N u(T )) = 0, es decir, N u(T ) = {0}, de donde
podemos concluir, por el Teorema 8, que T es inyectiva. ¤

Entre dos espacios de igual dimensión siempre se puede construir un isomorfismo, basta con asignarle a
cada vector de una base del dominio, un vector (diferente) de una base del codominio, como veremos en la
demostración del siguiente resultado.
Teorema 11
Si V y W son espacios vectoriales de dimensión finita, entonces

dim(V ) = dim(W ), si y solo si, V y W son isomorfos.

Demostración: Supongamos que V y W son isomorfos, asi que existe un isomorfismo T : V → W , de tal
manera que si {v1 , v2 , . . . , vn } es una base de V , entonces, {T (v1 ), T (v2 ), . . . , T (vn }) es una base de Im(T )
y por tanto, dim(V ) = dim(Im(T )) = dim(W ).
Para ver la otra implicación, supongamos que dim(V ) = dim(W ) y sean {v1 , v2 , . . . , vn } y {w1 , w2 , . . . , wn }
bases de V y W , respectivamente. Podemos ver que la transformación lineal T : V → W , donde T (vi ) = wi ,
resulta ser un isomorfismo. En efecto, T es sobreyectiva ya que {w1 , w2 , . . . , wn } es base, tanto de Im(T ),
como de W , lo que implica que Im(T ) = W . En consecuencia, por el Resultado 2 del Teorema 10, T es
inyectiva. ¤
CAPÍTULO 5. TRANSFORMACIONES LINEALES 141

Volviendo sobre la identificación de una transformación y su matriz asociada, podemos ver que las propiedades
de las transformaciones se caracterizan por el número de pivotes de la forma escalonada de sus matrices
asociadas, como lo establecemos en el siguiente teorema, cuya demostración dejamos como ejercicio para el
lector.
Teorema 12
Sean T : V −→ W una transformación lineal, con V y W de dimensión finita y AT la matriz m × n asociada
a la transformación, respecto a dos bases dadas. Entonces,
1. T es inyectiva, si y solo si, la forma escalonada de AT tiene n pivotes.

2. T es sobreyectiva, si y solo si, la forma escalonada de AT tiene m pivotes.

3. T es un isomorfismo, si y solo si, AT es invertible.

5.6. Algebra de transformaciones lineales


Dado que las transformaciones lineales son casos particulares de funciones, podemos definir la suma, la
multiplicación por escalar y la composición de transformaciones, como se hace en las funciones de valor real.
Adicionalmente, veremos que estas operaciones están relacionadas con las operaciones matriciales de sus
matrices asociadas.
Definición 10: [Suma y Multiplicación por Escalar de Transformaciones] Dadas dos transformaciones li-
neales T, S : V −→ W y un escalar λ ∈ R, definimos T + S, la suma de T y S, como la función

(T + S) : V −→ W, tal que (T + S)(v) = T (v) + S(v), para todo v∈V

y definimos λT , la multiplicación de T por el escalar λ, como la función

(λT ) : V −→ W, tal que (λT )(v) = λ[T (v)], para todo v ∈ V.


µ ¶ µ ¶
a a
Ejemplo 23: Dadas las transformaciones lineales T, S : R2 −→ P1 , tal que T = a + bx y S =
b b
µ ¶ µ ¶
−2 −2
a − 2bx, calculemos (T + S) y (−3T ) .
5 5
Por la definición anterior,
µ ¶ µ ¶ µ ¶
−2 −2 −2
(T + S) =T +S = (−2 + 5x) + (−2 − 10x) = −4 − 5x
5 5 5
y µ ¶ · µ ¶¸
−2 −2
(−3T ) = −3 T = −3(−2 + 5x) = 6 − 15x.
5 5
¤
Teorema 13
Si S, T : V −→ W son transformaciones lineales y µ es un escalar, entonces las funciones

(T + S) : V −→ W y (µT ) : V −→ W

son transformaciones lineales.


CAPÍTULO 5. TRANSFORMACIONES LINEALES 142

Demostración: Sean v1 , v2 ∈ V , entonces

(S + T )(v1 + v2 ) = S(v1 + v2 ) + T (v1 + v2 ) = S(v1 ) + S(v2 ) + T (v1 ) + T (v2 )


= S(v1 ) + T (v1 ) + S(v2 ) + T (v2 ) = (S + T )(v1 ) + (S + T )(v2 )

(S + T )(λv) = S(λv) + T (λv) = λ [S(v) + λT (v)]


= λ[S(v) + T (v)] = λ(S + T )(v),

de donde podemos concluir que (S + T ) es también una transformación lineal. De otro lado,

(µT )(v1 + v2 ) = µ[T (v1 + v2 )] = µ[T (v1 ) + T (v2 )]


= µ[T (v1 )] + µ[T (v2 )] = (µT )(v1 ) + (µT )(v2 )

(µT )(λv) = µ[T (λv)] = µ[λT (v)]


= (µλ)[T (v)] = λ[(µT )(v)],

de donde (µT ) también es una transformación lineal. ¤


El conjunto de transformaciones lineales T : V −→ W , con la suma y multiplicación por escalar antes
definidas, satisfacen las propiedades que caracterizan a los espacios vectoriales.
Teorema 14
Dadas las transformaciones lineales R, S, T : V −→ W y los escalares λ, µ, entonces
1. R + (S + T ) = (R + S) + T
2. S + T = T + S
3. T + 0 = 0 + T = T
4. T + (−T ) = (−T ) + T = 0
5. λ(S + T ) = λS + λT
6. (λ + µ)T = λT + µT
7. (λµ)T = λ(µT ) = µ(λT )
8. 1T = T
9. 0T = 0

Demostración: Se deja como ejercicio para el lector.


Definiremos ahora la composición, una operación que está definida en funciones tales que el codominio de
una de las funciones coincide con el dominio de la otra. En este caso, nos restringiremos a transformaciones
lineales.
Definición 11: [Composición de Transformaciones] Sean T : U −→ V y S : V −→ W transformaciones
lineales. Definimos S ◦ T , la composición de S con T , como la función

(S ◦ T ) : U −→ W tal que (S ◦ T )(u) = S(T (u)) para todo u∈U.

Teorema 15
Dadas T : U −→ V y S : V −→ W transformaciones lineales, la composición de S con T , (S ◦ T ) : U −→ W,
es también una transformación lineal.
CAPÍTULO 5. TRANSFORMACIONES LINEALES 143

Demostración: Sean u, u1 , u2 ∈ U y λ ∈ R, entonces

(S ◦ T )(u1 + u2 ) = S(T (u1 + u2 )) = S(T (u1 ) + T (u2 ))


= S(T (u1 )) + S(T (u2 )) = (S ◦ T )(u1 ) + (S ◦ T )(u2 ).

(S ◦ T )(λu) = S(T (λu)) = S(λT (u))


= λ[S(T (u))] = λ(S ◦ T )(u).

Por consiguiente, S ◦ T es una transformación lineal. ¤


 
a
Ejemplo 24: Dadas las transformaciones lineales T : R3 −→ P1 y S : P1 −→ R2 , tal que T  b  =
  c
µ ¶ 1
α−β
(a + b) + cx y S(α + βx) = , calculemos (S ◦ T )  −2 .
β
3
Por la definición,
    
1 1 µ ¶ µ ¶
−1 − 3 −4
(S ◦ T )  −2  =S T
  −2   = S (−1 + 3x) = = .
3 3
3 3

¤
La composición de transformaciones lineales también satisface propiedades algebraicas, las cuales consigna-
mos en el siguiente teorema.
Teorema 16
Sean R, S y T transformaciones lineales tales que, en cada caso, las composiciones están bien definidas y sea
λ un escalar, entonces
1. (T ◦ S) ◦ R = T ◦ (S ◦ R).

2. T ◦ (S + R) = (T ◦ S) + (T ◦ R).

3. (T + S) ◦ R = (T ◦ R) + (S ◦ R).

4. λ(T ◦ S) = (λT ) ◦ S = T ◦ (λS).

5. I ◦ T = T ◦ I = T .

6. 0 ◦ T = 0 y T ◦ 0 = 0.

Demostración: Demostraremos las Propiedades 1. y 4. Las demás las dejamos como ejercicio para el lector.

1. Por definición de la composición de transformaciones,

((T ◦ S) ◦ R)(v) = (T ◦ S)(R(v)) = T (S(R(v)))


= T ((S ◦ R)(v)) = (T ◦ (S ◦ R))(v) .

4. Igualmente, por la definición de la composición de transformaciones,

λ(T ◦ S)(v) = λ(T (S(v)) = (λT )(S(v))


= [(λT ) ◦ S] (v)
CAPÍTULO 5. TRANSFORMACIONES LINEALES 144

de otro lado,

λ(T ◦ S)(v) = (T ◦ S)(λv) = T (S(λv))


= T (λS(v)) = [T ◦ (λS)] (v).

En la Sección 5.2, vimos que existe una estrecha relación entre las transformaciones y las matrices, a saber,
si T es una transformación lineal T : V −→ W , B y B ′ son bases de V y W , respectivamente y AT es la
matriz asociada a T , respecto a las bases B y B ′ , entonces

[T (v)]B′ = AT [v]B .

Mediante esta relación entre transformaciones y matrices, podemos establecer una correspondencia entre las
operaciones algebraicas de las transformaciones y las operaciones algebraicas de las matrices asociadas a
ellas, como lo consignamos en el siguiente teorema.
Teorema 17
Sean B, B ′ y B ′′ bases de los espacios vectoriales U , V y W , respectivamente; T, S : U −→ V y R : V −→ W
transformaciones lineales; AT y AS las matrices asociadas a T y S respecto a las bases B y B ′ y AR la matriz
asociada a R respecto a las bases B ′ y B ′′ , entonces la matriz asociada a la transformación
1. T + S respecto a las bases B y B ′ es AT + AS .

2. T − S respecto a las bases B y B ′ es AT − AS .

3. −T respecto a las bases B y B ′ es −AT .

4. λT respecto a las bases B y B ′ es λAT .

5. R ◦ T respecto a las bases B y B ′′ es AR AT .

Demostración: Demostremos la Propiedad 5; las demás las dejamos como ejercicio para el lector.
Por la definición de matriz asociada a una transformación,

[(R ◦ T )(u)]B′′ = [R(T (u))]B′′ = AR [T (u)]B′ = AR (AT [u]B ) = (AR AT )[u]B

y por la propiedad de unicidad del Teorema 5, la matriz asociada a (R ◦ T ) respecto a las bases B y B ′ es
AR AT . ¤
Como ocurre en general para el conjunto de funciones, la composición de transformaciones permite caracte-
rizar las transformaciones lineales que son invertibles, como lo consignamos en la siguiente definición.
Definición 12: [Transformación Invertible] Diremos que T : V −→ W es una transformación lineal inverti-
ble, si existe una transformación lineal S : W −→ V tal que (T ◦S) = IW : W −→ W y (S◦T ) = IV : V −→ V .
A la transformación S la llamamos inversa de T .
µ ¶
a
Ejemplo 25: Verifiquemos que T : R2 −→ P1 tal que T = (a + b) + (a − b)x es una transformación
b
invertible.
µ ¶T
2 u+v u−v
Veamos que S : P1 −→ R tal que S(u + vx) = , es una transformación lineal tal que
2 2
T ◦ S = IP1 y S ◦ T = IR2 .
µ u+v ¶ µ ¶
2
u+v u−v u+v u−v
(T ◦S)(u+vx) = T (S(u + vx)) = T u−v = + + − x = u+vx = IP1 (u+vx)
2 2 2 2 2
CAPÍTULO 5. TRANSFORMACIONES LINEALES 145

à !
µ ¶ µ µ ¶¶ (a+b)+(a−b) µ ¶ µ ¶
a a 2 a a
(S ◦ T ) =S T = S((a + b) + (a − b)x) = (a+b)−(a−b) = = IR2 . ¤
b b b b
2

Al igual que con las funciones en general y que con las matrices, la inversa de una transformación lineal es
única, como lo planteamos en el siguiente teorema, cuya demostración dejamos como ejercicio para el lector.
Teorema 18
Sea T : V → W una transformación lineal. Si existen S1 , S2 : W → V , dos transformaciones lineales tales
que T ◦ S1 = T ◦ S2 = IW y S1 ◦ T = S2 ◦ T = IV , entonces S1 = S2 .
Similarmente como hicimos en el caso de las matrices, la inversa de la transformación T la denotamos T −1
y demostremos la relación de equivalencia entre las transformaciones invertibles y los isomorfismos.
Teorema 19
Sea T : V → W una transformación lineal, entonces T es invertible, si y solo si, T es un isomorfismo.
Demostración: Supongamos que T es invertible y que S es su inversa. Tomemos v1 , v2 ∈ V y supongamos
que T (v1 ) = T (v2 ), así que S(T (v1 )) = S(T (v2 )), de donde concluimos que v1 = v2 y por consiguiente que
T es inyectiva. Tomemos ahora w ∈ W y sea v = S(w), así que T (v) = T (S(w)) = w, de donde concluimos
que T es sobreyectiva y por tanto es un isomorfismo.
Supongamos ahora que T es un isomorfismo, asi que T es inyectiva y sobreyectiva. Sea w ∈ W , entonces
existe un único v ∈ V , tal que T (v) = w. Definimos S, de tal forma que S(w) = v, cuando T (v) = w. Es
fácil demostrar que S es la inversa de T ¤
Ejemplo 26: Utilicemos el teorema anterior para determinar si la transformación del Ejemplo 1 es invertible.
Si la transformación del Ejemplo 1, que va de R3 a R2 fuese invertible, por el teorema anterior, T seria un
isomorfismo y por lo tanto, los espacios vectoriales R3 y R2 serian isomorfos, lo cual, por el Teorema 11,
no es posible ya que sus dimensiones son distintas. En consecuencia, la transformación del Ejemplo 1 no es
invertible. ¤
Por último, veremos que para determinar si una transformación es invertible, es suficiente que su matriz
asociada lo sea, como lo establecemos en el siguiente teorema.
Teorema 20
Sean B y B ′ bases de los espacios vectoriales V y W , respectivamente, T : V → W una transformación lineal
y AT la matriz asociada a la transformación respecto a las bases B y B ′ . Entonces
1. T es invertible, si y solo si, AT es invertible.

2. Si T es invertible, entonces A−1


T es la matriz asociada a la transformación lineal T
−1
, respecto a las

bases B y B.

Demostración: La dejamos como ejercicio para el lector.


Ejemplo 27: Utilicemos el teorema anterior para determinar si la transformación del Ejemplo 25 es invertible.
2
Sean B y B ′ las bases canónicas de µ R y P1¶ respectivamente. La matriz asociada a T en las bases B y B

1 1
es AT = [ [T (e1 )]B′ [T (e1 )]B′ ] = , cuyo determinante es −2, por lo tanto AT es invertible y en
1 −1
consecuencia, por el teorema anterior, T es invertible. ¤

También podría gustarte