Está en la página 1de 48

Capítulo 3

z
Matrices y Transformaciones

en
lineales

3.1. Sá
Vector coordenado y representación matri-
cial
Clase 25: Vector coordenado y representación matricial de una transforma-
ción lineal
a
Definición 3.1.1. Sea V un espacio vectorial dimensionalmente finito.
Una base ordenada para V es una base para V establecida junto con
rin

un orden específico; es decir, una base ordenada para V es una secuen-


cia finita de elementos de V linealmente independientes que generan a
V.

Ejemplo 3.1.2.
Co

1. La secuencia (1, x, x2 ) es la base ordenada estándar o canónica


para P2 (R) que es diferente a la base ordenada (1, x2 , x)

2. Para el espacio vectorial F n , llamaremos a la secuencia


(e1 , e2 , ..., en ) la base ordenada estándar o canónica para F n ,
donde como sabemos para toda i = 1, 2, . . . , n el vector ei =
(0, 0, . . . 0, 1, 0 . . . , 0) donde el 1 está en el lugar i-ésimo.

En la práctica seguiremos usando la notación {1, x, x2 } en lugar de (1, x, x2 ),

89
90 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

ó {e1 , e2 , ..., en } en lugar de (e1 , e2 , ..., en ) pero debemos tener claro que el
orden está fijo.

z
en

Definición 3.1.3. Sea = {x1 , x2 , ..., xn } una base ordenada para un
espacio vectorial V dimensionalmente finito. Para x 2 V definimos al
vector coordenado de x relativo a la base
mediante 2 3
a1
6 a2 7
denotado por [x]

6 7
a
[x] = 6 .. 7
4.5
an
rin

Pn
donde x = i=1 ai xi .
Co
3.1. VECTOR COORDENADO Y REPRESENTACIÓN MATRICIAL 91

Ejemplo 3.1.4.

1. Sean V = P2 (R), = {1, x, x2 }. Si f (x) = 3 + 2x 5x2 , entonces


2 3
3
[x] = 4 2 5
5

z
2. Sean V = P2 (R), = {x, x2 , 1}. Si f (x) = 3 + 2x 5x2 , entonces

en
para obtener el vector coordenado de f (x) con respecto a la base
necesitamos escribir a f (x) como combinación lineal de los
vectores de la base respetando el orden de , esto es, f (x) =
3 5x2 + 2x y tenemos:
2 3

3. Sean V = M2⇥2 (R), =


Sá 1 0
0 0
2
[x] = 4 55

⇢✓
3
◆ ✓
,
0 1
0 0
◆ ✓
,
0 0
1 0
◆ ✓
,
0 0
0 1

.
✓ ◆
a
5 7
Si A = , tenemos:
9 4
rin

✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
5 7 1 0 0 1 0 0 1 0
=5 +( 7) +( 9) +4
9 4 0 0 0 0 1 0 0 0

de donde: 2 3
5
6 77
[A] = 6 7
Co

4 95
4

4. Sean V = R2 , = {(1, 0), (1, 1)}. Si x = (5, 7), entonces



2
[x] = .
7
92 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Una vez que hemos estudiado la noción de vector coordenado proce-


deremos a describir la representación matricial de una transformación
lineal y veremos cómo se relacionan ambos conceptos.

Para ello, supongamos que V y W son espacios vectoriales dimensio-


nalmente finitos con bases ordenadas:

z
= {x1 , x2 , ..., xn } y = {y1 , y2 , ..., ym }

en
respectivamente y sea T : V ! W una transformación lineal. Entonces
para cada
xj 2
(j = 1, 2, . . . , n) existen escalares únicos aij 2 F (i = 1, 2, ..., m) tales
que

Sá T (xj ) =
m
X
aij yi .
i=1

Definición 3.1.5. Utilizando la notación anterior, llamaremos a la


matriz de m ⇥ n, definida mediante A = (aij ), la matriz que re-
presenta a T con respecto a las bases ordenadas y y la
a
denotaremos por A = [T ] . Más aun, si V = W y = , escribiremos
únicamente A = [T ] .
rin

Nótese que la j-ésima columna de [T ] es sencillamente [T (xj )]

Ejemplo 3.1.6. Consideremos las transformaciones lineales dadas en el


ejemplo 2.1.3:
Co

1. Sea T : R2 ! R2 dada por T (x, y) = (2x, x + y). Consideremos


= = {(1, 0), (0, 1)}
la base estándar para R2 .
Consideremos el vector x1 = (1, 0) 2 de donde j = 1 está fija y los
vectores y1 = (1, 0) , y2 = (0, 1) 2 de donde i = 1, 2.
Dado que
T (1, 0) = (2, 1) = 2(1, 0) + 1(0, 1) = 2y1 + 1y2
3.1. VECTOR COORDENADO Y REPRESENTACIÓN MATRICIAL 93

tenemos que para i = 1, ai,j = a1,1 = 2 y para i = 2 tenemos ai,j =


a2,1 = 1.
Para el vector x2 = (0, 1) tenemos j = 2 fija y los vectores y1 =
(1, 0), y2 = (0, 1) 2 de donde i = 1, 2.
Como

T (0, 1) = (0, 1) = 0(1, 0) + 1(0, 1) = 0y1 + 1y2

z
tenemos para i = 1 que ai,j = a1,2 = 0 y para i = 2 tenemos ai,j =

en
2 0
a2,2 = 1. Por tanto, [T ] = .
1 1
Observemos que lo que hicimos fue escribir a cada T (xj ) como combina-
ción lineal de los vectores y1 y y2 y después los escalares los escribimos
verticalmente.


2. Sea V un espacio vectorial de dimensión finita y = {x1 , x2 , . . . , xn }
una base ordenada de V . Consideremos la transformación lineal iden-
tidad IV : V ! V. Para calcular [T ] necesitamos primero conside-
rar al vector x1 2 de donde j = 1 está fija y escribir al vector
a
T (x1 ) = x1 como combinación lineal de los elementos de la base ,
esto es: T (x1 ) = x1 = 1x1 + 0x2 + . . . + 0xn . De donde ai,1 = 0 para
i = 2, 3, . . . , n y a1,10=11. Por tanto la primera columna de la matriz
rin

1
B0 C
B C
[T ] está dada por: B .. C .
@.A
0
Para calcular la segunda columna de la matriz [T ] necesitamos con-
Co

siderar al vector x2 2 de donde j = 2 está fija y escribir al vector


x2 como combinación lineal de los elementos de la base , esto es:
T (x2 ) = x2 = 0x1 + 1x2 + 0x3 + . . . + 0xn . De donde ai,2 = 0 para i 6= 2
y a2,2
0 =11. Por tanto la segunda columna de la matriz [T ] está dada
0
B1 C
B C
B C
por B0C .
B .. C
@.A
0
94 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Procediendo de esta forma tenemos que:


2 3
1 0 0 ... 0
60 1 0 ... 07
6 7
[T ] = 6 .. .... .. .. 7 .
4. . . . .5
0 0 0 ... 1

z
3. Sea V un espacio vectorial de dimensión finita y = {x1 , x2 , . . . , xn }

en
una base ordenada de V . Consideremos la transformación lineal cero,
esto es: T0 : V ! V dada por T0 (v) = ~0V . Es claro que
2 3
0 0 0 ... 0
60 0 0 ... 07
6 7

Sá [T ] = 6 ..
4.
..
.
.. ..
. .
0 0 0 ...
.. 7 .
0
.5

4. Sea T : P n (R) ! P n 1 (R) dada por T (f ) = f 0 y sea = {1, x, x2 , . . . xn }


la base ordenada estándar de P n (R) y = {1, x, x2 , . . . , xn 1 } base or-
denada estándar de P n 1 (R). Para x1 = 1, tenemos:
a
T (1) = 0 = 0(1) + 0x + . . . + 0xn 1
rin

De donde la primera columna de la matriz [T ] está dada por:


0 1
0
B0 C
B C
[T (1) = 0] = B .. C . Para x2 = x tenemos:
@.A
Co

T (x) = 1 = 1(1) + 0x + . . . + 0xn 1

De donde la segunda columna de la matriz [T ] está dada por:


0 1
1
B0 C
B C
[T (x) = 1] = B .. C .
@.A
0
3.1. VECTOR COORDENADO Y REPRESENTACIÓN MATRICIAL 95

Continuando de esta manera obtenemos que:


2 3
0 1 0 0 ... 0
60 0 2 0 . . . 07
6 7
6 07
[T ] = 60 0 0 3 . . . 7
6 .. .. .. .. .. .. 7
4. . . . . .5
0 0 0 ... 0 n

z
que es una matriz de n ⇥ n + 1.

en
5. Sea T : M2⇥3 (F ) ! M3⇥2 (F ), dada por T (A) = At . Sean
⇢✓ ◆ ✓ ◆ ✓ ◆
1 0 0 0 1 0 0 0 1
= , , ,
0 0 0 0 0 0 0 0 0

y
80
< 1 0

1 0
0 0 0
1 0 0

0 1

◆ ✓

1 0
,
0 0 0
0 1 0

0 0
1 0
◆ ✓
,

0 0
0 0 0
0 0 1

1 0

0 0
1 0

= @0 0 A , @0 0 A , @1 0 A , @0 1 A , @0 0 A , @0 0 A
19
0 0 =
: ;
a
0 0 0 0 0 0 0 0 1 0 0 1

las bases ordenadas estándar de cada espacio0vectorial.


1
rin

✓ ◆ 1 0
1 0 0
Para x1 = tenemos que T (x1 ) = @0 0A y por tanto la pri-
0 0 0
0 0 20 13
1 0
mera columna de la matriz [T ] está dada por: [T (x1 )] = 4@0 0A5 =
0 0
Co

0 1
1
B0 C
B C
B0 C
B C.
B0 C
B C
@0 A
0 0 1
✓ ◆ 0 0
0 1 0
Para x2 = tenemos que T (x2 ) = @1 0A y por tanto la se-
0 0 0
0 0
96 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES
20 13
0 0
gunda columna de la matriz [T ] está dada por: [T (x2 )] = 4@1 0A5 =
0 0
0 1
0
B0 C
B C
B1 C
B C.
B0 C
B C

z
@0 A
0

en
Continuando de esta manera obtenemos que:

Sá 2
60
6
60
[T ] = 6
60
6
40
1 0
0
1
0
0
0
0
0
0
1
0
1
0
0
0
0
0
0
1
0
0
07
07
07
05
3

7
7
7

0 0 0 0 0 1
a
rin

6. Sea T : R2 ! R2 , T (a1 , a2 ) = (a1 , a2 ) (reflexiónen el eje X) y


1 0
sea la base estándar de R2 . Se puede ver que [T ] = .
0 1
Co

7. T : R2 ! R2 , T (a1 , a2 ) = (a1 , 0) (proyecciónen el eje X) y sea


1 0
la base estándar de R2 . Se puede ver que [T ] = .
0 0
3.1. VECTOR COORDENADO Y REPRESENTACIÓN MATRICIAL 97

Clase 26: El espacio vectorial L(V, W ) de las transformaciones lineales de V


en W .

Definición 3.1.7. Sean U y V espacios vectoriales sobre un campo F ;


T : V ! W , U : V ! W transformaciones lineales y a 2 F . Definimos
las funciones:

1. T + U : V ! W mediante (T + U )(x) = T (x) + U (x) para todo

z
x2V;

en
2. aT : V ! W mediante (aT )(x) = aT (x) para todo x 2 V .

Proposición 3.1.8. Sean V y W espacios vectoriales y sean T, U :


V ! W transformaciones lineales. Entonces


1. Para toda a 2 F , aT + U : V ! W es transformación lineal.

2. El conjunto L(V, W ) = {T : V ! W
T es transformación lineal } es un espacio vectorial sobre
:

F , con las operaciones de suma y multiplicación por escalares


que se definieron en 3.1.7.
a
rin

Demostración.

1. Sean T, U 2 L(V, W ), a, b 2 F y x, y 2 V , Entonces

(aT + U )(x + y) = (aT )(x + y) + U (x + y)


Co

= a(T (x + y)) + U (x + y)
= a(T (x) + T (y)) + U (x) + U (y)
= aT (x) + aT (y) + U (x) + U (y)
= (aT )(x) + U (x) + (aT )(y) + U (y)
= (aT + U )(x) + (aT + U )(y)

Lo que prueba que aT + U abre la suma de vectores.


Por otro lado,
3.1. VECTOR COORDENADO Y REPRESENTACIÓN MATRICIAL 103

Clase 26: El espacio vectorial L(V, W ) de las transformaciones lineales de V


en W .

Definición 3.1.7. Sean V y W espacios vectoriales sobre un campo


F;
T : V ! W , U : V ! W transformaciones lineales y a 2 F . Definimos
las funciones:

z
1. T + U : V ! W mediante (T + U )(x) = T (x) + U (x) para todo
x2V;

en
2. aT : V ! W mediante (aT )(x) = aT (x) para todo x 2 V .

Proposición 3.1.8. Sean V y W espacios vectoriales y sean T, U :

2. El conjunto L(V, W )

V ! W transformaciones lineales. Entonces

1. Para toda a 2 F , aT + U : V ! W es transformación lineal.

= {T : V ! W
T es transformación lineal } es un espacio vectorial sobre
:

F , con las operaciones de suma y multiplicación por escalares


a
que se definieron en 3.1.7.
rin

Demostración.

1. Sean T, U 2 L(V, W ), a, b 2 F y x, y 2 V , Entonces

(aT + U )(x + y) = (aT )(x + y) + U (x + y)


Co

= a(T (x + y)) + U (x + y)
= a(T (x) + T (y)) + U (x) + U (y)
= aT (x) + aT (y) + U (x) + U (y)
= (aT )(x) + U (x) + (aT )(y) + U (y)
= (aT + U )(x) + (aT + U )(y)

Lo que prueba que aT + U abre la suma de vectores.


Por otro lado,
104 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

(aT + U )(bx) = (aT )(bx) + U (bx)


= aT (bx) + U (bx)
= abT (x) + bU (x)
= b[aT (x) + U (x)]

z
= b[(aT )(x) + U (x)]
= b[(aT + U )(x)]

en
Lo que prueba que aT + U saca a los escalares.
Por lo tanto, aT + U 2 L(V, W ).

2. Para demostrar este inciso verificaremos que se satisfacen los incisos de


la definición de Espacio vectorial.
Sean L, K, J 2 L(V, W ), a, b 2 F y x 2 V . Entonces

1) (L + K)(x) = L(x) + K(x) = K(x) + L(x) = (K + L)(x).


2) [(L + K) + J](x) = (L + K)(x) + J(x) = (L(x) + K(x)) + J(x) =
L(x) + (K(x) + J(x)) = [L + (K + J)](x).
a
3) La transformación lineal cero, denotada por T0 2 L(V, W ) cumple
que para toda L 2 L(V, W ), T0 + L = L ya que T0 (x) + L(x) =
rin

0W + L(x) = L(x).
4) Para toda L 2 L(V, W ) definimos L 2 L(V, W ) dada por ( L)(x) =
L(x) y tenemos que L+( L) = T0 (el hecho de que L 2 L(V, W )
se justifica gracias al inciso 1. de este teorema.
5) 1F L = L ya que (1F L)(x) = 1F L(x) = L(x).
Co

6) (ab)L = a(bL) ya que [(ab)L](x) = (ab)L(x) = a[b(L(x))] = a[(bL)(x)] =


[a(bL)](x).
7) a(L + K) = aL + aK ya que [a(L + K)](x) = a[(L + K)(x)] =
a[L(x) + K(x)] = aL(x) + aK(x) = [aL + aK](x).
8) (a + b)L = aL + bL ya que [(a + b)L](x) = (a + b)L(x) = aL(x) +
bL(x) = [aL + bL](x).


3.1. VECTOR COORDENADO Y REPRESENTACIÓN MATRICIAL 105

Teorema 3.1.9. Sean V y W espacios vectoriales de dimensión finita


con bases ordenadas y , respectivamente, y sean T, U : V ! W
transformaciones lineales. Entonces

1. [T + U ] = [T ] + [U ]

2. [aT ] = a[T ]

z
en
Demostración. Sean V y W espacios vectoriales de dimensión finita,
= {x1 , x2 , ..., xn } y = {y1 , y2 , ..., ym } bases de V y W respectivamente y
T, U : V ! W transformaciones lineales.

1. Si T (xj ) =
Pm
i=1


aij yi y U (xj ) =

(T + U )(xj ) =
Pm

m
X
i=1 bij yi

i=1
tenemos que

(ai,j + bi,j )yi .

Por lo que tenemos:


a
2 3 2 3 2 3
a1j + b1j a1j b1j
6
[T + U (xj )] = 4 .. 7 6 .. 7 6 .. 7
. 5 = 4 . 5 + 4 . 5 = [T (xj )] + [U (xj )]
rin

amj + bmj amj bmj

Por lo tanto [T + U ] = [T ] + [U ] .

Pm Pm
Co

2. Como T (xj ) = ij yi tenemos


a2
i=1 3 2que aT
3 (xj ) = i=1 a(aij yi )
aa1j a1j
6 .. 7 6 .. 7
de donde [aT (xj )] = 4 . 5 = a 4 . 5 = a[T (xj )] .
aamj amj


106 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Ejemplo 3.1.10. Sean V = P3 (R) y W = P2 (R).


Consideremos la transformaciones lineales:

T : V ! W , T (f ) = f 0

U : V ! W , U (f ) = 2f 0 + f 00 .

z
Entonces (T + U ) : V ! W , (T + U )(f ) = 3f 0 + f 00

en
1. Si = {1, x, x2 , x3 }, = {1, x, x2 } son las bases estándar de V
y W respectivamente,
2 3 2 3
0 1 00 0 2 2 0
4
entonces [T ] = 0 0 205, [U ] = 40 0 4 65
0 0 0
23 30 0 0 6

Sá 4
0 3 2
Por otro lado, [T + U ] = 0 0 6
0 0 0
Por lo tanto, [T + U ] = [T ] + [U ]

2. Si = {x3 , x, x2 ,21}, = {x,3x2 , 1},


.
0
65
9

2 3
a
0 0 2 0 6 0 4 0
entonces [T ] = 3 0 0 05, [U ]
4 = 46 0 0 05
0 1 0 20 30 2 2 0
rin

6 0 6 0
4
Por otro lado, [T + U ] = 9 0 0 05.
0 3 2 0
Por lo tanto, [T + U ] = [T ] + [U ]

3. Si 2
= {2, 3x, 4x2 , 5x3 }, = {x 2
3 , x, 1} 2
Co

3
0 0 0 15 0 0 0 30
entonces [T ] = 40 0 8 0 5, [U ] = 40 0 16 305
0 3 0 20 30 6 8 0
0 0 0 45
Por otro lado, [T + U ] = 0 0 24 305.
4
0 9 8 0
Por lo tanto, [T + U ] = [T ] + [U ] .
3.1. VECTOR COORDENADO Y REPRESENTACIÓN MATRICIAL 107

Ejemplo 3.1.11. Sean V = W = R2 , T : V ! W , T (x, y) = ( y, x),


U : V ! W , U (x, y) = (3x y, 7y), (T +U ) : V ! W , (T +U )(x, y) =
(3x 2y, x 7y)

1. Si = {(1, 0), (0,1)}, = , 


0 1 3 1
entonces [T ] = , [U ] = y
 1 0 0 7

z
3 2
[T + U ] = .
1 7

en
Por lo tanto, [T + U ] = [T ] + [U ]

2. Si = {(1, 1), ( 1, 1)}, = {(1, 1), ( 1, 1)}


9 3
1 0
entonces [T ] = , [U ] = 25 11
2 y
7 3 0 1
[T + U ] = 25 13
2 2
2 .


Por lo tanto, [T + U ] = [T ] + [U ]
2 2
a
rin
Co
102 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

3.2. Composición de transformaciones lineales


Clase 27: Composición de transformaciones lineales.

En esta clase veremos la composición de transformaciones lineales y la mul-


tiplicación de matrices.

z
Definición 3.2.1. Sean V, W y Z espacios vectoriales y T : V ! W y

en
U : W ! Z transformaciones lineales. Definimos la composición de
T y U , denotada por U T : V ! Z mediante (U T )(x) = U (T (x))
para toda x 2 V .


Proposición 3.2.2. Sean V, W y Z espacios vectoriales y T : V ! W
y U : W ! Z transformaciones lineales. Entonces U T : V ! Z es
transformación lineal.
a
rin

Demostración. Sean x, y 2 V y a 2 F , entonces

U T (ax + y) = U (T (ax + y))


= U (aT (x) + T (y))
= aU (T (x)) + U (T (y))
Co

= a[U T ](x) + [U T ](y)

Por lo tanto, U T 2 L(V, Z). Es decir, U T : V ! Z es una transformación


lineal. ⌅

La demostración del siguiente resultado se las dejo como ejercicio. Ver Tarea
4.
3.2. COMPOSICIÓN DE TRANSFORMACIONES LINEALES 103

Corolario 3.2.3. Sea V un espacio vectorial. Sean T, U1 , U2 2 L(V ) =


L(V, V ) y a 2 F . Entonces

1. T (U1 + U2 ) = T U1 + T U2 y (U1 + U2 ) T = U1 T + U2 T ;

2. T (U1 U2 ) = (T U1 ) U2 ;

3. T IV = IV T = T;

z
4. a(U1 U2 ) = (aU1 ) U2 = U1 (aU2 ).

en
Definimos el producto de A Sá
Definición 3.2.4. Sea A una matriz de m⇥n y B una matriz de n⇥p.
Ppor B, denotado por AB, como la matriz
de m ⇥ p tal que (AB)ij = nk=1 aik bkj para 1  i  m, 1  j  p.
a
rin

Ejemplo 3.2.5.
✓ ◆ ✓ ◆ ✓ ◆
1 2 5 6 19 22
1. A = ,B= , AB =
3 4 7 8 43 50
0 1
✓ ◆ ✓ ◆
Co

0 8
1 0 3 1 14
2. A = , B = @6 0A, AB =
4 5 0 30 32
0 2
0 1 0 1 0 1
1 0 1 0 0 1 0 0 2 0
B0 1 0 0C B1 1 1C B1 1 1C
3. A = B C B C
@1 1 0 0A, B = @0 1 0A, AB = @1
B C
2 1A
0 1 1 1 1 1 0 2 3 1
104 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Clase 28: Teorema que relaciona la composición de transformaciones con la


multiplicación de matrices.

Teorema 3.2.6. Sean V, W y Z espacios vectoriales dimensionalmente


finitos con bases ordenadas ↵, , respectivamente. Sean T : V ! W
y U : W ! Z transformaciones lineales. Entonces [U T ]↵ = [U ] [T ]↵ .

z
Demostración. Sean ↵ = {x1 , x2 , . . . , xn }, = {y1 , y2 , . . . , ym } y = {z1 , z2 , . . . , zp }

en
bases ordenadas de V , W y Z respectivamente. Tenemos que:

1. 0 1
b11 b12 . . . b1m
Bb21 b22 . . . b2m C

Sá B
[U ] = B ..
@ .
..
.
..
.
C
.. C
. A
bp1 bp2 . . . bpm

es una matriz de p ⇥ m, donde U (yi ) = b1i z1 + b2i z2 + . . . + bpi zp , para


todo i = 1, 2, . . . , m.
a
2. 0 1
a11 a12 . . . a1n
B a21 . . . a2n C
rin

B a22 C
[T ]↵ = B .. .. .. .. C
@ . . . . A
am1 am2 . . . amn

es una matriz de m ⇥ n donde T (xj ) = a1j y1 + a2j y2 + . . . + amj ym ,


para todo j = 1, 2, . . . , n.
Co

3. De lo anterior tenemos que la matriz [U ] [T ]↵ es de p ⇥ n donde la


j-ésima columna de está dada por:
0 Pm 1
b 1k a kj
BPm b2k akj C
k=1
B k=1 C
B C
B C
B .. C
@
Pm . A
k=1 bpk akj
3.2. COMPOSICIÓN DE TRANSFORMACIONES LINEALES 141

Clase 28: Teorema que relaciona la composición de transformaciones con la


multiplicación de matrices.

Teorema 3.2.6. Sean V, W y Z espacios vectoriales dimensionalmente


finitos con bases ordenadas ↵, , respectivamente. Sean T : V ! W
y U : W ! Z transformaciones lineales. Entonces [U T ]↵ = [U ] [T ]↵ .

z
Ejemplo 3.2.7. Sean T : R3 ! R2 dada por T (a, b, c) = (a + b, c)

en
y U : R2 ! R3 dada por U (a, b) = (a + b, b, a + b). Tenemos que
U T : R3 ! R3 está dada por U T (a, b, c) = (a + b + c, c, a + b + c).
Sean = {(1, 0, 0), (0, 1, 0, (0, 0, 1)} y = {(1, 0), (0, 1)} las bases
canónicas (ó estándar) de R y de R respectivamente.Tenemos que
3 2

De donde
0
1 1
Sá1

[U ] = @0 1A , [T ] =
1 1
0
1 1 1
1

1 1
0 0 1
0

.

[U ] [T ] = @0 0 1A .
a
1 1 1
Por tanto, usando el teorema:
rin

0 1
1 1 1
[U T ] = @0 0 1 A .
1 1 1
Co
142 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Teorema 3.2.8. Sean V, W y Z espacios vectoriales dimensionalmente


finitos con bases ordenadas ↵, , respectivamente. Sean T : V ! W
y U : W ! Z transformaciones lineales. Entonces [U T ]↵ = [U ] [T ]↵ .

Demostración. Sean ↵ = {x1 , x2 , . . . , xn }, = {y1 , y2 , . . . , ym } y = {z1 , z2 , . . . , zp }


bases ordenadas de V , W y Z respectivamente. Tenemos que:

z
1. 0 1

en
b11 b12 . . . b1m
Bb21 b22 . . . b2m C
B C
[U ] = B .. .. .. .. C
@ . . . . A
bp1 bp2 . . . bpm

2.

es una matriz de p ⇥ m, donde U (yi ) = b1i z1 + b2i z2 + . . . + bpi zp , para
todo i = 1, 2, . . . , m.

0
a11
B a21
a12
a22
. . . a1n
1

. . . a2n C
B C
a
[T ]↵ = B .. .. .. .. C
@ . . . . A
am1 am2 . . . amn
rin

es una matriz de m ⇥ n donde T (xj ) = a1j y1 + a2j y2 + . . . + amj ym ,


para todo j = 1, 2, . . . , n.

3. De lo anterior tenemos que la matriz [U ] [T ]↵ es de p ⇥ n donde la


j-ésima columna de está dada por:
Co

0 Pm 1
b 1k a kj
BPm b2k akj C
k=1
B k=1 C
B C
B C
B .. C
Pm .
@ A
k=1 bpk akj

4. Por otro lado, para calcular la j-ésima columna de la matriz [U T ]↵


necesitamos primero calcular U T (xj ) y luego escribir a U T (xj ) como
3.2. COMPOSICIÓN DE TRANSFORMACIONES LINEALES 143

combinación lineal de z1 , z2 , . . . , zp .

U T (xj ) = U (T (xj ))
m
! m
X X
=U aij yi = ai,j U (yi )
i=1 i=1
= a1j (b11 z1 + b21 z2 + . . . + bp1 zp ) + a2j (b12 z1 + b22 z2 + . . . + bp2 zp )

z
+ · · · + amj (b1m z1 + b2m z2 + . . . + bpm zp )
= (a1j b11 + a2j b12 + . . . + amj b1m )z1

en
+ (a1j b21 + a2j b22 + . . . + amj b2m )z2
+ . . . + (a1j bp1 + a2j bp2 + . . . + amj bpm )zp
m
! m
! m
!
X X X
= b1k akj z1 + b2k akj z2 + . . . + bpk akj zp
k=1


0 Pm
k=1

De donde la j-ésima columna de la matriz [U T ]↵ es:

b 1k a kj
1
k=1

BPm b2k akj C


k=1
a
B k=1 C
B C
B C
B .. C
Pm .
@ A
rin

k=1 bpk akj

Del punto 3. y del 4. (anterior) concluimos que [U ] [T ]↵ = [U T ]↵ .


Co

El siguiente resultado se desprende de forma inmediata del Teorema anterior.

Corolario 3.2.9. Sea V un espacio vectorial dimensionalmente finito


con una base ordenada . Sean T, U 2 L(V ). Entonces [U T ] =
[U ] [T ]
3.2. COMPOSICIÓN DE TRANSFORMACIONES LINEALES 113

Clase 29: Resultados sobre composición de transformaciones y multiplicación


de matrices.

Empecemos dando la siguiente definición:

Definición 3.2.9.

1. Definimos la delta de Kronecker ij mediante:

z
ij = 1 si i = j y ij = 0 si i 6= j.

2. La matriz identidad de n ⇥ n denotada por In está dada

en
mediante (In )ij = ij . Es decir,
0 1
✓ ◆ 1 0 0
1 0
I1 = (1), I2 = , I3 = @0 1 0A , ...
0 1

Proposición 3.2.10. Sá 0 0 1

1. Para cualquier matriz A de n ⇥ n tenemos que In A = AIn = A.

2. Si V es un espacio vectorial de dimensión n con una base orde-


a
nada e IV : V ! V es la transformación identidad, entonces
[IV ] = In .
rin

Demostración. 1. Sea A = (aij ) una matriz de n ⇥ n. P


Tenemos que la en-
trada ij de la matriz In A está dada por: (In A)ij = nk=1 (In )ik akj = aij
Por lo tanto, In A = A.
Co

2. Sea P = {x1 , x2 , . . . , xn }. Entonces, para cada j tenemos que IV (xj ) =


xj = ni=1 ij xi = 0x1 + · · · + 1xj + · · · + 0xn .
2 3
0
6 .. 7
6. 7
6 7
60 7
6 7
Por lo tanto, la j-ésima columna de la matriz [IV ] es igual a 61 7
6 7
60 7
6. 7
4 .. 5
0
114 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

donde el 1 está en el2j-ésimo


3 renglón. Como la j-ésima columna de la
0
6 .. 7
6. 7
6 7
60 7
6 7
matriz In es igual a 61 7 donde el 1 está en el j-ésimo renglón. Por
6 7
60 7
6. 7
4 .. 5

z
0
tanto, [IV ] = In .

en
Por tanto, [IV ] = In .

Proposición 3.2.11. Sea A una matriz de m ⇥ n, B y C matrices de


n ⇥ p y a 2 F . Entonces

1. A(B + C) = AB + AC

2. a(AB) = (aA)B = A(aB)

Demostración.
a
1.
rin

n
X
[A(B + C)]ij = Aik (B + C)kj
k=1
n
X
= (Aik Bkj + Aik Ckj )
k=1
Co

Xn n
X
= Aik Bkj + Aik Ckj )
k=1 k=1
= (AB)ij + (AC)ij
= (AB + AC)ij
P P
2. [a(AB)]ij = Pnk=1 a(Aik Bkj ) = Pnk=1 (aAik )Bkj = [(aA)B]ij
[a(AB)]ij = nk=1 a(Aik Bkj ) = nk=1 Aik (aBkj ) = [(A(aB)]ij

3.2. COMPOSICIÓN DE TRANSFORMACIONES LINEALES 115

Para poder probar el Teorema 3.2.14, el cual veremos en la siguiente clase, va-
mos a necesitar la siguiente notación y el siguiente lema. Por favor chéquenlos
cuidadosamente.

Definición 3.2.12.

1. Si A es una matriz de m ⇥ n, escribiremos a veces


A = (A1 , A2 , . . . , An ) donde Aj es la columna j-ésima

z
0 1
A1j

en
B .. C
@ . A
Amj
de la matriz A.

0 1
0
B .. C
B.C
B C

2. Se denota por ej a la j-ésima columna de la matriz identidad Ip .

Es decir, ej = B1C donde el 1 está en el j-ésimo renglón.


B.C
@ .. A
0
a
rin

Lema 3.2.13. Sea A una matriz de m ⇥ n y B una matriz de n ⇥ p.


Entonces

1. (AB)j = AB j

2. B j = Bej
Co

Demostración.

0 1 0 Pn 1
(AB)1j k=1 A 1k B kj
B
1. (AB)j = @ .. C B .. C
. A = @ . A = AB j
Pn
(AB)mj k=1 Amk Bkj
116 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES
0 1
0
0 1 . 0 1
B11 · · · B1p B .. C
B
C B1j
B .. .. .. C B1C = B .. C = B j
2. Bej = @ . . . AB C @ . A
B.C
Bn1 · · · Bnp @ .
.A Bnj
0

z
en
Sá ⌅
a
rin
Co
3.2. COMPOSICIÓN DE TRANSFORMACIONES LINEALES 117

Clase 30: Teorema que relaciona el vector coordenado [T (x)] con el vector
coordenado [x] .

Teorema 3.2.14. Sean V y W espacios vectoriales de dimensión finita


que tienen bases ordenadas y respectivamente y sea T : V ! W

z
una transformación lineal. Entonces para toda x 2 V tenemos:

en
[T (x)] = [T ] [x]


a
rin

Demostración. Sea = {x1 , x2 , . . . , xp } una base de V, dim(W ) = m. En-


tonces [T ] es una matriz de m ⇥ p.
Veamos primero que el resultado es cierto para cada xj 2 .
Sabemos que el vector coordenado [T (xj )] es igual a la j-ésima columna de
Co

la matriz [T ] . De donde [T (xj )] = ([T ] )j . Por el lema 3.2.13 tenemos que


0 1
0
B .. C
B. C
B C
([T ] ) = [T ] ej . Dado que [x] = B1 C = ej (usando la notación del le-
j
B. C
@ .. A
0
ma 3.2.13) tenemos que [T ] ej = [T ] [xj ] . Por tanto [T (xj )] = ([T ] )j =
[T ] ej = [T ] [xj ] . De esta manera hemos probado que el resultado vale para
cada xj 2 .
118 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Veamos que el resultado vale para cualquier x 2 V . Sea x 2 V , tenemos que

p
!
X
[T (x)] = [T ai x i ]
i=1
" p
#
X
= ai T (xi )

z
i=1
p
X

en
= ai [T (xi )]
i=1
p
X
= ai [T ] [xi ]
i=1
!

Sá = [T ]

= [T ] ([x] ).
p
X

i=1
ai [xi ]


a
rin

Ejemplo 3.2.15. Sean T : P3 (R) ! P2 (R) definida meditante T (f ) =


f 0, = {1, x, x2 , x3 }, = {1, x, x2 } bases ordenadas para P3 (R) y
P2 (R) respectivamente y p(x) = 3 x + 2x2 + x3 . Entonces:
2 3
2 3 3 2 3
Co

0 1 0 0 6 17 1
4 5 6 7
[T ] = 0 0 2 0 , [p(x)] = 4 5 , [T (p(x))] = 4 5 y 4
2
0 0 0 3 3
1
3 2
2 3 3 2 3
0 1 0 0 6 7 1
17 4 5
[T ] [p(x)] = 40 0 2 05 6
425 = 4 = [T (p(x))]
0 0 0 3 3
1
3.3. LA TRANSFORMACIÓN LINEAL MULTIPLICACIÓN POR LA IZQUIERDA LA .119

3.3. La transformación lineal multiplicación por


la izquierda LA.

z
Clase 31: La transformación lineal multiplicación por la izquierda LA .

en
La siguiente función es crucial en la teoría de las transformaciones lineales.

2 3
x1

Definición 3.3.1. Sea A una matriz de m ⇥ n con elementos en un
campo F . La función LA : F n ! F m está definida por:
2 3
x1
6 x2 7 6 x2 7
a
6 7 6 7
6 .. 7 7! A 6 .. 7 .
4.5 4.5
rin

xn xn
Ésto es, el producto matricial de A por x para cada vector columna
2 3
x1
6 x2 7
6 7
x = 6 .. 7 2 F n
4.5
Co

xn
.
Llamamos a LA la transformación multiplicación por la izquier-
da por A.
120 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

2 3
2 1 0 0
Ejemplo 3.3.2. Consideremos la matriz A = 40 4 2 05 de 3 ⇥ 4
0 0 5 3
con entradas en el campo F = R. Entonces la función LA : R4 ! R3
está definida por
2 3
2 3 x1 2 3

z
2 1 0 0 6 7 2x1 + x2
x2 7 4
LA (x) = Ax = 40 4 2 05 64x3 5 = 4x2 + 2x3
5

en
0 0 5 3 5x3 + 3x4
x4
2 3
x1
6 x2 7
para todo x = 6 7
4 x3 5 2 R .
4

x4

a
rin
Co
3.3. LA TRANSFORMACIÓN LINEAL MULTIPLICACIÓN POR LA IZQUIERDA LA .121

El siguiente resultado establece que la transformación LA es una transforma-


ción lineal y además establece propiedades importantes de la transformación
multiplicación por la izquierda.

Proposición 3.3.3. Sea A una matriz de m ⇥ n con entradas en un


campo F . Entonces

z
1. La función LA : F n ! F m es una transformación lineal.

2. Si y son las bases ordenadas estándar para F n y F m respec-

en
tivamente. Entonces [LA ] = A.

3. Si B es cualquier otra matriz de m ⇥ n (con entradas en F ),


entonces se tiene:


a) LA = LB si, y sólo si A = B.
b) LA+B = LA + LB y para todo a 2 F, LaA = aLA .
a
Demostración. 1. Sea A una matriz de m ⇥ n y LA : F n ! F m la trans-
formación multiplicación por
2 la 3
izquierda.
2 Veamos que LA es una trans-
rin

3
x1 y1
6 x2 7 6 y2 7
6 7 6 7
formación lineal. Sean x = 6 .. 7 y y = 6 .. 7 2 Rn y a 2 F. Usando la
4.5 4.5
xn yn
proposición 3.2.11 tenemos que:
Co

LA (x + y) = A(x + y) = Ax + Ay = LA (x) + LA (y)

LA (ax) = A(ax) = a(Ax) = aLA (x).

Lo cual prueba que LA es una transformación lineal.


122 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES
2 3
a11 a12 ··· a1n
6 a21 a22 ··· a2n 7
6 7
2. Sean A = 6 .. .. .. .. 7 , y las bases estándar de F n y
4 . . . . 5
am1 am2 · · · amn
F m
respectivamente.

z
Para calcular la primera columna de la matriz [LA ] necesitamos cal-
cular el vector coordenado [LA (e1 )] :

en
0 1 0 1
1 a11
B0C B a21 C
B C B C
LA (e1 ) = A B .. C = B .. C = [LA (e1 )] = A1 .
@.A @ . A
0 am1
De manera análoga
0
B .. C
B C B
0 Sá
0 1 tenemos:
a1j
B . C B a2j C
1

C
LA (ej ) = A B1C = B .. C = [LA (ej )] = Aj
B.C @ . A
@ .. A
amj
a
0
Por lo tanto, [LA ] = A.
rin

3. Sea B una matriz de m ⇥ n y a 2 F.

a) ()) Supongamos que LA = LB y sean y las bases estándar de


F n y F m respectivamente. Entonces por el inciso 2. sabemos que
A = [LA ] = [LB ] = B. Por tanto, A = B.
Co

(() Es claro.
b) Veamos que LA+B = LA + LB . Sea x 2 F n tenemos que:
LA+B (x) = (A + B)(x) = Ax + Bx = LA (x) + LB (x) =
(LA + LB )(x). Por lo tanto, LA+B = LA + LB .
Sea a 2 F tenemos que LaA (x) = (aA)(x) = a(Ax) = aLA (x).
Por lo tanto, LaA = aLA .


3.3. LA TRANSFORMACIÓN LINEAL MULTIPLICACIÓN POR LA IZQUIERDA LA .123

El inciso 1. del siguiente resultado establece la importancia de la transfor-


mación lineal LA : F n ! F m ya que muestra que cualquier transformación
lineal T : F n ! F m es igual a una transformación lineal LC : F n ! F m
donde C es una matriz de m ⇥ n. Más aún, establece que la matriz C es
única.
Teorema 3.3.4.

z
1. Si T : F n ! F m es una transformación lineal, entonces existe
una única matriz C de m ⇥ n tal que T = LC .

en
2. Sean A una matriz de m ⇥ n y E una matriz de n ⇥ p. Entonces
LAE = LA LE .

3. Sea In la matriz identidad de n ⇥ n. Entonces LIn = IF n ,

Demostración.

donde IF n : F n ! F n es la transformación lineal identidad dada
por IF n (x) = x, para todo x 2 F n .

1. Sean T : F n ! F m una transformación lineal, y las


bases ordenadas estándar de F n y F m respectivamente. Sea C = [T ]
matriz de m ⇥ n y veamos que T = LC .
a
Sabemos que LC : F n ! F m . Ahora sea x 2 F n veamos que LC (x) =
T (x). Por el teorema 3.2.14, tenemos que
rin

[T (x)] = [T ] [x]

y como y son las bases estándar de F n tenemos que x = [x] y


T (x) = [T (x)] . De donde T (x) = [T (x)] = [T ] x = Cx = LC (x). Por
lo tanto, T = LC
Para ver que C es única, supongamos que existe B matriz de m ⇥ n
Co

tal que LB = T. Como LC = T = LB tenemos por la proposición 3.3.3


inciso 2 que C = B.

2. Sean A matriz de m⇥n y E matriz de n⇥p. Veamos que LAE = LA LE .


Tenemos que AE es una matriz de m ⇥ p y por tanto LAE : F p !
F m . Sea pues x 2 F p . Por definición LAE (x) = (AE)(x) = A(Ex) =
LA (Ex) = (LA LE )(x). Por tanto LAE = LA LE .

3. Se los dejo como ejercicio.



124 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Corolario 3.3.5. Sean A, B y C tales que A(BC) está definido. En-


tonces (AB)C queda definido y A(BC) = (AB)C. Esto es, el producto
de matrices es asociativo.

z
en

Demostración. Sabemos que el producto A(BC) está definido. Ésto es los
respectivos tamanos de las matrices permiten hacer los productos.
a
Ahora LA(BC) = LA LBC = LA (LB LC ) = (LA LB )LC = LAB LC = L(AB)C
y por el inciso (2) de la proposición 3.3.3 inciso 3 a) tenemos A(BC) =
rin

(AB)C. ⌅
Co

Retomemos el ejemplo 3.3.2


3.3. LA TRANSFORMACIÓN LINEAL MULTIPLICACIÓN POR LA IZQUIERDA LA .125

2 3
2 1 0 0
Ejemplo 3.3.6. Consideremos las matrices A = 40 4 2 05 de 3 ⇥
0 0 5 3
2 3
2 3 2 3
64 0 7 8 6
4, E = 6 7
40 9 5 de 4 ⇥ 2 y AE = 16 185 de 3 ⇥ 2. Entonces la
4
24 45

z
8 0
transformación2 lineal
3 LA : R ! R está definida 2por3LA (x) = Ax =
4 3

2 3 x 2 3 x1

en
2 1 0 0 6 17 2x1 + x2 6 7
40 4 2 05 6 2 7 = 44x2 + 2x3 5 para todo x = 6x2 7 2 R4 .
x
4 x3 5 4 x3 5
0 0 5 3 5x3 + 3x4
x4 x4
La transformación lineal LE : R ! R esta definida por
2 4

LE (x) = Ex = 6


x
Sá2

8 0
3
2 3 
6 4 0 7 x1
7
4 0 9 5 x2 =
2

6
2x1 + 3x2
6 4x1 7
4 9x2 5
8x1
3

para todo x = 1 2 R2 .
a
x2
De donde la transformación lineal LAE : R2 ! R3 está dada por
rin

2 3 2 3
8 6  8x1 + 6x2
x
LAE (x) = AEx = 416 185 1 = 416x1 + 18x2 5
x2
24 45 24x1 + 45x2

x
para todo x = 1 2 R2 .
Co

x2
3.4. DEFINICIÓN DE ISOMORFISMO. 125

Clase 32: Isomorfismos.

3.4. Definición de isomorfismo.


Necesitamos repasar la siguiente definición y Teorema que estudiamos en

z
Álgebra Superior I.

en
Definición 3.4.1. Sea f : A ! B una función.

1. Se dice que f : A ! B es invertible si existe una función f 1


:
B ! A tal que f f 1 = IB y f 1 f = IA .


2. Si f : A ! B es invertible, se sabe que la función f
es única y se le llama la inversa de f .

Teorema 3.4.2. Sea f : A ! B una función. Entonces


1
:B!A
a
1. f es invertible si, y sólo si, f 1
es invertible. Además, (f 1
) 1
=
f.
rin

2. f es invertible si, y sólo si, f es biyectiva.

3. De los incisos 1. y 2. tenemos que


f es biyectiva si, y sólo si, f 1 es biyectiva.

4. Si f : A ! B y g : B ! C son funciones invertibles, entonces


Co

g f es invertible y (g f ) 1 = f 1 g 1 .

Definición 3.4.3. Sean V y W espacios vectoriales sobre un campo F .


Un isomorfismo es una transformación lineal T : V ! W invertible.
Equivalentemente, un isomorfismo es una transformación lineal T :
V ! W biyectiva.
126 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Ejemplo 3.4.4. Sea T : P1 (R) ! R2 la transformación lineal dada


por T (a + bx) = (a, b), tenemos que T 1 : R2 ! P1 (R) está dada por
T 1 (a, b) = a + bx. En efecto, T T 1 : R2 ! R2 está definida por
T T 1 (a, b) = T (T 1 (a, b)) = T (a + bx) = (a, b). Por tanto T es un
isomorfismo.

z
Proposición 3.4.5. Sean V y W espacios vectoriales y sea T : V !

en
W un isomorfismo. Entonces T 1 : W ! V también es un isomorfis-
mo.

Demostración. Para ver que T 1 : W ! V es un isomorfismo tenemos que


verificar que T 1 es una transformación lineal invertible. Por el Teorema 3.4.2
sabemos que T 1 es invertible, ya que T los es.
Para probar que T 1 : W ! V es una transformación lineal, sean y1 , y2 2 W
y c 2 F . Dado que T es invertible y por tanto biyectiva existen vectores
únicos x1 , x2 2 V tales que T (x1 ) = y1 y T (x2 ) = y2 . Además T 1 (y1 ) = x1
y T 1 (y2 ) = x2 . De donde,
a
1
T (cy1 + y2 ) = T 1 (cT (x1 ) + T (x2 ))
= T 1 (T (cx1 + x2 ))
rin

= IV (cx1 + x2 )
= cx1 + x2
= cT 1 (y1 ) + T 1 (y2 )

Lo que demuestra que T 1


es una transformación lineal. Por tanto, T es un
isomorfismo. ⌅
Co

Definición 3.4.6. Sea A una matriz de n ⇥ n. Se dice que A es in-


vertible si existe una matriz B de n ⇥ n tal que AB = BA = In .
La matriz B es única y se le llama la inversa de A. Se denota por
B = A 1.

Si C también fuese inversa de A entonces, C = CI = C(AB) = (CA)B =


IB = B.
3.4. DEFINICIÓN DE ISOMORFISMO. 127

✓ ◆ ✓ ◆
5 7 3 7
Ejemplo 3.4.7. La inversa de es ya que
2 3 2 5
✓ ◆✓ ◆ ✓ ◆
5 7 3 7 1 0
=
2 3 2 5 0 1

De forma análoga se verifica el otro producto.

z
en

a
rin
Co
3.4. DEFINICIÓN DE ISOMORFISMO. 129

Clase 33: Teorema que relaciona isomorfismos con matrices invertibles.

z
Para la demostración del teorema 3.4.8 necesitamos recordar el siguiente re-
sultado:

en
Teorema 2.4.1.- Sean V y W espacios vectoriales y supóngase que
V es un espacio vectorial dimensionalmente finito con una base
{x1 , x2 , . . . , xn }. Para cada subconjunto {y1 , y2 , . . . , yn } de W existe
una única transformación lineal T : V ! W tal que T (xj ) = yi para
toda i = 1, . . . , n.

a
rin

Teorema 3.4.8. Sean V y W espacios vectoriales dimensionalmente


finitos con bases ordenadas y respectivamente y sea T : V ! W
Co

transformación lineal. Entonces T es un isomorfismo si y sólo si [T ]


es invertible. Además, [T 1 ] = ([T ] ) 1 .
130 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Demostración. Sean = {x1 , x2 , . . . , xn } base ordenada de V y bases or-


denada de W respectivamente. Supongamos que T es un isomorfismo. Co-
mo T es biyectiva tenemos que T es inyectiva y por tanto por el teore-
ma 2.3.10 tenemos que T ( ) es un subconjunto linealmente independiente
de W . Como T es biyectiva tenemos que T es suprayectiva y por tanto
hT ( )i = hT (x1 ), T (x2 ), . . . , T (xn )i = Im(T ) = W . Es decir, T ( ) genera
a W y por tanto T ( ) es una base de W y dim(W ) = n = dim(V ). De donde

z
[T ] es una matriz de n ⇥ n.

en

Ahora bien, T 1 : W ! V satisface T T 1 = IW y T 1 T = IV . De donde
usando el teorema 3.2.6 tenemos que In = [IV ] = [T 1 T ] = [T 1 ] [T ] .
Análogamente In = [IW ] = [T T 1 ] = [T ] [T 1 ] y por tanto [T 1 ] =
a
([T ] ) 1 .
rin
Co

Ahora, sea A = [T ] invertible. Entonces existe A 1 matriz de n ⇥ n tal que


AA 1 = A 1 A = In .
Construyamos
Pn la transformación lineal U : W ! V dada por U (yj ) =
ij i para cada yj 2 , donde = {y1 , y2 , . . . , yn } y
1
i=1 (A ) x ,
= {x1 , x2 , . . . , xn }. Por la definición de U es claro que [U ] = A 1 .
Veamos que U = T 1 , tenemos que [U T ] = [U ] [T ] = A 1 A = In = [IV ] .
Por tanto, U T = IV . De forma análoga T U = IW . Por tanto, U = T 1 . ⌅
3.4. DEFINICIÓN DE ISOMORFISMO. 131

Ejemplo 3.4.9. Para P1 (R) y R2 considerems las bases ordenadas


estándar = {1, x} y = {e1 , e2 } respectivamente.

Sea T : P1 (R) ! R2 , dada por T (a + bx) = (a, a + b).

Tenemos que T es un isomorfismo y su inversa es

z
T 1
: R2 ! P1 (R) está definida por T (c, d) = c + (d c)x.

en
Además,
✓ ◆ ✓ ◆
1 0 1 0
[T ] = y [T 1
] = .
1 1 1 1


a
rin
Co

Se tiene el siguiente corolario.

Corolario 3.4.10. Sea A una matriz de n⇥n. Entonces A es invertible


si, y sólo si LA es un isomorfismo. Además (LA ) 1 = LA 1 .

Demostración. Sea A una matriz de n ⇥ n y la base estándar de F n .


Tenemos A es invertible si, y sólo si, [LA ] = A es invertible, si y sólo si, LA
es un isomorfismo.
Además, LA 1 LA = LA 1 A = LIn = IF n . Análogamente la otra composición.
132 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Por tanto, LA 1 = (LA ) 1 . ⌅

z
en

a
rin
Co
130 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Clase 34: Espacios isomorfos.


Definición 3.4.11. Sean V y W espacios vectoriales sobre un campo
F . Decimos que V es isomorfo a W si existe un isomorfismo T : V !
W.

El siguiente resultado es crucial en la teoría de espacios vectoriales de dimen-


sión finita.

z
Proposición 3.4.12. Sean V y W espacios vectoriales de dimensión

en
finita sobre un campo F . Entonces, V es isomorfo a W si, y sólo si,
dim(V ) = dim(W ).

Teorema 2.4.1.- Sean V y W espacios vectoriales y supóngase que


V es un espacio vectorial dimensionalmente finito con una base


{x1 , x2 , . . . , xn }. Para cada subconjunto {y1 , y2 , . . . , yn } de W existe
una única transformación lineal T : V ! W tal que T (xj ) = yi para
toda i = 1, . . . , n.

Demostración. De la proposición 3.4.12.


Supongamos que V es isomorfo a W , entonces existe T : V ! W un isomor-
a
fismo. En particular T es biyectiva y por tanto T es inyectiva y suprayectiva.
De donde nulidad(T ) = 0 y rango(T ) = dim(W ).
rin

De donde por el teorema de la dimensión tenemos


dim(V ) = nulidad(T ) + rango(T ) = dim(W )
Ahora supongamos que dim(V ) = dim(W ) y sean = {x1 , x2 , . . . , xn } y
= {y1 , y2 , . . . , yn } bases para V y W respectivamente. Por el Teorema 2.4.1,
existe T : V ! W transformación lineal tal que T (xi ) = yi para i = 1, . . . , n.
Co

Por corolario anterior tenemos que Im(T ) = hT (x1 ), T (x2 ), . . . , T (xn )i =


hy1 , y2 , . . . , yn i = W de donde T es suprayectiva.
Por el teorema de la dimensión tenemos que dim(V ) = nulidad(T )+dim(W ),
por tanto nulidad(T ) = 0 y N (T ) = {0}. De donde, T es inyectiva. Por tanto,
T es biyectiva y entonces T es invertible. Esto es, T es un isomorfismo. ⌅

Corolario 3.4.13. Si V es un espacio vectorial de dimensión n, en-


tonces V es isomorfo a F n .
3.4. DEFINICIÓN DE ISOMORFISMO. 131

Teorema 3.4.14. Sean V y W espacios vectoriales de dimensiones n


y m respectivamente y sean y bases ordenadas para V y W respec-
tivamente. Entonces la función F : L(V, W ) ! Mm⇥n (F ) definida por
F (T ) = [T ] para T 2 L(V, W ) es un isomorfismo.

Teorema 2.4.1.- Sean V y W espacios vectoriales y supóngase que

z
V es un espacio vectorial dimensionalmente finito con una base
{x1 , x2 , . . . , xn }. Para cada subconjunto {y1 , y2 , . . . , yn } de W existe

en
una única transformación lineal T : V ! W tal que T (xj ) = yi para
toda i = 1, . . . , n.

Demostración. Del teorema 3.4.14.


1. Sean T : V ! W , U : V ! W transformaciones lineales y a 2 K, K
campo. Usando el Teorema 3.1.9 tenemos que

F (aT + U ) = [aT + U ] = a[T ] + [U ] = F (T ) + aF (U ).

Lo cual prueba que la función F es una transformación lineal.


a
2. Veamos ahora que F es biyectiva. Para ver que F es inyectiva, veremos
rin

que N (F ) = {T0 } donde T0 : V ! W es la transformación lineal cero.


Supongamos que F (T ) = [T ] = [0]m⇥n . Entonces para cada xj 2
tenemos
T (xj ) = 0y1 + · · · + 0ym = ~0W ,
de donde para cada x 2 V tenemos
Co

T (x) = T (a1 x1 +a2 x2 +. . .+an xn ) = a1 T (x1 )+a2 T (x2 )+. . .+an T (xn ) =

a1~0W + a2~0W + . . . an~0W = ~0W .


Por tanto, T = T0 . Por tanto, F es inyectiva.

3. Veamos que F es suprayectiva. Sea A una matriz de m ⇥ n. DePmacuerdo


con el teorema 2.4.1, existe T 2 L(V, W ) tal que T (xj ) = i=1 Aij yi
para 1  j  n. De donde, [T ] = A, y por tanto F (T ) = A. Lo cual
prueba que F es suprayectiva.
132 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Como F es una transformación lineal biyectiva. Tenemos que F es un iso-


morfismo. ⌅

Ejemplo 3.4.15. Consideremos los espacios vectoriales V = R2

z
y W = R3 . Sean y las bases ordenadas de R2 y R3 res-
pectivamente. Tenemos que L(V, W ) = {T : R2 ! R3 :

en
T es una transformación lineal} y el isomorfismo

F : L(V, W ) ! M3⇥2 (R)

está dado por F (T ) = [T ] .


2
2 0
3

Más aun, para A = 40 15 2 M3⇥2 (R) tenemos que la transformación
0 0

T : R2 ! R 3
a
construida en la demostración del teorema 3.4.14 está dada por
rin

T (1, 0) = 2(1, 0, 0) + 0(0, 1, 0) + 0(0, 0, 1) = (2, 0, 0)

T (0, 1) = 0(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1) = (0, 1, 0)


de donde para cada (a, b) 2 R2 tenemos
Co

T (a, b) = (2a, b, 0).

Es claro que F (T ) = [T ] = A.

Corolario 3.4.16. Sean V y W espacios vectoriales dimensionalmente


finitos de dimensiones m y n respectivamente. Entonces L(V, W ) es de
dimensión mn.
3.4. DEFINICIÓN DE ISOMORFISMO. 139

Clase 35: Representación estándar

z
en
Definición 3.4.17. Sea una base ordenada de un espacio vectorial
dimensionalmente finito V sobre el campo F . La representación es-
tándar de V con respecto a es la función : V ! F n definida por
(x) = [x] .


a
rin

Ejemplo 3.4.18. Sea V = M2⇥2 (R) y la base ordenada estándar de


M2⇥2 (R). Esto es,
   
1 0 0 1 0 0 0 0
={ , , , }
0 0 0 0 1 0 0 1
Co

Tenemos que : M2⇥2 (R) ! R4 está dada por


2 3
a11
6a12 7
(A) = 6
4a21 5
7

a22

a11 a12
donde A = .
a21 a22
140 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Proposición 3.4.19. Sean V es un espacio vectorial de dimensión n y


una base ordenada de V . Entonces : V ! F n es un isomorfismo.

Demostración. Sea V un espacio vectorial de dimensión n,


= {x1 , x2 , . . . , xn } base ordenada de V y : V ! F n la representación
estándar de V con respecto a la base . Por el ejercicio 4 de la tarea 4, la

z
función : V ! F n es una transformación lineal.
2 3

en
0
607
6 7
Veamos que es inyectiva. Sea x 2 V tal que (x) = 6 .. 7 entonces
4.5
0


x = 0x1 + 0x2 + . . . + 0xn = ~0V

y por tanto N ( ) = {~0V }, lo que prueba que


dim(V ) = dim(F ) = n tenemos que
morfismo.
n
es inyectiva. Dado que
es biyectiva. Por tanto es un iso-

a
rin
Co
3.4. DEFINICIÓN DE ISOMORFISMO. 141

Concluiremos esta sección con el teorema 3.4.20 el cual nos permite ver más
claramente la relación que existe entre las transformaciones lineales defini-
das en espacios vectoriales dimensionalmente finitos y las transformaciones
lineales LA definidas en los espacios vectoriales F n , para n 2 N. Para ello,
necesitamos lo siguiente:

z
1. Sean V y W espacios vectoriales tales que dim(V ) = n y dim(W ) = m
y y bases ordenadas de V y W respectivamente.

en
2. Sea T : V ! W una transformación lineal y A = [T ] de m ⇥ n.

3. Sea

4. Sea

: V ! F n la representación estándar de V , dada por x 7! [x] .

: W ! F m la representación estándar de W , dada por x 7! [x] .

5. Sea LA : F n ! F m dada por x 7! Ax.


a
Consideremos el siguiente diagrama:
rin

T
V W

Fn Fm
Co

LA

Una pregunta natural es que relación existe entre la composición de funciones


T (en azul) y la composición LA . El teorema 3.4.20 establece que

T = LA

Cuando tenemos diagramas en los que ambas composiciones son iguales de-
cimos que el diagrama es conmutativo.
142 CAPÍTULO 3. MATRICES Y TRANSFORMACIONES LINEALES

Teorema 3.4.20. Sea T : V ! W una transformación lineal de un


espacio vectorial n-dimensional V sobre un campo F a un espacio m-
dimensional W sobre F . Sean y bases ordenadas, respectivamente,
para V y W , y sea A = [T ] . Entonces LA = T.

En la demostración necesitaremos utilizar el teorema 3.2.14 el cual enuncio

z
a continuación.

en
Teorema 1.2.14.- Sean V y W espacios vectoriales de dimensión finita
que tienen bases ordenadas y respectivamente y sea T : V ! W
una transformación lineal. Entonces para toda x 2 V tenemos:

[T (x)] = [T ] [x] .


a
Demostración. Si x 2 V entonces
rin

LA (x) = LA ( (x))
= LA ([x] )
= A[x]
= [T ] [x]
Co

= [T (x)]
= (T (x))
= T (x).


3.4. DEFINICIÓN DE ISOMORFISMO. 143

Ejemplo 3.4.21. Sea T : P3 (R) ! P2 (R) dada por T (f ) = f 0 . Sean


= {1, x, x2 , x3 } y = {1, x, x2 } bases ordenadas para P3 (R) y P2 (R)
respectivamente. Sean : P3 (R) ! R4 y : P2 (R) ! R3 represen-
taciones estándar para P3 (R) y P2 (R) respectivamente con respecto a
las bases y . Sea A = [T ] , entonces
0 1
0 1 0 0

z
A = @0 0 2 0 A
0 0 0 3

en
Sea p(x) = 3 2
+ 2x3+ 5x2 6x3 . Entonces
0 1
3 0 1 3 0 1
627 0 1 0 0 B C 2
2C @
LA = A6 455
7 = @0 0 2 0A B @ 5 A= 10 A
6

T (3 + 2x + 5x2
0


0 0 3
6
18
0
2
6x3 ) = (2 + 10x 18x2 = @ 10 A
18
1
a
rin
Co

También podría gustarte