Está en la página 1de 70

Fascı́culos de Álgebra Lineal

Transformaciones Lineales
Neptalı́ Romero
Universidad Centro Occidental Lisandro Alvarado
Decanato de Ciencias y Tecnologı́a
Departamento de Matemáticas

Noviembre, 2003
Índice general

1. Transformaciones Lineales 3
1.1. Definición y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1. Algunos ejemplos de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . 4
1.1.2. Transformaciones lineales de Kn en Km . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.3. Existencia de Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 17
1.1.4. Ejercicios Propuestos de la sección 1.1 . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2. Núcleo e Imagen de Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.1. Núcleo de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.2. Imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.2.3. Relación entre nulidad y rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.2.4. Invertibilidad e isomorfismos lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.2.5. Ejercicios Propuestos de la sección 1.2 . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3. Espacio de Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.3.1. Estructura vectorial de L(U, V ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.3.2. Álgebra de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.3.3. Ejercicios Propuestos de la sección 1.3 . . . . . . . . . . . . . . . . . . . . . . . . . 47
1.4. Transformaciones lineales y matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.4.1. Representaciones Matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.4.2. Cambios de bases y representaciones matriciales . . . . . . . . . . . . . . . . . . . 56
1.4.3. Espacio dual y Bases duales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1.4.4. Ejercicios Propuestos de la sección 1.4 . . . . . . . . . . . . . . . . . . . . . . . . . 65

2
1
Transformaciones Lineales

En el mundo de las Matemáticas son consideradas diferentes estructuras construidas axiomáticamente:


estructuras algebraicas, diferenciables, topológicas, etc. En presencia de cualquiera de unas tales estructu-
ras, se procede a estudiar las transformaciones las preservan. En el contexto que nos ocupa, la estructura
que estamos considerando es la estructura lineal; es decir, la estructura de espacio vectorial. Ası́ que en
esta parte de las notas nos dedicaremos ahora a estudiar las transformaciones que preservan la estructura
de espacio vectorial, estas transformaciones son conocidas como transformaciones lineales.

1.1. Definición y Ejemplos


Antes de introducir una definición de transformación lineal conviene presentar un ejemplo para mos-
trar el significado de “preservar la estructura lineal”. Este ejemplo, como veremos más adelante, puede
considerarse como universal en el contexto de los espacio vectoriales finito dimensionales. Consideremos
el conjunto Kn (n ≥ 1 y K = R ó C) cuyos elementos los consideramos como vectores (o matrices) unico-
lumnas. Sobre tal conjunto tomemos la estructura vectorial usual; es decir, la dada por las operaciones:
         
x1 y1 x1 + y1 x1 αx1
 x2   y2   x2 + y2   x2   αx2 
         
 . + . = .  y α  .  =  .  , con α ∈ K;
 ..   ..   ..   ..   .. 
xn yn xn + yn xn αxn

tomemos ahora cualquier matriz A ∈ Mn×m (K). Esta matriz induce una transformación del espacio Km
en el espacio Kn , la cual la denotamos por TA y es definida como la correspondencia que asocia a cada
X ∈ Km la matriz (o vector) unicolumna AX ∈ Kn ; esto es, TA : Km → Kn es dada por TA (X) = AX.
Se deduce de las conocidas propiedades de las operaciones de adición de matrices y de multiplicación de
un escalar por una matriz que:

para cada X, Y ∈ Km : TA (X + Y ) = TA (X) + TA (Y ), y

para todo α ∈ K y cada X ∈ Km : TA (α X) = α TA (X).

Observe que TA transforma la suma de los vectores X e Y en Km , en la suma de los vectores TA (X) y
TA (Y ) en Kn ; y también transforma el producto del escalar α ∈ K por el vector X de Km , en el producto
del mismo escalar por el vector imagen mediante TA del vector X; ¡este el significado de preservar la
estructura lineal!. Ahora la definición en abstracto:

Definición 1.1. Dados dos espacios vectoriales U y V sobre el mismo cuerpo K, decimos que una
aplicación T : U → V es una transformación lineal si cumple:

[L1] para todo u, v ∈ U : T (u + v) = T (u) + T (v), y

[L2] para todo α ∈ K y cada u ∈ U : T (α u) = α T (u).

Cuando V = U , se dice que T es un operador lineal; mientras que si V = K, entonces a T se le denomina


funcional lineal .

3
4 Fascı́culos de Álgebra Lineal

Al conjunto de todas las transformaciones lineales de U en V la denotamos mediante el sı́mbolo L(U, V );


al conjunto de todos los operadores lineales en el espacio vectorial lo denotamos por L(U ), y al conjunto
de todos los funcionales lineales definidos en el espacio vectorial U lo denotamos por U ⋆ .

Observación 1.1.

1. Por abuso de notación en la definición anterior se emplea en [L1] y [L2] los mismos sı́mbolos para
la adición y multiplicación por escalares tanto en U como V .

2. Una propiedad simple, pero importante, de cualquier transformación lineal es la siguiente: suponga
que T : U → V es una transformación lineal cualquiera. Sean 0U y 0V los vectores nulos de U y V
respectivamente. Dado que

T (0U ) = T (0U + 0U ) = T (0U ) + T (0U ),

entonces se deduce que T (0U ) = 0V . De esta forma, la propiedad simple a la que nos referimos
queda enunciada de la siguiente forma:
si T : U → V es una transformación lineal, entonces T envı́a el vector nulo del espacio
U en el vector nulo del espacio V .
Obviamente si T : U → V es tal que T (0U ) 6= 0V , entonces T no es una transformación lineal.

La siguiente proposición es una caracterización del concepto de transformación lineal que reune las
propiedades [L1] y [L2] en una sola.

Proposición 1.1. Sean U y V espacios vectoriales sobre K. Una aplicación T : U → V es una transfor-
mación lineal si, y sólo si, para todo u, v ∈ U y cada α ∈ K se cumple

T (u + α v) = T (u) + α T (v) [L]

Demostración: Supongamos inicialmente que T es lineal, es decir satisface [L1] y [L2]. Tomemos vec-
tores cualesquiera u y v en U , y cualquier escalar α ∈ K, entonces de [L1] y [L2] sigue que

T (u + α v) = T (u) + T (α v) = T (u) + α T (v),

por tanto T satisface [L].


Mostremos ahora que [L1] y [L2] se cumplen si T satisface [L]. Para todo u, v ∈ U y cada α ∈ K se
tiene
T (u + v) = T (u + 1 v) = T (u) + 1 T (v) = T (u) + T (v);
esto es, T satisface [L1]. Por otra parte,

T (α v) = T (0U + α v) = T (0U ) + α T (v) = 0V + α T (v) = α T (v);

por tanto T cumple [L2] y la demostración está completa.

1.1.1. Algunos ejemplos de transformaciones lineales


Ejemplo 1.1 (Matrices como transformaciones lineales). El primero de los ejemplos que pre-
sentaremos es el ya indicado al inicio. Esto es, dada una matriz A ∈ Mn×m (K) la transformación
TA : Km → Kn dada por TA (X) = AX define una transformación lineal, pues como indicamos, cuales-
quiera sean los vectores (unicolumnas) X, Y ∈ Km , y cualquiera sea el escalar α ∈ K, siempre se cumple
Transformaciones Lineales 5

 
2 −1
TA (X + α Y ) = TA (X) + α TA (Y ), ya que A(X + α Y ) = AX + α Y . En particular, si A = ,
0 1
   
x 2x − y
entonces TA = define una transformación lineal de K2 en K2 . De forma general, para
y y
 
a11 a12 · · · a1m
 a21 a22 · · · a2m 
A= 
 . . . . . . . . . . . . .  ∈ Mn×m (K), se tiene que
an1 an2 ··· anm
     
x1 x1 a11 x1 + a12 x2 + · · · + a1m xm
 x2   x2   a21 x1 + a22 x2 + · · · + a2m xm 
     
TA  .  = A  .  =  .. 
 ..   ..   . 
xm xm an1 x1 + an2 x2 + · · · + anm xm

define una transformación lineal de Km en Kn . Cuando n = 1 y A = [a1 a2 · · · am ], entonces


  
x1
  x2  
  
TA   .   = a 1 x1 + a 2 x2 + · · · + a m xm
 .. 
xm

define un funcional lineal TA : Km → K.


Ejemplo 1.2 (Transformación nula). Sean U y V dos espacios vectoriales cualesquiera sobre K.
Definimos O : U → V por O(u) = 0V para todo u ∈ U ; esto es, O envı́a cualquier vector de U en el
vector nulo del espacio vectorial V , por esta razón se le conoce con el nombre de transformación nula .
Veamos que en efecto O preserva la estructura lineal, es decir, satisface la condición [L] de la proposición
anterior. Cualesquiera sean los vectores u, v ∈ U y cualquiera sea el escalar α ∈ K, siempre se cumple:

O(u + α v) = 0V = 0V + α 0V = O(u) + α O(v).

Ejemplo 1.3 (Operador identidad). Sean U un espacio vectorial sobre K y W un subespacio de


U . La aplicación I : W → U dada por I(u) = u define una transformación lineal de W en U ; ésta es
conocida como transformación inclusión ; en el caso de W = U se le conoce como operador identidad . La
linealidad de I sigue obviamente de la igualdad I(u + α v) = u + α v = I(u) + α I(v), para todo u, v ∈ U
y cada α ∈ K.
Ejemplo 1.4 (Derivación de funciones). El ejemplo que a continuación presentaremos requiere de un
conocimiento previo muy básico del Cálculo Diferencial. Sea (a, b) (a < b) un intervalo en R, incluso puede
ser que (a, b) = (−∞, +∞). Consideremos los espacios vectoriales C 1 ((a, b), R) de todas las funciones
f : (a, b) → R que tienen derivada en cada punto x ∈ R y que además la derivada (x → f ′ (x)) es una
función continua; y sea C((a, b), R) el espacio vectorial de todas las funciones continuas de (a, b) en R.
Estamos asumiendo acá que las operaciones, tanto en C 1 ((a, b), R) como en C((a, b), R), son las usuales;
es decir, para cualquier par de funciones f y g en estos conjuntos y cualquier escalar α ∈ R, la suma de
f y g, f + g, y la multiplicación α f son definidas mediante

(f + g)(x) = f (x) + g(x) y (α f )(x) = α f (x) para todo x ∈ (a, b).

Entonces la aplicación D : C 1 ((a, b), R) → C((a, b), R) dada por D(f ) = f ′ , donde f ′ denota la derivada
de la función f , define una transformación lineal. Esto sigue de las conocidas propiedades del Cálculo
6 Fascı́culos de Álgebra Lineal

Diferencial: la derivada de la suma de dos funciones es la suma de las derivadas de cada una de ellas, y
la derivada del producto de un escalar y una función es el producto de dicho escalar por la derivada de
dicha función; es decir,

D(f + α g) = (f + α g)′ = f ′ + (α g)′ = f ′ + α g ′ = D(f ) + α D(g).

Ejemplo 1.5 (Integración de funciones). El ejemplo que ahora presentamos requiere del lector un
conocimiento elemental del Cálculo Integral. Sea F([a, b], R) el espacio de todas las funciones del intervalo
cerrado [a, b] en R (a < b) con las operaciones usuales de adición y multiplicación de un escalar por una
función. Es bien conocido que el conjunto C([a, b], R) de todas las funciones continuas de [a, b] en R es un
subespacio vectorial de F([a, b], R). Sea T : C([a, b], R) → F([a, b], R) la aplicación definida como sigue:
para cada función f ∈ F([a, b], R), su imagen por T es la función T (f ) : [a, b] → R dada por
Z x
T (f )(x) = f (t) dt para cada x ∈ [a, b].
a

Veamos que T es lineal; para ello mostremos que T satisface [L]; esto es, cualesquiera sean las funciones
continuas f, g : [a, b] → R y cualquiera sea el escalar α ∈ R, siempre se cumple

T (f + α g) = T (f ) + α T (g). (1.1)

Recordemos que dos funciones h1 : [a, b] → R y h2 : [a, b] → R son iguales si, y sólo si, h1 (x) = h2 (x)
para cada x ∈ [a, b]. Luego para demostrar (1.1) debemos verificar que

T (f + α g)(x) = T (f )(x) + α T (g)(x) para todo x ∈ [a, b].

Ahora bien, usando propiedades conocidas del Cálculo Integral tenemos:


Z x Z x
T (f + α g)(x) = (f + α g)(t) dt = (f (t) + α g(t)) dt
Zax Z x a
= f (t) dt + α g(t) dt = T (f )(x) + α T (g)(x);
a a

lo cual muestra que T es en efecto una transformación del espacio C([a, b], R) en F([a, b], R).
Empleando las mismas propiedades del Cálculo Integral se verifica que la aplicación que asigna a cada
Rb
f ∈ C([a, b], R) el valor S(f ) = a f (t)dt, define un funcional lineal del espacio C([a, b], R); se dejan los
detalles al lector.
Ejemplo 1.6 (Homotecias). Fijemos un escalar real α 6= 0. Asociemos a cada vector v ∈ R2 el vector
Hα (v) = α v. La transformación Hα : R2 → R2 ası́ definida es conocida como homotecia del plano.
Veamos que es una transformación lineal. Observe antes que la imagen mediante Hα de cualquier vector
v no nulo es otro vector en la misma dirección de v; es más, si α > 0, entonces v es dilatado si α > 1 y
contraido si es menor que 1. Por otro lado, si α < 0, entonces α v está en la misma dirección de v pero
con sentido opuesto; además, v es dilatado si α < −1 y contraido si es mayor que −1; ver figura 1.1. La
demostración de la linealidad de Hα es simple: dados u, v ∈ R2 y β ∈ R tenemos:

Hα (u + β v) = α(u + β v) = α u + α(β v)
= α u + αβ v = α u + β(α v) = Hα (u) + β Hα (v).

En general las homotecias son definidas en cualquier espacio vectorial U sobre K: fijado un número
real α 6= 0, se define Hα : U → U por Hα (u) = α u. La demostración de la linealidad es exactamente
la misma anterior. Observe que el espacio vectorial U puede ser incluso un espacio vectorial sobre los
números complejos.
Transformaciones Lineales 7

αv

0R2 0R2

Figura 1.1: Homotecia del plano con factor α

Ejemplo 1.7 (Rotaciones en el plano real). Fijemos un ángulo 0 ≤ θ < 2π y consideremos la


transformación Rθ : R2 → R2 que asocia a cada vector v ∈ R2 la rotación de tal vector en ángulo θ
medido en sentido antihorario, ver figura 1.2. A continuación justificaremos de “forma ilustrada” que Rθ

Rθ (v) θ

Figura 1.2: Rotación en ángulo θ

define un operador lineal en R2 . Note que la rotación en ángulo θ del vector nulo es el propio vector nulo;
además, al multiplicar cualquier vector por el escalar cero resulta el vector nulo, por tanto consideremos
cualquier vector no nulo v ∈ R2 y cualquier escalar no nulo α ∈ R. La figura 1.3 muestra la acción de
rotar en ángulo θ a los vectores v y αv. Gráficamente observe que Rθ respeta la multiplicación por un

v
θ θ v

Rθ (v) Rθ (v)
αv
0
Rθ (α v) 0 Rθ (α v)

αv θ

Figura 1.3: Rotación en ángulo θ de los vectores v y α v con 0 < α < 1 y −1 < α < 0 respectivamente.

escalar; esto es, Rθ (α v) = α Rθ (v). Ahora tomemos dos vectores no nulos u, v ∈ R2 , veamos la acción de
Rθ sobre el vector u + v y comparemos gráficamente tal vector resultante con el vector Rθ (u) + Rθ (v).
Como se podrá observar en la figura 1.4, al rotar en ángulo θ el paralelogramo definido mediante los
vectores u y v, obtenemos el paralelogramo definido por los vectores Rθ (u) y Rθ (v). Las diagonales de
tales paralelogramos son justamente los vectores u + v y Rθ (u) + Rθ (v) respectivamente. Esto indica que
Rθ también respeta la operación de adición de vectores; es decir Rθ (u + v) = Rθ (u) + Rθ (v); por tanto
(ilustradamente) Rθ es un operador lineal en R2 .
 
x
Dado un vector v = ∈ R2 , nos gustarı́a conocer una expresión algebraica para su imagen Rθ (v).
y
8 Fascı́culos de Álgebra Lineal

Rθ (u) + Rθ (v)
Rθ (v) u u+v
θ
θ
Rθ (u)
0 v

Figura 1.4: Preservación de la adición de vectores por Rθ .

   
1 0
Dado que Rθ es lineal y v = xe1 + ye2 , donde e1 = y e2 = son los vectores canónicos de
0 1
R2 , entonces para obtener la expresión de Rθ (v) bastará con conocer expresiones para Rθ (e1 ) y Rθ (e2 ),
pues Rθ (v) = xRθ (e1 ) + yRθ (e2 ). Los vectores e1 y e2 están anclados en el origen de R2 y sus puntos
  
1 x 2 2
finales están sobre el cı́rculo unitario S = : x + y = 1 . Rotemos e1 y e2 en ángulo θ, ver
y
la figura 1.5. Del conocimiento elemental de trigonometrı́a plana sabemos que si medimos (en sentido

Rθ (e1 ) e2

θ
θ
0 e1
Rθ (e2 )

S1

Figura 1.5: Rotación de los vectores canónicos.

antihorario) un ángulo 0 ≤ ρ < 2π a partir del semieje horizontal positivo, entonces las coordenadas
 
x0
del punto ∈ S1 , ver figura 1.6, son dadas por las ecuaciones x0 = cos(ρ) y y0 = sen(ρ), donde
y0
cos(ρ) y sen(ρ) denotan las funciones coseno y seno evaluadas en el ángulo ρ. De esta forma los vectores

x0
0
y0

S1

Figura 1.6: Representación polar de un vector.


Transformaciones Lineales 9

  
cos(θ) cos(θ + π2 )
Rθ (e1 ) y Rθ (e2 ) son justamente: Rθ (e1 ) = y Rθ (e2 ) = . Por otro lado, como
sen(θ) sen(θ + π2 )
cos(α + β) = cos(α) cos(β) − sen(α) sen(β), y sen(α + β) = sen(α) cos(β) + sen(β) cos(α), entonces
 
− sen(θ)
Rθ (e2 ) = . De esta forma,
cos(θ)
     
x cos(θ) − sen(θ)
Rθ = xRθ (e1 ) + yRθ (e2 ) = x +y
y sen(θ) cos(θ)
    
x cos(θ) − y sen(θ) cos(θ) − sen(θ) x
= = .
x sen(θ) + y cos(θ) sen(θ) cos(θ) y
     
x x cos(θ) − sen(θ)
Ası́, Rθ = Aθ , donde Aθ = ; la cual se le conoce con el nombre de matriz
y y sen(θ) cos(θ)
de rotación de ángulo θ.

Ejemplo 1.8 (Rotaciones complejas). Las rotaciones en ángulo θ que hemos descrito en el ejemplo
anterior pueden expresarse en el espacio vectorial complejo C. Sea z0 = x0 + iy0 el número complejo de
módulo 1 (x20 + y02 = 1) que hace con el semieje positivo horizontal el ángulo θ, ver figura 1.7.

z0 z

z0 θ
θ z

Figura 1.7: Vector de rotación de ángulo θ y la rotación del vector z

Se define Rθ : C → C por Rθ (z) = z0 z. Haciendo uso de la aritmética de números complejos se verifica


directamente que para todo z, w, β ∈ C se cumple

Rθ (z + β w) = Rθ (z) + βRθ (w);

es decir, Rθ es un operador lineal en C. Por la forma como fue escogido z0 , es claro que x0 = cos(θ)
mientras que y0 = sen(θ); luego si hacemos z = x + iy, entonces

z0 z = (x cos(θ) − y sen(θ)) + i(x sen(θ) + y cos(θ));

por lo que efectivamente, z0 z es justamente el vector obtenido a partir de z rotándolo en ángulo theta
medido en sentido antihorario. Note que no es una homotecia.

Ejemplo 1.9 (Homotecia y rotación). Hemos visto el efecto geométrico de multiplicar la matriz de
rotación de ángulo θ por un vector v de R2 : rotarlo en sentido antihorario en ángulo θ.
Examinaremos ahora el efecto que tiene sobre los vectores de R2 la multiplicación por cualquier matriz
con coeficientes en R y de la forma:
 
a −b
A= , con a2 + b2 > 0. (1.2)
b a
10 Fascı́culos de Álgebra Lineal

 a 
√ − rb 2 2
Lo primero será hacer r = a2 + b2 , sigue por tanto que A = r rb a ; y como ar + rb = 1,
 r r
cos(θ) − sen(θ)
entonces existe un ángulo 0 ≤ θ < 2π tal que A = r . De esta manera, si TA es la
sen(θ) cos(θ)
transformación lineal inducida por la matriz A, ver ejemplo 1.1, entonces la imagen de cualquier vector no
nulo v de R2 mediante TA , es decir TA (v) = Av, es la rotación de v en ángulo θ (en sentido antihorario)
multiplicado por el escalar r. Observe que toda matriz de rotación es del tipo (1.2) con r = 1.
De manera similar al ejemplo 1.8, esta composición de una homotecia y una rotación puede realizarse
mediante un operador lineal en C. En efecto, sea z0 = r(x0 + iy0 ) ∈ C fijo, donde r > 0 y x20 + y02 = 1. El
operador lineal T : C → C dado por T (z) = z0 z tiene el mismo efecto geométrico que el operador lineal
en R2 dado por matrices del tipo (1.2).

Ejemplo 1.10. No todas las matrices A ∈ M2×2 (R) son del tipo anterior; sin embargo, también puede
decirse como actúan geométricamente sobre  vectores del plano real. Veamos cual es tal efecto. Primero
a
recordemos que si tenemos un vector ∈ R2 , entonces existen r ≥ 0 y 0 ≤ θ < 2π de manera que
b
   
a cos(θ) √
=r ; de hecho r = a2 + b2 y θ es el ángulo, medido en sentido antihorario, entre el vector
b sen(θ)
 
a
dado y el vector canónico e1 ; esta es la representación polar del vector . Consideremos ahora cualquier
b
 
a b
matriz no nula A = con a, b, c, d ∈ R; (la matriz nula envı́a todos los vectores al vector nulo de
c d
R2 ) De lo anterior sigue que:
       
a cos(θ1 ) b cos(ρ1 )
= r1 y = r2 ,
c sen(θ1 ) d sen(ρ1 )
√ √
donde r1 = a2 + c2 , r2 = b2 + d2 , θ1 es el ángulo entre el vector dado por la primera columna de A
y e1 , mientras que ρ1 es el ángulo entre el vector que define la segunda columna de A y e1 . Sea θ2 el
ángulo medido en el sentido antihorario entre el vector de la segunda   columna
 de A y elvector canónico
b − sen(θ2 )
e2 . Es claro que θ2 = ρ1 − π2 ; luego es claro que podemos escribir = r2 . De esta forma
d cos(θ2 )
 
r1 cos(θ1 ) −r2 sen(θ2 )
la matriz A se escribe como A = . Una vez conocido esto se deducen:
r1 sen(θ1 ) r2 cos(θ2 )

la imagen de cualquier vector horizontal (v = α e1 ) por TA es igual a ese mismo vector rotado en
ángulo (antihorario) θ1 y multiplicado por el escalar r1 ; y

la imagen de cualquier vector vertical (v = α e2 ) por TA es igual a ese mismo vector rotado en
ángulo (antihorario) θ2 y multiplicado por el escalar r2 .

La figura 1.8 muestra la transformación, mediante TA , de un rectángulo de vértices 0pqr.


 
a
Ejemplo 1.11. Fijemos un vector en K2 . Definamos T : K2 → K como la función que asocia a
b
   
x x y
cada vector el determinante de la matriz . Se sigue de las propiedades elementales de los
y a b
Transformaciones Lineales 11

q′ p′

r q
TA θ2

0 p θ1

r′ 0

Figura 1.8: TA transforma el cuadrado 0acd en el paralelogramo 0a′ c′ d′

   
x z
determinantes que T es lineal; es decir, para todo
, ∈ K2 y cada α ∈ K se tiene:
y w
   
x z x + α z y + α w x y z w
T +α
= =

y w a b a b a b
   
x z
= T +αT .
y w
La linealidad también ocurre si en lugar de colocar los vectores como filas lo hubiesemos colocados como
columnas; esto es, tambı́en vale la identidad

x + α z a x a
= + α z a
y + α w b y b w b
   
x z
para todo , ∈ K2 y cada α ∈ K.
y w
Igualmente continúa siendo válida la linealidad si el vector de coordenadas x, y se coloca en la segunda
fila (resp. segunda columna).
Lo que acabamos de mostrar se puede generalizar a Rn (o Cn ) con n ≥ 3. Fijemos n − 1 vectores
v1 , · · · , vn−1 ∈ Kn (n ≥ 2) y definimos T : Kn → K por T (v) = det(v, v1 , · · · , vn−1 ); es decir, T (v) es
el determinate de la matriz cuyas columnas (o filas) son los vectores v, v1 , · · · , vn−1 , se demuestra que T
define un funcional lineal. También, como en el caso bidimensional, no importa el lugar donde coloquemos
al vector v, la linealidad sigue cumpliéndose.
Ejemplo 1.12 (Traza de una matriz). Otro ejemplo clásico de un funcional lineal lo constituye la
traza de una matriz cuadrada. Sea tr : Mn×n (K) → K la función dada por
n
X
tr(A) = a11 + a22 + · · · + ann = aii , (1.3)
i=1

donde A es la matriz cuya entrada en la fila i y columna j es el escalar aij ∈ K (i, j = 1, · · · , n). Esto es,
tr asocia a cada matriz cuadrada su traza, que es la suma de los elementos de la diagonal de A. Debido
a las propiedades conocidas de la adición de matrices y multiplicación por escales, es simple verificar que
tr es un funcional lineal; los detalles quedan para el lector.
Ejemplo 1.13 (Proyecciones). Las proyecciones son otro ejemplo de transformaciones lineales. Veamos
   
2 2 x x
en primer lugar su forma más simple. Sea P : R → R defina por P = ; es decir, P proyecta
y 0
12 Fascı́culos de Álgebra Lineal

 
x
cada vector v = sobre su primera componente vectorial; ver la figura 1.9. Es facil chequear que P es
y
lineal. De hecho,

0 P (v)

Figura 1.9: Proyección sobre la primera componente vectorial

           
x w x + αw x + αw x w
P +α = P = = +α
y z y + αz 0 0 0
   
x w
= P + αP
y z

Veamos otro casoparticular de proyecciones,


 ahora un poco más elaboradas. En R3 consideremos
   
 x  1
los subespacios V =  y : 2x + y − z = 0 y W el generado por el vector canónico e1 = 0 de R3 .
 
 
z 0
 
2
Observe que V representa al plano de R3 que pasa por el origen con vector normal N =  1 , mientras
−1
que
 W es la recta que pasa por el origen con vector director e1 . Una cuenta directa nos muestra que
  
 1 0 
 −1  , 1 es base de V , mientras que {e1 } es base de W . Afirmamos que R3 es suma directa de
 
1 1
los subespacios V y W ; esto es, cada vector de R3 se escribe de manera  única como la suma
 de un vector
 
 1 0 
en V y otro en W . De hecho, como e1 ∈ / V , entonces el conjunto  −1  , 1 , e1 constituye una
 
1 1
 
x
base de R3 (¡verifı́quelo!). Con esto, para cada y  ∈ R3 existen únicos escalares α, β, γ ∈ R tales que
z
       
x 1 0 1
y  = α  −1  + β 1 + γ 0 .
z 1 1 0

 α+γ =x
Para determinar tales escalares debemos resolver el sistema de ecuaciones lineales −α + β = y . Em-

α+β =z
Transformaciones Lineales 13

pleando el método de eliminación por filas de Gauss tenemos:


     
1 0 1 x 1 0 1 x 1 0 1 x
 −1 1 0 y  7−→  0 1 1 x + y  7−→  0 1 1 x+y 
1 1 0 z 0 1 −1 z − x 0 0 −2 −2x − y + z
   
1 0 1 x 1 0 0 − y2 + z2
7−→  0 1 1 x+y  7−→  0 1 0 y
2 + 2
z ;
0 0 1 x + y2 − z2 0 0 y
1 x+ 2 − 2 z

 
x
y z y z y z
con lo cual α = − + , β = + y γ = x + − . Luego R3 = V ⊕ W pues cada vector y  tiene
2 2 2 2 2 2
z
una única componente en el subespacio V , y una única en el espacio W ; de hecho:
   −y+z   2x+y−z 
x 2 2
y  = v + w; donde v =  y  y w =  0  .
z z 0
 
x
Esta descomposición R3 = V ⊕ W induce dos operadores lineales, uno de los cuales envı́a el vector y 
z
 −y+z     2x+y−z 
2 x 2
en su componente v =  y  en V ; el otro operador envı́a y  sobre su componente w =  0 
z z 0
en W .
Formalmente hemos definido las proyecciones de R3 sobre los subespacios V y W respectivamente
según la descomposición R3 = V ⊕ W ; esto es, hemos definido PV : R3 → R3 (la proyección de R3
sobre V a lo largo de W ) como ; y PW : R3 → R3 (la proyección de R3 sobre W a lo largo de V ) como
   2x+y−z 
x 2
PW y  =  0 . La verificación de que ambos, PV y PW , son lineales se dejan al lector.
z 0

Ejemplo 1.14 (Proyección de un subespacio a lo largo de otro). Los operadores lineales del
ejemplo anterior son factibles de generalizaciones a espacios vectoriales abstractos. Supongamos que U es
un espacio vectorial sobre K y que V, W son subespacios de U de manera que U = V ⊕ W ; esto significa,
como siempre, que cada vector u de U se escribe de forma única como la suma de un vector v ∈ V y un
vector w ∈ W . Se define entonces PV : U → U como PV (u) = v, siempre que v sea la componente en
V de la descomposición que tiene el vector u en la suma directa V ⊕ W . Esta transformación se conoce
con el nombre de proyección de U sobre V a lo largo de W . Veamos que PV es lineal. Sean u1 , u2 ∈ U ,
entonces existen únicos v1 , v2 ∈ V y w1 , w2 ∈ W tales que

u1 = v1 + w1 y u2 = v2 + w2 .

Note que si α ∈ K, entonces la descomposición del vector α u2 , en la suma directa V ⊕ W , es α v2 + α w2 ;


y la descomposición de u1 + α u2 es (v1 + α v2 ) + (w1 + α w2 ). De esta manera tenemos:

PV (u1 + α u2 ) = v1 + α v2 = PV (u1 ) + α PV (u2 );

lo cual demuestra que PV es un operador lineal en U .


14 Fascı́culos de Álgebra Lineal

1.1.2. Transformaciones lineales de Kn en Km


Al comienzo de este capı́tulo mencionamos que la transformación lineal del ejemplo 1.1 es en cierta
forma universal. Veamos esto inicialmente para las transformaciones lineales de Km en Kn (m, n ≥
1), y luego mostraremos que en efecto es universal para cualquier transformación lineal entre espacios
vectoriales de dimensión finita. Antes demostremos la siguiente propiedad general de las transformaciones
lineales:
Proposición 1.2. Si U y V son espacios vectoriales sobre K y T : U → V es una transformación lineal,
entonces cualesquiera sean los vectores u1 , · · · , un ∈ U y los escalares α1 , · · · , αn siempre se satisface

T (α1 u1 + · · · + αn un ) = α1 T (u1 ) + · · · + αn T (un ); (1.4)

lo que en notación de sumatorias se expresa por:


n
! n
X X
T αi ui = αi T (ui ). (1.5)
i=1 i=1

Demostración: La verificación de la identidad (1.4) la haremos por inducción sobre el entero n ≥ 1.


Claramente cuando n = 1 la identidad se satisface pues es justamente la condición [L2] de la definición
de transformación lineal. Cuando n = 2 tenemos:

T (α1 u1 + α2 u2 ) = T (α1 u1 ) + T (α2 u2 ) = α1 T (u1 ) + α2 T (u2 ).

Supongamos entonces como hipótesis inductiva que (1.4) se cumple para todo entero n entre 1 y k − 1.
Veamos que también se cumple para n = k. Tomemos k vectores u1 , · · · , uk y k escalares α1 , · · · , αk .
Entonces

T (α1 u1 + · · · + αk−1 uk−1 + αk uk ) = T ((α1 u1 + · · · + αk−1 uk−1 ) + αk uk )


= T (α1 u1 + · · · + αk−1 uk−1 ) + T (αk uk )
= α1 T (u1 ) + · · · + αk−1 T (uk−1 ) + αk T (uk ).

Lo cual demuestra la proposición.

Mantengamos ahora la notación unicolumna para los vectores de los espacios Kn , sea cual fuere
el entero n ≥ 1. Cuando sea necesario anunciaremos el cambio, es decir, diremos cuando usaremos la
notación de unifila para tales vectores; aunque el pase de una notación a otra está dada por la traspuesta
de tales objetos.
En el ejemplo 1.1, página 4, se mostró que si T : Kn → K es de la forma
   
x1 x1
 ..    . 
T  .  = a1 x1 + · · · + an xn = a1 · · · an  ..  (1.6)
xn xn
para escalares fijos a1 , · · · , an , entonces T es un funcional lineal. El siguiente corolario demuestra que el
recı́proco también es cierto; con ello quedan caracterizados los funcionales lineales de Kn .
Corolario 1.1. Si T : Kn → K es lineal, entonces existen escalares a1 , · · · , an en K tales que, para todo
 
x1
 .. 
vector v =  .  ∈ Kn se cumple
xn
T (v) = a1 x1 + · · · + an xn . (1.7)
Transformaciones Lineales 15

Demostración: En Kn sea {e1 , · · · , en } la base canónica. Para cada i ∈ {1, · · · , n} sea ai = T (ei ). Dado
 
x1
 .. 
que cualquier vector v =  .  ∈ Kn se escribe como v = x1 e1 + · · · + xn en , entonces de la proposición
xn
anterior sigue que

T (v) = T (x1 e1 + · · · + xn en ) = x1 T (e1 ) + · · · + xn T (en )


= x1 a 1 + · · · + x n a n = a 1 x1 · · · + a n xn ;

por tanto la demostración del corolario está completa.

Por tanto podemos escribir:

Corolario 1.2. Toda T : Kn → K es un funcional lineal si, y sólo si, se expresa como (1.6).

Ejemplo 1.15. Haciendo uso de la caracterización anterior tenemos que:


 
x
1. T = 2x − y define un funcional lineal de K2 pues se escribe como (1.6);
y
   
x 2 x
2. mientras que T =x −y y T = cos(x + y) no definen funcionales lineales ya que no
y y
pueden expresarse como (1.6).

En la misma lı́nea de argumentos, y como es natural en los procesos deductivos, surge la pregunta:
¿existe una caracterización semejante a la que hemos dado a los funcionales lineales para las transforma-
ciones lineales de Kn en Km ? La respuesta es: sı́ existe. ¡Vamos a descubrirla!
Primero observemos que si T : Kn → Km es cualquier aplicación de Kn en Km (no necesariamente
lineal), entonces existen funciones T1 , · · · , Tm : Kn → K tales que, para cada v ∈ Kn se tiene
 
T1 (v)
 
T (v) =  ...  ; (1.8)
Tm (v)

las funciones T1 , · · · , Tm son denominadas las funciones componentes de la aplicación T .


Basados en esta forma de escribir a T surge la inquietud por saber si existe una relación entre las
propiedades de linealidad de T y de sus funciones componentes T1 , · · · , Tm . Tal inquietud es respondida
en la siguiente proposición:

Proposición 1.3. Dada T : Kn → Km como en (1.8). Entonces, T es una transformación lineal si, y
sólo si, cada Ti : Kn → K (i = 1, · · · , m) es un funcional lineal.

Demostración: Sabemos que T es lineal si, y sólo si, T satisface la identidad [L] (ver proposición 1.1);
es decir, para cada u, v ∈ Kn y todo α ∈ K se cumple T (u + α v) = T (u) + α T (V ), equivalentemente:
     
T1 (u + α v) T1 (u) T1 (v)
 ..   .   . 
T (u + α v) =  .  = T (u) + α T (V ) =  ..  + α  ..  ;
Tm (u + α v) Tm (u) Tm (v)
16 Fascı́culos de Álgebra Lineal

dado que
     
T1 (u) T1 (v) T1 (u) + α T1 (v)
 ..   .   .. 
 .  + α  ..  =  . ;
Tm (u) Tm (v) Tm (u) + α Tm (v)
se concluye que T es lineal si, y sólo si, para cada i = 1, · · · , m, cada u, v ∈ Kn y todo α ∈ K se tiene
Ti (u + α v) = Ti (u) + α Ti (v). En otras palabras, T es lineal si, y sólo si, cada una de sus funciones
componentes es un funcional lineal.

Esta proposición junto a la caracterización dada para los funcionales lineales de Kn en K, ver corolario
(1.2), permite caracterizar cualquier transformación lineal de Kn en Km . En efecto:

Proposición 1.4. T : Kn → Km es una transformación


  lineal si, y sólo si, existe una única matriz
x1
 
A = [aij ] ∈ Mm×n (K) tal que, para todo v =  ...  ∈ Kn vale la identidad
xn
    
a11 ··· a1n x1 a11 x1 + · · · + a1n xn
 ..   ..   .. 
T (v) =  .  .  =  . . (1.9)
am1 ··· amn xn am1 x1 + · · · + amn xn

Demostración: Supongamos que T : Kn → Km es una transformación lineal y que T1 , · · · , Tm son sus


funciones componentes. Dados que cada Ti (i = 1, · · · , m) es un funcional lineal, entonces para cada
i = 1, · · · , m existen escalares ai1 , · · · , ain ∈ K tales que
 
x1
 
Ti (v) = ai1 x1 + · · · + ain xn , siempre que v =  ...  .
xn
 
a11 ··· a1n
 .. 
De esta forma, T es lineal si, y sólo si, existe A =  .  ∈ Mm×n (K) tal que
am1 ··· amn
      
a11 x1 + · · · + a1n xn a11 ··· a1n x1 x1
 .
..   ..   ..   .. 
T (v) =  = .   .  , si v =  .  .
am1 x1 + · · · + amn xn am1 ··· amn xn xn

Mostremos ahora la unicidad de la matriz A. Supongamos que A, B ∈ Mm×n (K) son tales que
T (v) = Av = Bv para cada v ∈ Kn (pensado como vectores unicolumnas). Nótese que para cualquier
vector canónico ei (i = 1, · · · , n) de Kn y cualquier matriz C ∈ Mm×n (K), se tiene que Cei es justamente
la i-ésima columna de la matriz C. Luego de Av = Bv para cada v ∈ Kn , se deduce que ambas matrices
tienen las mismas columnas, pues Aei = Bei para cada vector canónico ei (i = 1, · · · , n). Esto implica
que A = B.

Con esta proposición hemos caracterizado las transformaciones lineales del espacio Kn en el espacio
m
K , sean cuales fueren los enteros positivos n y m. Además, justifica “la universalidad” de las transfor-
maciones lineales en el ejemplo 1.1.
Transformaciones Lineales 17

 
  2x + y
x
Ejemplo 1.16. La aplicación T : R2 → R3 dada por T = x2 + 3y  no es una transfor-
y
0
mación lineal pues no es posible expresarla como la identidad 1.9; de hecho la función componente
 
    2x + y
x x
T2 = x2 + 3y no es lineal. No obstante, si hacemos T = x + 3y , entonces T si define
y y
0
 
  2 1  
x x
una transformación lineal de R2 en R3 pues T = 1 3 , o equivalentemente, cada función
y y
0 0
componente es un funcional lineal.

Comentario 1.1. Como el lector habrá notado, hasta ahora hemos venido considerando los vectores en
los espacios Kn (n ≥ 1) como vectores (o matrices) unicolumnas. Bajo esta consideración obtuvimos una
forma universal de escribir las transformaciones lineales entre este tipo de espacios vectoriales. Segura-
mente habrá pasado por la mente del lector la pregunta: ¿qué ocurre si en lugar de haber hecho esta
consideración se hubiese asumido que los vectores de los espacios Kn (n ≥ 1) son unifilas (n-úplas)? Pues
la situación no hubiese variado mucho, excepto que en este caso la forma universal de las transformaciones
lineales entre estos espacios es como sigue. Si los vectores de los espacios Kn (n ≥ 1) son de la forma
 
v = x1 · · · xn , entonces T : Kn → Km es una transformación lineal si, y sólamente si, existe una
 
a11 a12 · · · a1m
 a21 a22 · · · a2m 
única matriz A =  
. . . . . . . . . . . . . . . . . . . . en Mn×m (K) tal que
an1 an2 ··· anm
 
a11 a12 · · · a1m
   a21 a22 · · · a2m 
T (v) = x1 ··· xn  
 . . . . . . . . . . . . . . . . . . . . .
an1 an2 · · · anm

Los detalles de la demostración de esta afirmación quedan a cargo del lector.

Esta consideración dual sobre la forma que pudiesen asumir los vectores de los espacios Kn (n ≥ 1)
quizá introduzca cierto “ruido” en la comprensión de los resultados que acá se exponen. No obstante
alertamos al lector que a pesar de estar latente esta posibilidad, emplearemos ambas consideraciones;
dejando claro que una vez se fije la forma que tienen estos vectores en determinada situación, ésta se
mantendrá en el análisis que se esté realizando.

1.1.3. Existencia de Transformaciones lineales


El siguiente resultado es de gran importancia para construir transformaciones lineales de un espacio
de dimensión finita en cualquier otro espacio vectorial (no necesariamente finito dimensional); además,
una tal transformación lineal sólo depende de los valores asignados a una base fijada del espacio de salida.
Más explı́citamente:

Teorema 1.1. Sean U y V espacios vectoriales sobre K con U de dimensión finita n ≥ 1. Dada una
base {u1 , · · · , un } de U y vectores cualesquiera v1 , · · · , vn de V , existe una única transformación lineal
T : U → V tal que T (ui ) = vi para cada i = 1, · · · , n.
18 Fascı́culos de Álgebra Lineal

Demostración: Probemos primero la existencia de una tal transformación lineal. Dado que {u1 , · · · , un }
es base de U , entonces para cada u ∈ U existen únicos escalares α1 , · · · , αn en K tales que

u = α1 u1 + · · · + αn un . (1.10)

Definamos T (u) = α1 v1 +· · ·+αn vn , siempre que u satisfaga (1.10). Afirmamos que T es lineal y satisface
lo requerido, es decir T (ui ) = vi para todo i = 1, · · · , n. Esta segunda parte es clara pues cada vector
básico ui (i = 1, · · · , n) se escribe de manera única como

ui = 0u1 + · · · + 0ui−1 + 1ui + 0ui+1 + · · · + 0un ,

luego de la definición que hemos dado a T sigue que

T (ui ) = 0v1 + · · · + 0vi−1 + 1vi + 0vi+1 + · · · + 0vn = vi .

Veamos entonces la linealidad de T . Sean u, v ∈ U y α ∈ K, luego existen escalares α1 , · · · , αn , β1 · · · , βn


en K de tal forma que

u = α1 u1 + · · · + αn un y v = β1 u1 + · · · + βn un ;

por tanto, la forma única de escribir al vector u + α v es

u + α v = (α1 + αβ1 ) u1 + · · · + (αn + αβn ) un .

Entonces de la definición de T se tiene

T (u + α v) = (α1 + αβ1 ) v1 + · · · + (αn + αβn ) vn


= α1 u1 + · · · + αn un + α(β1 u1 + · · · + βn un )
= T (u1 ) + α T (v) (¿por qué?).

Lo cual muestra que T es lineal y T (ui ) = vi para i = 1, · · · , n.


Verifiquemos por último que T es la única transformación lineal con la propiedad descrita. Para ello
supongamos que T1 : U → V es otra transformación lineal tal que T1 (ui ) = vi para todo i = 1, · · · , n, y
mostremos que T (u) = T1 (u) para todo u ∈ U . Tomemos un vector cualquiera u ∈ U , como antes, existen
únicos escalares α1 , · · · , αn en K tales que u = α1 u1 + · · · + αn un . Como T1 la hemos supuesto lineal,
entonces tenemos:

T1 (u) = T1 (α1 u1 + · · · + αn un ) = α1 T1 (u1 ) + · · · + αn T1 (un )


= α1 v1 + · · · + αn vn = T (u) (¿por qué?),

luego la demostración del teorema está completa.

Ejemplo 1.17. Pensemos en R3 y R4 como los espacios vectoriales reales de las 3-úplas y 4-úplas,
respectivamente. Sean v1 = (1, 1, 0), v2 = (0, 1, 1), v3 = (0, 1, −1); w1 = (0, 0, 0, 0), w2 = (−1, 1, 0, −1)
y w3 = (2, 1, −1, 1) vectores en tales espacios. Nos preguntamos si existe una transformación lineal
T : R3 → R4 tal que T (vi ) = wi para cada i = 1, 2, 3. De acuerdo al teorema anterior, si el conjunto
{v1 , v2 , v3 } es base de R3 , entonces existe una única transformación lineal que envı́a vi en wi para cada
i = 1, 2, 3. Por tanto lo primero es averiguar si {v1 , v2 , v3 } es o no una base de R3 . Recordemos que si
agrupamos estos vectores en una matriz (cada uno de ellos es una de las filas de tal matriz), entonces
v1 , v2 , v3 son linealmente independientes si, y sólo si, esa matriz es invertible (tiene rango máximo). En
Transformaciones Lineales 19

 
1 1 0
nuestro caso, la matriz a la que nos estamos refiriendo es A =  0 1 1 . Empleando el método de
0 1 −1
reducción por filas tenemos que:
       
1 1 0 1 1 0 1 1 0 1 0 0
 0 1 1 −7 → 0 1 1 −7 → 0 1 1 −7 →  0 1 0 ;
0 1 −1 0 0 −2 0 0 −1 0 0 1

es decir, la matriz escalonada reducida por fila de A es la matriz identidad, esto implica que A es
invertible; por tanto {v1 , v2 , v3 } es una base de R3 . Luego el teorema 1.1 garantiza la existencia de una
única T : R3 → R4 lineal tal que T (vi ) = wi para cada i = 1, 2, 3.
Para conocer una expresión algebraica de esta transformación lineal requerimos expresar cualquier
(x, y, z) como combinación lineal de v1 , v2 , v3 , pues esto permite conocer la imagen de (x, y, z) en términos
de las imagénes de los vectores v1 , v2 , v3 . Ahora bien, una cuenta simple muestra que

 α1 = x
(x, y, z) = α1 v1 + α2 v2 + α3 v3 si, y sólo si, α + α2 + α3 = y ;
 1
α2 − α3 = z

por lo que mediante algún método conocido para la resolución de sistemas de ecuaciones lineales tenemos:
−x + y + z −x + y − z
α1 = x, α2 = y α3 = ,
2 2
de aqui entonces que

T (x, y, z) = α1 w1 + α2 w2 + α3 w3
−x + y − 3z x−y+z
= ( , −x + y, , −z).
2 2
Pensamos que en este punto es interesante retomar aquella discusión de como son considerados los
vectores de los espacios Kn (n ≥ 1); esto es: unifilas y unicolumnas. Si mantenemos el supuesto de
considerar estos vectores como unifilas, entonces la transformación lineal T se expresa como:
 
    −1/2 −1 1/2 0
T( x y z )= x y z  1/2 1 −1/2 0 ;
−3/2 0 1/2 −1

mientras que si expresamos los vectores de R3 y R4 como matrices unicolumnas, entonces T se escribe
matricialmente como  
   −1/2 1/2 −3/2  
x  −1 x
     1 0 
 
T y = y ,
1/2 −1/2 1/2 
z z
0 0 −1
dejamos los detalles al lector. ¿Qué relación existe en estas dos representaciones?

Ejemplo 1.18. El teorema 1.1 es muy preciso pues asegura la existencia y unicidad de una transfor-
mación lineal sujeta a ciertas condiciones iniciales, éstas son: el espacio donde está definida la requerida
transformación lineal debe ser de dimensión finita, y el conjunto de vectores sobre los cuales se está im-
poniendo determinadas imagénes debe constituir una base del espacio de salida; observe que ninguna
20 Fascı́culos de Álgebra Lineal

condición sobre la dimensión del espacio de llegada es impuesta. Sin embargo, a veces (no siempre) es
posible construir transformaciones lineales sujetas a condiones iniciales que no están en el marco del
enunciado del enunciado del teorema 1.1. Veamos un ejemplo.
En R2 consideremos los vectores v1 = (1, −1) y v2 = (−2, 2). Queremos saber si existe al menos una
transformación lineral T : R2 → R4 tal que

T (v1 ) = (−1, 0, 1, 1) y T (v2 ) = (2, 0, −2, −2).

Observe que {v1 , v2 } no es base de R2 pues v2 = −2 v1 . De manera que el procedimiento expuesto en


la demostración del teorema 1.1 no es aplicable. Note también que de existir una tal transformación
lineal T , como v2 = −2 v1 , entonces T (v2 ) = −2 T (v1 ) pues de lo contrario T no serı́a lineal. En nuestro
caso esta condición está satisfecha; la cual no ocurre si por ejemplo hubiesemos impuesto la condición
T (v2 ) = (1, 1, 1, 1).
Entonces como T (v2 ) = −2 T (v1 ), podemos recurrir a un mecanismo que nos permita construir una
tal transformación lineal. Tomemos un vector v3 cualquiera de R2 de manera que {v1 , v3 } sea base de R2 ,
por ejemplo v3 = (1, 0); a tal vector le asignamos una imagen cualquiera, por ejemplo T (v3 ) = (0, 0, 0, 0),
y procedemos como antes. Al escribir (x, y) ∈ R2 como combinación lineal de v1 y v3 tenemos (x, y) =
−y v1 + (x + y) v3 de donde

T (x, y) = −y T (v1 ) + (x + y) T (v3 ) = (y, 0, −y − y).

Note que según esta ley de correspondencia T (v2 ) = (2, 0, −2, −2), lo cual es claro por construcción.
Por otra parte, si asignamos a v3 otra imagen, tendremos otra transformación lineal. Por ejemplo, si
T (v3 ) = (1, 1, 1, 1), entonces

T (x, y) = −y (−1, 0, 1, 1) + (x + y) (1, 1, 1, 1) = (x + 2y, x + y, x, x);

de hecho bajo las consideraciones impuestas, existen infinitas transformaciones lineales T de R2 en R4


que satisfacen T (v1 ) = (−1, 0, 1, 1) y T (v2 ) = (2, 0, −2, −2).

1.1.4. Ejercicios Propuestos de la sección 1.1


1. ¿Cuáles
de
las siguientes
 aplicaciones
 deR2
en R2 definen transformaciones
 lineales?
  
x 2x − 3y x sen(x) x 1
a) T = b) T = c) T =
y 0 y ex−y y 1
       2     
x y x x +y x ax + by
d) T = e) T = f) T =
y x y x+y y cx + dy

2. Sea C2 = {(x + iy, w + iz) : x, y, w, z ∈ R} el espacio vectorial sobre C con la operaciones usuales de
adición y multiplicación por escalares. ¿Cuáles de las siguientes aplicaciones T : C2 → C2 definen
transformaciones lineales?

a) T (x + iy, w + iz) = (x + iy, (w − 1) + iz)


b) T (x + iy, w + iz) = (xy, w + ix).
c) T (x + iy, w + iz) = ((2 + i)(x + iy), 3z).
d ) T (x + iy, w + iz) = ((2x + w − z) + i(2y + w + z), (x + y + w) + i(−x + y + z))
e) T (x + iy, w + iz) = (cos(x)(x + iy), w + iz)
Transformaciones Lineales 21

3. Considere C2 como en el ejercicio anterior. Determine la expresión general de cualquier transfor-


mación lineal de C2 en C, y de C2 en C2 .
Generalizar la respuesta; esto es, al considerar los vectores de Cn como n-úplas (w1 , · · · , wn ) con
wj ∈ C para cada j = 1, · · · , n, determinar la expresión general que tienen las transformaciones
lineales de Cn en Cm . ¿Cuál es la expresión general de las transformaciones lineales Cn en Cm al
considerar los vetores de tales espacios como vectores unicolumnas?

4. Sea CR el espacio vectorial de los números complejos sobre el cuerpo de los números reales; esto es,
C dotado de la adición usual de números complejos, pero la multiplicación por escales es sobre R;
esto es, para todo α ∈ R y cada x + iy ∈ C se tiene: α(x + iy) = αx + iαy.
¿Cuáles de las siguientes aplicaciones T : CR → R definen funcionales lineales?

a) T (x + iy) = 2x.
b) T (x + iy) = x − tan(y).
c) T (x + iy) = x + 3y − 2.
d ) T (x + iy) = ax + by, con a, b ∈ R fijos.

Determine la forma general que tienen las T : CR → R que son lineales.

5. Con la misma notación del ejercicio anterior. ¿Cuáles de las siguientes aplicaciones T : CR → CR
definen transformaciones lineales?

a) T (x + iy) = (2x − y) + i(x + 2y).


b) T (x + iy) = x3 + i(x − 2y).
c) T (x + iy) = x + y

Determine la forma general que tienen las transformaciones lineales de CR en CR . ¿Existen ejemplos
de transformaciones lineales T : CR → CR que no sean lineales cuando se consideran de C en C?

6. ¿Existe una transformación lineal T : R2 → R3 que satisfaga las condiciones que se imponen?
   
  0   2
1 1
a) T = 0 y T = 1.
1 −1
0 1
   
  0     2
1 −1 1
b) T = 0 = T y T = 1.
1 3 −1
0 1
   
  0   0
1   2
c) T = 1 y T = 1.

0 0
0 2

7. ¿Existe una transformación lineal T : R3 → R2 que satisfaga las condiciones que se imponen?
     
1   0   0  
0 1 0
a) T 1 = , T 1 = y T 1 = .
1 1 0
0 0 1
     
1   0   1  
0 1 0
b) T 1 = , T 1 = y T 2 = .
1 1 0
0 0 0
22 Fascı́culos de Álgebra Lineal

   
1   2  
   0    0
c) T 1 = y T 2 = .
1 0
0 0

8. ¿Existe una transformación lineal T : C2 → C2 que satisfaga las condiciones que se imponen?

a) T (i, 1) = (2 + i, −i), T (1, 0) = (1, 1 + i).


b) T (1, i) = (1 + i, 1 − i), T (2 + i, −1 + 2i) = (0, 0).

9. Sea P2 (R) el espacio de todas las funciones polinómicas de grado menor o igual a 2 dotado de
las operaciones usuales de adición de polinomios y de multiplicación de un número real por un
polinomio. ¿Existe una transformación lineal T : P2 (R) → R que satisfaga las condiciones que se
imponen?

a) T (1) = 1, T (x) = 0, T (x2 ) = −1.


b) T (1) = 0, T (x) = −1, T (1 + x) = 2.
c) T (1) = 0, T (1 + x) = 1, T (1 − x2 ) = 0

10. Suponiendo que los vectores de los espacios Kn (n ≥ 1) son matrices unifila (n-úplas), demostrar
que T : Kn → Km es una transformación lineal si, y sólo si, existe una única matriz A ∈ Mn×m (K)
tal que, para cada v ∈ Kn se tiene T (v) = vA. Ver final del comentario 1.1, página 17.
 
x
11. Sea Pα : R2 → R2 la aplicación que envı́a el vector v = en el vector Pα (v), el cual está sobre la
y
 
1
recta Lα de ecuación y = α x, para α ∈ R fijo, de tal manera que Pα (v) − v sea ortogonal a ; ver
α
la figura 1.10(a). Demostrar que Pα es lineal. Esta transformación lineal se conoce con el nombre de

v v

Lα Lα
Pα (v)
Pα (v)

(a) (b)
Rα (v)

Figura 1.10: (a) Proyección sobre y = α x (b) Reflexión sobre y = α x

proyección ortogonal sobre la recta Lα . Determine la matriz A de orden 2 × 2 tal que Pα (v) = Av
 
x
para todo v = .
y

12. Proceder como en el ejercicio anterior para la aplicación Rα : R2 → R2 que se muestra en la parte
(b) de la figura 1.10. Acá, los vectores v − Pα (v) y Rα (v) − Pα (v) tienen la misma norma, y este
Transformaciones Lineales 23

 
1
último vector es ortogonal a . El operador Rα se conoce con el nombre de reflexión sobre la
α
recta Lα .

13. Demostrar que la función traza de una matriz: tr : Mn×n (K) → K con:
n
X
tr(A) = a11 + a22 + · · · + ann = aii ,
i=1

es un funcional lineal; acá, a11 , a22 , · · · , ann son los elementos de la diagonal de la matriz A.

14. Sean A ∈ Mn×m (K) fija. Sea T : Km → Kn dada por TA (X) = AX. Demostrar que TA es la
transformación lineal nula si, y sólo si, A es la matriz nula.
   
a12 a1n
 a22   a2n 
   
15. Sea n un entero mayor o igual a 2. Fijemos n − 1 vectores v2 =  .  , · · · , vn =  .  . Para
 ..   .. 
an2 ann
 
x1 x1 a12 · · · a1n
 x2 
  x a22 · · · a2n
cada v =  .  se define T : Kn → K por T (v) = 2 . Demostrar que T es una
 ..  . . . . . . . . . . . . . . . . . . .
x · · · ann
xn n a2n
transformación lineal. Igualmente ocurre si en lugar de ubicar a v en la primera columna, se ubica
en cualquier otra; e incluso cambiando las columnas por filas.
 
4 4
16. Sea A = . Determine el efecto de la transformación lineal TA (X) = AX en el plano R2
−4 4
sobre:

a) el triángulo de vértices en los puntos a = (0, 0), b = (1, 0) y c = (0, 1);


b) el cuadrado de vértices en los puntos a = (0, 0), b = (1, 0), c = (0, 1) y d = (1, 1); y
c)el cı́rculo de centro en el origen y radio 1.
 √ 
4 −√2
17. Sea A = . Determine el efecto de la transformación lineal TA (X) = AX en el plano R2
4 2
sobre:

a) el triángulo de vértices en los puntos a = (0, 0), b = (1, 0) y c = (0, 1);


b) el cuadrado de vértices en los puntos a = (0, 0), b = (1, 0), c = (0, 1) y d = (1, 1); y
c) el cı́rculo de centro en el origen y radio 1.
 
a b
18. Dada una matriz cualquiera A = ∈ M2×2 (R). ¿Es cierto que TA (X) = AX transforma
c d
triángulos en triángulos, paralelogramos en paralelogramos y cı́rculos en cı́rculos?.

19. Sea C 2 ((a, b), R) el espacio de las funciones de clase C 2 (dos veces diferenciables con segun-
da derivada continua) definidas en el intervalo abierto (a, b) (a < b) dotado de las operaciones
usuales de adición de funciones y multiplicación de un escalar por una función. Demostrar que
D : C 2 ((a, b), R) → C((a, b), R) dada por D(f ) = f ′′ − 2f ′ + 4f es una transformación lineal. ¿Con-
tinúa siendo lineal si D(f ) = αf ′′ + βf ′ + γf + δ cualesquiera sean las constantes α, β, γ, δ ∈ R?
24 Fascı́culos de Álgebra Lineal

20. Fijados B ∈ Mn×n (R) y α ∈ R, se define T : Mn×n (R) → Mn×n (R) por T (A) = AB + αBA.
Demostrar que T es lineal.

21. En R3 considere los subespacios vectoriales U = {(x, y, z) : 2x − y + z = 0} y W el generado por


el vector v = (1, 1, 1). Demostrar que R3 = U ⊕ W . Determine las proyecciones PU y PW (de R3
sobre U (resp. W ) a lo largo de W (resp. U )).

22. Sean V, W espacios vectoriales sobre K con V de dimensión finita n ≥ 1. Si T1 y T2 son transforma-
ciones lineales de V en W , demostrar que T1 = T2 si, y sólo si, para cualquier base B = {v1 , · · · , vn }
de V se tiene que T1 (vi ) = T2 (vi ) para todo i = 1, · · · , n.

23. Sean V un espacio vectorial sobre K de dimensión finita n ≥ 1 y B = {v1 , · · · , vn } una base de V .

1 si i = j
Para cada j = 1, · · · , n determine el funcional lineal fj : V → K tal que fj (vi ) = .
0 si i 6= j
Demostrar que para cada f : V → K lineal existen únicos escalares α1 , · · · , αn ∈ K tales que,
f = α1 f1 + · · · + αn fn .

1.2. Núcleo e Imagen de Transformaciones lineales


En el estudio de las transformaciones lineales existen dos subespacios que juegan un papel importante
en la caracterización de ciertas propiedades de este tipo de aplicaciones. En esta sección introducimos
tales subespacios y estudiamos sus propiedades básicas.

1.2.1. Núcleo de una transformación lineal


Definición 1.2. Dada una transformación lineal T : U → V , se conoce con el nombre de núcleo de T ,
también se le denomina espacio nulo de T , al conjunto de todos los vectores u ∈ U cuya imagen por T es
el vector nulo de V ; esto es, un vector u del espacio vectorial U está en el núcleo de T si se cumple que
T (u) = 0V .

En adelante emplearemos la notación N (T ) para representar el núcleo de la transformación lineal


T . Es claro entonces que el núcleo de la T es el conjunto N (T ) = {u ∈ U : T (u) = 0V }. Observe que
N (T ) es siempre un subconjunto no vacı́o de U , pues al menos contiene al vector nulo de U ya que toda
transformación lineal T : U → V satisface T (0U ) = 0V .

Es frecuente encontrar en diferentes bibliografı́as el nombre de kernel de T para referirse al núcleo


de la transformación lineal T ; en tales casos, a este conjunto se le asigna la notación de ker(T ). Esta
nomenclatura y notación proviene del vocablo alemán “kernel” que significa núcleo.

Ejemplo 1.19. Los ejemplos más simples de núcleos de transformaciones lineales son justamente los
siguientes:

Sean U y V espacios vectoriales sobre K. El núcleo de la transformación nula O : U → V es todo


el espacio U , pues para cada u ∈ U , O(u) = 0V .

Si W es un subespacio vectorial de U , entonces el núcleo de la transformación lineal inclusión


I : W → U , ver ejemplo 1.3 de la página 5, está formado exclusivamente por el vector nulo de W
(que es el mismo de V ), pues I(w) = w para todo w ∈ W .
Transformaciones Lineales 25

Ejemplo 1.20. Para el funcional lineal T : R3 → R dado por T (x, y, z) = x + 2y − z, su núcleo es


N (T ) = {(x, y, z) ∈ R3 : x + 2y − z = 0}; es decir, el núcleo de T es el plano de R3 que pasa por el origen
con vector normal N = (1, 2, −1); este conjunto es, por definición, el formado por los vectores de R3 que
son enviados por T en el vector nulo de R.
Ejemplo 1.21. Pensemos en R3 y R2 formado por vectores unicolumnas.
 Al considerar la transformación
−1 0 1
lineal TA : R3 → R2 dada por TA (v) = Av, donde A = ; tenemos como su núcleo al conjunto
2 1 2
 
x
de todos los vectores unicolumnas v = y  tales que Av = 0; en otras palabras, el núcleo de TA es el

z
 
x 
−x + z = 0
conjunto de vectores v = y  tales que . Por tanto, N (TA ) es el espacio solución del
2x + y + 2z = 0
z

−x + z = 0
sistema homogéneo de ecuaciones lineales .
2x + y + 2z = 0
Ejemplo 1.22. De manera general siempre podemos identificar el núcleo de cualquier transformación
lineal entre los espacios Km y Kn con espacios soluciones de ciertos sistemas de ecuaciones lineales
homogéneos. Veamos como se obtiene tal identificación.
Consideremos una matriz cualquiera A = [aij ] ∈ Mn×m (K); pensemos inicialmente que los vectores de
Km y Kn como vectores unicolumnas. Sea TA : Km → Kn la transformación lineal dada por TA (v) = Av
para cualquier vector v ∈ Km . Afirmamos que N (TA ) es el espacio solución del sistema de ecuaciones
 
x1
 .. 
lineales homogéneo AX = 0. En efecto, sea v =  .  un vector de N (TA ); luego por definición tenemos
xm
 
0
 
que Av = 0Km =  ... ; es decir, v es solución de tal sistema de ecuaciones lineales y N (TA ) está incluido
0
en el espacio solución de AX = 0. 
 
x1  a11 x1 + a12 x2 + · · · + a1m xm = 0

 ..  m ..
Recı́procamente, sea v =  .  ∈ K tal que . . Como


xm an1 x1 + a12 x2 + · · · + anm xm = 0
     
x1 a11 x1 + a12 x2 + · · · + a1m xm 0
 ..   .
..   .
TA  .  = Av =   =  ..  ,
xm an1 x1 + a12 x2 + · · · + anm xm 0
 
x1
 
entonces v =  ...  ∈ N (TA ); por lo que el espacio solución de AX = 0 está contenido en N (TA ). Lo
xm
cual demuestra nuestra afirmación.
Dejamos al lector caracterizar el núcleo de las transformaciones lineales de Km en Kn cuando los
vectores de estos espacios son considerados como vectores unifila.
Como se habrá notado en los ejemplos de núcleos de transformaciones lineales presentados hasta
ahora, en todos el núcleo es un subespacio vectorial del espacio dominio de la transformación lineal; en
26 Fascı́culos de Álgebra Lineal

realidad esta es una propiedad general de los núcleos de transformaciones lineales, tal y como se muestra
en la siguiente proposición.
Proposición 1.5. Si T : U → V es cualquier transformación lineal, entonces N (T ) es un subespacio
vectorial de U .
Demostración: Ya sabemos que para cualquier transformación lineal T , su núcleo es siempre no vacı́o.
Por tanto resta mostrar que para cada u, v ∈ N (T ) y todo α ∈ K se tiene u + αv ∈ N (T ); recordar la
caracterización de subespacios estudiada en el capı́tulo sobre espacios vectoriales.
Tomemos entonces u, v ∈ N (T ), es decir T (u) = T (v) = 0V , y α ∈ K. Luego
T (u + αv) = T (u) + αT (v) = 0V + α0V = 0V ;
con lo cual u + αv ∈ N (T ) y la demostración está completa.

Una de las importantes virtudes que tiene el núcleo de una transformación lineal es su relación con la
propiedades de inyectividad de las transformaciones lineales. Antes de entrar en los detalles haremos una
pequeña revisión de los conceptos de inyectividad, sobreyectividad y biyectividad de aplicaciones entre
dos conjuntos cualesquiera.
Recordatorio 1.1. Dado un par de conjuntos cualesquiera, digamos A y B, y una aplicación f : A → B
entre ellos:
1. se dice que f es inyectiva si, para cualquier a, b ∈ A con a 6= b se tiene f (a) 6= f (b); o equivalente-
mente, f (a) = f (b) implica a = b;
2. se dice que f es sobreyectiva si para cada b ∈ B existe a ∈ A tal que f (a) = b; en otras palabras, f
es sobreyectiva si la ecuación f (a) = b siempre tiene solución en a ∈ A para cualquier b ∈ B.
3. Finalmente, f es biyectiva si es inyectiva y sobreyectiva. En este caso es simple verificar que para
cada b ∈ B existe un único a ∈ A tal que f (a) = b.
Asociado a la noción de biyección de una aplicación f : A → B está el concepto de invertibilidad de f .
Se dice que f : A → B es invertible si existe una aplicación g : B → A tal que f ◦ g = IB y g ◦ f = IA ,
donde IA e IB denotan las aplicaciones identidad en los conjuntos A y B, respectivamente. Se verifica
además que f : A → B es invertible si, y sólo si, es biyectiva; en tal caso la aplicación g anterior es única,
y se le conoce con el nombre de inversa de f , tal aplicación se acostumbra denotarla por f −1 ..
Teorema 1.2. Una transformación lineal T : U → V es inyectiva si, y sólo si, N (T ) = {0U }.
Demostración: Supongamos que T es inyectiva. Sabemos que {0U } ⊂ N (T ) pues T (0U ) = 0V . Sea
u ∈ N (T ), es decir T (u) = 0V . Dado que T (0U ) = 0V , entonces la inyectividad de T implica que u = 0V ,
por tanto N (T ) ⊂ {0U } y ası́ N (T ) = {0U }.
Recı́procamente, supongamos que N (T ) = {0U }. Para mostrar que T es inyetiva veamos que si
T (u) = T (v) entonces u = v. Obsérvese que si T (u) = T (v), entonces
T (u) − T (v) = T (u − v) = T (0U ) = 0V ,
de donde u − v ∈ N (T ) = {0U }, sigue que u − v = 0U , por lo que u = v.

En ocasiones a lo largo de estas notas también emplearemos el término no singular para referirnos
a una transformación lineal inyectiva; claramente bajo esta nomenclatura: una transformación lineal
singular es cualquier transformación lineal no inyectiva, es decir, su núcleo contiene vectores no nulos;
o equivalentemente, una transformación lineal T : U → V es no singular si, y sólo si, su núcleo es
N (T ) = {0U }.
Transformaciones Lineales 27

 
−1 0 1
Ejemplo 1.23. Sea TA : R3 → R2 con TA (X) = AX, donde A = . El núcleo de TA , como
2 1 2
ya es conocido, es el conjunto solución del sistema homogéneo de ecuaciones lineales AX = 0; que en
 
x 
−x + z = 0
nuestro caso es el conjunto de vectores X = y  tales que . Emplearemos el método
2x + y + 2z = 0
z
de reducción por filas para resolver este sistema de ecuaciones lineales y ası́ conocer geométricamente a
N (TA ). Observe que empleando operaciones elementales por fila tenemos:
     
−1 0 1 1 0 −1 1 0 −1
7−→ 7−→ ,
2 1 2 2 1 2 0 1 4
entonces el rango de A es 2, es decir el espacio solución de sistema AX = 0, y por ende N (T ), tiene
dimensión 1, que es la diferencia entre el número de incógnitas del sistema AX = 0 y el rango de la
matriz del sistema A. Luego existe una variable
 libre; observe que en este caso z es la única variable libre.

 1 
Al hacer, por ejemplo, z = 1, se sigue que  −4  es una base de N (T ). Esto nos dice que TA es no
 
1
 
1
inyectiva (singular) y además que N (TA ) es la recta que pasa por el origen con vector director a  −4 .
1
Comentario 1.2. Como es conocido, al considerar los vectores de Km y Kn como vectores unicolumnas,
cualquier transformacion lineal T : Km → Kn se expresa mediante una matriz A ∈ Mn×m (K); esto es,
existe una única de tales matrices tal que para cada X ∈ Km se tiene T (X) = AX. También sabemos
que el núcleo de T es el espacio solución de AX = 0; por tanto algunas conclusiones inmediatas podemos
extraer:
Dado que el rango de A es siempre menor o igual que el número de sus filas, entonces cuando m > n
(más incógnitas que ecuaciones) la transformación lineal siempre es no inyectiva (singular).
T es inyectiva (no singular) si, y sólamente si, la única solución del sistema AX = 0 es la solución
nula. De hecho, se puede demostrar (quedan los detalles al lector) que T es inyectiva si, y sólo si,
el rango de A es igual al número de sus columnas m.
Ejemplo 1.24. Los núcleos de funcionales lineales no nulos de Rn tienen una especial caracterı́stica,
son hiperplanos de Rn . En efecto, sea f : Rn → R un funcional lineal no nulo. Como sabemos, existen
a1 , · · · , an ∈ R no todos nulos (caso contrario f = 0) tales que, para cada (x1 , · · · , xn ) ∈ Rn se tiene

f (x1 , · · · , xn ) = a1 x1 + · · · + an xn .

Entonces el núcleo de f es el conjunto N (f ) = {(x1 , · · · , xn ) : a1 x1 +· · ·+an xn = 0}, que es el hiperplano


que pasa por el origen con vector normal N = (a1 , · · · , an ).
Ejemplo 1.25. Sea T : C 2 ((a, b), R) → C((a, b), R) la transformación lineal dada por T (f ) = f ′′ , donde
f ′′ denota la segunda derivada de la función f : (a, b) → R. En este caso, el núcleo de T es por definicón
el conjunto N (T ) = {f ∈ C 2 ((a, b), R) : f ′′ = 0}. Es simple verificar que esta transformación lineal es
singular (no invertible) pues existen funciones no nulas en C 2 ((a, b), R) tales que T (f ) = 0, por ejemplo
f (x) = x + 1, con x ∈ R, define una de tales funciones.
Es conveniente aclarar que intentar encontrar una base del espacio de las soluciones de la ecuación
diferencial f ′′ = 0, esto es, una base de N (T ), escapa a los objetivos de estas notas; el lector inte-
resado puede consultar cualquier texto especializado sobre Ecuaciones Diferenciales Ordinarias donde
28 Fascı́culos de Álgebra Lineal

encontrará información al respecto. Sin embargo, si reducimos el dominio de T , por ejemplo a Pn (R)
(el espacio de las funciones polinómicas de grado menor o igual a n), entonces con toda precisión
N (T ) = {p(x) ∈ Pn (R) : grad(p(x)) ≤ 1}, donde grad(p(x)) denota el grado de p(x). Por tanto una
base de N (T ), en este caso, es {f0 , f1 }, donde f0 (x) = 1 y f1 (x) = x para todo x ∈ R.

En el caso de que el espacio vectorial que es dominio de una transformación lineal T sea de dimensión
finita, entonces es posible obtener otra forma (equivalente) de caracterizar su inyectividad. Es siguiente
teorema ofrece una tal caracterización, en términos del concepto de independencia lineal.

Teorema 1.3. Sean U un espacio vectorial de dimensión finita n ≥ 1 y B = {u1 , · · · , un } una base de
U . Una transformación lineal T : U → V es inyectiva si, y sólo si, los vectores T (u1 ), · · · , T (un ) son
linealmente independientes en V .

Demostración: Inicialmente supongamos que T es inyectiva; veamos que los vectores T (u1 ), · · · , T (un )
son linealmente independientes en V . Sean α1 , · · · , αn escalares en K tales que

α1 T (u1 ) + · · · + αn T (un ) = 0V ,

luego T (α1 u1 + · · · + αn un ) = 0V ; lo cual implica, usando la inyectividad que α1 u1 + · · · + αn un = 0U .


Pero como B = {u1 , · · · , un } es una base de U , entonces α1 = α2 = · · · = αn = 0; es decir, los vectores
T (u1 ), · · · , T (un ) son linealmente independientes en V .
Recı́procamente, supongamos que los vectores T (u1 ), · · · , T (un ) son linealmente independientes en V ;
mostraremos que T es inyectiva; es decir N (T ) = {0U }. Supongamos que u ∈ N (T ), o equivalentemente
T (u) = 0V . Dado que B = {u1 , · · · , un } es base de U , existen escalares (únicos) α1 , · · · , αn en K tales
que u = α1 u1 + · · · + αn un . Luego, aplicando T y su linealidad sigue que α1 T (u1 ) + · · · + αn T (un ) = 0V ,
de donde α1 = · · · = αn = 0 pues los vectores T (u1 ), · · · , T (un ) son linealmente independientes en V .
Por tanto u = 0U = 0 u1 + · · · + 0 un , y T es inyectiva.

Ejemplo 1.26. Sea T : R3 → R4 la transformación lineal tal que T (ui ) = vi (i = 1, 2, 3), donde
u1 = (1, 0, 1), u2 = (0, 1, 1), u3 = (0, 0, 1) y v1 = (0, 1, 1, −2), v2 = (−1, 2, 1, 0), v3 = (2, 0, 2, −8). Esta
transformación lineal existe y es única, ver teorema 1.1, página 17.
Dado que {u1 , u2 , u3 } es base de R3 (¡verifı́quelo!), para saber si T es inyectiva o no, basta con averiguar
si los vectores v1 , v2 , v3 son linealmente independientes en R4 . Para esto construyamos la matriz cuyas
filas son los vectores v1 , v2 y v3 ; y procedamos a redurcila por filas, si el rango de esta matriz es 3, entonces
los vectores v1 , v2 y v3 son linealmente independientes, caso contrario, serán linealmente dependientes y,
según el teorema 1.3, la transformación lineal T es no inyectiva.
 
0 1 1 −2
Observe que la matriz a la que nos referimos es  −1 2 1 0 . Por tanto:
2 0 2 −8
     
0 1 1 −2 −1 2 1 0 −1 2 1 0
 −1 2 1 0 −7 →  0 1 1 −2  −7 →  0 1 1 −2  ,
2 0 2 −8 2 0 2 −8 0 0 0 0

luego la matriz tiene rango 2, de donde los vectores v1 , v2 y v3 son linealmente dependientes (de hecho,
v3 es combinación lineal de v1 y v2 ); ası́ que T es no inyectiva o singular. Observe que si cambiamos v3
por v3 = (0, 0, 0, 1), entonces T es inyectiva pues en tal caso la matriz correspondiente tiene rango 3.

Corolario 1.3. Si T : U → V una transformación lineal inyectiva y dim(U ) = n para algún entero
n ≥ 1, entonces dim(V ) ≥ n.
Transformaciones Lineales 29

Demostración: Sea B = {v1 , · · · , vn } una base de U , sigue del teorema 1.3 que T (v1 ), · · · , T (vn ) son
vectores linealmente independientes en V . Por tanto, dim(V ) ≥ n.

De este corolario podemos concluir que no es posible la existencia de una transformación lineal inyec-
tiva, por ejemplo, de R3 en R2 . La intuición geométrica nos dice que es imposible “incluir” inyectivamente
un espacio con mayor dimensión en otro de dimensión menor.
En abstractos, supongamos que U y V son espacios vectoriales sobre K de dimensiones n y m respec-
tivamente, supóngase además que n > m. Sea {u1 , · · · , un } una base de U , de existir una transformación
lineal T : U → V inyectiva, T (u1 ), · · · , T (un ) son vectores linealmente independientes en V , lo cual es
imposible dado que dim(V ) = m < n.

1.2.2. Imagen de una transformación lineal


El otro importante subespacio asociado a una transformación lineal que también permite examinar
algunas propiedades intrı́nsecas de ésta, es la imagen de la imagen de la transformación.

Definición 1.3. Dada una transformación lineal T : U → V se denomina imagen de T , que denotamos
por Im(T ), al conjunto Im(T ) = {T (u) : u ∈ U }.

Unas consecuencias inmediatas de la definición son las siguientes:

0V ∈ Im(T ), pues T (0U ) = 0V para toda transformación lineal T : U → V ; por tanto Im(T ) es
siempre no vacı́a.

La imagen de T es justamente el conjunto sobre el cual T envı́a su dominio U ; de hecho, un vector


v ∈ V pertenece a la imagen de T si, y sólo si, existe u ∈ U tal que T (u) = v.

También es claro que Im(T ) = V si, y sólo si, T es sobreyectiva, pues para cada v ∈ V existe u ∈ U
tal que T (u) = v; ver recordatorio 1.1, página 26.

U V

Im(T )
T
0U 0V

Figura 1.11: Imagen de T

Ejemplo 1.27. Sean O : U → V e I : W → U las transformaciones lineales nula e inclusión respectiva-


mente; esto es, 0(u) = 0V para todo u ∈ U , y T (w) = w para todo w ∈ W (recuerde que en este caso
W es subespacio de U ). En estos ejemplos tenemos: Im(O) = {0V }, pues todos los vectores tienen como
imagen al vector nulo del espacio vectorial V ; además, Im(I) = W ya que T (w) = w para todo w ∈ W .
30 Fascı́culos de Álgebra Lineal

 
1 0 2
Ejemplo 1.28. Sean A =  −1 1 0  y TA : R3 → R3 la transformación lineal asociada a A; es decir,
1 1 4
TA (X) = AX para todo X ∈ R3 ; acá estamos considerando los vectores de R3 como vectores unicolumna.
De la propia definición de imagen de una transformación lineal tenemos que Y ∈ Im(TA ) si, y sólo si,
existe X ∈ R3 tal que AX = Y ; esto significa que los vectores de Im(TA ) son los vectores Y de R3 para
los cuales el sistema de ecuaciones lineales AX = Y tiene solución.  
x
Del conocimiento que se tiene sobre sistemas de ecuaciones lineales concluimos que Y = y  ∈ Im(TA )
z
 
1 0 2 x
si, y sólo si, las matrices A y la ampliada por Y , A|Y =  −1 1 0 y , tienen el mismo rango; ya
1 1 4 z
que esto equivale a que el sistema AX = Y tenga solución.
Veamos entonces cúal es el conjunto imagen de la transformación lineal TA . Empleando la reducción
 
x
por filas para las matrices A y su ampliada por Y = y , tenemos:
z
     
1 0 2 x 1 0 2 x 1 0 2 x
f2 →f2 +f1 f3 →f3 −f2
 −1 1 0 y  − −−−−−−→  0 1 2 x + y  −−−−−−−→  0 1 2 x+y ;
f3 →f3 −f1
1 1 4 z 0 1 2 z−x 0 0 0 −2x − y + z

por tanto, Y pertenece a Im(TA ) si, y sólo si, −2x − y + z = 0; es decir, Im(TA ) representa el plano de
 
−2
R3 que pasa por el origen y tiene como vector normal a  −1 .
1
Comentario 1.3. En general, sea T cualquier transformación lineal de Km en Kn ; sabemos que existe
una única matriz A ∈ Mn×m (K) tal que T (X) = AX (estamos considerando los vectores de Km y Kn
como unicolumnas). Para que un vector Y ∈ Kn pertenezca a Im(TA ) se requiere que exista X ∈ Km
tal que AX = Y . Esto es, el conjunto imagen de T son los vectores Y de Kn que hacen al sistema de
ecuaciones lineales AX = Y soluble; o equivalentemente, Y ∈ Im(T ) si, y sólo si, las matrices A y su
ampliada por Y tienen el mismo rango.
Teorema 1.4. Sea T : U → V una transformación lineal. La imagen, Im(T ), de T es un subespacio
vectorial de V .
Demostración: Sabemos que Im(T ) 6= ∅ pues contiene, por lo menos, al vector nulo del espacio V .
Para verificar que es un subespacio de V basta entonces verificar que cualesquiera sean los vectores
v1 , v2 ∈ Im(T ) y el escalar α ∈ K, se tiene v1 + αv2 ∈ Im(T ). Sean v1 , v2 ∈ Im(T ) y α ∈ K, entonces
existen u1 , u2 ∈ U tales que T (ui ) = vi para i = 1, 2. Sigue por tanto que

v1 + αv2 = T (u1 ) + αT (u2 ) = T (u1 + αu2 ),

de donde v1 + αv2 ∈ Im(T ).

En realidad este resultado es más general, aunque su demostración es fundamentalmente la misma.


De hecho, no será difı́cil para el lector demostrar que si T : U → V es cualquier transformación lineal
y W ⊂ U es un subespacio vectorial de U , entonces su imagen por T , T (W ) = {T (u) : u ∈ W }, es un
subespacio vectorial de V ; se dejan los detalles al lector.
Transformaciones Lineales 31

 
1 −1 0
Ejemplo 1.29. Sea TA la transformación lineal de R3 en R2 dada por la matriz A = ,
1 −1 1
     
x   x x
    1 −1 0 
es decir TA y = y para todo y  ∈ R3 . Vamos a caracterizar tanto el núcleo
 
1 −1 1
z z z
  
x−y
como el espacio imagen de TA . Por definición tenemos que Im(TA ) = ∈ R2 : x, y, z ∈ R ,
x−y+z
  
 x 
mientras que su núcleo es dado por N (TA ) = y  ∈ R3 : x − y = 0, y x − y + z = 0 . Dado que
 
z
N (TA ) es el espacio solución del sistema de ecuaciones lineales AX = 0 e Im(TA ) es el conjunto de los
vectores Y ∈ R2 tales que el sistema AX = Y sea soluble, analizaremos los rangos de las matrices A y su
ampliada por Y para ası́ describir a N (TA ) e Im(TA ). Haciendo uso de operaciones elementales por fila
 
a
tenemos para Y = que:
b
   
1 −1 0 a f2 →f2 −f1 1 −1 0 a
−−−−−−−→ ;
1 −1 1 b 0 0 1 −a + b

por tanto el rango de A es 2. Esto nos permite concluir:


 
a
1. Cualquiera sea Y = ∈ R2 , la matriz A y la ampliada por Y tienen el mismo rango; es de-
b
cir, todo vector de R2 está en Im(TA ). Por tanto, TA es sobreyectiva pues Im(TA ) = R2 ; luego
dim(Im(TA )) = 2.

2. El número de variables libres del sistema AX = 0 es igual a 1, de donde dim(N (TA )) = 1. Como

x−y =0
el sistema AX = 0 es equivalente por filas al sistema , entonces la variable libre es y.
z=0
 
1

Al asignarle un valor no nulo, por ejemplo, y = 1, entonces el vector 1 constituye una base de
0
 
1
N (TA ), por lo que N (TA ) es la recta de R3 que pasa por el origen con vector director 1.
0

Observe que dim(N (TA )) + dim(Im(TA )) = 3 = dim(R3 ). Esta propiedad no es una casualidad, es un
hecho general de las transformaciones lineales definidas en espacios vectoriales de dimensión finita; tal
propiedad será demostrada luego del siguiente ejemplo.

Ejemplo 1.30 (Núcleo e imagen de proyecciones). En el ejemplo 1.13 se usó la noción de proyección
de un espacio vectorial sobre un subespacio a lo largo de otro para definir un par de operadores lineales,
ver página 11. Recordemos que si U es un espacio vectorial sobre K y V, W son subespacios de U tales
que U = V ⊕ W , entonces la aplicación PV : U → U dada por PV (u) = v siempre que el vector v se
escriba de manera única como u = v + w, donde v ∈ V y w ∈ W (recuerde el concepto de suma directa)
es un operador lineal, el cual hemos denominado proyección de U sobre V a lo largo de W . La figura
siguiente muestra una idea geométrica de como actúa PV sobre los vectores del espacio U . Afirmamos
que para este operador lineal se cumplen: N (PV ) = W e Im(PV ) = V ; por lo que N (PV ) ⊕ Im(PV ) = U .
Demostremos esta afirmación. Tomemos un vector cualquiera u ∈ N (PV ), esto es PV (u) = 0U . Sean
32 Fascı́culos de Álgebra Lineal

u=v+w
PV (u) = v

0U w W

Figura 1.12: Proyección de U sobre V a lo largo de W

v ∈ V y w ∈ W los vectores que hacen u = v + w; en consecuencia PV (u) = v, luego v = 0U y por tanto


u = w ∈ W . Ası́ hemos verificado que N (PV ) ⊂ W . Mostremos ahora que todo vector de W está en
N (PV ). Sea w ∈ W ; al escribir w en términos de la descomposición U = V ⊕ W , tenemos que w = 0U + w,
por tanto PV (w) = 0U , con ello hemos demostrado que w ∈ N (PV ) y W ⊂ N (PV ); de lo cual concluimos
N (PV ) = W .
Finalmente verifiquemos la igualdad Im(PV ) = V . Observe que de la propia definición de PV , para
cualquier vector u ∈ U , PV (u) ∈ V , pues PV envı́a todo vector del espacio U sobre el vector componente
de V en la descomposición U = V ⊕ W ; ası́ Im(PV ) ⊂ V . Recı́procamente, sea v ∈ V . Queremos mostrar
que v ∈ Im(PV ), esto es, existe u ∈ U tal que PV (u) = v. Para ello basta tomar u = v, y como la
descomposición de v en U = V ⊕ W es v = v + 0U , entonces PV (v) = v.
   −y+z 
x 2
3 3
Recordamos, ver ejemplo 1.13, que el operador lineal T : R → R definido por T   y  =  y ,
z z
es la proyeccion de R3 sobre el plano V de ecuación 2x + y − z = 0 a lo largo de la recta W de R3 que
pasa por el origen con vector director el vector canónico e1 . Consecuentemente Im(T ) = V y N (T ) = W .

1.2.3. Relación entre nulidad y rango


Uno de los importantes resultados del Álgebra Lineal, a pesar de su sencillez, establece una relación
numérica entre la nulidad y el rango de cualquier transformación lineal T definida en un espacio vec-
torial de dimensión finita. Como veremos a seguir, esta relación permitirá deducir varias propiedades
importantes para transformaciones lineales definidas en espacios vectoriales de dimensión finita.

Definición 1.4. Sea T : U → V una transformación lineal. Se conoce con el nombre de nulidad de T a
la dimensión de su núcleo, la cual se denota por nul(T ); y se denomina rango de T a la dimensión de su
espacio imagen, denotándose por ran(T ).

El resultado que nos proponemos demostrar es enunciado de la siguiente manera:

Teorema 1.5 (Teorema de la nulidad y rango). Sean U y V espacios vectoriales sobre K, y sea T
una transformación lineal de U en V . Si U tiene dimensión finita n ≥ 1, entonces

nul(T ) + ran(T ) = n = dim(U ).


Transformaciones Lineales 33

Antes de ofrecer una demostración veamos el lema a seguir, el cual será empleado.

Lema 1.1. Sean U y V espacios vectoriales sobre K, y sea T una transformación lineal de U en V . Si U
tiene dimensión finita n ≥ 1, entonces para cualquier base B = {u1 , · · · , un }, el conjunto T (u1 ), · · · , T (un )
generan al espacio imagen de T .

Demostración: Debemos mostrar que para cualquier vector u ∈ U existen escalares α1 , · · · , αn en


K tales que T (u) = α1 T (u1 ) + · · · + αn T (un ); es decir, todo vector de Im(T ) es combinación lineal
de los vectores T (u1 ), · · · , T (un ). Ahora bien, para un dado vector u ∈ U existen siempre escalares
α1 , · · · , αn ∈ K tales que u = α1 u1 + · · · + αn un ; luego al aplicar T a ambos lados de esta identidad se
tiene T (u) = α1 T (u1 ) + · · · + αn T (un ).

Corolario 1.4. Sean U, V, T y B como en el lema. Si T es inyectiva, entonces {T (u1 ), · · · , T (un )} es


base de Im(T ), por lo que dim(Im(T )) = ran(T ) = dim(U ) = n.

Demostración: Es inmediata pues una transformación lineal inyectiva envı́a vectores de una base en
vectores linealmente independientes, y como T (u1 ), · · · , T (un ) generan a Im(T ), entonces el corolario
sigue.

Demostración: [Teorema de la nulidad y rango] Conocido entonces que las imágenes de vectores
en una base de U generan al espacio imagen Im(T ), consideraremos dos casos para la demostración del
teorema:
Caso 1: T es inyectiva.
En tal caso N (T ) = {0U } y nul(T ) = 0. Luego del corolario se tiene nul(T ) + ran(T ) = n = dim(U ).
Caso 2: T no es inyectiva.
Supongamos que nul(T ) = dim(N (T )) = k ≥ 1, obviamente k ≤ n. Sea B = {u1 , · · · , uk } una base de
N (T ). Completemos B hasta obtener una base de U , digamos {u1 , · · · , uk , uk+1 · · · , un }. Afirmamos que
{T (uk+1 ), · · · , T (un )} es una base de Im(T ), con lo cual el teorema estará demostrado en este caso pues

dim(N (T )) + dim(Im(T )) = k + (n − k) = n = dim(U ).

Sea v ∈ Im(T ), luego existe u ∈ U tal que T (u) = v. Como antes, existen escalares α1 , · · · , αn tales que
u = α1 u1 + · · · + αk uk + αk+1 uk+1 + · · · + αn un , aplicando T a ambos lados se tiene:

v = T (u) = α1 T (u1 ) + · · · + αk T (uk ) + αk+1 T (uk+1 ) + · · · + αn T (un )


= αk+1 T (uk+1 ) + · · · + αn T (un ), (pues T (ui ) = 0V para cada i = 1, · · · , k);

esto muestra que los vectores T (uk+1 ), · · · , T (un ) generan a Im(T ). Veamos ahora estos mismos vectores
que son linealmente independientes. Supongamos que para los escalares αk+1 , · · · , αn se tiene

αk+1 T (uk+1 ) + · · · + αn T (un ) = 0V ; (1.11)

debemos mostrar que αk+1 = · · · = αn = 0. Sigue de (1.11) que T (αk+1 uk+1 +· · ·+αn un ) = 0V , de donde
αk+1 uk+1 + · · · + αn un ∈ N (T ). Por tanto αk+1 uk+1 + · · · + αn un es combinación lineal de los vectores
de la base B de N (T ); es decir, αk+1 uk+1 + · · · + αn un = α1 u1 + · · · + αk uk , para ciertos α1 , · · · , αk .
Luego (−α1 )u1 + · · · + (−αk )uk + αk+1 uk+1 + · · · + αn un = 0U ; pero como {u1 , · · · , uk , uk+1 · · · , un }, en
particular u1 , · · · , uk , uk+1 · · · , un son linealmente independientes, entonces se tiene

α1 = · · · = αk = αk+1 = · · · = αn = 0;

ası́ la demostración está completa.


34 Fascı́culos de Álgebra Lineal

Ejemplo 1.31. Consideremos la transformación lineal T : M2×2 (R) → R3 tal que:


   
2 1 0 1
T = (1, 1, 0), T = (1, 0, 1), y
1 1 −1 0
   
1 1 0 0
T = (3, 2, 1), T = (3, 1, 2).
0 1 1 0
       
2 1 0 1 1 1 0 0
Dado que las matrices , , y constituyen una base de M2×2 (R)
1 1 −1 0 0 1 1 0
(¡verifiquelo!), entonces existe una única transformación lineal con tales caracterı́sticas. Luego los vectores
(1, 1, 0), (1, 0, 1), (3, 2, 1), (3, 1, 2) generan a Im(T ). Para conocer el rango de T bastará extraer de estos
vectores el mayor número de ellos que sean linealmente independientes. Esto lo podemos hacer colocando
tales vectores como filas de una matriz y reduciendo ésta por filas. Veamos:
       
1 1 0 1 1 0 1 1 0 1 1 0
 1 0 1  f2 →f2 −f1  0 −1 1  f4 →f4 −3f1  0 −1 1  f3 →f3 −f2  0 −1 1 
  −−−−−−→   −−−−−−−→   −−−−−−→  ,
 3 2 1 − f3 →f3 −3f1  0 −1 1   0 −1 1  − f4 →f4 −2f2  0 0 0 
3 1 2 3 1 2 0 −2 2 0 0 0
de acá se observe que las dos últimas filas son combinación lineal de las dos primeras. Dado que
no hubo cambio de filas en las operaciones elementales por fila efectuadas, entonces de los genera-
dores (1, 1, 0), (1, 0, 1), (3, 2, 1), (3, 1, 2), el conjunto {(1, 1, 0), (1, 0, 1)} es una base de Im(T ). Ası́ pues
que Im(T ) tiene dimensión 2 (ran(T ) = 2); por tanto del teorema de la nulidad y rango se tiene
nul(T ) = dim(N (T )) = 2 pues dim(M2×2 (R)) = 4.
Finalmente, veamos cómo obtener una base de N (T ) a partir de la información que tenemos sin
necesidad de calcular la expresión algebraica que define a T . Note que la tercera fila de la última matriz
se obtuvo al hacer la diferencia de la tercera fila con la segunda fila de la tercera matriz; es decir,
(0, 0, 0) = (0, −1, 1) − (0, −1, 1) [f3 → f3 − f2 ]; (1.12)
pero la tercera fila de la tercera matriz es la tercera fila de la primera matriz menos 3 veces la primera
fila de la primera matriz; esto es
(0, −1, 1) = (3, 2, 1) − 3(1, 1, 0) [f3 → f3 − 3f1 ]; (1.13)
mientras que la segunda fila de la tercera matriz es la segunda fila de la primera matriz menos la primera
fila de esa misma matriz; por tanto
(0, −1, 1) = (1, 0, 1) − (1, 1, 0) [f2 → f2 − f1 ]; (1.14)
de esta forma, al substituir (1.13) y (1.14) en (1.12), tenemos:
(0, 0, 0) = (3, 2, 1) − 2(1, 1, 0) − (1, 0, 1)
     
1 1 2 1 0 1
= T − 2T −T
0 1 1 1 −1 0
       
1 1 2 1 0 1 −3 −2
= T −2 − =T .
0 1 1 1 −1 0 −1 −1
 
−1 −2
De la misma forma se obtienen (0, 0, 0) = (3, 2, 1) − 2(1, 0, 1) − (1, 1, 0) y T = (0, 0, 0).
1 0
   
−3 −2 −1 −2
Por tanto las matrices y están en el núcleo de T , y puesto que son linealmente
−1 −1 1 0
independientes, ellas forman una base de N (T ).
Transformaciones Lineales 35

Comentario 1.4 (Nulidad y rango de matrices). Consideremos una matriz cualquiera A ∈ Mn×m (K)
y la transformación lineal TA : Km → Kn por ella definida; esto es, TA (X) = AX para cada X ∈ Km ,
donde X es considerado como un vector unicolumna. Sabemos que el núcleo de TA es el espacio solución
de sistema de ecuaciones lineales homogéneo AX = 0, por tanto la nulidad de TA (nul(TA )) que es la
dimensión de N (TA ) coincide con el número de variables libres que el sistema de ecuaciones admite, que
es la dimensión del espacio solución de tal sistema de ecuaciones. También es conocido que el número de
variables libres de AX = 0 es el número de incognitas del sistema (n en este caso) menos el rango de la
matriz A, rf (A), entendiéndose por este entero rf (A) al número máximo de filas linealmente independien-
tes en la matriz A; que como sabemos es el número de filas no nulas en la matriz escalonada reducida por
filas de A; rf (A) también es denominado rango fila de A. De esta forma entonces nul(TA ) = n − rf (A);
sigue por tanto del teorema de la nulidad y rango que rf (A) = ran(T ), pues nul(T ) + ran(T ) = n.
En diferentes textos de Álgebra Lineal uno puede llegar a encontrarse con el concepto de rango columna
de la matriz A, que no es otra cosa que el número máximo de columnas linealmente independientes que
posee la matriz A; en otras palabras, el rango columna de A es la dimensión del espacio generado por los
vectores que conforman las columnas de A; denotemos este número entero por rc (A).
Haciendo uso del teorema de la nulidad y rango se demuestra que rf (A) = rc (A); es decir, el número
de filas linealmente independientes y el número de columnas linealmente independientes de una matriz
A son iguales. En efecto, dado que el espacio imagen de TA es el conjunto de las matrices unicolumnas
n × 1, digamos B, tales que AX = B para alguna matriz unicolumna X de orden m × 1, entonces al
denotar por A1 , · · · , Am las columnas de A y por x1 , · · · , xn las componentes de X tenemos

AX = x1 A1 + · · · + xn Am ,

ası́ que Im(TA ) es el espacio generado por las columnas A1 , · · · , Am de A, como era conocido, pues
estas columnas son las imágenes por TA de los vectores canónicos e1 , · · · , em de Km . Ahora bien, la
dimensión de este espacio generado por tales vectores columnas es justamente el número máximo de
vectores linealmente independientes en este conjunto generador; esto es, ran(TA ) = rc (A); sigue de lo
anterior que rf (A) = rc (A).

El siguiente corolario muestra otra de las consecuencias que se derivan del teorema de la nulidad y
rango.

Corolario 1.5. Sean U, V espacios vectoriales sobre K ambos de dimensión finita igual a n ≥ 1. Si
T : U → V es una transformación lineal, entonces son equivalentes:

i) T es biyectiva.

ii) T es inyectiva.

iii) T es sobreyectiva.

Demostración: Claramente por definición, ver recordatorio 1.1 en página 26, se tiene que i) implica
tanto a ii) (de hecho también i) implica iii)). Veamos que ii) implica iii). Si T es inyectiva, entonces
nul(T ) = 0, luego n = ran(T ). Por tanto el espacio imagen de T , Im(T ), tiene la misma dimensión de
V ; pero como el único subespacio de dimensión n de un espacio vectorial de dimensión n es el propio
espacio, entonces Im(T ) = V lo que significa que T es sobreyectiva.
Finalmente, supongamos que iii) vale, y mostremos que T es biyectiva. Para esto falta verificar que
T es inyectiva. Dado que hemos supuesto T sobreyectiva, Im(T ) = V y ran(T ) = n; luego del teorema
1.5 se tiene que nul(T ) = 0; es decir, N (T ) = {0U } y por tanto T es inyectiva.
36 Fascı́culos de Álgebra Lineal

Lo que acabamos de demostrar también se expresa en los siguientes términos:

Corolario 1.6. Dados dos espacios vectoriales U y V sobre K ambos de dimensión finita n ≥ 1, y dada
una transformación lineal T : U → V , las siguientes propiedades son equivalentes:

i) T es invertible.

ii) T es no singular, es decir N (T ) = {0U }, equivalentemente nul(T ) = 0.

iii) T es sobreyectiva, esto es Im(T ) = V , o ran(T ) = n.

De este resultado, cuya demostración (simple por demás) se deja al lector, se tiene

Corolario 1.7. Sean U y V dos espacios vectoriales sobre K ambos de dimensión finita n ≥ 1. Si
T : U → V es una transformación lineal invertible, entonces dim(U ) = dim(V )

Demostración: Sean n y m las dimensiones de U y V respectivamente. Dado que T es invertible se


tienen: nul(T ) = 0, Im(T ) = V y ran(T ) = m. Luego del teorema de la nulidad y rango sigue que
n = m.

A raı́z de esta conclusión, cabe preguntarse si el recı́proco de tal propiedad es válida; es decir, ¿será cier-
to que si dos espacios vectoriales U y V (ambos sobre el mismo cuerpo K) tienen la misma dimensión,
entonces existe una transformación lineal T : U → V que sea biyectiva? La respuesta es afirmativa, sin
embargo aplazamos su demostración para la siguiente sección.
Como se habrá notado en la hipótesis de los corolarios 1.5 y 1.6 se exige que la dimensión de los
espacios vectoriales de salida sea finita; en realidad esta condición no puede ser removida. El siguiente
ejemplo ilustra esta imposibilidad.

Ejemplo 1.32. Consideremos el conjunto R∞ de todas las sucesiones (xn )n≥0 de números reales. Tal
conjunto es un espacio vectorial sobre R cuando se le dota de las operaciones:

(xn )n≥0 + (yn )n≥0 = (xn + yn )n≥0 y α(xn )n≥0 = (αxn )n≥0 .

Puede verificarse de manera muy sencilla que R∞ dotado de estas operaciones es de dimensión infinita;
de hecho, para cada entero positivo m, las sucesiones e1 , · · · , em son linealmente independientes, donde
cada ek es la sucesión que tienen todas sus entradas iguales a 0 excepto la entrada k que es igual a 1;
ası́ que R∞ no puede tener dimensión finita pues admite una colección infinita de vectores linealmente
independientes.
Ahora definamos las transformaciones lineales T : R∞ → R∞ y S : R∞ → R∞ por

T (x0 , x1 , · · · ) = (0, x0 , x1 , · · · ) y S(x0 , x1 , · · · ) = (x1 , x2 , · · · )

para cada (x0 , x1 , x2 , · · · ) ∈ R∞ . Es simple verificar que la transformación T es inyectiva pero no sobre-
yectiva; mientras que S es sobreyectiva pero no inyectiva. Los detalles quedan para el lector.

1.2.4. Invertibilidad e isomorfismos lineales


Fijemos dos espacios vectoriales cualesquiera U y V sobre el mismo cuerpo K. Sea T : U → V una
transformación lineal invertible; esto es, biyectiva; por tanto N (T ) = {0U } e Im(T ) = V . Es necesario
mencionar que no siempre entre dos espacios vectoriales cualesquiera existe una tal transformación lineal;
por ejemplo, si U y V fuesen de dimensión finita y dim(U ) 6= dim(V ), entonces no existe una transforma-
ción lineal T : U → V que sea biyectiva, ver corolario 1.7. Asumiendo que exista una tal T , por definición
Transformaciones Lineales 37

de biyección (ver recordatorio 1.1 en la página 26) existe una única aplicación T −1 : V → U tal que
T ◦ T −1 = IV y T −1 ◦ T = IU , donde IU e IV son las transformaciones identidad en los espacios U y
V respectivamente. Observe además que si T : U → V es una transformación lineal invertible, entonces
T −1 : V → U es también invertible y (T −1 )−1 = T .
La siguiente proposición nos dice que la linealidad es preservada por la inversa de una transformación
lineal invertible.
Proposición 1.6. Si T : U → V es una transformación lineal invertible, entonces T −1 : V → U es
también lineal.
Demostración: Para mostrar que T −1 es lineal basta chequear que para cada par de vectores v1 , v2 ∈ V
y cualquier escalar α ∈ K se cumple T −1 (v1 + α v2 ) = T −1 (v1 ) + α T −1 (v2 ).
Sean v1 , v2 ∈ V y α ∈ K. Dado que T es biyectiva existen únicos vectores u1 , u2 ∈ U tales que
T (ui ) = vi ; por definición de T −1 se tiene que T −1 (vi ) = ui para i = 1, 2. Dado que T es lineal,
T (u1 + α u2 ) = v1 + α v2 ; por tanto T −1 (v1 + αv2 ) = u1 + αu2 , sigue entonces que

T −1 (v1 + α v2 ) = u1 + α u2 = T −1 (v1 ) + α T −1 (v2 );

ası́ T −1 es lineal.

Ejemplo 1.33 (Matrices invertibles). Sean A una matriz cuadrada de orden n con coeficientes en
K y TA : Kn → Kn la transformación lineal asociada a A, esto es, TA (X) = AX para cada vector
X ∈ Kn , los cuales son considerados como vectores unicolumna. Note que TA es invertible si, y sólo
si, N (TA ) = {0Kn }; en otras palabras, TA es invertible si, y sólo si la única solución del sistema de
ecuaciones lineales homogéneo AX = 0 es la solución nula. Supongamos entonces que A es invertible
y que TA−1 : Kn → Kn es la inversa de TA . Por ser TA−1 una transformación de Kn en Kn , existe
una única matriz B ∈ Mn×n (K) tal que T −1 (X) = BX para cada X ∈ Kn . Entonces de la identidad
T ◦ T −1 = T −1 ◦ T = IKn se deduce inmediatamente que ABX = X = BAX, para cada X ∈ Kn por
tanto AB = In = BA, donde In denota la matriz identidad de orden n. Esto nos dice que la matriz B
que define a TA−1 es justamente la matriz inversa de A.
Definición 1.5. A toda transformación lineal T : U → V invertible se le conoce con el nombre de
isomorfismo lineal, o simplemente isomorfismo. Cuando exista un isomorfismo T : U → V se dice que el
espacio vectorial U es isomorfo al espacio vectorial V .
Comentario 1.5. Note que si U es isomorfo a V , entonces V es isomorfo a U ; esto sigue del hecho que
la transformación lineal inversa T −1 : V → U es también un isomorfismo. Observe que si definimos sobre
la colección de todos los espacios vectoriales sobre K la relación ∼ dada por

U ∼ V si U es isomorfo a V,

entonces ∼ es una relación simétrica; esto es, U ∼ V implica V ∼ U . En realidad esta relación es de
equivalencia: reflexiva, simétrica y transitiva. La reflexividad sigue del hecho que para cualquier espacio
vectorial U , la transformación identidad IU : U → U es un isomorfismo. Para demostrar la transitividad,
note que si U ∼ V y V ∼ W , entonces existen isomorfismos T : U → V y S : V → W . Dado que
la composición las aplicaciones biyectivas es también biyectiva, entonces S ◦ T : U → W definida por
(S ◦ T )(u) = S(T (u)) para cada u ∈ U es biyectiva. Resta mostrar que S ◦ T es lineal para tener U ∼ W .
En efecto, cualesquiera sean u1 , u2 ∈ U y α ∈ K se tiene

(S ◦ T )(u1 + α u2 ) = S(T (u1 + α u2 )) = S(T (u1 ) + α T (u2 )) = S(T (u1 )) + α S(T (u2 ))
= (S ◦ T )(u1 ) + α (S ◦ T )(u2 );
38 Fascı́culos de Álgebra Lineal

lo que demuestra la linealidad de S ◦ T . Luego U es isomorfo a W , y la relación ∼ es transitiva.

Ejemplo 1.34. Sea P1 (R) el espacio de todas las funciones polinómicas de grado menor o igual 1.
Afirmamos que la transformación lineal T : P1 (R) → R2 definida por T (p(x)) = (a, b) para cada p(x) =
a + bx en P1 (R), es un isomorfismo. Veamos, dado que dim(P1 (R)) = 2 = dim(R2 ), basta chequear que
N (T ) = {0P1 (R) (x)}, donde 0P1 (R) (x) denota la función nula, este es 0P1 (R) (x) = 0 para todo x ∈ R.
De la definición de T sigue que si p(x) = a + bx satisface T (p(x)) = (0, 0), entonces a = b = 0; esto
es p(x) = 0 = 0P1 (R) (x), lo cual demuestra la afirmación. De esta forma P1 (R) y R2 son isomorfos. En
realidad, para cada n ≥ 1 los espacios vectoriales Pn (R) y Rn+1 son isomorfos. Dejamos al lector chequear
que la transformación lineal T : Pn (R) → Rn+1 dada por

T (p(x)) = (a0 , · · · , an ) siempre que p(x) = a0 + a1 x + · · · + an xn ,

es invertible. La verificación de esta afirmación sigue como arriba.

El teorema a continuación puede catalogarse como el resultado central de esta sección; el ejemplo
anterior es una muestra del mismo.

Teorema 1.6. Si U y V son espacios vectoriales sobre K y ambos de dimensión finita n ≥ 1, entonces
ellos son isomorfos.

Para la demostración de este resultado emplearemos la conocida noción de vector de coordenadas


asociadas a una base de un espacio vectorial de dimensión finita n ≥ 1. Recordemos que si U es un
espacio vectorial sobre K de dimensión n ≥ 1 y B = {u1 , · · · un } es una base (siempre pensada ordenada),
entonces para cada vector u ∈ U existen únicos escalares α1 , · · · , αn en K tales que

u = α1 u1 + · · · + αn un .
 
α1
 .. 
Ası́ se establece una identificación entre u y el vector [u]B =  .  de Kn . Tal vector se ha denominado
αn
vector de coordenadas de u en B.

Lema 1.2. La aplicación TB : U → Kn dada por TB (u) = [u]B para cada u ∈ U es un isomorfismo.

Demostración: Verificar la linealidad de TB equivale a mostrar que para todo u, v ∈ U y cada α ∈ K


se tiene [u + α v]B = [u]B + α [v]B . Pero esto es simple pues para u, v ∈ U existen únicos escalares
α1 , · · · , αn , β1 , · · · , βn en K tales que

u = α1 u1 + · · · + αn un y v = β1 u1 + · · · + βn un , (1.15)
   
α1 β1
 ..   .. 
que es [u]B =  .  y [v]B =  . ; observe además que de (1.15) sigue, por agrupación de términos
αn βn
 
α1 + αβ1
 .. 
semejantes, que u + α v = (α1 + αβ1 ) u1 + · · · + (αn + αβn ) un , por lo que [u + α v]B =  . , de
αn + αβn
lo cual se obtiene la identidad [u + α v]B = [u]B + α [v]B .
Para demostrar que TB es biyectiva es suficiente verificar que N (TB ) se reduce al vector nulo de U ; es
decir que el único vector de U cuyo vector de coordenadas en la base B es el vector nulo de Kn es 0U . Esto
Transformaciones Lineales 39

 
0
 .. 
también es simple ya que si u ∈ U es tal que TB (u) = [u]B =  . , entonces u = 0 u1 + · · · + 0 un = 0U ,
0
de cual se deduce que u ∈ N (TB ) si, y sólo si, u = 0U .

Demostración del Teorema 1.6. La demostración del teorema es consecuencia del lema anterior y de
la propiedad de equivalencia de la relación ∼. Veamos, sean U y V espacios vectoriales sobre K ambos
de dimensión finita n ≥ 1. Del lema anterior tenemos que U ∼ K n y V ∼ K n , entonces Kn ∼ V (por
la simetrı́a de ∼) y por tanto U ∼ V , por la transitividad de ∼. Note que un isomorfismo entre T de U
hacia V puede ser T = (TD )−1 ◦ TB , donde B es una base de U y D es una base de V .

Comentario 1.6. Supongamos que U y V son espacios vectoriales isomorfos y que T : U → V es


un isomorfismo. La propiedad de biyección de T nos permite identificar biunı́vocamente los vectores de
estos espacios: cada vector de U está identificado con un único vector de V , y viceversa. La propiedad
de linealidad de T enriquese esta identificación haciendo que las operaciones que definen las estructuras
vectoriales de estos espacios sean preservadas: si u1 , u2 ∈ U están identificados (según T ) con los vectores
v1 , v2 de V , entonces para cualquier escalar α se tiene que el vector u1 + αu2 está identificado (según T )
con el vector v1 + αv2 de V . Se acostumbra entonces decir que los espacios U y V son idénticos salvo una
equivalencia lineal. En particular, en el caso de espacios vectoriales de dimensión finita tenemos:

todo espacio vectorial U de dimensión n sobre R es idéntico a Rn ; y

todo espacio vectorial U de dimensión n sobre C es idéntico a Cn .

Por esta razón es que puede afirmarse, quizás de manera radical, que existe un único espacio vectorial
de dimensión n sobre R: Rn ; y que existe un único espacio vectorial de dimensión n sobre C: Cn . Pues
según lo que hemos visto, efectuar operaciones lineales en un espacio vectorial abstracto de dimensión n
sobre R o C, es como efectuar las operaciones usuales en Rn , o respectivamente en Cn .
Este comentario justifica el tratamiento indiferente que hemos dado al considerar los vectores de Kn
tanto como matrices unifila como matrices unicolumna, ya el espacio de las matrices de orden n × 1 sobre
K es linealmente idéntico al espacio de las matrices de orden 1 × n sobre K.
Para finalizar, es conveniente mencionar que el teorema anterior en realidad no admite restricciones
sobre la finitud de los espacios considerados, de hecho es válido el siguiente resultado:

Teorema 1.7. Dos espacios vectoriales U y V sobre el mismo cuerpo K son isomorfos si, y sólo si,
tienen la misma dimensión.

Dar una demostración de esta afirmación para espacios de dimensión infinita requiere de herramientas
matemáticas un tanto más sofisticadas que no son consideradas en estas notas.

1.2.5. Ejercicios Propuestos de la sección 1.2


1. Determine el núcleo e imagen de cada una de las transformaciones lineales expuestas en la sección
1.1.1.

2. Construir, cuando sea posible, transformaciones lineales sujetas a las condiciones que se imponen:

a) T : R2 → R3 cuyo espacio imagen sea generado por u1 = (1, 1, 0) y u2 = (0, 1, 1).


b) T : R2 → R3 cuyo espacio imagen sea generado por u1 = (1, 1, 0), u2 = (0, 1, 1) y u3 = (1, 0, 0).
40 Fascı́culos de Álgebra Lineal

c) T : R3 → R3 tal que su núcleo sea el plano dado por la ecuación 2x − y + z = 0. ¿es este
operador lineal único?
d ) T : R3 → R3 tal que su núcleo sea el plano dado por la ecuación 2x − y + z = 0 y su imagen
sea el plano de ecuación x + y + z = 0.
e) T : R3 → R3 tal que su núcleo sea el plano dado por la ecuación 2x − y + z = 0 y su imagen
sea la recta que pasa por el origen con vector director N = (2, −1, 1).
f ) T : U → U donde U = V ⊕ W , siendo V y W subespacios vectoriales de U , con N (T ) = V e
Im(T ) = W .
g) T : C2 → C el núcleo es generado por los vectores u1 = (i, 1 + i) y u2 = (0, 1 − i). ¿Es única?
h) T : C2 → C cuyo núcleo es {(x + iy, z + iw) : x + y − z − w = 0}.
   
2 1 0 1 0
i ) T : M2×2 (R) → R tal que el núcleo es generado por las matrices u1 = y u2 = ,
0 1 0 0
y su imagen es la recta de ecuación 2x + y = 0.
   
1 0 1 0
j ) T : M2×2 (R) → R2 tal que el núcleo es generado por las matrices u1 = , u2 =
0 1 0 0
 
0 1
y u3 = , y su imagen es la recta de ecuación x − y = 0.
1 0

3. Encontrar valores para a, b, c, d, e, f ∈ R para que la transformación lineal T : R2 → R3 dada por


T (x, y) = (ax + by, cx + dy, ex + f y) tenga como imagen al plano de ecuación x − 2y + z = 0.
Determine su núcleo.

4. Encontrar valores para a, b, c, d, e, f ∈ R para que la transformación lineal T : R3 → R2 dada por


T (x, y, z) = (ax + by + cz, dx + ey + f z) tenga como núcleo al plano de ecuación x − 2y + z = 0.
Determine su imagen.

5. Sea T : U → V una transformación lineal. Si u1 , · · · , uk ∈ U son linealmente independientes y el


subespacio generado por ellos sólo intersecta a N (T ) en el vector nulo de U , entonces los vectores
T (u1 ), · · · , T (uk ) son linealmente independientes en V .

6. Demostrar que una transformación lineal T : U → V es inyectiva si, y sólo si, T envı́a vectores
linealmente independientes de U en vectores linealmente independientes de V . Note que en este
ejercicio el espacio vectorial U no es necesariamente de dimensión finita. Compare con el teorema
1.3

7. Para cada transformación lineal T que se muestra a continuación determine N (T ), Im(T ), nul(T )
y ran(T ).
 
1 −1 0 2
 0 2 1 −1 
a) T : R4 → R3 dada por la matriz A = 
 2

0 1 3 
0 −2 −1 1
b) tr : Mn×n (K) → K, donde tr(A) es la traza de la matriz A, ver ejemplo 1.12.
c) Sean P3 (R) el espacio de las funciones polinómicas en R de grado menor o igual a 3 y P(R)
el espacio de todas las funciones polinómicas en R. Sea T : P3 (R) → P(R) la transformación
Rx
lineal definida por T (p(x)) = 0 p(t) dt para cada p(x) ∈ P3 (R).
Transformaciones Lineales 41

d ) T : P2 (R) → P3 (R) dada por T (p(x)) = p′ (x) − xp(x).


¿Qué puede usted decir acerca del núcleo e imagen de la misma transformación al sustituir
P2 (R) por C 1 (R, R) y P3 (R) por C 0 (R, R)?
 
1 −1
e) T : M2×2 (C) → M2×2 (C), T (A) = AB donde B =
−2 2

8. Sea A cualquier matriz de orden m × n con coeficientes en K. Si Y1 , Y2 son vectores (unicolumnas)


de Kn tales que los sistemas de ecuaciones lineales AX = Y1 y AX = Y2 tienen solución, entonces
para cualquier α ∈ K el sistema AX = Y1 + αY2 también admite soluciones. Interprete en términos
del subespacio imagen de una cierta transformación lineal.

9. Decidir acerca de la veracidad o falsedad de cada una de las proposiciones que a continuación se
enuncian:

a) Siempre es posible construir una transformación inyectiva de Rm en Rn para todo n, m ≥ 1.


b) Siempre es posible construir una transformación sobreyectiva de Rm en Rn para todo n, m ≥ 1.
c) Si T : U → V es lineal y N (T ) = {0U }, entonces U y V son isomorfos.
d ) Si U y V son espacios vectoriales de dimensión finita n ≥ 1 y T : U → V es una transformación
lineal, entonces T es biyectiva.
e) Si T : R2 → R2 es lineal y nul(T ) = ran(T ), entonces el núcleo y la imagen de T son iguales.
f ) Si A ∈ Mn×m (K) y m > n, entonces AX = 0 tiene como única solución la nula.
g) Si A ∈ Mn×m (K) con m > n y rango de A es n, entonces para cualquier Y ∈ Kn el sistema
AX = Y tiene solución.
h) Si T : U → V es lineal, entonces T envı́a vectores linealmente independientes de U en vectores
linealmente independientes de V .
i ) Si T : U → V es lineal, v1 , · · · , vk ∈ V son linealmente independientes y u1 , · · · , uk ∈ U son
tales que T (ui ) = vi para cada i = 1, · · · , k, entonces u1 , · · · , uk son linealmente independien-
tes.
j ) Si T : U → V es lineal y envı́a vectores linealmente dependientes de U en vectores linealmente
dependientes de V , entonces T es inyectiva.

10. Sean U y V espacios vectoriales con U de dimensión finita. Si BU es una base de U y, T y S son
transformaciones lineales de U en V tales que T (u) = S(u) para todo u ∈ BU , demostrar que T = S;
es decir T (w) = S(w) para todo w ∈ U .

11. Sean U un espacio vectorial de dimensión finita sobre K y T un operador lineal en U que envı́a
bases de U en bases de U . Demostar que T es un isomorfismo.

12. Construya un ejemplo de dos operadores lineales diferentes en R4 , T y S, tales que N (T ) = N (S)
y Im(T ) = Im(S). ¿Puede hacer una construcción similar si el espacio es R2 , o R3 ?

13. Sea CR el espacio vectorial de los números complejos sobre el cuerpo de los números reales. Muestre
un isomorfismo entre este espacio y R2 .

14. Construya un isomorfismo entre los espacios Mn×m (K) y Knm .


42 Fascı́culos de Álgebra Lineal

15. Sean Sn×n (R) el conjunto de todas las matrices A ∈ Mn×n (R) que son simétricas; esto es, si aij es
el valor de la fila i y columna j de A, entonces aij = aji para todo i, j = 1, · · · , n; y An×n (R) el
conjunto de todas las matrices antisimétricas en Mn×n (R), estas son las que satisfacen aij = −aji
para todo i, j = 1, · · · , n. Demostrar que tales conjuntos son subespacios de Mn×n (R) y además
n(n+1) n(n−1)
que son isomorfos a R 2 y R 2 respectivamente. ¿Es Mn×n (R) = Sn×n (R) ⊕ An×n (R)?
16. En M2×2 (C) considere el conjunto H2×2 (C) de las matrices hermitianas, que son las matrices
A ∈ M2×2 (C) con aij = aji para todo i, j = 1, 2, donde x + iy = x − iy es el conjugado del número
complejo x + iy. Demostrar que H2×2 (C) es un espacio vectorial sobre R isomorfo a R4 ; construya
un tal isomorfismo.
17. En R∞ considere el conjunto R∞ 0 de las sucesiones (xn )n≥0 tales a partir de una determinada
entrada se anula, es decir, (xn )n≥0 ∈ R∞
0 si, y sólo si, existe k ≥ 0 tal que xn = 0 para todo n ≥ k.
Demostrar que R0 es un subespacio vectorial de R∞ y que además es isomorfo al espacio P(R) de

todas las funciones polinómicas sobre R.


18. Sean T : U → V lineal, U1 y V1 subespacios de U y V respectivamente. Demostrar:
a) T (U1 ) = {T (u) : u ∈ U1 } es subespacio de V ; y
b) T −1 (V1 ) = {u ∈ U : ∃ v ∈ V1 tal que T (u) = v} es subespacio de U .
Los subespacios T (U1 ) y T −1 (V1 ) se conocen como imagen directa de U1 e imagen inversa de V1 .
19. Sea T : U → V una transformación lineal. Se dice que T es invertible a la izquierda, si existe una
transformación lineal S : V → U tal que S ◦ T = IU ; S se llama inversa a la izquierda de T . Y
se dice que T es invertible a la derecha, si existe una transformación lineal S : V → U tal que
T ◦ S = IV ; una tal S se llama inversa a la derecha de T .
 
1 2
a) Verifique que la transformación TA : R2 → R3 dada por la matriz A = 0 1 es invertible a
2 5
la izquierda. Obtenga, en consecuencia, una matriz B de orden 2 × 3 tal que BA = I2 .
 
0 1
b) Demuestre que si A en el item anterior es igual a 1 1, entonces TA tiene infinitas inversas
0 0
a la izquierda.
c) Si U y V son de dimensión finita, demostrar que T : U → V tiene una inversa a la izquierda
si, y sólo si, T es inyectiva.
 
3 2 1 1 1
d ) Verifique que la transformación TA : R → R dada por la matriz A = es invertible
0 1 1
a la derecha. ¿Es única la inversa a la derecha? Obtenga una matriz B de orden 3 × 2 tal que
AB = I2 .
e) Si U y V son de dimensión finita, demostrar que T : U → V tiene una inversa a la derecha si,
y sólo si, T es sobreyectiva.
f ) Sean n y m enteros positivos diferentes. ¿Siempre es posible que una transformación lineal
T : Kn → Km tenga inversas a la izquierda y a la derecha?
g) Si U y V son de dimensión finita, demostrar que T : U → V tiene una inversa a la izquierda
y una a la derecha si, y sólo si, T es biyectiva. En tal caso las inversas laterales son únicas e
iguales.
Transformaciones Lineales 43

1.3. Espacio de Transformaciones Lineales


En esta sección abordaremos algunos generales relacionados con las estructuras algebraicas que se
definen sobre el conjunto de todas las transformaciones lineales de un espacio vectorial U sobre otro
espacio vectorial V , ambos sobre el mismo cuerpo K.
Siendo U y V espacios vectoriales sobre K, emplearemos las siguientes notaciones:

L(U, V ) es el conjunto de todas las transformaciones lineales de U en V .

L(U ) es el conjunto de todos los operadores lineales definidos en U ; es decir, el conjunto de las
transformaciones lineales de U en U ; en otras palabras L(U ) = L(U, U ).

U ∗ denotará el conjunto de todos los funcionales lineales definidos en U ; esto es, el conjunto de
todas las transformaciones lineales de U en K; es decir, U ∗ = L(U, K).

1.3.1. Estructura vectorial de L(U, V )


Sobre L(U, V ) existen dos operaciones naturales: una adición de transformaciones lineales y una
multiplicación de un escalar en K por una transformación lineal, las cuales dotan a L(U, V ) de una
estructura vectorial sobre K:

Adición de transformaciones lineales:


Dadas T, S ∈ L(U, V ), se define T + S : U → V por

(T + S)(u) = T (u) + S(u), para todo u ∈ U.

Multiplicación de escalares en K por una transformación lineal:


Dados T ∈ L(U, V ) y α ∈ K, se define α T : U → V por

(α T )(u) = α T (u), para todo u ∈ U.

Proposición 1.7. Cualesquiera sean T, S ∈ L(U, V ) y α ∈ K, simpre se tiene que tanto T + S como α T
pertenecen a L(U, V ).

Demostración: Sean T, S ∈ L(U, V ), entonces para u, v ∈ U y β ∈ K vale:

(T + S)(u + β v) = T (u + β v) + S(u + β v) = (T (u) + β T (v)) + (S(u) + β S(v))


= (T (u) + S(u)) + β (T (v) + S(v)) = (T + S)(u) + β (T + S)(v);

luego T + S es lineal. Similarmente se tiene:

(α T )(u + β v) = α T (u + β v) = α (T (u) + β T (v)) = α T (u) + αβ T (v)


= α T (u) + βα T (v) = (α T )(u) + β (α T )(v);

con lo cual la demostración está completa.

Comentario 1.7 (Estructura vectorial de L(U, V )). Uno puede chequear directamente que L(U, V )
dotado de las operaciones que acabamos de definir tiene estructura de espacio vectorial sobre K; en esta
estructura lineal el vector nulo es la transformación nula, y el vector simétrico de cada T ∈ L(U, V ) es
justamente la transformación lineal (−1)T , que simplemente denotamos por −T .
44 Fascı́culos de Álgebra Lineal

Una demostración de este hecho haciendo uso de la propia definición de espacio vectorial requiere
chequear cada uno de los axiomas que definen la estructura vectorial; sin embargo, cuando estudiamos los
espacios vectoriales, uno de los ejemplos clásicos es el espacio F(A, K) de todas las funciones f : A → K,
donde A es un conjunto cualquiera no vacı́o. Realmente no existe ninguna diferencia si en lugar de K
(que es un espacio vectorial sobre K) colocamos un espacio vectorial cualquiera. Dejamos al lector los
detalles de verificar que en efecto F(A, V ) es un espacio vectorial sobre K si V es un espacio vectorial
sobre el mismo cuerpo K. Dado que L(U, V ) ⊂ F(U, V ), la proposición anterior nos dice que L(U, V ) es
un subespacio vectorial de F(U, V ); por tanto también tiene estructura de espacio vectorial.
De esta forma diremos que:
L(U, V ) es el espacio vectorial de las transformaciones lineales de U en V ,

L(U ) es el espacio vectorial de los operadores lineales de U , y

U ∗ es el espacio de los funcionales lineales de U .


Una vez construida la estrutura vectorial L(U, V ), donde U y V son espacios vectoriales cualesquier
sobre K, al realizar cualquier cantidad finita de operaciones de adición y multiplicación por escalares;
es decir, al efectuar combinaciones lineales de transformaciones lineales de U en V , el resultado es nue-
vamente una transformación lineal de U en V ; simbólicamente: dados n ≥ 1, T1 , · · · Tn en L(U, V ) y
escalares α1 , · · · , αn en K, se tiene que α1 T1 + · · · + αn Tn es una transformación lineal de U en V (un
vector de L(U, V )).
Restan otros aspectos por estudiar en cuanto a la estructura algebraica de L(U, V ). El primero de estos
aspectos es el siguiente; recordemos que en el comentario 1.5 (ver página 37) se mostró que la composición
de transformaciones lineales es también una transformación lineal. Pero, en general esta operación no es
interna; es decir, no necesariamente se componen transformaciones lineales definidas sobre los mismos
espacios; de hecho si T ∈ L(U, V ) y S ∈ L(V, W ), entonces S ◦ T ∈ L(U, W ); estamos realizando una
operación con transformaciones lineales de diferentes espacios, por ello la afirmación que tal operación
no es interna. Sin embargo, cuando T, S ∈ L(U ), entonces S ◦ T ∈ L(U ); esto significa que la operación
de composición si es interna cuando se efectúa en el espacio vectorial de los operadores lineales. En la
sección a continuación estaremos mostrando la nueva estructura algebraica en L(U ), adicional a la de
espacio vectorial, que se origina al considerar la operación de composición.
El otro aspecto a considerar es el estudio de los espacios vectoriales L(U, V ), L(U ) y U ∗ cuando los
espacios vectoriales U y V son finito dimensionales. Este estudio será abordado en la secciones 1.4 y 1.4.3.

1.3.2. Álgebra de operadores lineales


Hemos visto que para dos espacios vectoriales sobre el cuerpo K cualesquiera, digamos U y V , el
conjunto L(U, V ) dotado de las operaciones de adición y multiplicación por un escalar es un espacio
vectorial sobre K. Cuando U = V tenemos el espacio vectorial L(U ) de los operadores lineales sobre
U . Cuando se considera en L(U ) la composición de funciones con una operación interna, entonces este
espacio adquiere una estructura algebraica conocida como álgebra con identidad. Para ser un tanto más
formales introduciremos la definición de tal estructura.
Definición 1.6. Dado espacio vectorial A sobre K, se dice que admite una estructura de álgebra sobre
K si existe una operación interna, denominada multiplicación de vectores, , que asocia a cada par de
vectores u, v ∈ A un nuevo vector uv ∈ A, conocido como el producto de u y v, y que satisface para todo
u, v, w ∈ A y cada α ∈ K los siguientes axiomas:
Asociatividad: u(vw) = (uv)w.
Transformaciones Lineales 45

Distributividad: u(v + w) = uv + uw y (u + v)w = uw + vw.

Asociatividad combinada: α (uv) = (α u)v = u(α v).

Si además existe un vector i ∈ A tal que iu = ui = u para cada u ∈ A, se dice que A es un álgebra con
identidad i. Mientras que si uv = vu para todo u, v ∈ A, el álgebra A se dice conmutativa.

Note que K es un álgebra conmutativa con identidad; mientras que Mn×n (K) es un álgebra con
identidad no conmutativa pues existen matrices cuadradas A y B tales que AB 6= BA. En cuanto a
L(U ), la siguiente proposición muestra que es un álgebra con identidad; la cual, al igual que Mn×n (K),
es en general no conmutativa: pueden construirse ejemplos de espacios vectoriales U sobre los cuales hay
operadores lineales, digamos T1 y T2 , tales que T1 ◦ T2 6= T2 ◦ T1 .
Por simplicidad en adelante adoptaremos la notacion T1 T2 para designar la composición T1 ◦ T2 de
los operadores lineales T1 , T2 ∈ L(U ).

Proposición 1.8. Sean U un espacio vectorial sobre K; T1 , T2 , T3 operadores lineales sobre U y α un


escalar cualquiera. Entonces son satisfechas:

i) IU T1 = T1 IU , donde IU es el operador identidad.

ii) T1 (T2 T3 ) = (T1 T2 )T3 .

iii) T1 (T2 + T3 ) = T1 T2 + T1 T3 y (T1 + T2 )T3 = T1 T3 + T2 T3 .

iv) α (T1 T2 ) = (α T1 )T2 = T1 (α T2 ).

Demostración: La primera parte es obvia, es justamente la definición de la aplicación identidad. De-


mostraremos la parte iii), y quedan para el lector verificar las partes ii) y iv).
iii) Para cualquier vector u ∈ U se tiene:

[T1 (T2 + T3 )](u) = T1 ([T2 + T3 ](u)) = T1 (T2 (u) + T3 (u))


= T1 (T2 (u)) + T1 (T2 (u)) = (T1 T2 )(u) + (T1 T3 )(u).

Por otra parte

[(T1 + T2 )T3 ](u) = [T1 + T2 ](T3 (u)) = T1 (T3 (u)) + T2 (T3 (u))
= (T1 T3 )(u) + (T2 T3 )(u).

De esta forma L(U ) es un álgebra con identidad IU .

Ejemplo 1.35. Sea P(R) el espacio de todas las funciones polinómicas en R. Consideremos sobre este
espacio los operadores lineales D, M : P(R) → P(R) dados por D(p(x)) = p′ (x) y M (p(x)) = xp(x) para
toda función polinómica p(x). Observe que

[M D](p(x)) = M (D(p(x))) = xp′ (x) y [DM ](p(x)) = p(x) + xp′ (x).

Luego DM 6= M D; es más, se deduce de lo anterior que DM = IP(R) + M D, donde IP(R) es el operador


identidad en P(R).

Comentario 1.8. Sean U un espacio vectorial sobre K y L(U ) el álgebra de los operadores lineales en
U . Esta estructura algebraica, más amplia que la de espacio vectorial, permite enriquecer el conjunto de
operaciones que pueden efectuarse con sus elementos (los operadores lineales); por ejemplo, ahora tienen
sentido expresiones albegraicas tales como:
46 Fascı́culos de Álgebra Lineal

1. T 2 para cada T ∈ L(U ); que significa el producto de T por T , es decir, T 2 es el operador lineal
en U definido, para cada vector u ∈ U , por T 2 (u) = T (T (u)). Más generalmente, para cada entero
positivo n, T n significa el producto de T consigo mismo n veces; esto es:

T n (u) = T (T (· · · (T (u)) · · · ) = T n−1 (T (u)) para cada u ∈ U.


| {z }
n factores

Por ejemplo, si U = C ∞ ((0, 1), R) es el espacio vectorial de todas las funciones f : (0, 1) → R
que son diferenciables de cualquier orden, y si T (f ) = f ′ es el operador derivada definido en U ,
entonces T 3 + 2T 2 − T + IU es un operador lineal en U . De hecho, para cada f ∈ U se tiene que
(T 3 + 2T 2 − T + I)(f ) = f ′′′ + 2f ′′ − f ′ + f .

2. T −n para cada entero positivo n, siempre que T sea un operador en T invertible. En este caso, el
significado es como el anterior pero sustituyendo T por T −1 , que es el operador inverso de T ; es
decir:
T −n (u) = T −1 (T −1 (· · · (T −1 (u)) · · · ) = T −(n−1) (T −1 (u)) para cada u ∈ U.
| {z }
n factores

3. (T1 +T2 )2 donde T1 y T2 son operadores lineales en U . Dado que el álgebra L(U ) no es conmutativa,
entonces en general no es cierto que se satisfaga la formula de binomio: (T1 +T2 )2 = T12 +2T1 T2 +T22 ;
pueden construirse ejemplos de operadores lineales donde falle esta igualdad. Lo cierto es que
(T1 + T2 )2 = T12 + T1 T2 + T2 T1 + T22 para todo par de operadores lineales en U (¡verifı́quelo!).

4. α0 IU + α1 T + · · · + αn T n , donde α0 , · · · , αn son escalares en K y T es un operador lineal en U .


También tienen sentido expresiones polinómicas de operadores lineales en más de una variable, por
X n
ejemplo: αij T1i T2j , donde cada αij ∈ K y T1 , T2 son operadores en U .
i,j=0

Ejemplo 1.36. En los ejemplos 1.13 y 1.30, ver páginas 11 y 31 respectivamente, se introdujo la noción de
proyección de un espacio vectorial U sobre un subespacio V a lo largo de un subespacio W (PV : U → U ,
donde U = V ⊕ W ) y se mostró que para estos operadores lineales siempre se cumple que N (PV ) = W
y Im(PV ) = V . Otra interesante propiedad que satisfacen estos operadores de proyección es la de ser
idempotentes. Más especı́ficamente, se dice que un operador lineal T : U → U es idempotente si T 2 = T .
Para mostrar que PV es idempotente debemos mostrar que para cualquier vector u ∈ U se tiene que
PV2 (u) = PV (PV (u)) = PV (u). Ahora bien, dado que PV (u) ∈ Im(PV ), entonces la forma de escribir
PV (u) en la descomposición U = N (PV ) ⊕ Im(PV ) es PV (u) = 0U + PV (u), con lo cual PV (PV (u)) =
PV (u); de allı́ la idempotencia de PV .
En realidad todo operador lineal T : U → U que sea idempotente es la proyección de U sobre el
núcleo de T a lo largo de su imagen. Para demostrar este hecho se necesita verificar que todo vector
de U se escribe de manera única como la suma de un vector en N (T ) y un vector en Im(T ). Sea u
cualquier vector en U ; es claro que u = (u − T (u)) + T (u) y que T (u) ∈ Im(T ). Por otro lado, dado que
T (u − T (u)) = T (u) − T (u) = T (u) − T (u) = 0U , entonces u − T (u) ∈ N (T ). Con lo cual, todo vector de
U se escribe como la suma de uno en N (T ) y otro en Im(T ). Resta mostrar que u = (u − T (u)) + T (u) es
la única forma de escribir u en la descomposición U = N (T ) ⊕ Im(T ). Supongamos que u se escribe como
u = v + w donde v ∈ N (T ) y w ∈ Im(T ), esto es, T (v) = 0U y w = T (z) para algún z ∈ U . ES obvio que
de este supuesto se tiene T (u) = T (v) + T (w) = 0U + T 2 (z) = T (z) = w, de donde u = v + T (u) y por
tanto v = u − T (u). Concluyendo de esta forma la demostración de que todo operador idempotente es la
proyección de U sobre N (T ) a lo largo de Im(T ).
Transformaciones Lineales 47

1.3.3. Ejercicios Propuestos de la sección 1.3


1. Sean U y V espacios vectoriales sobre K. Decidir acerca de la veracidad o falsedad de cada una de
las siguientes proposiciones:

a) Si T1 : U → V y T2 : U → V son transformaciones lineales, entonces 2T1 y T1 + (−3)T2


también lo son.
b) L(U, V ) = L(V, U ).
c) Si T1 y T2 son operadores lineales en U , entonces IU + 2T1 T2 + 2T2 T1 + T12 + T23 también lo
es; acá IU es el operador identidad en U .
d ) Si T1 y T2 son operadores lineales en U , entonces T1 T2 = T2 T1 .
e) T1 y T2 son operadores lineales en U , entonces (T1 + T2 )(T1 − T2 ) = T12 − T22 .
 
1/3 1/3
f ) Si U = V = R2 , entonces A = define, como operador lineal de R2 , una proyec-
2/3 2/3
ción.
g) La suma y el producto de un escalar por un funcional lineal de U son también funcionales
lineales en U .
h) Si h·, ·i denota el producto interno usual en Rn y v ∈ Rn es fijo, entonces la función f : Rn → R
definida por f (u) = hu, vi es un funcional lineal.

2. Sean T1 , T2 : R2 → R3 y T3 : R3 → R2 las transformaciones lineales dadas por

T1 (x, y) = (x + y, −x + y, y), T2 (x, y) = (2x + y, x, y) y T3 (x, y, z) = (x − y + 2z, 0),

Calcular: 2T1 − T2 , −T1 + T1 T3 T2 y (T3 T1 + T3 T2 )2 .

3. Sean T1 , T2 : U → U operadores lineales tales que T1 T2 = T2 T1 . Demostrar que vale la fórmula del
binomio: (T1 + T2 )2 = T12 + 2T1 T2 + T22 . Obtenga una la fórmula de (T1 + T2 )n para cualquier entero
n ≥ 1.

4. Sean U y V espacios vectoriales sobre K de dimensión 2; sean {u1 , u2 } y {v1 , v2 } bases de U


y V respectivamente. Demostrar que {T1 , T2 , T3 , T4 } constituye una base de L(U, V ), donde las
transformaciones lineales T1 , T2 , T3 y T4 están dadas por:
   
T1 (u1 ) = v1 − v2 T2 (u1 ) = v2 T3 (u1 ) = 0V T4 (u1 ) = v2
, , , y .
T1 (u2 ) = v1 + v2 T1 (u2 ) = 2v1 + v2 T3 (u2 ) = v1 − v2 T4 (u2 ) = 2v1 + 2v2

Describir en términos de T1 , T2 , T3 y T4 la transformación lineal T : U → V tal que T (u1 ) = −2v2


y T (u2 ) = 3v1 − v2 .

5. Sean U y V espacios vectoriales sobre K. Demostrar que si U y V son isomorfos, entonces L(U, U )
y L(V, V ) también lo son.

6. Sea U = P2 (R) el espacio de las funciones polinómicas de grado menor o igual a 2 definidas en R.
Sean T0 , T1 y T2 los operadores lineales en U definidos por:

T0 (p(x)) = p(x), T1 (p(x)) = p′ (x) y T2 (p(x)) = p′′ (x),

donde p′ (x) y p′′ (x) denotan la primera y segunda derivada de la función polinómica p(x). Demostrar
que T0 , T1 y T2 son linealmente independientes en L(U ).
48 Fascı́culos de Álgebra Lineal

Ahora considere U = P(R), el espacio de todas las funciones polinomiales definidas en R. Para cada
entero n ≥ 0 se define el operador lineal Tn : U → U por Tn (p(x)) = p(n) (x) (n-ésima derivada de
p(x)). Demostrar que T0 , T1 , · · · , Tn son linealmente independientes en L(U ) para cada n ≥ 0.
    
2 2 x cos(θ) sen(θ) x
7. Fijado un ángulo 0 ≤ θ < 2π, sea Rθ : R → R , Rθ = , el
y − sen(θ) cos(θ) y
 
x
operador lineal que rota al vector en un ángulo θ medido en sentido antihorario. ¿Cuál es el
y
significado geométrico de aplicar los operadores lineales Rθ2 , Rθ3 , · · · , Rθn (n ≥ 1, entero) a un vector
 
x
? ¿Es posible que exista un n ≥ 1 (entero) tal que Rnθ = I2 (operador identidad en R2 )?
y
8. Sean θ = π6 y Rθ , P, R : R2 → R2 los operadores lineales, tales que Rθ es como arriba, R es la
reflexión sobre la recta de ecuación y = 2x, y P es la proyección ortogonal sobre la misma recta;
ver ejercicios 11 y 12 de la sección 1.1.

a) Demuestre que P R = RP = P y Rθ SRθ = S.


b) Muestre que Rθ no conmuta ni con P ni con R.
c) Encuentre los vectores v ∈ R2 tales que P Rθ (v) = 0 y Rθ P (v) 6= 0.

9. Sean U, V y W espacios vectoriales sobre K, y sean T : U → V y S : V → W transformaciones


lineales. Demostrar:

a) Si ST es inyectiva, entonces T es inyectiva.


b) Si ST es sobreyectiva, entonces S es sobreyectiva.
c) Si U = W = K3 y V = K2 , entonces ST no es inyectiva. Generalizar este resultado.

10. Encontrar dos operadores lineales S, T de K2 tales que ST = 0 pero que T S 6= 0.

11. Sea T : U → U un operador lineal en U . Demostrar que T 2 = 0 si, y sólo si, Im(T ) ⊂ N (T ).

12. Sea T : U → U un operador lineal en U . Demostrar que para cada entero positivo k se cumplen:

N (T ) ⊂ N (T 2 ) ⊂ · · · ⊂ N (T k ) y Im(T k ) ⊂ Im(T k−1 ) ⊂ · · · ⊂ Im(T ).

13. Sea T : U → U un operador lineal en U que es de dimensión finita.

a) Si ran(T 2 ) = ran(T ), usar el ejercicio anterior y el teorema de la nulidad y rango para


demostrar que Im(T 2 ) = Im(T ) y N (T 2 ) = N (T ); deducir de acá que N (T ) ∩ Im(T ) = {0U }.
b) Si ran(T 2 ) = ran(T ), usar lo anterior para demostrar que para cualquier vector u ∈ U existe
v ∈ U tal que u − T (v) ∈ N (T ). Deducir que U = N (T ) ⊕ Im(T ).
c) Demostrar que existe un entero positivo k tal que Im(T k ) = Im(T k−1 ) y N (T k ) = N (T k−1 ).
Proceder como en a) y b) para demostrar que U = N (T k ) ⊕ Im(T k ).

14. Sea U un espacio vectorial sobre K.

a) Si U1 , · · · , Uk son subespacios de U tales que U = U1 ⊕ · · · ⊕ Uk , para cada i = 1, · · · , k sean


Wi = U1 ⊕ · · · Ui−1 ⊕ Ui+1 ⊕ Uk y Pi : U → U la proyección de U sobre Ui a lo largo de Wi .
Demostrar que P1 + · · · + Pk = IU (operador identidad en U ) y Pj Pi = 0 para todo j 6= i.
b) Sean P1 , · · · , Pk operadores lineales en U tales que P1 + · · · + Pk = IU y Pj Pi = 0 para todo
j 6= i. Demostrar que cada Pi es una proyección.
Transformaciones Lineales 49

1.4. Transformaciones lineales y matrices


Pasemos a estudiar el espacio vectorial de las transformaciones lineales de U en V cuando los espacios
vectoriales U y V son de dimensión finita; ası́ que supongamos dim(U ) = m ≥ 1 y dim(V ) = n ≥ 1.
El propósito fundamental es identificar L(U, V ) con Mn×m (K); pero de una manera muy especial. Tal
identificación permitirá, a través de cálculos matriciales, obtener información sobre los núcleos, espacios
imagen, combinaciones lineales y composiciones de transformaciones lineales, incluso sin necesidad de
conocer las expresiones que las definen.
Comenzaremos considerando una transformación lineal cualquiera T : Km → Kn , como vimos en
 
a11 · · · a1m
 .. 
el apartado 1.1.2, ver proposición 1.4 en la página 16, existe una única matriz A =  . 
an1 · · · anm
en Mn×m (K) tal que para cada v ∈ Km (considerado como matriz unicolumna) se tiene T (v) = Av;
es decir, T = TA . Si tomamos tanto en Km como en Kn las bases canónicas CKm = {e1 , · · · , em } y
CKn = {e1 , · · · , en }, entonces al tomar las imagenes por TA de cada ej (j = 1, · · · , m), y expresar esta
imagen como combinación lineal en la base CKn resulta:
 
a1j
 .. 
T (ej ) = Aej =  .  = a1j ei + · · · + anj en ;
anj

de donde, el ij-ésimo término de la matriz A es la i-ésima coordenada del vector T (ej ) = Aej cuando es
escrito en la base canónica de Kn ; de hecho, T (ej ) es la j-ésima columna de A.
Extendamos estas consideraciones a transformaciones lineales entre dos espacios vectoriales cuales-
quiera de dimensión finita. Sean U y V espacios vectoriales sobre K de dimensiones m ≥ 1 y n ≥ 1,
respectivamente. Fijemos bases BU = {u1 , · · · , um } de U y BV = {v1 , · · · , vn } de V . Sea T : U → V
cualquier transformación lineal. Es claro, por el concepto de base de espacios vectoriales, que para cada
j = 1, · · · , m existen únicos escalares a1j , · · · , anj en K de manera que T (uj ) se escribe como

T (uj ) = a1j v1 + · · · + anj vn . (1.16)

Ahora tomemos cualquier vector u ∈ U . Este vector se escribe de forma única en la base BU como
 
α1
 .. 
u = α1 u1 + · · · + αm um ; esto es, [u]BU =  .  .
αm

Al aplicarle T a u, usando la linealidad de T y la identidad (1.16) se tiene:

T (u) = α1 T (u1 ) + · · · + αm T (um )


= α1 (a11 v1 + · · · + an1 vn ) + · · · + αm (a1m v1 + · · · + anm vn )
= (a11 α1 + · · · + a1m αm )v1 + · · · + (an1 α1 + · · · + anm αm )vm ,

en consecuencia el vector de coordenadas de T (u) en la base BV es:


    
a11 α1 + · · · + a1m αm a11 · · · a1m α1
 .
..   ..   .. 
[T (u)]BV =  = .  . ,
an1 α1 + · · · + anm αm an1 · · · anm αm
50 Fascı́culos de Álgebra Lineal

es decir
[T (u)]BV = [T ]B
BU [u]BU , para todo u ∈ U ;
V
(1.17)
 
a11 · · · a1m
 .. 
donde [T ]BBU = 
V
.  ∈ Mn×m (K). Observe que la columna j-ésima (j = 1, · · · , m) es
an1 · · · anm
definida por la identidad (1.16); es decir, la columna j-ésima de [T ]BBU se obtiene con los escalares que
V

determinan a T (uj ) en la combinación lineal con los vectores de BV .


Por otra parte, la ecuación (1.17) nos dice que dado cualquier vector u ∈ U , el vector de coordenadas
de su imagen por T , [T (u)]BV , es el producto de la matriz [T ]B
BU y el vector de coordenadas de u en la
V

base BU . Note que esta matriz depende exclusivamente de la transformación lineal T y de las bases BU
y BV , no depende de los vectores u a los cuales se les está calculando su imagen por T ; por ello es que
(1.17) es válida para todo vector u ∈ U .
Ejemplo 1.37. Sean U y V espacios vectoriales sobre K de dimensiones m, n ≥ 1, respectivamente, sea
O : U → V la transformación lineal nula; es decir, 0(u) = 0V para cada u ∈ U . Cualesquiera sean las
bases BU = {u1 , · · · , um } y BV = {v1 , · · · , vn } que consideremos en los espacios U y V , se tiene que
[O]B
BU es la matriz nula de orden n × m pues todas sus columnas son nulas ya que para cada j = 1, · · · , m
V

se tiene
O(uj ) = 0V = 0 v1 + · · · + 0 vn .
Ejemplo 1.38. Sean U un espacio vectorial de dimensión n ≥ 1 sobre K, IU el operador identidad en
U , y B = {u1 , · · · , un } una base de U . Dado que para cualquier j = 1, · · · , n se verifica
I(uj ) = uj = 0 u1 + · · · + 0 uj−1 + 1 uj + 0 uj+1 + · · · + 0 un ,
 
1 0 ··· 0 0
0 1 · · · 0 0
 
. .. . . .. .. 
entonces [IU ]B = . . . .
B . .  es la matriz identidad de orden n.
 
0 0 · · · 1 0
0 0 ··· 0 1
Ejemplo 1.39. Consideremos las bases canónicas CKm y CKn de Km y Kn respectivamente. Del comen-
tario inicial de esta sección, para la transformación lineal TA : Km → Kn dada por TA (X) = AX para
cada X ∈ Km , se tiene que [TA ]CCKKnm = A.
Ejemplo 1.40. Sea T : P2 (R) → P1 (R) la transformación lineal definida por T (p(x)) = p′ (x) para cada
función polinómica de grado menor o igual a 2. Consideremos las bases B2 = {1, x, x2 } y B1 = {1, x}
de los espacios P2 (R) y P1 (R) respectivamente. Para determinar la matriz [T ]B B2 requerimos expresar
1

las imágenes de los vectores de B2 como combinación lineal de los vectores de B1 . Como es conocido:
la derivada de la función constante 1 es la función constante nula; la derivada de la función p1 (x) = x
es la función constante 1; y la derivada de la función p2 (x) = x2 es la función 2x; es decir, como
 
0 1 0
T (1) = 0 = 0.1 + 0.x, T (x) = 1 = 1.1 + 0.x y T (x2 ) = 2x = 0.1 + 2.x, entonces [T ]B
B2
1
= .
0 0 2
Proposición 1.9. Sean U y V espacios vectoriales sobre K de dimensiones m ≥ 1 y n ≥ 1 respectivamen-
te, y sean BU = {u1 , · · · , um } BV = {v1 , · · · , vn } bases de U y V . Si T : U → V es una transformación
lineal, entonces [T ]B
BU es la única matriz de orden n × m que satisface
V

[T (u)]BV = A [u]BU para todo u ∈ U. (1.18)


Transformaciones Lineales 51

Demostración: Sabemos que [T ]B BU satisface la identidad señalada en el enunciado. Sea A ∈ Mn×m (K)
V

tal que ecuación (1.18) es satisfecha, mostraremos que A = [T ]B BU .


V

Primero observe que para cualquier uj ∈ BU , [uj ]BU es el j-ésimo vector canónico de Km , pues para
todo j = 1, · · · , m se tiene

uj = 0 u1 + · · · + 0 uj−1 + 1 uj + 0 uj+1 + · · · + 0 um ;

por otro lado, es fácil chequear que para toda matriz B de orden n × m, y todo j = 1, · · · , m se cumple
que Bej es la j-ésima columna de B. De estas observaciones sigue inmediatamente de las identidades
(1.17) y (1.18) que [T (uj )]BV = [T ]B BV
BU ej = Aej , por lo que la j-ésima columna de las matrices [T ]BU y A
V

BV
son iguales, ası́ A = [T ]BU . Con lo cual la demostración está completa.

1.4.1. Representaciones Matriciales


Conocida entonces la unicidad de la matriz [T ]BBU asociada a las bases BU y BV de los espacios
V

vectoriales U y V , pasamos a asociarle un nombre.


Definición 1.7. Sean U y V espacios vectoriales sobre K de dimensiones m, n ≥ 1, respectivamente.
Dadas bases BU = {u1 , · · · , um } de U y BV = {v1 , · · · , vn } de V , una transformación lineal T : U → V ,
se denomina representación matricial de T en las bases BU y BV , a la única matriz [T ]B BU de orden n × m
V

con coeficientes en K que satisface (1.18).


De esta unicidad, la correspondencia Φ : L(U, V ) → Mn×m (K) que asocia a cada T ∈ L(U, V ) su
representación matricial en las bases BU y BV , Φ(T ) = [T ]B
BU , es una aplicación. Esto significa que, fijadas
V

las bases BU y BV , Φ hace corresponder a cada T ∈ L(U, V ) una única matriz del espacio Mn×m (K).
Más aun, esta aplicación Φ es un isomorfismo, tal y como se demuestra en la siguiente proposición. De
allı́ que dim(L(U, V )) = dim(Mn×m (K)) = mn.
Proposición 1.10. Sean U y V como en la proposición anterior. Entonces para cualquier par de bases
BU y BV de U y V respectivamente, la aplicación Φ : L(U, V ) → Mn×m (K) arriba definida es lineal y
biyectiva.
Demostración: Mostremos ahora que Φ es lineal: para todo S, T ∈ L(U, V ) y cada α ∈ K se cumple:

[T + α S]B BV BV
BU = [T ]BU + α [S]BU .
V
(1.19)

Sabemos que la j-ésima columna (j = 1, · · · , m) de las matrices [T + α S]B BV BV


BU , [T ]BU y α[S]BU son los
V

vectores de coordenadas: [(T + α S)(uj )]BV , [T (uj )]BV y α[S(uj )]BV , ver (1.17). Por tanto, si mostramos

[(T + α S)(uj )]BV = [T (uj )]BV + α[S(uj )]BV para todo j = 1, · · · , m, (1.20)

entonces (1.19) se satisface. Ahora bien, asumiendo que para cada j = 1, · · · , m se tienen

T (uj ) = a1j v1 + · · · + anj vn y S(uj ) = b1j v1 + · · · + bnj vn ,

entonces (T + αS)(uj ) = (a1j + αb1j )v1 + · · · + (anj + αbnj )vn , lo cual implica (1.20) y por tanto (1.19).
Veamos ahora que Φ es biyectiva. Mostrando N (Φ) = {0L(U,V ) } se tendrá del teorema 1.2 la inyectivi-
dad de Φ. Sea T ∈ L(U, V ) tal que T ∈ N (Φ), es decir, Φ(T ) = [T ]B BU es la matriz nula de orden n×m. Esto
V

 
0
 .. 
significa que, para cada j = 1, · · · , m, [T (uj )]BV =  . , o equivalentemente T (uj ) = 0 v1 +· · ·+0 vn = 0V
0
52 Fascı́culos de Álgebra Lineal

para cada j = 1, · · · , m; con lo cual T es la transformación nula, y el núcleo de Φ se reduce al vector nulo
de L(U, V ), ver ejercicio propuesto 10 en la página 41.
Finalmente mostremos que Φ es sobreyectiva; es decir, para cada matriz A ∈ Mn×m (K) existe T en
 
a11 · · · a1m
 .. 
L(U, V ) tal que Φ(T ) = A. En efecto, tomemos cualquier matriz A =  .  ∈ Mn×m (K),
an1 · · · anm
y consideremos la única transformación lineal T : U → V tal que para cada j = 1, · · · , m se satisface
T (uj ) = a1j v1 + · · · + anj vn . Recuerde que esta transformación lineal siempre existe, ver teorema 1.1.
De esta misma identidad y de la definición de matriz asociada a las bases BU y BV , ver (1.16), sigue
inmediatamente que Φ(T ) = [T ]B BU = A.
V

Comentario 1.9. La demostración que acabamos de ofrecer merece algunas palabras adicionales. En
primer lugar, un lector acucioso notará que a raı́z de la demostración dada para la sobreyectividad de Φ,
la demostración de la inyectividad es superflua. Esto debido a que una aplicación cualquiera f : A → B,
A y B conjuntos no vacı́os, es biyectiva si, y sólo si, para cada b ∈ B existe un único a ∈ A tal que
f (a) = b.
En segundo lugar, observe que la identidad (1.18) puede expresarse separadamente, para cada T, S ∈
L(U, V ) y todo α ∈ K, como:

[T + S]B V BV BV BV BV
BU = [T ]BU + [S]BU y [α S]BU = α [S]BU . (1.21)

La noción de representación matricial que se ha introducido, además de establecer una identificación


lineal entre L(U, V ) y Mm×n (K) (si dim(U ) = n y dim(V ) = m), determina completamente la acción
lineal de la transformación; es decir, para cada u, v ∈ U y todo α ∈ K se cumple

[T (u + α v)]BV = [T ]B
BU [u + α v]BU
V

= [T ]B
BU ([u]BU + α [v]BU )
V

= [T (u)]BV + α [T (v)]BV .

Por otro lado, a través de técnicas lineales de cálculo matricial se obtiene información sobre aspectos
relevantes en el análisis del estudio de la acción de las transformaciones lineales entre espacio vectoriales
de dimensión finita. En particular, aun cuando no se conozca una fórmula (regla de correspondencia)
para T , podemos obtener información de su núcleo y espacio imagen. Note que
 
0
 .. 
u ∈ N (T ) si, y sólo si, [T ]B
BU [u]BU = [0V ]BV
V
= . ; (1.22)
0

en consecuencia los vectores de X ∈ Km que representan, en la base BU , los vectores del núcleo de T , son
aquellos que constituyen el espacio solución del sistema de ecuaciones lineales homogéneo [T ]B
BU X = 0.
V

Por lo que un análisis de este espacio solución permite determinar N (T ), la nulidad de T , y usando el
teorema de la nulidad y rango también se determina a ran(T ). En cuanto a la determinación del espacio
imagen de T , observe que

v ∈ Im(T ) si, y sólo si, existe X ∈ Km tal que [T ]B


BU X = [v]BV ;
V
(1.23)

en tal caso, el vector u ∈ U (único para cada X) que cumpla [u]BU = X satisface T (u) = v.
Transformaciones Lineales 53

Finalmente, las representaciones matriciales en los casos particulares de operadores lineales y funcio-
nales lineales son, respectivamente, matrices cuadradas y matrices unifila. En el primer caso, si T : U → U
es un operador lineal en U (dim(U ) = n ≥ 1), para evitar cálculos innecesarios consideraremos una sóla
base BU = {u1 , · · · , un } de U , entonces al escribir

T (uj ) = a1j u1 + · · · + anj un para cada j = 1, · · · , n,

tenemos  
a11 ··· a1n
 .. .. ..  ,
[T ]BU := [T ]B
BU
U
= . . . 
an1 ··· ann
como la representación matricial del operador T en la base BU .
En cuanto a funcionales lineales, mantendremos siempre como base de K a BK = {1}. Por tanto, si
BU = {u1 , · · · , un } es una base de U y f : U → K es un funcional lineal en K, entonces
 
[f ]BU := [f ]B
B U = a1 · · ·
K
an

será la representación matricial de f en la base BU , donde aj = f (uj ) para cada j = 1, · · · , n. Observe


también que si el vector u ∈ U se escribe en la base BU como u = γ1 u1 + · · · + γn un , sigue que
 
γ1 n
  .  X
f (u) = a1 ··· an  ..  = aj γj . (1.24)
j=1
γn
 
2 1 −1
B  0 1 2 
Ejemplo 1.41. Sea T : P2 (R) → R4 la transformación lineal tal que A = [T ]BRP4 (R) =   −2 1

2 5 
6 4 −1
es su representación matricial en las bases BP2 (R) = {1 − x2 , 2x + x2 , 1 + x} y BR4 = {v1 , v2 , v3 , v4 } donde

v1 = (1, 0, 1, 1) v2 = (0, −1, 0, 1) v3 = (1, 2, 0, 1) y v4 = (0, 0, 0, 1).

Determinaremos N (T ), Im(T ), la nulidad y rango de la transformación sin conocer la expresión algebraica


que la define. En primer lugar, de (1.22), para determinar su nucleo y nulidad debemos estudiar el espacio
solución del sistema de ecuaciones lineales AX = 0. Procedamos entonces a escalonar la matriz A.
       
2 1 −1 2 1 −1 2 1 −1 2 0 −3
 0 1 2  →f3 +f1  0 1 2  f3 →f3 −2f2  0 1 2  f1 →f1 −f2  0 1 2 
  −f−3−−−− −→  − − −−− −−→  − − −−− − −
→  .
 −2 1 5  f4 →f4 −3f1  0 2 4  f4 →f4 −f2  0 0 0   0 0 0 
6 4 −1 0 1 2 0 0 0 0 0 0

Luego, como el rango de A es 2, el espacio solución del sistema AX = 0 tiene dimensión 1 (el número de
variables libres del sistema); por tanto nul(T ) = 1. Para obtener una base de N (T ), observe que que z
puede ser considerada como libre, entonces al asignarle un valor no nulo, por ejemplo z = 2 tenemos que
 
3
X1 =  −4  es una base del espacio solución del sistema AX = 0. De acá que el vector p1 (x) ∈ P2 (R)
2
con [p1 (x)]BP2 (R) = X1 constituye una base de N (T ); en tal caso

p1 (x) = 3 (1 − x2 ) + (−4) (2x + x2 ) + 2 (1 + x) = 5 − 6x − 7x2 .


54 Fascı́culos de Álgebra Lineal

Ası́, el núcleo de T está formado por todos las funciones polinómicas q(x), de grado menor o igual a 2,
tales que para algún α ∈ R se tiene q(x) = α p1 (x).
Por otro lado, del teorema de la nulidad y rango sigue que ran(T ) = dim(Im(T )) = 2. Veamos ahora
como obtener una base del espacio imagen de la transformación lineal T . En realidad existen varias formas
de hacer esto; acá mostraremos dos.
Procedimiento 1: Recordemos que en la demostración del teorema de la nulidad y rango (ver página
33), se mostró que si {u1 , · · · , uk } es una base de N (T ) y {u1 , · · · , uk , uk+1 , · · · , un } es base del espacio
U (dominio de T ), entonces {T (uk+1 ), · · · , T (un )} es base de Im(T ).
Ahora bien, ya tenemos una base de N (T ), deberiamos completarla hasta tener una base de P2 (R)
para que ası́ las imágenes de los vectores añadidos sean una base de Im(T ). ¿De qué manera vamos a
completar la base que se tiene de N (T )? En realidad existen muchas formas de hacerlo, sin embargo
la que involucra quizás menor cantidad de cálculos es buscar en la base que se tiene originalmente los
vectores que se añadirán a la base encontrada de N (T ).
En la transformación lineal que nos ocupa en este instante, una simple inspección muestra por ejemplo
que los vectores p1 (x) = 5 − 6x − 7x2 , p2 (x) = 1 − x2 , p3 (x) = 1 + x son linealmente independientes; es
decir, {p1 (x), p2 (x), p3 (x)} es base de P2 (R) (dim(P2 (R)) = 3) construida como en la demostración del
teorema de la nulidad y rango, por tanto {T (p2 (x)), T (p3 (x))} es base de Im(T ). Ahora surge la pregunta
¿cómo calcular T (p2 (x)) y T (p3 (x)) si no tenemos explı́citamente la regla de correspondencia que define
a T ? La respuesta es simple: dado que p2 (x) y p3 (x) constituyen el primero y tercer vector de la base
(ordenada) BP2 (R) , entonces [T (p2 (x))]BR4 y [T (p3 (x))]BR4 son justamente la primera y tercera columna
de la matriz A. Es decir:
   
2 −1
 0   2 
[T (p2 (x))]BR4 =  
 −2  y [T (p3 (x))]BR4 =  5  ,
 

6 −1
pero como BR4 = {v1 , v2 , v3 , v4 } es la base de R4 que interviene en A, entonces:
T (p2 (x)) = 2v1 + 0v2 + (−2)v3 + 6v4 = (0, −4, 2, 6), y
T (p3 (x)) = (−1)v1 + 2v2 + 5v3 + (−1)v4 = (4, 8, −1, 5).
Procedimiento 2: Recordemos que en el lema previo a la demostración del teorema de la nulidad y
rango, se mostró que los vectores imágenes de una base cualquiera del espacio dominio (de dimensión
finita) de cualquier transformación lineal constituyen un conjunto generador del espacio imagen Im(T ).
Por tanto, en nuestro caso tenemos que los vectores T (1 − x2 ), T (2x + x2 ), T (1 + x) generan a Im(T ).
Como BP2 (R) = {1 − x2 , 2x + x2 , 1 + x}, entonces
     
2 1 −1
 0   1   2 
[T (1 − x2 )]BR4 =   2   
 −2  [T (2x + x )]BR4 =  1  y [T (1 + x)]BR4 =  5  ,

6 4 −1
que son, respectivamente, la primera, segunda y tercera columna de A. Ası́ que para extraer una base
de Im(T ) del conjunto generador {T (1 − x2 ), T (2x + x2 ), T (1 + x)}, primero extraemos del conjunto
formado por los vectores
     
2 1 −1
 0     
Y1 =   , Y2 =  1  , y Y3 =  2 
 −2   1   5 
6 4 −1
Transformaciones Lineales 55

una base del espacio generado por ellos, y luego interpretamos los vectores obtenidos en la base de R4
empleada para definir la matriz A. Ahora bien, sabemos que un mecanismo para encontrar una base del
espacio generado por {Y1 , Y2 , Y3 } consiste en reducir por columnas tales vectores, y luego los vectores no
nulos de esa reducción constituyen una base del espacio generado por {Y1 , Y2 , Y3 }; otra forma es colocar
estos vectores como filas de una matriz y realizar el mismo procedimiento anterior empleando la reducción
por filas; que es la que usaremos a continuación:
     
2 0 −2 6 2 0 −2 6 2 0 −2 6
f2 →f2 − 12 f1 f3 →f3 −2f2
 1 1 1 4  −−−−−−− −→  0 1 2 1  −−−−−−−→  0 1 2 1 ,
f3 →f3 + 12 f1
−1 2 5 −1 0 2 4 2 0 0 0 0
   
2 0
 0   1 
de donde Z1 =   
 −2  y Z2 =  2
 constituyen una base del espacio generado por Y1 , Y2 , Y3 ; y por

6 1
tanto los vectores

w1 = 2 v1 + 0 v2 + (−2) v3 + 6 v4 = (0, −4, 2, 6) y w2 = 0 v1 + 1 v2 + 2 v3 + 1 v4 = (2, 3, 0, 4)

constituyen una base de Im(T ).


Observe que aunque en ambos procedimientos se han obtenido diferentes conjuntos linealmente inde-
pendientes, ambos generan al mismo subespacio (el espacio imagen Im(T )) de R4 .

Hemos visto hasta ahora que las representaciones matriciales respetan la estructura lineal, ver (1.20).
Dado que la composición de transformaciones lineales es también una transformación lineal, surge la
pregunta natural: ¿las representaciones matriciales de composición de transformaciones lineales respeta
el producto de matrices? El siguiente resultado ofrece la respuesta a la interrogante.

Proposición 1.11. Sean U, V y W espacios vectoriales sobre K de dimensiones n, m y r respectivamente.


Si T : U → V y S : V → W son transformaciones lineales, y ST es la composición S ◦ T , entonces

[ST ]B BW BV
BU = [S]BV [T ]BU ,
W
(1.25)

cualesquiera sean las bases BU de U , BV de V y BW de W .

Demostración: Sabemos que para T , S y ST se satisfacen:

[(ST )(u)]BW = [ST ]B BV


BU [u]BU , [T (u)]BV = [T ]BU [u]BU para todo u ∈ U y
W

[S(v)]BW = [S]B
BV [v]BV para todo v ∈ V ,
W

entonces para cada u ∈ U también se cumple:

[(ST )(u)]BW = [S(T (u))]BW = [S]B


BV [T (u)]BV (¿por qué?)
W

= [S]B BV BW BV
BV ([T ]BU [u]BU ) = [S]BV [T ]BU [u]BU (¿por qué?).
W

Luego de la unicidad de las representaciones matriciales sigue (1.25). Debemos hacer notar que esta
identidad también puede verificarse directamente al considerar la imagen, mediante ST , de cada vector
uj ∈ BU (j = 1, · · · , n) y expresarla como combinación lineal en la base BW . Se deja al lector esta
comprobación.
56 Fascı́culos de Álgebra Lineal

Comentario 1.10. Tomemos dos operadores lineales T : U → U y S : U → U siendo U un espacio


vectorial de dimensión finita n ≥ 1, e interpretemos la proposición anterior en este especial caso. Dado que
se trata de operadores lineales sobre un mismo espacio vectorial, consideramos una sola base (ordenada)
B de U , entonces sigue de lo anterior que:

[ST ]B = [S]B [T ]B . (1.26)

2
En el caso particular de T = S se tiene la identidad [T 2 ]B = ([T ]B ) . Supongamos que T : U → U es
invertible, entonces como T T −1 = IU (el operador identidad en U ), sigue del ejemplo 1.38 (ver página
50) que [T ]B es invertible y además ([T ]B )−1 = [T −1 ]B .

Ejemplo 1.42. Sean T : R2 → R2 y S : R2 → R3 las transformaciones lineales definidas por

T (x, y) = (x + 2y, −2x + y) y S(x, y) = (2x + y, −x + y, x − y).

En R2 tomemos la base BR2 = {e1 , e2 }, y en R3 BR3 = {v1 , v2 , v3 }, donde v1 = (1, 0, 1), v2 = (0, 1, 1) y
v3 = (0, 0, 1). Dado que:

T (e1 ) = (1, −2) = 1.e1 − 2.e2 y T (e2 ) = (2, 1) = 2.e1 + 1.e2 ,


 
B 1 2
entonces [T ]BR22 = . Por otra parte, como
R −2 1

S(e1 ) = (2, −1, 1) = 2.v1 − 1.v2 + 0.v3 y S(e2 ) = (1, 1, −1) = 1.v1 + 1.v2 − 3.v3 ,
     
2 1 2 1   0 5
B B 1 2
entonces [S]BR32 =  −1 1 . De (1.25) sigue que [ST ]BR32 =  −1 1  =  −3 −1  .
R R −2 1
0 −3 0 −3 6 −3
De esta última identidad se deducen:

(ST )(e1 ) = 0.v1 − 3.v2 + 6.v3 = (0, −3, 3) y (ST )(e2 ) = 5.v1 − 1.v2 − 3.v3 = (5, −1, 1),

de donde

(ST )(x, y) = (ST )(x e1 + y e2 ) = x(ST )(e1 ) + y(ST )(e2 ) = (5y, −3x − y, 3x + y).

1.4.2. Cambios de bases y representaciones matriciales


Como se habrá notado, la construcción de representaciones matriciales de transformaciones lineales
entre espacios vectoriales de dimensión finita se inicia con la consideración de dos bases cualesquiera: una
en el espacio de salida (dominio de la transformación) y otra en el espacio de llegada. Luego resulta natural
formularse la pregunta ¿si se cambian las bases de tales espacios, las representaciones matriciales de una
misma transformación lineal cambia? De hecho, en general es ası́; el ejemplo a continuación muestra un
caso donde se evidencia tal cambio. Sin embargo, dado que a partir de una tal representación matricial
se obtiene toda la información necesaria para conocer las propiedades básicas de esa transformación
lineal, por ejemplo su núcleo y espacio imagen, entonces debe existir una forma de relacionar diferentes
representaciones matriciales de una misma transformación lineal. Este es el objeto de estas partes de las
notas.
Transformaciones Lineales 57

 
  2x − y
x
Ejemplo 1.43. Sea T : R2 → R3 la transformación lineal dada por T =  x + y . Como es
y
2x + 4y
 
2 −1
conocido, la representación matricial de T en la bases canónicas de R2 y R3 es la matriz A =  1 1 .
2 4
Sin embargo al considerar otras bases de estos espacios no hay garantı́as de la representación matricial
asociada a tales bases coincida con A. De hecho, para las bases B = e1 , e2 (canónica de R2 ) y B′ = e3 , e2 , e1

de R3 , la representación matricial de T en estas bases ([T ]BB ) ya no es la misma. En efecto, dado que
     
x z 2 −1
cada v = y  = ze3 + ye2 + xe1 ; que es [v]B′ = y , y como T (e1 ) = 1 y T (e2 ) =  1 , entonces
z x 2 4
 
2 4

[T ]B
B =
 1 1 .
2 −1

Debido a la dependencia de las representaciones matriciales con las bases que estemos considerando,
la inquietud que nos atañe tendrá que estar relacionada con la noción de cambio de base en espacios
vectoriales finito dimensionales. Por la importancia de esta noción, la recordaremos y haceremos una
interpretación del cambio de base en términos del concepto de transformaciones lineales, y más especı́fi-
camente del concepto de isomorfismo.

Recordatorio 1.2. Sea U un espacio vectorial sobre K el cual es de dimensión finita n ≥ 1. Supongamos
que B = {u1 , · · · , un } y B′ = {u′1 , · · · , u′n } son bases (ordenadas) de U . Cada vector de una de estas
bases se escribe de manera única (recuerde el concepto de base) como combinación lineal de los vectores
de la otra base; por ejemplo, para cada j = 1, · · · , n existen únicos escalares p1j , · · · , pnj ∈ K tales que

u′j = p1j u1 + · · · + pnj un . (1.27)

Tomemos cualquier vector u ∈ U ; en la base B ′ este vector se escribe de manera única como
 
α1
 
u = α1 u′1 + · · · + αn u′n ; es decir, [u]B′ =  ...  ;
αn

por tanto, usando (1.27) y agrupando términos tenemos:

u = (p11 α1 + · · · + p1n αn )u1 + · · · + (pn1 α1 + · · · + pnn αn )un ;

con lo cual     
p11 α1 + · · · + p1n αn p11 ··· p1n α1
 .
..   . .. ..   ..  = P [u] ′ .
[u]B =   =  .. . .  .  B (1.28)
pn1 α1 + · · · + pnn αn pn1 ··· pnn αn
A la matriz P = [pij ] ∈ Mn×n (K) anterior se le conoce como matriz de cambio de la base B hacia la
base B′ . Note que las columnas de P se obtienen colocando ordenadamente los coeficientes pij dados por
la relación (1.27) para cada i, j = 1, · · · , n.
Es claro que P define un operador lineal en Kn ; que es, TP : Kn → Kn con TP (X) = P X para cada
X ∈ Kn (considerado como vector unicolumna). De hecho es conocido que P es invertible, por tanto TP
58 Fascı́culos de Álgebra Lineal

es un isomorfismo de Kn . Asumiendo que no es evidente el calificativo de matriz de cambio de la base


B hacia la base B′ , ahora tenemos las herramientas para justificarlo; este es el espı́ritu de la siguiente
proposición.

Proposición 1.12. Sean U un espacio vectorial sobre K de dimensión finita n ≥ 1, B = {u1 , · · · , un } y


B′ = {u′1 , · · · , u′n } bases (ordenadas) de U . Si T : U → U es el único operador lineal en U tal que para
cada j = 1, · · · , n cumple T (uj ) = u′j (T envı́a B en B′ ), entonces la representación matricial de T en la
base B, [T ]B , es justamente la matriz P = [pij ] ∈ Mn×n (K) cuyos coeficientes pij son dados por (1.27).

Demostración: Recordemos por el teorema 1.1, ver página 17, que en efecto existe una única trans-
formación lineal de U en U (es decir un operador lineal en U ) que satisface T (uj ) = u′j para cada
j = 1, · · · , n. Por otra parte, sabemos que la columna j (j = 1, · · · , n) de la matriz [T ]B se obtiene al
colocar ordenadamente los coeficientes que definen la combinación lineal mediante la cual se expresa el
vector T (uj ) en términos de la base B; es decir, al escribir el vector u′j como combinación lineal de los
vectores u1 , · · · , un ; que es justamente la expresada en la identidad (1.27).

Ası́ pues, la proposición que acabamos de demostrar dice que la matriz de cambio de la base B hacia
la base B′ es la representación matricial del operador lineal en U que envı́a B en B ′ . Note además que T
es un isomorfismo (¡envı́a base en base!), por lo que P es invertible. Observe también que si S : U → U
es el operador lineal que hace S(u′j ) = uj para cada j = 1, · · · , n, entonces ST (uj ) = uj y T S(u′j ) = u′j
para todo j = 1, · · · , n; de donde se concluye que S = T −1 . Por tanto la matriz de cambio de la base B ′
hacia B es la inversa de la matriz de cambio de la base B hacia B ′ .

Recordada entonces la noción de cambio de base en espacios vectoriales de dimensión finita, y su in-
terpretación en términos de isomorfismos, pasamos a demostrar el teorema que revela la relación existente
entre dos representaciones matriciales de una misma transformación lineal.

Teorema 1.8. Dados U y V espacios vectoriales sobre K ambos de dimensión finita. Sean BU y BU bases
de U , BV y BV bases de V . Si P y Q son las matrices de cambio de BU hacia BU , y de BV hacia BV′
′ ′

respectivamente, entonces

B′
[T ]BV′ = Q−1 [T ]B
BU P
V
(1.29)
U

Demostración: Sabemos que para todo u ∈ U valen:


B′
[T (u)]BV = [T ]B
BU [u]BU y [T (u)]BV = [T ]B′ [u]BU .
V

V

U


Siendo P y Q las matrices de cambio de base de BU hacia BU , y de BV hacia BV′ respectivamente, tenemos
de (1.28) que para cada u ∈ U y v ∈ V valen las identidades:

[u]BU = P [u]BU′ y [v]BV = Q [v]BV′ .

Por otra parte, para cada u ∈ U también se cumplen


B′
[T (u)]BV = Q [T (u)]BV′ = Q [T ]BV′ [u]BU′ y [T (u)]BV = [T ]B BV
BU [u]BU = [T ]BU P [u]BU ,
V

U

B′ B′
de donde Q [T ]BV′ [u]BU′ = [T ]B
BU P [u]BU para cada u ∈ U, por tanto, Q [T ]BU
V

V
′ = [T ]B
BU P , pues como
V
U
n
sabemos, si A, B ∈ Mm×n (K) son tales que AX = BX para todo X ∈ K , entonces A = B. Finalmente,
B′
como Q es invertible, [T ]BV′ = Q−1 [T ]B
BU P .
V
U
Transformaciones Lineales 59

El siguiente corolario describe la relación existente entre dos representaciones matriciales cualesquiera
de un operador lineal en espacios de dimensión finita; su demostración es inmediata.
Corolario 1.8. Dado U un espacio vectorial sobre K de dimensión finita; sean B y B ′ bases de U . Si P
es la matriz de cambio de B hacia B′ , entonces

[T ]B′ = P −1 [T ]B P (1.30)

Ejemplo 1.44. Sean T : R2 → P2 (R) la transformación lineal dada por T (a, b) = (a + b)x + ax2 . Consi-
deremos en R2 las bases B1 = {(1, 0), (0, 1)} y B1′ = {(1, 1), (0, −1)}; mientras que en P2 (R) consideremos
las bases B2 = {1, x, x2 } y B2′ = {1, 1 + x, 1 − x2 }. La representación matricial de T en las bases B1
 
0 0 
T (1, 0) = x + x2 = 0.1 + 1.x + 1.x2
y B2 es la matriz [T ]B 2
=  1 1 , pues . Podrı́amos por igual
B1
T (0, 1) = x = 0.1 + 1.x + 0.x2
1 0
B′
procedimiento obtener la representación matricial [T ]B2′ , sin embargo la calcularemos usando las matrices
1
de cambio de base y el resultado demostrado en el teorema anterior. La matriz de cambio de B1 hacia B1′
se determina escribiendo cada vector de B1′ como combinación lineal de los vectores en B1 , los escalares
allı́ encontrados determinan las columnas de tal matriz. Similarmente se procede para obtener la matriz
de cambio de B2 hacia B2′ . Dado que:
 2
  1 = 1.1 + 0.x + 0.x
(1, 1) = 1.(1, 0) + 1.(0, 1)
y 1 + x = 1.1 + 1.x + 0.x2 ,
(0, −1) = 0.(1, 0) + (−1).(0, 1) 
1 − x2 = 1.1 + 0.x + (−1).x2
 
  1 1 1
1 0
entonces P = yQ= 0 1 0  son, respectivamente, las matrices de cambio de B1 hacia
1 −1
0 0 −1
B′
B1′ , y de B2 hacia B2′ . De acuerdo con el teorema anterior, [T ]B2′ = Q−1 [T ]B
B1 P ; un simple cálculo muestra
2

  1

1 −1 1
que Q−1 =  0 1 0 , entonces
0 0 −1
    
1 −1 1 0 0   −1 1
B ′ 1 0
[T ]B2′ =  0 1 0  1 1  =  2 −1  ;
1 1 −1
0 0 −1 1 0 −1 0
significando esto que

T (1, 1) = (−1).1 + 2.(1 + x) + (−1).(1 − x2 ) = 2x + x2
.
T (0, −1) = 1.1 + (−1).(1 + x) + 0.(1 − x2 ) = −x

1.4.3. Espacio dual y Bases duales


Consideremos un espacio vectorial U sobre K; conocimos en la sección 1.3 (ver página 43) que el
conjunto de todas las transformaciones lineales de U en K; esto es L(U, K) el conjunto de los funcionales
lineales, constituyen un espacio vectorial sobre K que hemos denotado por U ∗ ; en adelante denominamos
espacio dual de U . Cuando dim(U ) = n ≥ 1, entonces dim(U ∗ ) = n; por tanto U , U ∗ y Kn son isomorfos.
Observe también que como U ∗ es un espacio vectorial, entonces tiene sentido hablar del espacio dual
de U ∗ ; en efecto, al espacio vectorial L(U ∗ , K) se le conoce con nombre de espacio bidual de U y se le
acostumbra a denotar por U ∗∗ .
60 Fascı́culos de Álgebra Lineal

Ejemplo 1.45. Uno de los ejemplos clásicos de un funcional lineal es el siguiente. Consideremos el
espacio vectorial U = C([a, b], R) (resp. C([a, b], C)) de todas las funciones continuas del intervalo [a, b]
Rb
en R (resp. C). Se define T : U → R (resp. T : U → C) como T (f ) = a f (t) dt. Usando propiedades
elementales del Cálculo Integral es simple verificar que T es un funcional lineal. Mayor énfasis cobra este
ejemplo cuando se ubica en el contexto del Análisis Matemático, se trata de los denominados coeficientes
1 R 2π
de Fourier de orden n una función continua f : [0, 2π] → C, que es Tn (f ) = f (t)e−int dt, donde n
2π 0
es un entero.

Ejemplo 1.46. Sean U un espacio vectorial sobre K con dim(U ) = n ≥ 1 y B = {u1 , · · · , un } una base
de U . En el espı́ritu del teorema 1.1, ver página 17, fijemos escalares a1 , · · · , an , entonces existe un único
funcional lineal f : U → K tal que f (ui ) = ai para cada i = 1, · · · , n.
Veamos la expresión general que tiene la imagen de cualquier vector u ∈ U . Tomemos entonces u ∈ U ;
en la base B este u se escribe de manera única como u = γ1 u1 + · · · + γn un , entonces al aplicar f a ambos
lados, emplear la linealidad y usar las condiciones impuestas a f (ui ) para cada i = 1, · · · , n se tiene
 
γ1
  .   
f (u) = γ1 a1 + · · · + γn an = a1 ··· an  ..  = a1 ··· an [u]B .
γn

Observe que esta es la relación establecida en (1.24), ver página 53, donde se obtuvo la representación
matricial de un funcional lineal cualquiera. Note además que f depende de los valores que se le asignen
a las imágenes de los vectores de la base B; podemos decir también que este es funcional lineal es un
modelo universal.
Veamos algunos casos especiales de estos funcionales lineales ası́ construidos. Si todos los escalares
a1 , · · · , an son nulos, entonces es claro que el funcional correspondiente es el nulo (vector nulo del espacio
dual U ∗ ). Hacemos énfasis en los funcionales lineales u∗1 , · · · , u∗n los cuales son obtenidos a partir de la
siguiente consideración; para cada i = 1, · · · , n sea u∗i : U → K el funcional lineal que satisface:

u∗i (u1 ) = 0, · · · , u∗i (ui−1 ) = 0, u∗i (ui ) = 1, u∗i (ui+1 ) = 0 · · · , u∗i (un ) = 0. (1.31)

Estos n funcionales lineales u∗1 , · · · , u∗n juegan un papel fundamental en la teorı́a de los espacios duales
de de dimensión n, tal y como será mostrado en el siguiente resultado.

Teorema 1.9 (Base dual). Sean U un espacio vectorial sobre K y B = {u1 , · · · , un } una base de U .
Entonces existe una única base B∗ = {u∗1 , · · · , u∗n } de U ∗ , conocida como base dual de B, tal que para
cada funcional f ∈ U ∗ se tiene:
n
X
f = f (u1 )u∗1 + · · · + f (un )u∗n = f (ui )u∗i , (1.32)
i=1

y para cada vector u ∈ U se cumple


n
X
u = u∗1 (u)u1 + · · · + u∗n (u)un = u∗i (u)ui . (1.33)
i=1

Demostración: Sean u∗1 , · · · , u∗n los funcionales lineales de U como los obtenidos mediante la relación
(1.31). Mostraremos que constituyen una base de U ∗ ; además, es la única base de U ∗ que satisface las
identidades (1.32) y (1.33).
Transformaciones Lineales 61

Observe que las representaciones matriciales de u∗1 , · · · , u∗n en la base B son, respectivamente, las
matrices unifila
     
1 0 ··· 0 , 0 1 0 ··· 0 , ··· , 0 0 ··· 0 1 ,

que son justamente los vectores canónicos en Kn (vistos como unifilas); dado que estas matrices son
linealmente independientes, los funcionales lineales u∗1 , · · · , u∗n también los son, y como dim(U ∗ ) = n,
entonces B∗ = {u∗1 , · · · , u∗n } es una base de U ∗ .
Veamos que B∗ satisface lo establecido en el enunciado del teorema. Sea f ∈ U ∗ cualquier funcional
lineal de U , existen únicos escalares γ1 , · · · , γn tales que f = γ1 u∗1 + · · · + γn u∗n . Al evaluar esta identidad
en cada ui (i = 1, · · · , n) tenemos f (ui ) = γ1 u∗1 (ui ) + · · · + γn u∗n (ui ) = γi pues u∗i (uℓ ) = 0 si i 6= ℓ y
u∗i (ui ) = 1 si i = ℓ; esto demuesta (1.32). Tomemos ahora cualquier vector u ∈ U y sean β1 , · · · , βn los
escalares tales que u = β1 u1 + · · · + βn un . Aplicando el funcional u∗i (i = 1, · · · , n) a cada lado de esta
última identidad se tiene u∗i (u) = β1 u∗i (u1 ) + · · · + βn u∗i (un ) = βi , ya que u∗i (uℓ ) = 0 si i 6= ℓ y u∗i (ui ) = 1
si i = ℓ; esto demuesta (1.33).
Finalmente, demostremos que la base B∗ es la única que satisface las identidades (1.32) y (1.33).
Supongamos que {f1 , · · · , fn } es otra base para las cuales se cumplen esas mismas identidades dadas por
(1.24). En particular, de (1.32) se tiene para cada i = 1, · · · , n que:

u∗i = u∗i (u1 )f1 + · · · + u∗i (un )fn ;

nuevamente de u∗i (uℓ ) = 0 si i 6= ℓ y u∗i (ui ) = 1 si i = ℓ sigue que u∗i = fi para cada i = 1, · · · , n; con lo
cual la demostración está completa.

Comentario 1.11. Ciertamente las ecuaciones (1.32) y (1.33) revelan el significado de las bases duales
de U ∗ : si B = {u1 , · · · , un } es una base del espacio vectorial U y B∗ = {u∗1 , · · · , u∗n } es su base dual,
entonces cada u∗i toma cualquier vector u ∈ U y lo envı́a en su i-ésima coordenada relativa a la base B,
de allı́ el nombre que se le ha asignado; por otra parte, si f ∈ U ∗ es tal que, para cada i = 1, · · · , n,
f (ui ) = γi , entonces para u = α1 u1 + · · · αn un se tiene, como en el ejemplo 1.46, que
 
α1
  . 
f (u) = γ1 α1 + · · · + γn αn = γ1 ··· γn  ..  .
αn

Esto permite concluir que para cualquier funcional f en un espacio U de dimensión n ≥ 1, y para cualquier
base B de U , existe una única A ∈ M1×n (K) tal que f (u) = A[u]B para cada u ∈ U ; como sabemos, A es
la representación matricial de f en la base B de U .

Ejemplo 1.47. Para la base B = {u1 = (1, 1), u2 = (0, 1)} de R2 construyamos su base dual. Siguiendo
los argumentos del teorema anterior, los funcionales u∗1 , u∗2 : R2 → R que definen la base dual de B están
 ∗  ∗
u1 (u1 ) = 1 u2 (u1 ) = 0
caracterizados por: y . Ahora bien, dado que cada u = (x, y) ∈ R2 se
u∗1 (u2 ) = 0 u∗2 (u2 ) = 1
escribe en la base B como u = xu1 + (y − x)u2 , entonces:
 
  x
u∗1 (x, y) = xu∗1 (u1 ) + (y − x)u∗1 (u2 ) = x = 1 0 ,y
y−x
 
∗ ∗ ∗
  x
u2 (x, y) = xu2 (u1 ) + (y − x)u2 (u2 ) = y − x = 0 1 .
y−x
62 Fascı́culos de Álgebra Lineal

Ejemplo 1.48. Consideremos el espacio dual de (R3 )∗ ; es decir, el espacio de todos los funcionales
lineales de R3 . Sean f1 , f2 , f3 : R3 → R los funcionales lineales definidos, para cada (x, y, z) ∈ R3 por

f1 (x, y, z) = 2x + y + z, f2 (x, y, z) = −y + z y f3 (x, y, z) = x + y + z. (1.34)

Es fácil verificar que f1 , f2 , f3 son linealmente independientes, de hecho, si α1 , α2 , α3 son números reales
tales que α1 f1 + α2 f2 + α3 f3 = 0(R3 )∗ (el funcional nulo), entonces al evaluar esta identidad en los

 2α1 + α3 = 0
vectores canónicos e1 , e2 , e3 tenemos el sistema de ecuaciones lineales homogéneo α1 − α2 + α3 = 0 .

α1 + α2 + α3 = 0
Para verificar que este sistema de ecuaciones tiene como única solución la nula, basta chequear que la
 
2 0 1
matriz  1 −1 1  es invertible, lo cual se verifica mediante la reducción por filas, o simplemente
1 1 1
calculando su determinante. Verificado esto, tenemos que {f1 , f2 , f3 } es base de (R3 )∗ . Deseamos en este
ejemplo encontrar la base de R3 que hace a {f1 , f2 , f3 } su base dual. Es decir, deseamos hallar vectores
u1 , u2 , u3 ∈ R3 tales que:
  
 f1 (u1 ) = 1  f2 (u1 ) = 0  f3 (u1 ) = 0
f1 (u2 ) = 0 , f2 (u2 ) = 1 , y f (u ) = 0 .
   3 2
f1 (u3 ) = 0 f2 (u3 ) = 0 f3 (u3 ) = 1

 f1 (u1 ) = 1
Para obtener estos tres vectores hagamos primero u1 = (x, y, z). De las relaciones f (u ) = 0 y usando
 2 1
f3 (u1 ) = 0

 2x + y + z = 1
(1.34), sigue que u1 es solución del sistema de ecuaciones lineales −y + z = 0 . Procediendo de

x+y+z = 0
 
 f1 (u2 ) = 0  f1 (u3 ) = 0
la misma forma, al emplear las relaciones f2 (u2 ) = 1 y f (u ) = 0 , se obtiene vectores u2 y u3
  2 3
f3 (u2 ) = 0 f3 (u3 ) = 1
 
 2x + y + z = 0  2x + y + z = 0
que son soluciones, respectivamente, de los sistemas lineales: −y + z = 1 y −y + z = 0 .
 
x+y+z = 0 x+y+z =1
 
2 1 1
Note que estos tres sistemas de ecuaciones lineales tienen solución única pues la matriz  0 −1 1  es
1 1 1
invertible. Ası́ que usando cualquier método de resolución de sistemas de ecuaciones lineales obtenemos:

u1 = (1, − 21 , − 12 ), u2 = (0, − 21 , 12 ) y u3 = (−1, 1, 1),

son los vectores de R3 que hacen a {f1 , f2 , f3 } la base dual de {u1 , u2 , u3 }.

Comentario 1.12 (Funcionales lineales e hiperespacios). El núcleo de funcionales lineales no


nulos tiene una interesante interpretación geométrica que a continuación discutiremos. Sean U un espacio
vectorial sobre K y f : U → K un funcional lineal cualquiera. Si f es el funcional nulo, es obvio que
N (f ) = U . Supongamos entonces que f 6= 0U ∗ ; luego existe un vector u0 ∈ U tal que f (u0 ) = 1.
Denotemos por hu0 i el subespacio de U generado por este vector u0 ; claramente dim(hu0 i) = 1 y además
N (f ) ∩ hu0 i = {0U }. Veamos que U = N (f ) ⊕ hu0 i. Para ello basta con mostrar que todo vector de U
Transformaciones Lineales 63

se escribe como la suma de un vector en N (f ) y otro en hu0 i. Tomemos entonces u ∈ U ; una simple
cuenta muestra que u = (u − f (u)u0 ) + f (u)u0 ; además, es también simple ver que f (u)u0 ∈ hu0 i y
u − f (u)u0 ∈ N (f ); de esta forma U = N (f ) ⊕ hu0 i.
Geométricamente lo que se acaba de mostrar dice que el núcleo de un funcional lineal no nulo es “todo
el espacio U excepto por un subespacio de dimensión 1”. En general todo subespacio vectorial W de U
que satisfaga U = W ⊕ hui, para algún vector no nulo, se le conoce con el nombre de hiperespacio de U ,
o también W es un subespacio vectorial de codimensión 1 .
Ası́, el núcleo de cualquier funcional lineal no nulo de U es un hiperespacio de U . En el caso especial de
ser U de dimensión finita n ≥ 1, los hiperespacios se llaman hiperplanos. Observe que si dim(U ) = n ≥ 1 y
f es un funcional lineal no nulo, entonces del teorema de la nulidad y rango sigue que dim(N (f )) = n − 1.
La figura 1.13 ilustra esta situación. Aún en el caso de dim(U ) = n ≥ 1, si B = {u1 , · · · , un } es una base

N (f )

hu0 i u0
0U

Figura 1.13: El núcleo de un funcional lineal no nulo como hiperespacio


   
de U y f es cualquier funcional en U , sabemos que existe γ1 · · · γn tal que f (u) = γ1 ··· γn [u]B
para todo u ∈ U . Luego el núcleo de f queda caracterizado por la relación

u ∈ N (f ) si, y sólo si, γ1 α1 + · · · + γn αn = 0,


 
α1
 
donde los escalares α′ s son tales que [u]B =  ... . Esto revela la estrecha relación entre los núcleos de
αn
funcionales no nulos y los hiperplanos en Kn que contienen al origen. De hecho, esta relación va mucho
más allá, tal y como lo muestra el siguiente resultado.

Teorema 1.10. Para cualquier U , espacio vectorial sobre K de dimensión n ≥ 1, se tiene:

1. Si W es un hiperplano de U , entonces existe un funcional lineal f en U tal que N (f ) = W ;

2. Si W es un subespacio de dimensión 1 ≤ k < n, entonces W es la intersección de n − k hiperplanos


en U ; es decir, cualquier subespacio vectorial de U con dimensión k es la intersección de n − k
núcleos de ciertos funcionales lineales del espacio U .

Demostración: Note que la primera parte del enunciado del teorema es consecuencia de la segunda:
basta considerar k = n − 1. Por tanto demostraremos la segunda parte.
Sean W un subespacio de U con dimensión 1 ≤ k < n y {u1 , · · · , uk } una base de W . Construiremos
n − k funcionales lineales en U de manera que la intersección de sus núcleos sea W . Recordemos que un
64 Fascı́culos de Álgebra Lineal

funcional lineal f : U → K se obtiene a partir de una base B de U y una matriz unifila A; de hecho
f (u) = A[u]B para todo vector u ∈ U .
Sea B = {u1 , · · · , uk , uk+1 , · · · , un } una base de U obtenida por completación de la base considerada
 
en W . Para cada j = k + 1, · · · , n, sea Aj = 0 · · · 0 1 0 · · · 0 la matriz unifila que ubica el
dı́gito 1 en la j-ésima posición de Aj y el resto de sus entradas en igual a 0. De esta forma tenemos n − k
funcionales lineales fk+1 , · · · , fn : U → K dados por fj (u) = Aj [u]B , para cada u ∈ U ; esto es, fj (u) = αj
siempre que u = α1 u1 +· · ·+αk uk +αk+1 uk+1 +· · ·+αn un . Veamos que W = N (fk+1 )∩· · ·∩N (fn ). Note
que u = α1 u1 +· · ·+αk uk +αk+1 uk+1 +· · ·+αn un ∈ N (fj ) para j = k+1, · · · , n si, y sólo si, la componente
αj del vector de coordenadas [u]B es nula, pues son los únicos que hacen Aj [u]B = 0. Dado que para cada
vector de u ∈ W las componentes αk+1 , · · · , αn en [u]B son todas nulas, entonces u ∈ N (fj ) para todo
j = k + 1, · · · , n; es decir, W ⊂ N (fk+1 ) ∩ · · · ∩ N (fn ). Recı́procamente, si u ∈ N (fk+1 ) ∩ · · · ∩ N (fn ),
entonces las componentes de u en [u]B son nulas desde la posición k + 1 hasta la posición n; esto es,
u ∈ W ; por tanto N (fk+1 ) ∩ · · · ∩ N (fn ) ⊂ W , y ası́ W = N (fk+1 ) ∩ · · · ∩ N (fn ).

Ejemplo 1.49. Sean P3 (R) el espacio de las funciones polinómicas de grado menor o igual a 3 y W el
subespacio generado por p1 (x) = 1+2x−2x2 y p2 (x) = 2x+x2 +x3 . Note dim(W ) = 2 pues p1 (x) y p2 (x)
son linealmente independientes. Dado que dim(P3 (R) = 4, el teorema anterior garantiza la existencia de
dos funcionales lineales f3 , f4 : P3 (R) → R, tales que N (f3 ) ∩ N (f4 ) = W . Siguiendo la demostración
del teorema, debemos completar {p1 (x), p2 (x)} hasta obtener una base de P3 (R), por ejemplo para las
funciones p3 (x) = x2 y p4 (x) = x3 se tiene que B = {p1 (x), p2 (x), p3 (x), p4 (x)} es base de P3 (R). El
siguiente paso en la búsqueda de los funcionales lineales f3 y f4 es calcular el vector de coordenadas de
cualquier p(x) = a0 + a1 x + a2 x2 + a3 x3 en la base B; es decir, para una tal función polinomial de grado
menor o igual a 3 encontrar escalares α1 , α1 , α3 , α4 ∈ R tales que
p(x) = α1 p1 (x) + α2 p2 (x) + α3 p3 (x) + α4 p4 (x)
= α1 + (2α1 + 2α2 )x + (−2α1 + α2 + α3 )x2 + (α2 + α4 )x3 .
Sigue de esta igualdad que los valores de α1 , α2 , α3 y α4 se obtienen como solución del sistema de ecua-
 
 α1 = a0  α1 = a0

 
 α = −a + a1
2α1 + 2α2 = a1 2 0 2
ciones lineales ; que es, a1 . De esta forma los funcionales

 −2α 1 + α 2 + α 3 = a 2 
 α3 = 3a 0 − 2 + a2
  a1
α2 + α4 = a3 α4 = a0 − 2 + a3
que estamos procurando quedan determinados por los valores de los escalares α3 y α4 ; es decir:
a1 a1
f3 (p(x)) = 3a0 − + a2 y f4 (p(x)) = a0 − + a3 .
2 2
Observe que N (f3 ) = {p(x) : 6a0 − a1 + 2a2 = 0} y N (f4 ) = {p(x) : 2a0 − a1 + 2a3 = 0}.
Otra forma de proceder (aunque en el fondo es la misma anterior) para encontrar funcionales lineales
cuya intersección de sus núcleos sea W consiste primero en caracterizar las funciones polinomiales de grado
menor o igual a 3 que pertenecen a W ; y a partir de allı́ obtener unos tales funcionales lineales. Sabemos
que p(x) = a0 +a1 x+a2 x2 a3 x3 ∈ W si, y sólo si, existen escalares α1 y α2 tales que p(x) = αp1 (x)+βp2 (x).

 α = a0


2α + 2β = a1
Pero esto ocurre si, y sólo si el sistema de ecuaciones lineales admite soluciones,

 −2α + β = a2

β = a3
   
1 0 1 0 a0
 2 2   2 2 a1 
esto significa que   y 
 −2 1   −2 1
 tienen los mismos rangos. Empleando operaciones
a2 
0 1 0 1 a3
Transformaciones Lineales 65

 
1 0 a0
 0 1 a3 
elementales por filas se verifica que esta última matriz es equivalente a 
 0
, por
0 2a0 − a1 + 2a3 
0 0 2a0 + a2 − a3
tanto, p(x) ∈ W si, y sólamente si, 2a0 − a1 + 2a3 = 0 y 2a0 + a2 − a3 = 0; es decir

W = {a0 + a1 x + a2 x2 a3 x3 : 2a0 − a1 + 2a3 = 0 y 2a0 + a2 − a3 = 0}.

Si definimos los funcionales lineales g3 , g4 : P3 → R, para cada p(x) = a0 + a1 x + a2 x2 a3 x3 , por:

g3 (p(x)) = 2a0 + a2 − a3 y g4 (p(x)) = 2a0 − a1 + 2a3 ,

la intersección de sus núcleos es W , pues tales subespacios están constituidos, respectivamente, por
aquellas funciones p(x) = a0 + a1 x + a2 x2 a3 x3 con 2a0 − a1 + 2a3 = 0 y 2a0 + a2 − a3 = 0.

1.4.4. Ejercicios Propuestos de la sección 1.4


1. Sean U y V espacios vectoriales sobre K. Decidir acerca de la veracidad o falsedad de cada una de
las siguientes proposiciones:

a) Si U y V son ambos de dimensión finita, entonces L(U, V ) y L(V, U ) son isomorfos.


b) Si dim(U ) = n, entonces L(U ) es isomorfo a U .
c) Si dim(U ) = n, entonces L(U ) es isomorfo a K2n .
d ) Si U es de dimensión finita, entonces todo funcional lineal de U puede ser representado mediante
una matriz de orden 1 × 1.
e) Si U es de dimensión finita, entonces U es isomorfo a U ∗ .
f ) Si BU = {u1 , · · · , un } y BV = {v1 , · · · , vm } son bases de U y V respectivamente, entonces
[T ]B
BU es una matriz de orden n × m.
V

g) Si BU = {u1 , · · · , un } y BV = {v1 , · · · , vm } son bases de U y V respectivamente, entonces la


columna j-ésima de [T ]B BU está formada por las coordenadas del vector [T (uj )]BU .
V

h) Si BU = {u1 , · · · , un } y BV = {v1 , · · · , vm } son bases de U y V respectivamente, entonces


para todo par de transformaciones lineales T1 : U → V y T2 : U → V se cumple que T1 = T2
si, y sólo si, [T1 ]B BV
BU = [T2 ]BU .
V

i ) Sean T1 : U → V y T2 : V → W transformaciones lineales. Si BU , BV y BW son bases de U, V


y W respectivamente, tales que [T2 ]B BV
BV [T1 ]BU es la matriz identidad, entonces T1 es invertible
W

−1
y T2 = (T1 ) .
j ) Si B1 = {u1 , · · · , un } y B2 = {v1 , · · · , vn } son bases de U , entonces la representación matricial
del operador identidad, [I]B B1 , es la matriz identidad de orden n.
2


k ) Sean U y V espacios vectoriales sobre K de dimensión finita; sean BU , BU bases de U , y BV ,
′ ′
BV bases de V . Si P es la matriz de cambio de BU hacia BU y Q es la matriz de cambio de

BV
BV hacia BV′ , entonces [T ]B
BU = Q [T ]B′ P
V −1
.
U

l) Sean B1 = {u1 , · · · , un } y B2 = {v1 , · · · , vn } son bases de U . Si T es un operador lineal en U


tal que [T ]B
B1 es la matriz identidad de orden n, entonces T = IU .
2

2. En cada uno de los casos que a continuación se presentan determinar la representación matricial de
la transformación lineal dada:
66 Fascı́culos de Álgebra Lineal

a) U = R2 , V = R3 , T : U → V con por T (x, y) = (2x − y, x + y, y), BU = {e2 , e1 }, y


BV = {e2 , e1 , e3 }. [T ]B
BU =?
V

b) U = R3 , V = R2 , T : U → V con T (x, y, z) = (x + 2y − z, y − z), BU = {u1 , u2 , u3 } donde


u1 = (1, 1, 1), u2 = (0, 1, 1), u3 = (0, 1, −1)}, y BV = {(2, 1), (1, 1)}. [T ]B
BU =?
V

c) U = Rn , T : U → U definida por T (x1 , · · · , xn ) = (x2 , · · · , xn , 0), BU = {e1 , · · · , en }. [T ]B


BU =?
V

p(x) − p(0)
d ) U = P2 (R), V = P3 (R), T : U → V definida por T (p(x)) = xp(x) + , con
x
2 2 2 3 BV
BU = {1, 1 + x, 1 + x + x }, y BV = {1, 1 − x, 1 + 2x + x , 1 − 3x + 3x − x }. [T ]BU =?
 
a b
e) U = M2×2 (R), V = R2 , T : U → V dada por T = (a + b, a + d), siendo que
a d
       
1 0 0 1 1 1 0 0
BU = , , , , y BV = {(1, 1), (2, −1)}. [T ]B
BU =?
V

0 1 0 1 1 1 0 1
f ) U = Mn×n (R), V = R, T : U → V dada por T (A) = tr(A), BU = {Aij : i, j = 1, · · · , n}
donde Aij es la matriz cuyas entradas son iguales a 0, excepto la entrada ij que es igual a 1,
y BV = {1}. [T ]B
BU =?
V

g) U = C2 , T : U → V dada por T (x + iy, u + iv) = ((2x − v) + i(2y + u), (y + u) + i(−x + v)) y


BU = {(1, i), (1, 1)}. [T ]BU =?
h) U = Rn , V = R, T : U → V definida por T (x1 , · · · , xn ) = a1 x1 + a2 x2 + · · · + an xn , donde
a1 , · · · , an ∈ Rn son constantes, BU = {e1 , · · · , en }, y BV = {1}. [T ]B
BU =?
V

i ) U = Cn , V = C, T : U → V definida por T (x1 , · · · , xn ) = a1 x1 + a2 x2 + · · · + an xn ,


donde a1 , · · · , an ∈ Cn son constantes, a denota el conjugado del número complejo a, BU =
{e1 , · · · , en }, y BV = {1}. [T ]B
BU =?
V

j ) U = CR , V = R2 , T : U → V definida por T (x + iy) = (x + y, −x + y), BU = {1, 1 + i}, y


BV = {(1, 0), (1, 1)}. [T ]B
BU =?
V

k ) U el subespacio de F(R, R) generado por la base BU = {f1 , f2 , f3 , f4 } donde

f1 (x) = ex cos(x), f2 (x) = ex sen(x), f3 (x) = e2x cos(x) y f4 (x) = e2x sen(x),

T : U → U es dada por T (f ) = f ′ . [T ]BU =?


   
1 0 2 1
3. Sean U = R y V = M2×2 (R). Demostrar que T1 (x) = x y T2 (x) = x definen
−1 1 2 1
transformaciones lineales linealmente independientes. Completar {T1 , T2 } hasta obtener una base
de L(U, V ).

4. Construya una base de L(C2 , C2 ), entendiendo primero a C2 como un espacio vectorial sobre C;
repetir lo anterior pero ahora con C2 como espacio vectorial sobre R.

5. Dada A ∈ Mn×n (K) fija, denote por C(A) el conjunto de todas las matrices B ∈ Mn×n (K) tales
que AB = BA. Demostrar que C(A) es un subespacio vectorial de Mn×n (K).
 
1 2
Para A = determine de forma explı́cita las matrices de C(A), encuentre una base de este
1 1
subespacio, y complete tal base hasta obtener una de M2×2 (R).
Se define Φ : M2×2 (R) → M2×2 (R) por Φ(B) = AB − BA para cada B ∈ M2×2 (R). Determine una
representación matricial de Φ en la base obtenida. ¿Es Φ un isomorfismo?
Transformaciones Lineales 67

6. Sean q(x) = 2 + x, T1 : P2 (R) → P2 (R) y T2 : P2 (R) → R4 definidas para p(x) = a0 + a1 x + a2 x2


por T1 (p(x)) = p(x)′ q(x) − 2p(x) y T2 (p(x)) = (a0 − a1 , a2 , a0 + 3a2 , −a0 + a2 ). Dadas las bases
BP2 (R) = {1, x, x2 } y BR4 = {e1 , e2 , e3 , e4 }:
B B
a) Calcular [T2 ]BPR4 (R) , [T1 ]BP2 (R) y [T2 T1 ]BRP4 (R) ;
2 2

b) Para h(x) = 2 + 3x − x2 calcular [h(x)]BP2 (R) y [T2 (h(x))]BR4 .


 
1 2 1
7. Sean T : P2 (R) → R3 la transformación lineal que tiene a A =  0 1 1  como la represen-
−2 −2 0
tación matricial en las bases BP2 (R) = {1, 1 + x, 1 + 2x + x2 } y BR3 = {(1, 2, 1), (0, 1, 1), (0, 1, 2)}.
Encontrar bases para N (T ) y Im(T ). ¿Pertenece p(x) = 1 + 2x − x2 al núcleo de T ?
 
  3x − y    
2 3 x   ′ 2 −1
8. Sea T : R → R dada por T = 2x + 4y , y sean BR2 = {e1 , e2 }, BR2 = ,
y 1 1
−x + y
     
 1 0 0 
bases de R2 ; BR3 = {e1 , e2 , e3 }, BR′ 3 =  −1  ,  2  ,  1  bases de R3 .
 
0 0 1
B
a) Calcule [T ]BR32 .
R

b) Obtenga las matrices de cambio de base, P y Q, de BR2 hacia BR′ 2 , y de BR3 hacia BR′ 3 . Calcule
B′
[T ]BR′ 3 .
R2

9. Sean A ∈ Mm×n (K) y TA : Kn → Km dada por TA (X) = AX para cada X ∈ Kn .


a) Demostrar que la representación matricial, [T ]B Km
BKn , de TA es las bases canónicas es A.
n
b) Sean BK′ ′
n y BKm bases cualesquiera de K y Km . Demostrar que las matriz P de cambio de
′ ′
base de BKn hacia BK n tiene como columnas los vectores de BKn . Compare con el ejercicio

anterior.
10. Sea O : U → V es la transformación lineal nula. Si BU = {u1 , · · · , un } BV = {v1 , · · · , vm } son bases
de U y V respectivamente, demostrar que [O]B BU es la matriz nula de orden m × n.
V

11. Sea U un espacio vectorial sobre K de dimensión finita n ≥ 1. Demostrar que si T1 y T2 son
operadores lineales en U tales que la base B = {u1 , · · · , un } de U satisfacen [T1 ]B [T2 ]B = In (matriz
identidad), entonces T1 es invertible y T2 = (T1 )−1 .
12. Sean A, B ∈ Mn×n (K) tales que AB = In (matriz identidad). Demostrar que A es invertible y
B = A−1 .
13. Sean U un espacio
 vectorial
 de dimensión 2 sobre K, y T un operador lineal en U . Si B es una base
a b
de U y [T ]B = , demostrar que T 2 − (a + d)T + (ad − bc)IU = 0U , donde IU es el operador
c d
identidad en U y 0U es el operador nulo en U .
14. Sean Pn+1 (R) y Pn (R) los espacios de las funciones polinómicas de grado menor o igual a n + 1 y
de grado menor o igual a n sobre R, respectivamente. Sea D : Pn+1 (R) → Pn (R) la transformación
lineal que a cada p(x) = a0 + a1 x + · · · + an+1 xn+1 ∈ Pn+1 (R) le hace corresponder su derivada

D(p(x)) = p′ (x) = a1 + 2a2 x + · · · + (n + 1)an+1 xn ∈ Pn (R).


68 Fascı́culos de Álgebra Lineal

a) En las bases Bn+1 = {1, x, · · · , xn+1 } y Bn = {1, x, · · · , xn } determine [D]BBn+1 .


n

 
0 0 ··· 0
1 0 · · · 0 
 
 1 
b) Considere ahora la matriz de orden (n + 2) × (n + 1), B =   0 2 · · · 0 . Demuestre que
 .. .. . . .. 

. . . . 
1
0 0 · · · n+1
Bn
[D]Bn+1 B = In+1 .
c) e : Pn (R) → Pn+1 (R) definida para cada q(x) = a0 + a1 x + · · · + an xn ∈ Pn (R) por
Sea D
Z x
e a1 2 an
D(q(x)) = a0 x + x + ··· + xn+1 = q(t) dt.
2 n+1 0

Demostrar que De es la transformación lineal de Pn (R) en Pn+1 (R) tal que [D] e Bn+1 = B.
Bn
Concluya que D es invertible por la derecha; ver ejercicio propuesto 19 en la página 42.

15. Sean U y V espacios vectoriales sobre K, y sean BU = {u1 , · · · , un } y BV = {v1 , · · · , vm } bases de


U y V respectivamente. Para cada par de enteros i, j, con 1 ≤ i ≤ m y 1 ≤ i ≤ n, sea Tij : U → V
la única transformación lineal (ver teorema 1.1 página 17) tal que

vi , si ℓ = j
Tij (uℓ ) = . (1.35)
0V , si ℓ 6= j

Determine, para cada 1 ≤ i ≤ m y cada 1 ≤ j ≤ n, la matriz [Tij ]BBU . Use las matrices obtenidas
V

para demostrar que el conjunto {Tij : 1 ≤ i ≤ m, 1 ≤ j ≤ n} es una base de L(U, V ).

16. Sean U y V espacios vectoriales sobre K ambos de dimensión n ≥ 1. Sea T : U → V una transfor-
mación lineal. Demostrar que existen bases BU y BV de U y V , respectivamente, tales que [T ]B
BU
V

es una matriz diagonal.


Sugerencia: Considerar una base de N (T ), completarla hasta una base de U y usar que las imágenes de los vectores
con los cuales se completó dicha base determinan una base de Im(T )

17. Sean U un espacio vectorial sobre K de dimensión finita, V y W subespacios vectoriales de U tales
que U = V ⊕ W . Si T un operador lineal en U que deja invariante a V ; es decir, T (V ) ⊂ V ,
PW : U → U es la proyección de U sobre W a lo largo de V , T1 : V → V es la restricción de T
a V y T2 : W → W es el operador T2 = PW T . Demostrar que existe una base  B de U tal que
A1 B
la representación matricial de T en esa base es una matriz por bloques A = , donde
O A2
las submatrices A1 y A2 son representaciones matriciales de T1 y T2 , en algunas bases de V y W
respectivamente.

18. Sean U y V espacios vectoriales sobre K.


Definición 1.8. Dos operadores lineales T : U → U y S : V → V , se dicen semejantes (o similares)
T
 −→ U
U 
si existe un isomorfismo φ : U → U tal que el diagrama φy yφ conmuta; esto es, φ T = S φ.
S
V −→ V

El significado de dos operadores lineales semejantes es que la acción de T sobre cualquier vector
u ∈ U es la misma acción de S sobre el vector φ(u). Es decir, T y S actúan sobre los espacios donde
ellos están definidos de la misma forma, salvo el isomorfismo φ.
Transformaciones Lineales 69

a) Demostrar que los operadores lineales T : R2 → R2 y S : P1 (R) → P1 (R) definidos por

T (x, y) = (x + y, 2x − y) y S(a0 + a1 x) = (a0 + a1 ) + (2a0 − a1 )x

son semejantes.
b) Demuestre que la semejanza de operadores lineales es una relación de equivalencia.
c) Si U y V son de dimensión finita, T es un operador en U y S es un operador en V son
linealmente semejantes, entonces dim(U ) = dim(V ), nul(T ) = nul(S) y ran(T ) = ran(S).
d ) Sean U un espacio vectorial sobre K de dimensión finita n ≥ 1. Si T es un operador lineal en
U , demostrar que T y X 7−→ [T ]B X (X ∈ Kn ) son linealmente semejantes. Concluya que para
cualquier otra base B′ de U se tiene que los operadores lineales X 7−→ [T ]B X y X 7−→ [T ]B′ X
son semejantes
e) Dos matrices A y B de orden n × n sobre K se dicen semejantes (o similares) si existe una
matriz P ∈ Mn×n (K) invertible tal que A = P −1 B P . Explique en términos del concepto de
semejanza de operadores lineales la semejanza de matrices. Demuestre que las representaciones
matriciales de un mismo operador son semejantes, y que ambas tienen la misma traza; para
esto último verifique que tr(AB) = tr(BA) para cualquier par de matrices A, B ∈ Mn×n (K).

19. Sean U un espacio vectorial sobre K y B = {u1 , · · · , un } una base de U .

a) Sea T el operador lineal en U tal que T (u1 ) = 0U y T (uj ) = uj−1 para todo j = 2, · · · , n.
Determine [T ]B ; demuestre que T n = 0 y T n−1 6= 0.
b) Sea S cualquier operador lineal en U tal que S n = 0 y S n−1 6= 0. Demuestre que existe una
base B′ de U tal que [S]B′ = [T ]B .
c) Demostrar que si A, B ∈ Mn×n (K) son tales que An = 0 = B n pero An−1 6= 0 6= B n−1 ,
entonces A y B son semejantes.

20. Sean U un espacio vectorial sobre K y W un subconjunto de U . Se define el anulador de W al


conjunto W o = {f ∈ U ∗ : f (w) = 0 para todo w ∈ W }.

a) Demostrar que W o es un subespacio de U ∗ .


b) Suponga que U es de dimensión finita, demostrar que:
1) si W es subespacio de U , entonces dim(W ) + dim(W o ) = dim(U ).
2) si W1 y W2 son subespacios de U , entonces W1 = W2 si, y sólo si, W1o = W2o ; además,
también se cumplen: (W1 + W2 )o = W1o ∩ W2o y (W1 ∩ W2 )o = W1o + W2o

21. Sea U un espacio vectorial sobre K. Para cada u ∈ U se define Lu : U ∗ → K por Lu (f ) = f (u).
Demostrar que Lu es un funcional lineal de U ∗ ; es decir, Lu ∈ U ∗∗ .

22. Sea U un espacio vectorial sobre K de dimensión finita n ≥ 1. Demostrar que:

a) si u 6= 0U , entonces Lu 6= 0.
b) Φ : U → U ∗∗ dada por Φ(u) = Lu es un isomorfismo.
c) para cada L ∈ U ∗∗ existe un único vector u ∈ U tal que L = Lu .
d ) toda base de U ∗ es la base dual de alguna base de U .
70 Fascı́culos de Álgebra Lineal

23. Sean U y V espacios vectoriales sobre K y T : U → V lineal. Se define T t : V ∗ → U ∗ por


T t (g) = gT , esto es, T t (g) : U → K es dada por T t (g)(u) = g(T (u)) para cada u ∈ U . Verifique que
T t (g) ası́ definida es un funcional lineal en U ; además, que T t es una transformación lineal de V ∗
en U ∗ . A la transformación lineal T t se le conoce con el nombre de traspuesta de T .

24. Sean U y V espacios vectoriales sobre K y T : U → V una transformación lineal. Demostrar:

a) El núcleo de T t es el anulador de la imagen de T ; es decir, N (T t ) = (Im(T ))o .


b) Si U y V son de dimensión finita, entonces ran(T t ) = ran(T ) y Im(T t ) = (N (T ))o .
c) Si U y V son de dimensión finita, B es una base de U , B ′ una base de V , B∗ y B′∗ las bases

B′
duales de B y B′ . Demostrar que [T t ]B
B′∗ es la matriz traspuesta de [T ]B
Rb
25. Sea U = P(R), y sean a, b ∈ R fijos. Se define f : U → R por f (p(x)) = a p(x) dx. Si D es el
operador derivada en U , determinar Dt (f ).

26. Sean U = Mn×n (K) y A ∈ Mn×n (K) fija. Dados T (B) = BA − AB y f (B) = tr(B), determinar
T t (f ).

27. Sean U un espacio vectorial de dimensión finita sobre K y T : U → U un operador lineal. Sea α ∈ K
tal que para algún v ∈ U no nulo se cumple que T (u) = αu. Demostrar que existe un funcional
lineal no nulo tal que T t (f ) = αf .

28. Sea A ∈ Mn×n (R). Demostrar que A = 0 si, y sólo si, tr(At A) = 0.

También podría gustarte