Está en la página 1de 7

ALGUNAS DEMOSTRACIONES DE TEMAS TEORICOS DEL PROGRAMA DE

ALGEBRA Y GEOMETRIA ANALITICA

En esta página incluimos las demostraciones de algunos temas teóricos que en ciertas ocasiones,
por razones de disponibilidad de tiempo, no pueden dictarse en los cursos, pero que están
incluidos en el programa analítico de la materia y que por lo tanto es necesario conocer y saber
demostrar.

Quiere señalarse que estas demostraciones están desarrolladas en la mayoría de los textos de
Álgebra Lineal que se proponen en la Bibliografía del curso.

En la tipografía empleada, indicaremos los vectores con negrita.

Unidad VIII: Transformaciones lineales

1.- La transformación matricial es una transformación lineal

Sea T: V → W una transformación lineal.


Se verifica que T(x) = Ax (1)
donde A se denomina matriz asociada o matriz estándar de la transformación lineal.
La expresión (1) se denomina transformación matricial y es de extensa utilización en el Álgebra
Lineal.
La aplicación precedente puede interpretarse en el sentido que si tengo un vector x perteneciente
al dominio (el espacio vectorial V) y le aplico el operador A (es decir, la matriz asociada a la
transformación T), obtengo la imagen de x, del mismo modo que la obtendría si a x le aplicara la
expresión analítica de la transformación lineal.
Demostraremos que (1) representa una transformación lineal.
Aplicando la expresión (1) sobre un vector x ε V, resulta, tal cual está indicado,
T(x) = Ax (2)
Aplicando la expresión (1) sobre un vector y ε V, resulta:
T(y) = Ay (3)
Sumando miembro a miembro (2) y (3):
T(x) + T(y) = Ax + Ay = A (x + y) (4)
Por la ecuación (1), tal cual se expresara más arriba, cuando sobre un vector del dominio aplico
el operador A, obtengo la imagen de dicho vector. En el caso de las ecuaciones indicadas con el
numeral (4), el vector sobre el que aplico A es (x + y), por la que la imagen que voy a obtener
será T (x + y)
En consecuencia, resulta:
T(x) + T(y) = Ax + Ay = A (x + y) = T (x + y)
con lo cual queda probado que la suma de los transformados es igual al transformado de la suma,
primera de las dos condiciones que definen cuando una transformación es lineal.
Para demostrar la segunda, si a la ecuación indicada con el numeral (2) la multiplicamos
miembro a miembro por el escalar α, resulta:
αT(x) = αAx (5)
Asociando en el segundo miembro (recordemos que todo vector de R n puede considerarse como
una matriz perteneciente a las matrices Rnx1) y agrupando resulta:
αT(x) = Aαx = A(αx) (6)
y considerando en la expresión (6) el concepto de operador de A enunciado precedentemente, la
imagen del vector αx cuando le aplico A será T(αx), por lo que en definitiva:
αT(x) = Aαx = A(αx) = T(αx)
lo que demuestra la segunda condición para que T sea lineal.

2.- El Núcleo de una transformación lineal es un subespacio vectorial del dominio

Sea T: V → W una transformación lineal.


Vamos a demostrar que el Núcleo de la transformación lineal [Nu (T)] es un subespacio vectorial
del dominio V.
Recordemos que Nu (T) está formado por todos los elementos de V cuya imagen es el vector
nulo (0) del codominio W.
Para probar que Nu (T) es un subespacio vectorial, debemos demostrar:
a.- Que Nu (T) no es un conjunto vacío.
b.- Que es cerrado para la suma.
c.- Que es cerrado para el producto por un escalar.

a.- Nu (T) no es vacío ya que una de las propiedades de las transformaciones lineales (se sugiere
consultar los apuntes de clase o la bibliografía propuesta) es que si una aplicación T es lineal,
entonces el vector nulo del dominio tiene como imagen el vector nulo del codominio.
Es decir T(0V) = 0W
En consecuencia, siempre Nu (T) tiene al menos un elemento, que es el vector nulo del dominio.

b.- Consideremos que u ε Nu (T) y que v ε Nu (T)


Debe probarse que u + v ε Nu (T)
Si u ε Nu (T), entonces T(u) = 0 (1)
Si v ε Nu (T), entonces T(v) = 0 (2)
Sumando las expresiones indicadas con los numerales (1) y (2) resulta :
T(u) + T(v) = 0 (3)
Como T es lineal, T(u) + T(v) = T (u + v) (4)
Reemplazando (4) en (3) resulta :
T(u + v) = 0  u + v ε Nu (T)
con lo que se prueba que es cerrado para la suma

c.- Consideremos que u ε Nu (T) y que α es un número real.


Debe probarse que αu ε Nu (T)
Si u ε Nu (T), entonces T(u) = 0 (5)
En consecuencia, αT(u) = α0 = 0 (6)
Pero como T es lineal αT(u) = T(αu) (7)
Reemplazando (7) en (6) queda:
T(αu) = 0  αu ε Nu (T)
con lo que se prueba que es cerrado para el producto por un escalar y en consecuencia, es un
subespacio vectorial de V

3.- La Imagen de una transformación lineal es un subespacio vectorial del codominio

Sea T: V → W una transformación lineal.


Vamos a demostrar que la Imagen de la transformación lineal [Im (T)] es un subespacio vectorial
del codominio W.
Recordemos que la Im (T) es el conjunto formado por todos los elementos del codominio que
tienen su correspondiente preimagen.

Para probar que Im (T) es un subespacio vectorial, debemos demostrar:


a.- Que Im (T) no es un conjunto vacío.
b.- Que es cerrado para la suma.
c.- Que es cerrado para el producto por un escalar.

a.- Im (T) no es vacío ya que una de las propiedades de las transformaciones lineales, tal cual
señaláramos cuando tratamos este tema con Nu (T), es que si una aplicación T es lineal, entonces
el vector nulo del dominio tiene como imagen el vector nulo del codominio.
Es decir T(0V) = 0W
En consecuencia, siempre Im (T) tiene al menos un elemento, que es el vector nulo del
codominio, cuya preimagen es el vector nulo del dominio V.

b.- Consideremos que u ε Im (T) y que v ε Im (T)


Debe probarse que u + v ε Im (T)
Si u ε Im (T), entonces existe al menos un vector x de V tal que T(x) = u (1)
Si v ε Im (T), entonces existe al menos un vector y de V tal que T(y) = v (2)
Si sumamos miembro a miembro las expresiones (1) y (2), resulta:
T(x) + T(y) = u + v (3)
Como T es lineal, T(x) + T(y) = T(x + y), por lo tanto, reemplazando esta expresión en (3),
resulta:
T(x + y) = u + v
lo que significa que u + v tiene como preimagen en V a los vectores x + y, por lo tanto, u + v ε
Im (t)

c.- Consideremos que u ε Im (T) y que α es un número real.


Debe probarse que αu ε Im (T)
Si u ε Im (T), entonces existe al menos un vector x en V tal que T(x) = u (4)
Multiplicando la expresión (4) miembro a miembro por el escalar α resulta:
αT(x) = αu (5)
Como T es lineal, αT(x) = T(αx) (6)
Reemplazando (6) en (5) queda:
T(αx) = αu
lo que significa que αu tiene como preimagen en V al vector αx, por lo que entonces αu ε Im (T)
y en consecuencia la Imagen de una transformación lineal es un subespacio vectorial del
codominio.

4.- Teorema fundamental de las transformaciones lineales

Sea T: V → W una transformación lineal.


Supongamos que conocemos una base B del dominio, tal que B = {v1, v2,…, vn}
Además, conocemos las imágenes de los vectores de esa base, es decir, T(v1), T(v2) … T(vn) son
también datos del problema.
Bajo esas hipótesis, es posible conocer la imagen de cualquier vector v ε V y dicha imagen es
única. Por tal motivo, también se conoce a este teorema como el de unicidad de las
transformaciones lineales (siempre y cuando sean conocidos los elementos más arriba indicados)
En efecto; por ser B base del espacio vectorial V, cualquier vector del dominio puede obtenerse
como combinación lineal de los vectores de la base, y dicha combinación lineal es única (se
sugiere sobre este punto consultar los apuntes de clase o la bibliografía propuesta)
Es decir:
v = k1v1 + k2v2 + … + knvn (1)
donde v es un vector cualquiera del dominio y k 1, k2,…, kn son escalares (dichos escalares son las
coordenadas del vector v en la base B; tal cual se ha expresado, como los vectores de la base son
linealmente independientes, esos escalares son únicos. En otras palabras, el sistema de
ecuaciones lineales que resulta de resolver la ecuación vectorial (1) es un sistema compatible
determinado)
Si los vectores que se encuentran en ambos miembros de la ecuación (1) son iguales, tal como
allí se indica, entonces sus imágenes son también iguales. Por lo tanto:
T(v) = T(k1v1 + k2v2 + … + knvn) = T(k1v1) + T(k2v2) + … + T(knvn) = k1T(v1) + k2T(v2) + … +
knT(vn) (2)
por ser T lineal.
Como T(v1), T(v2) … T(vn) son conocidos, y los escalares k 1, k2, ..., kn se obtienen resolviendo la
ecuación vectorial (1), a través de un sistema de ecuaciones lineales, de la lectura de la ecuación
(2) se concluye que es posible obtener la imagen T(v) de cualquier vector v del dominio, siendo
esta imagen única, ya que lo son los escalares, lo que demuestra el teorema.

5.- Cálculo de la matriz asociada a una transformación lineal en bases cualesquiera del
dominio y del codominio

Sea T: V → W una transformación lineal.


Sea B = {v1, v2,…, vn} una base del dominio y B’ = {u1, u2,…, um} una base del codominio.
Obsérvese que las dimensiones del dominio y del codominio no tienen necesariamente que ser
las mismas.
Cuando se estudió la transformación matricial, se demostró que cualquier transformación lineal
puede escribirse como:
T(x) = Ax
Donde A es la matriz asociada a dicha transformación. La matriz A no es única; cambia según
sean las bases que se adopten en V y en W.
Si las bases son las canónicas, la matriz A se obtiene escribiendo como columnas las imágenes de
los vectores canónicos del dominio.
 x  y
 x  
Por ejemplo, si T: R → R / T   =  x  y  resulta:
2 3
 y  2x 
 
1
1  
T   =  1 
0  2
 
 1 
0  
T   =   1
1  0 
 
1 1 
 
y por lo tanto A =  1  1
2 0 
 
¿Cómo se calcula la matriz A si las bases no son las canónicas?
Vamos a demostrar que en ese caso,
A =  T (v1) B ' T (v 2) B ' ... T (vn ) B ' 
Donde cada una de las columnas de A se obtiene como el transformado de cada vector de la base
B del dominio expresado en la base B’ del codominio.
En efecto: consideremos que

 a11 a12 ... an1 


 
 a 21 a 22 ... an 2 
ABB’ =  es la matriz asociada a la transformación lineal que me
... ... ... ... 
 
 am1 am 2 ... amn 
 
transforma un vector x expresado en la base B del dominio en su imagen expresada en la base B’
del codominio.
En consecuencia: [T(x)]B’ = ABB’[x]B (1)
Obtengamos la imagen de cada uno de los vectores de la base B del dominio.
Comencemos con v1.
En ese caso, la expresión (1) se escribirá:
[T(v1)]B’ = ABB’[v1]B (2)
Expresemos v1 en la base B del dominio.
v1 se obtendrá como combinación lineal de los vectores de B. Es decir
v1 = k1v1 + k2v2 + … + knvn
En este caso, la resolución de esta ecuación vectorial es muy sencilla, ya que los escalares que
verifican la igualdad son k1 = 1; k2 = k3 = ... = kn = 0
Es decir:
1
 
0
[v1]B =  

 
0
 
y por lo tanto:

 a11 a12 ... an1  1  a11 


     
 a 21 a 22 ... an 2  0  a 21 
[T(v1)]B’ =    =   
... ... ... ... 
     
 am1 am 2 ... amn  0  am1 
     

Es decir, la primer columna de la matriz A BB’ no es otra cosa que la imagen del vector v1
perteneciente a la base B del dominio expresado en la base B’ del codominio.
Del mismo modo, si hacemos similar razonamiento con v2, la expresión (1) se escribirá:
[T(v2)]B’ = ABB’[v2]B (3)
Expresemos v2 en la base B del dominio.
v2 se obtendrá como combinación lineal de los vectores de B. Es decir
v2 = k1v1 + k2v2 + … + knvn
En este caso, la resolución de esta ecuación vectorial también es muy sencilla, ya que los
escalares que verifican la igualdad son k2 = 1; k1 = k3 = ... = kn = 0
Por lo tanto:
0
 
1
[v2]B =  

 
0
 
y en consecuencia:

 a11 a12 ... an1  0  a12 


     
 a 21 a 22 ... an 2  1  a 22 
[T(v2)]B’ =    =   
... ... ... ... 
     
 am1 am 2 ... amn  0  am 2 
     

Es decir, la segunda columna de la matriz A BB’ no es otra cosa que la imagen del vector v2
perteneciente a la base B del dominio expresado en la base B’ del codominio.
Extendiendo este razonamiento a todos los vectores vi de la base B del dominio, llegamos a la
conclusión ya enunciada que la matriz asociada a la transformación lineal que me transforma un
vector expresado en la base B del dominio en su imagen expresada en la base B’ del codominio
se obtiene escribiendo como columnas las imágenes de los vectores de la base B expresados en
la base B’.

En el ejemplo numérico anterior, si B = {(1,1);(0,2)} y B’ = {(1,1,1);(1,1,0);(1,0,0)} resulta:

 2
 1  
T   =  0 
 1  2
 
 2 
0  
 
T   =   2
 2  0 
 

 2  1 1 1
       
 0  = x  1 + y  1  + z  0 
 2  1 0 0
       

 x  2 
   
Resolviendo el sistema,   =   2 
y
z  2 
   

Análogamente
 2   1 1 1
       
  2  = x’ 1 + y’  1  + z’  0 
 0   1 0 0
       

Resolviendo el sistema:
 x'   0 
   
  =   2
y '
 z'   4 
   

 2 0 
 
Por lo tanto la matriz ABB’ =  2  2
 2 4 

Como puede observarse, A ≠ ABB’ . En general, para diferentes bases en el dominio y codominio,
tendré distintas matrices asociadas a la transformación lineal.

También podría gustarte