Está en la página 1de 20

INTRO DUC CIÓN

Desde el punto de vista del Algebra Lineal, las funciones más importantes son las
que preservan las combinaciones lineales. Estas funciones se llaman
Transformaciones Lineales.

En esta unidad , estamos interesados en el estudio de las funciones entre espacios


vectoriales que sean “compatibles” con las operaciones de suma y multiplicación
por escalar definidas en cada uno de ellos; es decir, que la imagen de una suma de
vectores sea la suma de las imágenes y que la imagen de una multiplicación por
escalar de un vector sea también una multiplicación por escalar de la imagen del
vector.

Una transformación es un conjunto de operaciones que se realizan sobre un vector


para convertirlo en otro vector.

Los espacios vectoriales son conjuntos con una estructura adicional, al saber, sus
elementos se pueden sumar y multiplicar por escalares del campo dado, conviene
utilizar funciones que preserven dicha estructura. Estas funciones se llamaran
transformaciones lineales y en el presente capitulo las estudiaremos. Más adelante
mostraremos que las transformaciones lineales se pueden representar en términos
de matrices, y viceversa.

Se denomina transformación lineal a toda función cuyo dominio e imagen sean


espacios vectoriales y se cumplan las condiciones necesarias. Las
transformaciones lineales ocurren con mucha frecuencia en el álgebra lineal y en
otras ramas de las matemáticas, tienen una gran variedad de aplicaciones
importantes. Las transformaciones lineales tienen gran aplicación en la física, la
ingeniería y en diversas ramas de la matemática
5.1 DEFINICIÓN DE TRANSFORMACIÓN LINEAL

Las funciones más sencillas (después de las constantes) de una ´ variable con
valores reales son las funciones de la forma f(x) = kx; cuya gráfica, para un valor
fijo k, es una línea recta con pendiente k que pasa por el origen. La forma simple
que tienen estas funciones las hace sumamente importantes para estudiar el
comportamiento de funciones más complicadas. Por ejemplo, una función que es
derivable en un punto x0 se puede aproximar localmente por medio de la línea recta
tangente a la gráfica de la función en el punto (x0, f(x0)); y esta línea recta no es
más que una traslación afín de la recta y = f (x0)x. Una gran variedad de fenómenos
se pueden modelar a través de soluciones de cierto ´ tipo de ecuaciones que
exhiben un comportamiento lineal, en el sentido de
que la suma de dos soluciones y el producto de un
escalar por una solucion también son soluciones;
dichos fenómenos y sus respectivos modelos son
llamados, por antonomasia, lineales también. Con
base en la característica de linealidad de estos
fenómenos es posible, en general, determinar el comportamiento de los mismos en
una forma relativamente sencilla. Así, como las funciones lineales de una variable
sirven para aproximar funciones más complicadas, los modelos lineales se pueden
utilizar para aproximar fenómenos más complejos. Por sí solos los fenómenos
lineales son sumamente interesantes y cubren una gran variedad de importantes
aplicaciones. Las funciones lineales de una variable tienen una inmediata extensión
a funciones de varias variables y, más aún, a funciones entre espacios vectoriales.
En esta sección estudiaremos en un contexto general este tipo de funciones que
llamaremos transformaciones lineales.

Recordemos que si A y B son un par de conjuntos no vacíos, la notación: f : A → B


significa que f es una función con dominio A y valores en B o, en forma más
compacta, f es una función de A en B; que en la notación y = f(x) a y se le llama
el valor de la función f en x o la imagen de x bajo la función f ; a x se le dice variable
independiente (o argumento de la función) y a y
variable dependiente; y que al conjunto B se le dice
contra dominio de la función. Una manera muy útil
de interpretar una función f es como un conjunto de
procedimientos, una máquina, que transforma cada
elemento ´ x (materia prima) de A en un producto y
= f(x) elemento de B. El resultado de esta
transformación, el elemento y = f(x), depende de la
materia prima x que se introduzca cada vez a la máquina, y esta transformación
está perfectamente determinada por esta máquina o conjunto de procedimientos f
(la funcion o transformación). En este sentido interpretaremos, de aquí en adelante,
el significado de una función entre espacios vectoriales: como una transformación
de un espacio en otro.

Definición 5.1 (Transformación lineal): Sean E y F dos espacios vectoriales y T :


E → F una función. Diremos que T es una transformación lineal de E en F si:

1. T(x+y) = T(x) +T(y), ∀x,y ∈ E.

2. T(αx) = αT(x),∀x ∈ E, ∀α ∈ R.

Ejemplo 5.1 Sea T : R → R la funcion de ´ finida por T(x) = 3x, entonces para x1, x2
∈ R y para todo escalar α,

T(x1 +x2) = 3(x1 +x2) = 3x1 +3x2 = T(x1) +T(x2) y

T(αx) = 3(αx) = α(3x) = αT(x). Por tanto, T es una transformacion lineal.

PROPIEDADES:

Sabemos que si A es cualquier conjunto no vacío y F es cualquier espacio vectorial,


entonces el conjunto de funciones con dominio A y valores en F es un espacio
vectorial con las operaciones usuales suma de funciones y multiplicación de un
escalar con una función. Por ende, el conjunto de todas las transformaciones de un
espacio vectorial E en un espacio vectorial F con las operaciones usuales de suma
de funciones y multiplicación de un escalar con una, función dadas en la definición
3.9 es un espacio vectorial. Ahora supongamos que T1 y T2 son un par de
transformaciones del espacio E en el espacio F que además son lineales y sea ´ k
∈ R; entonces, si x, y ∈ E y α ∈ R, se tiene: 1. (T1 +T2)(x+y) = T1(x+y) +T2(x+y) =
T1(x) +T1(y) +T2(x) +T2(y) = T1(x) +T2(x) +T1(y) +T2(y) = (T1 +T2)(x)+(T1 +T2)(y).

2. (T1 +T2)(αx) = T1(αx) +T2(αx) = αT1(x) +αT2(x) = α(T1(x) +T2(x)) = α(T1 +T2)(x).

3. (kT1)(x+y) = kT1(x+y) = k(T1(x) +T2(y)) = kT1(x) +kT2(y) = (kT1)(x)+(kT2)(y).

4. (kT1)(αx) = kT1(αx) = k(αT1(x)) = α(kT1(x)) = α(kT1)(x).

5. Claramente la transformación constante cero, ´ θ : E → F, θ(x) =0F ∀x ∈ E, es


lineal.

1 y 2 demuestran que la transformación T1 +T2 es lineal y 3, 4 prueban que kT1 es


lineal también. Por ´ ende, al adjuntar 5, el subconjunto de transformaciones lineales
del espacio E en el espacio F es un sub-espacio vectorial del espacio de funciones
de E en F. Con esto hemos probado el siguiente teorema.

Teorema 5.1 (Espacio de transformaciones lineales): Sean E y F un par de


espacios vectoriales y sea:

L (E,F) = {T : E → F| T es una transformación lineal},

entonces L (E,F) es un espacio vectorial con las operaciones usuales de suma de


funciones y multiplicación de un escalar con una función.

Teorema 5.2 (Propiedades basicas de transformaciones lineales): Sean E y F


un par de espacios vectoriales y T ∈ L (E,F), entonces:

1. T( 0E) =0F.

2. T(αx+βy) = αT(x) +β T(y) ∀x,y ∈ E, ∀α,β ∈ R.

3. T(−x) = −T(x) ∀x ∈ E.

4. T(x−y) = T(x)−T(y) ∀x,y ∈ E.


TRANSFORMACIONES MATRICIALES Y REPRESENTACION MATRICIAL DE
UNA TRANSFORMACION T∈L (RN,RM)

Vimos en los ejemplos 5.2 y 5.3 que las transformaciones lineales de R en R son
las funciones de la forma T(x) = ax, donde a es una constante. El símil para
transformaciones de Rn en Rm esta contenido en el siguiente ejemplo.

Ejemplo 5.9 (Transformaciones matriciales):

Si A ∈ Mm×n, sea TA : Rn → Rm definida para cada x ∈ Rn por TA(x) = Ax. Entonces


T es lineal; pues ∀x,y ∈ Rn y ∀α ∈ R:

TA(x+y) = A(x+y) = Ax+Ay = TA(x) +TA(y) y

TA(αx) = A(αx) = α(Ax) = αTA(x)

Teorema 5.3 Sean {ei}, {fj} las bases canónicas de Rn y Rm, respectivamente, y T : Rn →
Rm una transformación lineal. Entonces existe una matriz A∈Mm×n tal que T=TA. De hecho,
una matriz A qué sirve para este propósito es aquella cuyas columnas son los vectores
T(ei), i = 1,...,n, descritos en la base canónica de ´ Rm.

El teorema 5.3 significa que las únicas transformaciones lineales que existen entre espacios
Rk son las transformaciones matriciales TA. Este es un resultado muy sencillo, pero también
muy importante, que el lector debe tener siempre presente.

2. La matriz A del teorema 5.3 no es única en el sentido de que se pueden tener resultados
análogos a este teorema utilizando otras bases.
5.2 NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL

Definición (la imagen de una transformación lineal). Sean V, W espacios vectoriales


sobre un campo F y sea T ∈ L(V, W ). La imagen de T se define como el conjunto de
todos los valores de la aplicación T.

Definición (el núcleo de una transformación lineal). Sean V, W espacios vectoriales


sobre un campo F y sea T ∈ L(V, W ). El núcleo (kernel, espacio nulo) de T se define
como la preimagen completa del vector nulo:

Proposición (el núcleo de una


transformación lineal es un subespacio
vectorial del dominio). Sean V, W espacios vectoriales sobre un campo F y sea T ∈
L(V,W).Entonces ker(T ) es un subespacio de V .

Proposición (la imagen de una transformación lineal es un subespacio vectorial


del codominio). Sean V, W espacios vectoriales sobre un campo F y sea T ∈ L(V, W ).
Entonces im(T ) es un subespacio de W .

Parte de demostración. Se aplica el criterio de subespacio. Se demuestra que el conjunto


im(T ) es cerrado bajo la adición y bajo la multiplicación por escalares, además contiene
al vector cero.
Mostremos que el conjunto im(T ) es cerrado bajo la adición. Sean w1, w2 ∈ im(T ).Por la
definición de la imagen, existen v1, v2 ∈ V tales que w1 = T (v1), w2 = T (v2). Por la
linealidad de T,
T (v1 + v2) = T (v1) + T (v2) = w1 + w2.
Logramos encontrar un vector x = v1 + v2 tal que T (x) = w1 + w2. Por la definición de la
imagen, esto implica que w1 + w2 ∈ im(T ).

EL RANGO DE UNA TRANSFORMACIÓN

Sea T : V → W una transformación lineal. El rango o imagen de T es el conjunto de todas


las imágenes de Ten W.
Es decir, el rango es el
subconjunto de W formado por aquellos vectores que provienen de algún vector de V .

NÚCLEO E IMAGEN SON SUBESPACIOS


La propiedad fundamental del núcleo y del contradominio es que ambos son espacios
vectoriales:
Teorema Sea T : V → W una transformación lineal. Entonces,
 Ker(T) es un sub-espacio de V .
 R(T) es un sub-espacio de W.

Demostración
El núcleo de T es sub-espacio
Sean v1 y v2 elementos del núcleo de T y c un escalar cualquiera. Así T(v1) = 0 = T(v2),
y por tanto:
T(c1 v1 + c2 v2) = c1 T(v1) + c2 T(v2) = c1 0 + c2 0 = 0
Probando que c1 v1 + c2 v2 está también en el núcleo de T. Lo cual a su vez prueba que
el núcleo de T es un sub-espacio de V .
La imagen de T es sub-espacio
Sean w1 y w2 elementos de la imagen de T y c un escalar cualquiera. Así T(v1) = w1 y
T(v2) = w2 para algunos v1 y v2 en V , y por tanto:
T(c1 v1 + c2 v2) = c1 T(v1) + c2 T(v2) = c1 w1 + c2 w2
Probando que c1 w1 + c2 w2 es imagen de c1 v1 + c2 v2 y por consiguiente c1 w1 + c2
w2 está también en la imagen de T. Lo cual a su vez prueba que la imagen de T es un
sub-espacio de W .
NULIDAD Y RANGO DE UNA TRANSFORMACIÓN
Debido al resultado anterior el núcleo y la imagen de una transformación lineal son
espacios vectoriales.
Como espacios vectoriales, ellos tienen una dimensión asociada. Estas dimensiones
tienen nombre específicos:
Definición: Sea T : V → W una transformación lineal.
 La nulidad de T es la dimensión de Ker(T)
 El rango de T es la dimensión de R(T).
El siguiente resultado permite calcular fácilmente la nulidad y el rango de una
transformación matricial.
Teorema
Sea T : V → W una transformación lineal. Suponga que T corresponde a la
transformación matricial asociada a A. Entonces:
 Ker(T) = V(A) = Espacio nulo de A
 R(T) = C(A) = Espacio generado por las columnas de A
 Nulidad (T) = Nulidad(A) = Número de columnas sin pivote en A reducida.
 Rango (T) = Rango(A) = Número de columnas con pivote en A reducida.

Note que el resultado anterior indica que para cualquier transformación lineal T : V → W,
Así por ejemplo:
T : R4 → R3 lineal no puede ser inyectiva pues
4 = dim(Ker(T)) + dim(R(T)) ≤ dim(Ker(T)) + 3
por tanto, dim(Ker(T)) ≥ 1 probando que Ker(T)) 6= {0}.
T : R4 → R8 lineal no puede ser sobre pues
4 = dim(Ker(T)) + dim(R(T))
por tanto, dim(R(T)) ≤ 4 probando que R(T) 6= R8
5.3 REPRESENTACIONES MATRICIALES DE
TRANSFORMACIONES LINEALES

Para toda transformación lineal T : Rn → Rm existe una matriz A ∈ Mm×n tal que T =
TA; esto es, T(u) = Au ∀u ∈ Rn. En esta sección veremos que este resultado se
puede extender a transformaciones T ∈ L (E,F) cuando los espacios vectoriales E y
F tienen dimensiones finitas.

5.3.1 VECTORES DE COORDENADAS, CAMBIO DE BASES

Recordemos que si B = {e1,e2,...,en} es una base fija de un espacio vectorial E,


entonces, para cada u ∈ E, existen escalares unicos ´ α1,α2,...,αn tales que

= α1e1 +α2e2 +···+αn

en (5.3) Si convenimos que todo vector se va a escribir respetando el mismo orden


de los términos en el lado ´ derecho de (5.3); es decir, un escalar que multiplica a
e1, más un escalar que multiplica a: e2, etc., mas un escalar que multiplica a en,
diremos que B es una base ordenada del espacio E y escribiremos, con frecuencia,
(e1,e2,...,en) en lugar de {e1,e2,...,en} para hacer énfasis en este hecho. 9 Es claro
que si se conoce el vector (α1,α2,...,αn) se conoce el vector u y viceversa. Esto
motiva la siguiente definición.
TEOREMA 5.12 Sean E un espacio vectorial de dimensión n y B una base
ordenada de él. Entonces:

1. [u+v]B = [u]B +[v]B ∀u,v ∈ E.

2. [αu]B = α[u]B ∀u ∈ E, ∀α ∈ R.

3. [u]B = [v]B ⇔u =v.

4. [u]B =0Rn ⇔u =0E.

5. u1,...,uk son L.I. en E ⇔ [u1]B,...,[uk]B son L.I. en Rn.

6. Para todo x = (x1,...,xn) ∈ Rn existe un único u ∈ E tal que [u]B =x y viceversa.

LEMA 5.1

TEOREMA 5.13 Sean B1 = (e1,e2,...,en) y B2 = (f1,f2,...,fn) dos bases ordenadas de


un mismo espacio vectorial. Sean aij ∈ R escalares tales que:
5.2.2 REPRESENTACIONES MATRICIALES DE UN OPERADOR LINEAL

Ahora generalizaremos el concepto de representación matricial que se dio para


transformaciones lineales de Rn en Rm a operadores lineales en un espacio
vectorial; esto es, para transformaciones lineales de un espacio en sí mismo cuando
este tiene dimensión finita. Para ello, sean T∈L(E,E) un operador lineal y B=
{e1,e2,...,en} una base del espacio E. Sean aij ∈ R escalares tales que:
TEOREMA 5.14 Sean E,T B y [T] B como en la definición 5.12. Entonces:

[T(u)]B = [T] B [u] B

TEOREMA 5.15 Sean E un espacio vectorial; B1 y B2 bases del mismo; T un


operador lineal en E; y [T] B1, [T] B2 las respectivas representaciones matriciales
de T relativas a estas bases. Si P es la matriz cambio de base de B2 a B1, entonces:

[T] B2 = P−1[T] B1P.

TEOREMA 5.16 Sean A,B,C,D ∈ Mn. Entonces:

5.2.3 REPRESENTACIONES MATRICIALES DE TRANSFORMACIONES LINEALES

Así cómo es posible encontrar representaciones matriciales de operadores lineales,


también se pueden hallar representaciones matriciales para transformaciones
lineales en general. El procedimiento es completamente análogo al que realizamos
en la subsección anterior; por lo que dejamos al lector que llene los detalles, en
cuanto a deducciones y demostraciones, en forma similar a como lo hicimos antes,
de las definiciones y teoremas que damos a continuación.
TEOREMA 5.18 Sean E, B1 , B2 y T como en la definición precedente, entonces:

Se requiere encontrar escalares aij tales que:

Esto es, las soluciones de los sistemas (con la misma matriz de coeficientes):

Resolvamos estos sistemas con la misma matriz de coeficientes (cfr. el metodo


expuesto en la p ´ ag. 27).

Entonces,
TEOREMA 5.19

REPRESENTACIONES DIAGONALES DE TRANSFORMACIONES LINEALES

Toda transformación lineal de un espacio en otro tiene diversas representaciones


matriciales según las bases con las que se trabaje. De entre todas estas
representaciones sería conveniente buscar aquellas que sean suficientemente
“sencillas”. De la experiencia adquirida a lo largo de este libro, sabemos que las
matrices con mayor número de entradas nulas y, más aún, aquellas que son muy
parecidas a una matriz diagonal, son matrices que se prestan mucho para minimizar
cálculos y conjeturar propiedades de las mismas y, por tanto, de las
transformaciones que representan. En el siguiente teorema, dada una
transformación lineal, veremos cómo es posible construir bases de tal manera que
la correspondiente representación sea una matriz con entradas nulas fuera de la
diagonal principal y unos en ella.

TEOREMA 5.20
5.4 APLICACIÓN DE LAS TRANSFORMACIONES LINEALES:
REFLEXIÓN, EXPANSIÓN, CONTRACCIÓN Y ROTACIÓN
Graficar un conjunto de puntos en otro es lo que se conoce como transformación
lineal de un conjunto de puntos. Existen ciertas propiedades básicas de las
transformaciones lineales, las cuales si son tomadas en cuenta y aplicadas al
momento de resolver un problema, pueden reducirlo un problema simple. La
notación general utilizada para una transformación lineal es T: Rn

Transformaciones lineales

Las transformaciones lineales forman un “hilo” que se entreteje en la tela de este


texto. Su utilización mejora el sentido geométrico de lo escrito. Por ejemplo, las
transformaciones lineales proporcionan una visión dinámica y gráfica de la
multiplicación matriz-vector.

1. Reflexión: Cuando un conjunto de puntos dados es graficado desde el espacio


euclidiano de entrada a otro de manera tal que este es isométrico al espacio
euclidiano de entrada, llamamos a la operación realizada la reflexión del conjunto
de puntos dado. Esto puede realizarse también con respecto a la matriz, en tal
situación la matriz de salida es llamada la matriz de reflexión. La reflexión es
realizada siempre con respecto a uno de los ejes, sea el eje x o el eje y. Esto es
como

producir la imagen espejo de la matriz


actual.
2. Expansión: Al igual que en la reflexión, también es posible expandir los puntos
dados en una dirección particular. La expansión se realiza habitualmente para
un cierto grado. Es como realizar una operación de multiplicación de los
elementos del conjunto de puntos dados con un término escalar hacia la
dirección donde tiene que ser expandido. Sea para un punto (2, 3) si el grado de
expansión 2 es la dirección de y, entonces el nuevo punto obtenido es (2, 6).

3. Contracción: La contracción es el procedimiento inverso de la expansión. Aquí


el punto es contraído en un determinado grado hacia una dirección dada. Sea el
punto de entrada (4, 8) y este debe ser contraído para el grado dos en la
dirección de x entonces el nuevo punto resulta ser (2, 8).

4. Rotación: El término rotación tiene dos significados, ya la rotación de un objeto


puede ser realizada con respecto al eje dado o al eje mismo. La rotación se realiza
para un cierto grado el cual es expresado en forma de un ángulo. Asimismo, la
rotación puede realizarse en la dirección de las manecillas del reloj, o inverso a las
manecillas del reloj.

Como ejemplo, dirijámonos a producir la matriz estándar para la representación de


la transformación lineal reflejando un conjunto de puntos en el plano x-y a través de
la recta y = (−2x / 3).

El primer paso para esto es determinar los vectores base


CONCLUSIÓN
BIBLIOGRAFÍA

 ALGEBRA LINEAL PARA ESTUDIANTES DE INGENIERIA Y CIENCIAS


https://xlibros.com/wp-content/uploads/2014/04/21012014%C3%81lgebra-
Lineal-para-Estudiantes-de-Ingenier%C3%ADa-y-Ciencias-del-Valle-
1ed.pdf

 http://www-fp.usc.es/~edels/FM/Cap_04_FM.pdf
 http://webdelprofesor.ula.ve/ciencias/nunez/cursos/MetodosMatematicos1/2
008A/Tem6MatricesAutovectoresA08.pdf
 http://www.tesoem.edu.mx/alumnos/cuadernillos/2010.004.pdf

También podría gustarte