Está en la página 1de 4

Vera Escobar Valeria Laura

S8478-6

TRANSFORMACIONES
TRANSFORMACIONES
TRANSFORMACIONES LINEALES
LINEALES
En primer lugar, una transformación lineal es una función. Por ser función, tiene su dominio y su codominio, con la
particularidad de que éstos son espacios vectoriales. Tenemos dos espacios vectoriales VV y WW, y una función que
va de VV a WW. O sea, una regla de asignación que transforma vectores de VV en vectores de WW. Pero no toda
función que transforme vectores de VV en vectores de WW es una transformación lineal.

Imagen y núcleo
Núcleo de una transformación lineal
Sea F:V→WF:V→W una transformación lineal. Llamamos núcleo de FF al conjunto de vectores del dominio cuya
imagen por FF es el 0W0W.
Nu(F)={v∈V|F(v)=0W}Nu(F)={v∈V|F(v)=0W}
El núcleo de una transformación lineal es un subespacio de VV.
Imagen de una transformación lineal
Llamamos imagen de FF al conjunto de vectores de WW que son imagen de algún vector de VV.
Im(F)={w∈W|w=F(v),v∈V}Im(F)={w∈W|w=F(v),v∈V}
La imagen es un subespacio de W.

Vector y matriz de coordenadas


Sean los espacios vectoriales U y V sobre R, de dimensiones respectivas n y m, y bases (ordenadas) respectivas
BU = (u1, . . . ,un) y BV = (v1, . . . , vm). Sabemos que todo vector de U puede ser representado de manera única
mediante un vector columna de R n cuyas componentes son las coordenadas de dicho vector con respecto a la
base BU. Análogamente, los vectores de V tienen representación única en la base BV como un vector de Rm.
Consideremos la aplicación lineal T : U → V. Para cada vector ui de la base BU, su imagen con respecto a T será un
vector T(ui) ∈ V, que puede ser representado con respecto a la base BV mediante.

o como el vector de coordenadas con respecto a BV dado por[T(ui)]BV = (t1i, t2i, · · · , tmi) t . De esta manera, la
transformación lineal T tiene una REPRESENTACIÓN MATRICIAL relativa a las bases BU y BV dada por la siguiente
matriz n × m
Matrices de Transición
En matemáticas, una matriz estocástica (también denominada matriz de probabilidad, matriz de transición, matriz de
sustitución o matriz de Markov) es una matriz utilizada para describir las transiciones en una cadena de Markov.

Representaciones matriciales de las Transformaciones


lineales
Sea T: R” > R'" una transformación lineal, de acuerdo a los teoremas de representación matricial, solo existe una
matriz única de m x n, la matriz de transformación Ay, donde toda x pertenece a R" y donde w representa la x
transformada, de modo que la transformación de x es igual a x multiplicada por la matriz de transformación.

La matriz de transformación, representada por Ar, es la representación matricial de T, la operación que convierte o
transforma el vector original al vector resultado. La matriz de transformación está definida usando las bases
estándar en R" y R", por lo que si se utilizan bases distintas, la matriz de transformación es diferente.

Clasificación de las Transformaciones lineales


Monomorfismos: Transformaciones lineales inyectivas
Recordemos que una función F:A→BF:A→B es inyectiva si verifica la siguiente propiedad:
F(x1)=F(x2)⇒x1=x2∀x1,x2∈AF(x1)=F(x2)⇒x1=x2∀x1,x2∈A
En el caso particular de las T.L., puede demostrarse que:
Sea F:V→WF:V→W una transformación lineal,
FF es inyectiva (monomorfimo) ⇔⇔ Nu(F)={0V}Nu(F)={0V}
Epimorfismos: Transformaciones lineales sobreyectivas
F:V→WF:V→W es sobreyectiva (epimorfismo) ⇔Im(F)=W⇔Im(F)=W
Isomorfismos: Transformaciones lineales biyectivas
F:V→WF:V→W es biyectiva (isomorfismo) ⇔Nu(F)={0V}∧Im(F)=W
Operaciones con Trasformaciones lineales
En primer lugar, una transformación lineal es una función. Por ser función, tiene su dominio y su codominio, con la
particularidad de que éstos son espacios vectoriales. Tenemos dos espacios vectoriales VV y WW, y una función que
va de VV a WW. O sea una regla de asignación que transforma vectores de VV en vectores de WW. Pero no toda
función que transforme vectores de VV en vectores de WW es una transformación lineal. Debe cumplir ciertas
condiciones:

F:V→WF:V→W es una transformación lineal si y sólo si:

1. F(u+v)=F(u)+F(v) ∀u,v∈VF(u+v)=F(u)+F(v) ∀u,v∈V

2. F(k.v)=k.F(v) ∀v∈V, ∀k∈RF(k.v)=k.F(v) ∀v∈V, ∀k∈R

Propiedades de una transformación lineal

Propiedad 1

La imagen del vector nulo del dominio 0V0V es el vector nulo del codominio 0w0w:

T(0V)=0wT(0V)=0w

Demostración:

T(0V)=T(0.v)=0.T(v)=0.w=0WT(0V)=T(0.v)=0.T(v)=0.w=0W

Donde hemos expresado a 0V0V como el producto del escalar 00 por cualquier vector del espacio vectorial VV,
hemos usado la segunda condición que debe cumplir una transformación lineal, y finalmente hemos vuelto a usar la
propiedad de espacios vectoriales sobre el producto del escalar 0 por cualquier vector.

Propiedad 2

La imagen del vector –v–v es igual al opuesto de la imagen de vv:

T(–v)=–T(v)T(–v)=–T(v)

Demostración:

T(–v)=T(–1.v)=–1.T(v)=–T(v)T(–v)=T(–1.v)=–1.T(v)=–T(v)

La justificación de los pasos dados en la demostración es similar a la anterior.

Propiedad 3

Consideremos rr vectores del espacio vectorial VV:

v1,v2,…,vr∈Vv1,v2,…,vr∈V

Tomemos una combinación lineal en el dominio:

α1v1+α2v2+α3v3+...+αrvrα1v1+α2v2+α3v3+...+αrvr

Donde αi∈Rαi∈R.

Si aplicamos la transformación lineal FF de VV a WW, teniendo en cuenta las propiedades enunciadas en la definición,
resulta:

F(α1v1+α2v2+α3v3+...+αrvr)=α1F(v1)+α2F(v2)+…+αrF(vr)F(α1v1+α2v2+α3v3+...+αrvr)=α1F(v1)+α2F(v2)+…+αrF(vr)

Es decir que una transformación lineal «transporta» combinaciones lineales de VV a WW, conservando los escalares
de la combinación lineal.
Composición de transformaciones lineales.
La composición de transformaciones lineales es transformación lineal.
Esto es: Si son dos transformaciones lineales entonces es transformación lineal.
Sea una transformación lineal, con espacios
TUVSVW:,:→→

Composición
S T :U →W de transformaciones
T V W : → V W,

lineales.
vectoriales sobre K

Si es un isomorfismo, se dice que los dos espacios vectoriales son isomorfos o que es isomorfo a y se anota Si
dos espacios vectoriales son isomorfos no significa que sean iguales, pero toda propiedad relacionada con la
estructura de espacio vectorial que posea uno de ellos se transfiere al otro a través del isomorfismo.
T :V → W V y W

Cambio de base y semejanza


Cambio de bases
En la sección anterior estudiamos cómo hallar las coordenadas de T(v) en una base teniendo la matriz asociada a T
y las coordenadas de v relativas a una base del dominio de T. Ahora nos centraremos en la situación más simple en
Composición de
donde sólo trabajaremos con un espacio vectorial V , pero para el cual consideraremos dos bases diferentes A y A0
. El problema aquí será cómo conocer las coordenadas de v ∈ V respecto a A0 si conocemos las coordenadas de v
respecto a A. Veremos que esto será un caso particular del Teorema 0.1.4 haciendo T = idV (la identidad sobre V ).
transformaciones
Matrices semejantes

lineales.
En el Teorema 0.3.4 vimos la igualdad B0((T))A0 = B0((idW ))B·B((T))A·A((idV ))A0. Hablando de manera muy
informal, podríamos decir que las matrices B0((T))A0 y B((T))A se parecen, pues A((idV ))A0 y B0((idW ))B son
matrices invertibles asociadas a operadores identidad. De hecho, B0((T))A0 y B((T))A comparten algunos de sus
valores importantes, como lo son su determinante y traza (en el sentido de que estos coinciden). Al parecer, el
determinate y la traza son un tipo de invariantes asociados a matrices de la forma B0((T))A0 y B((T))A. De hecho,
esto último sigue siendo cierto cuando se define determinada relación entre matrices cuadradas (no
necesariamente asociadas a una transformación lineal). Dicha relación se conoce en álgebra lineal como semejanza.

También podría gustarte