Está en la página 1de 8

Notas Curso Álgebra Lineal Aplicada II

27 de enero de 2021
1 Introducción
Sean A y B conjuntos y f : A → B una función de A hacia B entonces, para cada
b ∈ B determinar un problema de resolver una ecuación, es decir, encontrar todos los
x ∈ A tales que f (x) = b. A y B no tienen que ser conjuntos de números y f puede ser
una relación, no necesariamente una función.
El conjunto S = {x ∈ A : f (x) = b} es el conjunto solución, y puede ser cualquier
conjunto de A, desde el conjunto vacío hasta todo A.
En álgebra lineal se estudian los sistemas de ecuaciones lineales. Sea A una matriz
n × k, f : Rk → Rn definida por
f (x) = Ax, x ∈ Rk
Sea b ∈ Rn . Problema: encontrar S = {x ∈ A : f (x) = b}.
La función f está formada por n funciones con componentes fj = Rk → R, de modo
que
f (x) = [f1 (x) , f2 (x) , . . . , fn (x)]T
Si f (x) = Ax, entonces las funciones componentes son
fj (x) = aj,1 x1 + aj,2 x2 + · · · + aj,k xk , 1≤j≤n
que son funciones lineales con valores escalares.
Definición 1.1. (Multiplicación de matrices). Sea A una matriz n × k, B una matriz
k × m, uj = j-ésima columna de B, por lo tanto B = [u1 , u2 , . . . , um ]. Se define la
multiplicación de matrices como
AB = A [u1 , u2 , . . . , um ] = [Au1 , Au2 , . . . , Aum ]
En general, una definición análoga es la siguiente: si A = [ai,j ] y B = [bi,j ] entonces
C = AB esta bien definida y si C = [ci,j ], entonces

ci,r = ai,j bj,r , 1 ≤ i ≤ n, 1 ≤ r ≤ m.

donde ci,r es el producto de la fila i de A por la columna r de B.


Notación. El j−ésimo vector columna de A lo denotamos por A∗,j y el i−ésimo vector
fila de A lo denotamos por Ai,∗ .
Proposición 1.1. .
c∗,r = b1,r A∗,1 + b2,r A∗,2 + · · · + bk,r A∗,k

cr,∗ = ai,1 B1,∗ + ai,2 B2,∗ + · · · + ai,n Bn,∗

2
1 Introducción

1.1 Matriz canónica


Sea A una matriz de n filas y k columnas, existe una matriz P invertible tal que

C = P A =⇒ A = P −1 C

donde P es un producto de matrices elementales que representan operaciones fila y se


cumple que dimEc (A) = dimEc (C) = r, que es el número de columnas linealmente
independientes.
Además, también existe Q invertible tal que
[ ]
Ir 0
CQ = P AQ =
0 0

con r ≤ min (n, k), donde Q es el producto de matrices elementales que representan
operaciones columna.

Corolario. Para toda matriz A de dimensión n × k se cumple que dimEc (A) =


dimEf (A).

3
2 Bases de espacios vectoriales
2.1 Espacios isomorfos
Sean E y F espacios vectoriales, decimos que E y F son isomorfos si existe f lineal y
biyectiva tal que
f : E → F.
Para que esto se cumpla se debe satisfacer que
1. f es lineal: f (αx + βy) = αf (x) + βf (y) con x, y ∈ E y α, β ∈ R. Nótese que el
lado derecho de la igualdad son operaciones en E y el lado derecho son operaciones
en F.
2. f es inyectiva: si f (x) = f (y) entonces x = y, pero dado que f es lineal basta
probar que f (x) = 0 implica que x = 0, o bien, Nucf = {0}.
3. f es suprayectiva: Imf = F, esto es, dado z ∈ F existe al menos un x ∈ E tal que
f (x) = z.
Si se cumple lo anterior decimos que f es un isomorfismo.
Dado que f es biyectiva, entonces existe f −1 biyectiva tal que f −1 : F → E. Además, se
cumple que la expresión «E es isomorfo a F» es una relación de equivalencia (equivalencia
a si mismo, bidireccional de la equivalencia, a equivalente a b y b equivalente a c, entonces
a equivalente a c).
Proposición. Si dimE = dimF = n entonces E y F sin isomorfos.
*
Proposición. Sea E y F espacios vectoriales y f : E → F lineal e inyectiva, entonces
se cumple que dim E ≤ dim F.
Corolario. Si f : E → F es una función lineal y dim E > dim F entonces f no es
inyectiva, lo que implica que ∃x ∈ E : x ̸= 0 ∧ f (x) = 0.
Proposición. Sea E y F espacios vectoriales y f : E → F lineal y suprayectiva, entonces
se cumple que dim E ≥ dim F.
Corolario. Si f : E → F es una función lineal y dim E < dim F entonces f no es
suprayectiva, lo que implica que ∃z ∈ F : z ̸= f (x) ∀x ∈ E.
Proposición. Sean E y F espacios vectoriales reales y sea U ⊆ E una base de E.
Entonces si g : U → F es una función cualesquiera, entonces existe una única función
lineal f : E → F que extiende a g, esto es f (y) = g (y) ∀y ∈ U .

4
2 Bases de espacios vectoriales

Corolario. Si E y F son espacios vectoriales reales y f : E → F es una función lineal


entonces f esta totalmente determinada por lo valores que toma en los elementos de una
base cualesquiera U de E.

2.2 Bases coordenadas


Definición. Sea E un espacio vectorial de dimensión finita y sea U = {u1 , u2 , . . . , un }
una base de E, en donde fijamos el orden de elementos ∑ de U . Si x ∈ E entonces existe un
único vector [α1 , α2 , . . . , αn ]T ∈ Rn tal que x = ni=1 αi un decimos que [α1 , α2 , . . . , αn ]T
es el vector de coordenadas de x con respecto a la base ordenada U y escribimos

CoordU (x) = [α1 , α2 , . . . , αn ]T

Proposición. La función x → CoordU (x) es un isomorfismo de E a Rn .


Con lo anterior, se puede decir que cada base ordenada de E determina un isomorfismo
de E a Rn .

2.2.1 Cambios de bases


Proposición. Sea E un espacio vectorial de dimensión n y sean U = {u1 , u2 , . . . , un }
y V = {v1 , v2 , . . . , vn } dos bases de E. Entonces existe una única matriz invertible
P ∈ Mn,n tal que
P CoordU (x) = CoordV (x) , x∈E
y
P −1 CoordV (x) = CoordU (x) , x∈E
P se llama la matriz de cambio de base de la base U a la base V .
P −1 se llama la matriz de cambio de base de la base V a la base U .
Prueba. Se supone que P existe, por lo tanto debe satisfacer que

P CoordU (uj ) = CoordV (uj )

pero CoordU (uj ) = ej ∈ Rn , entonces

P CoordU (uj ) = P ej = Colj (P )

Así que la columna j de P debe ser igual a CoordV (uj ), lo que determina P totalmente.
La función x → CoordV (x) es un isomorfismo de E → Rn y es lineal e inyectiva, enton-
ces envía conjuntos linealmente independientes a conjunto linealmente independientes.
Por lo tanto dado que U es un conjunto linealmente independiente, entonces

{CoordV (uj ) | 1 ≤ j ≤ n}

es un conjunto linealmente independiente, de modo que el conjunto de n columnas de P


es linealmente independiente. Por lo tanto, P es invertible.

5
3 Transformaciones lineales
Definición 3.1. Una transformación lineal es una función T : V → W con las siguientes
propiedades:
Aditividad: T (u + v) = T (u) + T v para todo u, v ∈ V
Homogeneidad: T (λv) = λT (v) para todo λ ∈ R y v ∈ V

Definición 3.2. Definimos L (V, W) al conjunto de las transformaciones lineales de V


a W.

Proposición. L (V, W) es un espacio vectorial.

Proposición. Sea v1 , v2 , . . . , vn una base de V y w1 , w2 , . . . , wn una base de W. Entonces


existe una transformación lineal única T : V → W tal que

T (vj ) = wj

para 1 ≤ j ≤ n.

3.1 Operaciones algebraicas en L (V, W)


Definición 3.3. Sea S, T ∈ L (V, W) y λ ∈ Rn , la suma S + T y el producto λT son las
transformaciones lineales de V a W definidas por

(S + T ) (v) = S (v) + T (v)

y
(λT ) (v) = λT (v)
para todo v ∈ V.

Se puede verificar que S + T y λT definen una transformación lineal, es decir, S + T ∈


L (V, W) y λT ∈ L (V, W).
Debido a la definición que se dio de suma y multiplicación por escalar en L (V, W), el
siguiente resultado no debe ser una sorpresa.

Proposición. Con las operaciones de suma y multiplicación por escalar definidas como
se mencionó anteriormente, entonces L (V, W) es un espacio vectorial.

6
3 Transformaciones lineales

Se suele definir un el producto de matrices, pero para ello antes es necesario un tercer
espacio vectorial, para el resto de esta sección supondremos U un espacio vectorial sobre
Rn .

Definición 3.4. Sea T ∈ L (U , V) y S ∈ L (V, W), entonces el producto ST ∈ L (U , W)


se define como
(ST ) (u) = S (T (u))
para u ∈ U .

En otras palabras ST es la composición S ◦ T de dos funciones. Se puede verificar que


ST es una transformación lineal de U a W. Nótese que ST está definido solo si la imagen
de T se encuentra en el dominio de S.

Proposición. Propiedades algebraicas del producto de transformaciones lineales


Asociatividad

(T1 T2 ) T3 = T1 (T2 T3 )
dadas T1 , T2 , T3 transformaciones lineales cuyo producto tiene sentido.
Identidad
T I = IT = T
dada T ∈ L (V, W), donde la primera I es la identidad cuya imagen está V, y para la
segunda I su imagen está en W.
Distributividad

(S1 + S2 ) (T ) = S1 T + S2 T y S (T1 + T2 ) = ST1 + ST2


para T, T1 , T2 ∈ L (U , V) y S, S1 , S2 ∈ L (V, W).

La multiplicación de transformaciones lineales no es conmutativa, es decir, no necesa-


riamente se cumple que ST = T S, incluso si ambos lados de la ecuación tiene sentido.

Proposición. Sea T ∈ L (V, W), entonces T (0) = 0.

Matrices de Transformaciones Lineales


Definición 3.5. Sea T ∈ L (V, W) y v1 , . . . , vn una base de V y w1 , . . . , wm una base de
W. La matriz de T con respecto a las bases M (T ) es una matriz de dimensión m × n
cuyas entradas Aj,k están definidas por

T (vk ) = A1,k w1 + · · · + Am,k wm

La matriz M (T ) de una transformación lineal T depende de las bases de V y W, así


como de T . Sin embargo, las bases no se suelen incluir en la notación.
Si T es una transformación lineal de Rn a Rm , se asumen que las bases en cuestión son
las bases estándar. Así, si pensamos en los elementos de Rm como vectores columna de

7
3 Transformaciones lineales

m números, podemos obtener la k−ésima columna de M (T ) aplicando T a la k−ésimo


vector de la base estándar.
Consideremos ahora el siguiente caso especial, sea E un espacio vectorial y T ∈ L (E, E),
y U = {u1 , . . . , un } una base de E. Podemos definir una matriz MU (T ) tal que

coordU (T (x)) = MU (T ) coordU (x)

donde x ∈ E
Podemos encontrar está matriz como sigue:

T (uk ) = A1k u1 + · · · + Ank un

También podría gustarte