Está en la página 1de 20

Resumen Álgebra Lineal

1. Matrices
Son arreglos de números reales ordenados por filas y columnas, es decir, son de la forma A = (aij ) ; i, j ∈ N,
donde aij corresponde al número real ubicado en la fila i-ésima y columna j-ésima. A aij se le llama entrada de
la matriz A. Esta matriz tiene orden n × m, y se escribe como
 
a11 a12 · · · a1m
 a21 a22 · · · a2m 
A= . .. .. .. 
 
 .. . . . 
an1 an2 ··· anm

Si el número de filas es el mismo que el de columnas, se dice que la matriz es cuadrada y su orden es n (o m).

Si A es una matriz cuadrada de orden n, entonces los términos aii ; i, j ∈ N forman la diagonal de A, y esta se
define como
diag(A) = (a11 , a22 , . . . , ann )
La suma de los términos de la diagonal A se le llama traza de A y se denota como
n
X
tr(A) = aii
i=1

1.1. Tipos de Matrices


1.1.1. Matriz Diagonal
Sea A ∈ Mn (R). Si A es una matriz diagonal, entonces aij = 0 ; i 6= j.

a11 0 · · · 0
 
 0 a22 · · · 0 
A= . . . .. 
 
 .. .. .. . 
0 0 · · · ann

Por lo general, este tipo de matriz se denota como D.

1.1.2. Matriz Identidad


Sea A ∈ Mn (R). Si A es una matriz identidad, entonces satisface

1 si i = j

aij =
0 si i 6= j

Reemplazando valores,
1 0 ··· 0
 
0 1 · · · 0
A = . . . .. 
 
 .. .. .. .
0 0 ··· 1
La matriz identidad de orden n se denota como In .

Material elaborado por Iván Figueroa 1


1.1.3. Matriz Triangular
Si A ∈ Mn (R) es una matriz triangular superior, entonces aij = 0 ; i > j.
 
a11 a12 a13 · · · a1n
 0 a22 a23 · · · a2n 
A= 0 0 a33 · · · a3n 
 

 .. .. .. .. .. 

 . . . . . 
0 0 0 ··· ann

Si A ∈ Mn (R) es una matriz triangular inferior, entonces aij = 0 ; i < j.

0 0 ··· 0
 
a11
 a21 a22 0 ··· 0 
0 
 
 a31 a32 a33 · · ·
A=
 .. .. .. .. .. 

 . . . . . 
an1 an2 an3 · · · ann

1.1.4. Matriz Nula


Sea A ∈ Mn (R). Si A es una matriz nula, entonces aij = 0 ; ∀ i, j ∈ N.

0 0 ··· 0
 
0 0 · · · 0
A = . .. . . .. 
 
 .. . . .
0 0 ··· 0
La matriz nula de orden n se denota como 0n .

1.2. Transpuesta de una Matriz


Sea A = (aij ) una matriz de orden n × m. La matriz transpuesta se define como At = (aji ) y es de orden
m × n.    
a11 a12 · · · a1m a11 a21 · · · an1
 a21 a22 · · · a2m   a12 a22 · · · an2 
A= . .. .. .. =⇒ A t
=  .. .. .. .. 
   
 .. . . . . . . . 

 
an1 an2 · · · anm a1m a2m · · · anm

Una matriz simétrica es aquella que satisface At = A.


Una matriz antisimétrica es aquella que satisface At = −A.

1.3. Operaciones entre Matrices


1.3.1. Ponderación
Sean A ∈ Mn×m (R) y α ∈ R. Luego,
αA = (α · aij )

1.3.2. Suma
Sean A, B ∈ Mn×m (R), donde A = (aij ) y B = (bij ). Luego,

A + B = (aij + bij ) ; ∀i, j ∈ N

Material elaborado por Iván Figueroa 2


1.3.3. Multiplicación
Dos matrices se pueden multiplicar si el número de columnas en la primera matriz es igual al número de filas
en la segunda matriz. Si A ∈ Mn×m (R) y B ∈ Mm×k (R) , el producto AB es una matriz de orden n × k.
Cabe recalcar que no todas las matrices conmutan, es decir, que AB 6= BA.
El procedimiento es multiplicar cada fila de A con cada columna de B, donde se multiplica cada término con su
análogo. He aquí un ejemplo.
−1 0 2 −3 1
   
Sean A = yB= . Luego,
1 2 0 1 −1

−1 0 2 −3 1
   
AB = ·
1 2 0 1 −1
−1 · 2 + 0 · 0 −1 · −3 + 0 · 1 −1 · 1 + 0 · −1
 
=
1·2+2·0 1 · −3 + 2 · 1 1 · 1 + 2 · −1
−2 3 −1
 
=
2 −1 −1

1.4. Propiedades de Matrices


I) Propiedades de la suma y ponderación
Sean A, B ∈ Mn×m (R) y α, β ∈ R.
1) A + B = B + A
2) A + (B + C) = (A + B) + C
3) α(A + B) = αA + αB
4) (α + β)A = αA + βA
5) α(BA) = (αB)A
6) α(βA) = (αβ)A
7) A + 0n×m = A
8) A + (−A) = 0n×m
II) Propiedades de la multiplicación
1) A(B + C) = AB + AC ; ∀B, C ∈ Mn×m (R) ∧ ∀A ∈ Mk×m (R)
2) (A + B)C = AC + BC ; ∀A, B ∈ Mn×m (R) ∧ ∀C ∈ Mm×k (R)
3) A(BC) = (AB)C ; ∀A ∈ Mn×m (R) ∧ ∀B ∈ Mm×k (R) ∧ ∀C ∈ Mk×t (R)
4) α(AB) = (αA)B = A(αB) ; ∀A ∈ Mn×m (R) ∧ ∀B ∈ Mm×k (R)
5) A · 0n×m = 0k×m ; ∀A ∈ Mk×n
6) A · In = A ∨ In · A = A ; ∀A ∈ Mn
7) El producto de dos matrices puede ser la matriz nula y ninguna de ellas ser cero, es decir

AB = 0n×k 
=⇒
 A = 0n×m ∨ B = 0m×k ; ∀A ∈ Mn×m (R) ∧ ∀B ∈ Mm×k (R)

Así mismo, si AB = AC, entonces no necesariamente B = C ; ∀A ∈ Mn×m (R) ∧ ∀B, C ∈ Mm×k (R).
III) Propiedades de la traza
1) tr(A + B) = tr(A) + tr(B)
2) tr(AB) = tr(BA)
3) tr(αA) = α · tr(A) ; ∀α ∈ R
4) tr (A ) = tr(A)
t

5) tr(AB) 6= tr(A) · tr(B)

Material elaborado por Iván Figueroa 3


IV) Propiedades de matrices diagonales
Sean A, B matrices diagonales.
1) A + B = diag(a11 + b11 , a22 + b22 , . . . , ann + bnn )
2) AB = diag(a11 · b11 , a22 · b22 , . . . , ann · bnn )
3) αA = diag(α · a11 , α · a22 , . . . , α · ann ) ; ∀α ∈ R
V) Propiedades de la transpuesta
1) (At )t = A ; ∀A ∈ Mn×m (R)
2) (A + B)t = At + B t ; ∀A, B ∈ Mn×m (R)
3) (AB)t = B t At ; ∀A ∈ Mn×m (R) ∧ ∀B ∈ Mm×k (R)
4) (αA)t = αAt ; ∀A ∈ Mn×m (R)

1.5. Determinante
Dada una matriz A ∈ Mn (R), se le llama menor ij (Mij ) al determinante de la matriz de orden n − 1 que queda
al eliminar la fila i-ésima y columna j-ésima, y cofactor ij (Cij ) al producto Cij = (−1)i+j · Mij , i, j ∈ N.
Si se elige fila k-ésima
n
X
det(A) = akj Ckj
j=1

Si se elige columna k-ésima


n
X
det(A) = aik Cik
i=1

1.5.1. Propiedades de determinantes


Sean A, B ∈ Mn (R).
1. det (At ) = det(A)
2. Si A es una matriz diagonal o triangular, entonces
n
Y
det(A) = aii , ∀n ∈ N.
i=1

de forma análoga, det(In ) = 1 y det(0n ) = 0 , ∀n ∈ N


3. det(AB) = det(A) · det(B)
n
4. det(An ) = [det(A)]
5. det(kA) = k n · det(A) , ∀k ∈ R
6. Al intercambiar dos filas o columnas en el determinante, este cambia de signo.
7. Si en una matriz hay dos filas o columnas iguales o proporcionales, entonces su determinante es 0.
8. Si existe alguna columna o fila nula, entonces el determinante es 0.
9. Si a una columna o fila de la matriz se pondera por α, entonces el determinante queda ponderado por α.
10. Por lo general, det(A + B) 6= det(A) + det(B) ; A, B ∈ Mn (R), sin embargo hay casos donde esto se cumple.
Sea Ci la columna i-ésima de la matriz A ∈ Mn (R), así, la matriz se puede reescribir de acuerdo a sus co-
lumnas, A = (C1 , C2 , . . . , Cn ). Luego, si las matrices son del tipo A = (C1 , C2 , . . . , Ci−1 , Ci , Ci+1 , . . . , Cn )
y B = (C1 , C2 , . . . , Ci−1 , Di , Ci+1 , . . . , Cn ), entonces
det(A + B) = det(A) + det(B)
Notar que Di es la i-ésima columna de la matriz B, y las matrices A y B son iguales excepto en esa
columna.

Material elaborado por Iván Figueroa 4


1.5.2. Caso Matriz Orden 2
 
a b
Sea A = ∈ M2 (R). Luego, su determinante es
c d

a b
det(A) = = ad − bc
c d

1.5.3. Regla de Sarrus


La regla de Sarrus es un método que permite calcular rápidamente el determinante de una matriz cuadrada
de orden 3 o mayor, pero generalmente se usan en M3 (R) tal como se muestra a continuación

a11 a12 a13
a21 a22 a23 = (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 ) − (a13 a22 a31 + a12 a21 a33 + a11 a23 a32 )


a31 a32 a33

1.6. Inversa de una Matriz


Una matriz A ∈ Mn (R) es invertible o no singular si y solo si ∃B ∈ Mn (R) tal que AB = In y BA = In . La
matriz B se denomina matriz inversa de A y se denota como A−1 , entonces AA−1 = In y A−1 A = In .

1.6.1. Propiedades matrices inversas


Sean A, B ∈ Mn (R) invertibles.
1. A−1 es única.
2. det(A) 6= 0
3. (A−1 )−1 = A
4. (AB)−1 = B −1 A−1
1 −1
5. (αA)−1 = A , ∀α ∈ R − {0}
α
6. (An )−1 = (A−1 )n
7. (At )−1 = (A−1 )t
8. (A + B)−1 6= A−1 + B −1

1.6.2. Inversa en Matrices de orden 2


 
a b
Sea A = ∈ M2 (R). Luego, su inversa es
c d
1
 
d −b
A −1
= ·
ad − bc −c a
Notar que ad − bc corresponde al determinante de A.

1.7. Matriz Adjunta


La matriz adjunta es la transpuesta de la matriz de cofactores.
Adj(A) = (Cij )t
<=> Adj(A) = ((−1)i+j · Mij )t
Las relaciones que hay que tener en consideración son las siguientes
1
A−1 = · Adj(A)
det(A)
det(Adj(A)) = (det(A))n−1
Adj(A) · A = det(A) · In

Material elaborado por Iván Figueroa 5


1.8. Operaciones elementales entre filas
1. Fij : Intercambio de fila i con fila j
2. Fi + αFj : A la fila i se le suma α veces la fila j , ∀α ∈ N
3. α · Fi : Se pondera por α la fila i , ∀α ∈ N

Si a una matriz A se le aplican operaciones elementales, se forma una matriz B que es equivalente a la matriz
original, es decir, A ∼ B.

Además, si A ∼ C y B ∼ C, entonces por transitividad se cumple que A ∼ B o B ∼ A.

Cabe señalar que estas operaciones te pueden aplicar en determinante, donde la operación de sumar filas no
cambia el determinante, en cambio, la operación de intercambio de filas y ponderación si lo hacen.

1.9. Matriz Escalonada


Una matriz escalonada cumple que
Las filas nulas están debajo de las filas no nulas.
El primer elemento no nulo de cada fila (pivote o elemento guía) está a la derecha del pivote de la fila anterior.

Debajo de cada elemento guía hay solo ceros.


A este proceso se le llama eliminación Gaussiana.

1.9.1. Matriz Escalonada Reducida por Filas


Una matriz A se dice reducida por filas si luego de aplicar la eliminación Gaussiana se siguen realizando opera-
ciones elementales hasta que cada pivote es 1, y en su columna (columna pivote) el resto de los elementos son todos
nulos.

Pasos a seguir (lo más recomendable):


1. Se comienza con la primera columna por la izquierda, seleccionando de ésta un elemento distinto de cero que
será el primer pivote.
2. Si el elemento seleccionado no está en el extremo superior izquierdo de la matriz, se coloca en esa posición
mediante una permutación de filas.
3. Utilizando operaciones elementales por filas se crean ceros debajo del pivote.
4. Si al realizar los pasos 1-3 aparecen filas nulas, estas se colocan mediante permutaciones por debajo de las
filas no nulas.

5. Se pasa a la siguiente columna pivote, y se aplican los pasos 1-4 a la submatriz que resulta de omitir la primera
fila y todas las columnas situadas a la izquierda de dicha columna.
6. Se repite el paso anterior sobre todas las demás columnas pivote.
7. Se toma el primer pivote por la derecha y se crean, mediante operaciones elementales por filas, ceros encima
del mismo. Si el pivote no es igual a 1, dividimos por su valor todos los elementos de la fila correspondiente a
fin de conseguir el número 1 en su posición.
8. Se continua el proceso de derecha a izquierda repitiendo el paso anterior para todos los demás pivotes.

Material elaborado por Iván Figueroa 6


1.10. Rango de una Matriz
Sea A ∈ Mn×m (R) y E ∈ Mn×m (R) una matriz escalonada reducida por filas tal que A ∼ E. El rango de A
(ran(A) o r(A) o ρ(A)) corresponde al número de filas no nulas de E.

1.10.1. Teorema
Si A ∈ Mn (R) es invertible, entonces su rango es n, es decir, A ∼ In . De esto se desprende lo siguiente para
calcular A−1 .
(A | In ) ∼ . . . ∼ (In | A−1 )

Material elaborado por Iván Figueroa 7


2. Sistema de ecuaciones lineales
Un sistema de ecuaciones lineales con m incógnitas x1 , x2 , . . . , xm se puede escribir de la forma

a11 x1 + a12 x2 + . . . + a1m xm = b1 


a11 x1 + a22 x2 + . . . + a2m xm = b2 




.. .. .. .. .
. . . . = ..  
an1 x1 + an2 x2 + . . . + anm xm = bn

Matricialmente, este sistema es equivalente a


    
a11 a12 · · · a1m x1 b1
 a21 a22 · · · a2m   x 2   b2 
 .. .. .. ..   ..  =  .. 
    
 . . . .  .   . 
an1 an2 · · · anm xm bn

donde la matriz con las componentes (aij ) es la matriz de coeficientes que se denota como A, la que contiene
al conjunto {x1 , x2 , . . . , xm } es la matriz o vector de incógnitas que se denota como X y por último, la matriz
que contiene al conjunto {b1 , b2 , . . . , bn } es la matriz o vector de constantes que se escribe como B.

2.1. Sistemas Homogéneos


Los sistemas homogéneos son aquellos sistemas de ecuaciones lineales, donde la matriz de constantes es nula,
es decir, AX = 0.
0
    
a11 a12 · · · a1m x1
 a21 a22 · · · a2m   x2  0
 .. .. .. ..   ..  =  .. 
    
 . . . .   .  .
an1 an2 ··· anm xm 0
| {z } | {z }
A X

2.1.1. Teoremas
Si AX = 0 y A ∼ E, entonces el sistema EX = 0 tiene el mismo conjunto solución de AX = 0.

Si A ∼ In , entonces la solución es el conjunto {(0, 0, . . . , 0) ∈ Rm }.


Sea AX = 0 un sistema homogéneo, donde A ∈ Mn×m (R) y X ∈ Mm×1 (R) ; n, m ∈ N.
• Si r(A) = m, donde m es el número de incógnitas, entonces el sistema tiene como SOLUCIÓN ÚNICA
el conjunto {(0, 0, . . . , 0) ∈ Rm }.
• Si r(A) < m, donde m es el número de incógnitas, entonces el sistema tiene INFINITAS SOLUCIO-
NES que dependen de (m − r(A)) parámetros.
• Todo sistema homogéneo tiene al menos la solución nula {(0, 0, . . . , 0) ∈ Rm }.

2.2. Sistemas no Homogéneos


Los sistemas no homogéneos son aquellos sistemas de ecuaciones lineales AX = B, donde la matriz de
constantes es no nula, es decir, ∃ bi 6= 0 ; i ∈ {1, 2, . . . , n}.
    
a11 a12 · · · a1m x1 b1
 a21 a22 · · · a2m   x2   b2 
 .. .. .. ..   ..  =  .. 
    
 . . . .  .   . 
an1 an2 ··· anm xm bn
| {z } | {z } | {z }
A X B

Material elaborado por Iván Figueroa 8


Se define como matriz ampliada a la matriz (A | B) ∈ Mn×m+1 (R), que corresponde a la matriz A junto una
última columna que es la matriz B.
 
a11 a12 · · · a1m b1
 a21 a22 · · · a2m b2 
(A | B) =  . .. . .. .. 
 
 .. . . . . . 
an1 an2 · · · anm bn

2.2.1. Teoremas
Si r(A | B) > r(A), entonces el sistema es INCOMPATIBLE, es decir, que NO tiene solución.
Si r(A | B) = r(A) = m donde m es el número de incógnitas, entonces el sistema tiene UNA SOLUCIÓN.
Si r(A | B) = r(A) < m donde m es el número de incógnitas, entonces el sistema tiene INFINITAS
SOLUCIONES que dependen de (m − r(A)) parámetros.

2.2.2. Regla de Cramer


Sean 4 = det(A) y 4i el determinante de la matriz que se obtiene al reemplazar la i-ésima columna de A por
el vector columna B. Luego, el conjunto solución se obtiene calculando
4i
xi =
4

Material elaborado por Iván Figueroa 9


3. Espacios Vectoriales
Un espacio vectorial V sobre un cuerpo K es un conjunto donde se definen dos operaciones,

1. Operación Interna (Suma)


S : V × V −→ V
(u, v) 7→ u + v

2. Operación Externa (Ponderación)


P : K × V −→ V
(α, v) 7→ αv

3.1. Propiedades Espacios Vectoriales


1. 0V ∈ V
2. u + v ∈ V ; ∀u, v ∈ V
3. u + v = v + u ; ∀u, v ∈ V

4. (u + v) + w = u(v + w) ; ∀u, v, w ∈ V
5. 0V + u = u + 0V = u ; ∀u ∈ V
6. u + (−u) = 0V ; ∀u ∈ V

7. α · u ∈ V ; ∀v ∈ V , ∀α ∈ K
8. α(u + v) = α · v + α · u ; ∀u, v ∈ V , ∀α ∈ K
9. (α + β)v = α · v + β · v ; ∀v ∈ V , ∀α, β ∈ K
10. α(β · v) = (α · β)v ; ∀α, β ∈ K , ∀v ∈ V

11. 1 · u = u ; ∀u ∈ V
12. α · 0V = 0V ; ∀α ∈ K
13. 0 · u = 0V ; ∀u ∈ V

14. Si α · u = 0V , entonces α = 0 o u = 0V .
15. (−1) · u = −u ; ∀u ∈ V

3.2. Subespacios Vectoriales


Sean V un espacio vectorial sobre K. Un subespacio vectorial de V es un subconjunto W que satisface tres
condiciones
1. 0V ∈ W =⇒ W 6= ∅ (Al menos debe contener 0V )
2. u + v ∈ W ; ∀u, v ∈ W (Cerrado bajo la suma)
3. α · v ∈ W ; ∀v ∈ W , ∀α ∈ K (Cerrado bajo la ponderación)

Además, si W1 y W2 son subespacios vectoriales de V , entonces W1 ∩ W2 también lo es.

3.3. Combinación Lineal


Sean V un espacio vectorial sobre K, {v1 , v2 , . . . , vn } ⊆ V y α1 , α2 , . . . , αn ∈ K. Una combinación lineal (c.l)
de los vectores v1 , v2 , . . . , vn es el vector

v = α1 v1 + α2 v2 + . . . + αn vn ∈ V

Material elaborado por Iván Figueroa 10


3.4. Generadores
Sea V un espacio vectorial sobre K y A = {v1 , v2 , . . . , vn } ⊆ V . El conjunto A se denomina conjunto generador
de V y se denota V = h{v1 , v2 , . . . , vn }i o V = hAi, si todo vector v ∈ V es combinación lineal de los vectores de A.

3.5. Dependencia Lineal


Sean V un espacio vectorial sobre K, A = {v1 , v2 , . . . , vn } ⊆ V y α1 , α2 , . . . , αn ∈ K.
El conjunto de vectores A es un conjunto linealmente dependiente (l.d) si existen infinitos valores de
α1 , α2 , . . . , αn ∈ K tales que
α1 v1 + α2 v2 + . . . + αn vn = 0v

El conjunto de vectores A es un conjunto linealmente independiente (l.i) si existen únicos valores de


α1 , α2 , . . . , αn ∈ K tales que
α1 v1 + α2 v2 + . . . + αn vn = 0v
es decir, que α1 = α2 = . . . = αn = 0.

3.6. Bases
Sea V un espacio vectorial sobre K y B = {v1 , v2 , . . . , vn } ⊆ V . El conjunto B es una base de V si y solo si B
genera a V y que B sea linealmente independiente.

Sea V un espacio vectorial sobre K y V = h{v1 , v2 , . . . , vn }i. Luego, si w1 , w2 , . . . , wk ∈ V , entonces

V = h{v1 , v2 , . . . , vn , w1 , w2 , . . . , wk }

3.6.1. Bases Canónicas


He aquí algunas bases canónicas de los espacios vectoriales más utilizados.
V = Rn
C = {(1, 0, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, 0, . . . , 1)}

V = M2 (R)
1 0 0 1 0 0 0 0
       
C= , , ,
0 0 0 0 1 0 0 1

V = Pn [x]
C = {1, x, x2 , . . . , xn }

3.7. Dimensión
La dimensión de un espacio vectorial V corresponde a la cantidad de vectores que tiene su base y se denota
como dim(V ) = n. A continuación, están algunas dimensiones de los espacios vectoriales mas conocidos.
dim(0v ) = 0
dim (Rn ) = n
dim (Pn [x]) = n + 1

dim (Mn×m (R)) = n · m


dim (C) = 2
dimC (C) = 1
Sea el espacio vectorial C(A, B) = {f : A −→ B / f función continua}, su dimensión dim (C(A, B)) es
infinita.

Material elaborado por Iván Figueroa 11


3.7.1. Teorema de la Dimensión E.V
Sea V un espacio vectorial sobre K con dim(V ) = n y S, T subespacios de V . Luego,

dim(S + T ) = dim(S) + dim(T ) − dim(S ∩ T )

3.8. Suma de Subespacios Vectoriales


Sea V un espacio vectorial y S, T subespacios vectoriales de V . Se define el subespacio vectorial suma S + T
de V , como
S + T = {w = u + v / u ∈ S ∧ v ∈ T }

3.9. Intersección de Subespacios Vectoriales


Sea V un espacio vectorial y S, T subespacios vectoriales de V . Se define el subespacio intersección S ∩ T de V ,
como
S ∩ T = {w ∈ V / w ∈ S ∧ w ∈ T }

3.10. Vector Coordenada


Sea V un espacio vectorial sobre K y B = {v1 , v2 , . . . , vn } una base ordenada de V .

Si w ∈ V , entonces existen α1 , α2 , . . . , αn ∈ R, tales que

w = α1 v1 + α2 v2 + . . . + αn vn

Tal colección de escalares forman un vector Kn y se denota como

[w]B = (α1 , α2 , . . . , αn )

3.11. Teorema Completación de Base


Sea V un espacio vectorial sobre K de dimensión finita dim(V ) = n y W subespacio vectorial de V , donde
dim(W ) = k < n. Si C = {w1 , w2 , . . . , wn } es base de W , entonces existen {v1 , v2 , . . . , vn−k } ∈ V tal que
B = {w1 , w2 , . . . , wk , v1 , v2 , . . . , vn−k } sea una base de V .

Material elaborado por Iván Figueroa 12


4. Transformación Lineal
Sean V, W espacios vectoriales sobre K. Una transformación lineal (t.l) T de V a W es una función de la
forma
T : V −→ W
v 7→ T (v)
que satisface las siguientes condiciones
1. T (0V ) = 0W
2. T (u + v) = T (u) + T (v) ; ∀u, v ∈ V
3. T (α · u) = αT (u) ; ∀u ∈ V , ∀α ∈ K
De forma general, si T : V −→ W es una transformación lineal, entonces

T (α1 v1 + α2 v2 + . . . + αn vn ) = α1 T (v1 ) + α2 T (v2 ) + . . . + αn T (vn ) ; ∀vn ∈ V , ∀αn ∈ K

4.1. Transformaciones especiales


1. Sea IV : V −→ V una transformación lineal llamada transformación identidad que se define como

IV (v) = v , ∀v ∈ V

2. Sea T0 : V −→ W una transformación lineal llamada transformación nula que se define como

T0 (v) = 0W , ∀v ∈ V

4.2. Teorema de extensión


Sean V, W espacios vectoriales sobre K y B = {v1 , v2 , . . . , vn } ⊆ V una base cualquiera de V . Luego, existe una
única transformación lineal T : V −→ W tal que

T (v1 ) = w1


 T (v2 ) = w2




T (v3 ) = w3
..
.




T (vn ) = wn

donde w1 , w2 , . . . , wn son vectores de W .

4.3. Kernel
Sean V, W espacios vectoriales sobre K y T : V −→ W una transformación lineal. El kernel o núcleo de T se
define como
ker(T ) = {v ∈ V / T (v) = 0W }
La dimensión del kernel T (dim (ker(T ))) se llama nulidad y se denota η(T ).

4.4. Imagen
Sea T : V −→ W una transformación lineal. La imagen de T se define como

Im(T ) = {w ∈ W / ∃ v ∈ V , T (v) = w}

o en términos más simples,


Im(T ) = {T (v) ∈ W / v ∈ V }
La dimensión de la imagen de T (dim (Im(T ))) se llama rango y se denota ρ(T ). Además, Im(T ) es un subespacio
vectorial de W .

Material elaborado por Iván Figueroa 13


4.5. Teorema de la dimensión T.L
Sea T : V −→ W una transformación lineal con dim(V ) y dim(W ) finitas. Luego,

η(T ) + ρ(T ) = dim(V )

4.6. Inyectividad
Una transformación lineal T : V −→ W es inyectiva si y solo si ker(T ) = {0V }, entonces η(T ) = 0.

4.6.1. Teorema
Sea T : V −→ W una transformación lineal inyectiva. Si {v1 , v2 , . . . , vn } es un conjunto linealmente indepen-
diente, entonces {T (v1 ), T (v2 ), . . . , T (vn )} también es un conjunto linealmente independiente.

4.7. Epiyectividad
Una transformación lineal T : V −→ W es epiyectiva si y solo si Im(T ) = W , entonces ρ(T ) = dim(W ).

4.8. Biyectividad
Cuando una transformación lineal T : V −→ W es inyectiva y sobreyectiva, entonces se dice que es biyectiva.

4.8.1. Corolario
Sea T : V −→ W una transformación lineal inyectiva. Si {v1 , v2 , . . . , vn } es una base de V , entonces
{T (v1 ), T (v2 ), . . . , T (vn )} es una base de W . Además, si dim(V ) < ∞, entonces det (Im(T )) = dim(V ).

4.9. Isomorfismo
Sea T : V −→ W una transformación lineal. Si ρ(T ) = dim(V ) = dim(W ), entonces se dice que V y W son
isomorfos, lo que se denota como V ∼
= W.

Si la transformación lineal es biyectiva y sus espacios son isomorfos, entonces T es un isomorfismo.

Notar que una t.l que se define como T : V −→ W tal que dim(V ) = dim(W ) y η = 0, entonces T es un
isomorfismo. Lo anterior se cumple a través del teorema de la dimensión.

Si V ∼
= W , entonces W ∼
=V.
Si V ∼
=W yW ∼
= U , entonces por transitividad V ∼
= U.
Si V es un espacio vectorial tal que dim(V ) = n, entonces V ∼
= Rn , es decir, existe un isomorfismo T : V −→ Rn
o S : R −→ V .
n

4.9.1. Transformación Lineal Invertible


Sea T : V −→ W una transformación lineal. Se dice que T es invertible si y solo si es un isomorfismo y su
inversa T −1 es también un isomorfismo.

Material elaborado por Iván Figueroa 14


4.10. Espacio de Transformaciones Lineales
Sean V, W espacios vectoriales sobre K. El espacio vectorial de transformaciones lineales se define como

L(V, W ) = {T : V −→ W / T es lineal}

Además, L(V, W ) = dim(V ) · dim(W ), lo que implica que si dim(V ) = n y dim(W ) = m, entonces L(V, W ) ∼
=
Mn×m (R).
Si T, S ∈ L(V, W ), entonces T + S ∈ L(V, W ).
Si T ∈ L(V, W ) y α ∈ K, entonces αT ∈ L(V, W ).
En este caso, el vector nulo de L(V, W ) es la transformación lineal nula T0 (v) = 0W .

Si T ∈ L(V, W ) es biyectiva, entonces T −1 ∈ L(V, W ).

4.11. Composición de Transformaciones Lineales


Sean T : V −→ W y S : W −→ U dos transformaciones lineales. La composición entre T y S es S ◦ T : V −→ U
y también es una transformación lineal denotada como (S ◦ T )(v) = S (T (v)).

4.11.1. Propiedades composición de T.L


1. Asociativa

S ◦ (T ◦ F ) = (S ◦ T ) ◦ F , siempre que F ∈ L(V, W ) , T ∈ L(W, U ) , F ∈ L(U, A).


2. Distributiva
S ◦ (T + F ) = (S ◦ T ) + (S ◦ F ), siempre que F, T ∈ L(V, W ) , S ∈ L(W, U ).

3. Elemento Neutro
T ◦ IV = T , siempre que T ∈ L(V, W ).
IW ◦ T = T , siempre que T ∈ L(V, W ).
4. Si T ∈ L(V, W ) y S ∈ L(W, U ) son invertibles, entonces (S ◦ T )−1 = T −1 ◦ S −1 .

4.11.2. Transformación Lineal Invertible


Sea T : V −→ W una transformación lineal. Se dice que T es invertible si y solo si existe alguna transformación
lineal S : W −→ V tal que T ◦ S = IW y S ◦ T = IV , tal t.l S es la inversa de T y se denota como T −1 .

4.12. Matriz Asociada


Sean U y V espacios vectoriales sobre un cuerpo K y sean B = u1 , u2 , . . . , un y C = v1 , v2 , . . . , vm bases
ordenadas de U y V respectivamente. Si T : U −→ V es una transformación lineal, se define la matriz asociada a
T respecto de las bases B y C como la matriz [T ]B
C ∈ Mm×n (K), dada por

[T ]B
C = ([T (u1 )]C , [T (u2 )]C , . . . , [T (un )]C )

donde [T (ui )]C (para i = 1, 2, . . . , n) representan las coordenadas del vector T (ui ) respecto de la base C, de mo-
do que las columnas de [T ]BC son las coordenadas de las imágenes de los vectores de la base B, respecto de la base C.

Si T : U −→ V es una transformación lineal, donde U y V son el mismo espacio vectorial, entonces su matriz
asociada que va desde una base B a otra B, se denota como [T ]B .

Si T : U −→ V es una transformación lineal, donde U y V son espacios vectoriales de dimensión n y m


respectivamente, y se utilizan las bases canónicas de estos espacios vectoriales, entonces su matriz asociada se
denota como [T ].

Material elaborado por Iván Figueroa 15


4.12.1. Propiedades Matriz Asociada
Sean T : V −→ W , S : V −→ W y B, E bases de V y W respectivamente, entonces
i) [T + S]E
B = [T ]B + [S]B
E E

ii) [αT ]E
B = α · [T ]B ; α ∈ K
E

Sea T : V −→ W una transformación lineal invertible y B, E bases de V y W respectivamente, entonces


i) [T ]E
B · [T ]E = [T · T −1 ]E
−1 B
E = [IW ]E = In
E

ii) [T −1 ]B
E · [T ]B = [T
E −1
· T ]B
B = [IV ]B = In
B

−1
iii) [T ]E = [T −1 ]B

B E

iv) ρ(T ) = dim (Im(T )) = ρ [T ]E



B

4.12.2. Caracterización de la Matriz Asociada


Sean U y V espacios vectoriales sobre K con bases ordenadas B = {u1 , u2 , . . . , un } y C = {v1 , v2 , . . . , vm },
respectivamente. Si T : U −→ V es una transformación lineal, entonces

[T ]C
B · [v]B = [T (v)]C , v ∈ U

Obs: Recordar que [v]B es el vector coordenada de v.

Material elaborado por Iván Figueroa 16


5. Valores y Vectores Propios
Sean V un espacio vectorial de dimensión finita n y T : V −→ V una transformación lineal con matriz de
representación A ∈ Mn (R).
i) Se le llama valor propio de A al número λ ∈ R, si ∃~x ∈ Rn − {~0}, tal que A~x = λ~x. Al vector ~x se le llama
vector propio de A asociado al valor propio λ.
ii) Se le llama espacio propio al conjunto de todos los vectores propios asociados a λ, se denota como Vλ y es
un subespacio vectorial de V . Además, este conjunto es

Vλ = {~v ∈ Rn / A~v = λ~v }

iii) Como A~x = λ~x, entonces se cumple que Ak ~x = λk ~x , k ∈ N.

5.1. Cálculo de valores y vectores propios


A raíz de A~x = λ~x, se obtiene que (A − λIn )~x = ~0. A partir de la última relación, existen las siguientes
definiciones
Sistema Propio: (A − λIn )~x = ~0
Ecuación Característica: det(A − λIn ) = 0

Polinomio Característico: p(λ) = det(A − λIn ) = 0


Cabe destacar que la matriz (A − λIn ) no es invertible.

5.2. Propiedades de los valores, vectores y espacios propios


1. tr(A) = λ1 + λ2 + . . . + λn
2. det(A) = λ1 · λ2 · . . . · λn
3. Los valores propios de A son los mismos de At .
4. Los valores propios de una matriz triangular son los elementos de su diagonal principal.

5. Sean A ∈ Mn (R) una matriz y λ1 , λ2 valores propios de A distintos, entonces

Wλ1 ∩ Wλ2 = {0}

En particular, si u ∈ Wλ1 y v ∈ Wλ2 , entonces u y v son linealmente independientes.

5.3. Multiplicidades de valores propios


Se llama multiplicidad algebraica de λ a la multiplicidad de λ como raíz del polinomio característico p(λ).
Se llama multiplicidad geométrica de λ a la dimensión de Vλ , es decir, el espacio propio asociado a λ.

Obs: Para cada valor propio de una matriz A ∈ Mn (R) se tiene que la multiplicidad geométrica es menor o igual
que la multiplicidad algebraica.

5.4. Matrices Semejantes


Sean A, B ∈ Mn (R). Se dice que A es similar o semejante con B, si existe una matriz invertible P ∈ Mn (R)
tal que
B = P −1 AP
Si A y B son semejantes, entonces se denota como A ∼ B y cumplen que tienen igual determinante e igual
polinomio característico.

Material elaborado por Iván Figueroa 17


6. Diagonalización
Una matriz A ∈ Mn (R) se dice que es diagonalizable, si existe una matriz invertible P ∈ Mn (R) y una matriz
diagonal D ∈ Mn (R), tal que D = P −1 AP .

Obs: Notar que D = P −1 AP es equivalente a A = P DP −1 y esto implica que An = P Dn P −1 . De forma análoga,


D = P −1 An P .
n

La matriz P es un vector columna cuyas componentes son un conjunto x~1 , x~2 , . . . , x~n de n vectores propios
linealmente independiente que salen a partir de los espacios propios de cada λ asociado y la matriz D tiene en su
diagonal los valores propios de A, es decir, λ1 , λ2 , . . . , λn .

IMPORTANTE: Respetar el orden de los valores propios que se usa en la matriz D para la matriz P .

Un criterio de diagonalización fundamental es que para cada valor propio de una matriz A, debe coincidir
su multiplicidad algebraica y geométrica.

6.1. Teorema
Toda matriz A que sea diagonal o simétrica, es diagonalizable, es decir, cumple que A = P DP −1 , tal que
P ∈ Mn (R) sea invertible y D ∈ Mn (R) una matriz diagonal.

6.2. Diagonalización de Transformaciones Lineales


Una transformación lineal T : V −→ V se dice diagonalizable si puede representarse por una matriz diagonal
D. Así, T es diagonalizable si y solo si existe una base S = {u1 , u2 , . . . , un } de V para la cual

T (u1 ) = λ1 u1
T (u2 ) = λ2 u2
.
= ..
T (un ) = λn un

En tal caso, T se representa por la matriz diagonal D = diag(λ1 , λ2 , . . . , λn ), respecto de la base S.

El conjunto Vλ de todos los vectores propios asociados a λ corresponde a ker(T − λI).

Sea A la matriz que representa la transformación lineal T : V −→ V . T es diagonalizable si y solo si A es


diagonalizable.

Material elaborado por Iván Figueroa 18


7. Producto Interior
Sea V un espacio vectorial sobre R. Un producto interior sobre V es una función Φ : V × V −→ R que cumple

Sea v, w, z ∈ V y α ∈ R
i) Φ(v + w, z) = Φ(v, z) + Φ(w, z)
ii) Φ(α · v, w) = α · Φ(v, w)
iii) Φ(v, v) > 0

Obs: Si hv, vi = 0, entonces v = 0V

7.1. Productos Interiores usuales


R . Sean u = (x1 , x2 , . . . , xn ) y u = (y1 , y2 , . . . , yn ). Luego,
n

n
X
hu, vi = xi yi
i=1

Mn×m (R). Sean A, B ∈ Mn×m (R) y n, m ∈ N. Luego,


m X
X n
hA, Bi = tr(B t A) = aij bij
i=1 j=1

C[a, b]. Sean f, g ∈ C[a, b]. Luego,


Z b
hf, gi = f (x) · g(x) dx
a

Pn [x]. Sean p(x), q(x) ∈ Pn [x]. Luego,


Z 1
hp(x), q(x)i = p(x) · q(x) dx
0

7.2. Fórmulas a considerar


Distancia entre dos vectores

d(u,v) =
p
hu − v, u − vi
<=> d(u,v) = ku − vk

Ángulo entre dos vectores


hu, vi
cos(α) =
kuk · kvk

7.3. Conjunto Ortogonal


Un conjunto ortogonal C de vectores sobre un espacio vectorial V es aquel que cumple hu, wi = 0 , ∀v, w ∈ C.

7.4. Conjunto Ortonormal


Un conjunto ortonormal C de vectores sobre un espacio vectorial V es un conjunto ortogonal que satisface
kvk = 1 , ∀v ∈ C.
 
v1 v2 vn
Si C = {v1 , v2 , ..., vn } es un conjunto ortogonal, entonces C =
0
, , ..., es un conjunto ortonor-
kv1 k kv2 k kvn k
mal.

Material elaborado por Iván Figueroa 19


7.5. Proceso ortonormalización de Gram-Schmidt
Sean V un espacio vectorial sobre R, con producto interior h , i y C = {v1 , v2 , . . . , vn } un conjunto de vectores
cualesquiera de V .

Para construir un conjunto ortonormal de vectores a partir de los vectores de C, se debe seguir el siguiente
procedimiento

w1 = v1
hv2 , w1 i
w2 = v2 − 2 · w1
kw1 k
hv3 , w1 i hv3 , w2 i
w3 = v3 − 2 · w1 − 2 · w2
kw1 k kw2 k
..
.
hvn , w1 i hvn , w2 i hvn , wn−1 i
w n = vn − 2 · w1 − 2 · w2 − . . . − 2 · wn−1
kw1 k kw2 k kwn−1 k

7.6. Complemento Ortogonal


Sea V un espacio vectorial sobre R con producto interior h , i y S ⊆ V . El complemento ortogonal de S se
denota como S ⊥ y se define
S ⊥ = {v ∈ V / hv, wi = 0 , ∀w ∈ S}
Además, cumple las siguientes propiedades
S ⊥ ∩ S = {0v }
⊥
S⊥ = S

det S ⊥ + dim(S) = dim(V )




V = W ⊕ W⊥

7.7. Proyección Ortogonal


Sean V un espacio vectorial real con producto interior h , i, W subespacio vectorial de V , B = {w1 , w2 , . . . , wn }
una base ortogonal de W y v ∈ V . La proyección ortogonal de v sobre W es
n
X hv, wi i
proyW (v) = 2 · wi
i=1 kwi k

Material elaborado por Iván Figueroa 20

También podría gustarte