Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. Matrices
Son arreglos de números reales ordenados por filas y columnas, es decir, son de la forma A = (aij ) ; i, j ∈ N,
donde aij corresponde al número real ubicado en la fila i-ésima y columna j-ésima. A aij se le llama entrada de
la matriz A. Esta matriz tiene orden n × m, y se escribe como
a11 a12 · · · a1m
a21 a22 · · · a2m
A= . .. .. ..
.. . . .
an1 an2 ··· anm
Si el número de filas es el mismo que el de columnas, se dice que la matriz es cuadrada y su orden es n (o m).
Si A es una matriz cuadrada de orden n, entonces los términos aii ; i, j ∈ N forman la diagonal de A, y esta se
define como
diag(A) = (a11 , a22 , . . . , ann )
La suma de los términos de la diagonal A se le llama traza de A y se denota como
n
X
tr(A) = aii
i=1
a11 0 · · · 0
0 a22 · · · 0
A= . . . ..
.. .. .. .
0 0 · · · ann
1 si i = j
aij =
0 si i 6= j
Reemplazando valores,
1 0 ··· 0
0 1 · · · 0
A = . . . ..
.. .. .. .
0 0 ··· 1
La matriz identidad de orden n se denota como In .
0 0 ··· 0
a11
a21 a22 0 ··· 0
0
a31 a32 a33 · · ·
A=
.. .. .. .. ..
. . . . .
an1 an2 an3 · · · ann
0 0 ··· 0
0 0 · · · 0
A = . .. . . ..
.. . . .
0 0 ··· 0
La matriz nula de orden n se denota como 0n .
1.3.2. Suma
Sean A, B ∈ Mn×m (R), donde A = (aij ) y B = (bij ). Luego,
−1 0 2 −3 1
AB = ·
1 2 0 1 −1
−1 · 2 + 0 · 0 −1 · −3 + 0 · 1 −1 · 1 + 0 · −1
=
1·2+2·0 1 · −3 + 2 · 1 1 · 1 + 2 · −1
−2 3 −1
=
2 −1 −1
AB = 0n×k
=⇒
A = 0n×m ∨ B = 0m×k ; ∀A ∈ Mn×m (R) ∧ ∀B ∈ Mm×k (R)
Así mismo, si AB = AC, entonces no necesariamente B = C ; ∀A ∈ Mn×m (R) ∧ ∀B, C ∈ Mm×k (R).
III) Propiedades de la traza
1) tr(A + B) = tr(A) + tr(B)
2) tr(AB) = tr(BA)
3) tr(αA) = α · tr(A) ; ∀α ∈ R
4) tr (A ) = tr(A)
t
1.5. Determinante
Dada una matriz A ∈ Mn (R), se le llama menor ij (Mij ) al determinante de la matriz de orden n − 1 que queda
al eliminar la fila i-ésima y columna j-ésima, y cofactor ij (Cij ) al producto Cij = (−1)i+j · Mij , i, j ∈ N.
Si se elige fila k-ésima
n
X
det(A) = akj Ckj
j=1
Si a una matriz A se le aplican operaciones elementales, se forma una matriz B que es equivalente a la matriz
original, es decir, A ∼ B.
Cabe señalar que estas operaciones te pueden aplicar en determinante, donde la operación de sumar filas no
cambia el determinante, en cambio, la operación de intercambio de filas y ponderación si lo hacen.
5. Se pasa a la siguiente columna pivote, y se aplican los pasos 1-4 a la submatriz que resulta de omitir la primera
fila y todas las columnas situadas a la izquierda de dicha columna.
6. Se repite el paso anterior sobre todas las demás columnas pivote.
7. Se toma el primer pivote por la derecha y se crean, mediante operaciones elementales por filas, ceros encima
del mismo. Si el pivote no es igual a 1, dividimos por su valor todos los elementos de la fila correspondiente a
fin de conseguir el número 1 en su posición.
8. Se continua el proceso de derecha a izquierda repitiendo el paso anterior para todos los demás pivotes.
1.10.1. Teorema
Si A ∈ Mn (R) es invertible, entonces su rango es n, es decir, A ∼ In . De esto se desprende lo siguiente para
calcular A−1 .
(A | In ) ∼ . . . ∼ (In | A−1 )
donde la matriz con las componentes (aij ) es la matriz de coeficientes que se denota como A, la que contiene
al conjunto {x1 , x2 , . . . , xm } es la matriz o vector de incógnitas que se denota como X y por último, la matriz
que contiene al conjunto {b1 , b2 , . . . , bn } es la matriz o vector de constantes que se escribe como B.
2.1.1. Teoremas
Si AX = 0 y A ∼ E, entonces el sistema EX = 0 tiene el mismo conjunto solución de AX = 0.
2.2.1. Teoremas
Si r(A | B) > r(A), entonces el sistema es INCOMPATIBLE, es decir, que NO tiene solución.
Si r(A | B) = r(A) = m donde m es el número de incógnitas, entonces el sistema tiene UNA SOLUCIÓN.
Si r(A | B) = r(A) < m donde m es el número de incógnitas, entonces el sistema tiene INFINITAS
SOLUCIONES que dependen de (m − r(A)) parámetros.
4. (u + v) + w = u(v + w) ; ∀u, v, w ∈ V
5. 0V + u = u + 0V = u ; ∀u ∈ V
6. u + (−u) = 0V ; ∀u ∈ V
7. α · u ∈ V ; ∀v ∈ V , ∀α ∈ K
8. α(u + v) = α · v + α · u ; ∀u, v ∈ V , ∀α ∈ K
9. (α + β)v = α · v + β · v ; ∀v ∈ V , ∀α, β ∈ K
10. α(β · v) = (α · β)v ; ∀α, β ∈ K , ∀v ∈ V
11. 1 · u = u ; ∀u ∈ V
12. α · 0V = 0V ; ∀α ∈ K
13. 0 · u = 0V ; ∀u ∈ V
14. Si α · u = 0V , entonces α = 0 o u = 0V .
15. (−1) · u = −u ; ∀u ∈ V
v = α1 v1 + α2 v2 + . . . + αn vn ∈ V
3.6. Bases
Sea V un espacio vectorial sobre K y B = {v1 , v2 , . . . , vn } ⊆ V . El conjunto B es una base de V si y solo si B
genera a V y que B sea linealmente independiente.
V = h{v1 , v2 , . . . , vn , w1 , w2 , . . . , wk }
V = M2 (R)
1 0 0 1 0 0 0 0
C= , , ,
0 0 0 0 1 0 0 1
V = Pn [x]
C = {1, x, x2 , . . . , xn }
3.7. Dimensión
La dimensión de un espacio vectorial V corresponde a la cantidad de vectores que tiene su base y se denota
como dim(V ) = n. A continuación, están algunas dimensiones de los espacios vectoriales mas conocidos.
dim(0v ) = 0
dim (Rn ) = n
dim (Pn [x]) = n + 1
w = α1 v1 + α2 v2 + . . . + αn vn
[w]B = (α1 , α2 , . . . , αn )
IV (v) = v , ∀v ∈ V
2. Sea T0 : V −→ W una transformación lineal llamada transformación nula que se define como
T0 (v) = 0W , ∀v ∈ V
T (v1 ) = w1
T (v2 ) = w2
T (v3 ) = w3
..
.
T (vn ) = wn
4.3. Kernel
Sean V, W espacios vectoriales sobre K y T : V −→ W una transformación lineal. El kernel o núcleo de T se
define como
ker(T ) = {v ∈ V / T (v) = 0W }
La dimensión del kernel T (dim (ker(T ))) se llama nulidad y se denota η(T ).
4.4. Imagen
Sea T : V −→ W una transformación lineal. La imagen de T se define como
Im(T ) = {w ∈ W / ∃ v ∈ V , T (v) = w}
4.6. Inyectividad
Una transformación lineal T : V −→ W es inyectiva si y solo si ker(T ) = {0V }, entonces η(T ) = 0.
4.6.1. Teorema
Sea T : V −→ W una transformación lineal inyectiva. Si {v1 , v2 , . . . , vn } es un conjunto linealmente indepen-
diente, entonces {T (v1 ), T (v2 ), . . . , T (vn )} también es un conjunto linealmente independiente.
4.7. Epiyectividad
Una transformación lineal T : V −→ W es epiyectiva si y solo si Im(T ) = W , entonces ρ(T ) = dim(W ).
4.8. Biyectividad
Cuando una transformación lineal T : V −→ W es inyectiva y sobreyectiva, entonces se dice que es biyectiva.
4.8.1. Corolario
Sea T : V −→ W una transformación lineal inyectiva. Si {v1 , v2 , . . . , vn } es una base de V , entonces
{T (v1 ), T (v2 ), . . . , T (vn )} es una base de W . Además, si dim(V ) < ∞, entonces det (Im(T )) = dim(V ).
4.9. Isomorfismo
Sea T : V −→ W una transformación lineal. Si ρ(T ) = dim(V ) = dim(W ), entonces se dice que V y W son
isomorfos, lo que se denota como V ∼
= W.
Notar que una t.l que se define como T : V −→ W tal que dim(V ) = dim(W ) y η = 0, entonces T es un
isomorfismo. Lo anterior se cumple a través del teorema de la dimensión.
Si V ∼
= W , entonces W ∼
=V.
Si V ∼
=W yW ∼
= U , entonces por transitividad V ∼
= U.
Si V es un espacio vectorial tal que dim(V ) = n, entonces V ∼
= Rn , es decir, existe un isomorfismo T : V −→ Rn
o S : R −→ V .
n
L(V, W ) = {T : V −→ W / T es lineal}
Además, L(V, W ) = dim(V ) · dim(W ), lo que implica que si dim(V ) = n y dim(W ) = m, entonces L(V, W ) ∼
=
Mn×m (R).
Si T, S ∈ L(V, W ), entonces T + S ∈ L(V, W ).
Si T ∈ L(V, W ) y α ∈ K, entonces αT ∈ L(V, W ).
En este caso, el vector nulo de L(V, W ) es la transformación lineal nula T0 (v) = 0W .
3. Elemento Neutro
T ◦ IV = T , siempre que T ∈ L(V, W ).
IW ◦ T = T , siempre que T ∈ L(V, W ).
4. Si T ∈ L(V, W ) y S ∈ L(W, U ) son invertibles, entonces (S ◦ T )−1 = T −1 ◦ S −1 .
[T ]B
C = ([T (u1 )]C , [T (u2 )]C , . . . , [T (un )]C )
donde [T (ui )]C (para i = 1, 2, . . . , n) representan las coordenadas del vector T (ui ) respecto de la base C, de mo-
do que las columnas de [T ]BC son las coordenadas de las imágenes de los vectores de la base B, respecto de la base C.
Si T : U −→ V es una transformación lineal, donde U y V son el mismo espacio vectorial, entonces su matriz
asociada que va desde una base B a otra B, se denota como [T ]B .
ii) [αT ]E
B = α · [T ]B ; α ∈ K
E
ii) [T −1 ]B
E · [T ]B = [T
E −1
· T ]B
B = [IV ]B = In
B
−1
iii) [T ]E = [T −1 ]B
B E
[T ]C
B · [v]B = [T (v)]C , v ∈ U
Obs: Para cada valor propio de una matriz A ∈ Mn (R) se tiene que la multiplicidad geométrica es menor o igual
que la multiplicidad algebraica.
La matriz P es un vector columna cuyas componentes son un conjunto x~1 , x~2 , . . . , x~n de n vectores propios
linealmente independiente que salen a partir de los espacios propios de cada λ asociado y la matriz D tiene en su
diagonal los valores propios de A, es decir, λ1 , λ2 , . . . , λn .
IMPORTANTE: Respetar el orden de los valores propios que se usa en la matriz D para la matriz P .
Un criterio de diagonalización fundamental es que para cada valor propio de una matriz A, debe coincidir
su multiplicidad algebraica y geométrica.
6.1. Teorema
Toda matriz A que sea diagonal o simétrica, es diagonalizable, es decir, cumple que A = P DP −1 , tal que
P ∈ Mn (R) sea invertible y D ∈ Mn (R) una matriz diagonal.
T (u1 ) = λ1 u1
T (u2 ) = λ2 u2
.
= ..
T (un ) = λn un
Sea v, w, z ∈ V y α ∈ R
i) Φ(v + w, z) = Φ(v, z) + Φ(w, z)
ii) Φ(α · v, w) = α · Φ(v, w)
iii) Φ(v, v) > 0
n
X
hu, vi = xi yi
i=1
d(u,v) =
p
hu − v, u − vi
<=> d(u,v) = ku − vk
Para construir un conjunto ortonormal de vectores a partir de los vectores de C, se debe seguir el siguiente
procedimiento
w1 = v1
hv2 , w1 i
w2 = v2 − 2 · w1
kw1 k
hv3 , w1 i hv3 , w2 i
w3 = v3 − 2 · w1 − 2 · w2
kw1 k kw2 k
..
.
hvn , w1 i hvn , w2 i hvn , wn−1 i
w n = vn − 2 · w1 − 2 · w2 − . . . − 2 · wn−1
kw1 k kw2 k kwn−1 k
V = W ⊕ W⊥