Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Teorema 1.2 Cualquier matriz no nula A es equivalente por fila a una infinidad de matrices escalonadas
Teorema 1.3 Cualquier matriz es equivalente por filas a una única matriz escalonada reducida.
Tema 2: ÁLGEBRA DE MATRICES Y DETERMINANTES
. Llamamos matriz nula o matriz cero a una matriz cero a una matriz, denotada 0, cuyos elementos son
todos cero.
. Decimos que una matriz es cuadrada cuando tiene el mismo número de filas que de columnas. En caso
contrario, la matriz es rectangular.
. Una matriz se denomina triangular si los elementos no diagonales son nulos.
. Una matriz es triangular superior si los elementos por debajo de la diagonal son nulos.
. Una matriz es triangulas inferior si los elementos por encima de la diagonal son nulos.
Teorema 2.1. Si A (n × n) es invertible, la ecuación Ax = b tiene solución única ∀ b ∈ Rⁿ, que puede escribirse
x=A ⁻¹ b.
Teorema 2.2. Sean A y A⁻¹ matrices (n×n). Se verifica que: AA⁻¹ = I ⇔ A ⁻¹A = I
Teorema 2.3. Si A es una matriz invertible, entonces A⁻¹ es, a su vez, invertible y (A⁻¹ ) ⁻¹ = A.
Teorema 2.6. Si A y B son matrices invertibles (n × n), entonces AB es, a su vez, invertible y (AB) ⁻¹ = B⁻¹A⁻¹
. Llamamos matriz elemental a aquella matriz que se obtiene de llevar a cabo una de las operaciones
elementales por filas en una matriz identidad.
Teorema 2.7. Si llevamos a cabo una operación elemental en una matriz A (m × n), la matriz resultante
puede escribirse como EA, donde E es la matriz elemental (m × m) correspondiente.
Teorema 2.8. Toda matriz elemental E es invertible y su inversa E⁻¹ es la matriz elemental correspondiente a
la operación elemental que transforma la matriz E en la identidad.
Teorema 2.9. Una matriz A (n × n) es invertible si y sólo si A es equivalente por filas a Iₙ. En este caso,
cualquier secuencia de operaciones elementales que transforme A en Iₙ también transformara In en A⁻¹ .
Teorema 2.10. Sea T : Rⁿ → Rⁿ una transformación lineal y sea A su matriz canónica asociada. T es
invertible si y sólo si A es una matriz no singular. En este caso, S(x) = A⁻¹x
Teorema 2.11. (Teorema de las Matrices Cuadradas) Si A ∈ R ⁿ ˣ ⁿ, las siguientes proposiciones son
equivalentes:
1. A es una matriz invertible.
2. A es equivalente por filas a Iₙ
3. A tiene n pivotes.
4. La ecuación Ax = 0 tiene solo la solución trivial.
5. Las columnas de A son linealmente independientes.
6. La ecuación Ax = b tiene soluci´on ´unica ∀ b ∈ R ⁿ
7. Las columnas de A generan R ⁿ
8. Las filas de A generan R ⁿ
9. AT es invertible y (Aᵀ ) ⁻¹ = (A⁻¹)ᵀ.
10. La transformaci´on lineal T(x) = Ax es biyectiva.
11. La transformación lineal T(x) = Ax tiene inversa y es S(x) = A⁻¹x.
12. Las columnas de A forman una base de Rⁿ y dim Col A = n.
13. rango A = n.
14. Nul A = {0} y dim Nul A = 0.
Teorema 2.12. Una matriz diagonal es invertible si y solo si ninguno de los elementos diagonales es cero y
su inversa es:
Teorema 2.13. El determinante de una matriz cuadrada A puede expresarse como una expansión de
cofactores a lo largo de cualquier fila de la matriz.
Teorema 2.15. Sea A una matriz (n×n) sobre la que efectuamos una operación por filas para obtener la
matriz B.
◦ Si B resulta de sumar a una fila de A el múltiplo de otra, det B = det A.
◦ Si B resulta de multiplicar una fila de A por λ, det B = λ det A.
◦ Si B resulta de intercambiar dos filas de A, det B = − det A.
Teorema 2.16. Sea A una matriz cuadrada y sea U una matriz escalonada obtenida de A por medio de
sumar múltiplos de filas y de r intercambios de fila (¡pero sin multiplicar ninguna fila por un escalar!).
Entonces,
det A = 0 si A no es invertible
(−1) ʳ · (producto de los pivotes) si A es invertible
Teorema 2.19. Sea A ∈ R ⁿ ˣ ⁿ, una matriz cuadrada invertible. Para cualquier b ∈ R ⁿ, la solución única x de
Ax = b tiene componentes
Propiedades:
◦ Conmutativa: u + v = v + u
◦ Asociativa I: (u + v) + w = u + (v + w)
◦ Elemento Neutro I: u + 0 = u ◦
Elemento Inverso: u + (−u) = u − u = 0
◦ Distributiva I: λ(u + v) = λu + λv
◦ Distributiva II: (λ + ν)u = λu + νu
◦ Asociativa II: λ(νu) = (λν)u
◦ Elemento Neutro II: 1u = u
Teorema 3.2.
(a) Dados los vectores v₁, v₂, . . . vₚ de un subespacio vectorial V , el conjunto H = Gen{v₁, v₂, . . . , vₚ} es un
subespacio vectorial.
(b) Además se verifica que H ⊆ V .
Propiedades:
A(u + v) = Au + Av
A(λ u) = λ (Au)
Teorema 3.3. Sean A = [ a₁ a₂. . . aₙ ] una matriz (m×n) y b un vector de Rᵐ. La ecuación matricial Ax = b
tiene las mismas soluciones que la ecuación vectorial x₁ a₁+ x₂ a₂ + · · · + xₙ aₙ = b que, a su vez, tiene la
misma solución que el sistema lineal cuya matriz ampliada es [ a₁ a₂ . . . aₙ b ] .
Teorema 3.4. La ecuación Ax = b tiene solución si y sólo si b es una combinación lineal de las columnas de
A.
Teorema 3.5. Sea la matriz A de dimensión (m × n). Las siguientes proposiciones son equivalentes:
◦ 1.- Ax = b tiene solución ∀ b ∈ R ᵐ
◦ 2.- Las columnas de A generan R ᵐ
◦ 3.- A tiene un pivote en todas las filas.
Teorema 3.8. Si dos matrices A y B son equivalentes por filas, entonces (⇒) Fil A = Fil B
Teorema 3.13. Sean las siguientes matrices (m × n), equivalentes por filas
A = [ a₁ . . . aₙ] ∼ [ b₁ . . . bₙ ] = B
Si existen α₁, α₂, . . . αₙ tales que
α₁ a₁+ α₂ a₂ + · · · + αₙ aₙ = 0
entonces se verifica que
α₁ b₁ + α₂ b₂+ · · · + αₙ bₙ = 0
Teorema 3.15. Cualquier conjunto de vectores {v₁, ₂, . . . vₙ} ∈ R ᵐ es linealmente dependiente si se verifica
que n > m.
Teorema 3.16. Si S = {v₁, . . . vₚ} es un conjunto generador de V , entonces algún subconjunto de S es una
base de V (excepto si V= (0), que no tiene base)
Teorema 3.18. Todas las bases de un mismo subespacio vectorial V tienen el mismo número de vectores.
Este número se llama dimensión de V y se denota dim V .
Propiedades:
◦ Una base de R n tiene n vectores. Por tanto, dim R n = n.
◦ La dimensión del subespacio vectorial {0} es cero.
◦ V es una recta que pasa por el origen ⇒ dim V = 1
◦ V es una recta que no pasa por el origen ⇒ V no es un subespacio vectorial!
◦ V es un plano que pasa por el origen ⇒ dim V = 2
Teorema 3.20. Sea U una forma escalonada de A. Las filas no nulas de U formarían una base tanto de Fil U
como de Fil A.
Teorema 3.22. La dimensión del espacio nulo de una matriz A es el número de variables libres de la
ecuación Ax = 0.
Teorema 3.23. El rango de una matriz (m × n) verifica: rango A + dim Nul A = n
Teorema 3.24. Sea B = {b₁, b₂, . . . bₚ} una base de un SEV V de Rⁿ. Por cada x ∈ V existe un único conjunto
de escalares c₁, c₂, . . . , cₚ tales que
x = c₁+ b₁ + c₂ b₂ + · · · + cₚbₚ.
• A estos escalares se los denomina coordenadas de x en la base β y se denotan por el vector de Rᵖ :
Teorema 3.26. Sea la transformación lineal T : Rⁿ → R m. Existe una única matriz A, llamada matriz canónica
o estándar, tal que ∀ x ∈ Rⁿ
T(x) = A x.
Es más, A es la matriz (m × n) cuya columna j-ésima es el vector T(eⱼ)
A = [ T(e₁) T(e₂) . . . T(eₙ) ]
donde {e₁, e₂, · · · eₙ} es la base canónica de R.
Teorema 3.27. Si A es la matriz canónica de una aplicación lineal T , entonces la imagen de T es Col A.
Teorema 3.28. Sea T : Rⁿ −→ Rᵐ una transformación lineal y sea A la matriz canónica de la aplicación
A = [ a₁ a₂ . . . aₙ ] (Notar que dicha matriz está formada por n vectores de m componentes).
T es suprayectiva si y sólo si las columnas de A generan Rᵐ. Esto es, si la matriz reducida tiene tantos
pivotes como filas (m).
Teorema 3.29. Una aplicación lineal T : Rⁿ −→ Rᵐ es inyectiva si y sólo si T(x) = 0 tiene solo la solución trivial.
Teorema 3.30 . Sea T : Rⁿ −→ Rᵐ una transformación lineal y sea A = [a₁, a₂, . . . aₙ] su matriz canónica
(Notar que dicha matriz está formada por n vectores de m componentes). T es inyectiva si y sólo si las
columnas de A son linealmente independientes. Esto es, si la matriz reducida tiene tantos pivotes como
columnas (n).
Teorema 3.31. Sea T : Rⁿ −→ Rᵐ una transformación lineal y sea A = [a₁, a₂, . . . a ₙ] su matriz canónica. T es
biyectiva si y sólo si las columnas de A generan Rᵐ y son linealmente independientes. Esto es, si la matriz
reducida tiene tantos pivotes como filas y columnas (sólo es posible si n = m).