Está en la página 1de 7

ÁLGEBRA - TEORÍA

Tema 1: SISTEMAS DE ECUACIONES LINEALES

Teorema 1.1. Un sistema lineal puede:


. No tener solución: incompatible
. Tener solución única: compatible determinado
. Tener ∞ soluciones: compatible indeterminado

Propiedades, dadas las matrices A, B, C:


Si A ≈ B, entonces B ≈ A
Si A ≈ B y B ≈ C, entonces A ≈ C

Una matriz es una matriz escalonada reducida si:


1. Las posibles filas de ceros son las inferiores
2. El primer elemento no nulo de una fila esta más a la izquierda que cualquier elemento no nulo de
las filas anteriores.
En una matriz escalonada, los primeros elementos no nulos de cada fila se denominan pivotes

Teorema 1.2 Cualquier matriz no nula A es equivalente por fila a una infinidad de matrices escalonadas

Teorema 1.3 Cualquier matriz es equivalente por filas a una única matriz escalonada reducida.
Tema 2: ÁLGEBRA DE MATRICES Y DETERMINANTES

. Llamamos matriz nula o matriz cero a una matriz cero a una matriz, denotada 0, cuyos elementos son
todos cero.
. Decimos que una matriz es cuadrada cuando tiene el mismo número de filas que de columnas. En caso
contrario, la matriz es rectangular.
. Una matriz se denomina triangular si los elementos no diagonales son nulos.
. Una matriz es triangular superior si los elementos por debajo de la diagonal son nulos.
. Una matriz es triangulas inferior si los elementos por encima de la diagonal son nulos.

Propiedades: sea A una matriz dimensiones (mxn) y B y C matrices de dimensiones adecuadas:


A(BC) = (AB)C asociativa
A(B+C) = AB+AC distributive
(B+C)A = BA + CA distributive
µ (AB) = (µ A) B = A (µ B) ∀µ∈R
Iₘ A = A = A I ₙ donde Ik es la matriz identidad (k × k)

Si dos matrices cuadradas verifican que AB = BA, decimos que A y B conmutan.


La transpuesta de una matriz A (m ×n) es la matriz A ᵀ de dimensiones (n × m) cuyas columnas son las filas
de A.

Propiedades: Sean A y B matrices de dimensiones adecuadas:


(A ᵀ) ᵀ = A
(A + B)ᵀ= Aᵀ + Bᵀ
(µ A)ᵀ= µ (Aᵀ )
(AB)ᵀ = Bᵀ Aᵀ

. Una matriz no invertible o singular es aquella para la que no existe inversa

Teorema 2.1. Si A (n × n) es invertible, la ecuación Ax = b tiene solución única ∀ b ∈ Rⁿ, que puede escribirse
x=A ⁻¹ b.

Teorema 2.2. Sean A y A⁻¹ matrices (n×n). Se verifica que: AA⁻¹ = I ⇔ A ⁻¹A = I

Teorema 2.3. Si A es una matriz invertible, entonces A⁻¹ es, a su vez, invertible y (A⁻¹ ) ⁻¹ = A.

Teorema 2.4. Si una matriz tiene inversa, esta es única.

Teorema 2.5. Si A es una matriz invertible, AT es también invertible y (Aᵀ ) ⁻¹ = (A⁻¹ ) ᵀ.

Teorema 2.6. Si A y B son matrices invertibles (n × n), entonces AB es, a su vez, invertible y (AB) ⁻¹ = B⁻¹A⁻¹

. Llamamos matriz elemental a aquella matriz que se obtiene de llevar a cabo una de las operaciones
elementales por filas en una matriz identidad.

Teorema 2.7. Si llevamos a cabo una operación elemental en una matriz A (m × n), la matriz resultante
puede escribirse como EA, donde E es la matriz elemental (m × m) correspondiente.
Teorema 2.8. Toda matriz elemental E es invertible y su inversa E⁻¹ es la matriz elemental correspondiente a
la operación elemental que transforma la matriz E en la identidad.

Teorema 2.9. Una matriz A (n × n) es invertible si y sólo si A es equivalente por filas a Iₙ. En este caso,
cualquier secuencia de operaciones elementales que transforme A en Iₙ también transformara In en A⁻¹ .

Teorema 2.10. Sea T : Rⁿ → Rⁿ una transformación lineal y sea A su matriz canónica asociada. T es
invertible si y sólo si A es una matriz no singular. En este caso, S(x) = A⁻¹x

Teorema 2.11. (Teorema de las Matrices Cuadradas) Si A ∈ R ⁿ ˣ ⁿ, las siguientes proposiciones son
equivalentes:
1. A es una matriz invertible.
2. A es equivalente por filas a Iₙ
3. A tiene n pivotes.
4. La ecuación Ax = 0 tiene solo la solución trivial.
5. Las columnas de A son linealmente independientes.
6. La ecuación Ax = b tiene soluci´on ´unica ∀ b ∈ R ⁿ
7. Las columnas de A generan R ⁿ
8. Las filas de A generan R ⁿ
9. AT es invertible y (Aᵀ ) ⁻¹ = (A⁻¹)ᵀ.
10. La transformaci´on lineal T(x) = Ax es biyectiva.
11. La transformación lineal T(x) = Ax tiene inversa y es S(x) = A⁻¹x.
12. Las columnas de A forman una base de Rⁿ y dim Col A = n.
13. rango A = n.
14. Nul A = {0} y dim Nul A = 0.

Teorema 2.12. Una matriz diagonal es invertible si y solo si ninguno de los elementos diagonales es cero y
su inversa es:

Teorema 2.13. El determinante de una matriz cuadrada A puede expresarse como una expansión de
cofactores a lo largo de cualquier fila de la matriz.

Teorema 2.14. Si A es una matriz (n × n) triangular, el determinante de A es el producto de sus elementos


diagonales

Teorema 2.15. Sea A una matriz (n×n) sobre la que efectuamos una operación por filas para obtener la
matriz B.
◦ Si B resulta de sumar a una fila de A el múltiplo de otra, det B = det A.
◦ Si B resulta de multiplicar una fila de A por λ, det B = λ det A.
◦ Si B resulta de intercambiar dos filas de A, det B = − det A.
Teorema 2.16. Sea A una matriz cuadrada y sea U una matriz escalonada obtenida de A por medio de
sumar múltiplos de filas y de r intercambios de fila (¡pero sin multiplicar ninguna fila por un escalar!).
Entonces,
det A = 0 si A no es invertible
(−1) ʳ · (producto de los pivotes) si A es invertible

Teorema 3.17. Si A y B son matrices (n × n), det(AB) = det A det B.

Teorema 3.18. Si A es una matriz cuadrada, |Aᵗ | = |A|

Teorema 2.19. Sea A ∈ R ⁿ ˣ ⁿ, una matriz cuadrada invertible. Para cualquier b ∈ R ⁿ, la solución única x de
Ax = b tiene componentes

Teorema 2.20. Sea A ∈ R ⁿ ˣ ⁿ una matriz invertible. Entonces


A⁻¹ = adj A /det A
donde la matriz adj A se define como la matriz transpuesta de los cofactores de A según
Tema 3: EL ESPACIO VECTORIAL

Propiedades:
◦ Conmutativa: u + v = v + u
◦ Asociativa I: (u + v) + w = u + (v + w)
◦ Elemento Neutro I: u + 0 = u ◦
Elemento Inverso: u + (−u) = u − u = 0
◦ Distributiva I: λ(u + v) = λu + λv
◦ Distributiva II: (λ + ν)u = λu + νu
◦ Asociativa II: λ(νu) = (λν)u
◦ Elemento Neutro II: 1u = u

Teorema 3.1. La ecuación vectorial x₁ a₁ + x₂ a₂ + · · · + xₚ aₚ = b es equivalente al sistema lineal cuya matriz


ampliada es [ a₁ a₂ . . . aₚ b ] .

Teorema 3.2.
(a) Dados los vectores v₁, v₂, . . . vₚ de un subespacio vectorial V , el conjunto H = Gen{v₁, v₂, . . . , vₚ} es un
subespacio vectorial.
(b) Además se verifica que H ⊆ V .

Propiedades:
A(u + v) = Au + Av
A(λ u) = λ (Au)

Teorema 3.3. Sean A = [ a₁ a₂. . . aₙ ] una matriz (m×n) y b un vector de Rᵐ. La ecuación matricial Ax = b
tiene las mismas soluciones que la ecuación vectorial x₁ a₁+ x₂ a₂ + · · · + xₙ aₙ = b que, a su vez, tiene la
misma solución que el sistema lineal cuya matriz ampliada es [ a₁ a₂ . . . aₙ b ] .

Teorema 3.4. La ecuación Ax = b tiene solución si y sólo si b es una combinación lineal de las columnas de
A.

Teorema 3.5. Sea la matriz A de dimensión (m × n). Las siguientes proposiciones son equivalentes:
◦ 1.- Ax = b tiene solución ∀ b ∈ R ᵐ
◦ 2.- Las columnas de A generan R ᵐ
◦ 3.- A tiene un pivote en todas las filas.

Teorema 3.6. El espacio de columnas de una matriz (m × n) es un subespacio vectorial de R ᵐ

Teorema 3.7. El espacio de filas de una matriz (m × n) es un subespacio vectorial de R ⁿ

Teorema 3.8. Si dos matrices A y B son equivalentes por filas, entonces (⇒) Fil A = Fil B

Teorema 3.9. El espacio nulo de una matriz (m × n) es un subespacio vectorial de R ⁿ

Teorema 3.10. Los sistemas homogéneos son compatibles.


Teorema 3.11. Un sistema homogéneo Ax = 0 presenta soluciones no triviales si y sólo si tiene alguna
variable libre.

Teorema 3.12. Sea p una solución particular de la ecuación Ax = b. El conjunto de soluciones de Ax = b


puede escribirse como x = p + xₕ,
donde xₕ representa cualquier solución de la ecuación homogénea Axₕ = 0.

Teorema 3.13. Sean las siguientes matrices (m × n), equivalentes por filas
A = [ a₁ . . . aₙ] ∼ [ b₁ . . . bₙ ] = B
Si existen α₁, α₂, . . . αₙ tales que
α₁ a₁+ α₂ a₂ + · · · + αₙ aₙ = 0
entonces se verifica que
α₁ b₁ + α₂ b₂+ · · · + αₙ bₙ = 0

Teorema 3.14. Un conjunto de vectores es linealmente independiente si y solo si ninguno de ellos es


combinación lineal de los otros.

Teorema 3.15. Cualquier conjunto de vectores {v₁, ₂, . . . vₙ} ∈ R ᵐ es linealmente dependiente si se verifica
que n > m.

Teorema 3.16. Si S = {v₁, . . . vₚ} es un conjunto generador de V , entonces algún subconjunto de S es una
base de V (excepto si V= (0), que no tiene base)

Teorema 3.17. Si {v ₁, . . . vₚ} es una base de V , entonces:


◦ {v₁, . . . vₚ₋₁} es un conjunto linealmente independiente, pero no genera V .
◦ {v₁, . . . vₚ, b} (b ∈ V ) genera V , pero no es un conjunto linealmente independiente.

Teorema 3.18. Todas las bases de un mismo subespacio vectorial V tienen el mismo número de vectores.
Este número se llama dimensión de V y se denota dim V .

Propiedades:
◦ Una base de R n tiene n vectores. Por tanto, dim R n = n.
◦ La dimensión del subespacio vectorial {0} es cero.
◦ V es una recta que pasa por el origen ⇒ dim V = 1
◦ V es una recta que no pasa por el origen ⇒ V no es un subespacio vectorial!
◦ V es un plano que pasa por el origen ⇒ dim V = 2

Teorema 3.19. Sea V un SEV de Rⁿ con dim V = p (p es diferente de 0). Entonces:


◦ Cualquier conjunto linealmente independiente de p vectores de V forma una base de V .
◦ Cualquier conjunto de p vectores que genere V forma una base de V .

Teorema 3.20. Sea U una forma escalonada de A. Las filas no nulas de U formarían una base tanto de Fil U
como de Fil A.

Teorema 3.21. La dimensión de Col A y de Fil A es el número de pivotes de A

Teorema 3.22. La dimensión del espacio nulo de una matriz A es el número de variables libres de la
ecuación Ax = 0.
Teorema 3.23. El rango de una matriz (m × n) verifica: rango A + dim Nul A = n

Teorema 3.24. Sea B = {b₁, b₂, . . . bₚ} una base de un SEV V de Rⁿ. Por cada x ∈ V existe un único conjunto
de escalares c₁, c₂, . . . , cₚ tales que
x = c₁+ b₁ + c₂ b₂ + · · · + cₚbₚ.
• A estos escalares se los denomina coordenadas de x en la base β y se denotan por el vector de Rᵖ :

Teorema 3.25. Un conjunto de vectores {v₁, · · · vₘ} de un subespacio vectorial V de Rⁿ verifica


x₁v₁ + x₂v₂+ · · · + xₘvₘ = 0,
si y sólo si sus coordenadas verifican
x₁ [ v₁ ] ᵦ + x₂ [ v₂ ] ᵦ + · · · + xₘ [ vₘ ] ᵦ = [ 0 ] ᵦ
en cualquier base ᵦ de V

Teorema 3.26. Sea la transformación lineal T : Rⁿ → R m. Existe una única matriz A, llamada matriz canónica
o estándar, tal que ∀ x ∈ Rⁿ
T(x) = A x.
Es más, A es la matriz (m × n) cuya columna j-ésima es el vector T(eⱼ)
A = [ T(e₁) T(e₂) . . . T(eₙ) ]
donde {e₁, e₂, · · · eₙ} es la base canónica de R.

Teorema 3.27. Si A es la matriz canónica de una aplicación lineal T , entonces la imagen de T es Col A.

Teorema 3.28. Sea T : Rⁿ −→ Rᵐ una transformación lineal y sea A la matriz canónica de la aplicación
A = [ a₁ a₂ . . . aₙ ] (Notar que dicha matriz está formada por n vectores de m componentes).
T es suprayectiva si y sólo si las columnas de A generan Rᵐ. Esto es, si la matriz reducida tiene tantos
pivotes como filas (m).

Teorema 3.29. Una aplicación lineal T : Rⁿ −→ Rᵐ es inyectiva si y sólo si T(x) = 0 tiene solo la solución trivial.

Teorema 3.30 . Sea T : Rⁿ −→ Rᵐ una transformación lineal y sea A = [a₁, a₂, . . . aₙ] su matriz canónica
(Notar que dicha matriz está formada por n vectores de m componentes). T es inyectiva si y sólo si las
columnas de A son linealmente independientes. Esto es, si la matriz reducida tiene tantos pivotes como
columnas (n).

Teorema 3.31. Sea T : Rⁿ −→ Rᵐ una transformación lineal y sea A = [a₁, a₂, . . . a ₙ] su matriz canónica. T es
biyectiva si y sólo si las columnas de A generan Rᵐ y son linealmente independientes. Esto es, si la matriz
reducida tiene tantos pivotes como filas y columnas (sólo es posible si n = m).

También podría gustarte