Documentos de Académico
Documentos de Profesional
Documentos de Cultura
alumnosLIBRO MAT1203
alumnosLIBRO MAT1203
Carolina B. Becerra O.
Marzo 2021
Índice general
1. Vectores en Rn 5
2. Sistema de ecuaciones 17
3. Matrices 27
4. Determinantes 45
5. Espacios vectoriales 49
6. Transformaciones lineales 59
8. Ortogonalidad 77
9. Matrices Simétricas 85
3
Capı́tulo 1
Vectores en Rn
5
0
0
0
0 4
1
e3 = ∈ R y e3 =
∈ R6 .
1
0
0 0
0
Y también el vector cero:
0
0
~0 = 0 ∈ R4 y ~0 = 0 ∈ R3 .
0
0
0
−3 0
2
1 2
2u − v =
1 .
2
−6
1. u + v ∈ Rn .
2. (u + v) + w = u + (v + w).
3. u + v = v + u.
→
−
4. u + 0 = u.
→
−
5. u + (−u) = 0 .
6. αu ∈ Rn .
7. α(u + v) = αu + αv.
8. (α + β)u = αu + βu.
9. α(βu) = (αβ)u.
10. 1 u = u.
Observación 1.7. En la proposición anterior hay que notar que la igualdad
(α + β)u = αu + βu contiene el sı́mbolo + para la suma de números reales y
para la suma de vectores.
Observación 1.8. Sea α ∈ R y u ∈ Rn . αu = ~0 si y sólo si α = 0 o u = ~0.
Demostración: Si α = 0 o u = ~0, entonces por definición de las opera-
ciones se tiene αu = ~0.
1 1
Si αu = ~0, supongamos que α 6= 0, entonces αu = ~0 = ~0.
α α
2 −1
3
y u = 4 , entonces
Ejemplo 1.10. Por ejemplo si u = 4 0
−1 7
u · v = 3.
Proposición 1.11. Sea u, v, w ∈ Rn y α ∈ R. Entonces el producto punto
satisface:
1. u · v ∈ R.
2. u · ~0 = 0.
3. u · v = v · u.
4. u · (v + w) = u · v + u · w.
5. α(u · v) = (αu) · v.
6. u · u ≥ 0 y u · u = 0 ↔ u = ~0.
Demostraci
ón:
x1
Sea u = ... , entonces
xn
(
1 si i=j
Ejemplo 1.12. ei · ej = para todo i, j = 1, . . . , n.
0 si i 6= j.
x1
.. ∈ Rn ,
Definición 1.13. Norma de un vector: Dado u = .
xn
s n
X √
kuk = xi 2 = u · u.
i=1
ku + vk ≤ kuk + kvk.
ku + vk2 = kuk2 + kvk2 + 2u · v ≤ kuk2 + kvk2 + 2|u · v|.
Pero |u · v| ≤ kukkvk, entonces:
ku + vk2 ≤ kuk2 + kvk2 + 2kukkvk = (kuk + kvk)2 .
α1 v1 + . . . + αm vm ,
4 14 1 4
Definición 1.23. Sea S ⊆ Rn . El conjunto generado por S, denotado por
Gen S es el conjunto de todas las combinaciones lineales de vectores de S.
−1 1
7 2
Ejemplo 1.24. El vector 9 es una combinación lineal de 0 y
14 1
−1 −1 1 −1
1 7 2 1
3 porque 9 = 2 0 + 3 3 .
4 14 1 4
~0 ∈ Gen S.
S ⊂ Gen S.
Demostración:
~0 ∈ Gen S.
~0 = 0v1 + · · · + 0vm .
Teorema 1.28. Sea S = {v1 , v2 , . . . , vm } ⊆ Rn .
Si v1 es combinación lineal de v2 , . . . , vm , entonces
Gen{v1 , v2 , . . . , vm } = Gen{v2 , . . . , vm }
Demostración: Si w = α2 v2 + · · · αm vm ∈ Gen{v2 , . . . , vm },
entonces w = 0v1 + α2 v2 + · · · αm vm ∈ Gen{v1 , v2 , . . . , vm }.
Si u = β1 v1 + β2 v2 + · · · βm vm ∈ Gen{v1 , v2 , . . . , vm } y
v1 = λ2 v2 + · · · + λm vm , entonces
u = β1 v1 + β2 v2 + · · · βm vm
= β1 (λ2 v2 + · · · + λm vm ) + β2 v2 + · · · βm vm
= (β1 λ2 + β2 )v2 + · · · + (β1 λm + βm )vm .
−1 1
−1 1 1
1 2 = Gen 1 , 2
5
Ejemplo 1.29. Gen , ,
3 0
3 0 3
4 0 4 0 4
Demostración:
Demostración:
Sistema de ecuaciones
Ejemplo 2.6.
0 0 0
Ejemplo 2.7. es una matriz nula de 2 × 3.
0 0 0
1 0
es la matriz identidad de 2 × 2.
0 1
1 0 0
0 1 0 es la matriz identidad de 3 × 3.
0 0 1
17
x1
Definición 2.8. Dada A = [v1 v2 . . . vm ] de n × m y x = ... ∈ Rm ,
xm
el producto de A por x es Ax = x1 v1 + x2 v2 + . . . + xm vm ∈ Rn .
Ejemplo 2.9.
7
1 2 3
8
4 5 6
9
1 2 3
7 +8 +9
4 5 6
7 16 27
+ +
28 40 54
50
122
x1
Proposición 2.10. Sea A = [v1 v2 . . . vm ] de n × m, x = ... , y =
xm
y1
..
. ∈ Rm y α ∈ R. Entonces
ym
A(x + y) = Ax + Ay.
A(αx) = αAx.
A~0 = ~0.
Demostración: Sea A = [v1 v2 . . . vm ] x =, y =, entonces
x1 + y 1
A(x + y) = [v1 v2 . . . vm ]
..
.
xm + y m
= (x1 + y1 )v1 + (x2 + y2 )v2 + . . . + (xm + ym )vm
= (x1 v1 + x2 v2 + . . . + xm vm ) + (x1 v1 + x2 v2 + . . . + xm vm )
= Ax + Ay
αx1
A(αx) = [v1 v2 . . . vm ] ...
αxm
= α(x1 v1 + x2 v2 + . . . + xm vm )
= α(Ax)
0
A(~0) = [v1 v2 . . . vm ] ...
0
= 0v1 + 0v2 + . . . + 0vm
= ~0
Definición 2.13. Una matriz se dice que está en la forma escalonada (F.E.)
si:
1. a1,1 6= 0.
Definición 2.14. Una matriz se dice que está en la forma escalonada redu-
cida (F.E.R.) si:
1. Está es la F.E.
1 0 2 1 2 3 1 2 3
, ,
0 1 3 0 0 0 0 0 4
1 0 0 1 2 0
,
0 1 0 0 0 0
1 0 2 4 1 2 3 4
,
0 1 3 5 0 0 0 5
1 0 2 0
0 1 3 0
1 0 2 1 2 3 1 2 3
0 1 3 , 0 0 0 , 0 0 4
0 0 0 0 0 0 0 0 0
1 0 0 1 2 0
0 1 0 , 0 0 0
0 0 0 0 0 0
↔ Ax = Au
↔ Ax − Au = ~0
↔ A(x − u) = ~0
↔ x − u ∈ C2
3 3
Demostración:
Al resolver el sistema [v1 . . . vm ]x = ~0, la forma escalonada reducida tiene
variables libres.
Solución:
1 2 0 1 1 2 0 1
1 3 1 0 0 1 1 −1
∼
−1 1 a 2 0 3 a 3
1 1 0 a 0 −1 0 a − 1
1 0 −2 3 1 0 0 2a − 1
0 1 1 −1 0 1 0 1−a
∼ ∼
0 0 a−3 6 0 0 1 a−2
0 0 1 a−2 0 0 a−3 6
Si a 6= 3, entonces
1 0 0 2a − 1
0 1 0 1−a
∼
0 0 1 a−2
0 0 0 a(5 − a)
Si a = 5 la solución es única: x1 = 9, x2 = −4 y x3 = 3.
5. Demuestre que si un sistema de ecuaciones tiene dos soluciones distin-
tas, entonces tiene una cantidad infinita de soluciones.
Solución:
Matrices
27
Definición 3.8. Sean A = [v1 . . . vm ] , B = [u1 . . . um ] ∈ Mn,m (R) y α ∈ R.
La operaciones suma y multiplicación por escalar de matrices se definen por
A + B = [v1 + u1 . . . vm + um ] , αA = [αv1 . . . αvm ].
A + B ∈ Mn,m (R).
(A + B) + C = A + (B + C).
A + B = B + A.
A + 0 = A.
A + (−A) = 0.
αA ∈ Mn,m (R).
α(A + B) = αA + αB.
(α + β)A = αA + βA.
α(βA) = (αβ)A.
1 A = A.
1 2 0 3
a b c 0 1 1 4
d e f
2 1 1 5
1 2 0 3
a b c 0 a b c 1 a b c 1 a b c 4
d e f d e f d e f d e f
2 1 1 5
a + 2c 2a + b + c b+c 3a + 4b + 5c
d + 2f d+e+f e+f 3d + 4e + 5f
a + 2c 2a + b + c b + c 3a + 4b + 5c
d + 2f d + e + f e + f 3d + 4e + 5f
Entonces numéricamente, es importante ver que el producto de matrices
es el cálculo de productos puntos entre las filas de la matriz de la izquierda
y las columnas de la matriz de la derecha.
1 2 0 3
2 1 −1 0 4 0 5
0 1 1 4 =
3 2 4 11 12 6 37
2 1 1 5
A(BC) = (AB)C.
A(B + C) = AB + AC.
(A + B)C = AC + BC.
IA = AI = A.
0A = A0 = 0.
Demostración:
A(BC) = (AB)C.
A(B + C) = AB + AC.
(A + B)C = AC + BC.
IA = AI = A:
AI = [v1 v2 . . . vm ][e1 e2 . . . em ]
= [v1 v2 . . . vm ]
= A
0A = A0 = 0.
Observación
3.14.
En general
el producto
de matrices
no es conmutativo.
0 1 1 0 0 0 0 1
A= ,B= y AB = 6= = BA.
0 0 0 0 0 0 0 0
α(AT ) = (αA)T .
(A + B)T = AT + B T .
(AB)T = B T AT .
Demostración:
(AT )T = A.
α(AT ) = (αA)T .
(A + B)T = AT + B T .
(AB)T = B T AT .
f1T
Sea A = ... descrita por filas, es decir los vectores fiT son vectores
fnT
fila. Sea B = v1 · · · vn descrita por columnas.
A es simétrica si A = AT .
A es antisimétrica si A = −AT .
0 1
Ejemplo 3.19. A= es triangular superior.
0 3
2 0 1
A = 0 4 3 es triangular superior.
0 0 7
2 0 0
A = 3 4 0 es triangular inferior.
0 0 0
2 0 0
A = 0 4 0 es diagonal.
0 0 5
2 0 5
A= 0 4 8 es simétrica.
5 8 −2
0 −2 5
A= 2 0 8 es antisimétrica.
−5 −8 0
Definición 3.20. Sea A de n × m.
→
−
Nul(A) = {x ∈ Rm : Ax = 0 }. Es el conjunto de pre-imágenes del
vector cero. Es el conjunto solución del sistema homogéneo asociado a
la matriz A. Es un subconjunto de Rm .
Im(A) = {b ∈ Rn : ∃x ∈ Rm : Ax = b}. Es el recorrido de la función
dada por la matriz A. Es el conjunto de todos los vectores b tal que el
sistema Ax = b es consitente. Es el conjunto generado por las columnas
de la matriz A. Es un subconjunto de Rn .
C(A) es el conjunto generado por las columnas de la matriz A. Es el
recorrido de la función dada por la matriz A. Es el conjunto de todos los
vectores b tal que el sistema Ax = b es consistente. Es un subconjunto
de Rn . (Está generado por las columnas de la matriz que en su forma
escalonada están en las posiciones pivotes).
F (A) es el conjunto generado por las filas de la matriz A. Es un sub-
conjunto de Rm . (Está generado por las filas no nulas de la forma
escalonada de la matriz).
1 2 0 3
Ejemplo 3.21. Sea A = 2 5 1 4 .
3 8 2 5
1 0 −2 7
Su forma escalonada reducida es 0 1 1 −2 .
0 0 0 0
Entonces:
−7 2
2 −1
Nul(A) = Gen 0 , 1 .
1 0
1 2
Im(A) = C(A) = Gen 2 , 5 .
3 8
1 0
0 1
F (A) = Gen −2 , 1 .
7 −2
1 2 0 3
Ejemplo 3.24. Sea A = 2 5 1 4 .
3 8 2 5
1 0 −2 7
Su forma escalonada reducida es 0 1 1 −2 .
0 0 0 0
Entonces:
A define una función
A : R4→ R3
−7 2
2 −1
Nul(A) = Gen 0 , 1 .
1 0
1 2
Im(A) = C(A) = Gen 2 , 5 .
3 8
No es inyectiva y no es sobre.
A es 1-1
→
−
↔ Nul(A) = { 0 }.
→
−
↔ Ax = 0 tiene solución única.
↔ Columnas de A son L.I.
↔ Rango de A es m.
A es sobre
↔ Im(A) = Rn .
↔ Ax = b es consistente para todo b ∈ Rn .
↔ Ax = ei es consistente para todo vector canónico.
↔ La FER de [A e1 . . . en ] no tiene filas de la forma [0 . . . 0 u] con u un vector no nulo.
↔ Filas de A son L.I.
↔ Rango de A es n.
Definición 3.26. A de n × n se dice invertible si existe una matriz B de
n × n tal que AB = I.
Teorema 3.27. Sea A una matriz de n × n. Entonces
A es invertible.
↔ Existe B tal que AB = I.
↔ Existen u1 , . . . , un tal que A[u1 . . . un ] = [e1 . . . en ].
↔ Ax = ei es consistente para todo vector canónico.
↔ A es sobre.
↔ Filas de A son L.I.
↔ Rango de A es n.
↔ Existe B tal que BA = I.
↔ Ax = ~0 tiene solución única.
↔ A es inyectiva.
↔ Columnas de A son L.I.
↔ Rango de A es n.
Definición 3.37. EI (EII , EIII ) es una matriz elemental del tipo I (II, III),
si es la matriz que resulta de hacer una operación elemental del tipo I (II,
III) a la matriz identidad. Se dice que la matriz E representa dicha operación
elemental.
Ejemplo 3.38.
Observación 3.39.
I EI Fi ↔ Fj EI Fi ↔ Fj EI Fi ↔ Fj
Ejemplo 3.40.
Ejemplo 3.42.
Ejemplo 3.44.
Ejemplo 3.46.
A = LU
Demostración:
Ejemplo 3.49.
Demostración:
Ejemplo 3.51.
Ejemplo 3.53.
Ejemplo 3.55.
qA (v) = v T Av
Ejemplo 3.57.
Definición 3.58. Una matriz (o su forma cuadrática asociada) se dice:
→
−
definida positiva si ∀v 6= 0 , qA (v) > 0.
→
−
definida negativa si ∀v 6= 0 , qA (v) < 0.
→
−
semidefinida positiva si ∀v 6= 0 , qA (v) ≥ 0.
→
−
semidefinida negativa si ∀v 6= 0 , qA (v) ≤ 0.
Ejemplo 3.59.
Ejemplo 3.63.
definida positiva
Ejemplo 3.65.
Ejemplo 3.67.
A es invertible.
Ejemplo 3.69.
Ejemplo 3.71.
√
Observación 3.72. En el teorema anterior se define a D como la matriz
diagonal, que en su diagonal tiene las raı́ces positivas de los elementos de la
diagonal de D. Entonces
√ √
A = L D DLT = RT R
Ejemplo 3.73.
" #" #
1 0 0 3 3 3
A = 1 1 0 0 2 2 = LU
1 1 1 0 0 6
" #" #" #
1 0 0 3 0 0 1 1 1
= 1 1 0 0 2 0 0 1 1 = LDLT
1 1 1 0 0 6 0 0 1
" #" √ #" √ #" #
1 0 0 3 √0 0 3 √0 0 1 1 1 √ √
= 1 1 0 0 2 √0 0 2 √0 0 1 1 = L D DLT
1 1 1 0 0 6 0 0 6 0 0 1
" √ #" √ √ √ #
√3 √0 0 3 √3 √3
= √3 √2 √0 0 2 √2 = RT R
3 2 6 0 0 6
2. Escriba una matriz que no tenga inversa por la derecha ni por la iz-
quierda.
a b
3. Sea A = . Demuestre que A es no singular si y sólo si ad−bc 6=
c d
0.
4. Sea A una matriz 1-1 de n × m. Demuestre que si {v1 , . . . , vr } es L.I.,
entonces {Av1 , . . . , Avr } es L.I.
Sin calcular A ni AT :
a) Determine el Nul(A).
b) Determine el Nul(AT ).
Determinantes
|I| = 1
Si EI A = B → −|A| = |B|
Ejemplo 4.2.
Observación 4.3. Tomando A = I en la definición: |EI | = −1, |EII | = λ,
|EIII | = 1. Reemplazando en la definición queda que si E es una matriz
elemental, entonces |EA| = |E| · |A|.
a b
Observación 4.4. Si A = , entonces |A| = ad − bc
c d
Ejemplo 4.5.
Proposición 4.6. Sea A una matriz de cuadrada. Entonces
Si A tiene dos filas iguales, entonces |A| = 0.
45
Demostración:
Usando operaciones elementales y la definicin.
Teorema 4.7. Sea A una matriz de cuadrada. Entonces A es invertible si y
sólo si |A| =
6 0.
Demostración:
Usando matrices elementales.
Ejemplo 4.8.
Teorema 4.9. Sean A y B matrices cuadradas. Entonces |AB| = |A| · |B|.
(Usar: A y B son invertibles si y sólo si AB es invertible.)
Demostración:
Ejemplo 4.10.
Proposición 4.11. Sea A una matriz de cuadrada. Entonces
|AT | = |A|
Ejemplo 4.19.
Ejemplo 4.21.
Ejemplo 4.24.
1. Sea A ∈ M4 (R) tal que |A| = 5, encuentre |2A|, |4A|, |2k A|, |A5 |, |−A|,
|A−1 |, ||A|A−1 |, |A−3 |, ||A|A|
(a − 1)n−1 (a + n − 1).
Capı́tulo 5
Espacios vectoriales
Definición 5.1. Cuerpo o campo K, +, · conjunto tal que con las operaciones
suma y multiplicación cumple:
+ es cerrada: ∀α, β ∈ K α + β ∈ K
+ es asociativa: ∀α, β, γ ∈ K (α + β) + γ = α + (β + γ)
+ es conmutativa: ∀α, β ∈ K α + β = β + α
Existe un neutro para la +: ∃0∀α : 0 + α = α + 0 = α
Existe un inverso para la +: ∀α∃β : α + β = β + α = 0
· es cerrada: ∀α, β ∈ K α · β ∈ K
· es asociativa: ∀α, β, γ ∈ K (α · β) · γ = α · (β · γ)
· es conmutativa: ∀α, β ∈ K α · β = β · α
Existe un neutro para la ·: ∃1∀α : 1 · α = α · 1 = α
Existe un inverso para la ·: ∀α 6= 0∃β : α · β = β · α = 1
∀α, β, γ ∈ K α · (β + γ) = α · β + α · γ
Ejemplo 5.2. Q, R, C
Definición 5.3. Un conjunto no vacı́o V es un espacio vectorial sobre el
cuerpo R si existen dos operaciones: suma y multiplicación por escalar tal
que:
49
+ es cerrada: ∀u, v ∈ V u + v ∈ V
+ es asociativa: ∀u, v, w ∈ V (u + v) + w = u + (v + w)
+ es conmutativa: ∀u, v ∈ V u + v = v + u
· es cerrada: ∀u ∈ V, α ∈ R α · u ∈ V
∀u, v ∈ V, α ∈ R α · (u + v) = α · u + α · v
∀u ∈ V, α, β ∈ R (α + β) · u = α · u + β · u
∀u ∈ V, α, β ∈ R (αβ) · u = α · (βu)
∀u ∈ V 1 · u = u
Rn sobre R.
Pn (R) sobre R.
C[a, b] sobre R.
Proposición 5.5. Si V es un espacio vectorial sobre K, entonces
~0V es único.
−u es único.
α · ~0V = ~0V .
0 · u = ~0V .
Ejemplo 5.10.
Ejemplo 5.12.
Ejemplo 5.14.
Ejemplo 5.17.
Demostración:
Ejemplo 5.19.
Ejemplo 5.21.
Ejemplo 5.23.
Ejemplo 5.26.
Ejemplo 5.28.
Ejemplo 5.30.
S es LI → #S 6 n.
Gen{S} = V → #S > n.
Demostración:
Ejemplo 5.32.
Proposición 5.33. Si Dim(V ) = n y S = {v1 , . . . , vn }, entonces
S es LI → Gen{S} = V .
Gen{S} = V → S es L.I.
Ejemplo 5.34.
Ejemplo 5.37.
Ejemplo 5.39.
[u + v] = [u] + [v].
[αu] = α[u].
Demostración:
Ejemplo 5.41.
Definición 5.42. Sean B1 = {v1 , . . . , vn } y B2 = {u1 , . . . , un } bases de V .
Se define la matriz P = [ [v1 ]2 . . . [vn ]2 ].
Proposición 5.43. Sean B1 = {v1 , . . . , vn } y B2 = {u1 , . . . , un } bases de V .
Para todo x ∈ V : P21 · [x]1 = [x]2 .
P21 es invertible.
(P21 )−1 = P12
Demostración:
Ejemplo 5.44.
Ejemplo 5.45. Finales
Solución:
1 2
6. Sean u1 = −1
, u2 = 1
y los subespacios
Solución:
Solución:
a b
A= c d
∈ U1 si a − c − b + d = 0.
0 1 0 0
1 0
Por lo tanto U1 = Gen{ , 0 1 , 1 1 }.
0 −1
1 0 0 1 0 0
La dimensión de U1 es 3 pues { 0 −1 , 0 1 , 1 1 } es
L.I.
1 0 0 1 0 0
0 1 0 0 1 0
∼ .
0 0 1 0 0 1
−1 1 1 0 0 0
a b
A= c d
∈ U2 si 4a + 2b + 2c + d = 0.
0 1 1 0 0 0
Por lo tanto U2 = Gen{ , 0 −2 , 0 −4 1 −2
}.
1 0 0 1 0 0
La dimensión de U2 es 3 pues { 0 −4 , 0 −2
, 1 −2 }
es L.I.
1 0 0 1 0 0
0 1 0 0 1 0
∼ .
0 0 1 0 0 1
−4 −2 −2 0 0 0
Por lo tanto el Nul = Gen{(1, 0, −1, −1, 0, 1)T , (1, −1, 0, −1, 1, 0)T }
1 −11 0
Finalmente U1 ∩ U2 = Gen{ , 0 −2 }
−1 −2
1 0 1 −1
La dimensión de U1 ∩U2 es 2 pues { −1 −2 , 0 −2 } es L.I.
1 1 1 0
0 −1 0 1
∼ .
−1 0 0 0
−2 −2 0 0
Capı́tulo 6
Transformaciones lineales
T (−v) = −T (v).
Demostración:
Im(T ) = {w ∈ W : ∃v ∈ V : T (v) = w} .
59
Ejemplo 6.6.
Proposición 6.7. Sean V y W espacios vectoriales y T : V → W una
transformación lineal.
Nul(T ) es un subespacio de V y su dimensión se dice la nulidad de T .
Im(T es un subespacio de W y su dimensión se dice el rango de T .
Demostración:
Ejemplo 6.8.
Observación 6.9. Si B es una base de V , entonces Gen T (B) = Im(T ).
Ejemplo 6.10.
Definición 6.11. Sean V y W espacios vectoriales y T : V → W una
transformación lineal.
Si T es inyectiva se dice que es un monomorfismo.
Si T es sobre se dice que es un epimorfismo.
Si T es inyectiva y sobre se dice que es un isomorfismo y se denota por
V ∼= W.
Teorema 6.12. Sean V y W espacios vectoriales y T : V → W una trans-
formación lineal.
T es inyectiva si y sólo si Nul(T ) = {0~V }.
T es sobre si y sólo si Im(T ) = W .
Demostración:
Ejemplo 6.13.
Proposición 6.14. Sean V y W espacios vectoriales y T : V → W una
transformación lineal. Si T es inyectiva y S ⊂ V es L.I., entonces T (S) es
L.I.
Demostración:
Ejemplo 6.16.
Ejemplo 6.17. Finales
Solución:
Im(T ) = Gen{x, x + x2 , 2 + 2x + x2 }.
(Otra manera es decir que como el Nul tiene dimensión 1 y P3 (R) tiene
dimensión 4, entonces por teorema, Im(T ) tiene dimensión 3, y como
es subespacio de P2 (R) de dimensión 3, entonces P2 (R) = Im(T ) y por
lo tanto una base es {1, x, x2 }).
Capı́tulo 7
63
¿De qué sirve que la matriz A tenga esa particularidad?
3 1 2
Usamos que = 13 −5 .
5 0 −1
Si multiplicamos por Ak queda:
k 3 k 1 k 2
A = 13A − 5A .
5 0 −1
Reemplazando la particularidad se tiene que:
k 3 1 k 2
A = 13 − 5(1/2) .
5 0 −1
Luego la posición en el tiempo k- ésimo está dada por:
1 k 2
uk = 13 − 5(1/2) .
0 −1
Podemos entonces
preguntar
qué pasa
si k tiende a infinito, es decir:
13 0 13
lı́m uk = + = .
k→∞ 0 0 0
Ejemplo 7.3.
Observación 7.4. Dada una matriz cuadrada, ¿cómo obtener los valores y
vectores propios (si es que existen). En la definición se necesita que:
Av = λv
Av − λv = ~0
Av − λI v = ~0
(A − λI) v = ~0
v ∈ Nul(A − λI)
(A − λI) es no invertible
Det(A − λI) = 0
1 0 α
{1} 2
0 1 β
0 0 α
{0} 2
0 0 β
1 0 1 −α γ
0 0 0 {0, 2} β , 0 3
1 0 1 α γ
2 1 0 α 0
0 2 0 {2, 3} 0 , 0 2
0 0 3 0 γ
1 ≤ m.g. ≤ m.a. ≤ n
Los valores propios de una matriz son los mismos que los de su trans-
puesta. Esto es porque Det(A − λI) = Det(AT − λI). Esto NO significa
que los vectores propios son los mismos. Por ejemplo:
1 1 1 1
A= {1, 2} E1 = Gen , E2 = Gen
0 2 0 1
T 1 0 1 0
A {1, 2} E1 = Gen , E2 = Gen
1 2 −1 1
Si u es vector propio asociado al valor propio λ1 y v es vector propio
asociado al valor propio λ2 , entonces {u, v} es L.I.
Existen
matrices
que NO tiene valores propios reales. Por ejemplo
0 1
A= pues su ecuación caracterı́stica es λ2 + 1 = 0.
−1 0
Det(P −1 AP − λI)
Det(P −1 A P − λP −1 I P )
Det(P −1 (A − λI)P ) .
−1
Det(P ) Det(A − λI) Det(P )
Det(A − λI) Det(P −1 ) Det(P )
Det(A − λI)
Ejemplo 7.16.
Observación 7.17. Dada una matriz A si queremos que exista una matriz
P invertible tal que P −1 AP sea igual a una matriz diagonal D, entonces
AP = P D
Si P tiene columnas vj y D tiene elementos λj en la diagonal entonces:
λ1
A [v1 · · · vn ] = [v1 · · · vn ]
..
.
λn
Multiplicando se tiene:
que {v
Lo que se traduce en 1 , · · · , vn } es una base de vectores
propios.
1 1 1 1
Por ejemplo A = es diagonalizable con P = y D =
0 2 0 1
1 0
.
0 2
Ejemplo 7.20.
Ejemplo 7.24.
k k
Observación
7.25.Si A es tal que Au = λu, entonces A u = λ u. Luego
lı́m Ak u = lı́m λk u.
k→∞ k→∞
0 si |λ| < 1,
v si λ = 1,
Ejemplo 7.27.
Ejemplo 7.29.
Demostración:
Ejemplo 7.31.
Teorema 7.32. Sea A matriz cuadrada y q(x) = Det(xI −A), entonces q(A)
es la matriz nula.
Ejemplo 7.33.
d 0 ... 0
ed1 0 . . . 0
1
d
0 d2 0 −1 0 e2 0 −1
A = L .. L → eA = L .. L
. .
0 0 ... dn 0 0 ... edn
a a−1
2. Demuestre que la matriz es diagonalizable si y sólo si
a+1 a
|a| > 1
3. Sea {xn } una sucesión de números reales tal que 5xn+1 = 6xn − xn−1 .
Calcule el lı́m xn .
n→∞
Solución:
Matricialmente queda
xn+1 6/5 −1/5 xn
xn
= 1 0 xn−1
.
n
6/5 −1/5 x1
= 1 0 x0
.
E1 = Gen{(1, 1)T }.
E1/5 = Gen(1, 5)T }.
5x1 − x0
Entonces lı́m xn = .
n→∞ 4
" # " #
1 2
4. Sea A una matriz de 3×3 tal que A 2 = 4 y la forma escalonada
3 6
" #
1 0 −1
reducida de A es 0 0 0 .
0 0 0
Calcule eA .
Solución:
Ortogonalidad
Observación 8.5. Todo conjunto ortogonal es L.I., y por lo tanto una base
de su conjunto generado.
Definición 8.6. Dado U ≤ Rn , el ortogonal a U es U ⊥ = {w ∈ Rn : u · w =
0}.
Ejemplo 8.7.
77
Proposición 8.8. Sea S = {u1 , . . . , um } un conjunto de vectores en Rn y A
de n × m la matriz A = [u1 . . . um ]. Entonces
S es ortonormal si y sólo si AT A = I.
Demostración:
Ejemplo 8.9.
U ⊥ es un subespacio de Rn .
{~0}⊥ = Rn .
Rn ⊥ = {~0}.
⊥
U⊥ = U
U ∩ U ⊥ = {~0}.
Ejemplo 8.11.
Definición 8.12. Sea U subespacio de Rn y v ∈ Rn tal que u ∈ U y w ∈ U ⊥
donde v = u + w.
La proyección ortogonal sobre U es P : Rn → Rn , tal que P (v) = u.
P + Q = I (como t.l.).
Nul(P ) = U ⊥ , Im(P ) = U .
Nul(Q) = U , Im(Q) = U ⊥ .
P 2 = P y Q2 = Q (como t.l.).
P y Q son simétricas.
P 2 = P y Q2 = Q (como matrices).
P + Q = I (como matrices).
Ejemplo 8.14.
Observación 8.15. Descomposición QR.
Sea A = [v1 · · · vm ] una matriz con columnas L.I. El problema es encontrar
una matriz cuyas columnas formen un conjunto ortonormal que genere lo
mismo que las columnas de A, es decir se busca una matriz Q tal que:
AT A = (QR)T QR = RT QT QR = RT IR = RT R.
Dado que A es inyectiva, luego AT A es definida positiva y basta tomar su
descomposición con raı́z cuadrada R. Obteniendo R se calcula Q = AR−1 .
Proposición 8.16. Gram Schmidt: Dado S = {v1 , . . . , vm } L.I., una base
ortogonal de < S > es {u1 , . . . , um }, donde:
u1 = v1
v2 · u1
u2 = v2 − u1
u1 · u1
v3 · u1 v3 · u2
u3 = v3 − u1 − u2
u1 · u1 u2 · u2
. . ..
1 1 −1
0 0 0
Ejemplo 8.17. Sea U = Gen 1 , 2 , 3 . Determine una
1 0 1
base ortonormal de U .
Solución:
1 1 −1
0 0 0
Sea A = . Entonces
1 2 3
1 0 1
" #
3 3 3
AT A = 3 5 5
3 5 11
" √ #" √ √ √ #
√3 √0 0 3 √3 √3
= √3 √2 √0 0 2 √2 = RT R
3 2 6 0 0 6
" √ √ #
1/ 3 −1/√2 √0
Luego R−1 = 0 1/ 2 −1/√6 .
0 0 1/ 6
√ √
1 3 0 −2 6
Entonces Q =
√0 √0 √0 .
1 √3 1√2 1√6
1 3 −1 2 1 6
√ √
1 3 0 −2 6
Entonces U =<
√0 ,
√0 ,
√0 >
1√3 1√2 1 √6
1 3 −1 2 1 6
Solución:
Usando P + Q = I.
6 2 −2 4
1 2 9 1 −2
Matriz de proyección sobre U : P = .
10
−2 1 9 2
4 −2 2 6
1
Pv = (4, −2, 22, 16)T .
10
1
Qv = (16, −8, 8, −16)T .
10
Manera 1:
Sea A tal que sus columnas forman una base de U . Entonces P =
A(AT A)−1 AT .
Entonces P Q = 0.
Manera 2:
Entonces si x ∈ Rn , x = α1 u1 + . . . + αn um + β1 w1 + . . . + βr wr .
P Qx = P Q(α1 u1 + . . . + αn um + β1 w1 + . . . + βr wr ) = P (~0 + β1 w1 +
. . . + βr wr ) = ~0.
6/7 −2/7 1/7 1/7
−2/7 3/7 2/7 2/7
7. Sea P = matriz de proyección sobre
1/7 2/7 6/7 −1/7
1/7 2/7 −1/7 6/7
4
U ≤ R . Determine una base de U y de U ⊥.
Solución:
1 0 0 1
0 1 0 2
P ∼ .
0 0 1 −1
0 0 0 0
Im(P ) = C(P ) = U .
O bien U = Gen{(6/7, −2/7, 1/7, 1/7)T , (−2/7, 3/7, 2/7, 2/7)T , (1/7, 2/7, 6/7, −1/7)T }.
Nul(P ) = U ⊥ .
Matrices Simétricas
Ejemplo 9.2.
U es ortogonal.
U x · U y = x · y, para todo x, y ∈ Rn .
Demostración:
Ejemplo 9.4.
Demostración:
85
Ejemplo 9.6.
Ejemplo 9.8.
Ejemplo 9.10.
Demostración:
Ejemplo 9.12.
Ejemplo 9.14.
1. Nul(AT A) = Nul(A).
2. Im(AT A) = Im(AT ).
Demostración:
Ejemplo 9.16.
Teorema 9.17. Sea A de n × m. Entonces existen V de m × m y U de n × n
matrices ortogonales tal que
s 0
1
..
U T AV =
.
0 sr
0 n×m
V = [V1 V2 ].
Los vectores columna de V1 forman una base de Im(AT A) = Im(AT ).
Los vectores columna de V2 forman una base de Nul(AT A) = Nul(A).
d1
T
(AV1 ) (AV1 ) = D = ..
.
dr n×m
Solución:
Valores propios: 3, 6.
E6 = Gen{(1, 1, 1)T }.
Bases ortonormales:
√ √ √ √ √
E3 = Gen{(1/ 2, 0, −1/ 2)T , (1/ 6, −2/ 6, 1/ 6)T }.
√ √ √
E6 = Gen{(1/ 3, 1/ 3, 1/ 3)T }.
Solución:
" #
2 0 −2
AT A = 0 2 0 con valores propios {4, 2, 0}.
−2 0 2
√ −1
4 0 1/2 √0
D= 0 2
y D = 0 1/ 2
.
√
Entonces los valores singulares de A son: {2, 2}.
√ √
1/ 2 √0 1/ 2 √0
√ −1
U1 = AV1 D = √0 1/ 2
y U2 =
√0 1/ 2
.
1/ 2 √0 −1/ 2 √0
0 1/ 2 0 −1/ 2
√ √
1/ 2 √0 1/ 2 √0 2 √0 0
U =
√0 1/ 2 √0 1/ 2
y entonces U T AV =
0 2 0
.
1/ 2 √0 −1/ 2 √0 0 0 0
0 1/ 2 0 −1/ 2 0 0 0