Está en la página 1de 89

Apuntes de Álgebra Lineal

Carolina B. Becerra O.
Marzo 2021
Índice general

1. Vectores en Rn 5

2. Sistema de ecuaciones 17

3. Matrices 27

4. Determinantes 45

5. Espacios vectoriales 49

6. Transformaciones lineales 59

7. Valores y vectores propios 63

8. Ortogonalidad 77

9. Matrices Simétricas 85

3
Capı́tulo 1

Vectores en Rn

En este capı́tulo estudiaremos el conjunto Rn y algunas caracterı́sticas de


algunos subconjuntos de él.
Definición 1.1. El conjunto de n tuplas ordenadas de números reales se
denota por Rn y a sus elementos se les llama vectores.
   

 x1 

n  .. 
R = v =  .  tal que x1 , . . . , xn ∈ R
 
 xn 

A x1 , . . . , xn se les llama componentes o coordenadas del vector v. Al vector


cuyas componentes son todas 0 se le llama vector nulo o vector cero, y se


denota por 0 .
Definición 1.2. Vectores canónicos:
 
0
 .. 
 . 
 0 
 
ei =  1  ← i , para i = 1, . . . , n
 
 0 
 
 . 
 .. 
0
Ejemplo 1.3. Se observa que la notación es la misma, por lo tanto a veces
es importante especificar el conjunto al que pertenece el vector canónico:

5
 
  0
0 
 0 

 0  4
 1 
e3 =   ∈ R y e3 = 
   ∈ R6 .
1 
 0 

0  0 
0
Y también el vector cero:
 
0  
0
~0 =  0  ∈ R4 y ~0 =  0  ∈ R3 .
 
 0 
0
0

Definición 1.4. Dados u, v ∈ Rn la suma de u y v, denotada por u + v es el


vector cuyas componentes son la suma de las respectivas componentes de u
y v. Dado α ∈ R, la ponderación de u por el escalar α ∈ R es el vector cuyas
componentes son el producto de α por las respectivas componentes de u. Es
decir:      
x1 y1 x1 + y1
Si u =  ...  , v =  ... , entonces u + v =  ..
 , αu =
     
.
x yn xn + yn
  n
αx1
 .. 
 . .
αxn
   
2 4
 0   −4 
Ejemplo 1.5. Si u = 
 1  y v =  2 , entonces
  

−3 0
 
2
1  2 
2u − v = 
 1 .

2
−6

Proposición 1.6. Sean u, v, w ∈ Rn y α, β ∈ R. Entonces las operaciones


anteriores satisfacen:

1. u + v ∈ Rn .
2. (u + v) + w = u + (v + w).
3. u + v = v + u.


4. u + 0 = u.


5. u + (−u) = 0 .
6. αu ∈ Rn .
7. α(u + v) = αu + αv.
8. (α + β)u = αu + βu.
9. α(βu) = (αβ)u.
10. 1 u = u.
Observación 1.7. En la proposición anterior hay que notar que la igualdad
(α + β)u = αu + βu contiene el sı́mbolo + para la suma de números reales y
para la suma de vectores.
Observación 1.8. Sea α ∈ R y u ∈ Rn . αu = ~0 si y sólo si α = 0 o u = ~0.
Demostración: Si α = 0 o u = ~0, entonces por definición de las opera-
ciones se tiene αu = ~0.
1 1
Si αu = ~0, supongamos que α 6= 0, entonces αu = ~0 = ~0.
α α

Definición 1.9. Sean u, v ∈ Rn , el producto punto de u y v, denotado por


u · v, es la 
suma 
de los respectivos
  productos entre coordenadas. Es decir
x1 y1 n
 ..   ..  X
Si u =  .  , v =  . , entonces u·v = x1 y1 +. . .+xn yn = xi y i .
xn yn i=1

   
2 −1
 3 
 y u =  4 , entonces
 
Ejemplo 1.10. Por ejemplo si u =   4   0 
−1 7
u · v = 3.
Proposición 1.11. Sea u, v, w ∈ Rn y α ∈ R. Entonces el producto punto
satisface:

1. u · v ∈ R.

2. u · ~0 = 0.

3. u · v = v · u.

4. u · (v + w) = u · v + u · w.

5. α(u · v) = (αu) · v.

6. u · u ≥ 0 y u · u = 0 ↔ u = ~0.

Demostraci
 ón:
x1
Sea u =  ... , entonces
 
xn

u·u=0 ↔ x21 + · · · + x2n = 0


↔ x21 = · · · = x2n = 0
↔ x1 = · · · = xn = 0
↔ u = ~0.


(
1 si i=j
Ejemplo 1.12. ei · ej = para todo i, j = 1, . . . , n.
0 si i 6= j.
 
x1
..  ∈ Rn ,
Definición 1.13. Norma de un vector: Dado u =  .
xn
s n
X √
kuk = xi 2 = u · u.
i=1

Definición 1.14. Vector unitario: vector que tiene norma 1.




1
 2  √
Ejemplo 1.15. El vector u =   es tal que kuk = 6 y no es unitario.
 0 
−1
1
 

 26 
 
 √ 
El vector v =  6  es tal que kvk = 1 y es unitario.
 
 0 
 
 1 
−√
6
Definición 1.16. Distancia entre vectores: d(u, v) = ku − vk.
Ejemplo 1.17. ( kei k = 1 para todo i = 1 . . . n.
0 si i = j
d(ei , ej ) = √ para todo i, j = 1, . . . , n.
2 si i 6= j.
Proposición 1.18. Sean α ∈ R y u, v ∈ Rn . Entonces
kαuk = |α|kuk.
ku + vk2 = kuk2 + kvk2 + 2u · v.
|u · v| ≤ kukkvk.
ku + vk ≤ kuk + kvk.
Demostración:
kαuk = |α|kuk.
   
x1 αx1
Si u =  ... , entonces αu =  ... .
   
xn αxn
s n s n
X X
Luego kαuk = αxi 2 = |α| xi 2 = |α|kuk.
i=1 i=1

ku + vk2 = kuk2 + kvk2 + 2u · v.


Usando las propiedades del producto punto se tiene que:
ku+vk2 = (u+v)·(u+v) = u·u+u·v +v ·u+v ·v = kuk2 +kvk2 +2u·v.
|u · v| ≤ kukkvk.
Para todo α ∈ R se tiene que:
0 ≤ kαu + vk2 = α2 kuk2 + α2u · v + kvk2 .
Entonces el discriminante de esta expresión cuadrática es menor o igual
a cero:
(2u · v)2 − 4kuk2 kvk2 ≤ 0.
Luego |u · v| ≤ kukkvk.

ku + vk ≤ kuk + kvk.
ku + vk2 = kuk2 + kvk2 + 2u · v ≤ kuk2 + kvk2 + 2|u · v|.
Pero |u · v| ≤ kukkvk, entonces:
ku + vk2 ≤ kuk2 + kvk2 + 2kukkvk = (kuk + kvk)2 .

Definición 1.19. Sean u, v ∈ Rn − {~0}. El ángulo θ entre dos vectores es tal


u·v
que: cos(θ) = .
kukkvk
(
0 si i = j
Ejemplo 1.20. θ(ei , ej ) = para todo i, j = 1, . . . , n.
π/2 si i 6= j.

Definición 1.21. Sea {v1 , . . . , vm } ⊆ Rn . Una combinación lineal de los


vectores v1 , . . . , vm es el vector

α1 v1 + . . . + αm vm ,

donde αi ∈ R, para algunos α1 , . . . , αm ∈ R.


   
−1 1
 7   2 
Ejemplo 1.22. El vector  9  es una combinación lineal de  0
  y

14 1
       
−1 −1 1 −1
 1   7   2   1 
 3  porque  9  = 2  0  + 3  3 .
       

4 14 1 4
Definición 1.23. Sea S ⊆ Rn . El conjunto generado por S, denotado por
Gen S es el conjunto de todas las combinaciones lineales de vectores de S.
   
−1 1
 7   2 
Ejemplo 1.24. El vector   9  es una combinación lineal de  0  y
  

14 1
       
−1 −1 1 −1
 1   7   2   1 
 3  porque  9  = 2  0  + 3  3 .
       

4 14 1 4

Ejemplo 1.25. Gen{e1 , . . . en } = Rn .



− →

Observación 1.26. Gen φ = Gen{ 0 } = { 0 }.

Proposición 1.27. Sea S = {v1 , · · · , vm } ⊆ Rn . Entonces

~0 ∈ Gen S.

Gen S es cerrado bajo la suma y multiplicación por escalar.

S ⊂ Gen S.

Demostración:

~0 ∈ Gen S.
~0 = 0v1 + · · · + 0vm .

Gen S es cerrado bajo la suma y multiplicación por escalar.


Sean u = α1 v1 + · · · + αm vm ∈ Gen S, w = β1 v1 + · · · + βm vm ∈ Gen S
y λ ∈ R.
u + λw = (α1 v1 + · · · + αm vm ) + λ(β1 v1 + · · · + βm vm )
= (α1 + λβ1 )v1 + · · · + (αm + λβm )vm .

S ⊂ Gen S. Basta considerar que para todo j = 1, · · · , m:


vj = 0v1 + · · · + 0vj−1 + 1vj + 0vj+1 + · · · + 0vm .


Teorema 1.28. Sea S = {v1 , v2 , . . . , vm } ⊆ Rn .
Si v1 es combinación lineal de v2 , . . . , vm , entonces
Gen{v1 , v2 , . . . , vm } = Gen{v2 , . . . , vm }
Demostración: Si w = α2 v2 + · · · αm vm ∈ Gen{v2 , . . . , vm },
entonces w = 0v1 + α2 v2 + · · · αm vm ∈ Gen{v1 , v2 , . . . , vm }.

Si u = β1 v1 + β2 v2 + · · · βm vm ∈ Gen{v1 , v2 , . . . , vm } y
v1 = λ2 v2 + · · · + λm vm , entonces

u = β1 v1 + β2 v2 + · · · βm vm
= β1 (λ2 v2 + · · · + λm vm ) + β2 v2 + · · · βm vm
= (β1 λ2 + β2 )v2 + · · · + (β1 λm + βm )vm .

         

 −1 1 
 
 −1 1 1 
1   2  = Gen  1  ,  2
  5 
      
Ejemplo 1.29. Gen  , , 


 3   0 
 

 3   0   3 

4 0 4 0 4
   

Definición 1.30. Sea S = {v1 , v2 , . . . , vm } ⊆ Rn .


S es linealmente dependiente (LD) si existen escalares α1 , . . . , αm


no todos nulos tal que α1 v1 + . . . + αm vm = 0 . (se puede construir al
vector cero de manera no trivial).
S es linealmente independiente (LI) si no es LD, es decir si para


cualquier combinación lineal α1 v1 + . . . + αm vm = 0 , se tiene nece-
sariamente que α1 = . . . = αm = 0. (la única manera de construir al
vector cero es la trivial).
   

 1 2 

5 10
   
Ejemplo 1.31.  3  ,  6  es linealmente dependiente.
   

 
2 4
 
      

 1 0 0 
      
  ,   ,  0  es linealmente dependiente.
0 1

  0   0   0 
 
0 0 0
 
     

 1 2 0  
 5 , 10   0 
     
 3   ,  es linealmente dependiente.

 6   0  
2 4 0
 
     

 1 0 0  
 0 , 1   0 
     
 0   ,  es linealmente independiente.

 0   1  
0 0 0
 
       

 1 0 0 0  
 0 , 1 
    0   0 
 ,   ,   es linealmente independiente.
  0   0   1   0 
 
0 0 0 1
 

Observación 1.32. Si S = {~0, v2 , · · · , vm } ⊆ Rn , entonces


~0 = 1~0 + 0v2 + · · · + 0vm , luego S es L.D.

Proposición 1.33. Sea S ⊆ Rn . Entonces S es LD si y sólo si existe un


vector de S que es combinación lineal del resto de los vectores de S.

Demostración:

Si S = {v1 , · · · , vm } es L.D.,entonces existen α1 , · · · , αm ∈ R no todos


nulos tal que α1 v1 + · · · + αm vm = ~0. Sin perder generalidad, si α1 6= 0,
entonces
α2 αm
v1 = − v2 − · · · − vm .
α1 α1

Si existe un vector en S = {v1 , · · · , vm } que es combinación del resto,


sea v1 (sin perder generalidad). Entonces existen β2 , · · · , βm ∈ R tal
que v1 = β2 v2 + · · · + βm vm , entonces
~0 = v1 = −β2 v2 − · · · − βm vm .

Definición 1.34. Recta en R2 . Sea d ∈ R2 no nulo, L = {x ∈ R2 tal que x =


u + αd, α ∈ R}. Si u = ~0 se dice que L pasa por el origen.
Definición 1.35. Recta en R3 . Sea d ∈ R3 no nulo, L = {x ∈ R3 tal que x =
u + αd, α ∈ R}. Si u = ~0 se dice que L pasa por el origen.

Definición 1.36. Recta en Rn . Sea d ∈ Rn no nulo, L = {x ∈ Rn tal que x =


u + αd, α ∈ R}. Si u = ~0 se dice que L pasa por el origen.

Definición 1.37. Plano en R3 . Sea d1 , d2 ∈ Rn L.I, Π = {x ∈ Rn tal que x =


u + αd1 + βd2 , α, β ∈ R}. Si u = ~0 se dice que Π pasa por el origen.
     
2 1 1
Ejemplo 1.38. La recta x ∈ R tal que x = +α ,α ∈ R
4 3
tiene ecuación x2 = 3x1 + 1.

La recta de ecuación x2 = 7 es el conjunto


     
2 0 1
x ∈ R tal que x = +α ,α ∈ R .
7 0
La recta de ecuación x1 = −3 es el conjunto
     
2 −3 0
x ∈ R tal que x = +α ,α ∈ R .
0 1
La recta de ecuación y = 3x + 5 se puede escribir como
   
0 1

5 3

La recta de ecuación y = 7 se puede escribir como


   
0 1

7 0

La recta de ecuación x = 4 se puede escribir como


   
4 0

0 1

El plano de ecuación x1 + x2 + x3 = 1 es el conjunto


       
 1 −1 −1 
3
x ∈ R tal que x =  0  +α  0  +β  1 , α, β ∈ R .

0 1 0
 
El plano de ecuación x + y − 2z = 5 se puede escribir como
     
 0 1 0 
 5  + α  −1  + β  2 
0 0 1
 

Definición 1.39. Sean u ∈ Rn y b ∈ R. El hiperplano definido por u y b es


H = {x ∈ Rn : x · u = b}. Si b = 0, se dice que pasa por el origen.

Ejemplo 1.40. En R4 sea H = {x ∈ R4 : x1 +x2 −2x3 −x4 = 0 tal que x1 , x2 , x3 , x4 ∈


R}.  
x1
x2
x∈H↔x=  para x1 , x2 , x3 ∈ R.
 
x3
x1 + x2 − 2x3
     
1 0 0
0 1 0
x ∈ H ↔ x = x1   + x2   + x3   para x1 , x2 , x3 ∈ R.
     
0 0 1
1 1 −2
     

 1 0 0 

0 1 0
Por lo tanto H = Gen  , ,  .
     
 0 0 1 
1 1 −2
 

Observación 1.41. Todo hiperplano en Rn que pasa por el origen es un


conjunto generado por (n − 1) vectores L.I. Todo hiperplano en Rn es la
suma de un vector posición y un conjunto generado por (n − 1) vectores L.I.
Todo hiperplano en R3 es un plano en R3 .

Demostración:

Observación 1.42. Problema importante: ¿ Todo plano en R3 es un hiper-


plano?

Observación 1.43. Problema importante: Dado un conjunto S y un vector


b en Rn . ¿b ∈ Gen S?
Capı́tulo 2

Sistema de ecuaciones

Definición 2.1. Una matriz es un arreglo ordenado de m vectores de Rn .


Notación: A = [v1 v2 . . . vm ]. Se dice que A es una matriz de n × m, donde
m es el número
 de columnas y n es el número de filas.

a1,j
Si vj =  ...  para j = 1, . . . , m, entonces A = (ai,j ), donde ai,j son los
 
an,j
coeficientes o entradas de la matriz.
Ejemplo 2.2.
Definición 2.3. Matriz nula es tal que todos sus coeficientes son 0.
Definición 2.4. Matriz cuadrada es tal que n = m.
Definición 2.5. Matriz identidad es una matriz cuadrada denotada por I
tal que I = [e1 . . . en ].

Ejemplo 2.6.
 
0 0 0
Ejemplo 2.7. es una matriz nula de 2 × 3.
0 0 0
 
1 0
es la matriz identidad de 2 × 2.
0 1
 
1 0 0
 0 1 0  es la matriz identidad de 3 × 3.
0 0 1

17
 
x1
Definición 2.8. Dada A = [v1 v2 . . . vm ] de n × m y x =  ...  ∈ Rm ,
 
xm
el producto de A por x es Ax = x1 v1 + x2 v2 + . . . + xm vm ∈ Rn .
Ejemplo 2.9. 
  7
1 2 3  
8
4 5 6
9
     
1 2 3
7 +8 +9
4 5 6
     
7 16 27
+ +
28 40 54
 
50
122
 
x1
Proposición 2.10. Sea A = [v1 v2 . . . vm ] de n × m, x =  ...  , y =
 
xm
 
y1
 .. 
 .  ∈ Rm y α ∈ R. Entonces
ym
A(x + y) = Ax + Ay.
A(αx) = αAx.
A~0 = ~0.
Demostración: Sea A = [v1 v2 . . . vm ] x =, y =, entonces

 
x1 + y 1
A(x + y) = [v1 v2 . . . vm ] 
 .. 
. 
xm + y m
= (x1 + y1 )v1 + (x2 + y2 )v2 + . . . + (xm + ym )vm
= (x1 v1 + x2 v2 + . . . + xm vm ) + (x1 v1 + x2 v2 + . . . + xm vm )
= Ax + Ay
 
αx1
A(αx) = [v1 v2 . . . vm ]  ... 
 
αxm
= α(x1 v1 + x2 v2 + . . . + xm vm )
= α(Ax)
 
0
A(~0) = [v1 v2 . . . vm ]  ... 
 
0
= 0v1 + 0v2 + . . . + 0vm
= ~0

Observación 2.11. Todo sistema de ecuaciones se puede escribir de la forma


matricial Ax = b. Por ejemplo
       
2x + y − 3z = 4 2 1 −3 4
↔ x +y +z =
7x + 8z = 6 7 0
  8 6
  x  
2 1 −3   4
↔ y =
7 0 8 6
z

Definición 2.12. Un sistema de ecuaciones Ax = b es tal que A es una


matriz de n × m asociada al sistema, b ∈ Rn y x ∈ Rm . [A b] es la matriz
ampliada del sistema.

− →

El sistema es homogéneo si b = 0 y no homogéneo si b 6= 0 . El sistema es
consistente si tiene solución e inconsistente si no tiene solución.

Definición 2.13. Una matriz se dice que está en la forma escalonada (F.E.)
si:
1. a1,1 6= 0.

2. Si el pivote de la fila i está en la columna j, entonces el pivote de la


fila i + 1 está en la columna k, tal que j < k. (Pivote: primer elemento
distinto de 0 de la fila).
3. Las filas nulas están al final de la matriz.

Definición 2.14. Una matriz se dice que está en la forma escalonada redu-
cida (F.E.R.) si:

1. Está es la F.E.

2. Todos los pivotes son iguales a 1.

3. Los vectores columna que contienen pivotes son canónicos.


 
2 1 −3 7 8
Ejemplo 2.15.  0 3 8 1 1  está en F.E.
0 0 0 1 2
 
1 0 −3 0 8
 0 1 8 0 1  está en F.E.R.
0 0 0 1 2

Definición 2.16. Dada una matriz, las operaciones fila son:

1. Tipo I: Intercambiar dos filas: Fi ↔ Fj .

2. Tipo II: Multiplicar una fila por un escalar no nulo: Fi → λFi .

3. Tipo III: (pivotear) Sumar a una fila, un múltiplo escalar de otra:


Fi → Fi + λFj .
   
1 2 3 4 5 6
Ejemplo 2.17. ∼
4 5 6 1 2 3
   
2 4 6 1 2 3

4 5 6 4 5 6
   
1 2 3 1 2 3

4 5 6 0 −3 −6

Observación 2.18. Para solucionar un sistema de ecuaciones se lleva la


matriz ampliada a su F.E. o a su F.E.R., usando operaciones fila, luego se
reinterpreta el sistema y se resuelve recursivamente hacia arriba. Si el sistema
es consistente, a las variables que quedan en posiciones no pivotes se les llama
variables libres.
Ejemplo 2.19. Dado el sistema
x + y + 5z = 9
2x + y + 7z = 13
Se tiene:
   
1 1 5 9 1 1 5 9

2 1 7 13 0 −1 −3 −5
 
1 1 5 9

0 1 3 5
 
1 0 2 4

0 1 3 5
Entonces la solución es:
   
4 −2
 5  + α  −3 
0 1

Observación 2.20. Lo anterior funciona pues si [A|b] ∼ [A0 |b0 ], entonces


Ax = b ↔ A0 x = b0 .

Teorema 2.21. Sea el sistema de ecuaciones Ax = b con A de n × m, y M


la F.E.R. de la matriz M = [A b].

Para b 6= ~0, el sistema

es inconsistente si y sólo si M tiene una fila de la forma [0 . . . 0 c] con


c 6= 0,

es consistente y tiene solución única si y sólo si M tiene m pivotes,

es consistente y tiene infinitas soluciones si y sólo si M tiene menos de


m pivotes (hay variables libres).

− →

Para b = 0 el sistema es consistente ( 0 es solución) y

tiene solución única si y sólo si F.E. de A tiene m pivotes,


tiene infinitas soluciones si y sólo si F.E. de A tiene menos de m pivotes
(hay variables libres).

Ejemplo 2.22. Casos:

     
1 0 2 1 2 3 1 2 3
, ,
0 1 3 0 0 0 0 0 4

   
1 0 0 1 2 0
,
0 1 0 0 0 0

   
1 0 2 4 1 2 3 4
,
0 1 3 5 0 0 0 5

 
1 0 2 0
0 1 3 0

     
1 0 2 1 2 3 1 2 3
 0 1 3 ,  0 0 0 ,  0 0 4 
0 0 0 0 0 0 0 0 0

   
1 0 0 1 2 0
 0 1 0 ,  0 0 0 
0 0 0 0 0 0

Definición 2.23. Rango de un sistema: número de pivotes de la forma esca-


lonada de la matriz ampliada del sistema. Rango de una matriz: número de
pivotes de la forma escalonada del sistema homogéneo asociado a la matriz.

Teorema 2.24. Sea el sistema Ax = b, u tal que Au = b y los conjuntos


C1 = {x : Ax = b} y C2 = {y : Ay = ~0}. Entonces x ∈ C1 si y sólo si
x − u ∈ C2 .
Demostración: Se tiene:
x ∈ C1 ↔ Ax = b

↔ Ax = Au

↔ Ax − Au = ~0

↔ A(x − u) = ~0

↔ x − u ∈ C2

Proposición 2.25. Sea S = {v1 , . . . , vm } ⊂ Rn y A = [v1 . . . vm ]. S es L.I.


si y sólo si el sistema Ax = ~0 tiene solución única.
    

 1 0 
    
0  ,  1  es L.I. y el sistema

Ejemplo 2.26. El conjunto   2   2 

 
3 3
 
 
1 0
 0 1 
~
 2 2  x = 0 tiene solución única.
 

3 3

Proposición 2.27. Sea S = {v1 , . . . , vm } ⊂ Rn y A una matriz cuyas filas


son los vectores del conjunto S. S es L.I. si y sólo si la F.E.R. de la matriz
A no tiene filas nulas.

Demostración: S es L.D. si y sólo si existe un vector que es cominación


lineal del resto si y sólo si una fila de la matriz A es combinación lineal del
resto de las filas.
Sin perder generalidad (o bien haciendo operaciones de intercambio de
filas si es necesario), la primera fila de la matriz A es combinación lineal del
resto de las filas si y sólo si existen α2 , . . . , αm ∈ R tal que v1 = α2 v2 + · · · +
αm vm .
Haciendo las operaciones del tipo III que correspondan, si y sólo si la
F.E.R. de la matriz A tiene filas nulas.


Teorema 2.28. Sea v1 , . . . , vm un conjunto de vectores de Rn . Si m > n,


entonces v1 , . . . , vm es L.D.

Demostración:
Al resolver el sistema [v1 . . . vm ]x = ~0, la forma escalonada reducida tiene
variables libres.

Ejemplo 2.29. El conjunto {u, v, w} en R2 es L.D.

Observación 2.30. Sea S = {v1 , . . . , vm } ⊂ Rn , A = [v1 . . . vm ] y b ∈ Rn .


Entonces b ∈ Gen{v1 , . . . , vm } si y sólo si el sistema Ax = b es consistente.

Observación 2.31. Sea A de n × m y b1 , . . . br ∈ Rn , para resolver Ax =


b1 , Ax = b2 , . . . , Ax = br se escalona una única matriz [A b1 b2 . . . br ] y se
interpreta la solución para cada sistema por separado.
       
1 0 5 2 1 0 5 −1
Ejemplo 2.32. x = y x = se re-
0 1 3 7 0 1 3 4
suelven escalonando:
 
1 0 5 −1
0 1 3 7 4

Observación 2.33. Para buscar la intersección de n hiperplanos, se resuelve


el sistema asociado a las n ecuaciones.

Ejemplo 2.34. 1. Sea {v1 , v2 , v3 , v4 } ⊂ R7 y M = [v1 v2 v3 v4 ].


Si M (2e1 − e3 + e4 ) = ~0, ¿cuál es el mı́nimo de filas nulas que tiene la
F.E.R. de M ? Justifique.


2. Determine un sistema
  de
 ecuaciones
 Ax = 0 tal que su conjunto solu-
2 1
 −2   1 
ción sea: Gen{ 0  ,  1 }
1 1
3. Determine
 un sistema
 de ecuaciones
   Ax = b tal que su conjunto solución
3 2 1
 1   −2   1 
sea:  −1  + Gen{ 0  ,  1 }
0 1 1

4. Sea a ∈ R. Estudie la consistencia del siguiente sistema. En los casos


en que exista solución, encuéntrelas.
x1 + 2x2 = 1
x1 + 3x2 + x3 = 0
−x1 + x2 + ax3 = 2
x1 + x2 = a

Solución:
   
1 2 0 1 1 2 0 1
1 3 1 0 0 1 1 −1
∼
   
 −1 1 a 2 0 3 a 3 
1 1 0 a 0 −1 0 a − 1

   
1 0 −2 3 1 0 0 2a − 1
0 1 1 −1 0 1 0 1−a
∼ ∼
   
0 0 a−3 6 0 0 1 a−2 
0 0 1 a−2 0 0 a−3 6

Por lo tanto si a = 3, el sitema no tiene solución.

Si a 6= 3, entonces
 
1 0 0 2a − 1
0 1 0 1−a
∼
 
0 0 1 a−2 
0 0 0 a(5 − a)

Luego, si a 6= 0 y a 6= 5 el sistema no tiene solución.

Si a = 0 la solución es única: x1 = −1, x2 = 1 y x3 = −2.

Si a = 5 la solución es única: x1 = 9, x2 = −4 y x3 = 3.
5. Demuestre que si un sistema de ecuaciones tiene dos soluciones distin-
tas, entonces tiene una cantidad infinita de soluciones.

Solución:

Sea u y v vectores distintos tales que solucionan el sistema Ax = b.

Entonces basta tomar cualquier vector de la forma: x = u + α(u − v)


para cualquier α ∈ R y se tiene que:

Ax = A(u + α(u − v)) = Au + α(Au − Av) = b + α(b − b) = b.

6. Sean p, q ∈ R y Ax = b un sistema de ecuaciones tal que la forma


escalonada reducida de [A | b] es la matriz,
 
1 0 −1 1 1
 0 1 1 0 1 
0 0 0 p q

Determine si existen valores de p y de q para que:

a) el sistema no tenga solución,


b) el sistema tenga solución única y en tal caso encuéntrela,
c) el sistema tenga infinitas soluciones y en tal caso encuéntrelas,
d ) b ∈ C(A),
e) columnas de A sean L.I.,
f ) filas de A sean L.I.
Capı́tulo 3

Matrices

Definición 3.1. Sea A una matriz de n × m, se define una función TA :


Rm → Rn , dada por
TA (x) = Ax
 
  1  
1 −2 1 0
Ejemplo 3.2. A = , entonces TA  2  = .
0 1 3 11
3

Observación 3.3. El dominio de esta función es Rm . La imagen de ~0 ∈ Rm


es ~0 ∈ Rn .
Proposición 3.4. Sea A una matriz de n × m, la función TA se dice que es
lineal pues para x, y ∈ Rm y α ∈ R
TA (x + y) = A(x + y) = Ax + Ay = TA (x) + TA (y),

TA (αx) = A(αx) = αAx = αTA (x).


   
  1 1
1 −2 1
Ejemplo 3.5. A = , entonces TA  2  + 2  −1  =
0 1 3
  3 0
10
.
7
Observación 3.6. En adelante la función TA se denotará por A.
Definición 3.7. Mn,m (R) es el conjunto de todas las matrices de n × m con
coeficientes reales.

27
Definición 3.8. Sean A = [v1 . . . vm ] , B = [u1 . . . um ] ∈ Mn,m (R) y α ∈ R.
La operaciones suma y multiplicación por escalar de matrices se definen por
A + B = [v1 + u1 . . . vm + um ] , αA = [αv1 . . . αvm ].

Observación 3.9. −1 · A = −A.

Proposición 3.10. Sean A, B, C ∈ Mn,m (R) y α, β ∈ R. Entonces

A + B ∈ Mn,m (R).

(A + B) + C = A + (B + C).

A + B = B + A.

A + 0 = A.

A + (−A) = 0.

αA ∈ Mn,m (R).

α(A + B) = αA + αB.

(α + β)A = αA + βA.

α(βA) = (αβ)A.

1 A = A.

Definición 3.11. Sea A de n × m y B de m × p, tal que B = [u1 . . . up ], el


producto de A por B es la matriz A · B = [A · u1 . . . A · up ] de n × p.

Ejemplo 3.12. Por la definición:

 
  1 2 0 3
a b c  0 1 1 4 
d e f
2 1 1 5

        
  1   2   0   3
 a b c  0  a b c  1  a b c  1  a b c  4 
d e f d e f d e f d e f
2 1 1 5
       
a + 2c 2a + b + c b+c 3a + 4b + 5c
d + 2f d+e+f e+f 3d + 4e + 5f
 
a + 2c 2a + b + c b + c 3a + 4b + 5c
d + 2f d + e + f e + f 3d + 4e + 5f
Entonces numéricamente, es importante ver que el producto de matrices
es el cálculo de productos puntos entre las filas de la matriz de la izquierda
y las columnas de la matriz de la derecha.
 
  1 2 0 3  
2 1 −1  0 4 0 5
0 1 1 4 =
3 2 4 11 12 6 37
2 1 1 5

Proposición 3.13. Sean A, B, C matrices tal que las siguientes operaciones


están bien definidas y α ∈ R. Entonces

A(BC) = (AB)C.

α(AB) = (αA)B = A(αB).

A(B + C) = AB + AC.

(A + B)C = AC + BC.

IA = AI = A.

0A = A0 = 0.

Demostración:

A(BC) = (AB)C.

α(AB) = (αA)B = A(αB).

A(B + C) = AB + AC.

(A + B)C = AC + BC.
IA = AI = A:

AI = [v1 v2 . . . vm ][e1 e2 . . . em ]

= [[v1 v2 . . . vm ]e1 . . . [v1 v2 . . . vm ]em ]

= [v1 v2 . . . vm ]

= A
0A = A0 = 0.

Observación
 3.14.
 En general
 el producto
 de matrices
  no es  conmutativo.
0 1 1 0 0 0 0 1
A= ,B= y AB = 6= = BA.
0 0 0 0 0 0 0 0

Definición 3.15. Sea A de n × m, la transpuesta de A denotada por AT es


de m × n y es la matriz que resulta de intercambiar las filas de A por las
columnas de la A.
 
0 1  
T 0 2 4
Ejemplo 3.16. Si A = 2  3 , entonces A =
 .
1 3 −1
4 −1
Proposición 3.17. Sean A, B matrices tal que las siguientes operaciones
están bien definidas y α ∈ R. Entonces
(AT )T = A.

α(AT ) = (αA)T .

(A + B)T = AT + B T .

(AB)T = B T AT .
Demostración:

(AT )T = A.

α(AT ) = (αA)T .
(A + B)T = AT + B T .

(AB)T = B T AT .
 
f1T
Sea A =  ...  descrita por filas, es decir los vectores fiT son vectores
 
fnT
 
fila. Sea B = v1 · · · vn descrita por columnas.

(AB)T = (fiT vj )T = (fi · vj )T = (vj · fi )T = (vi · fj ) = (viT fj ) = B T AT .

Definición 3.18. Sea A = (ai,j ) de n × n.

A es triangular superior si ai,j = 0 para todo i > j.

A es triangular inferior si ai,j = 0 para todo i < j.

A es diagonal si ai,j = 0 para todo i 6= j.

A es simétrica si A = AT .

A es antisimétrica si A = −AT .
 
0 1
Ejemplo 3.19. A= es triangular superior.
0 3
 
2 0 1
A =  0 4 3  es triangular superior.
0 0 7
 
2 0 0
A =  3 4 0  es triangular inferior.
0 0 0
 
2 0 0
A =  0 4 0  es diagonal.
0 0 5
 
2 0 5
A= 0 4 8  es simétrica.
5 8 −2
 
0 −2 5
A= 2 0 8  es antisimétrica.
−5 −8 0
Definición 3.20. Sea A de n × m.


Nul(A) = {x ∈ Rm : Ax = 0 }. Es el conjunto de pre-imágenes del
vector cero. Es el conjunto solución del sistema homogéneo asociado a
la matriz A. Es un subconjunto de Rm .
Im(A) = {b ∈ Rn : ∃x ∈ Rm : Ax = b}. Es el recorrido de la función
dada por la matriz A. Es el conjunto de todos los vectores b tal que el
sistema Ax = b es consitente. Es el conjunto generado por las columnas
de la matriz A. Es un subconjunto de Rn .
C(A) es el conjunto generado por las columnas de la matriz A. Es el
recorrido de la función dada por la matriz A. Es el conjunto de todos los
vectores b tal que el sistema Ax = b es consistente. Es un subconjunto
de Rn . (Está generado por las columnas de la matriz que en su forma
escalonada están en las posiciones pivotes).
F (A) es el conjunto generado por las filas de la matriz A. Es un sub-
conjunto de Rm . (Está generado por las filas no nulas de la forma
escalonada de la matriz).
 
1 2 0 3
Ejemplo 3.21. Sea A =  2 5 1 4 .
3 8 2 5 
1 0 −2 7
Su forma escalonada reducida es  0 1 1 −2 .
0 0 0 0
Entonces:
   

 −7 2 


2   −1 
Nul(A) = Gen   0  ,  1  .
  

 
1 0
 
    
 1 2 
Im(A) = C(A) = Gen  2 , 5  .
 
3 8
 
   

 1 0  
0 1
   
F (A) = Gen  −2  ,  1 .
  

 
7 −2
 

Observación 3.22. Im(A) = C(A) = F (AT ).


Teorema 3.23. Sea A de n × m. Entonces


A es 1-1 (inyectiva) si y sólo si Nul(A) = { 0 }.

A es sobreyectiva si y sólo si Im(A) = Rn .


Demostración:
A es 1-1 (inyectiva) si y sólo si Nul(A) = {~0}:

Si A es inyectiva, entonces todos los vectores en el recorrido tienen sólo


una preimagen, en particular el vector cero, entoncesNul(A) = {~0}.

Si Nul(A) = {~0} y Au = Av, entonces A(u − v) = ~0, Luego (u − v) ∈


Nul(A). Pero Nul(A) sólo contiene al ~0. Entonces u = v y A es inyectiva.

A es sobreyectiva si y sólo si Im(A) = Rn .


Por definición, A es sobre si y sólo si su recorrido es igual al conjunto
de llagada.


 
1 2 0 3
Ejemplo 3.24. Sea A =  2 5 1 4 .
3 8 2 5 
1 0 −2 7
Su forma escalonada reducida es  0 1 1 −2 .
0 0 0 0
Entonces:
A define una función
 A  : R4→ R3 

 −7 2  
2 −1
   
Nul(A) = Gen   0  ,  1  .
  

 
1 0
 
    
 1 2 
Im(A) = C(A) = Gen  2  ,  5  .
3 8
 

No es inyectiva y no es sobre.

Teorema 3.25. Sea A de n × m. Entonces

Filas de A son L.D.


↔ Existe una fila que es combinación lineal del resto.
↔ fn = α1 f1 + . . . + αn−1 fn−1 (sin perder generalidad)
↔ La FER de A tiene por lo menos una fila nula
(haciendo las operaciones del tipo III necesarias).

Filas de A son L.I.


↔ La F.E.R. de A tiene no tiene filas nulas.
↔ Todas las filas de la F.E.R. de A contienen pivotes.
↔ Rango de A es n.

A es 1-1


↔ Nul(A) = { 0 }.


↔ Ax = 0 tiene solución única.
↔ Columnas de A son L.I.
↔ Rango de A es m.

A es sobre
↔ Im(A) = Rn .
↔ Ax = b es consistente para todo b ∈ Rn .
↔ Ax = ei es consistente para todo vector canónico.
↔ La FER de [A e1 . . . en ] no tiene filas de la forma [0 . . . 0 u] con u un vector no nulo.
↔ Filas de A son L.I.
↔ Rango de A es n.
Definición 3.26. A de n × n se dice invertible si existe una matriz B de
n × n tal que AB = I.
Teorema 3.27. Sea A una matriz de n × n. Entonces

A es invertible.
↔ Existe B tal que AB = I.
↔ Existen u1 , . . . , un tal que A[u1 . . . un ] = [e1 . . . en ].
↔ Ax = ei es consistente para todo vector canónico.
↔ A es sobre.
↔ Filas de A son L.I.
↔ Rango de A es n.
↔ Existe B tal que BA = I.
↔ Ax = ~0 tiene solución única.
↔ A es inyectiva.
↔ Columnas de A son L.I.
↔ Rango de A es n.

Observación 3.28. Si A es invertible, entonces de la definición es sobre-


yectiva. Luego es inyectiva y AT sobreyectiva, entonces existe C tal que
AT C T = I, luego CA = I. Multiplicando por B se tiene B = C. Como las
columnas de B solucionan los sistemas Ax = ei , entonces son ńicas y B es
única.

A esta matriz única se le llama inversa de A y se denota A−1 . Para


calcularla se resuelven los sistemas Ax = ei en un único proceso de resolución
de sistemas.
 
1 5
Ejemplo 3.29. Para calcular la inversa de el proceso es:
  1 7
1 5 1 0
1 7 0 1
 
1 5 1 0

0 2 −1 1
 
1 5 1 0

0 1 −1/2 1/2
 
1 0 7/2 −5/2

0 1 −1/2 1/2
 
7/2 −5/2
Por lo tanto la inversa es
−1/2 1/2
Proposición 3.30. Sean A y B de n × n. Entonces
A es invertible si y sólo si Ax = b tiene solución única para todo b ∈ Rn .

Si A es invertible, entonces (A−1 )−1 = A.

A es invertible si y sólo si AT es invertible. En este caso (AT )−1 =


(A−1 )T .
1 −1
Si A es invertible y α 6= 0, entonces αA es invertible y (αA)−1 = A .
α
Si A es invertible, entonces para todo r ∈ N, Ar es invertible y se tiene
(Ar )−1 = (A−1 )r = A−r .

Si AB es invertible, entonces A y B son invertibles.

Si A y B son invertibles, entonces AB es invertible y (AB)−1 = B −1 A−1 .


Demostración:
A es invertible si y sólo si Ax = b tiene solución única para todo b ∈ Rn :
Como A es sobre el sistema tiene solución, como A es inyectiva la
solución es única.

Si A es invertible, entonces (A−1 )−1 = A.

A es invertible si y sólo si AT es invertible. En este caso (AT )−1 =


(A−1 )T :
Si A es invertible el rango es n y el de AT también.
1 −1
Si A es invertible y α 6= 0, entonces αA es invertible y (αA)−1 = A .
α
Si A es invertible, entonces para todo r ∈ N, Ar es invertible y se tiene
(Ar )−1 = (A−1 )r = A−r .

Si AB es invertible, entonces A y B son invertibles:


Si AB es invertible, entonces existe C tal que ABC = I, entonces A es
invertible. Y como también CAB = I, entonces B es invertible.
Si A y B son invertibles, entonces AB es invertible y (AB)−1 = B −1 A−1 .

Observación 3.31. Sean A1 , . . . , Ak matrices cuadradas e invertibles. En-


tonces (A1 · . . . · Ak )−1 = (Ak )−1 · . . . · (A1 )−1 .
Esto es cierto usando la proposición anterior.
Proposición 3.32. Sean A, B, C, D matrices tal que las siguientes operacio-
nes están bien definidas. Entonces
Si A es invertible y AB = AC, entonces B = C.

Si A es invertible y BA = CA, entonces B = C.

Si A es invertible y AB = BA, entonces BA−1 = A−1 B.

Si A es invertible, puede ocurrir que A−1 BA 6= B.

Si A y B son invertibles, y ACB = D, entonces C = A−1 DB −1 .


Demostración:

     
3 −2 1 2 1 2 1 2
Ejemplo 3.33. 6= .
−1 1 3 4 1 3 3 4
Observación 3.34. Una matriz diagonal es invertible si y sólo si todos los
elementos de su diagonal son no nulos. Esto es cierto porque la forma esca-
lonada reducida debe tener pivotes en cada fila.
Observación 3.35. Una matriz triangular superior (o inferior) es invertible
si y sólo si todos los elementos de su diagonal son no nulos.
Ejemplo 3.36. Productos notables: observar que en general (A+B)2 6=
A2 + 2AB + B 2 .

Estudiar invertibilidad de uT u y uuT .

Sea A, B de n × 1 tal que 1 − AT B 6= 0. Demuestre que


1
(I − AB T )−1 = I + T
AB T .
(1 − A B)
La triangularidad se mantiene en el producto y al tomar inversas.

Definición 3.37. EI (EII , EIII ) es una matriz elemental del tipo I (II, III),
si es la matriz que resulta de hacer una operación elemental del tipo I (II,
III) a la matriz identidad. Se dice que la matriz E representa dicha operación
elemental.

Ejemplo 3.38.

Observación 3.39.

tipo matriz operación transpuesta operación inversa operación

I EI Fi ↔ Fj EI Fi ↔ Fj EI Fi ↔ Fj

II EII Fi → λFi EII Fi → λFi E


g II Fi → 1/λFi

III EIII Fi → Fi + αFj E Fj → Fj + αFi E Fi → Fi − αFj


g
III III
g g

Ejemplo 3.40.

Observación 3.41. Si A es de n × m y B es la matriz de n × m que resulta


de hacerle a A una operación elemental, entonces EA = B, donde E es la
matriz que representa dicha operación elemental.

Ejemplo 3.42.

Proposición 3.43. Si A es de n × m y B = F.E. de A, entonces Ek · . . . ·


E2 · E1 A = B, donde Ei son las matrices elementales que representan las
operaciones elementales que llevan la matriz A en la matriz B.

Ejemplo 3.44.

Teorema 3.45. A de n × n es no singular si y sólo si A se puede escribir


como producto de matrices elementales.

Ejemplo 3.46.

Teorema 3.47. A de n × n es no singular si y sólo si F.E.R de A es la matriz


identidad
Teorema 3.48. Si A es de n × m y U es una forma escalonada de A, tal que
U se obtiene sin necesidad de hacer operaciones del tipo I, entonces existe L
triangular inferior invertible, tal que

A = LU

Consideraremos a la matriz L siempre con 10 s en la diagonal.

Demostración:

Ejemplo 3.49.

Teorema 3.50. Si A es de n × m y U es una forma escalonada de A, tal que


U se obtiene con la necesidad de hacer operaciones del tipo I, entonces existe
L triangular inferior invertible y P una matriz producto de elementales del
tipi I, tal que
P A = LU

Demostración:

Ejemplo 3.51.

Observación 3.52. Si A = LU , para resolver Ax = b se hace el cambio de


variable U x = y.

Ejemplo 3.53.

Observación 3.54. Si P A = LU , para resolver Ax = b se multiplica el


sistema por P y luego se hace el cambio de variable U x = y.

Ejemplo 3.55.

Definición 3.56. Si A es de n × n simétrica, la forma cuadrática asociada


a A es la función qA : Rn → R, definida por

qA (v) = v T Av

Ejemplo 3.57.
Definición 3.58. Una matriz (o su forma cuadrática asociada) se dice:


definida positiva si ∀v 6= 0 , qA (v) > 0.


definida negativa si ∀v 6= 0 , qA (v) < 0.


semidefinida positiva si ∀v 6= 0 , qA (v) ≥ 0.


semidefinida negativa si ∀v 6= 0 , qA (v) ≤ 0.

Ejemplo 3.59.

Observación 3.60. Si D es diagonal, con elementos d1 , . . . , dn en su diago-


nal, entonces D (o qD ) es

definida negativa si di > 0, para todo i = 1, . . . , n.

definida negativa si di < 0, para todo i = 1, . . . , n.

semidefinida positiva si di ≥ 0, para todo i = 1, . . . , n.

semidefinida negativa si di ≤ 0, para todo i = 1, . . . , n.

Ejemplo 3.61. Clasificación de:


 
1 0
0 1
 
1 0
0 −1
 
1 0
0 0
 
−1 0
0 0
 
1 0
0 −1

Teorema 3.62. Sea A = AT . Si A = LU , entonces existe D diagonal tal que


A = LDLT . (Entonces la clasificación de A es igual a la de D).
Demostración:
Se tiene que A = LU = (LU )T = U T LT = AT .

Pero L es invertible, entonces U (LT )−1 = L−1 U T .


Por triangularidad esta última matriz es triangular superior e inferior,
luego es diagonal.

Ejemplo 3.63.

Definición 3.64. Dada A de n × n, la submatriz principal Ak para k =


1, . . . , n es la matriz que resulta de eliminar la últimas n − k filas y las
últimas n − k columnas de A. Notar que An = A.

definida positiva

Ejemplo 3.65.

Proposición 3.66. Si A es de n×n y sus submatrices principales A1 , · · · , An−1


son invertibles, entonces A admite la descomposición LU . Si L tiene sólo unos
en su diagonal, entonces L y U son únicas.

Ejemplo 3.67.

Proposición 3.68. Sea A = AT . Si A es definida positiva, entonces

A es invertible.

Ak es definida positiva, para todo k = 1, . . . , n.

Ak es invertible, para todo k = 1, . . . , n.

Ejemplo 3.69.

Teorema 3.70. Sea A = AT . A es definida positiva si y sólo si existe L


triangular inferior invertible con unos en su diagonal, y D diagonal, con
elementos en la diagonal positivos, tal que A = LDLT .

Ejemplo 3.71.

Observación 3.72. En el teorema anterior se define a D como la matriz
diagonal, que en su diagonal tiene las raı́ces positivas de los elementos de la
diagonal de D. Entonces
√ √
A = L D DLT = RT R

que es llamada la descomposición con raı́z cuadrada de una matriz definida


positiva. (o de Cholesky).

Ejemplo 3.73.

Ejemplo 3.74. Finales


 
3 3 3
1. Sea A =  3 5 5 . Entonces
3 5 11

" #" #
1 0 0 3 3 3
A = 1 1 0 0 2 2 = LU
1 1 1 0 0 6
" #" #" #
1 0 0 3 0 0 1 1 1
= 1 1 0 0 2 0 0 1 1 = LDLT
1 1 1 0 0 6 0 0 1
" #" √ #" √ #" #
1 0 0 3 √0 0 3 √0 0 1 1 1 √ √
= 1 1 0 0 2 √0 0 2 √0 0 1 1 = L D DLT
1 1 1 0 0 6 0 0 6 0 0 1

" √ #" √ √ √ #
√3 √0 0 3 √3 √3
= √3 √2 √0 0 2 √2 = RT R
3 2 6 0 0 6

2. Escriba una matriz que no tenga inversa por la derecha ni por la iz-
quierda.
 
a b
3. Sea A = . Demuestre que A es no singular si y sólo si ad−bc 6=
c d
0.
4. Sea A una matriz 1-1 de n × m. Demuestre que si {v1 , . . . , vr } es L.I.,
entonces {Av1 , . . . , Avr } es L.I.

5. Sea A = [v1 v2 v3 v4 v5 v6 ] una matriz de 4 × 6, tal que su forma


escalonada reducida es
 
1 a −1 0 0 −1
 0 0 0 1 0 −1
con a ∈ R

 0 0 0 0 1 −1 
0 0 0 0 0 0

a) Determine un conjunto generador de vectores L.I. para C(A).


b) Determine el Nul(A).
c) Determine si {v1 , v2 , v4 } es L.I. o L.D.

6. Sea A de n × m tal que admite la factorización A = LU . Demuestre


que si U tiene inversa por la izquierda, entonces A tiene inversa por la
izquierda.

7. Suponga que U se obtiene de hacer en A el intercambio de la fila 1 con


la 2 y luego restar la fila 2 a la fila 3. Use P A = LU para resolver el
sistema Ax = b donde:
" # " #
1 0 2 1 1
U= 0 1 1 1 b= 0
0 0 −1 0 0

8. Use Cholesky para clasificar las siguientes formas cuadráticas y exprése-


las como una suma ponderada de cuadrados.

x2 − 2xy + 2xz + 4yz + 2y 2 + 15z 2 .


x2 + 4xy + 2xz + 4yz + y 2 + z 2 .
 
1 1 1
9. Sea A = 0 1 a , a ∈ R. Demuestre que AAT es definida positiva.

10. Encuentre la factorización de Cholesky de la matriz


" #
1 1 0
A= 1 2 0
0 0 5
11. Sea A de 3 × 4 tal que la F.E.R. de [A | I] es
 
1 0 −1 0 1 2 3
 0 1 2 0 0 1 −1 
0 0 0 1 2 1 1

Sin calcular A ni AT :

a) Determine el Nul(A).

b) Determine el Nul(AT ).

c) Determine si A tiene inversas por la derecha y/o izquierda. Si


existen encuéntrelas.
 
0
0
d ) Determine la solución general de AT x =  .
 
0
1
e) Sea A una matriz 1 − 1 de n × 3. Demuestre que la imagen por A
del hiperplano x2 = 0 es un conjunto generado por dos vectores
L.I.
Capı́tulo 4

Determinantes

Definición 4.1. Determinante es una función: Det : Mn (R) → R tal que:

|I| = 1

Si EI A = B → −|A| = |B|

Si EII A = B → λ|A| = |B|

Si EIII A = B → |A| = |B|

Ejemplo 4.2.
Observación 4.3. Tomando A = I en la definición: |EI | = −1, |EII | = λ,
|EIII | = 1. Reemplazando en la definición queda que si E es una matriz
elemental, entonces |EA| = |E| · |A|.
 
a b
Observación 4.4. Si A = , entonces |A| = ad − bc
c d
Ejemplo 4.5.
Proposición 4.6. Sea A una matriz de cuadrada. Entonces
Si A tiene dos filas iguales, entonces |A| = 0.

Si A tiene una fila nula, entonces |A| = 0.

Si A es triangular o diagonal, entonces |A| = Πai,i .

45
Demostración:
Usando operaciones elementales y la definicin.

Teorema 4.7. Sea A una matriz de cuadrada. Entonces A es invertible si y
sólo si |A| =
6 0.
Demostración:
Usando matrices elementales.

Ejemplo 4.8.
Teorema 4.9. Sean A y B matrices cuadradas. Entonces |AB| = |A| · |B|.
(Usar: A y B son invertibles si y sólo si AB es invertible.)
Demostración:

Ejemplo 4.10.
Proposición 4.11. Sea A una matriz de cuadrada. Entonces
|AT | = |A|

Si A es invertible, entonces |A−1 | = 1/|A|


Ejemplo 4.12.
Definición 4.13. Menor i, j de una matriz A es el determinante de la matriz
que resulta de eliminar de A la fila i y la columna j. Notación: Mi,j =.
Cofactor i, j de una matriz A es Ci,j = (−1)i+j Mi,j
Ejemplo 4.14.
Teorema 4.15. |A| = ai,1 Ci,1 + . . . + ai,n Ci,n para todo i = 1, . . . , n. (caso
i = 1)
Ejemplo 4.16.
Observación 4.17. Sea A una matriz de cuadrada. Entonces
Si P A = LU , entonces (−1)k |A| = Πui,i

Si A = LDLT , entonces |A| = Πdi,i

Definición 4.18. Sea A una matriz de cuadrada. La adjunta de A: Adj(A) =


(ci,j )T .

Ejemplo 4.19.

Teorema 4.20. Sea A una matriz de cuadrada. Entonces A · Adj(A) =


Adj(A) · A = |A| I

Ejemplo 4.21.

Observación 4.22. Sea A una matriz cuadrada. Si A es invertible, entonces


A−1 = 1/|A| Adj(A)

Proposición 4.23. Sea A una matriz simétrica. A es definida positiva si y


sólo si, los determinantes de las submatrices principales son todos positivos.

Ejemplo 4.24.

Ejemplo 4.25. Finales

1. Sea A ∈ M4 (R) tal que |A| = 5, encuentre |2A|, |4A|, |2k A|, |A5 |, |−A|,
|A−1 |, ||A|A−1 |, |A−3 |, ||A|A|

2. Sean v1 , v2 , v3 , v4 ∈ R4 , encuentre el |A| si


A = [v1 − v3 + v4 − v2 − v3 v3 − v1 v1 + v2 + 2v4 ] ∈ M4 (R)

3. Sea A de 5 × 5 tal que Det(A − I) = 0.


Demuestre que existe v ∈ R5 tal que Av = v.

4. Dé un ejemplo de matrices tal que |A + B| =


6 |A| + |B|.

5. Sea a ∈ R, calcule el determinante de la siguiente matriz de n × n


 
a 1 1 ··· 1 1
 1 a 1 ··· 1 1


 1 1 a ··· 1 1


 .. .. ..

 . . .
1 1 1 ··· a 1
 
1 1 1 ··· 1 a
Solución:

Si a = 1, quedan todas las filas iguales y entonces el determinante es 0.

Haciendo las operaciones: Fi → Fi − Fi+1 , para i = 1, . . . , n − 1 queda:



a−1 1−a 0 ··· 0 0
0 a − 1 1 − a ··· 0 0


0 0 a − 1 ··· 0 0
= .

.. .. ..
. . .
0 0 0 · · · a − 1 1 − a


1 1 1 ··· 1 a

Haciendo las operaciones: Fi → (1/(a − 1))Fi , para i = 1, . . . , n − 1


queda:

1 −1 0 ··· 0 0
0 1 −1 · · · 0 0


0 0 1 ··· 0 0
n−1
= (a − 1) .

.. .. ..
. . .

0 0 0 ··· 1 −1


1 1 1 ··· 1 a

Haciendo las operaciones: Fn → Fn − F1 , . . ., Fn → Fn − Fn−1 queda:



1 −1 0 ··· 0 0
0 1 −1 · · · 0 0


0 0 1 ··· 0 0
n−1
= (a − 1) .

.. .. ..
. . .
0 0 0 ··· 1 −1


0 0 0 ··· 0 a+n−1

Queda una matriz diagonal, entonces el determinante pedido es:

(a − 1)n−1 (a + n − 1).
Capı́tulo 5

Espacios vectoriales

Definición 5.1. Cuerpo o campo K, +, · conjunto tal que con las operaciones
suma y multiplicación cumple:
+ es cerrada: ∀α, β ∈ K α + β ∈ K
+ es asociativa: ∀α, β, γ ∈ K (α + β) + γ = α + (β + γ)
+ es conmutativa: ∀α, β ∈ K α + β = β + α
Existe un neutro para la +: ∃0∀α : 0 + α = α + 0 = α
Existe un inverso para la +: ∀α∃β : α + β = β + α = 0
· es cerrada: ∀α, β ∈ K α · β ∈ K
· es asociativa: ∀α, β, γ ∈ K (α · β) · γ = α · (β · γ)
· es conmutativa: ∀α, β ∈ K α · β = β · α
Existe un neutro para la ·: ∃1∀α : 1 · α = α · 1 = α
Existe un inverso para la ·: ∀α 6= 0∃β : α · β = β · α = 1
∀α, β, γ ∈ K α · (β + γ) = α · β + α · γ
Ejemplo 5.2. Q, R, C
Definición 5.3. Un conjunto no vacı́o V es un espacio vectorial sobre el
cuerpo R si existen dos operaciones: suma y multiplicación por escalar tal
que:

49
+ es cerrada: ∀u, v ∈ V u + v ∈ V

+ es asociativa: ∀u, v, w ∈ V (u + v) + w = u + (v + w)

+ es conmutativa: ∀u, v ∈ V u + v = v + u

Existe un neutro para la +: ∃~0V ∀u : ~0V + u = u + ~0V = u




Existe un inverso para la +: ∀u∃(−u) : u + (−u) = (−u) + u = 0

· es cerrada: ∀u ∈ V, α ∈ R α · u ∈ V

∀u, v ∈ V, α ∈ R α · (u + v) = α · u + α · v

∀u ∈ V, α, β ∈ R (α + β) · u = α · u + β · u

∀u ∈ V, α, β ∈ R (αβ) · u = α · (βu)

∀u ∈ V 1 · u = u

A los elementos de V se les llama vectores.


Ejemplo 5.4. Algunos espacios vectoriales:

Rn sobre R.

Pn (R) sobre R.

Mn,m (R) sobre R.

C[a, b] sobre R.
Proposición 5.5. Si V es un espacio vectorial sobre K, entonces
~0V es único.

−(u + v) = (−u) + (−v).

−u es único.

α · ~0V = ~0V .

0 · u = ~0V .

α · u = ~0V si y sólo si α = 0 o u = ~0V .


Ejemplo 5.6.

Definición 5.7. Una combinación lineal de vectores v1 , . . . , vm es un vector


de la forma α1 v1 + . . . + αm vm .

Ejemplo 5.8. En C[0, π], 1 · sen2 +1 · cos2 = 1.

Definición 5.9. Sea S = {v1 , . . . , vm }.

S es linealmente independiente si la única manera de construir al vector


cero es la trivial:


α1 v1 + . . . + αm vm = 0 → α1 = . . . = αm = 0

S es linealmente dependiente si es posible construir al vector cero de


manera no trivial:


∃α1 , . . . αm no todos nulos, tal que α1 v1 + . . . + αm vm = 0

Ejemplo 5.10.

Teorema 5.11. Sea S = {v1 , . . . , vm }. S es LD si y sólo si existe v ∈ S que


es combinación lineal del resto de los vectores de S.

Ejemplo 5.12.

Definición 5.13. Sea S = {v1 , . . . , vm }. El conjunto generado por S es


Gen S = Gen{v1 , . . . , vm } = {α1 v1 + . . . + αm vm , tal que α1 , . . . , αm ∈ R}

Ejemplo 5.14.

Observación 5.15. {~0V } es L.D. y {~0V } = Gen{~0V }

Proposición 5.16. Sea S = {v1 , . . . , vm }. vj es combinación lineal de vec-


tores de S ↔ Gen S = Gen(S − {vj })

Ejemplo 5.17.

Proposición 5.18. Sea S = {v1 , . . . , vm }. Si S es LI y v ∈ Gen S, entonces


v se escribe de manera única como combinación lineal de los vectores de S.

Demostración:


Ejemplo 5.19.

Definición 5.20. Sea V un espacio vectorial sobre K y U ⊆ V . U es un


subespacio de V si es distinto del vacı́o y con las operaciones heredadas de
V es un espacio vectorial. Notación: U 6 V

Ejemplo 5.21.

Proposición 5.22. U 6 V si y sólo si U es no vacı́o, es cerrado bajo la suma


y es cerrado bajo la multiplicación por escalar.

Ejemplo 5.23.

Observación 5.24. Todo conjunto generado es un subespacio.

Teorema 5.25. Si V = Gen{v1 , . . . , vn } tal que {v1 , . . . , vn } es L.I., entonces


todo conjunto L.I. de V contiene a lo más n elementos.

Ejemplo 5.26.

Definición 5.27. B ⊂ V es una base de V si B es LI y Gen{B} = V .

Ejemplo 5.28.

Teorema 5.29. Si B es una base de V y la cardinalidad de B es n, entonces


todas las bases de V tienen n elementos. Se dice que la dimensión de V es n.
Notación: Dim(V ) = n.

Ejemplo 5.30.

Proposición 5.31. Si Dim(V ) = n, entonces

S es LI → #S 6 n.

Gen{S} = V → #S > n.

Demostración:

Ejemplo 5.32.
Proposición 5.33. Si Dim(V ) = n y S = {v1 , . . . , vn }, entonces

S es LI → Gen{S} = V .

Gen{S} = V → S es L.I.

Ejemplo 5.34.

Observación 5.35. Si U es subespacio de V y Dim(V ) = n, entonces


Dim(U ) 6 Dim(V )

Proposición 5.36. Sea A de n × m. Entonces

C(A) es un subespacio de Rn de dimensión igual al rango de A.

F (A) es un subespacio de Rm de dimensión igual al rango de A.

AT es de m × n, F (AT ) = C(A) y C(AT ) = F (A).

Ejemplo 5.37.

Definición 5.38. Sea B = {v1 , . . . , vn } una base de V y v ∈ V tal que


v = x1 v1 + . . . xn vn . El vector coordenado de v en la base B es:
 
x1
..
[v]B =  .

xn

Ejemplo 5.39.

Proposición 5.40. Sean u, v ∈ V y B una base de V . Entonces

[u + v] = [u] + [v].

[αu] = α[u].

{u1 , . . . , um } es L.I. si y sólo si {[u1 ], . . . , [um ]} es L.I.

u ∈ Gen{u1 , . . . , um } si y sólo si [u] ∈ Gen{[u1 ], . . . , [um ]}.

Demostración:


Ejemplo 5.41.
Definición 5.42. Sean B1 = {v1 , . . . , vn } y B2 = {u1 , . . . , un } bases de V .
Se define la matriz P = [ [v1 ]2 . . . [vn ]2 ].
Proposición 5.43. Sean B1 = {v1 , . . . , vn } y B2 = {u1 , . . . , un } bases de V .
Para todo x ∈ V : P21 · [x]1 = [x]2 .
P21 es invertible.
(P21 )−1 = P12
Demostración:

Ejemplo 5.44.
Ejemplo 5.45. Finales

1. Sea {u1 , u2 , u3 } un conjunto L.I. en R4 . Considere las matrices


A1 = [u1 u2 u3 ] , A2 = [u2 u1 u3 ] , A3 = [u2 u3 u1 ]

Demuestre que S = {A1 , A2 , A3 } es un conjunto L.I. en M 4,3 (R).


2. Sea A de 5 × 4. Demuestre que el siguiente conjunto U es un subespacio
de R5 .
U = {b ∈ R5 : Ax = b es consistente}

3. Sea U = {p(x) ∈ P3 (R) : p(−1) = 0 }

a) Demuestre que U es subespacio de P3 (R)


b) Encuentre una base de U
c) Determine Dim U

4. Considere el espacio vectorial V = C[0, 2π] y el conjunto

U = {f (x) ∈ V : f (0) = f (π) = f (2π) = 0}

Demuestre que U es subespacio de V .


" # " #
0 1 0 0 0 1
5. Sea A de 4 × 3, B = 0 0 1 yC= 0 1 0 .
1 0 0 1 0 0

Demuestre que si Ax = ~0 tiene solución única, entonces {A, AB, AC}


es un conjunto L.I. en M4,3 (R).

Solución:

Sea αA + βAB + γAC = 0 (matriz nula). p.d.: α = β = γ = 0.

Sea A = [v1 v2 v3 ] tal que v1 , v2 , v3 ∈ R4 .

Y entonces AB = [v3 v1 v2 ] y AC = [v3 v2 v1 ].

Entonces [αv1 + (β + γ)v3 βv1 + (α + γ)v2 γv1 + βv2 + αv3 ] = 0

Dado que Ax = ~0 tiene solución única, entonces se tiene que {v1 , v2 , v3 }


es L.I.

De la segunda columna se tiene que α = β = γ = 0.

   
1 2
6. Sean u1 = −1
, u2 = 1
y los subespacios

U1 = {A ∈ M2 (R) : u1 T Au1 = 0} y U2 = {A ∈ M2 (R) : u2 T Au2 = 0}.

a) Demuestre que U1 es un subespacio de M2 (R).

Solución:

U1 es no vacı́o pues tomando A = 0 la matriz nula se tiene que


u1 T 0u1 = 0.

Dadas A, B ∈ U1 , se tiene que u1 T (A+B)u1 = u1 T Au1 +u1 T Bu1 =


0 + 0 = 0.
Dada A ∈ U1 y α ∈ R, se tiene que u1 T (αA)u1 = α(u1 T Au1 ) =
α0 = 0.

Por lo tanto U1 es un subespacio de M2 (R).

b) Calcule bases y dimensión de U1 , U2 y U1 ∩ U2 .

Solución:
 
a b
A= c d
∈ U1 si a − c − b + d = 0.
   
 
0 1 0 0
1 0
Por lo tanto U1 = Gen{ , 0 1 , 1 1 }.
0 −1
     
1 0 0 1 0 0
La dimensión de U1 es 3 pues { 0 −1 , 0 1 , 1 1 } es
L.I.
   
1 0 0 1 0 0
0 1 0 0 1 0
∼ .
   
 0 0 1 0 0 1
−1 1 1 0 0 0
 
a b
A= c d
∈ U2 si 4a + 2b + 2c + d = 0.
     
0 1 1 0 0 0
Por lo tanto U2 = Gen{ , 0 −2 , 0 −4 1 −2
}.
     
1 0 0 1 0 0
La dimensión de U2 es 3 pues { 0 −4 , 0 −2
, 1 −2 }
es L.I.
   
1 0 0 1 0 0
0 1 0 0 1 0
∼ .
   
 0 0 1 0 0 1
−4 −2 −2 0 0 0

Para buscar una base de U1 ∩ U2 se considera la siguiente matriz


de vectores coordenados con respecto a la base canónica:
 
1 0 0 1 0 0
 0 1 0 0 1 0 
 0 0 1 0 0 1 
−1 1 1 −4 −2 −2
 
1 0 0 0 −1 −1
0 1 0 0 1 0
∼
 
0 0 1 0 0 1 
0 0 0 1 1 1

Por lo tanto el Nul = Gen{(1, 0, −1, −1, 0, 1)T , (1, −1, 0, −1, 1, 0)T }
  
1 −11 0
Finalmente U1 ∩ U2 = Gen{ , 0 −2 }
−1 −2
   
1 0 1 −1
La dimensión de U1 ∩U2 es 2 pues { −1 −2 , 0 −2 } es L.I.
   
1 1 1 0
0 −1 0 1
∼ .
   
 −1 0 0 0
−2 −2 0 0
Capı́tulo 6

Transformaciones lineales

Definición 6.1. Sean V y W espacios vectoriales. T : V → W es una


transformación lineal si T (v1 + v2 ) = T (v1 ) + T (v2 ) y T (αv) = αT (v).
Ejemplo 6.2.
Proposición 6.3. Sean V y W espacios vectoriales y T : V → W una
transformación lineal. Entonces
T (0~V ) = 0~W .

T (−v) = −T (v).
Demostración:

Observación 6.4. Si B es una base de V , entonces T queda determinada


por cómo actúa sobre la base.
Demostración:

Definición 6.5. Sean V y W espacios vectoriales y T : V → W una trans-


formación lineal.
−→
Nul(T ) = {v ∈ V : T (v) = 0W } .

Im(T ) = {w ∈ W : ∃v ∈ V : T (v) = w} .

59
Ejemplo 6.6.
Proposición 6.7. Sean V y W espacios vectoriales y T : V → W una
transformación lineal.
Nul(T ) es un subespacio de V y su dimensión se dice la nulidad de T .
Im(T es un subespacio de W y su dimensión se dice el rango de T .
Demostración:

Ejemplo 6.8.
Observación 6.9. Si B es una base de V , entonces Gen T (B) = Im(T ).
Ejemplo 6.10.
Definición 6.11. Sean V y W espacios vectoriales y T : V → W una
transformación lineal.
Si T es inyectiva se dice que es un monomorfismo.
Si T es sobre se dice que es un epimorfismo.
Si T es inyectiva y sobre se dice que es un isomorfismo y se denota por
V ∼= W.
Teorema 6.12. Sean V y W espacios vectoriales y T : V → W una trans-
formación lineal.
T es inyectiva si y sólo si Nul(T ) = {0~V }.
T es sobre si y sólo si Im(T ) = W .
Demostración:

Ejemplo 6.13.
Proposición 6.14. Sean V y W espacios vectoriales y T : V → W una
transformación lineal. Si T es inyectiva y S ⊂ V es L.I., entonces T (S) es
L.I.
Demostración:

Teorema 6.15. Sean V y W espacios vectoriales y T : V → W una trans-


formación lineal. Entonces

Dim Nul(T ) + Dim Im(T ) = Dim(V ).

Ejemplo 6.16.
Ejemplo 6.17. Finales

1. Sea T : V → W una transformación lineal. Demuestre

a) Si T es inyectiva, entonces Dim V ≤ Dim W


b) Si T es sobreyectiva, entonces Dim W ≤ Dim V

2. Sean V de dimensión 3 y W de dimensión 4 espacios vectoriales tal que


V = Gen{v1 , v2 , v3 } y W = Gen{w1 , w2 , w3 , w4 }. Sea T : V → W lineal
tal que
T (v1 − v3 ) = w1 + w2
T (v1 − v2 − v3 ) = w1 + w3
T (v1 − v2 − 2v3 ) = w1 + w4
¿Es T es 1-1 ? ¿Es T sobre? Justifique.

3. Sea T : P3 (R) → P2 (R) una transformación lineal dada por


T (p(x)) = p00 (1) + p0 (1)x + p(1)x2
Calcule bases para Nul(T ) e Im(T ).

Solución:

Del enunciado, T (a + bx + cx2 + dx3 ) = (2c + 6d) + (b + 2c + 3d)x +


(a + b + c + d)x2 .

Luego la matriz de T con respecto a las bases canónicas es:


" #
0 0 2 6
0 1 2 3
1 1 1 1
" #
1 0 0 1
∼ 0 1 0 −3
0 0 1 3

Luego Nul(T ) = Gen{1 − 3x + 3x2 − x3 }.

Dado que es un polinomio, se tiene que {1 − 3x + 3x2 − x3 } es L.I. y


por lo tanto una base de Nul(T ).

Im(T ) = Gen{x, x + x2 , 2 + 2x + x2 }.

De las columnas pivote de la F.E. de la matriz anterior, se tiene que


{x, x + x2 , 2 + 2x + x2 } es L.I. y por lo tanto una base de Im(T ).

(Otra manera es decir que como el Nul tiene dimensión 1 y P3 (R) tiene
dimensión 4, entonces por teorema, Im(T ) tiene dimensión 3, y como
es subespacio de P2 (R) de dimensión 3, entonces P2 (R) = Im(T ) y por
lo tanto una base es {1, x, x2 }).
Capı́tulo 7

Valores y vectores propios


 
1 1
Observación 7.1. Dada la matriz A = , supongamos que define
0 1/2
una transformación lineal T : R2 → R2 dada por T (u) = Au.

Si un objeto se encuentra en la posición del plano dada por el vector u0 ,


se puede hablar del movimiento de este objeto en el plano dando su posición
uk = Ak u0 en el tiempo k. 
3
Por ejemplo si u0 = es la posición inicial de un objeto en el plano,
5
entonces la posición en la unidad de tiempo k -ésima es
 
k 3
| · .{z
uk = A u0 = A . . · A}
5
.
k veces
     
8 21/2 47/4
Ası́ u1 = , u2 = , u3 = , etc.
5/2 5/4 5/8
Pero la matriz A que define a T tiene una particularidad:
       
1 1 2 2
A =1 yA = 1/2 .
0 0 −1 −1
Entonces:
       
k 1 k 1 k 2 k 2
A = (1) yA = (1/2) .
0 0 −1 −1

63
¿De qué sirve que la matriz A tenga esa particularidad?
     
3 1 2
Usamos que = 13 −5 .
5 0 −1
Si multiplicamos por Ak queda:
     
k 3 k 1 k 2
A = 13A − 5A .
5 0 −1
Reemplazando la particularidad se tiene que:
     
k 3 1 k 2
A = 13 − 5(1/2) .
5 0 −1
Luego la posición en el tiempo k- ésimo está dada por:
   
1 k 2
uk = 13 − 5(1/2) .
0 −1
Podemos entonces
  preguntar
  qué  pasa
 si k tiende a infinito, es decir:
13 0 13
lı́m uk = + = .
k→∞ 0 0 0

¿Qué significa esa particularidad ?

¿Cómo saber si una matriz tiene esa particularidad ?

Definición 7.2. Sea A de n × n, v 6= ~0 es un vector propio de A si existe


λ ∈ R tal que Av = λv. Se dice que λ es el valor propio de A asociado
a v. Notamos que v 6= 0̃ pues A~0 = λ~0 para todo λ ∈ R y no es ninguna
particularidad.

Ejemplo 7.3.

Observación 7.4. Dada una matriz cuadrada, ¿cómo obtener los valores y
vectores propios (si es que existen). En la definición se necesita que:
Av = λv

Av − λv = ~0

Av − λI v = ~0

(A − λI) v = ~0

v ∈ Nul(A − λI)

(A − λI) es no invertible

Det(A − λI) = 0

Proposición 7.5. Sea A de n×n. λ es valor propio de A si y sólo si |A−λI| =


0.
 
1 1
Ejemplo 7.6. A= .
0 1/2

Para obtener valores propios queremos que Det(A − λI) = 0.


 
1−λ 1
Se resuelve Det = (1 − λ)(1/2 − λ) = 0.
0 1/2 − λ

Los valores propios son {1, 1/2}.

Los vectores propios para λ = 1 son v ∈ Nul(A − (1)I).


   
0 1 α
Como A − (1)I = , luego v = con α ∈ R.
0 −1/2 0

Los vectores propios para λ = 1/2 son v ∈ Nul(A − (1/2)I).


   
1/2 1 −2β
Como A − (1/2)I = , luego v = con β ∈ R.
0 0 β
 
1 0
A= .
0 1

Para obtener valores propios queremos que Det(A − λI) = 0.


 
1−λ 0
Se resuelve Det = (1 − λ)2 = 0.
0 1−λ

Los valores propios son {1}.

Los vectores propios para λ = 1 son v ∈ Nul(A − (1)I).


   
0 0 α
Como A − (1)I = , luego v = con α, β ∈ R.
0 0 β
 
0 0
A= .
0 0

Para obtener valores propios queremos que Det(A − λI) = 0.


 
−λ 0
Se resuelve Det = (−λ)2 = 0.
0 −λ

Los valores propios son {0}.

Los vectores propios para λ = 0 son v ∈ Nul(A − (0)I).


   
0 0 α
Como A − (0)I = , luego v = con α, β ∈ R.
0 0 β
 
1 0 1
A =  0 0 0 .
1 0 1

Para obtener valores propios queremos que Det(A − λI) = 0.


 
1−λ 0 1
Se resuelve Det  0 −λ 0  = (−λ)(λ2 − 2λ) = 0.
1 0 1−λ

Los valores propios son {0, 2}.

Los vectores propios para λ = 0 son v ∈ Nul(A − (0)I).


   
1 0 1 −α
Como A − (0)I =  0 0 0 , luego v =  β  con α, β ∈ R.
1 0 1 α

Los vectores propios para λ = 2 son v ∈ Nul(A − (2)I).


   
−1 0 1 γ
Como A − (2)I =  0 −2 0 , luego v =
  0  con γ ∈ R.
1 0 −1 γ
 
2 1 0
A =  0 2 0 .
0 0 3

Para obtener valores propios queremos que Det(A − λI) = 0.


 
2−λ 1 0
Se resuelve Det  0 2−λ 0  = (2 − λ)2 (3 − λ) = 0.
0 0 3−λ

Los valores propios son {2, 3}.

Los vectores propios para λ = 2 son v ∈ Nul(A − (2)I).


   
0 1 0 α
Como A − (2)I =  0 0 0 , luego v =  0  con α ∈ R.
0 0 1 0

Los vectores propios para λ = 3 son v ∈ Nul(A − (3)I).


   
−1 1 0 0
Como A − (3)I =  0 −1 0 , luego v =
  0  con γ ∈ R.
0 0 0 γ

Matriz Valores propios Vectores propios Cantidad de vectores propios L.I.

   
1 0 α
{1} 2
0 1 β

   
0 0 α
{0} 2
0 0 β

     
1 0 1 −α γ
 0 0 0  {0, 2}  β , 0  3
1 0 1 α γ

     
2 1 0 α 0
 0 2 0  {2, 3}  0 , 0  2
0 0 3 0 γ

Definición 7.7. Sea A de n×n. La ecuación caracterı́stica de A es |A−xI| =


0. La multiplicidad algebraica de λ, valor propio, es la multiplicidad como
raı́z de |A − xI| = 0. (m.a.)
Observación 7.8. Sea A de n × n. Si v1 y v2 son vectores propios asociados
al valor propio λ, y α ∈ R, entonces αv1 y v1 + v2 son vectores propios
asociados a λ.
Ejemplo 7.9.
Definición 7.10. Sea A de n × n y λ un valor propio de A. Eλ = {v ∈
Rn : Av = λv} es el espacio propio asociado a λ. La dimensión de Eλ es la
multiplicidad geométrica de λ.(m.g.). Eλ = Nul(A − λI).
Ejemplo 7.11.
Proposición 7.12. Sea A de n × n. Entonces

1 ≤ m.g. ≤ m.a. ≤ n

A tiene a lo más n valores propios.

Si A es diagonal, entonces los valores propios de A son los elementos


de su diagonal.

Si A es triangular superior o inferior, entonces los valores propios de A


son los elementos de su diagonal.

A es no invertible si y sólo si 0 es valor propio de A. ( Esto NO significa


que una matriz no invertible  no pueda
 tener valores propios destintos
1 0
de cero. Por ejemplo A = ).
0 0

Si λ es valor propio de A, entonces λm es valor propio de Am , para


m ∈ N.

Si λ es valor propio de A y A es invertible, entonces λ−1 es valor propio


de A−1 .

Los valores propios de una matriz son los mismos que los de su trans-
puesta. Esto es porque Det(A − λI) = Det(AT − λI). Esto NO significa
que los vectores propios son los mismos. Por ejemplo:

Matriz Valores propios Vectores propios

     
1 1 1 1
A= {1, 2} E1 = Gen , E2 = Gen
0 2 0 1

     
T 1 0 1 0
A {1, 2} E1 = Gen , E2 = Gen
1 2 −1 1
Si u es vector propio asociado al valor propio λ1 y v es vector propio
asociado al valor propio λ2 , entonces {u, v} es L.I.

Si λ1 y λ2 son dos valores propios distintos de A, entonces Eλ1 ∩ Eλ2 =


{~0}.

Existen
 matrices
 que NO tiene valores propios reales. Por ejemplo
0 1
A= pues su ecuación caracterı́stica es λ2 + 1 = 0.
−1 0

Las siguientes expresiones de un determinante son iguales:

Det(P −1 AP − λI)
Det(P −1 A P − λP −1 I P )
Det(P −1 (A − λI)P ) .
−1
Det(P ) Det(A − λI) Det(P )
Det(A − λI) Det(P −1 ) Det(P )
Det(A − λI)

Definición 7.13. Dos matrices A y B se dicen similares si existe una ma-


triz P invertible tal que P −1 AP = B. Si dos matrices son similares entonces
tienen la misma ecuación caracterı́stica y los mismos valores propios.
   
3 3 −1 −1 2 1
Por ejemplo B = = P AP = P P
0 2 0 3
   
1 2 −1 3 −2
con P = yP = .
1 3 −1 1
Por lo tanto A y B son similares.
   
2 0 −1 −1 2 1
Pero también D = = P AP = P P
0 3 0 3
   
1 1 1 −1
con P = y P −1 = .
0 1 0 1
Por lo tanto A y D son similares.
Proposición 7.14. Si A y B son similares, entonces tienen los mismos
valores propios (tienen la misma ecuación caracterı́stica). Si L es tal que
L−1 AL = B y v es vector propio de B asociado a λ, entonces Lv es vector
propio de A asociado a λ.

Definición 7.15. Una matriz cuadrada A (o transformación lineal T ) es


diagonalizable si y sólo si es similar a una matriz diagonal.

Ejemplo 7.16.

Observación 7.17. Dada una matriz A si queremos que exista una matriz
P invertible tal que P −1 AP sea igual a una matriz diagonal D, entonces

AP = P D
Si P tiene columnas vj y D tiene elementos λj en la diagonal entonces:
 
λ1
A [v1 · · · vn ] = [v1 · · · vn ] 
 .. 
. 
λn
Multiplicando se tiene:

[Av1 · · · Avn ] = [λ1 v1 · · · λn vn ]

 que {v
Lo que se traduce en  1 , · · · , vn } es una base de vectores
 propios.

1 1 1 1
Por ejemplo A = es diagonalizable con P = y D =
  0 2 0 1
1 0
.
0 2

Proposición 7.18. Si A y B son similares, entonces A es diagonalizable si


y sólo si B es diagonalizable.

Teorema 7.19. A es diagonalizable


P si y sólo si existen n vectores propios
P
L.I. de A. (Es decir cuando m.g = m.a. = n).

Ejemplo 7.20.

Corolario 7.21. Si A tiene n valores propios distintos, entonces A es diago-


nalizable.
Ejemplo 7.22.

Observación 7.23. Si A es diagonalizable, entonces Am es diagonalizable,


para todo m ∈ N.

Ejemplo 7.24.
k k
Observación
 7.25.Si A es tal que Au = λu, entonces A u = λ u. Luego
lı́m Ak u = lı́m λk u.
k→∞ k→∞

Observación 7.26. Si Av = λv, entonces lı́m Ak v =


k→∞

0 si |λ| < 1,

v si λ = 1,

no existe si |λ| > 1.

Ejemplo 7.27.

Definición 7.28. Dado un polinomio q(x) = a0 + a1 x + . . . + am xm y A


matriz cuadrada, se define a q(A) como la matriz a0 I + a1 A + . . . + am Am .

Ejemplo 7.29.

Observación 7.30. Dado un polinomio q(x) = a0 + a1 x + . . . + am xm y D


matriz diagonal, se tiene que q(D) es la matriz diagonal cuya diagonal se
forma con los elementos de la diagonal de D evaluados en q(x).

Demostración:

Ejemplo 7.31.

Teorema 7.32. Sea A matriz cuadrada y q(x) = Det(xI −A), entonces q(A)
es la matriz nula.

Ejemplo 7.33.

Observación 7.34. Sea A es diagonalizable y q(x) un polinomio. Entonces


 d 0 ... 0
  q(d ) 0 ... 0

1 1
 0 d2 0  −1  0 q(d2 ) 0  −1
A = L .. L → q(A) = L  .. L
. .
0 0 ... dn 0 0 ... q(dn )

 d 0 ... 0
  ed1 0 . . . 0

1
d
 0 d2 0  −1  0 e2 0  −1
A = L .. L → eA = L  .. L
. .
0 0 ... dn 0 0 ... edn

Ejemplo 7.35. Finales

1. Sea A de n × n tal que A8 = 7A7 . Pruebe que si 7 no es valor propio


de A, entonces A es singular.

 
a a−1
2. Demuestre que la matriz es diagonalizable si y sólo si
a+1 a
|a| > 1
3. Sea {xn } una sucesión de números reales tal que 5xn+1 = 6xn − xn−1 .
Calcule el lı́m xn .
n→∞

Solución:

Matricialmente queda
    
xn+1 6/5 −1/5 xn
xn
= 1 0 xn−1
.
 n  
6/5 −1/5 x1
= 1 0 x0
.

Polinomio caracterı́stico de la matriz: (x − 1/5)(x − 1).

Valores propios: 1/5, 1.

E1 = Gen{(1, 1)T }.
E1/5 = Gen(1, 5)T }.

L−1 AL = D → A = LDL−1 → An = LDn L−1 .


 
1 1
L= 1 5
.
 
−1 5/4 −1/4
L = −1/4 1/4
.
 
1 0
D= 0 1/5
.
   
n 1 0 −1 5/4 −1/4
Entonces lı́m A = L 0 0
L = 5/4 −1/4
.
n→∞

5x1 − x0
Entonces lı́m xn = .
n→∞ 4
" # " #
1 2
4. Sea A una matriz de 3×3 tal que A 2 = 4 y la forma escalonada
3 6
" #
1 0 −1
reducida de A es 0 0 0 .
0 0 0
Calcule eA .

Solución:

De la escalonada reducida Nul(A) = Gen{(0, 1, 0)T , (1, 0, 1)T }.

Por lo tanto 0 es un valor propio de A con m.g. = 2.

Además A(1, 2, 3)T = 2(1, 2, 3)T .

Por lo tanto 2 es un valor propio de A con m.g. = 1. (no puede ser


mayor pues la matriz es de 3 × 3).
La diagonalización queda:
" #
0 1 1
L= 1 0 2 .
0 1 3
" #
0 0 0
D= 0 0 0 .
0 0 2
" #
1 1 −1
L−1 = 3/2 0 −1/2 .
−1/2 0 1/2
 
3 − e2 e2 − 1
0
−1 A D −1
 2 2 
A = LDL entonces e = Le L = 1 − e2 1 e2 − 1 .
3 − 3e2 3e2 − 1
 
0
2 2
Capı́tulo 8

Ortogonalidad

Definición 8.1. Dados u, v ∈ V , u es ortogonal a v si u · v = 0.


Notación: u ⊥ v.

{u1 , . . . , um } ⊂ V es ortogonal si el conjunto no contiene a ~0 y ui ·uj = 0


para todo i 6= j

{u1 , . . . , um } ⊂ V es ortonormal si el conjunto es ortogonal y ui · ui =


1, ∀i.
Ejemplo 8.2.
Observación 8.3. u ⊥ ~0, para todo u ∈ Rn .
Observación 8.4. Sea {u1 , . . . , um } ortogonal y u = α1 u1 + . . . + αm um ,
entonces
u · ui
αi =
ui · ui
Demostración:

Observación 8.5. Todo conjunto ortogonal es L.I., y por lo tanto una base
de su conjunto generado.
Definición 8.6. Dado U ≤ Rn , el ortogonal a U es U ⊥ = {w ∈ Rn : u · w =
0}.
Ejemplo 8.7.

77
Proposición 8.8. Sea S = {u1 , . . . , um } un conjunto de vectores en Rn y A
de n × m la matriz A = [u1 . . . um ]. Entonces

S es LI si y sólo si AT A es definida positiva.

S es ortogonal si y sólo si AT A es diagonal y definida positiva.

S es ortonormal si y sólo si AT A = I.

Demostración:

Ejemplo 8.9.

Proposición 8.10. Sea Rn con el producto punto usual.

Si {u1 , . . . , um } es una base de U , entonces U ⊥ = {w ∈ Rn : ui · w =


0 para i = 1, . . . , m}.
~0 ∈ U ⊥

U ⊥ es un subespacio de Rn .

{~0}⊥ = Rn .

Rn ⊥ = {~0}.

U⊥ = U

U ∩ U ⊥ = {~0}.

Sea {u1 , . . . , um } una base de U y A de n × m la matriz A = [u1 . . . um ].


Entonces U ⊥ = Nul(AT ).

Dado v ∈ Rn , existen únicos u ∈ U y w ∈ U ⊥ tal que v = u + w.

Si {u1 , . . . , um } es una base de U y A de n × m es la matriz A =


[u1 . . . um ], entonces u = Ax, donde x es tal que AT Ax = AT v.

Si {w1 , . . . , wr } es una base de U ⊥ y B de n × r es la matriz B =


[w1 . . . wr ], entonces w = By, donde y es tal que B T By = B T v.
Demostración:

Ejemplo 8.11.
Definición 8.12. Sea U subespacio de Rn y v ∈ Rn tal que u ∈ U y w ∈ U ⊥
donde v = u + w.
La proyección ortogonal sobre U es P : Rn → Rn , tal que P (v) = u.

La proyección ortogonal sobre U ⊥ es Q : Rn → Rn , tal que Q(v) = w.


Proposición 8.13. Sea U subespacio de Rn , P la proyección ortogonal sobre
U y Q la proyección ortogonal sobre U ⊥ . Entonces
P y Q son transformaciones lineales.

P + Q = I (como t.l.).

Nul(P ) = U ⊥ , Im(P ) = U .

Nul(Q) = U , Im(Q) = U ⊥ .

P 2 = P y Q2 = Q (como t.l.).

Si {u1 , . . . , um } es una base de U y A de n × m es la matriz A =


[u1 . . . um ], entonces la matriz de P con respecto a la base canónica es
P = A(AT A)−1 AT .

Si {w1 , . . . , wr } es una base de U ⊥ y B de n × r es la matriz B =


[w1 . . . wr ], entonces la matriz de Q con respecto a la base canónica es
Q = B(B T B)−1 B T .

P y Q son simétricas.

P 2 = P y Q2 = Q (como matrices).

P + Q = I (como matrices).

2P − I = R es matriz de reflexión, es simétrica y R2 = I.

P , Q y R son diagonalizables. Para P : E1 = U y E0 = U ⊥ . Para Q:


E1 = U ⊥ y E0 = U . Para R: E1 = U y E−1 = U ⊥ .
Demostración:

Ejemplo 8.14.
Observación 8.15. Descomposición QR.
Sea A = [v1 · · · vm ] una matriz con columnas L.I. El problema es encontrar
una matriz cuyas columnas formen un conjunto ortonormal que genere lo
mismo que las columnas de A, es decir se busca una matriz Q tal que:

Q = [u1 · · · um ], Im(Q) = Im(A) y QT Q = I.


Sea R la matriz cambio de base de m × m, es decir A = QR. Entonces

AT A = (QR)T QR = RT QT QR = RT IR = RT R.
Dado que A es inyectiva, luego AT A es definida positiva y basta tomar su
descomposición con raı́z cuadrada R. Obteniendo R se calcula Q = AR−1 .
Proposición 8.16. Gram Schmidt: Dado S = {v1 , . . . , vm } L.I., una base
ortogonal de < S > es {u1 , . . . , um }, donde:

u1 = v1
v2 · u1
u2 = v2 − u1
u1 · u1
v3 · u1 v3 · u2
u3 = v3 − u1 − u2
u1 · u1 u2 · u2
. . ..
     

 1 1 −1 

 0   0   0 
Ejemplo 8.17. Sea U = Gen  1  ,  2  ,  3  . Determine una
 
1 0 1
 
base ortonormal de U .

Solución:
 
1 1 −1
0 0 0
Sea A =  . Entonces
 
1 2 3
1 0 1
" #
3 3 3
AT A = 3 5 5
3 5 11
" √ #" √ √ √ #
√3 √0 0 3 √3 √3
= √3 √2 √0 0 2 √2 = RT R
3 2 6 0 0 6

" √ √ #
1/ 3 −1/√2 √0
Luego R−1 = 0 1/ 2 −1/√6 .
0 0 1/ 6
 √ √ 
1 3 0 −2 6
Entonces Q = 
 √0 √0 √0 .

1 √3 1√2 1√6
1 3 −1 2 1 6
 √     √ 
1 3 0 −2 6
Entonces U =< 
 √0 ,
  √0 ,
  √0 >

1√3 1√2 1 √6
1 3 −1 2 1 6

Proposición 8.18. Sea el sistema Ax = b inconsistente y x∗ tal que kAx∗ −bk


es mı́nima. Entonces x∗ es tal que Ax∗ es la proyección de b sobre Im(A).
Ejemplo 8.19.
Ejemplo 8.20. Finales

1. Determine la proyección de v = e1 − e3 + e4 + e5 ∈ R5 sobre el


hiperplano x1 − x2 + 3x4 − x5 = 0.

2. Determine la matriz de proyección sobre el hiperplano x1 − x2 + x4 = 0.

3. Sea U subespacio de R3 de dimensión 2 tal que


1 1
PU (e1 ) = (2e1 + e2 − e3 ) PU (e2 ) = (e1 + 2e2 + e3 )
3 3

Determine la matriz de proyección sobre U .

4. Encuentre min (x − 3)2 + (2y − 1)2 + (z + 5)2 usando proyecciones


x−y−2z=2
5. Sea U el hiperplano en R4 , dado por la ecuación 2x1 −x2 +x3 −2x4 = 0.
Calcule bases de U y de U ⊥ . Calcule la proyección de v = (2, −1, 3, 0)T
sobre U y sobre U ⊥ . Calcule la matriz de proyección sobre U y sobre U ⊥ .

Solución:

Base de U : {(1, 0, −2, 0)T , (0, 1, 1, 0)T , (0, 0, 2, 1)T }.

Base de U ⊥ : {(2, −1, 1, −2)T }.


 
4 −2 2 −4
1  −2 1 −1 2
Matriz de proyección sobre U ⊥ : Q = .

10
 2 −1 1 −2
−4 2 −2 4

Usando P + Q = I.
 
6 2 −2 4
1  2 9 1 −2
Matriz de proyección sobre U : P = .

10
 −2 1 9 2
4 −2 2 6

Proyección de v sobre U : P v, proyección de v sobre U ⊥ : Qv.

1
Pv = (4, −2, 22, 16)T .
10
1
Qv = (16, −8, 8, −16)T .
10

6. Sea U subespacio de Rn , P matriz de proyección sobre U y Q matriz


de proyección sobre U ⊥ . Demuestre que P Q es la matriz nula.
Solución:

Manera 1:
Sea A tal que sus columnas forman una base de U . Entonces P =
A(AT A)−1 AT .

Sea B tal que sus columnas forman una base de U ⊥ . Entonces Q =


B(B T B)−1 B T .

Entonces P Q = A(AT A)−1 AT B(B T B)−1 B T .

Pero AT B es la matriz nula, pues las filas de AT son ortogonales a las


columnas de B.

Entonces P Q = 0.

Manera 2:

Sea {u1 , . . . , um } una base de U .

Sea {w1 , . . . , wr } una base de U ⊥ .

Entonces si x ∈ Rn , x = α1 u1 + . . . + αn um + β1 w1 + . . . + βr wr .

P Qx = P Q(α1 u1 + . . . + αn um + β1 w1 + . . . + βr wr ) = P (~0 + β1 w1 +
. . . + βr wr ) = ~0.

Luego P Qx = ~0 para todo x ∈ Rn , entonces P Q es la matriz nula.

 
6/7 −2/7 1/7 1/7
 −2/7 3/7 2/7 2/7 
7. Sea P =   matriz de proyección sobre
 1/7 2/7 6/7 −1/7 
1/7 2/7 −1/7 6/7
4
U ≤ R . Determine una base de U y de U ⊥.

Solución:
 
1 0 0 1
 0 1 0 2 
P ∼ .
 0 0 1 −1 
0 0 0 0

Im(P ) = C(P ) = U .

Entonces U = Gen{(1, 0, 0, 1)T , (0, 1, 0, 2)T , (0, 0, 1, −1)T }.

O bien U = Gen{(6/7, −2/7, 1/7, 1/7)T , (−2/7, 3/7, 2/7, 2/7)T , (1/7, 2/7, 6/7, −1/7)T }.

Nul(P ) = U ⊥ .

Entonces U ⊥ = Gen{(−1, −2, 1, 1)T }.


Capı́tulo 9

Matrices Simétricas

Definición 9.1. Una matriz U de n × n es ortogonal si U T U = I.

Ejemplo 9.2.

Teorema 9.3. Sea P de n × n. Entonces las siguientes proposiciones son


equivalentes:

U es ortogonal.

kU xk = kxk, para todo x ∈ Rn .

U x · U y = x · y, para todo x, y ∈ Rn .

Si {v1 , . . . , vm } es ortonormal, entonces {U v1 , . . . , U vm } es ortonormal.

Demostración:

Ejemplo 9.4.

Proposición 9.5. Sea A simétrica. Entonces

A tiene sólo valores propios reales.

Si λ1 y λ2 son dos valores propios distintos de A tal que v1 ∈ Eλ1 y


v2 ∈ Eλ2 , entonces v1 · v2 = 0.

Demostración:

85


Ejemplo 9.6.

Definición 9.7. Una matriz A se dice ortogonalmente diagonalizable si exis-


te U ortogonal y D diagonal, tal que U T AU = D.

Ejemplo 9.8.

Teorema 9.9. A es simétrica si y sólo si A es ortogonalmente diagonalizable.

Ejemplo 9.10.

Corolario 9.11. A simétrica es definida positiva si y sólo si todos sus valores


propios son positivos.

Demostración:

Ejemplo 9.12.

Definición 9.13. Si A es simétrica y v1 , . . . , vn son vectores propios (ortonor-


males) asociados a los valores propios λ1 , . . . , λn , entonces la descomposición
espectral de A es:
A = λ1 v1 v1T + . . . + λn vn vnT .

Ejemplo 9.14.

Observación 9.15. Si A es de n × m, se tiene que

1. Nul(AT A) = Nul(A).

2. Im(AT A) = Im(AT ).

Demostración:

Ejemplo 9.16.
Teorema 9.17. Sea A de n × m. Entonces existen V de m × m y U de n × n
matrices ortogonales tal que
 s 0

1
..
U T AV = 
 . 

0 sr
0 n×m

Observación 9.18. ¿Cómo obtener V ?

La matriz AT A es simétrica y semi definida positiva. Entonces existe V de


m × m matriz ortogonal tal que
 
d1
..

 . 

T T
 dr 
V A AV = 
 0

 con d1 ≥ d2 ≥ · · · ≥ dr > 0.
..
 
 . 
0 n×m

Sea V1 matriz de m × r que contiene vectores propios de valores propios no


nulos y V2 matriz de m × (m − r) que contiene los vectores propios del valor
propio 0. Entonces se tiene que:

V = [V1 V2 ].
Los vectores columna de V1 forman una base de Im(AT A) = Im(AT ).
Los vectores columna de V2 forman una base de Nul(AT A) = Nul(A).
 
d1
T
(AV1 ) (AV1 ) = D =  ..
. 
dr n×m

Observación 9.19. ¿Cómo obtener U ?


√ −1
Sea U1 de n × r la matriz U1 = AV1 D .

Sea U2 de n×(n−r) la matriz cuyas columnas completan una base ortogonal


con las columnas de U1 .

Entonces se considera U = [U1 U2 ].


Ejemplo 9.20. Finales
" #
2 0 1
1. Sea A = 0 1 0 Encuentre la descomposición espectral de A.
1 0 2
" #
4 1 1
2. Sea A = 1 4 1 . Determine la descomposición espectral de A.
1 1 4

Solución:

Valores propios: 3, 6.

E3 = Gen{(1, 0, −1)T , (0, 1, −1)T }.

E6 = Gen{(1, 1, 1)T }.

Bases ortonormales:

√ √ √ √ √
E3 = Gen{(1/ 2, 0, −1/ 2)T , (1/ 6, −2/ 6, 1/ 6)T }.

√ √ √
E6 = Gen{(1/ 3, 1/ 3, 1/ 3)T }.

Entonces la descomposición queda:


" # " # " #
1/2 0 −1/2 1/6 −2/6 1/6 1/3 1/3 1/3
A=3 0 0 0 +3 −2/6 4/6 −2/6 +6 1/3 1/3 1/3 .
−1/2 0 1/2 1/6 −2/6 1/6 1/3 1/3 1/3
 
1 0 −1
0 1 0
3. Sea A =  . Obterner la descomposición en valores singula-
 
1 0 −1
0 1 0
res de A.

Solución:
" #
2 0 −2
AT A = 0 2 0 con valores propios {4, 2, 0}.
−2 0 2

" # " # " #


1 0 1
E4 = Gen{ 0 }, E2 = Gen{ 1 } y E0 = Gen{ 0 }.
−1 0 1

" √ √ # " √ # " √ #


1/ 2 0 1/ 2 1/ 2 0 1/ 2
V = √0 1 √0 con V1 = √0 1 y V2 = √0 .
−1/ 2 0 1/ 2 −1/ 2 0 1/ 2

√ −1
   
4 0 1/2 √0
D= 0 2
y D = 0 1/ 2
.


Entonces los valores singulares de A son: {2, 2}.
 √   √ 
1/ 2 √0 1/ 2 √0
√ −1 
U1 = AV1 D =  √0 1/ 2
 y U2 = 
  √0 1/ 2
.

1/ 2 √0 −1/ 2 √0
0 1/ 2 0 −1/ 2

 √ √   
1/ 2 √0 1/ 2 √0 2 √0 0
U =
 √0 1/ 2 √0 1/ 2
 y entonces U T AV = 
  0 2 0
.

1/ 2 √0 −1/ 2 √0 0 0 0
0 1/ 2 0 −1/ 2 0 0 0

También podría gustarte