Está en la página 1de 124

Álgebra lineal

Ricardo A. Sáenz
Índice general

Capı́tulo 1. Espacios vectoriales 1


§1. Definiciones básicas 1
§2. Subespacios 4
§3. Suma directa 5
Capı́tulo 2. Transformaciones lineales 7
§1. Definiciones básicas 7
§2. Kernel e imagen 8
§3. Isomorfismos 10
Capı́tulo 3. La estructura de un espacio vectorial 13
§1. Combinaciones lineales 13
§2. Independencia lineal 14
§3. Bases y dimensión 18
Capı́tulo 4. La estructura de una transformación lineal 25
§1. La ecuación de dimensión 25
§2. Matrices 27
§3. Matriz de cambio de base 35
§4. Reducibilidad y espacios invariantes 39
§5. Eigenvectores y diagonalización 41
Capı́tulo 5. Determinantes 47
§1. Grupo de permutaciones 47
§2. Determinante de una matriz 50

iii
iv Índice general

§3. Polinomio caracterı́stico 58


Capı́tulo 6. Espacios con producto interno 65
§1. Geometrı́a de espacios vectoriales 65
§2. Bases ortonormales 70
§3. Proyecciones ortogonales 77
§4. Método de minimos cuadrados 84
§5. Transformación adjunta 85
Capı́tulo 7. El teorema espectral 89
§1. Operadores Normales 89
§2. Teorema espectral 94
§3. Matrices reales 96
§4. Diagonalización mutua 98
Capı́tulo 8. Formas bilineales y cuadráticas 101
Capı́tulo 9. Forma canónica de Jordan 107
§1. Polinomios de matrices y transformaciones 107
§2. Teorema de Cayley-Hamilton 108
§3. Triangularización 111
§4. Polinomio mı́nimo 112
§5. Forma canónica 113
Capı́tulo 1

Espacios vectoriales

1. Definiciones básicas
Definición 1. Un campo es un conjunto K con dos operaciones, + (suma)
y · (multiplicación), tales que satisfacen:
1. λ + (µ + υ) = (λ + µ) + υ; λ · (µ · υ) = (λ · µ) · υ, para todo λ, µ, υ ∈ K
(asociatividad).
2. λ + µ = µ + λ; λ · µ = µ · λ, para todo λ, µ ∈ K (conmutatividad).
3. Existen 0, 1 ∈ K, tales que λ + 0 = λ y λ · 1 = λ, para todo λ ∈ K
(elementos neutros).
4. Para todo λ ∈ K, existe único (−λ) ∈ K tal que: λ + (−λ) = 0;
para todo λ ∈ K, λ 6= 0, existe único λ−1 ∈ K tal que λ · λ−1 = 1
(elementos inversos).
5. λ · (µ + υ) = λ · µ + λ · υ, para todo λ, µ, υ ∈ K (distributividad).

Ejemplos:
1. Q, R, C son ejemplos de campos.
2. K = {0, 1}.1
3. Funciones racionales sobre el campo de los números reales (R):
a0 + a1 x + .. + am xm
{ : bn 6= 0; ai , bi ∈ R; m, n ∈ N}
b0 + b1 x + .. + bn xn

1En este caso 1 es su propio inverso.

1
2 1. Espacios vectoriales

Proposición 1. Sea K un campo:


1. 0 · λ = 0, para todo λ ∈ K.
2. Si λ · µ = 0, entonces λ = 0 ó µ = 0.

Corolario 1. 0 6= 1.

Definición 2. Sea V un conjunto y + : V × V → V , · : K × V → V dos


operaciones. Decimos que V es un espacio vectorial sobre K si las operaciones
+ (suma) y · (multiplicación escalar) satisfacen:
1. u + (v + w) = (u + v) + w, para todo u, v, w ∈ V .
2. u + v = v + u, para todo u, v ∈ V .
3. Existe 0 ∈ V tal que u + 0 = u, para todo u ∈ V .
4. Para todo u ∈ V , existe (−u) ∈ V tal que: u + (−u) = 0.
5. Existe 1 ∈ V tal que 1 · u = u, para todo u ∈ V .
6. λ · (µ · u) = (λ · µ) · u, para todo λ, µ ∈ K y u ∈ V .
7. (λ + µ) · u = λ · u + µ · u, para todo λ, µ ∈ K y u ∈ V .
8. λ · (u + v) = λ · u + λ · v, para todo λ ∈ K y u, v ∈ V .
Los elementos en V se llaman vectores, y los de K se llaman escalares.

Ejemplos:
0. {0} sobre K. Tenemos 0 + 0 = 0 y λ · 0 = 0. Este es conocido como
el espacio trivial.
1. K sobre K, λ + u y λ · u son las mismas que en K.
2. K2 sobre K, dado por:
n λ o
2
K = : λ, µ ∈ K
µ

El más famoso es R2 , llamado el plano euclideano.


3. Kn sobre K, dado por:
u1
 
n  u2  o
K = u =  .  : u1 , u2 , .., un ∈ K .2
n  
 .. 
un
Rn es conocido como el espacio euclideano.

2No se debe interpretar la notación ui como la i-ésima potencia de u, sino como la i-ésima
entrada del vector u, se estarán utilizando ui y ui ambas para denotar lo mismo.
1. Definiciones básicas 3

4. C sobre R, dado por:


C = {a + bi : a, b ∈ R; i2 = −1}.
 
a
Observación: a + bi ∼ , C sobre R y R2 sobre R son espacios
b
isomorfos.
5. Mmn (K), el espacio de las matrices de m × n sobre K, dado por:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
i
..  = (aij ) = (aj ),
 
 .. ..
 . . . 
am1 am2 · · · amn
para todo aij ∈ K. Mn (K) representa a las matrices de n × n.
Observación: Mmn (K) ∼
= Kmn , son espacios isomorfos.
6. P, el espacio de los polinomios sobre R:
P = {a0 + a1 x + .. + an xn : a0 , a1 , .., an ∈ R, n ∈ N}
Pn denota el espacio de todos los polinomios de grado menor a n:
Pn = {a0 + a1 x + .. + an−1 xn−1 : a0 , a1 , .., an−1 ∈ R}.
 
a0
 a1 
Observación: a0 + a1 x + .. + an−1 xn−1 ∼  . . Pn ∼ = Rn , son
 
 .. 
an−1
espacios isomorfos.
7. C(R), el espacio de las funciones continuas en R sobre R. Con:
(f + g)(x) = f (x) + g(x), y (λf )(x) = λ · f (x). Entonces C([0, 1])
representa al espacio de las funciones continuas en [0, 1], y C 1 ([0, 1])
al espacio de funciones diferenciables, con primera derivada conti-
nua en [0, 1].
8. V sobre R, donde:
n x o
V = ∈ R2 : x = y; x, y ∈ R .
y
 
x
Observación: ∼ x, V sobre R y R sobre R son espacios iso-
x
morfos.
9. Si U y V son espacios vectoriales sobre K, definimos:
U × V = {(u, v) : u ∈ U, v ∈ V },
con
(u1 , v1 ) + (u2 , v2 ) = (u1 + u2 , v1 + v2 ),
4 1. Espacios vectoriales

con tres sumas distintas (en U , V y U × V ) y,


λ · (u, v) = (λu, λv).
U × V es llamado el producto
 directo.
x
Observación: (x, y) ∼ , K × K y K2 son espacios isomorfos.
y
10. V sobre R, dado por:
 
n x 2x − y + z = 0 o
V =  y  ∈ R3 : .
4x − 2y + 2z = 0
z
         
x1 x2 x1 x2 x1 + x2
Si  y1 ,  y2  ∈ V ,  y1  +  y2  =  y1 + y2 . Esto porque
z1 z2 z1 z2 z1 + z2
2(x1 +x2 )−(y1 +y2 )+(z1 +z2 ) = (2x1 −y1 +z1 )+(2x2 −y2 +z2 ) = 0+0 = 0.
     
x x λx
Si λ ∈ R y y  ∈ V , λ y  = λy  ∈ V . Esto porque
z z λz
4(λx) − 2(λy) + 2(λz) = λ(4x) − λ(2y) + λ(2z) = λ(4x − 2y + 2z) = λ · 0 = 0.

2. Subespacios
Definición 3. Sea V un espacio vectorial. Decimos que U ⊂ V es un sub-
espacio de V, si U forma un espacio vectorial con la restricción de las ope-
raciones de V a U . Definimos: +\U : U × U → U , y ·\U : K × U → U .
Proposición 2. Sea V un espacio vectorial y U ⊂ V . Entonces si u, v ∈ U
y λ ∈ K, u + v ∈ U y λu ∈ U , U es subespacio de V .
0 0
Demostración. Escribimos + = +\U y · = ·\U . Entonces:
0 0 0 0
1. u+ (v + w) = u+(v +w) = (u+v)+w = (u+ v)+ w, ∀u, v, w ∈ U .
0 0
2. Para u, v ∈ U , u + v = u + v = v + u = v + u.
0 0
3. u ∈ U , entonces: u + 0 = u + 0 = u, y 0 · u = 0.
4. Si u ∈ U , entonces (−1)u = −u ∈ U ,
u + (−1)u = 1 · u + (−1)u = (1 − 1)u = 0 · u = 0.
0 0 0 0
5. λ · (µ · u) = λ · (µ · u) = λ · (µ · u) = (λµ) · u = (λµ) · u.
0 0 0 0 0 0 0
6. (λ + µ) · u = (λ + µ) · u = λ · u + µ · u = λ · u + µ · u = λ · u + µ · u.
0 0 0 0 0
7. λ · (u + v) = λ · (u + v) = λ · (u + v) = λ · u + λ · v = λ · u + λ · v =
0 0 0
λ · u + λ · v.

3. Suma directa 5

Ejemplos:
n x o
1. X ⊂ R2 , X =“eje x”= :x∈R .
0
2. P ⊂ C(R), P es subespacio de C(R).
3. S ⊂ R3 :
 
n x 2x − y = 0 o
S=  y  ∈ R3 : x + y + z = 0 .
z y−z =0
S es un subespacio de R3 .
4. S ⊂ R2 :
n x o
S= ∈ R2 : 2x − 3y = 2 .
y
 
0
Como ∈
/ S, S no es un subespacio vectorial.
0
5. S ⊂ R2 :
n x o
S= ∈ R2 : x3 = y 3 .
y
S si forma un subespacio de R2 .
6. S ⊂ C2 :
n x o
S= ∈ C2 : x3 = y 3 .
y

       
1 1 1 3 1 1
Si , ∈ S, con w = − 2 + 2 i, luego + =
1 w 1 w
 
2
/ S. Por lo tanto S no es un subespacio de C2 .

1+w
7. M ⊂ M3 (R), M representa al conjunto de todos los “cuadrados
mágicos”, dados por:
  a11 + a12 + a13 = s, a11 + a21 + a31 =s
a11 a12 a13
a21 a22 a23  ∈ M3 : a21 + a22 + a23 = s, a12 + a22 + a32 =s o
n
.
a31 + a32 + a33 = s, a13 + a23 + a33 =s
a31 a32 a33
a11 + a22 + a33 = s, a13 + a22 + a31 =s
M es un subespacio vectorial de M3 (R).

3. Suma directa
Definición 4. Sea V un espacio vectorial y U, W ⊂ V subespacios de V .
Decimos que V es la suma directa de U y W , y escribimos V = U ⊕ W , si
para cada v ∈ V existen únicos u ∈ U y w ∈ W tales que v = u + w.
6 1. Espacios vectoriales

Proposición 3. Sea V un espacio vectorial y U, W subespacios de V tales


que para cada v ∈ V existen u ∈ U y w ∈ W tales que v = u+w. V = U ⊕W
si, y sólo si, U ∩ W = {0}.

Demostración. (⇒). Suponemos V = U ⊕ W . Sea v ∈ U ∩ W . Tenemos:


v = v + 0 = 0 + v,
como la descomposición de v en la suma de un vector en U y uno en W es
única, v = 0.
(⇐). Ahora suponemos U ∩ W = {0} y u1 + w1 = u2 + w2 . Tenemos:
u1 − u2 = w2 − w1 ,
como U y W son subespacios, u1 − u2 ∈ U y w2 − w1 ∈ W , entonces
u1 − u2 ∈ U ∩ W y w2 − w1 ∈ U ∩ W , por lo tanto u1 − u2 = 0 y w2 − w1 = 0,
y entonces u1 = u2 , w1 = w2 . 

Ejemplos:
1. En R2 ,
n x o n x o
U= : x = y ,V = : x = −y .
y y
 
x
R2 = U ⊕ V . Sea ∈ R2 :
y
   x+y   x−y 
x 2 2
= x+y + x−y .
y 2 − 2
 
x
Si ∈ U ∩ V , entonces x = y y x = −y, luego x = y = 0.
y
2. En C(R), P es el conjunto de las funciones pares e I el conjunto
de las funciones impares, es decir:
P = {f ∈ C(R) : f (−x) = f (x)},
y tenemos que
I = {f ∈ C(R) : f (−x) = −f (x)}.
Entonces: C(R) = P ⊕ I. Si f ∈ P ∩ I, tenemos: f (−x) = f (x)
y f (−x) = −f (x), lo que implica que f (x) = −f (x) para todo x,
ası́ que f (x) = 0 para todo x. Por lo tanto f = 0.
Capı́tulo 2

Transformaciones
lineales

1. Definiciones básicas
Definición 5. Sean U y V espacios vectoriales sobre K y T : U → V .
Decimos que T es lineal si para todo u, v ∈ U , λ ∈ K:

a) T (u + v) = T u + T v; y
b) T (λu) = λ · T u.
Ejemplos:
0. T : U → V , T u = 0. Transformación trivial, T = O.
1. T : U → U , T u = u. Transformación identidad, T = id = U .
2. T : U → U , T u = mu, m ∈ K. Multiplicación escalar:

T (u + v) = m(u + v) = mu + mv = T u + T v,

y tenemos

T (λu) = m(λu) = (mλ)u = (λm)u = λ(mu) = λ · T u.


 
1 2
3. T : R2 → R3 . T x = Ax, A = 0 1:
1 3
 1
x + y 1 + 2(x2 + y 2 )

 1   1   1 1

x y x +y
T + 2 =T = x2 + y 2 ,
x2 y x2 + y 2 1 1 2 2
x + y + 3(x + y )

7
8 2. Transformaciones lineales

y tenemos
 1
x + 2x2
  1
y + 2y 2
  1
x + y 1 + 2x2 + 2y 2

 1  1
x y
T +T =  x2  +  y 2  =  x2 + y 2 .
x2 y2 1 2 1 2 1 2 1 2
x + 3x y + 3y x + 3x + y + 3y
 1   1   1  1
x y x y
Por lo tanto T + = T + T . De igual
x2 y2 x2 y2
  1   1
x x
forma T λ 2 =λ·T . Entonces T es lineal.
x x2
4. En general, si T : Rn → Rm , dada por T x = Ax, donde A es una
matrı́z de m × n, entonces T es lineal.
5. T : C 1 (R) → C(R), T f = f 0 . T es lineal.1

2. Kernel e imagen
Definición 6. Sea T : U → V una transformación lineal. Definimos:
a) El kernel de T por
n o
ker T = u ∈ U : T u = 0 ;
b) La imagen de T por
n o
im T = v ∈ V : ∃u ∈ U : T u = v .2

Ejemplos:
1. T = O:
· ker O = U .
· im O = {0}.
2. T = id:
· ker T = {0}.
· im T = U .  
1 2
3. T x = Ax, A = 0 1:
1 3
n x1 
 x1 + 2x2 = 0 o
· ker T = ∈ R2 : x2 = 0 = {0}.
x2
x + 3x2 = 0
1
 1
y 1 = x1 + 2x2 o n y1
 
n y o
· im T = y 2  ∈ R3 : y 2 = x2 =  y2  .
y3 y 3 = x1 + 3x2 y1 + y2
1Eso dicen en Cálculo.
2El kernel de T es llamado también núcleo de T , y la imagen de T es también conocida como
rango de T .
2. Kernel e imagen 9

4. T : C 1 (R) → C(R), T f = f 0 :
· ker T =“funciones constantes”.
· im T = C(R), por el Teorema Fundamental del Cálculo.
5. Pn =“polinomios de grado menor que n”. T : Pn → Pn−1 , T p = p0 :
· ker T = P1 = {a0 }.
· im T = Pn−1 .

Proposición 4. Si T : U → V es lineal, entonces ker T es subespacio de U ,


y im T es subespacio de V .

Demostración. Sean u1 , u2 ∈ ker T . T (u1 + u2 ) = T u1 + T u2 = 0 + 0 = 0.


Sea λ ∈ K, u ∈ ker T . T (λu) = λ · (T u) = λ · 0 = 0.
Sean v1 , v2 ∈ im T . Entonces existen u1 , u2 ∈ U tales que: T u1 = v1 ,
T u2 = v2 . Pero T (u1 + u2 ) = T u1 + T u2 = v1 + v2 ∈ im T . Sea λ ∈ K y
v ∈ im T . Tenemos u ∈ U tal que T u = v. Entonces: T (λu) = λ · (T u) =
λ · v ∈ im T . 

Definición 7. Sea T : U → V . Decimos que T es inyectiva3 si T u = T v


implica u = v. Decimos que T es sobreyectiva si im T = V .

Proposición 5. Sea T : U → V lineal. Entonces T es inyectiva si, y sólo


si, ker T = 0.

Demostración. (⇒). Sea T inyectiva. Sea u ∈ ker T , se demostrará que


u = 0. Tenemos T u = 0 = T (0), entonces u = 0, ya que T es inyectiva.
(⇐). Suponemos ker T = 0. Sean u, v ∈ U tales que T u = T v, se de-
mostrará que u = v. Si T u = T v, entonces T u − T v = 0. Como T es lineal:
T u − T v = T (u − v) = 0, es decir, u − v ∈ ker T . Pero ker T = 0, luego
u − v = 0. Por lo tanto u = v. 
 
1 2
Ejemplo: Sea T : R2 → R3 , dada por T x = Ax, donde A = 0 1.
1 3
· ker T = 0. Entonces T es inyectiva.
y1
 
n o
· im T =  y 2  : y 1 , y 2 ∈ R . T no es sobreyectiva ya que
y1 + y2
 
1
0 ∈ / im T , por lo tanto im T 6= R3 .
0

3O uno a uno.
10 2. Transformaciones lineales

3. Isomorfismos
Definición 8. Sea T : U → V lineal. T es un isomorfismo si es inyectiva y
sobreyectiva. Decimos que dos espacios vectoriales U y V son isomorfos, y
escribimos U ∼= V , si existe un isomorfismo T : U → V .

Ejemplos:
 
1 2
1. T : R2 → R3 , dada por T x = Ax, donde A = 0 1, no es un
1 3
isomorfismo.  1
2 x
2. Consideramos C sobre R, y T : R → C dada por T =
x2
x1+ ix2 . Como ker T = 0, T es inyectiva. Sea a + ib ∈ C, entonces
a
T = a + ib ∈ im T , esto implica C ⊂ im T y como im T ⊂ C
b
se concluye im T = C, luego T es sobre. Por lo tanto T es un
isomorfismo.  1
2 x
3. T : K → K × K, dada por T = (x1 , x2 ), es un isomorfismo.
x2
Luego K2 ∼ = K × K.
Observación. En general, Kn ∼ = K × K × ... × K.
 
a0
 a1 
4. T : R → Pn , dada por T  .  = a0 +a1 x+a2 x2 +...+an−1 xn ,
n  
 .. 
an−1
es un isomorfismo. Por lo tanto Rn ∼
= Pn .
5. Sea T : P → l0 (R), dada por
T (a0 + a1 x + ... + an xn ) = (a0 , a1 , a2 , ..., an , 0, 0, 0, ...),
donde P es el espacio de todos los polinomios y
l0 (R) = {(an ) : ∃N : an = 0, ∀n ≥ N }.
Tenemos que T es un isomorfismo, y por lo tanto P ∼= l0 (R).
   
a11 a12 a13 a11
6. T : M → R3 , dada por T a21 a22 a23  = a12 . Esto es un
a31 a32 a33 a13
isomorfismo porque    
n a11 a12 a13 0 o
· ker T = m = a21 a22 a23  ∈ M : T m = 0 = {0}.
a31 a32 a33 0
Luego T es inyectiva.
3. Isomorfismos 11

   1
n a11 a12 a13 x o
· im T = m = a21 a22 a23  ∈ M : T m = x2  .
a31 a32 a33 x3
T es sobre, ya que

x 1 x2 x3
  1
x
−2x1 +x2 +4x3 x1 +x2 +x3 4x1 +x2 −2x3 
T 
3 3 3 = x2  , s = x1 + x2 + x3 .

2x1 +2x2 −x3 2x1 −x2 +2x3 4x1 +x2 +x3 x3
3 3 s− 3
Por lo tanto T es un isomorfismo y se concluye que M ∼
= R3 .
Capı́tulo 3

La estructura de un
espacio vectorial

1. Combinaciones lineales
Definición 9. Sea V un espacio vectorial sobre K. Una combinación lineal
en V es una suma de la forma:
λ1 v1 + λ2 v2 + . . . + λn vn ,
donde λ1 , λ2 , . . . , λn ∈ K y v1 , v2 , . . . , vn ∈ V .
Definición 10. Sea S ⊂ V , S 6= φ. El espacio generado por S es el conjunto
de todas las combinaciones lineales en V con vectores en S, y se denota por
genS 1. Es decir:
genS = {λ1 v1 + λ2 v2 + . . . + λn vn : n ∈ N, λi ∈ K, ui ∈ S}.
Proposición 6. Si S ⊂ V , S 6= φ, entonces genS es un subespacio de V .

Demostración. Sean u, v ∈ genS. Entonces u = λ1 u1 + λ2 u2 + . . . + λn un ,


λi ∈ K, ui ∈ S y v = µ1 v1 + µ2 v2 + . . . + µm vm , µi ∈ K, vi ∈ S. Luego
u + v = λ1 u1 + λ2 u2 + . . . + λn un + µ1 v1 + µ2 v2 + . . . + µm vm , lo cual es
una combinación lineal de vectores en S. Entonces u + v ∈ S. Si λ ∈ K,
v ∈ genS, entonces v = µ1 v1 + µ2 v2 + . . . + µm vm , µi ∈ K, vi ∈ S, luego
λv = λ(µ1 v1 + µ2 v2 + . . . + µm vm ) = λµ1 v1 + λµ2 v2 + . . . + λµm vm , lo cual
es uan combinación lineal en S. Entonces λv ∈ S. 

1También se escribe spanS.

13
14 3. La estructura de un espacio vectorial

Ejemplos:
n  1 o n  1 o n x
1. S = 2
⊂ R , luego genS = λ :λ∈R = :x∈
1 1 x
o
R .
   
n 1 2 o
2. S =  0 , 1 ⊂ R3 , luego
 
1 3
     
n 1 2 o n y1
genS = λ1 0 + λ2 1 : λ1 , λ2 ∈ R =  y2  ∈
1 3 y1 + y2
o
R3 : y1 , y 2 ∈ R .
 
1 2
Observación: Si A = 0 1 y T : R2 → R3 dada por T x = Ax,
1 3
entonces genS = imT .
Proposición 7. Sea A una matriz de m × n, y T : Rn → Rm dada por
T x = Ax. Entonces imT es igual al espacio generado por las columnas de
A.

Demostración. Sean
 u1 , u2 , . . . , un ∈ Rm , las columnas de A. Es decir
A = u1 u2 . . . un . Entonces y ∈ imT si, y sólo si,
 1
x
  x2 

u1 u2 . . . un  .  = y,

.
 . 
xn
si, y sólo si, x1 u1 +x2 u2 +. . .+xn un = y si, y sólo si, y = gen{u1 , u2 , . . . , un }.


2. Independencia lineal
Definición 11. Sea V un espacio vectorial sobre K y u1 , u2 , . . . , un ∈ V . De-
cimos que u1 , . . . , un son linealmente dependientes si existen λ1 , λ2 , . . . , λn ∈
K, no todos cero, tales que:
λ1 u1 + λ2 u2 + . . . + λn un = 0.
Es decir, existe una combinación lineal no trivial de los ui que sea igual
a cero. En caso contrario, decimos que son linealmente independientes. Es
decir, u1 , u2 , . . . , un ∈ V son independientes si
λ1 u1 + λ2 u2 + . . . + λn un = 0,
2. Independencia lineal 15

implica λ1 = λ2 = . . . = λn = 0.

Ejemplos:
     
1 1 1
1. 0 , 2 , 1; son linealmente dependientes, porque
1 1 1
       
1 1 1 0
1 0 + 1 2 + (−2) 1 = 0 .
1 1 1 0
     
1 1 1
2. 0 , 2 , 0; son linealmente independientes, porque
1 1 0
       
1 1 1 0 λ1 + λ2 + λ3 = 0 λ1 = 0
λ1 0 + λ2 2 + λ3 1 = 0 ⇒ 2λ2 = 0 ⇒ λ2 = 0 .
1 1 1 0 λ1 + λ2 = 0 λ3 = 0
Proposición 8. Sea A una matriz de m × n y T : Rn → Rm dada por
T x = Ax. Entonces kerT = 0 si, y sólo si, las columnas de A son linealmente
independientes.

Demostración. Sean u1 , u2 , . . . , un ∈ Rm las columnas de A.


(⇒). Suponemos kerT = 0 y λ1 u1 + . . . + λn un = 0. Pero
 
λ1
 . 
u1 u2 . . . un  ..  = 0,
λn
     
λ1 λ1 0
 ..   ..   .. 
o sea  .  ∈ kerT = 0. Entonces  .  =  . .
λn λn 0
(⇐). Suponemos que u1 , u2 , ....,  linealmente independientes y x ∈
un son
x1
kerT . Entonces u1 u2 . . . un  ...  = 0, o sea x1 u1 + ... + xn un = 0.
 

xn
Como u1 , ..., un son linealmente independientes, x1 = ... = xn = 0. Es decir,
x = 0. 

Ejemplos:
 
0
1. es linealmente dependiente.
0
16 3. La estructura de un espacio vectorial

2. 0, u, v son linealmente dependientes ya que 0 · u + 0 · v + λ · 0 = 0.


En general, para k vectores si al menos uno de ellos es cero, los k
vectores son dependientes.
3. u, u, v, w son linealmente dependientes ya que (−1)u + 1 · u + 0 ·
v + ·w = 0. En general, para k vectores si al menos dos de ellos son
iguales, los k vectores son dependientes.
4. Sean u, v dos vectores, entonces si u y v son dependientes podemos
encontrar λ y µ no ambos cero tales que λu + µv = 0, es decir,
λ 6= 0 o µ 6= 0. Si λ 6= 0 tenemos u = −µv λ , o si µ 6= 0 tenemos
v = −λu
µ . Es decir, u y v son linealmente dependientes si, y sólo si,
uno es múltiplo escalar del otro.

Proposición 9. Sean u1 , . . . , un ∈ V . Entonces u1 , . . . , un son linealmente


dependientes si, y sólo si, existe j tal que uj es combinación lineal de los
demás, o sea:

uj ∈ gen{ui : i 6= j}

Demostración. (⇒). Si u1 , . . . , un son linealmente dependientes existen


λ1 , . . . , λn no todos cero, tales que λ1 u1 + . . . + λn un = 0. Como no todos
los λi son cero existe, digamos, j tal que λj 6= 0. Entonces λj uj = −λ1 u1 −
. . . − λj−1 uj−1 − λj+1 uj+1 − . . . − λn un , ası́ que como λj 6= 0, uj = − λλ1j u1 −
λj−1 λj+1 λn
... − λj uj−1 − λj uj+1 − ... − λj un , entonces uj ∈ gen{ui : i 6= j}.
(⇐). Si uj ∈ gen{ui : i 6= j} existen λ1 , . . . , λn ∈ K tales que uj =
λ1 u1 + . . . + λj−1 uj−1 + λj+1 uj+1 + . . . + λn−1 un−1 , o sea λ1 u1 + . . . +
λj−1 uj−1 + (−1)uj + λj+1 uj+1 + . . . + λn−1 un−1 = 0. 

Definición 12. S ⊂ V , S 6= φ, es llamado conjunto linealmente indepen-


diente si cada u1 , . . . , un ∈ S son linealmente independientes.

Ejemplos:

1. S = {1, x, x2 , x3 , . . .} ⊂ P es un conjunto linealmente independien-


te esto porque λ1 xα1 + . . . + λk xαk = 0 implica λ1 = . . . = λk = 0.
2. S = {cosx, cos2x, cos3x, . . .} ⊂ C es un conjunto linealmente inde-
pendiente. Suponemos λ1 cos(n1 x) + . . . + λk cos(nk x) = 0 entonces2

2Para esta demostración se utilizarán conceptos básicos de Cálculo diferencial e integral.


2. Independencia lineal 17

Demostración.
(1)
Z π Z π k
X
(λ1 cos n1 x + . . . + λk cos nk x) cos nj xdx = (λi cos ni x) cos nj xdx
−π −π i=1
k
X Z π
(2) = λi cos ni x cos nj xdx
i=1 −π

(3) = λj π
(4) = 0 ⇒ λj = 0.

Esto porque
Z π (
0, si n 6= m;
cos(mx)cos(nx)dx =
−π π, si n = m
Teorema 1. Sea V un espacio vectorial sobre K, y u1 , . . . , un ∈ V . Si U =
gen{u1 , . . . , un } y v1 , . . . , vn ∈ U son linealmente independientes, entonces
k ≤ n.
Corolario 2. El sistema:
a11 x1 + . . . + a1n xn = 0
a21 x1 + . . . + a2n xn = 0
..
.
am1 x1 + . . . + amn xn = 0
tiene soluciones no triviales si n > m.
Lema 1. Si w1 , . . . , wm son linealmente dependientes y, digamos, wj es
combinación lineal del resto, entonces
gen{w1 , . . . , wj−1 , wj+1 , . . . , wm } = gen{w1 , . . . , wm }.3

Demostración. PSi wj = α1 w1 + . . . + αj−1 wj−1 + αj+1 wj+1 + . . . + αm wm =


P m
α w
i6=j i i y v = i=1 λi wi ∈ gen{w1 , . . . , wm }, entonces

X X X
(5) v= λi wi + λj wj = λi wi + λj αi wi
i6=j i6=j i6=j
X
(6) = (λi + λj αi )wi ∈ gen{wi : i 6= j}.
i6=j


3Este lema se utilizará para demostrar el teorema 1.
18 3. La estructura de un espacio vectorial

Demostración del Teorema 1. Consideramos los vectores u1 , u2 , . . ., un ,


v1 . Estos vectores son lienalmente dependientes si λ1 u1 , . . . λn un , λn+1 v1 = 0
no es trivial, entonces uno de los λ1 , . . . , λn+1 tiene que ser desigual a cero,
digamos λ1 6= 0. Entonces u1 es combinación lineal de u2 , u3 , . . . , un , v1 y
por el lema anterior U = gen{u2 , . . . , un , v1 }. Ahora u2 , u3 , . . . , un , v1 son
linealmente dependientes y uno de los ui , digamos u2 , es combinación lineal
del resto. Ası́ que U = gen{u3 , . . . , un , v1 , v2 }. Inductivamente obtenemos
que
U = gen{ur+1 , . . . , un , v1 , . . . , vr }, r = 1, 2, . . . , k.
Entonces n ≥ k. 

3. Bases y dimensión
Definición 13. Sea V un espacio vectorial sobre K y B ⊂ V , B 6= φ.
Decimos que B es una base de V si V = genB y B es un conjunto linealmente
independiente.

Ejemplos:
1. E ⊂ Rn , dado por
     
1 0 0
n 0 1 0  o
E = . , . , . . . , . .
     
 ..   ..   .. 
0 0 1
E es una base de Kn , la base estándar.
a) Kn = genE, porque
       
k1 1 0 0
 k2  0 1 0
 ..  = k1  ..  + k2  ..  + . . . + kn  ..  .
       
. . . .
kn 0 0 1
b) E es linealmente independiente, porque
       
1 0 0 0
0  1 0 0
λ1  .  + λ2  .  + . . . + λn  .  =  .  ⇒ λ1 = λ2 = . . . = λn = 0.
       
 ..   ..   ..   .. 
0 0 1 0

n 1   
1 o
2. B = , es una base de R2 .
1 −1
     
2 x x+y 1 x−y 1
a) R = gen B : = +
y 2 1 2 −1
3. Bases y dimensión 19

     
1 1 0
b) λ +µ = ⇒ λ = µ = 0.
1 −1 0
3. {1, i} es una base de C sobre R.
4. {1, x, x2 , x3 , . . .} es una base de P.
5. {cosx, cos2x, . . .} no es una base de C(R).
C(R) 6= gen{cosx, cos2x, . . .}, f (x) = 1 ∈
/ gen{cosx, cos2x, . . .}.
Proposición 10. B es una base de V si, y sólo si, cualquier v ∈ V es una
combinación lineal única de vectores en B.

Demostración. (⇒).Si λ1 u1 + . . . + λn un = µ1 u1 + . . . + µn un , entonces


(λ1 − µ1 )u1 + . . . + (λn − µn )un = 0. Pero como B es una base linealmente
independiente, λ1 = µ1 , . . .,λn = µn . (⇐).Sean u1 , . . . , un ∈ B y λ1 u1 +
. . . + λn un = 0. Pero entonces λ1 u1 + . . . + λn un = 0u1 + . . . + 0un . Como
0 se puede expresar de manera única como combinación lineal de los ui ,
λ1 = . . . = λn = 0. 
Corolario 3. Sea B = {u1 , . . . , un } ⊂ V . Entonces B es una base de V si,
y sólo si, la transformación T : Kn → V dada por
 
k1
 .. 
T  .  = k1 u1 + . . . + kn un
kn
es un isomorfismo.
Teorema 2. Sea V un espacio vectorial sobre K y sean {u1 , . . . , un } y
{v1 , . . . , vm } bases de V . Entonces n = m.

Demostración. Sean V = gen{u1 , . . . , un } y v1 , . . . , vm linealmente inde-


pendientes. Entonces por el teorema anterior m ≤ n. Como también V =
gen{v1 , . . . , vm } y u1 , . . . , un linealmente independientes, tenemos n ≤ m.
Por lo tanto m = n. 

Ejemplos
1. Kn ∼
= Km si, y sólo si, n = m.
2. Rn ∼
= Pn = {1, x, x2 , . . . , xn−1 } es una base para Pn . De hecho
Rn ∼
= Pm si, y sólo si, n = m.
3. P no tiene una base finita.
Definición 14. Sea V un espacio vectorial sobre K. Decimos que V es de
dimensión finita si V tiene una base finita. Si {u1 , . . . , un } es una base de V ,
entonces la dimensión de V , dim V , es igual a n. Si V no tiene una base finita
entonces decimos que es de dimensión infinita, y escribimos dim V = ∞.
20 3. La estructura de un espacio vectorial

Corolario 4. Tenemos
1. Sea V un espacio vectorial sobre K. Entonces V ∼= Kn si, y sólo si,
dim V = n.
2. Sean U, V espacios de dimensión finita. Entonces U ∼
= V si, y sólo
si, dim U = dim V .
La dimensión de un espacio de dimensión finita clasifica al espacio.
Ejemplos:
M , el espacio de cuadrados mágicos. Base de M
     
n 1 1 1 1 −1 0 0 −1 1
1 1 1 , −1 0 1 , 1 0 −1
1 1 1 0 1 −1 −1 1 0
Teorema 3. Sea V un espacio finitamente generado, es decir V 6= 0 y
existen u1 , . . . , um ∈ V tales que gen{u1 , . . . , um } = V . Entonces V tiene
una base finita.

Demostración. Denotamos por Z la colección de todos los subconjuntos de


{u1 , . . . , um } que sean linealmente independientes. Por ejemplo, si u1 6= 0,
u1 ∈ Z; o si u1 y u2 son linealmente independientes entonces {u1 , u2 } ∈
Z. Escogemos un S ∈ Z de tal forma que S tenga el número máximo de
elementos de todos los conjuntos en Z: ]S = max{]A : A ∈ Z}. Vamos a
demostrar que gen S = V , y por lo tanto es una base. De hecho, es suficiente
con demostrar que todo ui ∈ gen S. Sin pérdida S de generalidad suponemos
que S = {u1 , . . . , un }. Consideramos C = S {ui }. Estos n + 1 vectores
son dependientes porque n es el número máximo de vectores independientes
en {u1 , . . . , um }. Entonces existen λ1 , . . . , λn+1 , no todos cero, tales que
λ1 u1 + . . . + λn un + λn+1 ui = 0. Pero λn+1 6= 0 porque u1 , . . . , un son
independientes. Ası́ que
λ1 λn
ui = − u1 − . . . − un ∈ gen S.
λn+1 λn+1

Corolario 5. 1. Si V = gen{u1 , . . . , um }, entonces V es de dimen-
sión finita y dim V ≤ m.
2. Si V = gen{u1 , . . . , un } y n = dim V , entonces {u1 , . . . , un } es una
base de V .
3. Si V es de dimensión finita y U es un subespacio de V , entonces
U es de dimensión finita y dim U ≤ dim V .
4. Si u1 , . . . , uk son linealmente independientes y dim V = n, entonces
existen v1 , . . . , vn−k tales que {u1 , . . . , uk , v1 , . . . , vn−k } es una base
de V .
3. Bases y dimensión 21

Por convención se dice que O es de dimensión finita y dim O = 0.

Demostración. Se demostrarán los puntos 3 y 4:


3. Vamos a mostrar que U es finitamente generado. Si U = O, en-
tonces U = gen{0}, y la conclusión dim U ≤ dim V es trivial. Su-
ponemos que U 6= O. Tomamos u1 ∈ U , u1 6= 0. Si U = gen{u1 }
entonces U es finitamente generado. Si U 6= gen{u1 }, escogemos
u2 ∈ U \ gen{u1 }. Si U = gen{u1 , u1 }, entonces ya terminamos.
Si no es ası́, continuamos escogiendo u3 , u4 , . . . de la misma forma.
Necesariamente existe k tal que gen{u1 , . . . , uk } = U , y de hecho
k ≤ dim V . Los u1 , . . . , uk son linealmente independientes. Por el
teorema 3, U tiene una base finita, y por el corolario, puntos 1 y 2,
dim U = k ≤ dim V .
4. Tomamos una base de V , digamos {v1 , . . . , vn }. Consideramos los
vectores v1 , . . . , vn , u1 , estos son linealmente dependientes, ası́ que
existen λ1 , . . . , λn+1 , no todos cero, tales que λ1 v1 + . . . + λn+1 u1 =
0. Pero λn+1 6= 0, ası́ que uno de los λi , i ≤ n, debe ser di-
ferente de cero, porque u1 6= 0. Suponemos λn 6= 0. Por el le-
ma 1, v1 , . . . , vn−1 , u1 generan V , y por lo tanto {v1 , . . . , vn−1 , u1 }
es una base. Por inducción, sustituı́mos vn−1 , vn−2 , . . . , vn−r , r =
1, 2, . . . , k, tal que {v1 , . . . , vn−r , u1 , . . . , ur } es una base de V .


Ejemplos
  
1 1
1. 1,2 son linealmente independientes en R3 . Vamos a exten-
0 1
     
n 1 0 0 o
der a una base. Consideramos 0 , 1 , 0 .
0 0 1
       
1 0 0 1
1 0 + 1 1 + 0 0 = 1
      
0 0 1 0
     
n 0 0 1 o
⇒  1 , 0 , 1 es una base de R3 .
   
0 1 0
       
0 0 1 1
1 + 0 + 1 = 2
0 1 0 1
22 3. La estructura de un espacio vectorial

     
n 0 1 1 o
⇒ 1 , 1 , 2 es una base de R3 .
0 0 1
2. {1, x − 1, (x − 1)2 } es una base de P3 .
En general {1, x − a, (x − a)2 , . . . , (x − a)n−1 } es una base de
Pn , también conocida como reprensentación de Taylor.
3. En M =cuadrados mágicos
     
n 3 −2 2 0 1 2 0 4 −1 o
0 1 2  , 3 1 −1 , 0 1 2
0 4 −1 0 1 2 3 −2 2
es una base de M . Ya que
       
3 −2 2 0 1 2 0 4 −1 0 0 0
λ 1 0 1 2  + λ2 3 1 −1 + λ3 0 1 2  = 0 0 0 
0 4 −1 0 1 2 3 −2 2 0 0 0
⇒ λ1 = λ2 = λ3 = 0.
Proposición 11. Si T : U → V es un isomorfismo y {u1 , . . . , un } es una
base de U , entonces {T u1 , . . . , T un } es una base de V .

Demostración. 1)Independencia lineal. Suponemos λ1 T u1 +. . .+λn T un =


0. Como T es lineal T (λ1 u1 +. . .+λn un ) = 0, como T es inyectiva ker T = 0,
entonces λ1 u1 + . . . + λn un = 0, como {u1 , . . . , un } es una base son lineal-
mente independientes, luego λ1 = . . . = λn = 0.
Corolario 6. Si T : U → V es inyectiva y u1 , . . . , uk son linealmente inde-
pendientes, entonces T u1 , . . . , T uk son linealmente independientes.

2)gen{T u1 , . . . , T un } = V . Sea v ∈ V . Como T es sobreyectiva, existe u ∈ U


tal que T u = v. Pero como {u1 , . . . , un } es una base de U , existen a1 , . . . , an
tales que u = a1 u1 +. . .+an un . Por lo tanto v = T u = T (a1 u1 +. . .+an un ) =
a1 T u1 + . . . + an T un ∈ gen{T u1 , . . . , T un }.
Corolario 7. Si T : U → V es una transformación sobreyectiva y U =
gen{u1 , . . . , un }, entonces V = gen{T u1 , . . . , T un }.


Corolario 8. Si U y V son espacios vectoriales sobre K y de dimensión
finita, entonces U × V es de dimensión finita y dim U × V = dim U + dim V .
Corolario 9. Si U y W son subespacios de V tales que V = U ⊕ W , y V
es de dimensión finita, entonces dim V = dim U + dim W .
Teorema 4. Sea V un espacio vectorial sobre K. Entonces V tiene una
base.
3. Bases y dimensión 23

Para la demostración de este teorema se requiere teorı́a de conjuntos,


especialmente conocer el axioma de elección.
Capı́tulo 4

La estructura de una
transformación lineal

1. La ecuación de dimensión
Teorema 5. Ecuación de dimensión. Sean U y V espacios vectoriales sobre
K, dim U < ∞, y T : U → V lineal. Entonces dim ker T +dim im T = dim U .

Demostración. Sea {u1 , . . . , uk } una base de ker T . Extendemos luego a


{u1 , . . . , uk , v1 , . . . , vr } una base de U , entonces dim U = k + r. Vamos a
mostrar que {T v1 , . . . , T vr } es una base de im T .
1)Independencia lineal. Suponemos λ1 T v1 + . . . + λr T vr = 0, y entonces
T (λ1 v1 + . . . + λr vr ) = 0, ası́ que λ1 v1 + . . . + λr vr ∈ ker T . Pero entonces
existen µ1 , . . . , µk tales que λ1 v1 + . . . + λr vr = µ1 u1 + . . . + µk uk porque
{u1 , . . . , uk } es una base de ker T . Como {u1 , . . . , uk , v1 , . . . , vr } es una base
de U , λ1 = . . . = λr = µ1 = . . . = µk = 0. Luego v1 , . . . , vr son linealmente
independientes.
2)gen{T v1 , . . . , T vr } = im T . Sea v ∈ im T . Entonces existe u ∈ U tal
que T u = v. Como {u1 , . . . , uk , v1 , . . . , vr } es una base de U tenemos u =
λ1 u1 + . . . + λk uk + µ1 v1 + . . . + µr vr . Por lo tanto v = T u = λ1 T u1 +
. . . + λk T uk + µ1 T v1 + . . . + µr T vr = µ1 T v1 + . . . + µr T vr ∈ im T ya que
{u1 , . . . , uk } es una base de ker T . 

25
26 4. La estructura de una transformación lineal

Ejemplos.
1. Sea T : R5 → R3 dada por T x = Ax, donde A es la matrı́z de 3 × 5
dada por
 
1 2 0 0 1
A = 0 −1 1 −1 0 .
1 2 0 0 1
· ker T
1
 
x
2 x1 + 2x2 + x5 = 0
   
1 2 0 0 1  x3  0
0 −1 1 −1 0 x  = 0 ⇒ −x2 + x3 − x4 = 0
 
1 2 0 0 1 x4  0 x1 + 2x2 + x5 = 0
x5
luego
x1 + 2x3 − 2x4 + x5 = 0
.
x2 − x3 + x4 = 0
Por lo tanto
x1 = −2x3 + 2x4 − x5
,
x2 = x3 − x4
y entonces
x1 −2x3 + 2x4 − x5
         
−2 2 −1
x2   3
x −x 4
1 −1 0
      
3 4 5
 3  3

x = x  = 
   x =x  1 +x  0 +x  0 
   
4
x   x4  0 1 0
x5 x5 0 0 1
     
−2 2 −1
n     0 
 1   −1  
o
por lo tanto  1  ,  0  ,  0  es una base para ker T .
     
0 1 0
0 0 1
· im T
 1
 x2  1
x1 + 2x2 + x5 = y 1

1 2 0 0 1  x3 
 y
0 −1 1 −1 0 x  = y 2  ⇒ −x2 + x3 − x4 = y 2
 
1 2 0 0 1 x4  y3 x1 + 2x2 + x5 = y 3
x5

luego
x1 + 2x2 + x5 = y 1 = y 3
.
−x2 + x3 − x4 = y 2
2. Matrices 27

Por lo tanto
 1    
y 1 0
y = y 2  = y 1 0 + y 2 1
y1 1 0
   
n 1 0 o
Luego 0 , 1 es una base de im T .
1 0
Por lo tanto dim ker T + dim im T = 3 + 2 = dim R5 .
2. Sea T : Pn → Pn−1 dada por T p = p0 , la derivada de p.
· ker T = P1 , polinomios constantes.
· im T = Pn−1 .
Por lo tanto dim ker T + dim im T = 1 + (n − 1) = dim Pn .
Corolario 10. Tenemos
1. Sean U y V espacios vectoriales de dimensión finita, con dim U =
dim V , y sea T : U → V lineal. Los siguientes enunciados son
equivalentes:
a) T es inyectiva;
b) T es sobreyectiva; y
c) T es un isomorfismo.
2. Si T : U → V es lineal e inyectiva, entonces dim U ≤ dim V .
3. Si T : U → V es lineal y sobreyectiva, entonces dim V ≤ dim U .

Demostración. Tenemos
1. Si T es inyectiva, entonces dim ker T = 0 y dim im T = dim U =
dim V . Entonces im T = V . Si T es sobreyectiva, entonces tenemos
que dim im T = dim V = dim U , ası́ que dim ker T = 0. Por lo tanto
ker T = 0.
2. dim U = dim im T ≤ dim V .
3. dim V = dim im T ≤ dim ker T + dim im T = dim U .


2. Matrices
Sea T : Rn → Rm una transformación lineal. Sea {e1 , . . . , en } la base
estándar de Rn . Cada T ej ∈ Rm , digamos T ej = aj :
 1
aj
 .. 
T ej =  .  ∈ Rm .
am
j
28 4. La estructura de una transformación lineal

Si x ∈ Rn , entonces
a11
  1

an
1 n 1 n 1  ..  n  .. 
T x = T (x e1 +. . .+x en ) = x T e1 +. . .+x T en = x  . +. . .+x  . 
am1 amn
y entonces tenemos
a11 a12 a1n
   1
... x
a11 x1 a1n xn
 
+ ... +  2
..   a1 a22 ... a2n   x2 
 =  ..
  
 . .. .. ..   .. 
 . . . .  . 
am 1 m n
1 x + . . . + an x am
1 am
2 . . . am
n xn
Observaciones.
1. Toda T : Rn → Rm está dada por la multiplicación de una matrı́z
de m × n.
2. Si T : Kn → Km es lineal, entonces existe una matrı́z A de m × n
tal que T x = Ax.
Definición 15. Definimos Hom(Kn , Km ) como el espacio vectorial de todas
las transformaciones lineales de Kn a Km .

·Cada T ∈ Hom(Kn , Km ) induce una matrı́z, denotada por MT , tal que


T x = Ax, multiplicación por MT . MT ∈ Mm×n (K), ası́ que T 7→ MT induce
una función
ϕ : Hom(Kn , Km ) → Mm×n (K), ϕ(T ) = MT .
·De manera inversa, cada A ∈ Mm×n (K) induce una transformación lineal
TA : Kn → Km dada por TA x = Ax. Entonces A 7→ TA induce una función
ψ : Mm×n (K) → Hom(Kn , Km ), ψ(A) = TA .

Observación. Si las columnas de A se representan por A1 , . . . , An , en-


tonces Aj = A · ej . Ası́ que Aij = (A · ej )i . Las entradas de MT son
(MT )ij = (T ej )i .
Teorema 6. ϕ y ψ son isomorfismos mutuamente inversos.

Demostración. 1. ψ(A) = TA es lineal. Hay que mostrar ψ(A + B) =


ψ(A) + ψ(B) y ψ(λA) = λψ(A), entonces
TA+B x = (A + B) · x = A · x + B · x = TA x + TB x,
y también
TλA = (λA) · x = λA · x = λ(TA x)
por lo tanto ψ es lineal.
2. Matrices 29

2.ϕ es lineal. Hay que mostrar ϕ(T +S) = ϕ(T )+ϕ(S) y ϕ(λT ) = λϕ(T ),
entonces
(MT +S )ij = ((T + S)ej )i = (T ej + Sej )i = (T ej )i + (Sej )i = (MT )ij + (MS )ij
se deja como ejercicio verificar que ϕ(λT ) = λϕ(T ), por lo tanto ϕ es lineal.
3.ϕ ◦ ψ = idM y ψ ◦ ϕ = idHom , entonces
ϕ ◦ ψ(A) = ϕ(ψ(A)) = Mψ(A) , (Mψ(A) )ij = (ψ(A)ej )i = (TA ej )i = (A · ej )i ,
y ası́ (A · ej )i = Aij . También
ψ ◦ ϕ(T ) = ψ(ϕ(T )) = Tϕ(T ) , Tϕ(T ) x = ϕ(T )x = MT · x = T x.


Ejemplos
1. ρθ 
: R2 → R2 , rotación por un ángulo θ. Las columnas de M
  ρθ son
1 0
ρθ y ρθ . Entonces
0 1
 
cos θ − sin θ
M ρθ = .
sin θ cos θ
2. R : R2→R2 , 
reflexión
 conrespecto
   a x = y. Las columnas de MR
1 0 0 1
son R = yR = . Entonces
0 1 1 0
 
0 1
MR = .
1 0
Corolario 11. Hom(Kn , Km ) es de dimensión finita y dim Hom(Kn , Km ) =
mn.

Observación. Sean A ∈ Mm,n (K) y B ∈ Mn,p (K), consideramos AB.


Las columnas de AB están dadas por (AB)j = A · Bj , pero TAB ej = A · Bj
y TA ◦ TB (ej ) = TA (TB ej ) = TA (Bj ) = A · Bj .
Proposición 12. Si A ∈ Mm,n (K) y B ∈ Mn.p (K), entonces TAB = TA ◦
TB .
Corolario 12. La multiplicación de matrices es asociativa, es decir
(AB)C = A(BC).

Demostración. T(AB)C = TAB ◦ TC = (TA ◦ TB ) ◦ TC = TA ◦ (TB ◦ TC ) =


TA ◦ TBC = TA(BC) . Entonces T(AB)C = TA(BC) . Como MT 7→ TM es un
isomorfismo, entonces es inyectiva, luego (AB)C = A(BC). 
Corolario 13. Si T ∈ Hom(Kn , Km ), S ∈ Hom(Kp , Kn ), entonces MT ◦S =
MT · MS .
30 4. La estructura de una transformación lineal

Demostración. (MT ◦S )j = T ◦ S(ej ) = T (S(ej )) = MT · (S(ej )) = MT ·


(MS )j = (MT · MS )j . 

Ejemplo: Rotaciones. ρθ ρτ = ρθ+τ .


 
cos θ + τ − sin θ + τ
Mρθ+τ = .
sin θ + τ cos θ + τ
También sabemos que Mρθ+τ = Mρθ · Mρτ , luego
    
cos θ + τ − sin θ + τ cos θ − sin θ cos τ − sin τ
= .
sin θ + τ cos θ + τ sin θ cos θ sin τ cos τ
Por lo tanto
 
cos θ cos τ − sin θ sin τ − cos θ sin τ − sin θ cos τ
Mρθ+τ = .
sin θ cos τ + cos θ sin τ − sin θ sin τ + cos θ cos τ
Hemos demostrado que:
cos θ + τ = cos θ cos τ − sin θ sin τ,
y
sin θ + τ = cos θ sin τ + sin θ cos τ.
Observación. Si {u1 , . . . , un } es una base de U , esta induce un isomor-
fismo γ : U → R dado por
 
λ1
 .. 
γ(u) = γ(λ1 u1 + . . . + λn un ) =  .  .
λn
Pero si cambiamos la base, cambia γ. De hecho, si cambiamos el orden de
los ui también cambia γ. Debemos considerar las bases como ordenadas.
Ejemplo: Sea {1 + x, 1 − x} una base deP2
 a+b 
a+b a−b
a + bx = (1 + x) + (1 − x) 7−→ 2
a−b ∈ R2 ,
2 2 2
pero si usamos {1 − x, 1 + x}
 a−b 
a−b a+b
a + bx = (1 − x) + (1 + x) 7−→ 2
a+b ∈ R2 .
2 2 2

Definición 16. Entonces una base ordenada se denota por [u1 , . . . , un ], con
la propiedad [u1 , . . . , ui , . . . , uj , . . . , un ] 6= [u1 , . . . , uj , . . . , ui , . . . , un ].

Del ejemplo anterior, si B = [1 + x, 1 − x] y C = [1 − x, 1 + x] entonces


 a+b   a−b 
2
γB (a + bx) = a−b , γC (a + bx) = a+b 2 ,
2 2
por lo tanto γB 6= γC .
2. Matrices 31

Consideramos el siguiente diagrama

U
T /V

γB γC
 
Kn / Km
S
−1
por lo tanto S = γC ◦ T ◦ γB .
Si B es una base ordenada de U y C es una base ordenada de V , y
T ∈ Hom(U, V ), tomamos
−1
S = γC ◦ T ◦ γB
de tal forma que el diagrama es conmutativo (S ◦ γB = γC ◦ T ).
Entonces S induce la matriz MS . Se dice que MS es la matriz inducida
por T respecto a las bases B y C y se denota
[T ]B,C .

Ejemplos.
1. Sea d : P3 → P2 , dp = p0 y sean B = [1, x, x2 ], C = [1, x]. Tenemos
     
γC 0 γC 1 γC 0
d(1) = 0 7−→ , d(x) = 1 7−→ , d(x2 ) = 2x 7−→
0 0 2
por lo tanto  
0 1 0
[d]B,C = .
0 0 2
Pero si ahora tomamos C 0 = [1 + x, 1 − x]
  1  
γC 0 0 γC 0
2 2 γC 0 1
d(1) = 0 7−→ , d(x) = 1 7−→ 1 , d(x ) = 2x 7−→
0 2 −1
por lo tanto
1
 
0 2 1
[d]B,C 0 = 1 .
0 2 −1
2. Sea V = gen{eax cos bx, eax sin bx}, b 6= 0, a, b ∈ R. Si usamos
B = [eax cos bx, eax sin bx], d : V → V con df = f 0 , entonces
 
ax ax ax γB a
d(e cos bx) = ae cos bx − be sin bx 7−→ ;
−b
 
ax ax ax γB b
d(e sin bx) = be cos bx + ae sin bx 7−→
a
por lo tanto  
a b
[d]B,B = .
−b a
32 4. La estructura de una transformación lineal

Corolario 14. Tenemos


a) Si T : Kn → Kn es un automorfismo, entonces MT es inverti-
ble y MT−1 = MT −1 .
b) Si T : U → V es un isomorfismo, B una base de U y C una
base de V , entonces [T −1 ]C,B = [T ]−1
B,C .

Entonces del ejemplo anterior tenemos


!
a −b
[d−1 ]B,B = a2 +b2
b
a2 +b2
a
a2 +b2 a2 +b2
y también tenemos
Z
−1 ax a ax b
d (e cos bx) = 2 e cos bx + 2 e sin bx = eax cos bx dx;
ax
a + b2 a + b2
Z
−1 ax b ax a
d (e sin bx) = − 2 e cos bx + 2 e sin bx = eax sin bx dx .
ax
a + b2 a + b2
3. Calcularemos xk e−λx dx. Sea V = {p(x)e−λx : p ∈ Pk+1 }, y usa-
R

mos la base B = {e−λx , xe−λx , . . . , xk e−λx }, entonces


 
−λ
 0 
 
γB  0 
d(e−λx ) = −λe−λx 7−→  ,
 .. 
 . 
0
luego
 
1
−λ
 
γB  0 
d(xe−λx ) = e−λx − λxe−λx 7−→   ,
 .. 
 . 
0
 
0
 2 
 
γB −λ
d(x2 e−λx ) = 2xe−λx − λx2 e−λx 7−→   ,
 .. 
 . 
0
ası́ sucesivamente
 
0
 .. 
γB  . 
 
d(xk e−λx ) = kxk−1 e−λx − λxk e−λx 7−→  0  .
 
 k 
−λ
2. Matrices 33

Por lo tanto
 
−λ 1 0 ... 0
 0 −λ 2 . . . 0 
 
 0 0 −λ . . . 0 
[d]B,B = .
 
.. .. .. .. 
 .. . . . . 
 
 0 0 0 ... k 
0 0 0 . . . −λ
y entonces
−1  1
−λ − λ12 − λ23 k! 
. . . − λk+1

−λ 1 0 ... 0
 0 −λ 2 . . . 0 
 
 0
 − λ1 − λ22 ... − λk!k 
 0 0 −λ . . . 0   0 0 − λ1 . . . − 2λk! 
k−1 
..  =  .. ,
  
 .. .. .. .. .. .. .. .. 
 .
 . . . . 
  .
 . . . .  
 0 0 0 ... k   0 0 0 ... − λk2 
0 0 0 . . . −λ 0 0 0 ... − λ1
por lo tanto
k! k! −λx k 1
d−1 (xk e−λx ) = − e−λx − xe − . . . − 2 xk−1 e−λx − − xk e−λx ,
λk+1 λ k λ λ
y entonces
Z k
k −λx
X k!
x e dx = − xj e−λx + C
j!λk+1−j
j=0

y por lo tanto
Z ∞
k!
xk e−λx dx = .
0 λk+1
Si T : U → V es lineal, B, B 0 bases de U y C, C 0 bases de V , ¿cuál es la
relación entre [T ]B,C y [T ]B,C 0 o [T ]B 0 ,C ?. Es decir, entre
T
U −−−−→ V
 
γB y
 γ
yC
S
Kn −−−−→ Km
−1
S = γC ◦ T ◦ γB ,y
T
U −−−−→ V
 
γB y
 γ 0
yC
R
Kn −−−−→ Km
34 4. La estructura de una transformación lineal

−1
R = γC 0 ◦ T ◦ γB . Entonces
T id
U −−−−→ V −−−−→ V
  
γB y
 γ γ 0
yC yC
S ψ
Kn −−−−→ Km −−−−→ Km
ψ = γC 0 ◦ γC−1 es un automorfismo de Km de cambio de base. Por lo tanto
existe Mψ , la matriz de cambio de base.
Del ejemplo: d : P3 → P2 , dp = p0 con B = [1, x, x2 ], C = [1, x] y
C 0 = [1 + x, 1 − x] obtuvimos
0 12 1
   
0 1 0
[d]B,C = , [d]B,C 0 = .
0 0 2 0 12 −1
Entonces
id
P2 −−−−→ P2
 
γC y
 γ 0
yC
ψ
R2 −−−−→ R2
ψ = γC 0 ◦ γC−1 , luego
  −1 1
1 γC 1 1 γC 0
ψ 7−→ 1 = (1 + x) + (1 − x) 7−→ 21 ,
0 2 2 2
y   −1  1 
0 γC 1 1 γ 0
ψ 7−→ x = (1 + x) − (1 − x) 7−C→ 2
1 2 2 − 21
por lo tanto
1 1
 
Mψ = 2 . 2
1
− 212
Como R = ψ ◦S, entonces MR = Mψ ·MS , por ejemplo [d]B,C 0 = Mψ ·[d]B,C .
Ası́ que 1 1
0 21 1
   
2 2 0 1 0
[d]B,C 0 = 1 1 =
2 −2 0 0 2 0 12 −1
como también S = ψ −1 ◦ R luego MS = Mψ−1 · MR = Mψ−1 · MR , entonces
0 12 1
    
1 1 0 1 0
MS = [d]B,C = = .
1 −1 0 12 −1 0 0 2
En general
id T id
U −−−−→ U −−−−→ V −−−−→ V
   
γB 0 
y γ B

y
γ
yC
γ 0
yC
ϕ S ψ
Kn ←−−−− Kn −−−−→ Km −−−−→ Km
3. Matriz de cambio de base 35

tenemos X = ψ ◦ S ◦ ϕ−1 y entonces MX = Mψ · MS · Mϕ−1 .

3. Matriz de cambio de base


Teorema 7. Sea T : U → V lineal, B, B 0 bases de U , C, C 0 bases de V . Sea
P la matriz de cambio de base de B a B 0 y Q la matriz de cambio de base
de C a C 0 . Entonces
[T ]B 0 ,C 0 = Q · [T ]B,C · P −1 .

Demostración. Diagrama anterior. 

Ejemplos
 
p(1)
1. Sea T : P3 → R3 , dada por T p =  p0 (1) , si B = [1, x, x2 ] y
p00 (1)
C = [1, x − 1, (x − 1)2 ]. Tenemos
 
1 1 1
[T ]B,E = 0 1 2
0 0 2
pero  
1 0 0
[T ]C,E = 0 1 0
0 0 2
y de esto T −1 : R3 → P3 , luego
 
1 0 0
[T −1 ]E,C = [T ]−1
C,E = 0 1 0 
0 0 21
   
a a
−1 −1  
y T  b = γC
 b = a + b(x − 1) + 21 c(x − 1)2 . Entonces
1
c 2c
tenemos
 
p(1)
Corolario 15. p(x) = T −1 ◦ T = T −1  p0 (1)  = p(1) + p0 (1)(x −
p00 (1)
1) + 12 p00 (x)(x − 1)2 .
En general, sea Ta : Pn → Rn , a ∈ R, dada por
 
p(a)
 p0 (a) 
Ta p = 
 ... ,

p(n−1) (a)
36 4. La estructura de una transformación lineal

con base C = [1, x − a, (x − a)2 , . . . , (x − a)n−1 ], entonces


 
1 0 0 ... 0
0 1 0 . . . 0 
 
0 0 2 . . . 0
[Ta ]C,E = 


 .. .. .. . . .. 
. . . . . 
0 0 0 . . . (n − 1)!
y
 
1 0 0 ... 0
0 1 0 . . . 0 
1
 
[Ta ]−1 = 0 0 2 . . . 0
 
C,E  .. .. .. . . ..


. . . . . 
1
0 0 0 ... (n−1)!
por lo tanto

p(a)
 p0 (a) 
p(x) = Ta−1 ◦ Ta p(x) = Ta−1 
 ... ,

p(n−1) (a)
y entonces tenemos:

Corolario 16. (Polinomios de Taylor).


1 1
p(x) = p(a)+p0 (a)(x−a)+ p00 (a)(x−a)2 +. . .+ p(n−1) (a)(x−a)n−1 .
2 (n − 1)!
2. Sea T : P3 → R3 , dada por
 R1 
p(x)dx
 R 1−1
T p =  −1 xp(x)dx  .

R1 2
−1 x p(x)dx

Si B = [1, x, x2 ], tenemos
2
 
2 0 3
2
[T ]B,E = 0

3 0 ,
2 2
3 0 5
porque
Z 1 Z 1 Z 1 Z 1 Z 1
2 2 3 2
dx = 2, xdx = 0, x dx = , x dx = 0, x4 dx = .
−1 −1 −1 3 −1 −1 5
Pregunta: ¿existe una base C tal que [T ]C,E es una matriz diago-
nal?.
3. Matriz de cambio de base 37

Observación. Si multiplicamos
2 0 32
   8 
3 0 −5 3 0 0
0 2 0  0 1 0  = 0 2
0 ,
3 3
2 2 8
3 0 5 −5 0 15 0 0 3

entonces
8 
3 0 0
2
[T ]C,E =  0 3 0
8
0 0 3

por lo tanto C = [3 − 5x2 , x, −5 + 15x2 ]. Y entonces


3 
8 0 0
[T −1 ]E,C =  0 23 0  .
0 0 83
R1
Corolario 17. (Momentos de p).Si Ii (p) = −1 xi p(x)dx, tenemos
3 3 3
p(x) = I0 (p)(3 − 5x2 ) + I1 (p)x + I2 (p)(−5 + 15x2 ).
8 2 8
Sabemos que si T : U → V es un isomorfismo y {u1 , . . . , un } una base
de U , entonces {T u1 , . . . , T un } es una base de V , luego si B = [u1 , . . . , un ]
y C = [T u1 , . . . , T un ] tenemos
 
1 0 0 ... 0
0 1 0 . . . 0
 
[T ]B,C = 0 0 1 . . . 0 .
 
 .. .. .. . . .. 
. . . . .
0 0 0 ... 1

Si T : U → V es genérica: sea {u1 , . . . , uk } una base para el ker T , la


extendemos a {u1 , . . . , uk , v1 , . . . , vr } una base de U , sea {T v1 , . . . , T vr } una
base para im T , la extendemos a {T v1 , . . . , T vr , w1 , . . . , wp } una base de V .
Si B = [u1 , . . . , uk , v1 , . . . , vr ] y C = [T v1 , . . . , T vr , w1 , . . . , wp ], luego
 
0 0 0 ... 0 0 0 ... 0
0 0 0 . . . 0 0 0 . . . 0
 
 .. .. .. . . .. .. .. . . .. 
. . .
 . . . . . . 
0 0 0 . . . 0 0 0 . . . 0
[T ]B,C =  0 0 0 . . . 0 1 0 . . . 0 .

 
0 0 0 . . . 0 0 1 . . . 0
 
 .. .. .. . . .. .. .. . . .. 
. . . . . . . . .
0 0 0 ... 0 0 0 ... 1
38 4. La estructura de una transformación lineal

Nota. Dada T : V → V y bases ordenadas B y C, si P es la matriz de


cambio de base de C a B, entonces
[T ]C,C = P −1 · [T ]B,B · P.
Definición 17. Sean A, B ∈ Mn (K). A y B son similares si representan a
la misma transformación lineal, es decir, si T : V → V y C y C 0 bases de V ,
tales que A = [T ]C y B = [T ]C 0
Equivalentemente A y B son similares si existe P ∈ Mn (K) invertible
tal que B = P −1 · A · P .
Cambios de base en Kn . Sea B = [u1 , . . . , un ] una base ordenada de Kn .
Si P es la matriz de cambio de base de B a E, como
 1
ui
 u2 
 i
 ..  = u1i e1 + . . . + uni en
 . 
uni
entonces
.. .. ..
 
. . . 
P = u 1 u 2 . . . u n ,

.. .. ..

. . .
y entonces la matriz de cambio de E a B es P −1 .
Ejemplos
   
1 1
1. En R2 ,
B=[ , ], entonces la matriz de B a E está dada
1 −1
por  
1 1
P =
1 −1
y la matriz de cambio de E a B
1 1

P −1 = 21 2
1 .
2 −2
2. Sea ρθ , rotación por el ángulo θ. Ya sabemos
 
cos θ − sin θ
[ρθ ]E = ,
sin θ cos θ
entonces tenemos
1 1
  
−1 2 2 cos θ − sin θ 1 1
[ρθ ]B = P · [ρθ ]E · P = 1
2 − 12 sin θ cos θ 1 −1
por lo tanto
 
cos θ sin θ
[ρθ ]B = .
− sin θ cos θ
4. Reducibilidad y espacios invariantes 39

Sean B = [u1 , . . . , un ] y C = [v1 , . . . , vn ] bases ordenadas de Kn , y P la


matriz de cambio de base de B a C, sabemos

.. .. ..
 
 . . . 
Q= u 1 u 2 . . . u n
,
.. .. ..
 
. . .

matriz de cambio de base de B a E, y tenemos

.. .. ..
 
 . . . 
v1 v2 . . . vn  ,
R= 
.. .. ..
. . .

matriz de cambio de base de C a E, por lo tanto tenemos que P = R−1 · Q


es la matriz de cambio de B a C. Esto es
id
Kn −−−−→ Kn
 
γB y
 γ
yC
T
Kn −−−P−→ Kn
−1
y ası́ TP = γC ◦γB . Por lo tanto [T ]B = Q−1 ·R·[T ]C ·R−1 ·Q = P −1 ·[T ]C ·P .

4. Reducibilidad y espacios invariantes


Definición 18. Decimos que T : U → V es reducible si existen subespacios
propios U, W ⊂ V , tales que V = U ⊕ W y T (U ) ⊂ U y T (W )W ⊂ W .

Observación. T ∼
= T1 ⊕ T2 , con T1 : U → U y T2 : W → W .

Teorema 8. Si T : V → V es lineal y dim V < ∞, entonces V = V1 ⊕. . .⊕Vk


tales que T es irreducible en cada Vi .

Demostración. Para la demostración es necesaria más teorı́a, ası́ que se


deja para después. 

Si T : V → V es reducible en U y W , con dim V < ∞, tomamos bases


B = [u1 , . . . , up ] y C = [w1 , . . . , wq ] de U y W respectivamente, entonces
40 4. La estructura de una transformación lineal

D = [u1 , . . . , up , w1 , . . . , wq ] es una base de V y tenemos


 
∗ ∗ ∗ ... ∗ 0 0 ... 0
∗ ∗ ∗ . . . ∗ 0 0 . . . 0
 
 .. .. .. . . .. .. .. . . .. 
.
 . . . . . . . .
∗ ∗ ∗ . . . ∗ 0 0 . . . 0
[T ]D =  .
0
 0 0 . . . 0 ∗ ∗ . . . ∗ 
0
 0 0 . . . 0 ∗ ∗ . . . ∗ 
 .. .. .. . . .. .. .. . . .. 
. . . . . . . . .
0 0 0 ... 0 ∗ ∗ ... ∗
Es decir,
 
M 0
[T ]D = ,
0 N
donde M es una matriz de p × p, N es una matriz de q × q, de hecho
M = [T1 ]B y N = [T2 ]C .
Ejemplo. Sea T : R3 → R3 la transformación dada por T x = Ax, donde
 
2 1 0
A = −1 −1 1 .
1 2 1
     
h 1 1 1 i
Consideramos la base B = 0 ,  0  , −2 . Calculamos [T ]B . Si
1 −1 1
P es la matriz de cambio de base de B a E, entonces [T ]B = P −1 · A · P .
Tenemos 1 1 1
  
1 1 1 2 2 2
P = 0 0 −2 , P −1 =  12 0 − 21  .
1 −1 1 0 − 12 0
Entonces
1 1 1
  
2 2 2 2 1 0 1 1 1
[T ]B = 1 0 − 12  −1 −1 1 0 0 −2
2
0 − 12 0 1 2 1 1 −1 1
por lo tanto
 
2 0 0
[T ]B = 0 1 1  .
0 1 −1
Entonces si
     
1 o n n 1 1 o
U = gen 0 , W = gen  0  , −2
1 −1 1
5. Eigenvectores y diagonalización 41

T (U ) ⊂ U , T (W ) ⊂ W . Ası́ que R3 = U ⊕ W , entonces U y W reducen a


T . Luego T ∼= T1 ⊕ T2 , donde T1 : U → U con T1 u = 2u y T2 : W → W con
 
1 1
[T2 ]C = ,
1 −1
   
h 1 1 i
donde C =  0  , −2 .
−1 1

5. Eigenvectores y diagonalización
Observaciones.
1. Si T : V → V es lineal y dim V = 1, entonces T v = λv, para algún
λ ∈ K.
2. Si T : V → V es escalar, T v = λv, ∀v, entonces para cualquier base
B de V  
λ 0 0 ... 0
0 λ 0 . . . 0
 
[T ]B =  0 0 λ . . . 0  .
 
 .. .. .. . . .. 
. . . . .
0 0 0 ... λ
Entonces T es reducible con espacios de dimensión 1: V = V1 ⊕
. . . ⊕ Vn , dim V = n y T (Vi ) ⊂ Vi .
3. Si T : V → V es lineal y V = V1 ⊕ . . . ⊕ Vn , tal que dim Vi = 1 y
T (Vi ) ⊂ Vi , para cada i, entonces existe una base {v1 , . . . , vn } de V
tal que T vi = λi vi , con λi apropiadas. Es decir, si B = [v1 , . . . , vn ],
entonces
 
λ1 0 0 . . . 0
 0 λ2 0 . . . 0 
 
[T ]B =  0 0 λ3 . . . 0  = diag(λ1 , . . . , λn ).
 
 .. .. .. . . . 
. . . . .. 
0 0 0 . . . λn
Equivalentemente, existen U1 , . . . , Uk tales que Ui 6= O, V y T es
escalar en cada Ui .
Definición 19. Sea dim V < ∞, T : V → V lineal. Decimos que T es
diagonalizable si existe una base B de V tal que [T ]B es diagonal. Equiva-
lentemente
1. T se reduce en espacios de dimensión 1.
2. T se reduce en transformaciones escalares.
42 4. La estructura de una transformación lineal

Definición 20. Sea T : V → V lineal. Un eigenvector1 de T es v ∈ V , v 6= 0,


tal que T v = λv, para algún λ ∈ K. Dicho λ es llamado un eigenvalor.

Ejemplos
1. Sea T : R3 → R3 , T x = Ax, donde
 
2 1 0
A = −1 −1 1 .
1 2 1
 
1
Si tomamos v = 0, tenemos
1
      
2 1 0 1 2 1
T x = −1 −1 1 0 = 0 = 2 0 = 2v.
1 2 1 1 2 1
 
1
Entonces v = 0 es un eigenvector, y λ = 2 es su respectivo
1
eigenvalor.
2. Sea T : R2 → R2 , T x = Ax, donde
 
1 1
A= .
1 −1
Tenemos que resolver
    
1 1 x x
Tx = =λ , λ ∈ R.
1 −1 y y
Entonces tenemos
x + y = λx (1 − λ)x + y = 0
⇒ ,
x − y = λy x + (−1 − λ)y = 0

el cual tiene soluciones no triviales si λ = ± 2. Por lo tanto
   
−1√ −1√
v1 = , v2 = .
1− 2 1+ 2
Verificando

    
1 1 −1√ −1√
= 2 ,
1 −1 1− 2 1− 2
también

    
1 1 −1√ −1√
=− 2 .
1 −1 1+ 2 1+ 2
1También es llamado vector caracterı́stico o propio.
5. Eigenvectores y diagonalización 43

Por lo tanto v1 y v2 son eigenvectores y λ1 y λ2 sus respectivos


eigenvalores. Como v1 y v2 son independientes forman una base de
R2 . Si
h  −1   −1  i
B= √ , √ ,
1− 2 1+ 2
tenemos √ 
2 0

[T ]B = .
0 − 2
También si  
−1√ −1√
P = ,
1− 2 1+ 2
tenemos  
−1 1 1
[T ]B = P · · P.
1 −1
Observación. Si T : Kn → Kn , está dada por T x = Ax, A ∈
Mn (K), entonces T es diagonalizable si existe P no singular tal que
P −1 · A · P
es diagonalizable, es decir, A es similar a una matriz diagonal.
3. Sea T : R2 → R2 , dada por T x = Ax, donde
 
0 −1
A= .
1 0
Tenemos que resolver
    
0 −1 x x
Tx = =λ , λ ∈ R.
1 0 y y
Entonces tenemos
−y = λx
⇒ −y = λ2 y
x = λy
luego λ2 y + y = 0 y entonces (λ2 + 1)y = 0, pero λ2 + 1 > 0 ası́ que
y = 0 y por lo tanto x = 0. Entonces T no tiene eigenvectores.
Corolario 18. No todas las transformaciones lineales son diago-
nalizables, de hecho las hay sin eigenvectores.
4. Sea T : C2 → C2 , dada por T x = Ax, donde
 
0 −1
A= ,
1 0
del ejemplo anterior. Si λ = i o λ = −i tenemos
   
1 1
v1 = , v2 = .
−i i
44 4. La estructura de una transformación lineal

Verificando
         
0 −1 1 1 0 −1 1 1
=i , = −i .
1 0 −i −i 1 0 i i
Entonces v1 es eigenvector de T con λ = i como eigenvalor y v2 es
eigenvector con λ = −i como eigenvalor. Por lo tanto v1 , v2 forman
una base B = [v1 , v2 ] y entonces tenemos
 
i 0
[T ]B = .
0 −i
5. Sea T : R2 → R2 , T x = Ax, con
 
1 1
A= .
0 1
Tenemos que resolver
    
1 1 x x x + y = λx
=λ ⇒
0 1 y y y = λy
con soluciones no triviales si λ = 1. Entonces tenemos
 
1
v= .
0
Verificando     
1 1 1 1
=1 .
0 1 0 0
Entonces v es el único eigenvector de T , con λ = 1, ya que no hay
otro que sea linealmente independiente.
Observaciones.
1. Si v es un eigenvector de T : V → V , entonces existe λ ∈ K tal
que T v = λv. Equivalentemente (T − λ · id) = T v − λv = 0 o sea
v ∈ ker(T − λ · id). En particular ker(T − λ · id) no es trivial, o sea
(T − λ · id) no es un isomorfismo.
Definición 21. Sea T : V → V lineal. El espectro, σ(T ), es el
conjunto
σ(T ) = {λ ∈ K : ker(T − λ) 6= O}.
O sea, σ(T ) ⊂ K, es el conjunto de eigenvalores de V .
2. Si λ ∈ σ(T ), y Vλ = {v ∈ V : T v = λv}, entonces Vλ es un
subespacio de V .
i. Si u, v ∈ Vλ , T (u + v) = T u + T v = λu + λv = λ(u + v).
ii. Si u ∈ Vλ , µ ∈ K, T (µu) = µT u = µλu = λµu.
Definición 22. Si T : V → V es lineal y λ ∈ σ(T ), Vλ es llamado
el eigenespacio con respecto a λ.
5. Eigenvectores y diagonalización 45

3. Si T : Kn → Kn , entonces T x = Ax para alguna A ∈ Mn (K).


Entonces la ecuación (A − λI)x = 0 es un sistema homogéneo de
n ecuaciones con n incógnitas, y si λ ∈ σ(T ), tiene soluciones no
triviales. Entonces
det(A − λI) = 0.
Capı́tulo 5

Determinantes

1. Grupo de permutaciones
Definición 23. Una permutación de n objetos es una biyección

σ : {1, . . . , n} → {1, . . . , n}.

Sea Sn el conjunto de todas las permutaciones de n objetos. ·Sn tiene n!


elementos.
·Sn forma un grupo con composición:
1. σ ◦ (τ ◦ ρ) = (σ ◦ τ ) ◦ ρ, asociatividad
2. σ ◦ id = id ◦σ, id(k) = k, identidad
3. ∀σ ∈ Sn , ∃σ −1 ∈ Sn : σ −1 (k) = j ⇔ σ(j) = k, elementos inversos.

Ejemplos
1. S1 = {id}.
n 1 2
  
1 2 o
2. S2 = , .
1 2 2 1
n 1 2 3
 
1 2 3
 
1 2 3
  
1 2 3 o
3. S3 = , ,..., , .
1 2 3 1 3 2 3 1 2 3 2 1
4. S4 y las rotaciones de un cubo, si 1, 2, 3, 4 representan las diagonales
de un cubo, tenemos
·Rotación hacia atrás ρ
 
1 2 3 4
ρ(1) = 4, ρ(2) = 3, ρ(3) = 1, ρ(4) = 2 ⇒ ρ = .
4 3 1 2

47
48 5. Determinantes

·Rotación hacia la izquierda (del cubo) τ


 
1 2 3 4
τ (1) = 2, τ (2) = 4, τ (3) = 1, τ (4) = 3 ⇒ τ = .
2 4 1 3
Cosideramos ρ ◦ τ y τ ◦ ρ:
   
1 2 3 4 1 2 3 4
ρ◦τ = ,τ ◦ ρ = .
3 2 4 1 3 1 2 4
Observación. En general ρ ◦ τ 6= τ ◦ ρ, Sn no es conmutativo.
Proposición 13. Si σ ∈ Sn ,
1. x 7→ σ ◦ x y x 7→ x ◦ σ son biyecciones en Sn
2. x 7→ x−1 es una biyección en Sn .

Demostración. 1. Sea f : Sn → Sn , f (x) = σ ◦ x. Si f (x) = f (y), σ ◦


x = σ ◦ y y σ −1 ◦ (σ ◦ x) = σ −1 ◦ (σ ◦ y) por lo que x = y. Si y ∈ Sn ,
y = f (σ −1 ◦ y).
2. Sea g : Sn → Sn , g(x) = x−1 . Si g(x) = g(y), x−1 = y −1 , y (x ◦
x−1 ) ◦ y = x ◦ (y −1 ◦ y), por lo tanto y = x. Si y ∈ Sn , g(y −1 ) = y.

 
1 2 3
Ejemplo. Si σ := ∈ S3 tenemos
2 3 1
      
1 2 3 1 2 3 1 2 3 1 2 3
7−→ = ,
1 2 3 2 3 1 1 2 3 2 3 1
como también
      
1 2 3 1 2 3 1 2 3 1 2 3
7−→ = .
1 3 2 2 3 1 1 3 2 2 1 3
Por lo tanto
       
1 2 3 1 2 3 1 2 3 1 2 3
7→ , 7→ ,
2 1 3 3 2 1 3 2 1 1 3 2
       
1 2 3 1 2 3 1 2 3 1 2 3
7→ , 7→ .
2 3 1 3 1 2 3 1 2 1 2 3
Definición 24. (Paridad) Definimos sgn : Sn → {1, −1},
Y xσ(i) − xσ(j)
sgn σ = .
xi − xj
i<j

Ejemplos
1. Grupo de permutaciones 49

 
1 2 3
1. Sea σ := ∈ S3 ,
2 3 1
 
1 2 3 (x2 − x3 )(x2 − x1 )(x3 − x1 )
sgn = = 1.
2 3 1 (x1 − x2 )(x1 − x3 )(x2 − x3 )
 
1 2 3
2. Sea σ := ∈ S3 ,
3 2 1
 
1 2 3 (x3 − x2 )(x3 − x1 )(x2 − x1 )
sgn = = −1.
3 2 1 (x1 − x2 )(x1 − x3 )(x2 − x3 )
Teorema 9. La función sgn : Sn → {1, −1} es un homomorfismo, es decir
sgn(σ ◦ τ ) = sgn σ · sgn τ.

Demostración. Calculamos sgn(σ ◦ τ ).


Y xσ◦τ (i) − xσ◦τ (j) xτ (i) − xτ (j)
(7) sgn(σ ◦ τ ) = ·
xi − xj xτ (i) − xτ (j)
i<j
Y xσ◦τ (i) − xσ◦τ (j) Y xτ (i) − xτ (j)
(8) = ·
xτ (i) − xτ (j) xi − xj
i<j i<j
Y xσ◦τ ◦τ −1 (i) − xσ◦τ ◦τ −1 (j)
(9) = · sgn τ
xτ ◦τ −1 (i) − xτ ◦τ −1 (j)
i<j
Y xσ(i) − xσ(j)
(10) = · sgn τ
xi − xj
i<j
(11) = sgn σ · sgn τ.

Definición 25. Decimos que τ es una transposición si
τ (i) = j, τ (j) = i, τ (k) = k, k 6= i, j.

Observación. Se deja como ejercicio checar: si τ es una transposición,


entonces sgn τ = −1.
Teorema 10. Si σ ∈ Sn , entonces σ = τ1 ◦ . . . ◦ τk , en donde cada τi es una
transposición.
Corolario 19. Si σ = τ1 ◦ . . . ◦ τk = ρ1 ◦ . . . ◦ ρr , en donde cada τi y ρj son
transposiciones, entonces k y r tienen la misma paridad, es decir,
(−1)k = (−1)r .

Demostración del Teorema 10. Definimos


50 5. Determinantes

Definición 26. Decimos que σ ∈ Sn es un k-ciclo si i, σ(i), σ 2 (i), . . . , σ k−1 (i)


son diferentes, y además σ k (i) = i y σ(j) = j, si j no es ninguno de los
i, σ(i), σ 2 (i), . . . , σ k−1 (i).
 
1 2 3 4
Ejemplo. σ = , entonces 2 7→ 3 7→ 4, por lo tanto σ es una
1 3 4 2
3-ciclo.
 
1 2 3 4
Notación. σ = = (234). 
1 3 4 2
Teorema 11. Si σ ∈ Sn , entonces σ = σ1 ◦ . . . ◦ σk , en donde cada σi es un
ciclo.

Demostración. Ejemplo.
 
1 2 3 4 5 6 7
σ= = (174)(2)(356).
7 2 5 1 6 3 4


Observación. Ciclos disjuntos son conmutativos.


Podemos escribir un ciclo como producto de transpocisiones:
(a1 a2 . . . ak ) = (a1 ak )(a1 ak−1 ) . . . (a1 a2 ),
y por lo tanto tenemos k − 1 transpocisiones, pero como sgn τ = −1, si τ
es una trnaspocisión, se concluye que si σ = τ1 ◦ . . . ◦ τk−1 entonces sgn σ =
(−1)k−1 .
Ejemplo. Rotaciones del cubo, tenemos
 
1 2 3 4
σ= = (1423), sgn σ = −1,
4 3 1 2
 
1 2 3 4
τ= = (1243), sgn τ = −1,
2 4 1 3
y entonces
 
1 2 3 4
σ◦τ = = (134), sgn σ ◦ τ = sgn σ · sgn τ = 1.
3 2 4 1

2. Determinante de una matriz


Notación: Dada A ∈ Mn (K) escribimos A = (A1 , . . . , An ), en donde Aj
es la j-ésima columna de A, y
 1
aj
 .. 
Aj =  .  .
anj
2. Determinante de una matriz 51

También escribimos A = (aij ).

Teorema 12. Existe una única función det : Mn (K) → K tal que
1. Es multilineal: Para cada j = 1, . . . , n,

(12) · det(A1 , . . . ,Aj + Bj , . . . , An ) =


(13) det(A1 , . . . , Aj , . . . , An ) + det(A1 , . . . , Bj , . . . , An ),

· det(A1 , . . . , λAj , . . . , An ) = λ det(A1 , . . . , Aj , . . . , An ).


2. Es alternante: Para i 6= j,

(14) · det(A1 , . . . , Ai , . . . , Aj , . . . , An ) =
(15) − det(A1 , . . . , Aj , . . . , Ai , . . . , An ).

3. det In = 1.
A la función det se le llama determinante.

Demostración. (Existencia). Definimos, para A = (aij ),


σ(1) σ(2)
X
det A = sgn(σ)a1 a2 · · · anσ(n) .
σ∈Sn

1. D = det(A1 , . . . , λAj + µBj , . . . , An )


σ(1) σ(j) σ(j)
X
D= sgn(σ)a1 · · · (λaj + µbj ) · · · aσ(n)
n ,
σ∈Sn

donde
λa1j + µb1j
 

λAj + µBj =  ..
.
 
.
n
λaj + µbj n

Entonces
σ(1) σ(j) σ(1) σ(j)
X
(16) D= sgn(σ)[a1 · · · λaj · · · anσ(n) + a1 · · · µbj · · · anσ(n) ]
σ∈Sn
σ(1) σ(j)
X
(17) =λ sgn(σ)a1 · · · aj · · · anσ(n)
σ∈Sn
σ(1) σ(j)
X
(18) +µ sgn(σ)a1 · · · bj · · · anσ(n)
σ∈Sn
(19) = λ det(A1 , . . . , Aj , . . . , An ) + µ det(A1 , . . . , Bj , . . . , An ).
52 5. Determinantes

2. Suponemos i < j,
(20) det(A1 , . . . ,Ai , . . . , Aj , . . . , An )
σ(1) σ(i) σ(j)
X
(21) = sgn(σ)a1 · · · ai · · · aj · · · anσ(n)
σ∈Sn
σ(1) σ(j) σ(i)
X
(22) = sgn(σ)a1 · · · aj · · · ai · · · anσ(n)
σ∈Sn
σ◦τ (1) σ◦τ (j) σ◦τ (i)
X
(23) = sgn(σ)a1 · · · aj · · · ai · · · anσ◦τ (n)
σ∈Sn
σ◦τ (1) σ◦τ (j) σ◦τ (i)
X
(24) = sgn(σ ◦ τ )a1 · · · aj · · · ai · · · anσ◦τ (n)
σ∈Sn
σ(1) σ(i) σ(j)
X
(25) =− sgn(σ)a1 · · · aj · · · ai · · · anσ(n)
σ◦τ ∈Sn
σ(1) σ(i) σ(j)
X
(26) =− sgn(σ)a1 · · · aj · · · ai · · · anσ(n)
σ∈Sn
(27) = − det(A1 , . . . , Aj , . . . , Ai , . . . , An )
(17) donde τ es la transposición (ij), (19) ya que sgn(σ ◦ τ ) =
sgn(σ) · sgn(τ ) = − sgn(σ), (20) como σ 7→ σ ◦ τ es una biyección.
3. Si (aij ) = In ,
(
0, si i 6= j;
aij = .
1, si i = j
Si σ ∈ Sn , (
σ(j) 0, si σ(j) 6= j;
aj = ,
1, si σ(j) = j
o sea (
σ(1) σ(n) 0, si σ 6= id;
a1 · · · an = .
1, si σ = id
Entonces det In = sgn(id)1 · · · 1 = 1.

1. Sea
a11 a12
 
A= .
a21 a22
Entonces
σ(1) σ(2)
X
det A = sgn(σ)a1 a2
σ∈S2
donde S2 = {id, (12)}, entonces
det A = a11 a22 + sgn((12))a21 a12 = a11 a22 − a21 a12 .
2. Determinante de una matriz 53

2. Sea
a11 a12 a13
 

A = a21 a22 a23  .


a31 a32 a33
Tenemos S3 = {id, (12), (13), (23), (123), (132)}, entonces
σ(1) σ(2) σ(3)
X
(28) det A = sgn(σ)a1 a2 a3
σ∈S3

(29) = a11 a22 a33 − a21 a12 a33 − a31 a22 a13 − a11 a32 a23 + a21 a32 a13 + a31 a12 a23 .

Proposición 14. Si K = R o K = C:
1. Si Ai = Aj , i 6= j, entonces det(A1 , . . . , Ai , . . . , Aj , . . . , An ) = 0.
2. Si A1 , . . . , An son linealmente dependientes en Kn , entonces tene-
mos det(A1 , . . . , An ) = 0.

Demostración. Si K = R o K = C,
1. Sabemos que
(30) det(A1 , . . . , Ai , . . . , Aj , . . . , An ) =
(31) − det(A1 , . . . , Aj , . . . , Ai , . . . , An ),

pero si Ai = Aj , det(A1 , . . . , Ai , . . . , Aj , . . . , An ) = 0.
2. Si A1 , . . . , An son linealmente dependientes entonces uno de ellos
X
Aj = λ1 A1 + . . . + λj−1 Aj−1 + λj+1 Aj+1 + . . . + λn An = λi Ai ,
i6=j

entonces
X
det(A1 , . . . , An ) = λi det(A1 , . . . , Ai , . . . , An ) = 0.
i6=j

Demostración de unicidad de det.

Demostración. Suponemos que T : Mn → K satisface las propiedades 1,2


y 3 de det. Vamos a mostrar que T = det.
Evaluamos T (aij ) = T (A1 , . . . , An ). Si
 1
aj
 .. 
Aj =  .  ,
anj
54 5. Determinantes

entonces Aj = a1j e1 + . . . + anj en , donde [e1 , . . . , en ] es la base estándar.


Entonces
n
X n
X
T (A1 , . . . , An ) = T ( ai11 ei1 , . . . , ai1n ein ).
i1 =1 in =1
·Como T es multilineal
n X
X n n
X
T (A1 , . . . , An ) = ... ai11 · · · ainn · T (ei1 , . . . , ein ).
i1 =1 i2 =1 in =1

· Como T es alternante, al igual que en la proposición, T (ei1 , . . . , ein ) = 0


si algunos ij están repetidos. Ahora, si los ij son distintos entonces tenemos
que T (ei1 , . . . , ein ) = T (eσ(1) , . . . , eσ(n) ) para alguna permutación σ ∈ Sn .
Luego
X σ(1)
T (A1 , . . . , An ) = a1 · · · anσ(n) · T (eσ(1) , . . . , eσ(n) )
σ∈Sn

de nuevo, como T es alternante T (eσ(1) , . . . , eσ(n) ) = sgn(σ)T (e1 , . . . , en )


pero T (e1 , . . . , en ) = T (In ), entonces
X σ(1)
T (A1 , . . . , An ) = a1 · · · aσ(n)
n sgn(σ) · T (In ).
σ∈Sn

Como T satisface la propiedad 3, tenemos T = det. 


Proposición 15. det At = det A, donde At = (aij )t = (aji ).

Demostración. Tenemos
σ(1)
X
det A = sgn(σ)a1 · · · anσ(n) .
σ∈Sn
σ(1) σ(n)
Para cada σ ∈ Sn , a1 · · · an = a1σ−1 (1) · · · anσ−1 (n) , y sgn(σ −1 ) = sgn(σ),
ya que σ 7→ σ −1 es una biyección de Sn . O sea
σ(1)
X X
(32) det A = sgn(σ)a1 · · · anσ(n) = sgn(σ −1 )a1σ−1 (1) · · · anσ−1 (n)
σ∈Sn σ∈Sn
X
(33) = sgn(σ)a1σ(1) · · · anσ(n)
σ∈Sn
(34) = det At .

Definición 27. Dada A ∈ Mn , definimos el menor ij de A, Mji (A), como
la matriz de (n − 1) × (n − 1) obtenida al eliminar de A el i-ésimo renglón
y la j-ésima columna.
Proposición 16. (Expansión de Lagrange).
2. Determinante de una matriz 55

1. Para cada i = 1, . . . , n,
Xn
det A = (−1)i+j aij det Mji (A).
j=1

2. Para cada j = 1, . . . , n,
X n
det A = (−1)i+j aij det Mji (A).
i=1

Teorema 13. Si A, B ∈ Mn , det(AB) = det A · det B 1.


Corolario 20. det A 6= 0 si, y sólo si, las columnas de A son linealmente
independientes.

Demostración. (⇒).Ya sabemos que si A1 , . . . , An son linealmente depen-


dientes, entonces det(A1 , . . . , An ) = 0, y esta es la contrapositiva de la pri-
mera parte del corolario.
(⇐).Si T : Kn → Kn , T x = Ax es un automorfismo, su inversa T −1 x =
A−1 x. O sea, si las columnas de A son linealmente independientes, A tiene
inversa, A−1 . Pero entonces, por el teorema anterior
det A · det A−1 = det(AA−1 ) = det(In ) = 1.
Ası́ que det A 6= 0. 
Definición 28. Decimos que A ∈ Mn es singular si det A = 0.

Determinantes-Resumen.
Sea A ∈ Mn (K). Definimos
σ(1)
X
det A = sgn(σ)a1 · · · anσ(n) ,
σ∈Sn
con las siguientes propiedades
1. Multilinealidad.
2. Alternancia.
3. det In = 1.2
4. Si las columnas de A son linealmente dependientes, det A = 0.
5. det At = det A.
6. Expansión por renglones
Xn
det A = (−1)i+j aij det Mji (A).
j=1

1La demostración de este teorema se hará un poco más delante.


2Estas tres primeras propiedades garantizan unicidad.
56 5. Determinantes

7. Expansión por columnas


n
X
det A = (−1)i+j aij det Mji (A).
i=1

8. Si A es una matriz triangular, det A = a11 a22 · · · ann .


9. Si
 
P Q
A= ,
0 R
donde P es una matriz de m × m, Q es una matriz de m × (n − m) y
R es una matriz de (n−m)×(n−m). Entonces det A = det P ·det R.
También si
 
P1 ∗ ∗ . . . ∗
 0 P2 ∗ . . . ∗ 
 
A =  0 0 P3 . . . ∗  ,
 
 .. .. .. . . .
. . . . .. 
0 0 0 . . . Pr
donde cada Pi es una matriz, entonces det A = det P1 · · · det Pr .

Demostración. (Propiedad 9).Utilizamos inducción matemática. Si m = 1


 1 
a1 ∗ ∗ . . . ∗
 0 a2 a2 . . . a2 
 2 3 n
3 3 3
A =  0 a2 a3 . . . an  .

 .. .. .. . . .
. . . . .. 
0 an2 an3 . . . ann

P = (a11 ). Expandemos en la primer columna y tenemos que

det A = a11 det R + 0 . . . = det P · det R.

Sea m > 1, y suponemos que el resultado es cierto para m − 1.


Observación. Si 1 ≤ i ≤ m
Mj (P ) Q0
   i 
i P Q
Mj = ,
0 R 0 R

donde Mji (P ) es (i1) menor de P , y Q0 es la matriz sin el i-ésimo renglón.


Ahora, Mji (P ) es una matriz de (m − 1) × (m − 1), ası́ que por inducción
 
i P Q
det(Mj ) = det Mji (P ) · det R.
0 R
2. Determinante de una matriz 57

Expandemos por la primer columna


  X m  
P Q i+1 i i P Q
(35) det = (−1) a1 det M1
0 R 0 R
i=1
Xm
(36) =( (−1)i+1 ai1 det Mji (P )) det R
i=1
(37) = det P · det R.


Demostración Teorema 13. Si A1 , . . . , An y B1 , . . . , Bn son las columnas


de A y B respectivamente, entonces
Xn
(AB)j = A · Bj = b1j Ai .
i=1
Calculamos det(AB),
(38) det(AB) = det((AB)1 , . . . , (AB)n )
n
X n
X
(39) = det( bi11 Ai1 , . . . , binn Ain )
i1 =1 in =1
n
X
(40) = bi11 · · · binn det(Ai1 , . . . , Ain )
i1 ,...,in =1
σ(1)
X
(41) = b1 · · · bσ(n)
n det(Aσ(1) , . . . , Aσ(n) )
σ∈Sn
σ(1)
X
(42) =( sgn(σ)b1 · · · bσ(n)
n ) det A
σ∈Sn
(43) = det A · det B.

Corolario 21. Si A ∈ Mn (K), entonces las columnas de A son linealmente
independientes si, y sólo si, det A 6= 0.

Consecuencias del Teorema 13:


1. det A · det A−1 = 1;
2. det(AB) = det(BA), det(ABC) = det(CAB) = det(BCA);
3. det(P −1 · A · P ) = det A.
Corolario 22. Si A y B son similares, entonces det A = det B.
Teorema 14. (Resumen). Sea A ∈ Mn (K), T : Kn → Kn , T x = Ax. Los
siguientes enunciados son equivalentes
58 5. Determinantes

1. El sistema de n ecuaciones con n incógnitas Ax = y, tiene una


única solución para cada y ∈ Kn ;
2. T es un isomorfismo;
3. A es invertible;
4. T es sobreyectiva;
5. Las columnas de A generan Kn ;
6. T es inyectiva;
7. ker T = 0;
8. El sistema Ax = 0 tiene sólo la solución trivial x = 0;
9. Las columnas de A son linealmente independientes;
10. det A 6= 0;
11. det At 6= 0;
12. Los renglones de A son linealmente independientes;
13. El sistema xt A = 0t tiene sólo la solución trivial;
14. Los renglones de A generan Kn .

3. Polinomio caracterı́stico
Definición 29. Sea T : V → V una transformación lineal en un espa-
cio de dimensión finita V . El determinante de T , det T , se define como el
determinante de la matriz [T ]B con respecto a una base B.

Ejemplos
1. T : P3 → P3 , T p = p0 . Tomamos B = [1, x, x2 ]. Tenemos T (1) =
0, T (x) = 1, T (x2 ) = 2x. Entonces
 
0 1 0
[T ]B = 0 0
 2 .
0 0 0
Entonces det T = 0.
2. V = gen{sin x, cos x}, d : V → V , df = f 0 . Tomamos B =
[sin x, cos x]. Tenemos d(cos x) = − sin x, d(sin x) = cos x. Entonces
 
0 1
[d]B = .
−1 0
Entonces det(d) = 1. Ahora tomamos C = [cos x + sin x, cos x −
sin x]. Tenemos d(cos x + sin x) = − sin x + cos x, d(cos x − sin x) =
− sin x − cos x. Entonces
 
0 −1
[d]C = .
1 0
3. Polinomio caracterı́stico 59

Por lo tanto det(d) = 1.


3. Sea T : P3 → P3 , dada por
Z 1 Z 1 Z 1
Tp = ( pdt) + ( tp(t)dt)x + ( t2 p(t)dt)x2 .
−1 −1 −1

Usamos B = [1, x, x2 ]. Tenemos


·T (1) = 2 + 23 x2 , ya que
Z 1 Z 1 Z 1
2
dt = 2; tdt = 0; t2 dt = .
−1 −1 −1 3
2
·T (x) = 3 x, ya que
Z 1 Z 1 Z 1
2 2
tdt = 0; t dt = ; tt2 dt = 0.
−1 −1 3 −1
2 2 2
·T (x2 ) = 3 + 5x ,
ya que
Z1 Z 1 Z 1
2 2
t2 dt = ; tt2 dt = 0; t2 t2 dt = .
−1 3 −1 −1 5
Entonces
2
 
2 0 3
2
[T ]B =  0 3 0 .
2 2
3 0 5
32
Por lo que det T = 135 .
4. Sea V = gen{eax cos bx, eax sin bx}, a, b ∈ R, b 6= 0. Sea d : V → V
dada por df = f 0 . Usamos B = [eax cos bx, eax sin bx], entonces
 
a b
[d]B = .
−b a
Por lo tanto det(d) = a2 + b2 .
Definición 30. Sea A ∈ Mn (K). El polinomio caracterı́stico de A es el
polinomio
pA (λ) = det(A − λIn ).

Observaciones
1. pA (λ) es un polinomio de grado n.
2. λ ∈ σ(A) ⇔ pA (λ) = 0, o sea, si λ es raı́z del polinomio.
3. σ(A) tiene a lo más n elementos.
4. Si K = C, entonces σ(A) 6= O (teorema fundamental del álgebra).
Ejemplos
60 5. Determinantes

 
0 −1
1. Sea A = en K = R. Tenemos
1 0
 
−λ −1
pA (λ) = det = λ2 + 1,
1 −λ
lo cual no tiene raı́ces en R, por lo tanto no tiene eigenvalores. Sin
embargo x 7→ Ax en C2 ,
pA (λ) = λ2 + 1 = (λ − i)(λ + i),
ası́ que σ(A) = {i, −i}.
 
1 1
2. Sea T : R2 → R2 , dada por T x = x, tenemos
0 1
 
1−λ 1
pT (λ) = det = (1 − λ)2 ,
0 1−λ
 
1
por lo tanto σ(T ) = {1}. Pero VT = gen{ }=6 R2 .
0
 
2 2 cos θ − sin θ
3. Sea ρθ : R → R , dada por ρθ x = x. Entonces
sin θ cos θ
 
cos θ − λ − sin θ
pρθ (λ) = det = λ2 − 2λ cos θ + 1.
sin θ cos θ − λ
El descriminante de pρθ (λ) es
(−2 cos θ)2 − 4 = 4 cos2 θ − 4 = 4(cos2 θ − 1) = −4 sin2 θ < 0,
por lo tanto pρθ (λ) no tiene raı́ces reales si θ 6= kπ. Sin embargo, si
ρθ : C2 → C2 , tenemos pρθ (λ) = λ2 − 2λ cos θ + 1, con
p
2 cos θ ± −4 sin2 θ
λ± = = cos θ ± i sin θ = e±iθ ,
2
ası́ que σ(ρθ ) = {eiθ , e−iθ }. Calculamos Veiθ
cos θ − eiθ
    
− sin θ x 0
= ,
sin θ cos θ − eiθ y 0
entonces

(cos θ −e )x−(sin θ)y = 0 ⇒ (−i sin θ)x−(sin θ)y = 0 ⇒ (−ix−y) sin θ = 0
por lo tanto  
1
Veiθ = gen{ }.
−i
De la misma forma tenemos que
 
1
Ve−iθ = gen{ }.
i
3. Polinomio caracterı́stico 61

   
1 1
Por lo que, si B = [ , ], tenemos
−i i
   −1   
−1 cos θ − sin θ 1 1 cos θ − sin θ 1 1
[ρθ ]B = P P = ,
sin θ cos θ −i i sin θ cos θ −i i
por lo tanto
eiθ
 
0
[ρθ ]B = .
0 e−iθ
Diagonalización.
Dada T : V → V , el espectro es
σ(T ) = {λ ∈ K : ker(T − λ) 6= O}.
Si λ ∈ σ(T ), el eigenespacio con respecto a λ es
Vλ = {v ∈ V : T v = λv}.
Observación. Si λ, µ ∈ σ(T ), λ 6= µ,
Vλ ∩ Vµ = O.
Es decir, si v1 ∈ Vλ y v2 ∈ Vµ , entonces v1 y v2 son linealmente indepen-
dientes. Si v1 = αv2 :
λv1 = αλv2 , T v1 = T αv2 ⇒ λv1 = αT v2 = αµv2 ⇒ αλv2 = αµv2 ⇒ λ = µ.
Teorema 15. Sea T : V → V lineal y λ1 , . . . , λr eigenvalores distintos de
T y v1 , . . . , vr eigenvectores con respecto a cada λi , entonces v1 , . . . , vr son
linealmente independientes.

Demostración. En busca de una contadicción, suponemos que son depen-


dientes y que la combinación lineal no trivial con el menor número de vec-
tores posible tiene s vectores. Digamos
(44) v1 = α2 v2 + . . . + αs vs , (αi 6= 0).
Si multiplicamos la ecuación (36) por λ1 , obtenemos
(45) λ1 v1 = α2 λ1 v2 + . . . + αs λ1 vs .
Si aplicamos T de ambos lados de la ecuación (36) obtenemos
(46) T v1 = α2 T v2 + . . . + αs T vs ,
y entonces, por ser eigenvectores,
(47) λ1 v1 = α2 λ2 v2 + . . . + αs λs vs .
Si sustraemos la ecuación (39) de (37)
(48) 0 = α2 (λ1 − λ2 )v2 + . . . + αs (λ1 − λs )vs ,
como αi 6= 0 y λ1 − λi 6= 0, tenemos una combinación lineal no trivial de
s − 1 vectores que da 0, lo cual contradice la minimalidad de s. 
62 5. Determinantes

En el contexto dim V < ∞, dim V = n:


σ(T ) = {λ ∈ K : det(T − λ) = 0},
o sea, σ(T ) es el conjunto de raı́ces del polinomio caracterı́stico, pT (λ) =
det(T − λ), de T . pT tiene a lo más n raı́ces.
Corolario 23. Si dim V = n, T : V → V lineal y el polinomio caracterı́stico
pT tiene n raı́ces distintas, entonces T es diagonalizable.

Por ejemplo si B = [v1 , . . . , vn ], T vi = λi vi , tenemos


 
λ1 0 0 . . . 0
 0 λ2 0 . . . 0 
 
[T ]B =  0 0 λ3 . . . 0  .
 
 .. .. .. . . .. 
. . . . . 
0 0 0 . . . λn

Demostración. Si λ1 , . . . , λn son las raı́ces de pT , y tomamos vi como un


eigenvector con respecto a λi , entonces v1 , . . . , vn son independientes y por
lo tanto forman una base de V . 

Ejemplo. Sea T : R3 → R3 dada por T x = Ax, donde


 
2 −1 0
A = 0 −1 3  .
0 2 −6
Tenemos que
 
2−λ −1 0
pT (λ) = det(A − λI3 ) = det  0 −1 − λ 3  = λ(2 − λ)(λ + 7).
0 2 −6 − λ
Ası́ que las raı́ces de pT son 0, 2, −7. Como son distintos, esta transformación
se puede diagonalizar. Entonces
V0 = {x ∈ R3 : Ax = 0x = 0}, (λ = 0),
tenemos entonces    1  
2 −1 0 x 0
0 −1 3  x2  = 0 ,
0 2 −6 x3 0
luego
3
2x1 − x2 = 0 2 = 3x3 2
x
−x2 + 3x3 = 0 ⇒ 2 1 ⇒  3  ∈ V0 .
x = 2x
2x2 − 6x3 = 0 1
3. Polinomio caracterı́stico 63

Entonces 3
n 2 o
V0 = gen  3  .
1
De la misma manera obtenemos
   
n 1 o n 1 o
V2 = gen 0 , V−7 = gen  9  .
0 −18
     
3 1 1
Si consideramos la base B = [6 , 0 ,  9 ], tenemos que
2 0 −18
 
0 0 0
[T ]B = 0 2 0  ,
0 0 −7
pero también sabemos que
 
2 −1 0
[T ]E = 0 −1 3  ,
0 2 −6
entonces
 −1   
3 1 1 2 −1 0 3 1 1
[T ]B = 6 0 9  0 −1 3  6 0 9 .
2 0 −18 0 2 −6 2 0 −18

Hasta el momento se dejan ver dos obstáculos con respecto a diagonali-


zación
1. pT (λ) podrı́a no tener n raı́ces (aún contando multiplicidades). T
no se puede diagonalizar.
2. pT (λ) tiene raı́ces múltiples:
Ejemplo: Si
 
2 0 −1
A = 0 −1 1  ,
0 0 −1
entonces pT (λ) = −(λ − 2)(λ + 1)(λ + 1), luego
 
n 0 o
V−1 = gen 1 ,
0
64 5. Determinantes

por lo tanto dim V = 1 < 2. Pero si


 
2 0 −1
A = 0 −1 0  ,
0 0 −1
tenemos    
n 0 1 o
V−1 = gen 1 , 0 .
0 3
Capı́tulo 6

Espacios con producto


interno

1. Geometrı́a de espacios vectoriales


x1 x2
   
Si θ representa el ángulo entre el vector y en R2 , tenemos
y1 y2
que la distancia entre ellos está dada por
p
d = (x2 − y 2 )2 + (x1 − y 1 )2 ,
y tenemos
x1 y 1 + x2 y 2
cos θ = p p ,
(x)2 + (x2 )2 (y 1 )2 + (y 2 )2
con la ley de cosenos.
Definición 31. Definimos el producto punto en R2 como
 1  1
x y
2 · 2 = x1 y 1 + x2 y 2 ,
x y
y  1  1
x x
· = (x1 )2 + (x2 )2 ,
x2 x2
geométrico y siempre positivo.

Tenemos entonces
p x·y
d = (x − y) · (x − y), cos θ = √ √ .
x·x y·y
Definición 32. Sea V un espacio vectorial sobre K, (R, C). Un producto
interno en V es una función (·, ·) : V × V → K tal que

65
66 6. Espacios con producto interno

1. Para todo v ∈ V , (v, v) ≥ 0 y (v, v) = 0 si, y sólo si, v = 0;


2. Para todo u, v ∈ V , (u, v) = (v, u); y
3. Para todo u, v, w ∈ V , λ, µ ∈ K, (λu + µv, w) = λ(u, w) + µ(v.w).
De 2 y 3 tenemos que (u, λv + µw) = λ(u, v) + µ(u, w), ya que
(49) (u, λv + µw) = (λv + µw, u)
(50) = λ(v, u) + µ(w, u) = λ(v, u) + µ(w, u)
(51) = λ(u, v) + µ(u, w).

Nota. Si K = R, el producto interno es bilineal y simétrico.


Ejemplos
1. Producto punto (real) en Rn
n
X
1 1 2 2 n n
x · y = x y + x y + ... + x y = xi y i .
i=1
El cual satisface
a) x · x = P(xi )2 ≥ P0 y x · x = 0 si, y sólo si, xi = 0, o sea x = 0.
P
b) x · y = xi y i = Py i xi = y · x.
(λxi + µy i )z i =
P i i P i i
c) (λx
P +i µy) · zP= λx z + µy z =
λ x z i + µ y i z i = λ(x · z) + µ(y · z).
2. Producto punto en Cn
n
X
z·w = z k wk .
k=1
El cual satisface
a) z · z = z k z k = |z k |2 ≥ 0 y z · z = 0 ⇔ z k = 0 ⇔ z = 0.
P P

b) z · w = z k wk = wk z k = wk z k = w · z
P P P

c) (λz + µw) · u = (λz k + µwk )uk = λ z k uk + µ wk uk =


P P P
λ(z · u) + µ(w · u).
3. En C([a, b]), K = R, tenemos el producto interno
Z b
(f, g) = f (x)g(x)dx.
a
El cual satisface
Rb
a) (f, f ) = a f 2 (x)dx ≥ 0 y por la continuidad de f , (f, f ) =
0 ⇔ f = 0.
Rb Rb
b) (f, g) = a f (x)g(x)dx = a g(x)f (x)dx = (g, f ).
Rb Rb
c) (λf + µg, h) = a (λf (x) + µg(x))h(x)dx = λ a f (x)h(x)dx +
Rb
µ a g(x)h(x)dx = λ(f, h) + µ(g, h).
1. Geometrı́a de espacios vectoriales 67

4. En P3 , definimos el producto interno


Z 1
(p, q) = p(x)q(x)dx.
0
Por ejemplo si p(x) = a0 + a1 x + a2 x2 y q(x) = b0 + b1 x + b2 x2 ,
tenemos
(52)

(p, q) = (a0 + a1 x + a2 x2 , b0 + b1 x + b2 x2 )
Z 1
(53) = (a0 b0 + (a0 b1 + a1 b0 )x + (a0 b2 + a1 b1 + a2 b0 )x2
0
(54) + (a1 b2 + a2 b1 )x3 + a2 b2 x4 ) dx
a0 b1 + a1 b0 a0 b2 + a1 b1 + a2 b0 a1 b2 + a2 b1 a2 b2
(55) = a0 b0 + + + +
2 3 4 5
Definición 33. Un producto interno induce una norma en V , k · k : V →
[0, ∞), dada por p
kvk = (v, v).

Ejemplos
1. En R2  
x p
k k = x2 + y 2 ,
y
el cual representa la distancia del vector hasta el origen.

2. En general, si en Rn definimos (x, y) = x · y, a kxk = x · x se le
llama la norma euclideana, con
p
kxk = |x| = (x1 )2 + . . . + (xn )2 .
3. En Cn , si (z, w) = z · w = z k wk , definimos
P
p
kzk = |z| = |z 1 |2 + . . . + |z n |2 .
4. En C([a, b]), si
Z b
(f, g) = f (x)g(x)dx,
a
definimos s
Z b
kf k = f 2 (x)dx,
a
la cual es llamada la norma L2 .
Proposición 17. (Desigualdad de Cauchy-Schwarz).Si (·, ·) es un producto
interno en V y k · k su norma inducida, entonces para todo u, v ∈ V
|(u, v)| ≤ kuk · kvk.
68 6. Espacios con producto interno

(v,u)
Demostración. Suponemos que u 6= 0. Tenemos w = kuk2
u. Luego
(v, u)
(v − w, u) = (v, u) − (w, u) = (v, u) − (u, u) = 0.
kuk2
Entonces
(56)

0 ≤ (v − w, v − w) = (v, v) − (v, w) − (w, v) + (w, w)


(v, u) (v, u) (v, u) (v, u)
(57) = kvk2 − (v, 2
u) − ( 2
u, v) + ( u, u)
kuk kuk kuk2 kuk2
(v, u) (v, u) (v, u) (v, u)
(58) = kuk2 − 2
(v, u) − (u, v) + (u, u)
kuk kuk kuk2 kuk2
entonces tenemos
|(u, v)|2 |(u, v)|2 |(u, v)|2
0 ≤ kvk2 − − + .
kuk2 kuk2 kuk2
Por lo tanto
|(u, v)|2 |(u, v)|2
0 ≤ kvk2 − ⇒ ≤ kvk2 .
kuk2 kuk2


Observación. Como |(u, v)| ≤ kuk · kvk, si K = R:


(u, v)
−1 ≤ ≤ 1,
kuk · kvk
en R2 tenemos
x·y
cos θ = .
|x| · |y|
En un espacio sobre R podemos definir, para u, v ∈ V , el ángulo entre ellos
θ como el que satisface
(u, v)
cos θ = .
kuk · kvk
El cual existe y tiene como única solución 0 ≤ θ ≤ π. Si (u, v) = 0, θ = π2 ,
decimos que u y v son ortogonales.
Definición 34. Sean V un espacio con producto interno, y u, v ∈ V . Deci-
mos que u y v son ortogonales, u⊥v, si (u, v) = 0.

Ejemplos
1. En C([−1, 1]), f (x) = 1 y g(x) = x son ortogonales, ya que
Z 1
(1, x) = xdx = 0.
−1
En general, si f es par y g es impar, entonces f ⊥g.
1. Geometrı́a de espacios vectoriales 69

2. En C([−π, π]), fk (x) = sin kx, fm (x) = sin mx, gp (x) = cos px y
gq (x) = cos qx, k, m, p, q ∈ Z+ , k 6= m y p =
6 q. Todas estas funcio-
nes son ortogonales entre sı́.

Proposición 18. (Propiedades de la norma).Si k · k es la norma inducida


por un producto interno sobre V , entonces
1. Si v ∈ V , kvk = 0 si, y sólo si, v = 0;
2. Si v ∈ V , λ ∈ K, kλvk = |λ|kvk; y
3. Desigualdad del triángulo: si u, v ∈ V , ku + vk ≤ kuk + kvk.

Demostración. Tenemos
1. kvk = 0 ⇔ (v, v) = 0 ⇔ v = 0.
p q p
2. kλvk = (λv, λv) = λλ(v, v) = |λ|2 (v, v) = |λ|kvk.
3. Utilizamos Cauchy-Schwarz,
(59) ku + vk2 = (u + v, u + v)
(60) = (u, u) + (u, v) + (v, u) + (v, v)
(61) = kuk2 + 2 Re(u, v) + kvk2
(62) ≤ kuk2 + 2|(u, v)| + kuk2
(63) ≤ kuk2 + 2kuk · kvk + kvk2
(64) = (kuk + kvk)2 .


Observación. La norma k · k induce una distancia o métrica en V ,


d(u, v) = ku − vk.
Gracias a la proposición anterior:
1. d(u, v) = 0 ⇔ u = v;
2. d(u, v) = d(v, u);
3. d(u, v) ≤ d(u, w) + d(w, v).

Proposición 19. (Teorema de Pitágoras). Si u⊥v en el espacio con pro-


ducto interno en V , entonces
ku + vk2 = kuk2 + kvk2 .

Demostración. ku + vk2 = (u + v, u + v) = kuk2 + kvk2 , ya que (u, v) = 0


porque u⊥v. 
70 6. Espacios con producto interno

Corolario 24. Sea V un espacio con producto interno, u, v ∈ V , u 6= 0 y


U = gen{u}. Sea w ∈ U tal que (v − w)⊥u. Entonces para cualquier otro
vector x ∈ U
kv − wk ≤ kv − xk.

Demostración. v − x = (v − w) + (w − x) y como w − x ∈ U , w − x = λu.


Además (v − w, u) = 0, ası́ que (v − w, λu) = 0, o sea (v − w)⊥(w − x). Por
el teorema de Pitágoras, kv − xk2 = kv − wk2 + kw − xk2 ≥ kv − wk2 . 

2. Bases ortonormales
Proposición 20. Sea S ⊂ V un conjunto de vectores ortogonales entre sı́,
0∈/ S. Si u, v ∈ S, u⊥v. Entonces S es un conjunto linealmente indepen-
diente.

Demostración. Si v1 , . . . , vk ∈ S, y λ1 v1 + . . . + λk vk = 0, entonces para


cada vi , (λ1 v1 + . . . + λk vk , vi ) = 0. Pero esto implica 0 = λ1 (v1 , vi ) + . . . +
λk (vk , vi ), y como vj ⊥vi , excepto si i = j, tenemos 0 = λ1 (v1 , vi ) + . . . +
λk (vk , vi ) = λi (vi , vi ), como (vi , vi ) ≥ 0, λi = 0. 
Definición 35. Sea V un espacio con producto interno (·, ·). Decimos que
S ⊂ V es un conjunto ortonormal si para u, v ∈ S
(
0, si u 6= v;
(u, v) = .
1, si u = v

Observación. Si S es un conjunto de vectores ortogonales entre sı́, 0 ∈


/ S,
1
S se puede hacer ortonormal reemplazando cada vez v ∈ S por kvk v.
Ejemplo. Consideramos C([−π, π]) y S = {cos kx : k ∈ N} ∪ {sin kx :
k ∈ Z+ }. S es un conjunto ortogonal con respecto al producto interno
Z π
(f, g) = f (x)g(x)dx.
−π
·Si k = 0:
Z π √ 1
(1, 1) = dx = 2π, k1k = 2π ⇒ f0 (x) = √ , kf0 k = 1.
−π 2π
·Si k > 0:
Z π √ 1
(cos kx, cos kx) = cos2 kxdx = π, k cos kxk = π ⇒ fk (x) = √ cos kx.
−π π
Z π √ 1
(sin kx, sin kx) = sin2 kxdx = π, k sin kxk = π ⇒ fk (x) = √ sin kx.
−π π
Entonces τ = { 2π , √1π
√1
cos kx, √1π sin kx : k ∈ Z} es un conjunto ortonormal.
2. Bases ortonormales 71

Teorema 16. Sea V un espacio con producto interno (·, ·) y u1 , . . . , un


vectores ortonormales. Tomamos
n
X n
X
u= ai ui , v = bi u i .
i=1 i=1

Entonces
1. Para cada i, ai = (u, ui );
Identidades de Parseval
2. (u, v) = ni=1 ai bi ;
P

3. kuk2 = ni=1 |ai |2 .


P

Demostración. Tenemos
1. Para cada i:

(65) (u, ui ) = (a1 u1 + . . . + an un , ui ) = a1 (u1 , ui ) + . . . + an (un , ui )


(66) = ai (ui , ui ) = ai ,

ya que ui ⊥uj y (ui , ui ) = 1.


2. Ahora
X X X X X
(67) (u, v) = ( ai ui , bj u j ) = ai bj (ui , uj ) = ai bi (ui , ui )
i j i j i
X
(68) = ai bi .
i

3. Esta demostración es análoga al punto anterior.




Ejemplos
1. Base estándar en Kn : e1 , . . . , en . Con respecto al producto punto
(
0, si i 6= j;
ei · ej = .
1, si i = j

Entonces tenemos
n
X X X
x·y = xi y i , x = xi ei , y = y j ej .
i=1 i j
72 6. Espacios con producto interno

 
1
2. En R2 , con respecto al producto punto, consideramos v1 = y
1
 
1
v2 = , v1 · v2 = 0, entonces v1 ⊥v2 . Luego
−1
! !
√1 √1
   
1 1 1 1 1 1
u1 = v1 = √ = √12 , u2 = v2 = √ = 2
√1
,
kv1 k 2 1 2
kv 2 k 2 −1 − 2
! !
x1 + x2 √1 x 1 − x2 √1
x = (x, u1 )u1 + (x, u2 )u2 = ( √ ) √12 + ( √ ) 2
√1
.
2 2 2 − 2
R 2π P
3. Calculamos 0 ( nk=1 2k cos kx)2 dx. Si consideramos
Z 2π
(f, g) = f (x)g(x)dx.f, g ∈ C([0, 2π]),
0
tenemos
n n
X X √ 1
k 2k cos kxk2 = k 2k π · √ cos kxk2
π
k=1 k=1

por las identidades de Parseval


n n n
X √ 1 X √ X
k 2k π · √ cos kxk2 = (2k π)2 = π 22k = π(22n+2 − 1).
π
k=1 k=1 k=1

Teorema 17. (Gram-Schmidt). Sea V un espacio vectorial con producto


interno y sea {v1 , . . . , vn } una base. Entonces existe una base ortonormal
{u1 , . . . , un } tal que
gen{u1 , . . . , uk } = gen{v1 , . . . , vk }.
1
Demostración. Tomamos u1 = kv1 k v1 . Sea w2 = v2 − (v2 , u1 )u1 , observa-
ciones
1. Tenemos que (w2 , u1 ) = 0, ya que
(w2 , u1 ) = (v2 − (v2 , u1 )u1 , u1 ) = (v2 , u1 ) − (v2 , u1 )(u1 , u1 ) = 0,
porque (u1 , u1 ) = 1.
2. w2 6= 0, porque w2 = 1 · v2 + λv1 , y v1 , . . . , vn son una base.
1
Tomamos u2 = kw2 k w2 , y ası́ ku2 k = 1 y u1 ⊥u2 , con

gen{u1 , u2 } = gen{v1 , v2 }.
Inductivamente, una vez construı́dos u1 , . . . , uk , tomamos wk+1 = vk+1 −
(vk+1 , u1 )u1 − . . . − (vk+1 , uk )uk .
2. Bases ortonormales 73

1. Para j = 1, . . . , k, tenemos que (wk+1 , uj ) = 0, porque


(69) (wk+1 , uj ) = (vk+1 − . . . − (vk+1 , uk )uk , uj )
(70) = (vk+1 , uj ) − (vk+1 , uj )(uj , uj ) = 0.
2. wk+1 6= 0, porque wk+1 = 1 · vk+1 + x, x ∈ gen{u1 , . . . , uk } =
gen{v1 , . . . , vk }, entonces wk+1 = 1 · vk+1 + λ1 v1 + . . . + λk vk , y
como v1 , . . . , vk+1 son independientes wk+1 6= 0. Tomamos uk+1 =
1
kwk+1 k wk+1 .

Ejemplo. Consideramos la base


       
1 2 2 1
n 1 1  2  −1 o
 , , ,  .
0 1  3   1 
1 0 −1 0
·Aplicamos Gram-Schmidt:
   √1 
1 3
1 1  1  √1 
u1 = v1 = √   =  3 .

kv1 k 3  0 0 
1 √1
3
Luego tenemos
 1   
  √
2 3 1
1  3  √1  0
1  − √ 3 
w2 = v2 − (v2 , u1 )u1 =    3 = 
 ,
0 1
0 √1 −1
3

por lo tanto
  √1
 
1 3
1 1  0   0 
u2 = w2 = √  = .

 1
kw2 k 3  1   √3 
−1 − √1 3
De la misma forma
(71) w3 = v3 − (v3 , u1 )u1 − (v3 , u2 )u2
 1   1 
  √ √ 
2 3 3 −1
1
2 3  √   6  0  1
  
 3  − √3 
(72) =   3 − √  1 
 =  ,
0 3  √3  1
1
−1 √
3
− √1 3
0
74 6. Espacios con producto interno

entonces
 − √1 

−1 3
1 1  1   √1 
u3 = w3 = √  = 3  .

kw3 k 3  1   √1  
3
0 0

Finalmente

0
− 2 
w4 = v4 − (v4 , u1 )u1 − (v4 , u2 )u2 − (v4 , u3 )u3 =  3
 2 ,
3
2
3

entonces
  0 

0
1 1 − 23  − √1 
3
u4 = w4 = 2 √  = .

√1 

kw4 k 2  2  
3 3  3 
2
√1
3 3

Por lo tanto {u1 , u2 , u3 , u4 } es un conjunto ortonormal.


Observaciones. Sabemos que vk = λ1 u1 + . . . + λk uk y uk = µ1 v1 + . . . +
µk vk , entonces

1. Si P es la matriz de cambio de base de [v1 , . . . , vk ] a [u1 , . . . , uk ],


entonces P es una matriz triangular;
2. µk > 0, porque uk = kw1k k wk = 1
kwk k vk + . . .. Entonces la diagonal
tiene entradas positivas.

Corolario 25. Sea A ∈ Mmn (K), K = R o K = C, tal que sus columnas


son linealmente independientes (n ≤ m). Entonces existen únicas matrices
Q ∈ Mmn (K), R ∈ Mn (K) tales que

1. Q∗ Q = In , con Q∗ = Qt ;
2. R es triangular y con entradas positivas en la diagonal; y
3. A = QR.

Demostración. Si A1 , . . . , An son las columnas de A, entonces estas for-


man una base para gen{A1 , . . . , An } ⊂ Kn . Si aplicamos Gram-Schmidt a
A1 , . . . , An , obtenemos vectores ortonormales Q1 , . . . , Qn , tales que

gen{Q1 , . . . , Qn } = gen{A1 , . . . , An }.
2. Bases ortonormales 75

De hecho, cada Ak = µk Qk + . . . + µ1 Q1 y µk > 0. Si


 
µ1
 .. 
.
 
µk 
Rk =   0 ,

 
 .. 
.
0

entonces Ak = Q1 Q2 . . . Qk Rk , con µk−1 = Ak · Qk−1 . Si Q =
 
Q1 Q2 . . . Qn y R = R1 R2 . . . Rn , entonces
 t
Q1
 ..  
 .  Q1 . . . Qn = In .
Qtn


Ejemplo. Para
 
1 2 2
1 1 2
A=
0
,
1 3
1 0 −1
ya sabemos (del ejemplo anterior) que
 1 1
− √13

√ √
3 3
 √1 0 √1 
 3 3
Q= ,

0 √1 √1
3 3

√1 − √13 0
3
entonces tenemos √
√3 √3

3 3 3
 0
R= √3 √6  .
3 3
0 0 √3
3
Por lo tanto
   √1 √1 − √13

√
1 2 2 3 3 3 √3 √3

1  √1 0 √1 3 3
1 2  3

√3 √6 

A= = 3  0
.
0 1 3 0 √1 √1 3 3

3 3
 3
1 0 −1 0 0 √
√1 − √13 0 3
3

Corolario 26. Si dim V < ∞, entonces tiene una base ortonormal.

Demostración. Consecuencia directa de Gram-Schmidt. 


76 6. Espacios con producto interno

Ejemplos. Polinomios ortogonales.


1. Polinomios de Legendre. Polinomios ortonormales p0 , p1 , p2 , . . . con
respecto a
Z 1
(p, q) = p(x)q(x)dx,
−1
y tales que el grado de pi = i, lo cual implica que gen{p0 . . . . , pk } =
gen{1, x, . . . , xk } = Pk+1 .
2. Polinomios de Laguerre. Polinomios ortonormales L0 , L1 , . . . res-
pecto a
Z ∞
(p, q) = p(x)q(x)e−x dx,
0
y tales que el grado de Li = i. De hecho, en general tenemos que el
producto interno se define
Z ∞
(p, q) = p(x)q(x)w(x)dx,
−∞

con w(x) ≥ 0 para algún intervalo. Entonces con respecto al produc-


to interno anterior tenemos gen{L0 , . . . , Lk } = gen{1, x, . . . , xk } =
Pk+1 , luego
1
L0 = 1 = 1,
k1k
porque
Z ∞
k1k2 = e−x dx = 1.
−∞
Luego tenemos q1 = x − (x, L0 )L0 , y como
Z ∞ Z ∞
(x, L0 ) = xL0 e−x dx = xe−x dx = 1,
−∞ −∞

tenemos que
1
L1 = q1 = x − 1,
kq1 k
ya que
Z ∞ Z ∞
2 −x
2
kq1 k = (x − 1) e dx = (x2 − 2x + 1)e−x dx = 2 − 2 · 1 + 1 = 1.
−∞ −∞

De la misma manera encontramos que


1 1
L2 = q2 = (x2 − 4x + 2),
kq2 k 2
y ası́ sucesivamente.
3. Proyecciones ortogonales 77

3. Proyecciones ortogonales
Problema de Aproximación. Sea V un espacio con producto interno,
U ⊂ V un subespacio y v ∈ V . Encontrar v 0 ∈ U más cercano a v en U , es
decir, para todo u ∈ U
kv − v 0 k ≤ kv − uk.
Ejemplos
1. V = Rn , U = gen{x0 } = {tx0 : t ∈ R}. Sea x ∈ Rn , encontrar el
múltiplo escalar de x0 más cercano a x. Definimos
d(t) = kx − tx0 k2 = (x1 − tx10 )2 + . . . + (xn − txn0 )2 .
Hay que minimizar d, es decir, encontrar t0 tal que d0 (t0 ) = 0.
Tenemos
d0 (t) = 2(x1 − tx10 )(−x10 ) + . . . + 2(xn − txn0 )(−xn0 ) = −2(x − tx0 ) · x0 = 0,
ası́ que
x · x0
x · x0 − tx0 · x0 = 0 ⇒ t = , x0 6= 0.
|x0 |2
x·x0
Entonces la aproximación es x0 = x .
|x0 |2 0
2. V = C([0, 1]),U = P, f = sin. Encontrar p ∈ P tal que kf − pk sea
mı́nimo con respecto a
Z 1
(f, g) = f (x)g(x)dx.
0
3
Sabemos que, con la representación de Taylor, sin x = x − x3! +
x2n+1 cos c
. . . + (−1)n (2n+1)! + En (x), En (x) = (−1)n (2n+2)! x2n+2 , 0 ≤ c ≤ x,
de aquı́ tenemos que
1
|En (x)| ≤ .
(2n + 2)!
Tomamos
x3 x2n+1
pn (x) = x − + . . . + (−1)n ,
3! (2n + 1)!
entonces
1
| sin x − pn (n)| ≤
(2n + 2)!
y
s
Z 1
1
k sin x − pn (n)k = (sin x − pn (x))2 dx ≤ −→ 0,
0 (2n + 2)!
ası́ que no existe ningún polinomio más cercano a sin x.
78 6. Espacios con producto interno

Definición 36. Sea V un espacio con producto interno y S ⊂ V . El com-


plemento ortogonal de S, S ⊥ , está dado por
S ⊥ = {v ∈ V : v⊥u, ∀u ∈ S}.1
Lema 2. S ⊥ es un subespacio de V .

Demostración. Sea u, v ∈ S ⊥ : u⊥w, v⊥w, ∀w ∈ S.Tenemos (u, w) =


(v, w) = 0, ∀w ∈ S y entonces (u + v, w) = (u, w) + (v, w) = 0, ∀w ∈ S,
u + v ∈ S ⊥ . Si u ∈ S ⊥ y λ ∈ K, para w ∈ S: (λu, w) = λ(u, w) = 0. Ası́ que
λu ∈ S ⊥ . 

Ejemplos
1. Si S = {0}, S ⊥ = V .
x · u1 = 0
n x · u2 = 0 o
2. V = Rn ,S = {u1 , . . . , um },S ⊥ = x ∈ Rn : . .
..
x · um = 0
Problema de Proyección Ortogonal. Sea V un espacio con producto in-
terno y U ⊂ V un subespacio de V . Encontrar u ∈ U , w ∈ U ⊥ , tales que
v = u + w, es decir, es cierto que V = U ⊕ U ⊥ ?.

1v ∈ S ⊥ también se escribe v⊥S.


3. Proyecciones ortogonales 79

Ejemplos
x·x0
1. V = Rn , U = gen{x0 }, x0 6= 0. Si y = x ,
|x0 |2 0
z = x − y, sabemos
z · y = 0 implica z ∈ U ⊥.
x = y + z, y ∈ U , z ∈ U ⊥ .
R1
2. V = C([0, 1]),U = P,(f, g) = 0 f (x)g(x)dx. Tenemos C([0, 1]) 6=
P ⊕ P ⊥ , de hecho P ⊥ = {0}, el cual es un resultado de análisis.
Teorema 18. El problema de aproximación es equivalente a el problema de
proyección ortogonal. De hecho, v 0 ∈ U es el vector más cercano a v ∈ V si,
y sólo si, v − v 0 ∈ U ⊥ .

Demostración. (⇐).Supongamos que v = u + w, u ∈ U, w ∈ U ⊥ . Sea


u0 ∈ U . Vamos a demostrar que kv − uk ≤ kv − u0 k. Por el teorema de
Pitágoras
kv − u0 k2 = k(v − u) + (u − u0 )k2 = kv − uk2 + ku − u0 k ≥ kv − uk2 ,
ya que (v − u) ∈ U ⊥ y (u − u0 ) ∈ U . Nota: si u 6= u0 , kv − u0 k > kv − uk.
(⇒).Sea v ∈ V y v 0 ∈ U el vector más cercano a v en U . Vamos a mostrar
que v − v 0 ∈ U ⊥ . Sea u ∈ U . Definimos
dσ (t) = kv − (v 0 + tσu)k2 ,
donde σ ∈ K será escogido de forma adecuada. Como dσ (0) = kv − v 0 k2 , dσ
toma un mı́nimo en t = 0 lo cual implica d0σ (0) = 0. Entonces
(73) dσ (t) = ((v − v 0 ) − tσu, (v − v 0 ) − tσu)
(74) = (v − v 0 , v − v 0 ) − tσ(u, (v − v 0 )) − tσ((v − v 0 ), u) + t2 σ 2 (u, u)
(75) = kv − v 0 k2 − 2t Re(σ(v − v 0 , u)) + t2 σ 2 kuk2 .
Entonces
d0σ (t) = −2 Re(σ(v − v 0 , u)) + 2tσ 2 kuk2 .
Ası́ que
d0σ (0) = −2 Re(σ(v − v 0 , u)) = 0 ⇒ Re(σ(v − v 0 , u)) = 0,
para cualquier σ ∈ K. Si σ = (v − v 0 , u), entonces σ(v − v 0 , u) = |(v − v 0 , u)|2 .
Por lo tanto (v − v 0 , u) = 0. 
Teorema 19. Sea V un espacio con producto interno y U ⊂ V un subespacio
de dimensión finita. Entonces V = U ⊕ U ⊥ .

Demostración. Por Gram-Schmidt podemos tomar una base {u1 , . . . , uk }


ortonormal de U . Dado v ∈ V definimos
u = (v, u1 )u1 + . . . + (v, uk )uk .
Vamos a mostrar que v−u ∈ U ⊥ . Sea w ∈ U , calculamos (v−u, w). Entonces
w = (w, u1 )u1 + . . . + (w, uk )uk , porque {u1 , . . . , uk } es una base ortonormal
80 6. Espacios con producto interno

y por las identidades de Parseval. Para cada i tenemos: (v − u, ui ) = (v.ui ) +


(u, ui ) = (v, ui )−((u, u1 )u1 +. . .+(v, uk )uk , ui ) = (v, ui )−(v, ui )(ui , ui ) = 0,
ası́ que (v − u, w) = ki=0 (ui , w)(v − u, ui ) = 0.
P

Corolario 27. Si U ⊂ V es un subespacio de dimensión finita, (U ⊥ )⊥ = U .
Definición 37. Sea V un espacio con producto interno, U ⊂ V un subespa-
cio tal que V = U ⊕U ⊥ . La proyección ortogonal sobre U es la transformación
ProyU : V → V dada por ProyU (v) = u si v = u + w con u ∈ U y w ∈ U ⊥ .

Nota. v = ProyU v + ProyU ⊥ v.


Proposición 21. Sea V un espacio con producto interno y U ⊂ V tal que
V = U ⊕ U ⊥.
1. ProyU es una transformación lineal;
2. ProyU ◦ ProyU = ProyU (idempotencia).

Demostración. Si v1 = u1 + w1 , v2 = u2 + w2 ,u1 , u2 ∈ U ,w1 , w2 U ⊥ . En-


tonces:
1. ProyU (v1 +v2 ) = ProyU (u1 +u2 +w1 +w2 ) = u1 +u2 = ProyU (v1 )+
ProyU (v2 ), y ProyU (λv) = ProyU (λu + λw) = λu = λ ProyU v.
2. ProyU ProyU v = ProyU ProyU (u + w) = ProyU (u) = u = ProyU v.


Nota. im ProyU = U , ker ProyU = U ⊥ .


Ya sabemos que si U < ∞ y {u1 , . . . , uk } es una base ortonormal de U ,
entonces:
X k
ProyU v = (v, ui )ui .
i=1

Ejemplos
1. Sea V = R3 , U = {x ∈ R3 : x1 + x2 + x3 = 0}. Entonces una base
U ortonormal es
 1   1 
√ √
2
 √21   √1 
n o
− 2  ,  2  .
0 − √26
Por lo tanto
 1   1   
  √ √ 2
1 2 2 3
1 1 1
ProyU 0 = √ − √2  + √  √2  = − 13  .
1
   
2 6 − 13
0 0 − √26
3. Proyecciones ortogonales 81

También tenemos que


 
1 o
n
U⊥ = gen  1 .
1
2. Sean V = P3 , U = {p ∈ P3 : p(0) = 0} = gen{x, x2 }. Calculamos
una base ortonormal de U , aplicamos Gram-Schmidt:
x √
p1 = = 3x,
kxk
porque s
Z 1
1
kxk = x2 dx = √ .
0 3
2 2
Luego: q2 = x − (x , p1 )p1 , y tenemos

2
√ Z 1 √
2 3
(x , 3x) = x 3xdx = ,
0 4
√ √
ası́ que q2 = x2 − 43 3x = x2 − 34 x, por lo que
q2 √ 3
p2 = = 4 5(x2 − x),
kq2 k 4
porque
s
Z 1
3 1
kq2 k = (x2 − x)2 dx = √ .
0 4 80
√ √ 2 3
Por lo tanto C = { 3x, 4 5(x − 4 x)}. es una base ortonormal de
U . Calculamos ProyU 1 = (1, p1 )p1 + (1, p2 )p2 :
Z 1√ √ Z 1 √ √
3 2 3 5
(1, p1 ) = 3xdx = , (1, p2 ) = 4 5(x − x)dx = − ,
0 2 0 4 6
entonces
√ √
3 √ 5 √ 2 3 3 10 3 10
ProyU 1 = · 3x − · 4 5(x − x) = x − (x2 − x) = 4x − x2 .
2 6 4 2 3 4 3
También tenemos que ProyU x = x y ProyU x2 = x2 , esto porque
ya pertenecen a U , Si B = [1, x, x2 ], tenemos
 
0 0 0
[ProyU ]B =  4 1 0 .
10
−3 0 1
3. V = C([−1, 1]), U = gen{ 21 , cos πx, sin πx, . . . , cos N πx, sin N πx},
entonces dim U = 2N + 1. Entonces tenemos
N
X
ProyU f = a0 + (ak cos kπx + bk sin kπx),
k=1
82 6. Espacios con producto interno

conocida como serie trigonomtrica, con


1 1
Z Z 1 Z 1
a0 = f (x)dx, ak = f (x) cos kπxdx, bk = f (x) sin kπxdx
2 −1 −1 −1

llamados coeficientes de Fourier.


4. V = C([−1, 1]), U =funciones pares continuas. Calculamos ProyU ,
R1
con respecto a (f, g) = −1 f (x)g(x)dx. Como 1, x2 , x4 , x6 , . . . ∈ U ,
dim U = ∞. Tenemos que U ⊥ =
funciones impares, si f ∈ U , g ∈ U ⊥ f g ∈ U ⊥ , pero (f, g) =
R1
−1 f (x)g(x)dx = 0 ya que f ⊥g. Entonces

f (x) + f (−x) f (x) − f (−x)


f (x) = + ,
2 2
ası́ que
f (x) + f (−x)
ProyU f (x) = .
2
Sea A ∈ Mm,n (K) y las columnas de A linealmente independientes
(n ≤ m). V = Km , U = im A =espacio generado por las columnas de A.
Calculamos ProyU : Km → Km . Si A = (A1 , . . . , An ), U = gen{A1 , . . . , An }.
Por medio de Gram-Schmidt obtenemos una base ortonormal de U , digamos
{Q1 , . . . , Qn }, entonces A = QR, donde Q ∈ Mm,n (K) con Q∗ Q = In , y R
es una matriz triangular de n × n, con Rjj > 0. Sabemos
(76) ProyU x = (x, Q1 )Q1 + . . . + (x, Qn )Qn
   
(x, Q1 ) (x, Q1 )
= Q1 . . . Qn  ...  = Q  ...  ,

(77)
  

(x, Qn ) (x, Qn )

pero como (x, Qj ) = x · Qj = x1 Q1j + . . . + xn Qnj , ası́ que


   1   1
x · Q1 Q1 . . . Qn1 x
 ..   .. . . . . 
 . = . . ..   ..  .
 

x · Qn Q1n . . . Qnn xn
Por lo tanto ProyU x = QQ∗ x. Pero tenemos A = QR, entonces Q =
AR−1 luego Q∗ = (AR−1 )∗ = (R−1 )∗ A∗ = (R∗ )−1 A∗ , entonces QQ∗ =
AR−1 (R∗ )−1 A∗ = A(R∗ R)−1 A∗ = A(R∗ Q∗ QR)−1 A∗ = A((QR)∗ A)−1 A∗ .
Por lo tanto QQ∗ = A(A∗ A)−1 A∗ .
Teorema 20. Sea A una matriz de m × n con columnas linealmente inde-
pendientes.
1. A∗ A es invertible;
3. Proyecciones ortogonales 83

2. La matriz de la proyección ortogonal sobre im A es A(A∗ A)−1 A∗ .


Es decir
Proyim A x = A(A∗ A)−1 A∗ x.
 
1 2
Ejemplo. Sea A = 0 1. Tenemos
1 2
 
∗ 1 0 1
A = ,
2 1 2
entonces

 1 2    9 
1 0 1  2 4 −2
A∗ A = 0 1 =
 ∗ −1
⇒ (A A) = 2 .
2 1 2 4 9 −2 1
1 2

Entonces
  1 1

1 2  9  
2 0 2
−2 1 0 1
[Proyim A ]E = 0 1 2 = 0 1 0 .
−2 1 2 1 2 1 1
1 2 2 0 2

Aproximación. Dado U ⊂ V , x ∈ V encontrar en U el vector más cercano


a x.

Corolario 28. Si V = U ⊕ U ⊥ , ProyU x es el vector más cercano a x. Es


decir, si u ∈ U
kx − ProyU xk < kx − uk,
si u 6= ProyU x.

Ejemplos
1. Encontrar el polinomio trigonomtrico P (x) de periodo 2 y grado N
que minimice a
sZ
1
kf − P k = (f (x)P (x))2 dx.
−1

Si U = gen{ 12 , cos πx, sin πx, . . . , cos N πx, sin N πx} = gen{cos kπx·
sin lπx} con k + l = N , tenemos
N
1 X
P (x) = ProyU f = a0 + (ak cos kπx + bk sin kπx).
2
k=1
84 6. Espacios con producto interno

2. Sistemas de ecuaciones sobredeterminados2. Consideramos Ax = b,


donde A es una matriz de m × n, n < m. Encontraremos x tal que
|Ax − b| sea mı́nimo. Tenemos
p
|Ax − b| = ((Ax)1 − b1 )2 + . . . + ((Ax)n − bn )2 ,
|Ax − b| es mı́nimo cuando Ax = Proyim A b. Si y = Proyim A b,
Ax = y tiene solución. La solución es única si las columnas de
A son linealmente independientes. Pero si las columnas de A son
linealmente independientes
y = A(A∗ A)−1 A∗ b.
Para la solución más cercana x0
Ax0 = A(A∗ A)−1 A∗ b,
ası́ que
x0 = (A∗ A)−1 A∗ b, Ax0 ≈ b.

4. Método de minimos cuadrados


Si y = ax + b, hallar a, b que mejor aproximen al conjunto de puntos
(x1 , y1 ), . . . , (xn , yn ). Errores: e1 , . . . , en .
Podemos definir E = max{e1 , . . . , en }, o bien E = e1 + . . . + en o E =
e21 + . . . + e2n . Entonces cada ei = |yi − (axi + b)|, luego
   
ax1 + b y1
 ..   ..  2
 .  −  .  ,
axn + b yn
hay que minimizar esta distancia. Si definimos
 
x1 1
A =  ... ... 
 

xn 1
tenemos que  
a
A ∈ im A,
b
 
    y1
a a 0 0  .. 
donde es tal que A = Proyim A y , si y =  . . Sabemos que
b b
yn
Proyim A y 0 = A(A∗ A)−1 A∗ y 0 . Esto es única:
   
a a
A = A(A∗ A)−1 A∗ y 0 ⇒ = (A∗ A)−1 A∗ y 0 .
b b
2Son aquellos en los cuales hay más ecuaciones que incógnitas.
5. Transformación adjunta 85

Problema. Aproximar una sucesión de puntos (x1 , y1 ), . . . , (xn , yn ) por


medio de pares (xi i )), donde f ∈ 
, f (x gen{f1 , . . . , fk }. Entonces f = a1 f1 +
a1 a1
 ..   .. 
. . . + ak fk , donde  .  es tal que A  .  = Proyim A y 0 , donde
an an
 
f1 (x1 ) f2 (x1 ) . . . fk (x1 )
A = f1 (x2 ) f2 (x2 ) . . . fk (x2 ) .
 
.. .. ..
. . .
 
a1
 .. 
Por lo tanto  .  = (A∗ A)−1 A∗ y 0 .
an

5. Transformación adjunta
Sean U, V espacios con producto interno, y sea T : U → V lineal.
Definición 38. La transformación adjunta de T, si existe, es la transfor-
mación T ∗ : V → U tal que para u ∈ U y v ∈ V
(T u, v) = (u, T ∗ v).

Ejemplo. Sea T : Rn → Rm dada por T x = Ax, donde A es una matriz de


m×n. Entonces T ∗ y = A∗ y. (T x, y) = (Ax)·y = (Ax)t ·y = xt At y = x·(At y).
Teorema 21. Si dim U < ∞, entonces para cada T : U → V lineal existe
una transformación adjunta y es única.

Demostración. Sea {u1 , . . . , uk } una base ortonormal de U . Definimos T ∗ :


V → U como
Xk

T v= (v, T ui )ui .
i=1
Tomamos u ∈ U, v ∈ V y calculamos (u, T ∗ v).
X
(78) (u, T ∗ v) = (u, (v, T ui )ui )
i
X X
(79) = (v, T ui )(u, ui ) = (T ui , v)(u.ui )
i i
X X
(80) = (u, ui )(T ui , v) = (T ( (u, ui )ui ), v) = (T u, v).
i i
Ahora supongamos que w ∈ U satisface que (T u, v) = (u, w) = (u, T ∗ v),
para todo u ∈ U . Entonces (u, w) = (u, T ∗ v), o (u, w − T ∗ v) = 0 para todo
u. Por lo tanto w = T ∗ v. 
86 6. Espacios con producto interno

Ejemplo. Sea d : P3 → P2 , df = f 0 . Sean B = {1, x, x2 } y C = {1, x}


bases de P3 y P2 respectivamente. Todo con respecto a
Z 1
(p, q) = p(x)q(x)dx.
0
Ya habı́amos calculado

  0 0
0 1 0
A = [d]B,C = 6 [d∗ ]C,B ,
, A t = 1 0  =
0 0 2
0 2
verificamos√ este último√resultado. Sea ahora una base ortonormal de P3 :
B 0 = {1, 2 3(x − 12 ), 6 5(x2 − x + 61 )} y una base ortonormal de P2 : C 0 =

{1, 2 3(x − 12 )}. Tenemos
2 Z 1
X
d∗ p = ( p(x)p0k (x)dx)pk .
k=0 0

Luego d∗ (a + bx) = (−6a + 2b) + (12a − 24b)x + 30bx2 . Ası́ que


 √ 
0 2 3 √0
[d]B 0 ,C 0 = .
0 0 2 15
Ahora podemos tener que
 
0
√ 0
[d∗ ]C 0 ,B 0 = 2 3 √0  ,
0 2 15
√ √ √
porque d∗ (1) = −6 + 12x = 12(x − 21 ) = 2 3 · 2 3(x − 21 y d∗ (2 3(x − 21 )) =
√ √ √ √
2 3(3+2+(−6−24)x+30x2 ) = 2 3·30(x2 −x− 16 ) = 2 15·6 5(x2 −x− 16 ).
Teorema 22. Sean B = [u1 , . . . , un ] y C = [v1 , . . . , vm ] bases ortonormales
de U y V respectivamente y T : U → V lineal. Entonces
[T ∗ ]C,B = [T ]∗B,C .
Lema 3. Si B es una base ortonormal de V , entonces (u, v) = γB (u)·γB (v).

Demostración. Aplicamos identidades de Parseval:


X
(u, v) = (u, ui )(v, ui ).


Demostración del Teorema 22. Si A = [T ]B,C ⇒ Akj = (γC (T uj ))k .


Si M = [T ∗ ]C,B ⇒ Mjk = (γB (T ∗ vj ))k . Hay que mostrar que Mjk = Ajk .
Como Akj = Aej · ek , tenemos Mjk = γB (T ∗ vj ) · ek = γB (T ∗ vj ) · γB (uk ) =
(T ∗ vj , uk ) = (uk , T ∗ vj ) = (T uk , vj ) = γB T uk · γC (vj ) = Ajk . 
5. Transformación adjunta 87

Teorema 23. Sea T : U → V tal que T ∗ existe, entonces ker T = (im T ∗ )⊥ .

Demostración. u ∈ ker T ⇔ T u = 0 ⇔ (T u, v) = 0, ∀v ∈ V ⇔ (u, T ∗ v) =


0, ∀v ∈ V ⇔ u⊥T ∗ v, ∀v ∈ V ⇔ u ∈ (im T ∗ )⊥ . 
Corolario 29. Si V = (im T ∗ ) ⊕ (im T ∗ )⊥ , entonces V = ker T ⊕ im T ∗ .
Corolario 30. Si A es una matriz de m × n, entonces
ker A = (im A∗ )⊥ , im A = (ker A∗ )⊥ .
Corolario 31. (Teorema del Rango). Si A es una matriz de m×n, entonces
dim(im A) = dim(im A∗ ).

Demostración. n = dim ker A + dim im A y m = dim ker A∗ + dim im A∗ ,


entonces dim im A∗ = m − dim ker A∗ = m − (m − dim A) = dim im A. 
Corolario 32. Tenemos
1. ker A = ker A∗ A;
2. im A = im AA∗ ; y
3. rango A =rango AA∗ =rango A∗ A = rango A∗ .

Observación. |Ax|2 = (Ax, Ax) = (x, A∗ Ax).

Demostración. 1. ker A ⊂ ker A∗ A, porque si x ∈ ker A, entonces Ax =


0 ⇒ A∗ Ax = 0. Si x ∈ ker A∗ A, A∗ Ax = 0, y entonces (x, A∗ Ax) = 0 ⇒
|Ax|2 = 0 ⇒ Ax = 0 ⇒ x ∈ ker A.
2. Sabemos que im A = (ker A∗ )⊥ = (ker AA∗ )⊥ = im AA∗ . Usando el hecho
de que (AA∗ )∗ = A∗∗ A∗ = AA∗ .
3. De 2 y rango A =rango A∗ . 
Capı́tulo 7

El teorema espectral

1. Operadores Normales
Definición 39. Sea V un espacio con producto interno y T : V → V lineal.
Decimos que T es auto-adjunta si T ∗ existe y T ∗ = T . En otras palabras,
(T u, v) = (u, T v) para todo u, v ∈ V .

Sabemos que si T x = Ax, T ∗ x = A∗ x. Luego

1. Si A ∈ Mn (R) tal que At = A, A es simétrica.


2. Si A ∈ Mn (C) tal que A∗ = A, A es Hermitiana.

Ejemplo. Operadores integrales. Consideramos C([a, b]), y el producto


Rb
interno (f, g) = a f (x)g/x)dx, definimos

Z b
T f (x) = K(x, y)f (y)dy.1
a

Calculamos
Z b Z bZ b
(81) (T f, g) = T f (x)g(x) dx = K(x, y)f (y)g(x) dy dx
a a a
Z bZ b
(82) = K(x, y)f (y)g(x) dx dy,
a a

1Forma general de multiplicación matricial la cual se define como (A · x)i = Pn Ai · xj .


j=1 j

89
90 7. El teorema espectral

lo cual es válido por el teorema de Fubini de cambio de integrales, luego

Z b Z b
(83) (T f, g) = f (y) K(x, y)g(x) dx dy = (f, T ∗ g), T ∗ g(x)
a a
Z b
(84) = K(y, x)g(y) dy .
a

Es decir,
Z b

T f (x) = K ∗ (x, y)f (y)dy,
a

donde K ∗ (x, y) = K(y, x), K es llamado el núcleo o kernel. Entonces T es


auto-adjunta si K(y, x) = K(x, y).
Por ejemplo, si K(x, y) = K(x − y) y K es par:

Z b
T f (y) = K(x − y)f (y)dy,
a

es llamada convolución. Por ejemplo: Series Trigonométricas. SN f (x) =


ProyV f (x), con V = {1, cos x, sin x, . . . , cos N x, sin N x}, y con respecto al
producto interno
Z 2π
1
(f, g) = f (x)g(x)dx.
π 0

Tenemos que

N
1 X
SN f (x) = a0 + (an cos nx + bn sin nx),
2
n=1

donde
Z 2π
1
an = (f, cos nx) = f (x) cos nx dx
π 0

y
Z 2π
1
bn = (f, sin nx) = f (x) sin nx dx .
π 0
1. Operadores Normales 91

1
R 2π
Verificamos que SN f (x) = π 0 KN (x − y)f (y)dy. Luego
(85)
Z 2π N h Z 2π
1 X 1
SN f (x) = f (y)dy = f (y) cos nydy cos nx
2π 0 π 0
n=1
1 2π
Z i
(86) + f (y) sin nydy sin nx
π 0
N
1 2π
Z h1 X i
(87) = f (y) + (cos ny cos nx + sin ny sin nx) dy
π 0 2
n=1
Z 2π N
1 2π
Z
1 h 1 X i
(88) = f (y) + cos n(x − y) dy = f (y)KN (x, y)dy.
π 0 2 π 0
n=1

Con KN (x, y) = 12 + N
P
n=1 cos n(x − y).

Definición 40. Decimos que T : V → V es anti-adjunta, si T ∗ = −T .


1. Si A ∈ Mn (R) y At = −A, A es antisimétrica.
2. Si A ∈ Mn (C) y A∗ = −A, A es antihermitiana.

Por ejemplo,
Z
T f (x) = K(x, y)f (y)dy, K(y, x) = −K(x, y) ⇒ T ∗ = −T,

o bien, K es impar.
Definición 41. Decimos que T : V → V es unitaria, si T ∗ = T −1 .
1. Si A ∈ Mn (R) y At = A−1 , A es ortogonal. (At A = In )
2. Si A ∈ Mn (C) y A∗ = A−1 , A es unitaria. (A∗ A = In )
En ambos casos las columnas son ortonormales.
Proposición 22. Sea V un espacio con producto interno y T : V → V
unitaria. Entonces
1. T ∗ ◦ T = id;
2. (T u, T v) = (u, v), ∀u, v ∈ V , T preserva el producto interno; y
3. kT vk = kvk, ∀v ∈ V , T es una isometrı́a (preserva distancias).
Si dim V < ∞, entonces (1), (2), (3) implican que T es unitaria.

Demostración. El que T sea unitaria ⇒ (1) ⇒ (2) ⇒ (3); polarización⇒


(2) ⇒ (1). (1) ⇒ T es unitaria: dim V < ∞. Si T ∗ T = id ⇒ ker T = 0 ⇒ T
es un isomorfismo, y T ∗ = T −1 . Polarización:
1
(u, v) = [ku + vk2 − ku − vk2 + iku + ivk2 − iku − ivk2 ],
4
92 7. El teorema espectral

luego
(89)
1
(T u, T v) = [kT u + T vk2 − kT u − T vk2 + ikT u + iT vk2 − ikT u − iT vk2 ]
4
1
(90) = [kT (u + v)k2 − kT (u − v)k2 + ikT (u + iv)k2 − ikT (u − iv)k2 ],
4
con ||T v|| = ||v|| ⇒ (T u, T v) = (u, v). (3) ⇒ (2) porque (T u, T v) = (u, v)
implica
(u, T ∗ ◦ T v) = (u, v), ∀u, v ∈ V ⇒ T ∗ ◦ T v = v, ∀v ∈ V,
ası́ que T ∗ ◦ T = id. 

Ejemplo. Consideramos P, sea el producto interno:


n
X n
X n
X
(p, q) = ( ak xk , bk xk ) = ak bk .
k=0 k=0 k=0
Consideramos T : P → P, dada por T p = x · p(x). Tenemos luego
Xn
T( ak xk ) = 0 + a0 x + . . . + an xn+1 .
k=0
Calculamos:
(91)
Xn n
X
k
(T ( ak x ), bk xk ) = (0 + a0 x + . . . + an xn+1 , b0 + b1 x + . . . + bn xn )
k=0 k=0
(92) = a0 b1 + a1 b2 + . . . + an−1 bn
(93) = (a0 + a1 x + . . . + an−1 xn−1 , b1 + b2 x + . . . + bn xn−1 )
entonces T ∗ (b0 + b1 x + . . . + bn xn ) = b1 + b2 x + . . . + bn xn−1 , por lo que
p(x) − p(0)
T ∗ p(x) = .
x
Luego T ∗ ◦ T = id ⇒ ker T = 0, pero im T 6= P, por lo tanto no es un
isomorfismo.
Operadores normales y descomposición espectral (diagonalización).
Proposición 23. Sea V un espacio con producto interno, sobre C, y una
T : V → V lineal, y λ un eigenvector.
1. Si T es autoadjunta, entonces λ es real.
2. Si T es antiadjunta, entonces λ es imaginario.
3. Si T es unitaria, entonces |λ| = 1.

Demostración. Sea v un eigenvector con respecto a λ:


1. Operadores Normales 93

1. λ(v, v) = (λv, v) = (T v, v) = (v, T ∗ v) = (v, T v) = (v, λv) =


λ(v, v).
2. λ(v, v) = (λv, v) = (T v, v) = (v, −T v) = (v, −λv) = −λ(v, v).
3. (v, v) = (T v, T v) = (λv, λv) = λλ(v, v) = |λ|2 (v, v), ası́ que |λ|2 =
1.


Observación. Si V es un espacio sobre R y T : V → V es autoadjun-


ta, entonces T tiene al menos un eigenvalor: en dimensión finita tomamos
una base ortonormal de V , sea B = [v1 , . . . , vn ], y A = [T ]B . Sabemos
A = [T ]B = [T ∗ ]B = [T ]∗B = A∗ . Entonces A es simétrica. Definimos
T C : Cn → Cn como T C z = A · z. Entonces T C es autoadjunta (propo-
sición anterior). Entonces T C tiene al menos un eigenvalor y es real. Este
eigenvalor es una raı́z del polinomio caracterı́stico de T . Ası́ que T al menos
tiene un eigenvalor.
Proposición 24. Si T es autoadjunta, antiadjunta o unitaria, u y v eigen-
vectores con respecto a λ y µ, λ 6= µ, entonces u⊥v.

Demostración. Queremos (u, v) = 0. Suponemos λ 6= 0:


1. (u, v) = λ1 (λu, v) = λ1 (T u, v) = λ1 (u, T v) = λ1 (u, µv) = µλ (u, v) =
µ µ µ
λ (u, v), o sea (u, v) = λ (u, v), y entonces (u, v) = 0, ya que λ 6= 1.
−µ µ
2. (u, v) = λ1 (λu, v) = λ1 (T u, v) = λ1 (u, −T v) = λ (u, v) = λ (u, v), y
entonces (u, v) = µλ (u, v), luego (u, v) = 0.
2
3. (u, v) = (T u, T v) = (λu, µv) = λµ(u, v) = λ |µ|µ (u, v) = λ
µ (u, v),
entonces (u, v) = 0.

Definición 42. Decimos que T : V → V es normal si T ∗ ◦ T = T ◦ T ∗ .
Teorema 24. Sea T : V → V normal y λ un eigenvalor, y si v es un
eigenvector con respecto a λ, entonces T ∗ v = λv.

Observación. Si v también es un eigenvector de T ∗ , entonces


λ(v, v) = (λv, v) = (T v, v) = (v, T ∗ v) = (v, µv) = µ(v, v) ⇒ λ = λ.
Lema 4. Si T : V → V es normal, entonces ||T ∗ v|| = ||T v||, para todo
v ∈V.

Demostración. (T ∗ v, T ∗ v) = (v, T ◦ T ∗ v) = (v, T ∗ ◦ T v) = (T v, T v). 

Esto implica que ker T = ker T ∗ , ya que T es normal.


94 7. El teorema espectral

Demostración del Teorema 24. Consideramos S = T − λ id, v ∈ Vλ si,


y sólo si v ∈ ker S, y S ∗ = T ∗ − λ id, ası́ que tenemos que mostrar que S es
normal. Tenemos
SS ∗ = (T − λ)(T ∗ − λ) = T T ∗ − λT − λT ∗ + |λ|2 ,
y también
S ∗ S = (T ∗ − λ)(T − λ) = T ∗ T − λT − λT ∗ + |λ|2 .
Entonces SS ∗ = S ∗ S, ya que T T ∗ = T ∗ T porque T es normal. 
Teorema 25. Si T es normal, u y v son eigenvectores con respecto a λ y
µ, λ 6= µ, entonces u⊥v.

Demostración. Suponemos λ 6= 0:
1 1 1 1 µ
(u, v) = (λu, v) = (T u, v) = (u, T ∗ v) = (u, µv) = (u, v),
λ λ λ λ λ
µ
ası́ que (u, v) = λ (u, v) ⇒ (u, v) = 0. 

2. Teorema espectral
Teorema 26 (Teorema Espectral). Sea V un espacio con producto interno,
sobre C, de dimensión finita. T : V → V es normal si, y sólo si, V tiene
una base ortonormal de eigenvectores de T .

Demostración. (⇒).Si λ1 , . . . , λk son eigenvalores de T , es suficiente con


demostrar que V = Vλ1 ⊕ · · · ⊕ Vλk . Sea U = Vλ1 ⊕ · · · ⊕ Vλk , y vamos a
demostrar que U = V , mostrando que U ⊥ = O.
Lema 5. Si v es un eigenvector, T v = λv y u⊥v, entonces T u⊥v.

Demostración. (T u, v) = (u, T ∗ v) = (u, λv) = λ(u, v) = λ · 0 = 0. 

Por el lema anterior, T (U ⊥ ) ⊂ U ⊥ , entonces podemos definir S : U ⊥ →


U⊥ como S = T|U ⊥ . Si U ⊥ 6= O, entonces S tiene algún eigenvalor f , y
w ∈ U ⊥ , w 6= 0, tal que Sf = f w. Esto implicarı́a que T w = f w, o sea que
f es un eigenvalor de T y w un eigenvector. Esto contradice la construcción
de U . Ası́ que U ⊥ = O. 

El teorema espectral nos dice que si T : V → V es normal, V sobre C,


entonces T es diagonalizable ortonormalmente, siempre que dim V < ∞.
Corolario 33. Hay que recordar:
1. Si λ 6= µ, u ∈ Vλ , v ∈ Vµ , entonces u⊥v.
2. Si λ ∈ σ(T ), λ ∈ σ(T ∗ ) y si T v = λv, entonces T ∗ v = λv.
2. Teorema espectral 95

3. Si T : V → V es diagonalizable ortonormalmente, entonces T es


normal.
4. T (Vλ ) ⊂ Vλ⊥ .

Demostración. (3).Sea {u1 , . . . , un } una base ortonormal de V tal que


T uj = λj uj . Queremos demostrar que T T ∗ = T ∗ T , es decir, T (T ∗ v) =
T ∗ (T v), ∀v ∈ V . Sea v = α1 u1 + . . . + αn un , entonces
(94) T ∗ (T v) = T ∗ (T (α1 u1 + . . . + αn un ))
(95) = T ∗ (α1 λ1 u1 + . . . + αn λn un )
(96) = α1 λ1 T ∗ u1 + . . . + αn λn T ∗ un ,
y también tenemos
T (T ∗ v) = T (T ∗ (α1 u1 + . . . + αn un )) = α1 T (T ∗ u1 ) + . . . + αn T (T ∗ un ).
Consideramos el siguiente lema.
Lema 6. Si u ∈ Vλ , entonces T ∗ u ∈ Vλ .

Demostración. Sea U = Vλ⊥ . Vamos a mostrar que T ∗ u ∈ U ⊥ , si w ∈ U ,


entonces (w, T ∗ u) = 0. Luego (w, T ∗ u) = (T w, u) = 0, ya que w = b1 v1 +
. . . + bk vk , donde cada vi ∈ Vµi ,µi 6= λ. T w = b1 µ1 v1 + . . . + bk µk vk , entonces
T w ∈ Vλ⊥ . 

Luego, por el lema anterior, T ∗ T v = T T ∗ v, lo cual completa la demostración.



96 7. El teorema espectral

3. Matrices reales
Matrices Simétricas.
A ∈ Mn (R) es simétrica si At = A.
Si λ es un eigenvalor de z 7→ A · z en Cn , entonces λ ∈ R, y λ es un
eigenvalor de x 7→ A · x en Rn , ası́ que existe x1 ∈ Rn , x1 6= 0, tal que
A · x1 = λx1 . Si U = gen{x1 } y W = U ⊥ , entonces si tomamos B =
{x1 , w1 , . . . , wn−1 }, con w1 , . . . , wn−1 ∈ W tenemos
 
λ1 0 0 . . . 0
 0 ∗ ∗ . . . ∗
[A]B =  . . . . . .
 
 .. .. .. . . .. 
0 ∗ ∗ ... ∗
Corolario 34. Si A es una matriz simétrica real, entonces es similar a una
matriz diagonal y tiene una base ortonormal de eigenvectores, o bien
 
λ1 0 . . . 0
 0 λ2 . . . 0 
t
A=P · . ..  · P ,
 
. .. . .
. . . .
0 0 . . . λn
donde P = x1 x2 . . . xn , con xi ∈ Rn .


Matrices Antisimétricas.
Consideramos z 7→ A · z en Cn . Si iλ 6= 0 es un eigenvalor, y x + iy ∈ Cn
tal que A(x + iy) = iλ(x + iy), donde
     
x1 + iy1 x1 y1
x + iy =  .
.   ..   .. 
 =  .  + i . ,

.
xn + iyn xn yn
x, y ∈ Rn . Tenemos A(x + iy) = A · x + iA · y = −λy + iλx, ya que la
transformación es lineal. Entonces A·x = −λy y A·y = λx, si V = gen{x, y},
A · v ∈ V , si v ∈ V . Si B = [x, y] tenemos
 
0 λ
[A\V ] = .
−λ 0
Si W = V ⊥ y {w1 , . . . , wn−2 } una base de W , y si C = [x, y, w1 , . . . , wn−2 ]
tenemos  
0 λ 0 0 ... 0
−λ 0 0 0 . . . 0
 
[A]C =  0
 0 ∗ ∗ . . . ∗ .
 .. .. .. .. . . .. 
 . . . . . .
0 0 ∗ ∗ ... ∗
3. Matrices reales 97

Corolario 35. Si A es una matriz antisimétrica real de n × n, entonces A


es similar ortonormalmente a una matriz de la forma

 
0 λ1 ∗ ∗ ... 0 0 0...
−λ1 0 ∗ ∗ ... 0 0 ...
0
 
 ∗ ∗ 0 λ2 ... 0 0 ...
0
 
 ∗ ∗ −λ2 0 ... 0 0 ...
0
 
J = .
 .. .. .. .. .. .. .. .. 
.. .
 . . . . . . ..
 0 0 0 0 . . . 0 0 . . . 0
 
 .. .. .. .. . . .. .. . . .. 
 . . . . . . . . .
0 0 0 0 ... 0 0 ... 0

Matrices Ortogonales.
A ∈ Mn (R) es ortogonal si At = A−1 . Las columnas son ortonormales,
al igual que sus renglones.
Si λ es un eigenvalor de z 7→ A · z en Cn , entonces |λ| = 1, o sea λ = eiθ .
Suponemos que λ ∈ / R, consideramos un eigenvector x + iy. Tenemos

A(x + iy) = eiθ ; A(x − iy) = e−iθ (x − iy).

Tenemos A(x+iy) = A·x+iA·y = eiθ (x+iy) = (cos θ+i sin θ)(x+iy) =


(cos θx−sin θy)+i(sin θx+cos θy). Luego tenemos que A·x = cos θx−sin θy
y A · y = sin θx + cos θy. Ası́ que, si V = gen{x, y} y B = [x, y], entonces

 
cos θ sin θ
[A\V ]B = .
− sin θ cos θ

Si W = V ⊥ , w1 , . . . , wn−2 una base de W , con B = [x, y, w1 , . . . , wn−2 ],


tenemos

 
cos θ sin θ 0 . . . 0
− sin θ cos θ 0 . . . 0
 
[A]B =  0
 0 ∗ ... ∗ .
 .. .. .. . . .. 
 . . . . .
0 0 ∗ ... ∗
98 7. El teorema espectral

Corolario 36. Si A es una matriz ortogonal real, entonces A es similar


ortonormalmente a una matriz de la forma
 
cos θ1 sin θ1 0 0 0 ... 0 0 ... 0
− sin θ1 cos θ1 0 0 0 . . . 0 0 ... 0 
 
 0 0 cos θ 2 sin θ 2 0 . . . 0 0 ... 0 
 
 0
 0 − sin θ2 cos θ2 0 . . . 0 0 ... 0 

 .. .
. .
. .
. . . . . . . . .. .. .
 .
 . . . . . . .. . . 

 0
 0 0 0 0 . . . 0 ±1 . . . 0 
 .. .. .. .. .. . . . .. . . .. 
 . . . . . . .. . . . 
0 0 0 0 0 ... 0 0 . . . ±1
Observaciones.
1. Si A ∈ Mn (R) y λ es un eigenvalor de z 7→ A · z en Cn , λ ∈
/ R,
entonces λ es un eigenvalor, y si
A(x + iy) = λ(x + iy) ⇒ A(x − iy) = λ(x − iy).
2. Si A es normal, λ 6= λ, entonces x⊥y.
3. Si A es normal, y λ = a + ib, A(x + iy) = (a + ib)(x + iy) =
ax − by + i(bx + ay), entonces Ax = ax − by y Ay = bx + ay, si
tomamos V = gen{x, y} y B = [x, y], tenemos
 
a b
[A\V ]B = .
−b a
Entonces A es similar ortonormalmente a
 
a1 b1 0 0 0 ... 0 0 ... 0
−a1 b1 0 0 0 . . . 0 0 ... 0
 
 0 0 a2 b2 0 . . . 0 0 ... 0
 
 0
 0 −b 2 a 2 0 . . . 0 0 ... 0 
 .. .
.. .
.. .
.. . . . . . . . ...
. . .. ..  .
 .
 . .
 0 0 0 0 0 . . . 0 µ1 ... 0 
 
 .. .. .. .. .. . . . .. .. .. 
 . . . . . . .. . . .
0 0 0 0 0 ... 0 0 . . . µk

4. Diagonalización mutua
Definición 43. Sea V un espacio vectorial de dimensión finita, y T, S trans-
formaciones lineales. Decimos que T y S son diagonalizables mutuamente
si existe una base v1 , . . . , vn de V de eigenvectores de T y de S tal que
T vi = λi vi , Svi = µi vi , o bien ninguna es diagonalizable.
Teorema 27. T, S : V → V normales, V sobre Cn , son mutuamente dia-
gonalizables si, y sólo si, T S = ST .
4. Diagonalización mutua 99

Demostración. (⇒).T S(α1 v1 + . . . + αn vn ) = T (α1 µ1 v1 + . . . + αn µn vn ) =


α1 µ1 λ1 v1 + . . . + αn µn λn vn , y ST (α1 v1 + . . . + αn vn ) = S(α1 λ1 v1 + . . . +
αn λn vn ) = α1 λ1 µ1 v1 + . . . + αn λn µn vn .
(⇐).Sea λ ∈ σ(T ). Mostraremos que si v ∈ Vλ , entonces Sv ∈ Vλ . Sea
S diagonalizable. T (Sv) = S(T v) = S(λv) = λ(Sv). Entonces S(Vλ ) ⊂ Vλ ,
y R = S\Vλ tiene al menos un eigenvalor µ. Es decir, existe u ∈ Vλ tal que
Ru = µu. O sea Su = µu y T u = λu. Entonces VλT = VµS1 ⊕ . . . ⊕ VµSk .
V = VµS1 ⊕ . . . ⊕ VµSr , VµS1 ⊕ . . . ⊕ VµSp = VµS1 ⊕ . . . ⊕ VµSr .
1. Si S es diagonalizable todos los eigenespacios de T se descomponen
en eigenespacios de S. Entonces T es diagonalizable, y los eigen-
vectores de S son los eigenvectores de T .
2. Si T es diagonalizable todos los eigenespacios de S se descomponen
en eigenespacios de T . Entonces S es diagonalizable, y los eigen-
vectores de T son los eigenvectores de S.

Capı́tulo 8

Formas bilineales y
cuadráticas

Formas bilineales y cuadráticas.


Definición 44. Sea V un espacio vectorial sobre R. Decimos que b : V ×V →
R es bilineal si es lineal en cada variable, es decir
1. b(λx + µy, z) = λb(x, z) + µb(y, z).
2. b(x, λy + µz) = λb(x, y) + µb(x, z).
Definición 45. Una forma cuadrática en V es una función c : V → R tal
que c(x) = b(x, x), donde b es bilineal.

Ejemplos.
1. Producto punto y norma euclideana.
a) Forma bilineal: x · y = x1 y 1 + x2 y 2 .
b) Forma cuadrática: x · x = |x|2 = (x1 )2 + (x2 )2 .
2. Cónicas Ax2 + Bxy + Cy 2 = D. Forma cuadrática.
     
x 2 2 2 x Ax + By
q = Ax + Bxy + Cy = x(Ax + By) + Cy = · .
y y Cy
Si definimos
 x u  x Au + Bv  x  A B  u 
b · = · = · · ,
y v y Cv y 0 C v
luego
   x x 
x
q =b · .
y y y

101
102 8. Formas bilineales y cuadráticas

0 0 2
R
R 0 0 Potencial. Si E = φ , entonces
3. Energı́a Ω |φ | dx. Luego B(f, g) =
Ωf g .
4. Sea A una matriz de n × n. Entonces b(x, y) = x · Ay es bilineal,
x, y ∈ Rn . Donde c(x) = x · Ax.

Proposición 25. Si b : Rn × Rn → R es bilineal, entonces existe una matriz


A de n × n tal que
b(x, y) = x · Ax.

Demostración. Sea aij = b(ei , ej ), A = (aij ). Entonces


n
X n
X  Xn X
n n X
X n
b(x, y) = b xi ei , y j ej = xi y j b(ei , ej ) = xi y j aij .
i=1 j=1 i=1 j=1 i=1 j=1

Ası́ que
x1 a1j y j
  P 
n n
x · Ay =  ...  ·  ..  X iX
= x aij y j .
  
. 
xn anj y j i=1 j=1
P

Corolario 37. Si c : Rn → R es una forma cuadrática, entonces c(x) =


x · Ax, para alguna matriz A de n × n.

Definición 46. Decimos que la forma bilineal b : V × V → R es simétrica


si
b(x, y) = b(y, x), ∀x, y ∈ V.

Corolario 38. b : Rn × Rn → R es simétrica si, y sólo si, b(x, y) = x · Ay,


donde A es simétrica.

Demostración. b(x, y) = x · Ay = At x · y = y · At x = y · Ax = b(y, x), si, y


sólo si, A es simétrica. 

Observación. Si c(x) = b(x, x), entonces c(x) = b(x, x), donde b(x, y) =
b(y, x).

Proposición 26. Si c : V → R es una forma cuadrática, entonces c(x) =


s(x, x), donde s es una forma bilineal simétrica.

1
Demostración. Sea c(x) = b(x, x), y consideramos s(x, y) = 2 (b(x, y) +
b(y, x)) = 21 (b + b). 

Ejemplos.
8. Formas bilineales y cuadráticas 103

1. En R2 : Cónicas.
1
           
x 2 2 x A B x x A 2B x
c = Ax +Bxy +Cy = · = · 1 .
y y 0 C y y 2B C y
Ya que
1
     
1 A B A 0  A 2B
+ = 1 .
2 0 C B C 2B C

2. En R2
     
x x A 0
c = · = Ax2 + Cy 2 .
y y 0 C
 
2 x
3. En R : c = −2x2 + 4xy + y 2 . Tenemos
y
        
x x −2 2 x −2 2
c = · ⇒A= .
y y 2 1 y 2 1

Entonces pA (λ) = (−2 − λ)(1 − λ) − 4 = λ2 + λ − 6 = (λ + 3)(λ − 2).


Si λ = −3:
      
1 2 x 0 2
= ⇒ v1 = .
2 4 y 0 −1
Si λ = 2:
      
1 2 x 0 1
= ⇒ v2 = .
2 4 y 0 2
Normalizando estos eigenvectores:
2
! !
√ √1
u1 = 5 , u2 = 5 .
−1
√ √2
5 5

Luego v = α1 u1 + α2 u2 , si B = [u1 , u2 ]. Entonces


(97) c(α1 u1 + α2 u2 ) = (α1 u1 + α2 u2 ) · A(α1 u1 + α2 u2 )
(98) = (α1 u1 + α2 u2 ) · (α1 Au1 + α2 Au2 )
como
! ! ! !
√2 √2 √1 √1
   
−2 2 5 5 −2 2 5 5
Au1 = −1 = −3 −1 , Au2 = √2
=2 √2
,
2 1 √
5

5
2 1 5 5

luego
c(α1 u1 + α2 u2 ) = (α1 u1 + α2 u2 ) · (α1 (−3u1 ) + α2 (2u2 )) = −3α12 + 2α22 .
104 8. Formas bilineales y cuadráticas

       
x γB α1 α1 x
Como = α1 u1 + α2 u2 7−→ , entonces =M ,
y α2 α2 y
donde M es la matriz de cambio de base con
2 1
!−1 2 −1
!
√ √ √ √
M= 5 5 = 5 5 .
−1
√ √2 √1 √2
5 5 5 5

Ası́ que
−1
!  !
√2 √ √2 x − √1 y
 
α1 5 5 x 5 5
= √1 √2
= √1 x √2 y
.
α2 5 5
y 5
+ 5

Luego
 
x 2 1 1 2
c = −3( √ x − √ y)2 + 2( √ x + √ y)2 .
y 5 5 5 5
Teorema 28. Sea c : Rn → R una forma cuadrática. Entonces existe una
base ortonormal {u1 , . . . , un } de Rn tal que
c(α1 u1 + . . . + αn un ) = λ1 α12 + . . . + λn αn2 .
Definición 47. Sea c : V → R una forma cuadrática.
1. Decimos que c es positiva definida si c(x) > 0, para todo x ∈ V ,
x 6= 0.
2. Decimos que c es positiva semidefinida si c(x) ≥ 0, para todo x 6= 0.
3. Decimos que c es negativa definida si c(x) < 0, para todo x 6= 0.
4. Decimos que c es negativa semidefinida si c(x) ≤ 0, para todo x 6= 0.

Ejemplos.
1. En Rn : c(x) = |x|2 es positiva definida.
Rb
2. En C 1 ([a, b]): E(f ) = a (f 0 (x))2 dx es positiva semidefinida.
   
2 x 2 2 α1
3. En R : c = −2x + 4xy + y . Sabemos c = −3α12 + 2α22 ,
y α2
entonces c(u1 ) = −3 < 0 y c(u2 ) = 2 < 0, ası́ que c no es definida.
       
x 2 2 1 0 1
4. c = x − 4xy + y , c = 1 > 0, c = 1 > 0, c =
y 0 1 1
−2 < 0. Ası́ que c no está definida.
   
x 2 2 2 1
5. c = x − 2xy + y , entonces (x − y) ≥ 0 y c = 0, entonces
y 1
c es positiva semidefinida.
     
x 2 2 1 1
6. c = x + 4xy + y , c = −2 < 0, c = 6 > 0. Por lo
y −1 1
tanto c no está definida.
8. Formas bilineales y cuadráticas 105

Teorema 29. Sea c : Rn → R una forma cuadrática. Si A es la matriz


simétrica tal que c(x) = x · Ax, entonces
1. c es positiva definida si, y sólo si, los eigenvalores de A son positi-
vos.
2. c es positiva semidefinida si, y sólo si, los eigenvalores de A son no
negativos.
3. c es negativa definida si, y sólo si, los eigenvalores de A son nega-
tivos.
4. c es negativa semidefinida si, y sólo si, los eigenvalores de A son
no positivos.
 
x
Ejemplo. Sea c = Ax2 + Bxy + Cy 2 . Entonces
y
A 21 B
      
x x x 1 2
c = · 1 ⇒ p(λ) = (A − λ)(C − λ) − B ,
y y 2B C y 4
entonces p(λ) = λ2 − (A + C)λ + (AC − 14 B 2 ). Las raı́ces son
p p
(A + C) ± (A + C)2 − 4AC + B 2 (A + C) ± (A − C)2 + B 2
λi = = .
2 2
Entonces tenemos cambio de signo cuando
p
|A + C| < (A + C)2 − 4AC + B 2 ,
o sea B 2 > 4AC.
 
x
Corolario 39. La forma cuadráticac : R2 → R, c = Ax2 + Bxy + Cy 2
y
es
1. Positiva definida si B 2 < 4AC y A, C > 0.
2. Positiva semidefinida si B 2 ≤ 4AC y A > 0.
3. Negativa definida si B 2 < 4AC y A, C < 0.
4. Negativa semidefinida si B 2 ≤ 4AC y A < 0.
Capı́tulo 9

Forma canónica de
Jordan

1. Polinomios de matrices y transformaciones


Sea p(x) = a0 + a1 x + . . . + am xm . Si A ∈ Mn , definimos
p(A) = a0 In + a1 A + . . . + am Am ,
donde Ai = A · A · . . . · A, i veces.
Si T : V → V es una transformación lineal, definimos
p(T ) = a0 id +a1 T + . . . + am T m ,
donde T i = T ◦ T ◦ . . . ◦ T , i veces.
Observaciones.
1. Si A ∈ Mn , p(A) ∈ Mn ; si T ∈ Hom(V, V ), p(T ) ∈ Hom(V, V ).
2. Como dim Mn = n2 , podemos encontrar un polinomio p de grado
n2 , tal que p(A) = 0, ya que habrá n2 + 1 matrices y esto implica
dependencia lineal, es decir
2
p(A) = a0 In + a1 A + . . . + an2 An .
Como dim Hom(V, V ) = n2 , si dim V = n, entonces existe un poli-
nomio de grado n2 tal que p(T ) = 0, es decir p(T )v = 0, ∀v ∈ V .
   
sin θ cos θ 1 0
Ejemplo. Sea A = , con I2 = , tenemos
cos θ − sin θ 0 1
 
2 1 0
A = , A3 = A2 · A = I2 · A = A, A4 = A3 · A = A · A = A2 = I2 .
0 1

107
108 9. Forma canónica de Jordan

Luego si p(A) = A2 − I2 , entonces p(A) = A2 − I2 = 0.

2. Teorema de Cayley-Hamilton
Teorema 30 (Cayley-Hamilton). Sea A una matriz de n × n y p(λ) su
polinomio caracterı́stico. Entonces p(A) = 0, es decir, p(A) es la matriz 0.

Observación. Si v es un eigenvector de A, entonces Av = λv. Tenemos


A2 v = A · Av = Aλv = λ2 v. Luego tenemos que Ai v = λi v, ası́ que
p(A)v = a0 v + a1 λv + . . . + an λn v = (a0 + a1 λ + . . . + an λn )v = pn (λ)v = 0.
Si {v1 , . . . , vn } es una base de eigenvectores de A, y v ∈ Kn , entonces
p(A)v = p(A)(α1 v1 + . . . + αn vn ) = α1 p(A)v1 + . . . + αn p(A)vn = 0.
Definición 48. Sea A una matriz de n × n. Decimos que V ∈ Kn es un
espacio invariante de A, si ∀v ∈ V , Av ∈ V .
-Decimos que el espacio invariante V es propio si V 6= 0 o V 6= Kn .
-Decimos que A es irreducible si no tiene espacios invariantes propios.

Si V es un espacio invariante propio, y Kn = V ⊕ W , entonces A es


similar a una matriz de la forma
 
P Q
.
0 R
Si {v1 , . . . , vm } es una base de V , a extendemos a {v1 , . . . , vm , w1 , . . . , wn−m }
base de Kn , donde {w1 , . . . , wn−m } es una base de W . Entonces
Avj = αj1 v1 +. . .+αjm vm , Awj = βj1 v1 +. . .+βjm vj +γj1 w1 +. . .+γjn−m wn−m .
También sabemos que det A = det P · det R.
Lema 7. Si A es irreducible, entonces es similar a una matriz de la forma
 
0 0 0 ... 0 α0
1 0 0 . . . 0 α1 
 
0 1 0 . . . 0 α2 
 
 .. .. .. . . .. .. 
. . . . . . 
0 0 0 . . . 1 αn−1
y de hecho pA (λ) = (−1)n (λn − αn−1 λn−1 − . . . − α2 λ2 − α1 λ − α0 ).

Demostración. Escogemos v0 ∈ Kn , v0 6= 0, y v1 = Av0 , v2 = Av1 =


A2 v0 , . . . , vn−1 = Avn−2 = An−1 v0 . Demostraremos que {v0 , . . . , vn−1 } es
una base de Kn verificando que son linealmente independientes. Si no lo
fueran, sea j el menor subı́ndice tal que v0 , . . . , vj son dependientes. Entonces
2. Teorema de Cayley-Hamilton 109

vj = β0 v0 + . . . + βj−1 vj−1 , βi ∈ K. Sea V = gen{v0 , . . . , vj−1 }. Entonces


V Kn , y si v ∈ V , v = a0 v0 + . . . + aj−1 vj−1 , ası́ que
(99) Av = A(a0 v0 + . . . + aj−1 vj−1 )
(100) = a0 v1 + a1 v2 + . . . + aj−1 vj
(101) = a0 v1 + . . . + aj−1 (β0 v0 + . . . + βj−1 vj−1 ) ∈ V,
y por lo tanto V es un espacio invariante propio, lo que contradice la irre-
ducibilidad de A. Ası́ que los vectores v0 , . . . , vn−1 son independientes y, por
lo tanto, forman una base de Kn .
Como Av0 = v1 , Av1 = v2 , . . . , Avn−2 = vn−1 . Los αi los tomamos de tal
forma que Avn−1 = α0 v0 + . . . + αn−1 vn−1 . Entonces
 
0 0 0 . . . 0 α0
1 0 0 . . . 0 α1 
 
A ∼ B = 0 1 0 . . . 0 α2  .
 
 .. .. .. . . .. .. 
. . . . . . 
0 0 0 . . . 1 αn−1
 
−λ 0 0 ... 0 α0
 1 −λ 0 . . . 0 α1 
 
(102) pB (λ) = det(B − λ · In ) = det  0
 1 −λ . . . 0 α2 

 .. .. .. .. .. .. 
 . . . . . . 
0 0 0 ... 1 αn−1−λ
 
−λ 0 . . . 0 α1
 1 −λ . . . 0 α2 
(103) = −λ det  .
 
.. . . .. .. 
 .. . . . . 
0 0 . . . 1 αn−1−λ
Inductivamente tenemos pB (λ) = −λ((−1)n (λn−1 − αn−1 λn−1 − . . . − α1 )) +
(−1)n−1 α0 = (−1)n (λn − αn−1 λn−1 − . . . − α1 λ − α0 ). 

Ejemplo. Encontraremos α0 , α1 tal que


   
cos θ sin θ 0 α0
∼ .
− sin θ cos θ 1 α1
Tenemos  
cos θ − λ sin θ
det = λ2 − 2 cos θλ + 1,
− sin θ cos θ − λ
entonces    
cos θ sin θ 0 −1
∼ .
− sin θ cos θ 1 2 sin θ
110 9. Forma canónica de Jordan

Teorema 31. Equivalencia al Teorema de Cayley-Hamilton. Sea V sobre


K, dim V = n, y T : V → V lineal. Si p es el polinomio caracterı́stico de T ,
entonces p(T ) = 0.
Lema 8. Equivalencia al Lema 7. Si T no tiene espacios invariantes propios,
entonces existe una base B de V tal que
 
0 0 0 . . . 0 α0
1 0 0 . . . 0 α1 
 
0 1 0 . . . 0 α2 
[T ]B =  
 .. .. .. . . .. .. 
. . . . . . 
0 0 0 . . . 1 αn−1
y pT (x) = (−1)n (xn − αn−1 xn−1 − . . . − α2 x2 − α1 x − α0 ).

Observaciones.
1. p(x) = an xn + . . . + a0 , p(T ) = an T n + . . . + a0 id.
2. p(T )T = T p(T ). Ya que p(T )T = (an T n +. . .+a0 id)T = an T n+1 +
. . .+a0 T = an T ◦T n +. . .+a0 T ◦id = T (an T n +. . .+a0 id) = T p(T ).
En general p(T )T k = T k p(T ).
3. También p(T )q(T ) = q(T )p(T ).

Demostración. Teorema de Cayley-Hamilton.


Paso 1. Supongamos que T no tiene espacios invariantes propios. Por el lema
7, existe una base B = {v0 , v1 , . . . , vn−1 } de V tal que, T v0 = v1 , T v1 =
v2 , . . . , T vn−2 = vn−1 y T vn−1 = α0 v0 + . . . + αn−1 vn−1 , más aún
p(t) = (−1)n (tn − αn−1 tn−1 − . . . − α0 ).
Vamos a verificar que p(T )vi = 0, ∀i = 0, 1, . . . , n − 1;
(104)
p(T )v0 = (−1)n (T n v0 − αn−1 T n−1 v0 − . . . − α0 v0 )
(105) = (−1)n (−α0 v0 − α1 v1 − . . . − αn−1 vn−1 + T vn−1 )
(106) = (−1)n (−α0 v0 − . . . − αn−1 vn−1 + α0 v0 + . . . + αn−1 vn−1 ) = 0
Paso 2. Por inducción en n. El primer caso n = 1 es trivial, ya que T v =
mv, p(x) = x − m y p(T )v = T v − mv = 0. Suponemos que el teorema es
cierto en dimensiones menores a n, es decir, para 1, 2, . . . , n − 1. Sea U un
espacio invariante propio de T , y sea W ⊂ V tal que V = U ⊕ W . Sean
B1 = {u1 , . . . , uk } y B2 = {w1 , . . . , wn−k } bases de U y W respectivamente
y B = {u1 , . . . , uk , w1 , . . . , wn−k } una base de V . Entonces
 
P Q
[T ]B = .
0 R
3. Triangularización 111

Tenemos entonces T1 = T \U : U → U , entonces [T1 ]B1 = P . Definimos T2 :


W → W , [T2 ]B2 = R, esto porque W no es necesariamente invariante. Si p1 y
p2 son los polinomios caracterı́sticos de T1 y T2 , entonces p(x) = p1 (x)p2 (x).
Como dim U < n, esto por ser espacio invariante propio de V , por inducción:
p1 (T1 )u = 0, ∀u ∈ U . Pero T1 u = T u, ∀u ∈ U , ası́ que p1 (T )u = 0. Si u ∈ U
p(T )u = p2 (T )p1 (T )u = 0.
Ya sólo resta verificar que p(T )w = 0, ∀w ∈ W . Sea w ∈ W . Entonces T w =
u0 + T2 w, ası́ que T w − T2 w ∈ U . Como U es invariante, T (T w − T2 w) ∈ U
o sea T 2 w − T ◦ T2 w ∈ U . Tenemos
T 2 w − (T22 w + T T2 w − T2 T2 w) = T 2 w − T22 w − (T (T2 w) − T2 (T2 w)),
pero como T 2 w−T ◦T2 w = T 2 w−T22 w−(u00 ) ∈ U , entonces T 2 w−T22 w ∈ U .
Inductivamente T i w − T2i w ∈ U, ∀i = 1, . . . , w ∈ W y q(T )w − q(T2 )w ∈ U
para cualquier polinomio q. En particular p2 (T )w − p2 (T2 )w ∈ U, ∀w ∈ W .
Finalmente, por inducción, como dim W < n, p2 (T2 )w = 0, ∀w ∈ W . O sea,
p2 (T )w ∈ U , entonces para w ∈ W : p(T )w = p1 (T )p2 (T )w = 0. 

3. Triangularización
Sea A ∈ Mn (K). A es triangular si aji = 0, cuando i > j, es decir
 1 1
a13 . . . a1n

a1 a2
 0 a2 a23 . . . a2n 
 2 
A=0 0
 a33 . . . a3n .
 .. .. .. . . .. 
. . . . .
0 0 0 . . . ann
Si T : V → V , B = {v1 , . . . , vn } es una base de V , [T ]B es triangular si
T vj = a1 v1 + . . . + aj vj .
Teorema 32. Si el polinomio caracterı́stico p(x) de T se descompone en K,
entonces existe una base B de V tal que [T ]B es triangular. Es decir
p(x) = (x − λ1 )(x − λ2 ) . . . (x − λn ), λi ∈ K.

Demostración. Por inducción en n. El caso n = 1 es trivial. Suponemos


que el teorema es verdadero en dimensiones menores a n. Sea λ1 ∈ K un
eigenvalor de T , v1 6= 0 un eigenvector, U = gen{v1 }. Sea W tal que V =
U ⊕ W . Sea B2 = {w2 , . . . , wn } una base de W , B1 = {v1 } ası́ que B =
{v1 , w2 , . . . , wn } es una base de V y
 
λ1 ∗
[T ]B = .
0 R
Definimos T1 : W → W , [T2 ]B2 = R, p2 el polinomio caracterı́stico de T2 .
Si p es el polinomio caracterı́stico de T , entonces p(x) = (x − λ1 )p2 (x).
112 9. Forma canónica de Jordan

Por inducción, existe una base C = {v2 , v3 , . . . , vn } de W tal que [T2 ]C es


triangular y  
λ1 ∗ ∗ ... ∗
0 λ2 ∗ . . . ∗ 
[T ]B,C =  .
 
.. .. . . .. 
 .. . . . . 
0 0 0 . . . λn


4. Polinomio mı́nimo
Recordemos algunos resultados importantes acerca de polinomios:
1. Algoritmo de la división. Si p y q son polinomios sobre K, q 6= 0,
entonces existen únicos polinomios s y r tales que
i. p(x) = s(x)q(x) + r(x).
ii. El grado de r es menor que el de q.
2. Algoritmo de Euclides. Si p1 , p2 , . . . , pk no tienen un factor común,
entonces existen polinomios q1 , q2 , . . . , qk tales que
p1 (x)q1 (x) + p2 (x)q2 (x) + . . . + pk (x)qk (x) = 1.
Polinomio Mı́nimo.
Definición 49. Sea T : V → V una transformación lineal. Definimos el
polinomio mı́nimo de T como el polinomio
mT (x) = xk + ak−1 xk−1 + . . . + a0
de menor grado tal que mT (T ) = 0.

Observaciones:
1. Por Cayley-Hamilton, pT (T ) = 0, entonces k ≤ n.
2. Si p(T ) = 0, entonces mT (x) | p(x), ya que p(x) = mT (x)q(x) +
r(x), con grado de r menor que grado de mT . Pero si evaluamos en
T : p(T ) = mT (T )q(T ) + r(T ) = 0 ⇒ r(T ) = 0. Entonces p(x) =
mT (x)q(x).
3. mT | pT . Si pT se descompone sobre K:
pT (x) = (x − λ1 )α1 (x − λ2 )α2 . . . (x − λr )αr
donde λ1 , . . . , λr son las raı́ces distintas de pT . Entonces
mT (x) = (x − λ1 )β1 (x − λ2 )β2 . . . (x − λr )βr , βi = 0, 1, . . . , αi .
4. Si λ es raı́z de pT (x), entonces (x − λ) | mT (x). Tenemos mT (x) =
(x − λ)q(x) + r. Entonces
mT (T ) = (T − λ · id)q(T ) + r · id = 0.
5. Forma canónica 113

Si v 6= 0 tal que T v = λv,


0 = (T − λ · id)q(T )v + r · v = q(T )(T v − λv) + r · v ⇒ r = 0.
Por lo tanto mT (x) = (x − λ)q(x).
Teorema 33. Sea T : V → V tal que su polinomio caracterı́stico pT se
descompone sobre K, y sean λ1 , . . . , λr las raı́ces distintas de pT . Entonces
T es diagonalizable si, y sólo si,
mT (x) = (x − λ1 )(x − λ2 ) . . . (x − λr ),
es decir, mT no tiene raı́ces múltiples.

Observación. Si λ1 , . . . , λk eigenvalores de T son diferentes, entonces T


es diagonalizable si, y sólo si, Vλ1 ⊕ Vλ2 ⊕ . . . ⊕ Vλk = V .

Demostración. (⇒). Si T es diagonalizable, V = Vλ1 ⊕ . . . ⊕ Vλk . Es decir,


si v ∈ V , v = v1 + v2 + . . . + vk , T vi = λi vi . Ası́ que sólo tenemos que veificar
que si q(x) = (x − λ1 )(x − λ2 ) . . . (x − λk ), entonces q(T )vi = 0, ∀vi ∈ Vλi .
Pero q(T )vi = (T − λ1 · id)(T − λ2 · id) . . . (T − λk · id)vi = (T − λ1 · id) . . . (T −
λk · id)(T − λi · id)vi = (T − λ1 · id) . . . (T vi − λi vi ) = 0.
(⇐). Suponemos mT (x) = (x − λ1 ) . . . (x − λk ). Definimos
mT (x)
mi (x) = .
x − λi
Es decir, mT (x) = mi (x)(x − λi ). Los polinomios m1 , . . . , mk no tienen un
factor común, ası́ que existen polinomios p1 , . . . , pk tales que
m1 (x)p1 (x) + . . . + mk (x)pk (x) = 1.
Entonces, si v ∈ V , v = m1 (T )p1 (T )v + . . . + mk (T )pk (T )v. Sea vi =
mi (T )pi (T )v. Entonces v = v1 + v2 + . . . + vk ,
T vi − λi vi = (T − λi · id)mi (T )pi (T )v = mT (T )pi (T )v = 0,
ası́ que T vi = λi vi . O sea V = Vλ1 ⊕ . . . ⊕ Vλk . 
 
1 1
Ejemplo. A = . pA (λ) = (λ − 1)2 . Entonces (A − I2 ) 6= 0, por lo
0 1
tanto A no es diagonalizable.

5. Forma canónica
Observaciones.
1. En general, si pT (x) = (x − λ)n , T es diagonalizable si, y sólo si,
T v = λv, o sea T es escalar.
114 9. Forma canónica de Jordan

2. Si mT (x) = (x − λ1 )β1 . . . (x − λk )βk , con algún βi > 1, tomamos


mT (x)
mi (x) = .
(x − λi )βi
Otra vez m1 , . . . , mk no tienen un factor común, ası́ que existen
polinomios p1 , . . . , pk tales que kj=1 mj (x)pj (x) = 1. Si v ∈ V ,
P

v = v1 +. . .+vk , y sea vi = mi (T )pi (T )v. Ahora (T −λi ·id)βi vi = 0,


ası́ que
vi ∈ ker(T − λi · id)βi = Uλi .
Entonces V = Uλ1 ⊕ . . . ⊕ Uλk .
i. Vλi ⊂ Uλi . Si v ∈ Vλi : (T − λi · id)βi vi = 0.
ii. Cada Uλi es invariante bajo T . Si u ∈ Uλi ,

(107) (T − λi · id)βi T u = (T − λi · id)βi (T u − λi u + λi u)


(108) = (T − λi · id)βi (T u − λi u) + (T − λi · id)βi (λi u)
(109) = (T − λi · id)β+1 u + λi (T − λi · id)βi u = 0.
iii. Si Ti : Uλi → Uλi , Ti = T \Uλi . Ti sólo tiene un eigenvalor: λi .
Sea T : V → V una transformación tal que pT (x) = (x − λ)n . Entonces
el polinomio mı́nimo es de la forma
mT (x) = (x − λ)β , 1 ≤ β ≤ n.
Si β = 1, mT (x) = x − λ y T es la transformación escalar. Supongamos que
mT (x) = (x − λ)n .
Definimos: U1 = ker(T − λ · id) = Vλ1 , . . . , Un = ker(T − λ · id)n = V .
Luego
i. U1 ⊂ U2 ⊂ . . . ⊂ Un = V . Si u ∈ U , entonces (T − λ · id)u = 0, y
por lo tanto (T − λ · id)n u = 0.
ii. Ui ( Ui+1 .
iii. dim Ui+1 = dim Ui + 1, y también dim Ui = i.
Sea v0 ∈ V \ Un−1 = Un \ Un−1 . Entonces (T − λ · id)n v0 = 0 y (T − λ ·
id)n−1 v0 6= 0. Luego
v1 = (T − λ · id)v0 , v2 = (T − λ · id)2 v0 , . . . , vn−1 = (T − λ · id)n−1 v0 .

Observación. Los vectores v0 , . . . , vn−1 son linealmente independientes.


Si α0 v0 + . . . + αn−1 vn−1 = 0, entonces (T − λ · id)n−1 (α0 v0 + . . . +
αn−1 vn−1 ) = 0, luego
α0 (T − λ · id)n−1 v0 + α1 (T − λ · id)n−1 v1 + . . . + αn−1 (T − λ · id)n−1 vn−1 = 0,
5. Forma canónica 115

pero (T − λ · id)n−1 v0 6= 0, ası́ que α0 = 0. Ahora


(110)
(T − λ · id)n−2 (α1 v1 + . . . + αn−1 vn−1 )
(111) = α1 (T − λ · id)n−2 v1 + . . . + αn−1 (T − λ · id)vn−1 = 0,
pero (T − λ · id)n−2 v1 6= 0, ası́ que α1 = 0. Inductivamente α2 = α3 = . . . =
αn−1 = 0.
Teorema 34. Sea T : V → V una transformación tal que mT (x) = (x−λ)n ,
donde dim V = n, entonces existe una base B de V tal que
 
λ 1 0 ... 0 0
0 λ 1 . . . 0 0
 
0 0 λ . . . 0 0
[T ]B =  . . . . .
 
 .. .. .. . . ... ... 

 
0 0 0 . . . λ 1
0 0 0 ... 0 λ

Demostración. Tomamos v0 ∈ V tal que (T − λ · id)n v0 6= 0, y sean


vi = (T − λ · id)i v0 , i = 1, . . . , n − 1. Entonces v0 , . . . , vn−1 forman una base
tal que
vi = (T − λ · id)vi−1 = T vi−1 − λvi−1 .
Entonces tenemos que: T vi = vi+1 + λvi , i = 0, 1, . . . , n − 2, y T vn−1 =
λvn−1 . Si B = [vn−1 , vn−2 , . . . , v1 , v2 ], entonces
 
λ 1 0 ... 0 0
0 λ 1 . . . 0 0
 
0 0 λ . . . 0 0
[T ]B =  . . . . ..  .
 
 .. .. .. . . ... .
 
0 0 0 . . . λ 1
0 0 0 ... 0 λ

Teorema 35. Sea T : V → V tal que pT (x) = (x − λ)n . Entonces existe
una base
B = {v1,1 , . . . , v1,k(1) , v2,1 , . . . , v2,k(2) , . . . , vr,1 , . . . , vr,k(r) }.
tal que
1. T vi,1 = λvi,1 ;
2. T vi,j = λvi,j + vi,j−1 , donde j = 2, . . . , k(i).
Definición 50. Si S : V → V satisface que S k = 0 para algún k, entonces
decimos que S es nilpotente.
116 9. Forma canónica de Jordan

Teorema 36. Sea S : V → V una transformación nilpotente. Entonces


existen v1 , . . . , vr ∈ V y existen enteros m(1), . . . , m(r) ≥ 0 tales que
1. {v1 , Sv1 , . . . , S m(1) v1 , . . . , vr , Svr , . . . , S m(r) vr } es una base de V ;
2. {S m(1) v1 , . . . , S m(r) vr } es una base de ker S.

Observación. Teoremas 35 y 36 son equivalentes. Esto porque si S =


T − λ · id, entonces
v1,1 = S m(1) v1 , v2,1 = S m(2) v2 , . . . , vi,1 = S m(i) vi ,
también
v1,2 = S m(1)−1 v1 , v2,2 = S m(2)−1 v2 , . . . , vi,2 = S m(i)−1 vi .
Ası́ sucesivamente hasta v1,k = v1 , en donde k(1) = m(1) + 1. Tenemos
vi,1 ∈ ker(T − λ · id), T vi,1 = λvi,1 , luego vi,j = Svi,j+1 = T vi,j+1 − λvi,j+1 ,
ya que T vi,j+1 = vi,j + λvi,j+1 .

Demostración. Sea n = dim V . Por inducción en n, el caso n = 1 es trivial.


Suponemos que el teorema es cierto para un espacio de dimensión menor a
n. Sea U = im S. S no puede ser automorfismo, entonces U 6= V , por lo que
dim U < n. Por inducción, existen u1 , . . . , ul ∈ U , y m0 (1), . . . , m0 (l) ≥ 0,
tales que
0 0
i. {u1 , Su1 , . . . , S m (1) u1 , . . . , ul , Sul , . . . , S m (l) ul } es una base de U ;
0 0
ii. {S m (1) u1 , . . . , S m (l) ul } es una base de S\U . En donde
ker S\U = ker S ∩ im S.
Si ui ∈ U = im S, existe vi ∈ V tal que Svi = ui . Sea W ⊂ V tal que:
ker S = (ker S ∩ im S) ⊕ W , y sea {vl+1 , . . . , vr } una base de W . Definimos
(
m0 (i) + 1, si i = 1, . . . , l
m(i) = .
0, si i = l + 1, . . . , r
5. Forma canónica 117

Hay que verificar que: v1 , Sv1 , . . . , S m(1) v1 , . . . , vr , . . . , S m(r) vr


i. son linealmente independientes; y
ii. generan V .
i. Independencia lineal. Suponemos
r m(i)
X X
ai,k S k vi = 0.
i=1 k=0
Queremos demostrar que ai,k = 0, ∀i, k. Aplicamos S a ambos lados de la
igualdad anterior
Xr m(i)
X
ai,k S k+1 vi = 0,
i=1 k=0
m(i)+1 m(i) 0
pero S vi = S (Svi ) = S m(i) ui = S m (i)+1 ui = 0, con i = 1, . . . , l, y
S m(i)+1 vi = S 0 Svi = 0, con i = l + 1, . . . , r. Entonces tenemos
0
r m(i)
X X l m(i)−1
X X l m
X X (i)
ai,k S k+1 vi = ai,k S k+1 vi = ai,k S k ui = 0.
i=1 k=0 i=1 k=0 i=1 k=0
0 0
Como u1 , Su1 , . . . , S m (1) u
1 , . . . , ul , . . . , S m (l) u
l son independientes (base de
0
U ), ai,k = 0, i = 1, . . . , l y k = 0, . . . , m (i) = m(i) − 1. Entonces nos
quedamos únicamente con
a1,m(1) S m(1) v1 + . . . + al,m(l) S m(l) vl + al+1,0 vl+1 + . . . + ar,0 vr = 0.
0 0
Pero como S m(1) v1 = S m (1)+1 v1 = S m (1) u1 , entonces
a1,m(1) S m(1) v1 + . . . + al,m(l) S m(l) vl = 0, al+1,0 vl+1 + . . . + ar,0 vr = 0,
0 0
pero {S m (i)ui ,...,S;m (l) ul } es base de S\U , entonces ai,m(i) = 0, y como te-
nemos que {vl+1 , . . . , vr } es base de W , entonces ai,0 = 0. Por lo tanto se
concluye que
v1 , Sv1 , . . . , S m(1) v1 , . . . , vr , Svr , . . . , S m(r) vr
son linealmente independientes.
ii. Contamos los vectores:
Xr Xl l
X
(m(i)+1) = r + m(i) = r + (m0 (i)+1) = r +dim U = r +dim im S,
i=1 i=1 i=1
esto por la definición de m(i) y el subespacio U = im S. También tenemos
que ker S = (ker S\U ) ⊕ W , pero dim ker S\U = l y dim W = r − l, entonces
dim ker S = r. Entonces
Xr
(m(i) + 1) = dim ker S + dim im S = dim V.
i=1
118 9. Forma canónica de Jordan

Si mT (x) = (x − λ)β , necesariamente algún k(i) = β. Definimos Vi =


gen{vi,1 , . . . , vi,k(i) }, entonces
1. dim V = k(i).
2. V = V1 ⊕ . . . ⊕ Vr .
3. (T − λ · id)k(i) \Vi = 0. (T − λ · id)max{k(i)} = 0, entonces β ≤
max{k(i)}, pero (T −λ·id)k(i)−1 vi,k(i) 6= 0, entonces β = max{k(i)}.
Si β = 1, k(i) = 1.
Si β = n, r = 1, k(1) = n.
A la base B del Teorema 34 se le llama Base de Jordan. A la matriz
[T ]B se le llama forma Canónica de Jordan.
Teorema 37. Sea T : V → V tal que pT (x) = (x − λ1 )α1 . . . (x − λk )alphak .
Entonces existe una base B de V tal que
 
J1 0 . . . 0
 0 J2 . . . 0 
[T ]B =  . . ,
 
.. . .
 .. . . .. 
0 0 . . . Jk
donde cada Ji es una matriz de αI × αi de la forma
 
λi 1 ... 0
 0 λi ... 0 
 
 .. .. .. .. 
. .
 . . 

0 0 ... 1 
 
0 0 . . . λi 
Ji =  .
 
 λi 1 ... 0 

 0 λi ... 0 

 .. .. .. .. 

 . . . . 


 0 0 . . . λi 

..
.
Cada Ji tiene la forma canónica de Jordan.

Observación. Si T : V → V , con dim V = 3 y pT (x) = (x − λ1 )(x −


λ2 )(x − λ3 ), entonces tienen la siguiente forma de Jordan, si
1. mT (x) = (x − λ1 )(x − λ2 )(x − λ3 )
 
λ1 0 0
 0 λ2 0  .
0 0 λ3
5. Forma canónica 119

2. mT (x) = (x − λ1 )(x − λ2 )
 
λ1 0 0
 0 λ2 0  .
0 0 λ2
3. mT (x) = (x − λ1 )(x − λ2 )2
 
λ1 0 0
 0 λ2 1  .
0 0 λ2
Si λ1 = λ2 = λ3 , tenemos que, si
1. mT (x) = x − λ  
λ 0 0
0 λ 0 .
0 0 λ
2. mT (x) = (x − λ)2
 
λ 1 0
0 λ 0 .
0 0 λ
3. mT (x) = (x − λ)3
 
λ 1 0
0 λ 1 .
0 0 λ
Teorema 38. Sea T : V → V tal que pT (x) = (x − λ1 )α1 . . . (x − λk )αk .
Entonces existen subespacios U1 , . . . , Uk tales que
1. V = U1 ⊕ . . . ⊕ Uk .
2. T (Ui ) ⊂ Ui .
3. dim Ui = αi .
4. T \Ui tiene sólo el eigenvalor λi .

Demostración. 1. Uλi = Ui = ker(T − λ · id)βi , donde mT (x) = (x −


mT (x)
λ1 )β1 . . . (x − λk )βk . Sea mi (x) = (x−λ β , tenemos entonces p1 (x)m1 (x) +
i) i
. . . + pk (x)mk (x) = 1. Sea v ∈ V , luego v = v1 + . . . + vk , y sea vi =
pi (T )mi (T )v ∈ Ui . Lo cual implica que V = U1 + . . . + Uk .
Falta mostrar que (Ui ∩Uj ) = {0}. Tomamos ui ∈ Ui , tales que u1 +. . .+uk =
0. Entonces
ui = p1 (T )m1 (T )ui + . . . + pk (T )mk (T )ui = pi (T )mi (T )ui
entonces
pi (T )mi (T )(u1 + . . . + uk ) = 0.
120 9. Forma canónica de Jordan

Entonces ui = 0, ∀i.
2. El que T (Ui ) ⊂ Ui ya se habı́a probado anteriormente, véase observa-
ciones después del teorema 33.
3. Esta parte se verifica con el Teorema 37, ası́ que dim Ui = αi .
4. Finalmente mT \U (x) = (x − λi )βi , ası́ que λi es el único eigenvalor de
i
T \Ui . 

Problemas Fundamentales.
1. Si U , V son espacios vectoriales, cuándo tenemos U ∼ = V ?. Este se
resuelve fácil, y U ∼
= V si, y sólo si, existe un isomorfismo T : U →
V , o bien si dim U = dim V .
2. Si T, S : V → V , cuándo tenemos T ≈ S?, es decir, existe un
automorfismo ϕ : V → V tal que S = ϕ−1 ◦ T ◦ ϕ?. La respuesta
es sı́, si tienen la misma forma canónica de Jordan. Es decir, si
[T ]BT = [S]BS = J, tenemos
−1 −1
T = γB T
◦ MP ◦ γBT , S = γB S
◦ MQ ◦ γBS ,
si MP = MJ = MQ , entonces
−1 −1 −1 −1
γBT ◦ T ◦ γB T
= γBS ◦ S ◦ γB S
⇒ S = γB S
◦ γBT ◦ T ◦ γB T
◦ γBS ,
por lo tanto S = ϕ−1 ◦ T ◦ ϕ.

También podría gustarte