Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ricardo A. Sáenz
Índice general
iii
iv Índice general
Espacios vectoriales
1. Definiciones básicas
Definición 1. Un campo es un conjunto K con dos operaciones, + (suma)
y · (multiplicación), tales que satisfacen:
1. λ + (µ + υ) = (λ + µ) + υ; λ · (µ · υ) = (λ · µ) · υ, para todo λ, µ, υ ∈ K
(asociatividad).
2. λ + µ = µ + λ; λ · µ = µ · λ, para todo λ, µ ∈ K (conmutatividad).
3. Existen 0, 1 ∈ K, tales que λ + 0 = λ y λ · 1 = λ, para todo λ ∈ K
(elementos neutros).
4. Para todo λ ∈ K, existe único (−λ) ∈ K tal que: λ + (−λ) = 0;
para todo λ ∈ K, λ 6= 0, existe único λ−1 ∈ K tal que λ · λ−1 = 1
(elementos inversos).
5. λ · (µ + υ) = λ · µ + λ · υ, para todo λ, µ, υ ∈ K (distributividad).
Ejemplos:
1. Q, R, C son ejemplos de campos.
2. K = {0, 1}.1
3. Funciones racionales sobre el campo de los números reales (R):
a0 + a1 x + .. + am xm
{ : bn 6= 0; ai , bi ∈ R; m, n ∈ N}
b0 + b1 x + .. + bn xn
1
2 1. Espacios vectoriales
Corolario 1. 0 6= 1.
Ejemplos:
0. {0} sobre K. Tenemos 0 + 0 = 0 y λ · 0 = 0. Este es conocido como
el espacio trivial.
1. K sobre K, λ + u y λ · u son las mismas que en K.
2. K2 sobre K, dado por:
n λ o
2
K = : λ, µ ∈ K
µ
2No se debe interpretar la notación ui como la i-ésima potencia de u, sino como la i-ésima
entrada del vector u, se estarán utilizando ui y ui ambas para denotar lo mismo.
1. Definiciones básicas 3
2. Subespacios
Definición 3. Sea V un espacio vectorial. Decimos que U ⊂ V es un sub-
espacio de V, si U forma un espacio vectorial con la restricción de las ope-
raciones de V a U . Definimos: +\U : U × U → U , y ·\U : K × U → U .
Proposición 2. Sea V un espacio vectorial y U ⊂ V . Entonces si u, v ∈ U
y λ ∈ K, u + v ∈ U y λu ∈ U , U es subespacio de V .
0 0
Demostración. Escribimos + = +\U y · = ·\U . Entonces:
0 0 0 0
1. u+ (v + w) = u+(v +w) = (u+v)+w = (u+ v)+ w, ∀u, v, w ∈ U .
0 0
2. Para u, v ∈ U , u + v = u + v = v + u = v + u.
0 0
3. u ∈ U , entonces: u + 0 = u + 0 = u, y 0 · u = 0.
4. Si u ∈ U , entonces (−1)u = −u ∈ U ,
u + (−1)u = 1 · u + (−1)u = (1 − 1)u = 0 · u = 0.
0 0 0 0
5. λ · (µ · u) = λ · (µ · u) = λ · (µ · u) = (λµ) · u = (λµ) · u.
0 0 0 0 0 0 0
6. (λ + µ) · u = (λ + µ) · u = λ · u + µ · u = λ · u + µ · u = λ · u + µ · u.
0 0 0 0 0
7. λ · (u + v) = λ · (u + v) = λ · (u + v) = λ · u + λ · v = λ · u + λ · v =
0 0 0
λ · u + λ · v.
3. Suma directa 5
Ejemplos:
n x o
1. X ⊂ R2 , X =“eje x”= :x∈R .
0
2. P ⊂ C(R), P es subespacio de C(R).
3. S ⊂ R3 :
n x 2x − y = 0 o
S= y ∈ R3 : x + y + z = 0 .
z y−z =0
S es un subespacio de R3 .
4. S ⊂ R2 :
n x o
S= ∈ R2 : 2x − 3y = 2 .
y
0
Como ∈
/ S, S no es un subespacio vectorial.
0
5. S ⊂ R2 :
n x o
S= ∈ R2 : x3 = y 3 .
y
S si forma un subespacio de R2 .
6. S ⊂ C2 :
n x o
S= ∈ C2 : x3 = y 3 .
y
√
1 1 1 3 1 1
Si , ∈ S, con w = − 2 + 2 i, luego + =
1 w 1 w
2
/ S. Por lo tanto S no es un subespacio de C2 .
∈
1+w
7. M ⊂ M3 (R), M representa al conjunto de todos los “cuadrados
mágicos”, dados por:
a11 + a12 + a13 = s, a11 + a21 + a31 =s
a11 a12 a13
a21 a22 a23 ∈ M3 : a21 + a22 + a23 = s, a12 + a22 + a32 =s o
n
.
a31 + a32 + a33 = s, a13 + a23 + a33 =s
a31 a32 a33
a11 + a22 + a33 = s, a13 + a22 + a31 =s
M es un subespacio vectorial de M3 (R).
3. Suma directa
Definición 4. Sea V un espacio vectorial y U, W ⊂ V subespacios de V .
Decimos que V es la suma directa de U y W , y escribimos V = U ⊕ W , si
para cada v ∈ V existen únicos u ∈ U y w ∈ W tales que v = u + w.
6 1. Espacios vectoriales
Ejemplos:
1. En R2 ,
n x o n x o
U= : x = y ,V = : x = −y .
y y
x
R2 = U ⊕ V . Sea ∈ R2 :
y
x+y x−y
x 2 2
= x+y + x−y .
y 2 − 2
x
Si ∈ U ∩ V , entonces x = y y x = −y, luego x = y = 0.
y
2. En C(R), P es el conjunto de las funciones pares e I el conjunto
de las funciones impares, es decir:
P = {f ∈ C(R) : f (−x) = f (x)},
y tenemos que
I = {f ∈ C(R) : f (−x) = −f (x)}.
Entonces: C(R) = P ⊕ I. Si f ∈ P ∩ I, tenemos: f (−x) = f (x)
y f (−x) = −f (x), lo que implica que f (x) = −f (x) para todo x,
ası́ que f (x) = 0 para todo x. Por lo tanto f = 0.
Capı́tulo 2
Transformaciones
lineales
1. Definiciones básicas
Definición 5. Sean U y V espacios vectoriales sobre K y T : U → V .
Decimos que T es lineal si para todo u, v ∈ U , λ ∈ K:
a) T (u + v) = T u + T v; y
b) T (λu) = λ · T u.
Ejemplos:
0. T : U → V , T u = 0. Transformación trivial, T = O.
1. T : U → U , T u = u. Transformación identidad, T = id = U .
2. T : U → U , T u = mu, m ∈ K. Multiplicación escalar:
T (u + v) = m(u + v) = mu + mv = T u + T v,
y tenemos
7
8 2. Transformaciones lineales
y tenemos
1
x + 2x2
1
y + 2y 2
1
x + y 1 + 2x2 + 2y 2
1 1
x y
T +T = x2 + y 2 = x2 + y 2 .
x2 y2 1 2 1 2 1 2 1 2
x + 3x y + 3y x + 3x + y + 3y
1 1 1 1
x y x y
Por lo tanto T + = T + T . De igual
x2 y2 x2 y2
1 1
x x
forma T λ 2 =λ·T . Entonces T es lineal.
x x2
4. En general, si T : Rn → Rm , dada por T x = Ax, donde A es una
matrı́z de m × n, entonces T es lineal.
5. T : C 1 (R) → C(R), T f = f 0 . T es lineal.1
2. Kernel e imagen
Definición 6. Sea T : U → V una transformación lineal. Definimos:
a) El kernel de T por
n o
ker T = u ∈ U : T u = 0 ;
b) La imagen de T por
n o
im T = v ∈ V : ∃u ∈ U : T u = v .2
Ejemplos:
1. T = O:
· ker O = U .
· im O = {0}.
2. T = id:
· ker T = {0}.
· im T = U .
1 2
3. T x = Ax, A = 0 1:
1 3
n x1
x1 + 2x2 = 0 o
· ker T = ∈ R2 : x2 = 0 = {0}.
x2
x + 3x2 = 0
1
1
y 1 = x1 + 2x2 o n y1
n y o
· im T = y 2 ∈ R3 : y 2 = x2 = y2 .
y3 y 3 = x1 + 3x2 y1 + y2
1Eso dicen en Cálculo.
2El kernel de T es llamado también núcleo de T , y la imagen de T es también conocida como
rango de T .
2. Kernel e imagen 9
4. T : C 1 (R) → C(R), T f = f 0 :
· ker T =“funciones constantes”.
· im T = C(R), por el Teorema Fundamental del Cálculo.
5. Pn =“polinomios de grado menor que n”. T : Pn → Pn−1 , T p = p0 :
· ker T = P1 = {a0 }.
· im T = Pn−1 .
3O uno a uno.
10 2. Transformaciones lineales
3. Isomorfismos
Definición 8. Sea T : U → V lineal. T es un isomorfismo si es inyectiva y
sobreyectiva. Decimos que dos espacios vectoriales U y V son isomorfos, y
escribimos U ∼= V , si existe un isomorfismo T : U → V .
Ejemplos:
1 2
1. T : R2 → R3 , dada por T x = Ax, donde A = 0 1, no es un
1 3
isomorfismo. 1
2 x
2. Consideramos C sobre R, y T : R → C dada por T =
x2
x1+ ix2 . Como ker T = 0, T es inyectiva. Sea a + ib ∈ C, entonces
a
T = a + ib ∈ im T , esto implica C ⊂ im T y como im T ⊂ C
b
se concluye im T = C, luego T es sobre. Por lo tanto T es un
isomorfismo. 1
2 x
3. T : K → K × K, dada por T = (x1 , x2 ), es un isomorfismo.
x2
Luego K2 ∼ = K × K.
Observación. En general, Kn ∼ = K × K × ... × K.
a0
a1
4. T : R → Pn , dada por T . = a0 +a1 x+a2 x2 +...+an−1 xn ,
n
..
an−1
es un isomorfismo. Por lo tanto Rn ∼
= Pn .
5. Sea T : P → l0 (R), dada por
T (a0 + a1 x + ... + an xn ) = (a0 , a1 , a2 , ..., an , 0, 0, 0, ...),
donde P es el espacio de todos los polinomios y
l0 (R) = {(an ) : ∃N : an = 0, ∀n ≥ N }.
Tenemos que T es un isomorfismo, y por lo tanto P ∼= l0 (R).
a11 a12 a13 a11
6. T : M → R3 , dada por T a21 a22 a23 = a12 . Esto es un
a31 a32 a33 a13
isomorfismo porque
n a11 a12 a13 0 o
· ker T = m = a21 a22 a23 ∈ M : T m = 0 = {0}.
a31 a32 a33 0
Luego T es inyectiva.
3. Isomorfismos 11
1
n a11 a12 a13 x o
· im T = m = a21 a22 a23 ∈ M : T m = x2 .
a31 a32 a33 x3
T es sobre, ya que
x 1 x2 x3
1
x
−2x1 +x2 +4x3 x1 +x2 +x3 4x1 +x2 −2x3
T
3 3 3 = x2 , s = x1 + x2 + x3 .
2x1 +2x2 −x3 2x1 −x2 +2x3 4x1 +x2 +x3 x3
3 3 s− 3
Por lo tanto T es un isomorfismo y se concluye que M ∼
= R3 .
Capı́tulo 3
La estructura de un
espacio vectorial
1. Combinaciones lineales
Definición 9. Sea V un espacio vectorial sobre K. Una combinación lineal
en V es una suma de la forma:
λ1 v1 + λ2 v2 + . . . + λn vn ,
donde λ1 , λ2 , . . . , λn ∈ K y v1 , v2 , . . . , vn ∈ V .
Definición 10. Sea S ⊂ V , S 6= φ. El espacio generado por S es el conjunto
de todas las combinaciones lineales en V con vectores en S, y se denota por
genS 1. Es decir:
genS = {λ1 v1 + λ2 v2 + . . . + λn vn : n ∈ N, λi ∈ K, ui ∈ S}.
Proposición 6. Si S ⊂ V , S 6= φ, entonces genS es un subespacio de V .
13
14 3. La estructura de un espacio vectorial
Ejemplos:
n 1 o n 1 o n x
1. S = 2
⊂ R , luego genS = λ :λ∈R = :x∈
1 1 x
o
R .
n 1 2 o
2. S = 0 , 1 ⊂ R3 , luego
1 3
n 1 2 o n y1
genS = λ1 0 + λ2 1 : λ1 , λ2 ∈ R = y2 ∈
1 3 y1 + y2
o
R3 : y1 , y 2 ∈ R .
1 2
Observación: Si A = 0 1 y T : R2 → R3 dada por T x = Ax,
1 3
entonces genS = imT .
Proposición 7. Sea A una matriz de m × n, y T : Rn → Rm dada por
T x = Ax. Entonces imT es igual al espacio generado por las columnas de
A.
Demostración. Sean
u1 , u2 , . . . , un ∈ Rm , las columnas de A. Es decir
A = u1 u2 . . . un . Entonces y ∈ imT si, y sólo si,
1
x
x2
u1 u2 . . . un . = y,
.
.
xn
si, y sólo si, x1 u1 +x2 u2 +. . .+xn un = y si, y sólo si, y = gen{u1 , u2 , . . . , un }.
2. Independencia lineal
Definición 11. Sea V un espacio vectorial sobre K y u1 , u2 , . . . , un ∈ V . De-
cimos que u1 , . . . , un son linealmente dependientes si existen λ1 , λ2 , . . . , λn ∈
K, no todos cero, tales que:
λ1 u1 + λ2 u2 + . . . + λn un = 0.
Es decir, existe una combinación lineal no trivial de los ui que sea igual
a cero. En caso contrario, decimos que son linealmente independientes. Es
decir, u1 , u2 , . . . , un ∈ V son independientes si
λ1 u1 + λ2 u2 + . . . + λn un = 0,
2. Independencia lineal 15
implica λ1 = λ2 = . . . = λn = 0.
Ejemplos:
1 1 1
1. 0 , 2 , 1; son linealmente dependientes, porque
1 1 1
1 1 1 0
1 0 + 1 2 + (−2) 1 = 0 .
1 1 1 0
1 1 1
2. 0 , 2 , 0; son linealmente independientes, porque
1 1 0
1 1 1 0 λ1 + λ2 + λ3 = 0 λ1 = 0
λ1 0 + λ2 2 + λ3 1 = 0 ⇒ 2λ2 = 0 ⇒ λ2 = 0 .
1 1 1 0 λ1 + λ2 = 0 λ3 = 0
Proposición 8. Sea A una matriz de m × n y T : Rn → Rm dada por
T x = Ax. Entonces kerT = 0 si, y sólo si, las columnas de A son linealmente
independientes.
xn
Como u1 , ..., un son linealmente independientes, x1 = ... = xn = 0. Es decir,
x = 0.
Ejemplos:
0
1. es linealmente dependiente.
0
16 3. La estructura de un espacio vectorial
uj ∈ gen{ui : i 6= j}
Ejemplos:
Demostración.
(1)
Z π Z π k
X
(λ1 cos n1 x + . . . + λk cos nk x) cos nj xdx = (λi cos ni x) cos nj xdx
−π −π i=1
k
X Z π
(2) = λi cos ni x cos nj xdx
i=1 −π
(3) = λj π
(4) = 0 ⇒ λj = 0.
Esto porque
Z π (
0, si n 6= m;
cos(mx)cos(nx)dx =
−π π, si n = m
Teorema 1. Sea V un espacio vectorial sobre K, y u1 , . . . , un ∈ V . Si U =
gen{u1 , . . . , un } y v1 , . . . , vn ∈ U son linealmente independientes, entonces
k ≤ n.
Corolario 2. El sistema:
a11 x1 + . . . + a1n xn = 0
a21 x1 + . . . + a2n xn = 0
..
.
am1 x1 + . . . + amn xn = 0
tiene soluciones no triviales si n > m.
Lema 1. Si w1 , . . . , wm son linealmente dependientes y, digamos, wj es
combinación lineal del resto, entonces
gen{w1 , . . . , wj−1 , wj+1 , . . . , wm } = gen{w1 , . . . , wm }.3
X X X
(5) v= λi wi + λj wj = λi wi + λj αi wi
i6=j i6=j i6=j
X
(6) = (λi + λj αi )wi ∈ gen{wi : i 6= j}.
i6=j
3Este lema se utilizará para demostrar el teorema 1.
18 3. La estructura de un espacio vectorial
3. Bases y dimensión
Definición 13. Sea V un espacio vectorial sobre K y B ⊂ V , B 6= φ.
Decimos que B es una base de V si V = genB y B es un conjunto linealmente
independiente.
Ejemplos:
1. E ⊂ Rn , dado por
1 0 0
n 0 1 0 o
E = . , . , . . . , . .
.. .. ..
0 0 1
E es una base de Kn , la base estándar.
a) Kn = genE, porque
k1 1 0 0
k2 0 1 0
.. = k1 .. + k2 .. + . . . + kn .. .
. . . .
kn 0 0 1
b) E es linealmente independiente, porque
1 0 0 0
0 1 0 0
λ1 . + λ2 . + . . . + λn . = . ⇒ λ1 = λ2 = . . . = λn = 0.
.. .. .. ..
0 0 1 0
n 1
1 o
2. B = , es una base de R2 .
1 −1
2 x x+y 1 x−y 1
a) R = gen B : = +
y 2 1 2 −1
3. Bases y dimensión 19
1 1 0
b) λ +µ = ⇒ λ = µ = 0.
1 −1 0
3. {1, i} es una base de C sobre R.
4. {1, x, x2 , x3 , . . .} es una base de P.
5. {cosx, cos2x, . . .} no es una base de C(R).
C(R) 6= gen{cosx, cos2x, . . .}, f (x) = 1 ∈
/ gen{cosx, cos2x, . . .}.
Proposición 10. B es una base de V si, y sólo si, cualquier v ∈ V es una
combinación lineal única de vectores en B.
Ejemplos
1. Kn ∼
= Km si, y sólo si, n = m.
2. Rn ∼
= Pn = {1, x, x2 , . . . , xn−1 } es una base para Pn . De hecho
Rn ∼
= Pm si, y sólo si, n = m.
3. P no tiene una base finita.
Definición 14. Sea V un espacio vectorial sobre K. Decimos que V es de
dimensión finita si V tiene una base finita. Si {u1 , . . . , un } es una base de V ,
entonces la dimensión de V , dim V , es igual a n. Si V no tiene una base finita
entonces decimos que es de dimensión infinita, y escribimos dim V = ∞.
20 3. La estructura de un espacio vectorial
Corolario 4. Tenemos
1. Sea V un espacio vectorial sobre K. Entonces V ∼= Kn si, y sólo si,
dim V = n.
2. Sean U, V espacios de dimensión finita. Entonces U ∼
= V si, y sólo
si, dim U = dim V .
La dimensión de un espacio de dimensión finita clasifica al espacio.
Ejemplos:
M , el espacio de cuadrados mágicos. Base de M
n 1 1 1 1 −1 0 0 −1 1
1 1 1 , −1 0 1 , 1 0 −1
1 1 1 0 1 −1 −1 1 0
Teorema 3. Sea V un espacio finitamente generado, es decir V 6= 0 y
existen u1 , . . . , um ∈ V tales que gen{u1 , . . . , um } = V . Entonces V tiene
una base finita.
Ejemplos
1 1
1. 1,2 son linealmente independientes en R3 . Vamos a exten-
0 1
n 1 0 0 o
der a una base. Consideramos 0 , 1 , 0 .
0 0 1
1 0 0 1
1 0 + 1 1 + 0 0 = 1
0 0 1 0
n 0 0 1 o
⇒ 1 , 0 , 1 es una base de R3 .
0 1 0
0 0 1 1
1 + 0 + 1 = 2
0 1 0 1
22 3. La estructura de un espacio vectorial
n 0 1 1 o
⇒ 1 , 1 , 2 es una base de R3 .
0 0 1
2. {1, x − 1, (x − 1)2 } es una base de P3 .
En general {1, x − a, (x − a)2 , . . . , (x − a)n−1 } es una base de
Pn , también conocida como reprensentación de Taylor.
3. En M =cuadrados mágicos
n 3 −2 2 0 1 2 0 4 −1 o
0 1 2 , 3 1 −1 , 0 1 2
0 4 −1 0 1 2 3 −2 2
es una base de M . Ya que
3 −2 2 0 1 2 0 4 −1 0 0 0
λ 1 0 1 2 + λ2 3 1 −1 + λ3 0 1 2 = 0 0 0
0 4 −1 0 1 2 3 −2 2 0 0 0
⇒ λ1 = λ2 = λ3 = 0.
Proposición 11. Si T : U → V es un isomorfismo y {u1 , . . . , un } es una
base de U , entonces {T u1 , . . . , T un } es una base de V .
Corolario 8. Si U y V son espacios vectoriales sobre K y de dimensión
finita, entonces U × V es de dimensión finita y dim U × V = dim U + dim V .
Corolario 9. Si U y W son subespacios de V tales que V = U ⊕ W , y V
es de dimensión finita, entonces dim V = dim U + dim W .
Teorema 4. Sea V un espacio vectorial sobre K. Entonces V tiene una
base.
3. Bases y dimensión 23
La estructura de una
transformación lineal
1. La ecuación de dimensión
Teorema 5. Ecuación de dimensión. Sean U y V espacios vectoriales sobre
K, dim U < ∞, y T : U → V lineal. Entonces dim ker T +dim im T = dim U .
25
26 4. La estructura de una transformación lineal
Ejemplos.
1. Sea T : R5 → R3 dada por T x = Ax, donde A es la matrı́z de 3 × 5
dada por
1 2 0 0 1
A = 0 −1 1 −1 0 .
1 2 0 0 1
· ker T
1
x
2 x1 + 2x2 + x5 = 0
1 2 0 0 1 x3 0
0 −1 1 −1 0 x = 0 ⇒ −x2 + x3 − x4 = 0
1 2 0 0 1 x4 0 x1 + 2x2 + x5 = 0
x5
luego
x1 + 2x3 − 2x4 + x5 = 0
.
x2 − x3 + x4 = 0
Por lo tanto
x1 = −2x3 + 2x4 − x5
,
x2 = x3 − x4
y entonces
x1 −2x3 + 2x4 − x5
−2 2 −1
x2 3
x −x 4
1 −1 0
3 4 5
3 3
x = x =
x =x 1 +x 0 +x 0
4
x x4 0 1 0
x5 x5 0 0 1
−2 2 −1
n 0
1 −1
o
por lo tanto 1 , 0 , 0 es una base para ker T .
0 1 0
0 0 1
· im T
1
x2 1
x1 + 2x2 + x5 = y 1
1 2 0 0 1 x3
y
0 −1 1 −1 0 x = y 2 ⇒ −x2 + x3 − x4 = y 2
1 2 0 0 1 x4 y3 x1 + 2x2 + x5 = y 3
x5
luego
x1 + 2x2 + x5 = y 1 = y 3
.
−x2 + x3 − x4 = y 2
2. Matrices 27
Por lo tanto
1
y 1 0
y = y 2 = y 1 0 + y 2 1
y1 1 0
n 1 0 o
Luego 0 , 1 es una base de im T .
1 0
Por lo tanto dim ker T + dim im T = 3 + 2 = dim R5 .
2. Sea T : Pn → Pn−1 dada por T p = p0 , la derivada de p.
· ker T = P1 , polinomios constantes.
· im T = Pn−1 .
Por lo tanto dim ker T + dim im T = 1 + (n − 1) = dim Pn .
Corolario 10. Tenemos
1. Sean U y V espacios vectoriales de dimensión finita, con dim U =
dim V , y sea T : U → V lineal. Los siguientes enunciados son
equivalentes:
a) T es inyectiva;
b) T es sobreyectiva; y
c) T es un isomorfismo.
2. Si T : U → V es lineal e inyectiva, entonces dim U ≤ dim V .
3. Si T : U → V es lineal y sobreyectiva, entonces dim V ≤ dim U .
Demostración. Tenemos
1. Si T es inyectiva, entonces dim ker T = 0 y dim im T = dim U =
dim V . Entonces im T = V . Si T es sobreyectiva, entonces tenemos
que dim im T = dim V = dim U , ası́ que dim ker T = 0. Por lo tanto
ker T = 0.
2. dim U = dim im T ≤ dim V .
3. dim V = dim im T ≤ dim ker T + dim im T = dim U .
2. Matrices
Sea T : Rn → Rm una transformación lineal. Sea {e1 , . . . , en } la base
estándar de Rn . Cada T ej ∈ Rm , digamos T ej = aj :
1
aj
..
T ej = . ∈ Rm .
am
j
28 4. La estructura de una transformación lineal
Si x ∈ Rn , entonces
a11
1
an
1 n 1 n 1 .. n ..
T x = T (x e1 +. . .+x en ) = x T e1 +. . .+x T en = x . +. . .+x .
am1 amn
y entonces tenemos
a11 a12 a1n
1
... x
a11 x1 a1n xn
+ ... + 2
.. a1 a22 ... a2n x2
= ..
. .. .. .. ..
. . . . .
am 1 m n
1 x + . . . + an x am
1 am
2 . . . am
n xn
Observaciones.
1. Toda T : Rn → Rm está dada por la multiplicación de una matrı́z
de m × n.
2. Si T : Kn → Km es lineal, entonces existe una matrı́z A de m × n
tal que T x = Ax.
Definición 15. Definimos Hom(Kn , Km ) como el espacio vectorial de todas
las transformaciones lineales de Kn a Km .
2.ϕ es lineal. Hay que mostrar ϕ(T +S) = ϕ(T )+ϕ(S) y ϕ(λT ) = λϕ(T ),
entonces
(MT +S )ij = ((T + S)ej )i = (T ej + Sej )i = (T ej )i + (Sej )i = (MT )ij + (MS )ij
se deja como ejercicio verificar que ϕ(λT ) = λϕ(T ), por lo tanto ϕ es lineal.
3.ϕ ◦ ψ = idM y ψ ◦ ϕ = idHom , entonces
ϕ ◦ ψ(A) = ϕ(ψ(A)) = Mψ(A) , (Mψ(A) )ij = (ψ(A)ej )i = (TA ej )i = (A · ej )i ,
y ası́ (A · ej )i = Aij . También
ψ ◦ ϕ(T ) = ψ(ϕ(T )) = Tϕ(T ) , Tϕ(T ) x = ϕ(T )x = MT · x = T x.
Ejemplos
1. ρθ
: R2 → R2 , rotación por un ángulo θ. Las columnas de M
ρθ son
1 0
ρθ y ρθ . Entonces
0 1
cos θ − sin θ
M ρθ = .
sin θ cos θ
2. R : R2→R2 ,
reflexión
conrespecto
a x = y. Las columnas de MR
1 0 0 1
son R = yR = . Entonces
0 1 1 0
0 1
MR = .
1 0
Corolario 11. Hom(Kn , Km ) es de dimensión finita y dim Hom(Kn , Km ) =
mn.
Definición 16. Entonces una base ordenada se denota por [u1 , . . . , un ], con
la propiedad [u1 , . . . , ui , . . . , uj , . . . , un ] 6= [u1 , . . . , uj , . . . , ui , . . . , un ].
U
T /V
γB γC
Kn / Km
S
−1
por lo tanto S = γC ◦ T ◦ γB .
Si B es una base ordenada de U y C es una base ordenada de V , y
T ∈ Hom(U, V ), tomamos
−1
S = γC ◦ T ◦ γB
de tal forma que el diagrama es conmutativo (S ◦ γB = γC ◦ T ).
Entonces S induce la matriz MS . Se dice que MS es la matriz inducida
por T respecto a las bases B y C y se denota
[T ]B,C .
Ejemplos.
1. Sea d : P3 → P2 , dp = p0 y sean B = [1, x, x2 ], C = [1, x]. Tenemos
γC 0 γC 1 γC 0
d(1) = 0 7−→ , d(x) = 1 7−→ , d(x2 ) = 2x 7−→
0 0 2
por lo tanto
0 1 0
[d]B,C = .
0 0 2
Pero si ahora tomamos C 0 = [1 + x, 1 − x]
1
γC 0 0 γC 0
2 2 γC 0 1
d(1) = 0 7−→ , d(x) = 1 7−→ 1 , d(x ) = 2x 7−→
0 2 −1
por lo tanto
1
0 2 1
[d]B,C 0 = 1 .
0 2 −1
2. Sea V = gen{eax cos bx, eax sin bx}, b 6= 0, a, b ∈ R. Si usamos
B = [eax cos bx, eax sin bx], d : V → V con df = f 0 , entonces
ax ax ax γB a
d(e cos bx) = ae cos bx − be sin bx 7−→ ;
−b
ax ax ax γB b
d(e sin bx) = be cos bx + ae sin bx 7−→
a
por lo tanto
a b
[d]B,B = .
−b a
32 4. La estructura de una transformación lineal
Por lo tanto
−λ 1 0 ... 0
0 −λ 2 . . . 0
0 0 −λ . . . 0
[d]B,B = .
.. .. .. ..
.. . . . .
0 0 0 ... k
0 0 0 . . . −λ
y entonces
−1 1
−λ − λ12 − λ23 k!
. . . − λk+1
−λ 1 0 ... 0
0 −λ 2 . . . 0
0
− λ1 − λ22 ... − λk!k
0 0 −λ . . . 0 0 0 − λ1 . . . − 2λk!
k−1
.. = .. ,
.. .. .. .. .. .. .. ..
.
. . . .
.
. . . .
0 0 0 ... k 0 0 0 ... − λk2
0 0 0 . . . −λ 0 0 0 ... − λ1
por lo tanto
k! k! −λx k 1
d−1 (xk e−λx ) = − e−λx − xe − . . . − 2 xk−1 e−λx − − xk e−λx ,
λk+1 λ k λ λ
y entonces
Z k
k −λx
X k!
x e dx = − xj e−λx + C
j!λk+1−j
j=0
y por lo tanto
Z ∞
k!
xk e−λx dx = .
0 λk+1
Si T : U → V es lineal, B, B 0 bases de U y C, C 0 bases de V , ¿cuál es la
relación entre [T ]B,C y [T ]B,C 0 o [T ]B 0 ,C ?. Es decir, entre
T
U −−−−→ V
γB y
γ
yC
S
Kn −−−−→ Km
−1
S = γC ◦ T ◦ γB ,y
T
U −−−−→ V
γB y
γ 0
yC
R
Kn −−−−→ Km
34 4. La estructura de una transformación lineal
−1
R = γC 0 ◦ T ◦ γB . Entonces
T id
U −−−−→ V −−−−→ V
γB y
γ γ 0
yC yC
S ψ
Kn −−−−→ Km −−−−→ Km
ψ = γC 0 ◦ γC−1 es un automorfismo de Km de cambio de base. Por lo tanto
existe Mψ , la matriz de cambio de base.
Del ejemplo: d : P3 → P2 , dp = p0 con B = [1, x, x2 ], C = [1, x] y
C 0 = [1 + x, 1 − x] obtuvimos
0 12 1
0 1 0
[d]B,C = , [d]B,C 0 = .
0 0 2 0 12 −1
Entonces
id
P2 −−−−→ P2
γC y
γ 0
yC
ψ
R2 −−−−→ R2
ψ = γC 0 ◦ γC−1 , luego
−1 1
1 γC 1 1 γC 0
ψ 7−→ 1 = (1 + x) + (1 − x) 7−→ 21 ,
0 2 2 2
y −1 1
0 γC 1 1 γ 0
ψ 7−→ x = (1 + x) − (1 − x) 7−C→ 2
1 2 2 − 21
por lo tanto
1 1
Mψ = 2 . 2
1
− 212
Como R = ψ ◦S, entonces MR = Mψ ·MS , por ejemplo [d]B,C 0 = Mψ ·[d]B,C .
Ası́ que 1 1
0 21 1
2 2 0 1 0
[d]B,C 0 = 1 1 =
2 −2 0 0 2 0 12 −1
como también S = ψ −1 ◦ R luego MS = Mψ−1 · MR = Mψ−1 · MR , entonces
0 12 1
1 1 0 1 0
MS = [d]B,C = = .
1 −1 0 12 −1 0 0 2
En general
id T id
U −−−−→ U −−−−→ V −−−−→ V
γB 0
y γ B
y
γ
yC
γ 0
yC
ϕ S ψ
Kn ←−−−− Kn −−−−→ Km −−−−→ Km
3. Matriz de cambio de base 35
Ejemplos
p(1)
1. Sea T : P3 → R3 , dada por T p = p0 (1) , si B = [1, x, x2 ] y
p00 (1)
C = [1, x − 1, (x − 1)2 ]. Tenemos
1 1 1
[T ]B,E = 0 1 2
0 0 2
pero
1 0 0
[T ]C,E = 0 1 0
0 0 2
y de esto T −1 : R3 → P3 , luego
1 0 0
[T −1 ]E,C = [T ]−1
C,E = 0 1 0
0 0 21
a a
−1 −1
y T b = γC
b = a + b(x − 1) + 21 c(x − 1)2 . Entonces
1
c 2c
tenemos
p(1)
Corolario 15. p(x) = T −1 ◦ T = T −1 p0 (1) = p(1) + p0 (1)(x −
p00 (1)
1) + 12 p00 (x)(x − 1)2 .
En general, sea Ta : Pn → Rn , a ∈ R, dada por
p(a)
p0 (a)
Ta p =
... ,
p(n−1) (a)
36 4. La estructura de una transformación lineal
p(n−1) (a)
y entonces tenemos:
Si B = [1, x, x2 ], tenemos
2
2 0 3
2
[T ]B,E = 0
3 0 ,
2 2
3 0 5
porque
Z 1 Z 1 Z 1 Z 1 Z 1
2 2 3 2
dx = 2, xdx = 0, x dx = , x dx = 0, x4 dx = .
−1 −1 −1 3 −1 −1 5
Pregunta: ¿existe una base C tal que [T ]C,E es una matriz diago-
nal?.
3. Matriz de cambio de base 37
Observación. Si multiplicamos
2 0 32
8
3 0 −5 3 0 0
0 2 0 0 1 0 = 0 2
0 ,
3 3
2 2 8
3 0 5 −5 0 15 0 0 3
entonces
8
3 0 0
2
[T ]C,E = 0 3 0
8
0 0 3
.. .. ..
. . .
Q= u 1 u 2 . . . u n
,
.. .. ..
. . .
.. .. ..
. . .
v1 v2 . . . vn ,
R=
.. .. ..
. . .
Observación. T ∼
= T1 ⊕ T2 , con T1 : U → U y T2 : W → W .
5. Eigenvectores y diagonalización
Observaciones.
1. Si T : V → V es lineal y dim V = 1, entonces T v = λv, para algún
λ ∈ K.
2. Si T : V → V es escalar, T v = λv, ∀v, entonces para cualquier base
B de V
λ 0 0 ... 0
0 λ 0 . . . 0
[T ]B = 0 0 λ . . . 0 .
.. .. .. . . ..
. . . . .
0 0 0 ... λ
Entonces T es reducible con espacios de dimensión 1: V = V1 ⊕
. . . ⊕ Vn , dim V = n y T (Vi ) ⊂ Vi .
3. Si T : V → V es lineal y V = V1 ⊕ . . . ⊕ Vn , tal que dim Vi = 1 y
T (Vi ) ⊂ Vi , para cada i, entonces existe una base {v1 , . . . , vn } de V
tal que T vi = λi vi , con λi apropiadas. Es decir, si B = [v1 , . . . , vn ],
entonces
λ1 0 0 . . . 0
0 λ2 0 . . . 0
[T ]B = 0 0 λ3 . . . 0 = diag(λ1 , . . . , λn ).
.. .. .. . . .
. . . . ..
0 0 0 . . . λn
Equivalentemente, existen U1 , . . . , Uk tales que Ui 6= O, V y T es
escalar en cada Ui .
Definición 19. Sea dim V < ∞, T : V → V lineal. Decimos que T es
diagonalizable si existe una base B de V tal que [T ]B es diagonal. Equiva-
lentemente
1. T se reduce en espacios de dimensión 1.
2. T se reduce en transformaciones escalares.
42 4. La estructura de una transformación lineal
Ejemplos
1. Sea T : R3 → R3 , T x = Ax, donde
2 1 0
A = −1 −1 1 .
1 2 1
1
Si tomamos v = 0, tenemos
1
2 1 0 1 2 1
T x = −1 −1 1 0 = 0 = 2 0 = 2v.
1 2 1 1 2 1
1
Entonces v = 0 es un eigenvector, y λ = 2 es su respectivo
1
eigenvalor.
2. Sea T : R2 → R2 , T x = Ax, donde
1 1
A= .
1 −1
Tenemos que resolver
1 1 x x
Tx = =λ , λ ∈ R.
1 −1 y y
Entonces tenemos
x + y = λx (1 − λ)x + y = 0
⇒ ,
x − y = λy x + (−1 − λ)y = 0
√
el cual tiene soluciones no triviales si λ = ± 2. Por lo tanto
−1√ −1√
v1 = , v2 = .
1− 2 1+ 2
Verificando
√
1 1 −1√ −1√
= 2 ,
1 −1 1− 2 1− 2
también
√
1 1 −1√ −1√
=− 2 .
1 −1 1+ 2 1+ 2
1También es llamado vector caracterı́stico o propio.
5. Eigenvectores y diagonalización 43
Verificando
0 −1 1 1 0 −1 1 1
=i , = −i .
1 0 −i −i 1 0 i i
Entonces v1 es eigenvector de T con λ = i como eigenvalor y v2 es
eigenvector con λ = −i como eigenvalor. Por lo tanto v1 , v2 forman
una base B = [v1 , v2 ] y entonces tenemos
i 0
[T ]B = .
0 −i
5. Sea T : R2 → R2 , T x = Ax, con
1 1
A= .
0 1
Tenemos que resolver
1 1 x x x + y = λx
=λ ⇒
0 1 y y y = λy
con soluciones no triviales si λ = 1. Entonces tenemos
1
v= .
0
Verificando
1 1 1 1
=1 .
0 1 0 0
Entonces v es el único eigenvector de T , con λ = 1, ya que no hay
otro que sea linealmente independiente.
Observaciones.
1. Si v es un eigenvector de T : V → V , entonces existe λ ∈ K tal
que T v = λv. Equivalentemente (T − λ · id) = T v − λv = 0 o sea
v ∈ ker(T − λ · id). En particular ker(T − λ · id) no es trivial, o sea
(T − λ · id) no es un isomorfismo.
Definición 21. Sea T : V → V lineal. El espectro, σ(T ), es el
conjunto
σ(T ) = {λ ∈ K : ker(T − λ) 6= O}.
O sea, σ(T ) ⊂ K, es el conjunto de eigenvalores de V .
2. Si λ ∈ σ(T ), y Vλ = {v ∈ V : T v = λv}, entonces Vλ es un
subespacio de V .
i. Si u, v ∈ Vλ , T (u + v) = T u + T v = λu + λv = λ(u + v).
ii. Si u ∈ Vλ , µ ∈ K, T (µu) = µT u = µλu = λµu.
Definición 22. Si T : V → V es lineal y λ ∈ σ(T ), Vλ es llamado
el eigenespacio con respecto a λ.
5. Eigenvectores y diagonalización 45
Determinantes
1. Grupo de permutaciones
Definición 23. Una permutación de n objetos es una biyección
Ejemplos
1. S1 = {id}.
n 1 2
1 2 o
2. S2 = , .
1 2 2 1
n 1 2 3
1 2 3
1 2 3
1 2 3 o
3. S3 = , ,..., , .
1 2 3 1 3 2 3 1 2 3 2 1
4. S4 y las rotaciones de un cubo, si 1, 2, 3, 4 representan las diagonales
de un cubo, tenemos
·Rotación hacia atrás ρ
1 2 3 4
ρ(1) = 4, ρ(2) = 3, ρ(3) = 1, ρ(4) = 2 ⇒ ρ = .
4 3 1 2
47
48 5. Determinantes
Ejemplos
1. Grupo de permutaciones 49
1 2 3
1. Sea σ := ∈ S3 ,
2 3 1
1 2 3 (x2 − x3 )(x2 − x1 )(x3 − x1 )
sgn = = 1.
2 3 1 (x1 − x2 )(x1 − x3 )(x2 − x3 )
1 2 3
2. Sea σ := ∈ S3 ,
3 2 1
1 2 3 (x3 − x2 )(x3 − x1 )(x2 − x1 )
sgn = = −1.
3 2 1 (x1 − x2 )(x1 − x3 )(x2 − x3 )
Teorema 9. La función sgn : Sn → {1, −1} es un homomorfismo, es decir
sgn(σ ◦ τ ) = sgn σ · sgn τ.
Demostración. Ejemplo.
1 2 3 4 5 6 7
σ= = (174)(2)(356).
7 2 5 1 6 3 4
Teorema 12. Existe una única función det : Mn (K) → K tal que
1. Es multilineal: Para cada j = 1, . . . , n,
(14) · det(A1 , . . . , Ai , . . . , Aj , . . . , An ) =
(15) − det(A1 , . . . , Aj , . . . , Ai , . . . , An ).
3. det In = 1.
A la función det se le llama determinante.
donde
λa1j + µb1j
λAj + µBj = ..
.
.
n
λaj + µbj n
Entonces
σ(1) σ(j) σ(1) σ(j)
X
(16) D= sgn(σ)[a1 · · · λaj · · · anσ(n) + a1 · · · µbj · · · anσ(n) ]
σ∈Sn
σ(1) σ(j)
X
(17) =λ sgn(σ)a1 · · · aj · · · anσ(n)
σ∈Sn
σ(1) σ(j)
X
(18) +µ sgn(σ)a1 · · · bj · · · anσ(n)
σ∈Sn
(19) = λ det(A1 , . . . , Aj , . . . , An ) + µ det(A1 , . . . , Bj , . . . , An ).
52 5. Determinantes
2. Suponemos i < j,
(20) det(A1 , . . . ,Ai , . . . , Aj , . . . , An )
σ(1) σ(i) σ(j)
X
(21) = sgn(σ)a1 · · · ai · · · aj · · · anσ(n)
σ∈Sn
σ(1) σ(j) σ(i)
X
(22) = sgn(σ)a1 · · · aj · · · ai · · · anσ(n)
σ∈Sn
σ◦τ (1) σ◦τ (j) σ◦τ (i)
X
(23) = sgn(σ)a1 · · · aj · · · ai · · · anσ◦τ (n)
σ∈Sn
σ◦τ (1) σ◦τ (j) σ◦τ (i)
X
(24) = sgn(σ ◦ τ )a1 · · · aj · · · ai · · · anσ◦τ (n)
σ∈Sn
σ(1) σ(i) σ(j)
X
(25) =− sgn(σ)a1 · · · aj · · · ai · · · anσ(n)
σ◦τ ∈Sn
σ(1) σ(i) σ(j)
X
(26) =− sgn(σ)a1 · · · aj · · · ai · · · anσ(n)
σ∈Sn
(27) = − det(A1 , . . . , Aj , . . . , Ai , . . . , An )
(17) donde τ es la transposición (ij), (19) ya que sgn(σ ◦ τ ) =
sgn(σ) · sgn(τ ) = − sgn(σ), (20) como σ 7→ σ ◦ τ es una biyección.
3. Si (aij ) = In ,
(
0, si i 6= j;
aij = .
1, si i = j
Si σ ∈ Sn , (
σ(j) 0, si σ(j) 6= j;
aj = ,
1, si σ(j) = j
o sea (
σ(1) σ(n) 0, si σ 6= id;
a1 · · · an = .
1, si σ = id
Entonces det In = sgn(id)1 · · · 1 = 1.
1. Sea
a11 a12
A= .
a21 a22
Entonces
σ(1) σ(2)
X
det A = sgn(σ)a1 a2
σ∈S2
donde S2 = {id, (12)}, entonces
det A = a11 a22 + sgn((12))a21 a12 = a11 a22 − a21 a12 .
2. Determinante de una matriz 53
2. Sea
a11 a12 a13
(29) = a11 a22 a33 − a21 a12 a33 − a31 a22 a13 − a11 a32 a23 + a21 a32 a13 + a31 a12 a23 .
Proposición 14. Si K = R o K = C:
1. Si Ai = Aj , i 6= j, entonces det(A1 , . . . , Ai , . . . , Aj , . . . , An ) = 0.
2. Si A1 , . . . , An son linealmente dependientes en Kn , entonces tene-
mos det(A1 , . . . , An ) = 0.
Demostración. Si K = R o K = C,
1. Sabemos que
(30) det(A1 , . . . , Ai , . . . , Aj , . . . , An ) =
(31) − det(A1 , . . . , Aj , . . . , Ai , . . . , An ),
pero si Ai = Aj , det(A1 , . . . , Ai , . . . , Aj , . . . , An ) = 0.
2. Si A1 , . . . , An son linealmente dependientes entonces uno de ellos
X
Aj = λ1 A1 + . . . + λj−1 Aj−1 + λj+1 Aj+1 + . . . + λn An = λi Ai ,
i6=j
entonces
X
det(A1 , . . . , An ) = λi det(A1 , . . . , Ai , . . . , An ) = 0.
i6=j
Demostración. Tenemos
σ(1)
X
det A = sgn(σ)a1 · · · anσ(n) .
σ∈Sn
σ(1) σ(n)
Para cada σ ∈ Sn , a1 · · · an = a1σ−1 (1) · · · anσ−1 (n) , y sgn(σ −1 ) = sgn(σ),
ya que σ 7→ σ −1 es una biyección de Sn . O sea
σ(1)
X X
(32) det A = sgn(σ)a1 · · · anσ(n) = sgn(σ −1 )a1σ−1 (1) · · · anσ−1 (n)
σ∈Sn σ∈Sn
X
(33) = sgn(σ)a1σ(1) · · · anσ(n)
σ∈Sn
(34) = det At .
Definición 27. Dada A ∈ Mn , definimos el menor ij de A, Mji (A), como
la matriz de (n − 1) × (n − 1) obtenida al eliminar de A el i-ésimo renglón
y la j-ésima columna.
Proposición 16. (Expansión de Lagrange).
2. Determinante de una matriz 55
1. Para cada i = 1, . . . , n,
Xn
det A = (−1)i+j aij det Mji (A).
j=1
2. Para cada j = 1, . . . , n,
X n
det A = (−1)i+j aij det Mji (A).
i=1
Determinantes-Resumen.
Sea A ∈ Mn (K). Definimos
σ(1)
X
det A = sgn(σ)a1 · · · anσ(n) ,
σ∈Sn
con las siguientes propiedades
1. Multilinealidad.
2. Alternancia.
3. det In = 1.2
4. Si las columnas de A son linealmente dependientes, det A = 0.
5. det At = det A.
6. Expansión por renglones
Xn
det A = (−1)i+j aij det Mji (A).
j=1
3. Polinomio caracterı́stico
Definición 29. Sea T : V → V una transformación lineal en un espa-
cio de dimensión finita V . El determinante de T , det T , se define como el
determinante de la matriz [T ]B con respecto a una base B.
Ejemplos
1. T : P3 → P3 , T p = p0 . Tomamos B = [1, x, x2 ]. Tenemos T (1) =
0, T (x) = 1, T (x2 ) = 2x. Entonces
0 1 0
[T ]B = 0 0
2 .
0 0 0
Entonces det T = 0.
2. V = gen{sin x, cos x}, d : V → V , df = f 0 . Tomamos B =
[sin x, cos x]. Tenemos d(cos x) = − sin x, d(sin x) = cos x. Entonces
0 1
[d]B = .
−1 0
Entonces det(d) = 1. Ahora tomamos C = [cos x + sin x, cos x −
sin x]. Tenemos d(cos x + sin x) = − sin x + cos x, d(cos x − sin x) =
− sin x − cos x. Entonces
0 −1
[d]C = .
1 0
3. Polinomio caracterı́stico 59
Observaciones
1. pA (λ) es un polinomio de grado n.
2. λ ∈ σ(A) ⇔ pA (λ) = 0, o sea, si λ es raı́z del polinomio.
3. σ(A) tiene a lo más n elementos.
4. Si K = C, entonces σ(A) 6= O (teorema fundamental del álgebra).
Ejemplos
60 5. Determinantes
0 −1
1. Sea A = en K = R. Tenemos
1 0
−λ −1
pA (λ) = det = λ2 + 1,
1 −λ
lo cual no tiene raı́ces en R, por lo tanto no tiene eigenvalores. Sin
embargo x 7→ Ax en C2 ,
pA (λ) = λ2 + 1 = (λ − i)(λ + i),
ası́ que σ(A) = {i, −i}.
1 1
2. Sea T : R2 → R2 , dada por T x = x, tenemos
0 1
1−λ 1
pT (λ) = det = (1 − λ)2 ,
0 1−λ
1
por lo tanto σ(T ) = {1}. Pero VT = gen{ }=6 R2 .
0
2 2 cos θ − sin θ
3. Sea ρθ : R → R , dada por ρθ x = x. Entonces
sin θ cos θ
cos θ − λ − sin θ
pρθ (λ) = det = λ2 − 2λ cos θ + 1.
sin θ cos θ − λ
El descriminante de pρθ (λ) es
(−2 cos θ)2 − 4 = 4 cos2 θ − 4 = 4(cos2 θ − 1) = −4 sin2 θ < 0,
por lo tanto pρθ (λ) no tiene raı́ces reales si θ 6= kπ. Sin embargo, si
ρθ : C2 → C2 , tenemos pρθ (λ) = λ2 − 2λ cos θ + 1, con
p
2 cos θ ± −4 sin2 θ
λ± = = cos θ ± i sin θ = e±iθ ,
2
ası́ que σ(ρθ ) = {eiθ , e−iθ }. Calculamos Veiθ
cos θ − eiθ
− sin θ x 0
= ,
sin θ cos θ − eiθ y 0
entonces
iθ
(cos θ −e )x−(sin θ)y = 0 ⇒ (−i sin θ)x−(sin θ)y = 0 ⇒ (−ix−y) sin θ = 0
por lo tanto
1
Veiθ = gen{ }.
−i
De la misma forma tenemos que
1
Ve−iθ = gen{ }.
i
3. Polinomio caracterı́stico 61
1 1
Por lo que, si B = [ , ], tenemos
−i i
−1
−1 cos θ − sin θ 1 1 cos θ − sin θ 1 1
[ρθ ]B = P P = ,
sin θ cos θ −i i sin θ cos θ −i i
por lo tanto
eiθ
0
[ρθ ]B = .
0 e−iθ
Diagonalización.
Dada T : V → V , el espectro es
σ(T ) = {λ ∈ K : ker(T − λ) 6= O}.
Si λ ∈ σ(T ), el eigenespacio con respecto a λ es
Vλ = {v ∈ V : T v = λv}.
Observación. Si λ, µ ∈ σ(T ), λ 6= µ,
Vλ ∩ Vµ = O.
Es decir, si v1 ∈ Vλ y v2 ∈ Vµ , entonces v1 y v2 son linealmente indepen-
dientes. Si v1 = αv2 :
λv1 = αλv2 , T v1 = T αv2 ⇒ λv1 = αT v2 = αµv2 ⇒ αλv2 = αµv2 ⇒ λ = µ.
Teorema 15. Sea T : V → V lineal y λ1 , . . . , λr eigenvalores distintos de
T y v1 , . . . , vr eigenvectores con respecto a cada λi , entonces v1 , . . . , vr son
linealmente independientes.
Entonces 3
n 2 o
V0 = gen 3 .
1
De la misma manera obtenemos
n 1 o n 1 o
V2 = gen 0 , V−7 = gen 9 .
0 −18
3 1 1
Si consideramos la base B = [6 , 0 , 9 ], tenemos que
2 0 −18
0 0 0
[T ]B = 0 2 0 ,
0 0 −7
pero también sabemos que
2 −1 0
[T ]E = 0 −1 3 ,
0 2 −6
entonces
−1
3 1 1 2 −1 0 3 1 1
[T ]B = 6 0 9 0 −1 3 6 0 9 .
2 0 −18 0 2 −6 2 0 −18
Tenemos entonces
p x·y
d = (x − y) · (x − y), cos θ = √ √ .
x·x y·y
Definición 32. Sea V un espacio vectorial sobre K, (R, C). Un producto
interno en V es una función (·, ·) : V × V → K tal que
65
66 6. Espacios con producto interno
b) z · w = z k wk = wk z k = wk z k = w · z
P P P
(p, q) = (a0 + a1 x + a2 x2 , b0 + b1 x + b2 x2 )
Z 1
(53) = (a0 b0 + (a0 b1 + a1 b0 )x + (a0 b2 + a1 b1 + a2 b0 )x2
0
(54) + (a1 b2 + a2 b1 )x3 + a2 b2 x4 ) dx
a0 b1 + a1 b0 a0 b2 + a1 b1 + a2 b0 a1 b2 + a2 b1 a2 b2
(55) = a0 b0 + + + +
2 3 4 5
Definición 33. Un producto interno induce una norma en V , k · k : V →
[0, ∞), dada por p
kvk = (v, v).
Ejemplos
1. En R2
x p
k k = x2 + y 2 ,
y
el cual representa la distancia del vector hasta el origen.
√
2. En general, si en Rn definimos (x, y) = x · y, a kxk = x · x se le
llama la norma euclideana, con
p
kxk = |x| = (x1 )2 + . . . + (xn )2 .
3. En Cn , si (z, w) = z · w = z k wk , definimos
P
p
kzk = |z| = |z 1 |2 + . . . + |z n |2 .
4. En C([a, b]), si
Z b
(f, g) = f (x)g(x)dx,
a
definimos s
Z b
kf k = f 2 (x)dx,
a
la cual es llamada la norma L2 .
Proposición 17. (Desigualdad de Cauchy-Schwarz).Si (·, ·) es un producto
interno en V y k · k su norma inducida, entonces para todo u, v ∈ V
|(u, v)| ≤ kuk · kvk.
68 6. Espacios con producto interno
(v,u)
Demostración. Suponemos que u 6= 0. Tenemos w = kuk2
u. Luego
(v, u)
(v − w, u) = (v, u) − (w, u) = (v, u) − (u, u) = 0.
kuk2
Entonces
(56)
Ejemplos
1. En C([−1, 1]), f (x) = 1 y g(x) = x son ortogonales, ya que
Z 1
(1, x) = xdx = 0.
−1
En general, si f es par y g es impar, entonces f ⊥g.
1. Geometrı́a de espacios vectoriales 69
2. En C([−π, π]), fk (x) = sin kx, fm (x) = sin mx, gp (x) = cos px y
gq (x) = cos qx, k, m, p, q ∈ Z+ , k 6= m y p =
6 q. Todas estas funcio-
nes son ortogonales entre sı́.
Demostración. Tenemos
1. kvk = 0 ⇔ (v, v) = 0 ⇔ v = 0.
p q p
2. kλvk = (λv, λv) = λλ(v, v) = |λ|2 (v, v) = |λ|kvk.
3. Utilizamos Cauchy-Schwarz,
(59) ku + vk2 = (u + v, u + v)
(60) = (u, u) + (u, v) + (v, u) + (v, v)
(61) = kuk2 + 2 Re(u, v) + kvk2
(62) ≤ kuk2 + 2|(u, v)| + kuk2
(63) ≤ kuk2 + 2kuk · kvk + kvk2
(64) = (kuk + kvk)2 .
2. Bases ortonormales
Proposición 20. Sea S ⊂ V un conjunto de vectores ortogonales entre sı́,
0∈/ S. Si u, v ∈ S, u⊥v. Entonces S es un conjunto linealmente indepen-
diente.
Entonces
1. Para cada i, ai = (u, ui );
Identidades de Parseval
2. (u, v) = ni=1 ai bi ;
P
Demostración. Tenemos
1. Para cada i:
Ejemplos
1. Base estándar en Kn : e1 , . . . , en . Con respecto al producto punto
(
0, si i 6= j;
ei · ej = .
1, si i = j
Entonces tenemos
n
X X X
x·y = xi y i , x = xi ei , y = y j ej .
i=1 i j
72 6. Espacios con producto interno
1
2. En R2 , con respecto al producto punto, consideramos v1 = y
1
1
v2 = , v1 · v2 = 0, entonces v1 ⊥v2 . Luego
−1
! !
√1 √1
1 1 1 1 1 1
u1 = v1 = √ = √12 , u2 = v2 = √ = 2
√1
,
kv1 k 2 1 2
kv 2 k 2 −1 − 2
! !
x1 + x2 √1 x 1 − x2 √1
x = (x, u1 )u1 + (x, u2 )u2 = ( √ ) √12 + ( √ ) 2
√1
.
2 2 2 − 2
R 2π P
3. Calculamos 0 ( nk=1 2k cos kx)2 dx. Si consideramos
Z 2π
(f, g) = f (x)g(x)dx.f, g ∈ C([0, 2π]),
0
tenemos
n n
X X √ 1
k 2k cos kxk2 = k 2k π · √ cos kxk2
π
k=1 k=1
gen{u1 , u2 } = gen{v1 , v2 }.
Inductivamente, una vez construı́dos u1 , . . . , uk , tomamos wk+1 = vk+1 −
(vk+1 , u1 )u1 − . . . − (vk+1 , uk )uk .
2. Bases ortonormales 73
por lo tanto
√1
1 3
1 1 0 0
u2 = w2 = √ = .
1
kw2 k 3 1 √3
−1 − √1 3
De la misma forma
(71) w3 = v3 − (v3 , u1 )u1 − (v3 , u2 )u2
1 1
√ √
2 3 3 −1
1
2 3 √ 6 0 1
3 − √3
(72) = 3 − √ 1
= ,
0 3 √3 1
1
−1 √
3
− √1 3
0
74 6. Espacios con producto interno
entonces
− √1
−1 3
1 1 1 √1
u3 = w3 = √ = 3 .
kw3 k 3 1 √1
3
0 0
Finalmente
0
− 2
w4 = v4 − (v4 , u1 )u1 − (v4 , u2 )u2 − (v4 , u3 )u3 = 3
2 ,
3
2
3
entonces
0
0
1 1 − 23 − √1
3
u4 = w4 = 2 √ = .
√1
kw4 k 2 2
3 3 3
2
√1
3 3
1. Q∗ Q = In , con Q∗ = Qt ;
2. R es triangular y con entradas positivas en la diagonal; y
3. A = QR.
gen{Q1 , . . . , Qn } = gen{A1 , . . . , An }.
2. Bases ortonormales 75
Ejemplo. Para
1 2 2
1 1 2
A=
0
,
1 3
1 0 −1
ya sabemos (del ejemplo anterior) que
1 1
− √13
√ √
3 3
√1 0 √1
3 3
Q= ,
0 √1 √1
3 3
√1 − √13 0
3
entonces tenemos √
√3 √3
3 3 3
0
R= √3 √6 .
3 3
0 0 √3
3
Por lo tanto
√1 √1 − √13
√
1 2 2 3 3 3 √3 √3
1 √1 0 √1 3 3
1 2 3
√3 √6
A= = 3 0
.
0 1 3 0 √1 √1 3 3
3 3
3
1 0 −1 0 0 √
√1 − √13 0 3
3
tenemos que
1
L1 = q1 = x − 1,
kq1 k
ya que
Z ∞ Z ∞
2 −x
2
kq1 k = (x − 1) e dx = (x2 − 2x + 1)e−x dx = 2 − 2 · 1 + 1 = 1.
−∞ −∞
3. Proyecciones ortogonales
Problema de Aproximación. Sea V un espacio con producto interno,
U ⊂ V un subespacio y v ∈ V . Encontrar v 0 ∈ U más cercano a v en U , es
decir, para todo u ∈ U
kv − v 0 k ≤ kv − uk.
Ejemplos
1. V = Rn , U = gen{x0 } = {tx0 : t ∈ R}. Sea x ∈ Rn , encontrar el
múltiplo escalar de x0 más cercano a x. Definimos
d(t) = kx − tx0 k2 = (x1 − tx10 )2 + . . . + (xn − txn0 )2 .
Hay que minimizar d, es decir, encontrar t0 tal que d0 (t0 ) = 0.
Tenemos
d0 (t) = 2(x1 − tx10 )(−x10 ) + . . . + 2(xn − txn0 )(−xn0 ) = −2(x − tx0 ) · x0 = 0,
ası́ que
x · x0
x · x0 − tx0 · x0 = 0 ⇒ t = , x0 6= 0.
|x0 |2
x·x0
Entonces la aproximación es x0 = x .
|x0 |2 0
2. V = C([0, 1]),U = P, f = sin. Encontrar p ∈ P tal que kf − pk sea
mı́nimo con respecto a
Z 1
(f, g) = f (x)g(x)dx.
0
3
Sabemos que, con la representación de Taylor, sin x = x − x3! +
x2n+1 cos c
. . . + (−1)n (2n+1)! + En (x), En (x) = (−1)n (2n+2)! x2n+2 , 0 ≤ c ≤ x,
de aquı́ tenemos que
1
|En (x)| ≤ .
(2n + 2)!
Tomamos
x3 x2n+1
pn (x) = x − + . . . + (−1)n ,
3! (2n + 1)!
entonces
1
| sin x − pn (n)| ≤
(2n + 2)!
y
s
Z 1
1
k sin x − pn (n)k = (sin x − pn (x))2 dx ≤ −→ 0,
0 (2n + 2)!
ası́ que no existe ningún polinomio más cercano a sin x.
78 6. Espacios con producto interno
Ejemplos
1. Si S = {0}, S ⊥ = V .
x · u1 = 0
n x · u2 = 0 o
2. V = Rn ,S = {u1 , . . . , um },S ⊥ = x ∈ Rn : . .
..
x · um = 0
Problema de Proyección Ortogonal. Sea V un espacio con producto in-
terno y U ⊂ V un subespacio de V . Encontrar u ∈ U , w ∈ U ⊥ , tales que
v = u + w, es decir, es cierto que V = U ⊕ U ⊥ ?.
Ejemplos
x·x0
1. V = Rn , U = gen{x0 }, x0 6= 0. Si y = x ,
|x0 |2 0
z = x − y, sabemos
z · y = 0 implica z ∈ U ⊥.
x = y + z, y ∈ U , z ∈ U ⊥ .
R1
2. V = C([0, 1]),U = P,(f, g) = 0 f (x)g(x)dx. Tenemos C([0, 1]) 6=
P ⊕ P ⊥ , de hecho P ⊥ = {0}, el cual es un resultado de análisis.
Teorema 18. El problema de aproximación es equivalente a el problema de
proyección ortogonal. De hecho, v 0 ∈ U es el vector más cercano a v ∈ V si,
y sólo si, v − v 0 ∈ U ⊥ .
Ejemplos
1. Sea V = R3 , U = {x ∈ R3 : x1 + x2 + x3 = 0}. Entonces una base
U ortonormal es
1 1
√ √
2
√21 √1
n o
− 2 , 2 .
0 − √26
Por lo tanto
1 1
√ √ 2
1 2 2 3
1 1 1
ProyU 0 = √ − √2 + √ √2 = − 13 .
1
2 6 − 13
0 0 − √26
3. Proyecciones ortogonales 81
(x, Qn ) (x, Qn )
x · Qn Q1n . . . Qnn xn
Por lo tanto ProyU x = QQ∗ x. Pero tenemos A = QR, entonces Q =
AR−1 luego Q∗ = (AR−1 )∗ = (R−1 )∗ A∗ = (R∗ )−1 A∗ , entonces QQ∗ =
AR−1 (R∗ )−1 A∗ = A(R∗ R)−1 A∗ = A(R∗ Q∗ QR)−1 A∗ = A((QR)∗ A)−1 A∗ .
Por lo tanto QQ∗ = A(A∗ A)−1 A∗ .
Teorema 20. Sea A una matriz de m × n con columnas linealmente inde-
pendientes.
1. A∗ A es invertible;
3. Proyecciones ortogonales 83
Entonces
1 1
1 2 9
2 0 2
−2 1 0 1
[Proyim A ]E = 0 1 2 = 0 1 0 .
−2 1 2 1 2 1 1
1 2 2 0 2
Ejemplos
1. Encontrar el polinomio trigonomtrico P (x) de periodo 2 y grado N
que minimice a
sZ
1
kf − P k = (f (x)P (x))2 dx.
−1
Si U = gen{ 12 , cos πx, sin πx, . . . , cos N πx, sin N πx} = gen{cos kπx·
sin lπx} con k + l = N , tenemos
N
1 X
P (x) = ProyU f = a0 + (ak cos kπx + bk sin kπx).
2
k=1
84 6. Espacios con producto interno
xn 1
tenemos que
a
A ∈ im A,
b
y1
a a 0 0 ..
donde es tal que A = Proyim A y , si y = . . Sabemos que
b b
yn
Proyim A y 0 = A(A∗ A)−1 A∗ y 0 . Esto es única:
a a
A = A(A∗ A)−1 A∗ y 0 ⇒ = (A∗ A)−1 A∗ y 0 .
b b
2Son aquellos en los cuales hay más ecuaciones que incógnitas.
5. Transformación adjunta 85
5. Transformación adjunta
Sean U, V espacios con producto interno, y sea T : U → V lineal.
Definición 38. La transformación adjunta de T, si existe, es la transfor-
mación T ∗ : V → U tal que para u ∈ U y v ∈ V
(T u, v) = (u, T ∗ v).
El teorema espectral
1. Operadores Normales
Definición 39. Sea V un espacio con producto interno y T : V → V lineal.
Decimos que T es auto-adjunta si T ∗ existe y T ∗ = T . En otras palabras,
(T u, v) = (u, T v) para todo u, v ∈ V .
Z b
T f (x) = K(x, y)f (y)dy.1
a
Calculamos
Z b Z bZ b
(81) (T f, g) = T f (x)g(x) dx = K(x, y)f (y)g(x) dy dx
a a a
Z bZ b
(82) = K(x, y)f (y)g(x) dx dy,
a a
89
90 7. El teorema espectral
Z b Z b
(83) (T f, g) = f (y) K(x, y)g(x) dx dy = (f, T ∗ g), T ∗ g(x)
a a
Z b
(84) = K(y, x)g(y) dy .
a
Es decir,
Z b
∗
T f (x) = K ∗ (x, y)f (y)dy,
a
Z b
T f (y) = K(x − y)f (y)dy,
a
Tenemos que
N
1 X
SN f (x) = a0 + (an cos nx + bn sin nx),
2
n=1
donde
Z 2π
1
an = (f, cos nx) = f (x) cos nx dx
π 0
y
Z 2π
1
bn = (f, sin nx) = f (x) sin nx dx .
π 0
1. Operadores Normales 91
1
R 2π
Verificamos que SN f (x) = π 0 KN (x − y)f (y)dy. Luego
(85)
Z 2π N h Z 2π
1 X 1
SN f (x) = f (y)dy = f (y) cos nydy cos nx
2π 0 π 0
n=1
1 2π
Z i
(86) + f (y) sin nydy sin nx
π 0
N
1 2π
Z h1 X i
(87) = f (y) + (cos ny cos nx + sin ny sin nx) dy
π 0 2
n=1
Z 2π N
1 2π
Z
1 h 1 X i
(88) = f (y) + cos n(x − y) dy = f (y)KN (x, y)dy.
π 0 2 π 0
n=1
Con KN (x, y) = 12 + N
P
n=1 cos n(x − y).
Por ejemplo,
Z
T f (x) = K(x, y)f (y)dy, K(y, x) = −K(x, y) ⇒ T ∗ = −T,
o bien, K es impar.
Definición 41. Decimos que T : V → V es unitaria, si T ∗ = T −1 .
1. Si A ∈ Mn (R) y At = A−1 , A es ortogonal. (At A = In )
2. Si A ∈ Mn (C) y A∗ = A−1 , A es unitaria. (A∗ A = In )
En ambos casos las columnas son ortonormales.
Proposición 22. Sea V un espacio con producto interno y T : V → V
unitaria. Entonces
1. T ∗ ◦ T = id;
2. (T u, T v) = (u, v), ∀u, v ∈ V , T preserva el producto interno; y
3. kT vk = kvk, ∀v ∈ V , T es una isometrı́a (preserva distancias).
Si dim V < ∞, entonces (1), (2), (3) implican que T es unitaria.
luego
(89)
1
(T u, T v) = [kT u + T vk2 − kT u − T vk2 + ikT u + iT vk2 − ikT u − iT vk2 ]
4
1
(90) = [kT (u + v)k2 − kT (u − v)k2 + ikT (u + iv)k2 − ikT (u − iv)k2 ],
4
con ||T v|| = ||v|| ⇒ (T u, T v) = (u, v). (3) ⇒ (2) porque (T u, T v) = (u, v)
implica
(u, T ∗ ◦ T v) = (u, v), ∀u, v ∈ V ⇒ T ∗ ◦ T v = v, ∀v ∈ V,
ası́ que T ∗ ◦ T = id.
Demostración. Suponemos λ 6= 0:
1 1 1 1 µ
(u, v) = (λu, v) = (T u, v) = (u, T ∗ v) = (u, µv) = (u, v),
λ λ λ λ λ
µ
ası́ que (u, v) = λ (u, v) ⇒ (u, v) = 0.
2. Teorema espectral
Teorema 26 (Teorema Espectral). Sea V un espacio con producto interno,
sobre C, de dimensión finita. T : V → V es normal si, y sólo si, V tiene
una base ortonormal de eigenvectores de T .
3. Matrices reales
Matrices Simétricas.
A ∈ Mn (R) es simétrica si At = A.
Si λ es un eigenvalor de z 7→ A · z en Cn , entonces λ ∈ R, y λ es un
eigenvalor de x 7→ A · x en Rn , ası́ que existe x1 ∈ Rn , x1 6= 0, tal que
A · x1 = λx1 . Si U = gen{x1 } y W = U ⊥ , entonces si tomamos B =
{x1 , w1 , . . . , wn−1 }, con w1 , . . . , wn−1 ∈ W tenemos
λ1 0 0 . . . 0
0 ∗ ∗ . . . ∗
[A]B = . . . . . .
.. .. .. . . ..
0 ∗ ∗ ... ∗
Corolario 34. Si A es una matriz simétrica real, entonces es similar a una
matriz diagonal y tiene una base ortonormal de eigenvectores, o bien
λ1 0 . . . 0
0 λ2 . . . 0
t
A=P · . .. · P ,
. .. . .
. . . .
0 0 . . . λn
donde P = x1 x2 . . . xn , con xi ∈ Rn .
Matrices Antisimétricas.
Consideramos z 7→ A · z en Cn . Si iλ 6= 0 es un eigenvalor, y x + iy ∈ Cn
tal que A(x + iy) = iλ(x + iy), donde
x1 + iy1 x1 y1
x + iy = .
. .. ..
= . + i . ,
.
xn + iyn xn yn
x, y ∈ Rn . Tenemos A(x + iy) = A · x + iA · y = −λy + iλx, ya que la
transformación es lineal. Entonces A·x = −λy y A·y = λx, si V = gen{x, y},
A · v ∈ V , si v ∈ V . Si B = [x, y] tenemos
0 λ
[A\V ] = .
−λ 0
Si W = V ⊥ y {w1 , . . . , wn−2 } una base de W , y si C = [x, y, w1 , . . . , wn−2 ]
tenemos
0 λ 0 0 ... 0
−λ 0 0 0 . . . 0
[A]C = 0
0 ∗ ∗ . . . ∗ .
.. .. .. .. . . ..
. . . . . .
0 0 ∗ ∗ ... ∗
3. Matrices reales 97
0 λ1 ∗ ∗ ... 0 0 0...
−λ1 0 ∗ ∗ ... 0 0 ...
0
∗ ∗ 0 λ2 ... 0 0 ...
0
∗ ∗ −λ2 0 ... 0 0 ...
0
J = .
.. .. .. .. .. .. .. ..
.. .
. . . . . . ..
0 0 0 0 . . . 0 0 . . . 0
.. .. .. .. . . .. .. . . ..
. . . . . . . . .
0 0 0 0 ... 0 0 ... 0
Matrices Ortogonales.
A ∈ Mn (R) es ortogonal si At = A−1 . Las columnas son ortonormales,
al igual que sus renglones.
Si λ es un eigenvalor de z 7→ A · z en Cn , entonces |λ| = 1, o sea λ = eiθ .
Suponemos que λ ∈ / R, consideramos un eigenvector x + iy. Tenemos
cos θ sin θ
[A\V ]B = .
− sin θ cos θ
cos θ sin θ 0 . . . 0
− sin θ cos θ 0 . . . 0
[A]B = 0
0 ∗ ... ∗ .
.. .. .. . . ..
. . . . .
0 0 ∗ ... ∗
98 7. El teorema espectral
4. Diagonalización mutua
Definición 43. Sea V un espacio vectorial de dimensión finita, y T, S trans-
formaciones lineales. Decimos que T y S son diagonalizables mutuamente
si existe una base v1 , . . . , vn de V de eigenvectores de T y de S tal que
T vi = λi vi , Svi = µi vi , o bien ninguna es diagonalizable.
Teorema 27. T, S : V → V normales, V sobre Cn , son mutuamente dia-
gonalizables si, y sólo si, T S = ST .
4. Diagonalización mutua 99
Formas bilineales y
cuadráticas
Ejemplos.
1. Producto punto y norma euclideana.
a) Forma bilineal: x · y = x1 y 1 + x2 y 2 .
b) Forma cuadrática: x · x = |x|2 = (x1 )2 + (x2 )2 .
2. Cónicas Ax2 + Bxy + Cy 2 = D. Forma cuadrática.
x 2 2 2 x Ax + By
q = Ax + Bxy + Cy = x(Ax + By) + Cy = · .
y y Cy
Si definimos
x u x Au + Bv x A B u
b · = · = · · ,
y v y Cv y 0 C v
luego
x x
x
q =b · .
y y y
101
102 8. Formas bilineales y cuadráticas
0 0 2
R
R 0 0 Potencial. Si E = φ , entonces
3. Energı́a Ω |φ | dx. Luego B(f, g) =
Ωf g .
4. Sea A una matriz de n × n. Entonces b(x, y) = x · Ay es bilineal,
x, y ∈ Rn . Donde c(x) = x · Ax.
Ası́ que
x1 a1j y j
P
n n
x · Ay = ... · .. X iX
= x aij y j .
.
xn anj y j i=1 j=1
P
Observación. Si c(x) = b(x, x), entonces c(x) = b(x, x), donde b(x, y) =
b(y, x).
1
Demostración. Sea c(x) = b(x, x), y consideramos s(x, y) = 2 (b(x, y) +
b(y, x)) = 21 (b + b).
Ejemplos.
8. Formas bilineales y cuadráticas 103
1. En R2 : Cónicas.
1
x 2 2 x A B x x A 2B x
c = Ax +Bxy +Cy = · = · 1 .
y y 0 C y y 2B C y
Ya que
1
1 A B A 0 A 2B
+ = 1 .
2 0 C B C 2B C
2. En R2
x x A 0
c = · = Ax2 + Cy 2 .
y y 0 C
2 x
3. En R : c = −2x2 + 4xy + y 2 . Tenemos
y
x x −2 2 x −2 2
c = · ⇒A= .
y y 2 1 y 2 1
luego
c(α1 u1 + α2 u2 ) = (α1 u1 + α2 u2 ) · (α1 (−3u1 ) + α2 (2u2 )) = −3α12 + 2α22 .
104 8. Formas bilineales y cuadráticas
x γB α1 α1 x
Como = α1 u1 + α2 u2 7−→ , entonces =M ,
y α2 α2 y
donde M es la matriz de cambio de base con
2 1
!−1 2 −1
!
√ √ √ √
M= 5 5 = 5 5 .
−1
√ √2 √1 √2
5 5 5 5
Ası́ que
−1
! !
√2 √ √2 x − √1 y
α1 5 5 x 5 5
= √1 √2
= √1 x √2 y
.
α2 5 5
y 5
+ 5
Luego
x 2 1 1 2
c = −3( √ x − √ y)2 + 2( √ x + √ y)2 .
y 5 5 5 5
Teorema 28. Sea c : Rn → R una forma cuadrática. Entonces existe una
base ortonormal {u1 , . . . , un } de Rn tal que
c(α1 u1 + . . . + αn un ) = λ1 α12 + . . . + λn αn2 .
Definición 47. Sea c : V → R una forma cuadrática.
1. Decimos que c es positiva definida si c(x) > 0, para todo x ∈ V ,
x 6= 0.
2. Decimos que c es positiva semidefinida si c(x) ≥ 0, para todo x 6= 0.
3. Decimos que c es negativa definida si c(x) < 0, para todo x 6= 0.
4. Decimos que c es negativa semidefinida si c(x) ≤ 0, para todo x 6= 0.
Ejemplos.
1. En Rn : c(x) = |x|2 es positiva definida.
Rb
2. En C 1 ([a, b]): E(f ) = a (f 0 (x))2 dx es positiva semidefinida.
2 x 2 2 α1
3. En R : c = −2x + 4xy + y . Sabemos c = −3α12 + 2α22 ,
y α2
entonces c(u1 ) = −3 < 0 y c(u2 ) = 2 < 0, ası́ que c no es definida.
x 2 2 1 0 1
4. c = x − 4xy + y , c = 1 > 0, c = 1 > 0, c =
y 0 1 1
−2 < 0. Ası́ que c no está definida.
x 2 2 2 1
5. c = x − 2xy + y , entonces (x − y) ≥ 0 y c = 0, entonces
y 1
c es positiva semidefinida.
x 2 2 1 1
6. c = x + 4xy + y , c = −2 < 0, c = 6 > 0. Por lo
y −1 1
tanto c no está definida.
8. Formas bilineales y cuadráticas 105
Forma canónica de
Jordan
107
108 9. Forma canónica de Jordan
2. Teorema de Cayley-Hamilton
Teorema 30 (Cayley-Hamilton). Sea A una matriz de n × n y p(λ) su
polinomio caracterı́stico. Entonces p(A) = 0, es decir, p(A) es la matriz 0.
Observaciones.
1. p(x) = an xn + . . . + a0 , p(T ) = an T n + . . . + a0 id.
2. p(T )T = T p(T ). Ya que p(T )T = (an T n +. . .+a0 id)T = an T n+1 +
. . .+a0 T = an T ◦T n +. . .+a0 T ◦id = T (an T n +. . .+a0 id) = T p(T ).
En general p(T )T k = T k p(T ).
3. También p(T )q(T ) = q(T )p(T ).
3. Triangularización
Sea A ∈ Mn (K). A es triangular si aji = 0, cuando i > j, es decir
1 1
a13 . . . a1n
a1 a2
0 a2 a23 . . . a2n
2
A=0 0
a33 . . . a3n .
.. .. .. . . ..
. . . . .
0 0 0 . . . ann
Si T : V → V , B = {v1 , . . . , vn } es una base de V , [T ]B es triangular si
T vj = a1 v1 + . . . + aj vj .
Teorema 32. Si el polinomio caracterı́stico p(x) de T se descompone en K,
entonces existe una base B de V tal que [T ]B es triangular. Es decir
p(x) = (x − λ1 )(x − λ2 ) . . . (x − λn ), λi ∈ K.
4. Polinomio mı́nimo
Recordemos algunos resultados importantes acerca de polinomios:
1. Algoritmo de la división. Si p y q son polinomios sobre K, q 6= 0,
entonces existen únicos polinomios s y r tales que
i. p(x) = s(x)q(x) + r(x).
ii. El grado de r es menor que el de q.
2. Algoritmo de Euclides. Si p1 , p2 , . . . , pk no tienen un factor común,
entonces existen polinomios q1 , q2 , . . . , qk tales que
p1 (x)q1 (x) + p2 (x)q2 (x) + . . . + pk (x)qk (x) = 1.
Polinomio Mı́nimo.
Definición 49. Sea T : V → V una transformación lineal. Definimos el
polinomio mı́nimo de T como el polinomio
mT (x) = xk + ak−1 xk−1 + . . . + a0
de menor grado tal que mT (T ) = 0.
Observaciones:
1. Por Cayley-Hamilton, pT (T ) = 0, entonces k ≤ n.
2. Si p(T ) = 0, entonces mT (x) | p(x), ya que p(x) = mT (x)q(x) +
r(x), con grado de r menor que grado de mT . Pero si evaluamos en
T : p(T ) = mT (T )q(T ) + r(T ) = 0 ⇒ r(T ) = 0. Entonces p(x) =
mT (x)q(x).
3. mT | pT . Si pT se descompone sobre K:
pT (x) = (x − λ1 )α1 (x − λ2 )α2 . . . (x − λr )αr
donde λ1 , . . . , λr son las raı́ces distintas de pT . Entonces
mT (x) = (x − λ1 )β1 (x − λ2 )β2 . . . (x − λr )βr , βi = 0, 1, . . . , αi .
4. Si λ es raı́z de pT (x), entonces (x − λ) | mT (x). Tenemos mT (x) =
(x − λ)q(x) + r. Entonces
mT (T ) = (T − λ · id)q(T ) + r · id = 0.
5. Forma canónica 113
5. Forma canónica
Observaciones.
1. En general, si pT (x) = (x − λ)n , T es diagonalizable si, y sólo si,
T v = λv, o sea T es escalar.
114 9. Forma canónica de Jordan
2. mT (x) = (x − λ1 )(x − λ2 )
λ1 0 0
0 λ2 0 .
0 0 λ2
3. mT (x) = (x − λ1 )(x − λ2 )2
λ1 0 0
0 λ2 1 .
0 0 λ2
Si λ1 = λ2 = λ3 , tenemos que, si
1. mT (x) = x − λ
λ 0 0
0 λ 0 .
0 0 λ
2. mT (x) = (x − λ)2
λ 1 0
0 λ 0 .
0 0 λ
3. mT (x) = (x − λ)3
λ 1 0
0 λ 1 .
0 0 λ
Teorema 38. Sea T : V → V tal que pT (x) = (x − λ1 )α1 . . . (x − λk )αk .
Entonces existen subespacios U1 , . . . , Uk tales que
1. V = U1 ⊕ . . . ⊕ Uk .
2. T (Ui ) ⊂ Ui .
3. dim Ui = αi .
4. T \Ui tiene sólo el eigenvalor λi .
Entonces ui = 0, ∀i.
2. El que T (Ui ) ⊂ Ui ya se habı́a probado anteriormente, véase observa-
ciones después del teorema 33.
3. Esta parte se verifica con el Teorema 37, ası́ que dim Ui = αi .
4. Finalmente mT \U (x) = (x − λi )βi , ası́ que λi es el único eigenvalor de
i
T \Ui .
Problemas Fundamentales.
1. Si U , V son espacios vectoriales, cuándo tenemos U ∼ = V ?. Este se
resuelve fácil, y U ∼
= V si, y sólo si, existe un isomorfismo T : U →
V , o bien si dim U = dim V .
2. Si T, S : V → V , cuándo tenemos T ≈ S?, es decir, existe un
automorfismo ϕ : V → V tal que S = ϕ−1 ◦ T ◦ ϕ?. La respuesta
es sı́, si tienen la misma forma canónica de Jordan. Es decir, si
[T ]BT = [S]BS = J, tenemos
−1 −1
T = γB T
◦ MP ◦ γBT , S = γB S
◦ MQ ◦ γBS ,
si MP = MJ = MQ , entonces
−1 −1 −1 −1
γBT ◦ T ◦ γB T
= γBS ◦ S ◦ γB S
⇒ S = γB S
◦ γBT ◦ T ◦ γB T
◦ γBS ,
por lo tanto S = ϕ−1 ◦ T ◦ ϕ.