Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tutorial Algebra Lineal 2008
Tutorial Algebra Lineal 2008
Importante: Visita regularmente http://www.dim.uchile.cl/docencia/algebra lineal. Ah encontrars las gu de ejercicios y problemas, adems a as a de informacin acerca de cul ser la dinmica del curso. o a a a
SEMANA 1: MATRICES
1.
1.1.
Matrices
Deniciones basicas
Usa estas notas al margen para consultar de manera ms rpida el maa a terial. Haz tambin tus propias e anotaciones.
Denicin 1.1 (Matriz). Una matriz A, de m las y n columnas con o (en este apunte ser a o ) es una tabla de coecientes en el cuerpo doble entrada:
matriz
Notamos tambin la matriz como A = (aij ) y denominamos Mmn ( ) al e conjunto de todas las matrices de m las y n columnas con coecientes en el cuerpo .
a11 . A= . .
am1
... amn
a1n . , . .
aij
i = 1, . . . , m, j = 1, . . . , n.
Mmn ( )
Denicin 1.2 (Igualdad de matrices). Dadas dos matrices A Mmn ( ), B o Mm n ( ), diremos que son iguales si y slo si: o
A=B
(m = m ) (n = n ) (i {1, ..., m}, j {1, ..., n}, aij = bij ) Un caso especial de matrices son aquellas de n 1. Estas matrices se lla a marn posteriormente vectores de n . As nuestros vectores sern matria ces de una sola columna.
vector de
Construimos una estructura algebraica sobre Mmn ( ) a partir de las operaciones denidas en el cuerpo . Se dene la suma de dos matrices como sigue: A, B Mmn ( ), A + B = (aij + bij ) Por ejemplo, en ( , +, ):
A+B
1 2 3 0 1 2
0 1 3 1
2 2
1 1 3 0
5 . 0
Proposicin 1.1. (Mmn ( ), +) tiene estructura de grupo Abeliano. o Demostracion. La suma es asociativa y conmutativa, como herencia de las mismas propiedades en el cuerpo . El neutro aditivo es 0 ... 0 . . 0 = . . . . . Mmn ( ). . .
0 Mmn ( )
...
= 0 0 0 0 . = 0.
i 0 0 1 i 0
Denicin 1.3 (Producto de matrices). Dadas A = (aij ) Mmr ( ), B = o (bij ) Mrn ( ) se dene el producto C = AB como aquella matriz C Mmn ( ) tal que
AB
cij =
k=1
aik bkj ,
i = 1, . . . , m, j = 1, . . . , n.
C = AB = 2. En ( , +, ),
1 2 M23 ( ), B = 0 2 1 0 1 2 1 0 1 0 1 0 0 2 1 0 = 2 1 2 6 1 0 1 1
1 0 1 0 M34 ( ) 1 0
0 0 4 1
M24 ( ).
C = AB = i i + i 1 + 0 0 = 1 + i M11 ( ).
1 0
0 0
0 0 2 0
0 0 , 0 0
0 0 2 0
1 0
0 0
0 0 . 2 0
Dos propiedades importantes de la multiplicacin son las siguientes: o Proposicin 1.2. o 1. Asociatividad: Si A Mmn ( ), B Mnq ( ), C Mqs ( ), entonces: A(BC) = (AB)C Mms ( ).
A(B + C) = AB + AC Mms ( ). De igual manera se tiene la distributividad por el otro lado. Demostracion. Demostremos la distributibidad, quedando la asociatividad de ejercicio. Denominando E = A(B + C), se tiene:
n
Ejercicio
eij =
k=1
eij =
k=1 n
=
k=1
aik bkj +
k=1
aik ckj .
Un caso particular muy importante es el de las matrices cuadradas, es decir con igual n mero de las y columnas. (Mnn ( ), ) admite un neutro u multiplicativo, denominado matriz identidad: 1 0 0 0 1 0 = (ij ), con ij = 0 si i = j I = .. 1 si i = j. . 0 0 1
matriz cuadrada I
0 1 .. . 0
0 0
=(
k=1
Dado que (Mnn ( , ) tiene un elemento neutro I, Tienen sus elementos inverso? Denicin 1.4 (Matriz invertible). A Mnn ( ) es invertible si y o slo si existe B Mnn ( ) tal que: o
AB = BA = I.
(1.1)
Proposicin 1.3. De existir una matriz B que satisfaga (1.1), esta es o unica. Por ende la notaremos B = A1 . Demostracion. Sean B1 , B2 Mnn ( ) que satisfacen (1.1). Luego B1 = B1 I = B1 (AB2 ). Usando la asociatividad de tenemos, B1 = (B1 A)B2 , pero como B1 A = I, se concluye que B1 = B2 .
invertible
A1
Cabe se alar que para que A sea invertible se requiere que exista una matriz n B que sea a la vez inversa por izquierda y por derecha. Probaremos ms a adelante que es suciente que A tenga inversa por un solo lado. Ejemplos: No todas las matrices cuadradas tienen inverso multiplicativo. En 1 2 no tiene inverso. En efecto, si existiese M22 ( ), la matriz 2 4 el inverso, x1 x2 , deber vericarse: a digamos x3 x4
1 2 2 4
x1 x3
x2 x4
1 0 =
0 1 1 0 0 1
De la primera ecuacin multiplicada por 2, obtenemos: 2(x1 + 2x3 ) = o 2. Pero de la tercera ecuacin, 2x1 + 4x3 = 0. De esta contradiccin o o conclu mos que el sistema no tiene solucin. o En otros casos s existe inverso, por ejemplo, en M22 ( ), 0 1 En efecto: 0 1 1 0 1 0
1
0 1 1 0 1 0 0 1
0 1 1 0
i 0
0 i
1.2.
Matrices Particulares
Denicin 1.5. Diremos que A Mnn ( ) es: o 1. Diagonal si y slo si aij = 0 o A= a11 a22 0 .. . ann i = j: 0
En este caso la matriz es notada A = diag(a11 , a22 , . . . , ann ). 2. Triangular superior si y slo si aij = 0 si i > j: o a11 0 A= . . . 0 a12 a22 .. . 0 a1n a2n . . . .
ann
triangular inferior
x1 + 2x3 = 1
diagonal
an1
an2
ann
Ejemplos: 0 A = 0 0 1 2 A = 0 0 0 0
Ejercicio
Ejercicio 1.1: Una propiedad que queda propuesta es que si A es diagonal con aii = 0, para i = 1, . . . , n entonces es invertible, y su inversa tambin es diagonal con (A1 )ii = a1 . e ii
a11 a21 A=
0 a22 . . .
.. .
0 0 . 0
Ai
Aj
amj
Podemos escribir entonces la matriz: A = (A1 , A2 , ..., An ), denominada notacin por columnas. O bien: o A1 A2 A = . , . . Am
Ejercicio
Ejercicio 1.2: Con respecto a esta notacin, es un buen ejercicio eso tudiar cmo el producto de matrices afecta las columnas y las de las o matrices a multiplicar. Ms precisamente: Sean A Mmn ( ), B a Mnp ( ) y describamos B por sus columnas B = (B1 , B2 , ..., Bp ), demostrar que entonces
AB = (A(B1 ), ..., A(Bp )) , es decir la primera columna de AB es la matriz A por la primera columna de B, etc.
Qu hay de las las de AB? e Denicin 1.6 (Matriz ponderada). Dada una constante o nimos la matriz A ponderada por : A = (aij ). Ejemplo:
, de-
En M23 ( ): 3
1 2
1 0 2 1
3 6
3 0 6 3
Veamos ahora que sucede al multiplicar por la derecha o izquierda una matriz por otra diagonal: DA = 2 0 0 3 1 2 1 2 0 1 = 2 6 2 4 0 3
Aqu la primera columna de A aparece multiplicada por 2, la segunda , por 1, la tercera por 3. En general: 1 0 a 11 . . . n an1 0 1 a11 a1p . = 2 a21 . . . . . anp n an1 1 a1p 2 a2p . . . n anp
constatamos que la primera la aparece multiplicada por d11 = 2 y la segunda por d22 = 3. 2 0 0 1 1 2 2 1 6 AD = 0 1 0 = 2 0 1 4 0 3 0 0 3
..
. n
bp1
bpn
1 bp1
2 bp2
n bpn
De forma ms compacta, a Proposicin 1.4. Si D = diag(1 , . . . , n ) Mnn ( ), A Mnp ( ), B o Mmn ( ), se tiene que 1 A1 . DA = . , (1.2) .
n An
BD = (1 B1 , ..., n Bn ).
(1.3)
Demostracion. Probaremos (1.2), mientras que (1.3) queda propuesta como ejercicio. D= 1 0 0 .. . n
n
Ejercicio
Sea
= (dij );
con dij =
i 0
si i = j si i = j
luego, (DA)ij =
y por lo tanto
AD =
1 a11 n an1
... . . .
1 a1p n anp
Otra propiedad, que utilizaremos ms adelante, es la siguiente: a Proposicin 1.5. El producto de matrices triangulares inferiores (superioo res) es triangular inferior (superior). Demostracion. Veriquemos el caso triangular superior. Sean a11 0 T1 = . . . 0 a22 .. . 0 b11 a1n a2n 0 . , T2 = . . . . . 0 ann 8 b22 .. . 0 b1n b2n . . . .
bnn
b11 . . .
b1n 1 . . .
0 ..
1 b11 = . . .
2 b12 . . .
n b1n . . .
j=1
cij =
k=1
aik bkj +
k=i
aik bkj .
En el primer trmino k < i aik = 0. En el segundo trmino j < i k e e bkj = 0, luego j < i cij = 0. Es decir, la matriz C es tambin triangular e superior. Notemos adems que (T1 T2 )ii = aii bii es decir los elementos diagonales a del producto de dos triangulares superiores es el producto de los elementos diagonales correspondientes.
1.3.
Denimos por recurrencia las potencias de una matriz cuadrada, como sigue: Denicin 1.7 (Potencias de una matriz). Dada A Mnn ( ) o A0 = I, An = AAn1 , Ejemplo: Por ejemplo; dada A M33 ( ): se tendr a n 1.
An
0 1 A = 2 0 1 1
2 0, 2 2 4 0 = 0 2 4 2 4 2 4 3 6
0 1 A2 = AA = 2 0 1 1 0 A3 = AA2 = 2 1 1 0 1
2 4 2 00 2 2 4 3
2 0 1 02 0 2 1 1
4 8 8 16 4 = 8 4 8 . 6 12 10 20
Denicin 1.8 (Traspuesta). Dada una matriz A = (aij ) Mmn ( ), o se dene la traspuesta de A como aquella matriz de nm que denotaremos por At tal que (At )ij = aji . Esto corresponde a intercambiar el rol de las las y columnas. Ms claraa mente, la primera la de At es la primera columna de A y as sucesiva mente.
At , traspuesta
Ejemplo: 1 2 A = 0 1 1 1 0 0 0 1, 0 1 1 2 t A = 0 0 0 1 0 1 1 1 . 0 1
1 1 A = (1, 1, 0, 0, 1), At = 0 . 0 1 1 2 1 1 2 1 A = 2 0 1 , At = 2 0 1 . 1 1 4 1 1 4
En el ultimo caso vemos que A = At . Denicin 1.9 (Matriz simtrica). Diremos que una matriz A Mnn ( ) o e es simtrica si y slo si e o A = At Es fcil vericar que A es simtrica si y slo si: a e o aij = aji i, j = 1, .., n
Algunas propiedades de la trasposicin de matrices son las siguientes: o Proposicin 1.6. o 1. (At )t = A, A Mmn ( ).
2. (AB)t = B t At . 3. Si D Mnn ( ) es diagonal, entonces Dt = D. Demostracion. Probaremos 2: Sea C = AB, C t = (AB)t . En la posicin o (i, j) de la matriz C t aparece el trmino cji de la matriz C: cji = e
t t n
(AB)t = B t At
ajk bki
k=1
zij =
k=1
(B )ik (A )kj =
k=1 t
bki ajk =
k=1 t t
luego Z = C , y por lo tanto (AB) = B At . Algunas propiedades elementales de matrices invertibles son las siguientes Proposicin 1.7. o Sean A, B Mnn ( ) invertibles entonces:
(A1 )1 = A
simtrica e
3. n 0, (An )1 = (A1 )n . 4. At es invertible y (At )1 = (A1 )t . Demostracion. Veamos: La propiedad 1 se prueba directamente de la denicin y de la unicidad de o la inversa (Proposicin 1.3). o Para 2 se tiene que, AB(B 1 A1 ) = A(BB 1 )A1 = AIA1 = AA1 = I. De manera anloga se prueba (B 1 A1 )AB = I Como la inversa es unica a (AB)1 = B 1 A1 . Para 3, procederemos por induccin. Se verica para n {0, 1}. Supongao mos cierto el resultado para n 1 y veamos: (An+1 )1 = (An A)1 = A1 (An )1 , por hiptesis de induccin o o (An+1 )1 = A1 (A1 )n = (A1 )n+1 . Para probar 4, notemos que AA1 = I, as trasponiendo nos d (AA1 )t = a I t , lo que implica a su vez (A1 )t At = I. Igualmente se obtiene que At (A1 )t = I. Finalmente, por unicidad de la inversa: (At )1 = (A1 )t .
Ejercicio
Ejercicio 1.3: En general el problema de saber si una matriz es invertible o no es un problema dif cil. Tendremos que esperar a saber resolver ecuaciones lineales para obtener un algoritmo eciente que nos permitir decidir si una matriz en particular es invertible y obtener su a inversa. Por el momento nos contentaremos con el siguiente resultado, propuesto como ejercicio. Sea A = (aij ) una matriz de permutacin, es decir una matriz de o n n con solo 0 y 1 tal que tiene un y slo un 1, por cada la y o columna. Se tiene que A es invertible y su inversa es A1 = At .
permutacin o
11
(AB)1 = B 1 A1
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Semana 1
Proposicin 1.2 o
2. Pruebe que si A es diagonal (A = diag(a11 , . . . , ann ) Mnn ( )), entonces A es invertible aii = 0, para i {1, . . . , n}.
Ejercicio 1.1
Demuestre adems que, en caso de ser invertible, su inversa es diagonal a con (A1 )ii = a1 . ii
3. Sean A Mmn ( ), B Mnp ( ) y describamos B por sus columnas B = (B1 , B2 , ..., Bn ), demuestre que entonces AB = (A(B1 ), ..., A(Bn )) . 4. Sea A = (aij ) una matriz de permutacin, es decir una matriz de o o o Mnn ( ) con slo 0s y 1s tal que tiene un y slo un 1, por cada la y columna. Pruebe que A es invertible y su inversa es A1 = At .
Ejercicio 1.2
Ejercicio 1.3
5. Se dice que P Mnn ( ) es una matriz de proyeccin si P = P 2 . o (a) Pruebe que si P es matriz de proyeccin, entonces In P es matriz o de proyeccin, donde In es la matriz identidad en Mnn ( ). o
(b) Pruebe que P es matriz de proyeccin si y slo si P 2 (In P ) = 0 o o y P (In P )2 = 0. (c) Encuentre P M22 ( ) tal que P = P 2 y P 2 (I2 P ) = 0. Indicacin: Considere matrices con coecientes en {0, 1}. o
Problemas
d1 P1. Sea D = .. . Mnn ( ) diagonal, con d1 , . . . , dn distintos
dn y A, B, M, S Mnn ( ).
(a) Pruebe que si M D = DM , entonces M es diagonal. (b) Sea S invertible, tal que S 1 AS y S 1 BS son diagonales. Pruebe que AB = BA. Indicacin: Recuerde que el producto de matrices o diagonales conmuta. (c) Sea S invertible tal que S 1 AS = D. Suponiendo que AB = BA, verique que S 1 AS y S 1 BS conmutan y concluya que S 1 BS es diagonal. P2. (a) Demuestre que si A, B y (A + B 1 ) son matrices invertibles, entonces (A1 + B) tambin es invertible y su inversa es A(A + e B 1 )1 B 1 . 12
Ejercicios
Sea N = C I, donde I es la matriz identidad de nn. Demuestre que N n = 0. (c) Demuestre que para las matrices C y N denidas en (b), se tiene que C es invertible y su inversa es: C 1 = I N + N 2 N 3 + + (1)n1 N n1 .
P3. (a) Sea A = (aij ) Mnn ( ) una matriz cualquiera. Se dene la traza de A, denotada por tr(A), como la suma de los elementos de la diagonal principal, es decir,
n
tr(A) =
i=1
aii .
Por otra parte, se dene la funcin f : Mnn ( ) o f (A) = tr(AA ). Pruebe que: (1) Dadas A, B Mnn ( ),
t
, donde
tr(AB) = tr(BA). (2) f (A) 0, A Mnn ( ), adems muestre que a f (A) = 0 A = 0, donde 0 es la matriz nula de Mnn ( ). (3) f (A) = tr(At A). (b) Sea M Mmn ( ) una matriz tal que la matriz (M t M ) Mnn ( ) es invertible. Denamos la matriz P Mmm ( ) como
P = Im M (M t M )1 M t ,
donde IM es la matriz identidad de orden m. Pruebe que: (1) P 2 = P . Muestre adems que P M = 0, donde 0 Mmn ( ) a es la matriz nula. (2) La matriz (M t M ) es simtrica y muestre que la matriz P es e tambin simtrica. e e
13
(b) Sea la matriz de n y n columnas triangular superior a coecientes reales siguiente: 1 1 0 0 ... ... 0 0 1 1 0 . . . . . . 0 . . .. .. .. .. . . . . . . . . . . .. .. .. .. . . . . . . . . C = . . .. . . . 1 1 0 . . . . . . . . . . . 0 1 1 . . . ... ... ... . 0 0 1
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
1.4.
Matrices elementales
Como veremos la resolucin de sistemas de ecuaciones via eliminacin de o o variables corresponde a premultiplicar (multiplicar por la izquierda) una cierta matriz por matrices elementales que estudiaremos a continuacin. o Hay dos tipos de matrices elementales: elemental de permutacin y de o suma. Denicin 1.10 (Matriz elemental de permutacin). Una matriz eleo o mental de permutacin tiene la siguiente estructura: o 1 0 .. . 0 1 la p 0 1 . . . . . 1 . Ipq = 1 . . . . . 1 . la q 1 0 1 .. . 0 0 1 La matriz Ipq se construye a partir de la identidad, permutando el orden de las las p y q. Ejemplo: En M44 ( ): 1 0 = 0 0 0 0 0 1 0 0 1 0 0 1 , 0 0 0 0 = 1 0 0 1 0 0 1 0 0 0 0 0 . 0 1
matrices elementales
SEMANA 2: MATRICES
Ipq
I24
I13
Notemos que toda matriz elemental de permutacin es una matriz de pero mutacin, pero no al revs. Puedes dar un ejemplo?. o e Veamos ahora lo que sucede al multiplicar una matriz A, por la derecha o izquierda, por una matriz elemental de permutacin Ipq : En el ejemplo o anterior, sea A = (aij ) M43 ( ) a11 a21 I24 a31 a41 a12 a22 a32 a42 a13 1 a23 0 = a33 0 a43 0 0 0 0 1 0 0 1 0
Ejercicio
B M34 ( ): b11 b21 b31 b12 b22 b32 b13 b23 b33
0 0 0 1
0 0 1 0
0 b 1 11 = b21 0 b31 0
la matriz resultante es B con las columnas 2 y 4 permutadas. En general, Propiedad 1.1. Dadas Ipq Mnn ( ), A Mns ( ) y B Mqn ( ):
1. Ipq A corresponde a la matriz A con las las p y q permutadas. 2. BIpq corresponde a las matriz B con las columnas p y q permutadas. Demostracion. Recordemos que, por ser una matriz de permutacin (Ejero cicio 1.3), Ipq es invertible y adems Ipq = Ipq . En efecto, el multiplicar a 1 por la izquierda Ipq por si misma, corresponde a intercambiar sus las p y q, con lo cual se obtiene la identidad. Tomemos ahora la matriz A M44 ( ) y sea: 1 0 0 1 E2,4 () = 0 0 0 0 0 1 0
Ipq A BIpq
0 0 0 1
Esta matriz se construye a partir de la identidad colocando el valor en la posicin (4,2) (notar que slo la la 4 es diferente de la identidad). o o Al multiplicar por la izquierda A por E2,4 (): a11 a21 E2,4 () a31 a41 a12 a22 a32 a42 a13 1 0 a23 0 1 = a33 0 0 a43 0 0 0 1 0 0 a11 0 a21 0 a31 1 a41 a12 a22 a32 a42 a13 a23 = a33 a43
La matriz, E2,4 ()A es exactamente la matriz A, excepto por la la 4, la cual se obtiene de sumar la la 4 de A ms la la 2 de A ponderada por . a En general,
15
1 Ep,q () = 0 . . . . . . 0
col. p .. . 1 . . . . . . . . . 0 .. . 1
col. q 0
. p<q
1 1 .. 0 . 1
matriz A Mns ( ); se tiene: 0 a11 0 . . . 1 ap1 . . . . . 1 . aq1 1 . 1 . . .. . an1 1 a11 a1s . . . . . . ap11 ap1s . . . . = . . . ap1 + aq1 aps + aqs q . . . . . . an1 ans o, en notacin por las: o Ci = Ai i = q Cq = Ap + Aq
Ep,q () A
Se tiene entonces que el efecto, sobre A, de la premultiplicacin por Ep,q () o es una matriz que slo diere de A en la la q: Esta es la suma de la la p o ponderada por y la la q. Es importante observar que la matriz Ep,q () es triangular inferior, que tiene unos en la diagonal y adems: a
16
Denicin 1.11 (Matriz elemental). Denimos la matriz elemental Ep,q () o Mnn ( ) como:
Ep,q ()
Demostracion. En efecto, sea C = Ep,q ()Ep,q (). Se tendr que C es a la matriz cuya la q es la suma de la la p de Ep,q (), ponderada por y la la q de Ep,q (). Es decir: Cq = (0 . . . 0 1 0 . . . 0) + (0 . . . 0 . . . 0 0 . . . 0)
p p q
= (0 . . . 0 0 . . . 0) + (0 . . . 0 . . . 0 1 0 . . . 0).
p p q
1.5.
Las matrices elementales son de gran utilidad en la resolucin de sistemas o de ecuaciones lineales. Ejemplo: Consideremos, a modo de ejemplo, el sistema de ecuaciones x1 + 2x2 + x3 + x4 = 2 2x1 + 3x2 x3 = 1 x1 + x3 + x4 = 1 (1) (2) (3)
Para resolverlo, utilizamos la eliminacin de variables, pero en forma o ordenada, desde la primera variable de la izquierda y desde arriba hacia abajo: 17
Luego, multiplicamos la primera por 1 y la sumamos a la tercera: x1 + 2x2 + x3 + x4 = 2 7x2 + x3 + 2x4 = 3 2x2 = 1
2. Continuamos ahora con x2 , pero a partir de la segunda ecuacin. o 2 a Multiplicando la segunda por 7 y sumndola a la tercera se obtiene: x1 + 2x2 + x3 + x4 = 2 7x2 + x3 + 2x4 = 3 2 4 1 x3 + x4 = 7 7 7 Ya no es posible eliminar ms variables. Ahora, desde la ultima a hasta la primera ecuacin despejamos en funcin de x4 : o o 1 1 4 x3 = x4 = 2x4 2 2 2 1 1 1 1 x2 = (x3 2x4 + 3) = (2x4 + 2x4 + 3) = 7 7 2 2 1 3 1 x1 = 2x2 x3 x4 + 2 = 2 + 2x4 + x4 + 2 = x4 + 2 2 2 Obtenindose la solucin: e o x1 = 3 + x4 2 1 x2 = 2 1 x3 = 2x4 2 x4 = x4
As para cualquier valor real de x4 , obtenemos una solucin del , o sistema. Existen entonces, innitas soluciones, dependiendo de la variable x4 . La variable x4 se denomina independiente o libres. Veamos ahora, en general, qu es un sistema de ecuaciones, e
18
1. Eliminamos la variable x1 en las ecuaciones (2) y (3): para ello multiplicamos la primera por dos y la sumamos a la segunda obteniendo:
sistema de ecuaciones
en donde los coecientes, aij , y el lado derecho, bj , son elementos del cuerpo
Eliminar x2 en la tercera ecuacin a partir de la segunda es equivalente a o multiplicar la segunda la por 2 y sumarla a la tercera: 7 1 2 1 1 2 b) 0 7 1 2 3 = (A| 2 1 4 0 0 7 7 7 19
Eliminar x1 de la segunda ecuacin es equivalente a producir un cero en o la posicin (2,1) de (A|b). Para ello se multiplica la primera la por 2 y se o suma a la segunda la. Para eliminar x1 de la tercera ecuacin se multiplica o la primera la por 1 y se suma a la tercera 1 2 1 1 2 1 2 1 1 2 (A|b) 0 7 1 2 3 0 7 1 2 3 1 0 1 1 1 0 2 0 0 1
Realizar el procedimiento de eliminacin de variables descrito en el ejemo plo precedente, con el n de resolver el sistema, es equivalente a producir ceros en la matriz aumentada con la columna lado derecho, (A|b) Mm(n+1) ( ). En el ejemplo anterior: 1 2 1 1 2 2 3 1 0 1 (A|b) = 1 0 1 1 1
Denicin 1.12 (Sistema de ecuaciones). Un sistema de m ecuacioneso y n incgnitas consiste en el siguiente conjunto de ecuaciones en las vao riables x1 , ..., xn :
Ax = b
De la denicin de matrices elementales sabemos que esto es equivalente o a premultiplicar por la izquierda por la matriz Ep,q (). Veamos esto en el mismo ejemplo. Ejemplo: 1. Producir un cero en la posicin o 1 0 E1,2 (2)(A|b) = 2 1 0 0 1 2 = 0 7 1 0 (2,1) de (A|b): 0 1 2 1 1 2 0 2 3 1 0 1 1 1 0 1 1 1 1 1 1 2 1 1 2 3 1
1 1 1 2 1 1
2 3 1
3. Producir un cero en la posicin (3,2) desde la posicin (2,2): o o 1 2 1 1 2 1 0 0 2 E2,3 ( 7 )E1,3 (1)E1,2 (2)(A|b) = 0 1 0 0 7 1 2 3 0 2 0 0 1 0 2 1 7 1 = 0 0 2 7 0 1 1
2 7
1 2
4 7
1 7
2 3
Se concluye entonces que la operacin de eliminacin de variable puede o o realizarse mediante la pre-multiplicacin de (A|b) por matrices elementales. o 20
As el sistema inicial es equivalente al sistema Ax = , b. Conviene se alar que en el procedimiento anterior la operacin de base ha n o sido:
lo cual nos permite seguir produciendo ceros. Consideremos ahora A Mmn ( ), denimos la matriz escalonada asociada A Mmn ( ), tal que: a 11 a12 a1i2 a2i2 .. . = A asis 0
Vemos que, como a22 = 0, no es posible producir ceros en la segunda columna, a partir de a22 . Luego intercambiamos el orden de las las (claramente esto no cambia el sistema de ecuaciones asociado). Por ejemplo, colocamos la cuarta la en la segunda posicin y la segunda en la cuarta. o Esto es equivalente a premultiplicar por I24 : 1 0 0 0 1 1 1 1 1 1 1 1 0 0 0 10 0 1 1 0 2 0 1 I24 (A|b) = = , 0 0 1 0 0 1 0 1 0 1 0 1 0 1 0 0 0 2 0 1 0 0 1 1
matriz escalonada, A
a donde los elementos a11 = 0, a2i2 = 0, ..., sis = 0, se denominan pivotes. Notar que hemos supuesto que la primera columna no tiene ceros. De no ser as quiere decir que la primera variable no juega ningun rol, y por lo , tanto si el sistema tiene solucin esta variable queda de inmediato libre. o Supondremos en lo que sigue que la primera columna no es cero. Observacin: No hay una unica manera de escalonar una matriz. En o efecto en el ultimo ejemplo podr amos haber permutado las las 2 y 3 en vez de las 2 y 4. Hay dos cosas que son importantes de resaltar a este respecto: 1. Desde el punto de vista de sistemas de ecuaciones no hay diferencia entre un escalonamiento u otro: todos dan el mismo conjunto solucin (probablemente descrito de distinta manera). o 2. Es preferible por otras razones (tericas, como son el clculo del o a determinante y la determinacin de matrices denidas positivas) o tratar de no utilizar permutaciones .
21
Hay casos en que tambin es necesario utilizar matrices de permutacin de e o las. Por ejemplo, si se tiene: 1 1 1 1 0 0 1 1 (A|b) = 0 1 0 1 0 2 0 1
pivotes
donde Ej es una matriz elemental de suma o de permutacin de las. o Adems, recordemos que las matrices elementales son invertibles. Esta proa piedad es crucial para probar que el sistema original, Ax = b, y el obtenido despus del escalonamiento, Ax = son equivalentes (tienen idntico cone b, e junto de soluciones). En efecto: Proposicin 1.9. Dada una matriz C, invertible entonces: o a K n es solucin de Ax = b a es solucin de (CA)x = Cb. o o Demostracion. La demostracin es simple: o ) Si Aa = b, entonces C(Aa) = Cb y por ende (CA)a = Cb. ) Supongamos (CA)a = Cb. Como C es invertible se tiene C 1 (CA)a = C 1 (Cb), lo cual implica que Aa = b. Como las matrices elementales son invertibles y el producto de matrices invertibles tambin lo es, y por lo tanto podemos usar la Proposicin 1.9 e o b con C = j Ej , para concluir que los sistemas Ax = b y Ax = son equivalentes.
22
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 2
1. Encuentre un ejemplo de una matriz que sea de permutacin, pero no o sea matriz elemental de permutacin. o 2. Dadas Ipq Mnn ( ) y B Mqn ( ), pruebe que BIpq corresponde a las matriz B con las columnas p y q permutadas. Indicacin: Puede usar la parte 1 de la Proposicin 1.1. o o 3. Escriba los siguientes sistemas de ecuaciones en las variables xi , de forma matricial Ax = b, especicando claramente A, b y x con sus dimensiones: 2x1 + 4x2 x3 + x5 = 0 x1 16x2 + x3 + 3x4 + 6x5 = 2 (a) 1 3 x2 10x3 + x4 6x5 = 2x3 3 x1 x3 x4 + 4 x5 = 1 x4 + x1 = 3 4x1 7x2 + x3 12x4 = 1 (b) 11 = x3 1 (x1 x3 ) + x4 x5 = 20 3 x1 ( 1)x2 + x3 x4 = 2 7x2 + x3 = + , con , . (c) = 3 x1 x2 + x4 3 2x1 = 1 4x2 = 2 (d) 9x3 = 0 3 2 x4 = 1
Propiedad 1.1
(a) I12 E13 (1, 1), en M44 ( ). (d) E23 (0, 3i)1 E12 (1, i)E34 ( 1 , 3), 2 en M44 ( ). (b) I34 E23 (i, 2)I34 , en M44 ( ). (c) E12 (2, 1)E13 (1, 1), en M33 ( ).
Problemas
1 . P1. Sea J Mnn ( ) tal que J = . .
.. .
1 1 . y e = . . . . . . 1 1
(b) Sea =
P2. (a) (1) Sean A, B matrices de n m con coecientes reales. Pruebe que A = B x Mm1 ( ), y Mn1 ( ) xt Ay = xt By. 23
Ejercicios
Pag. 12
A = B x Mn1 ( ) xt Ax = xt Bx. (b) Demuestre que si una matriz cuadrada A verica Ak = I, para alg n natural k 1, entonces A es invertible y determine su u inversa. x y (c) Encuentre todas las matrices de la forma A = que cum0 y plen A2 = I (x, y, z ).
+ + + +
P3. Considere el siguiente sistema lineal: x1 x1 x1 x1 x2 2x2 4x2 x3 x3 x3 2x3 + + + 2x4 2x4 3x4 4x4 = 1, = 1 , = 2, = 5.
(a) Escriba el sistema de forma matricial Ax = b. Especique claramente A, b y x, junto con sus dimensiones. (b) Resuelva es sistema lineal escalonando la matriz aumentada (A|b). P4. Considere el siguiente sistema lineal: x1 x1 2x1 + + + 2x2 x2 3x2 x2 + + + 3x3 3x3 3x3 + x4 x4 = 1, = 1, = 0, = 2 .
2x4
(a) Escriba el sistema de forma matricial Ax = b. Especique claramente A, b y x, junto con sus dimensiones. (b) Resuelva es sistema lineal escalonando la matriz aumentada (A|b).
24
Indicacin: Calcule et Aei donde ej = (Im )j y ei = (In )i . Im o j y In son las identidades de tama os m y n respectivamente. n (2) Sean A, B matrices de nn simtricas con coecientes reales. e Pruebe que
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
1.6.
Dado el sistema Ax = b, A Mmn ( ), b (escalonando (A|b)) obtenemos: a11 a1i2 0 0 a2i2 . . . .. . . . . . . . b) (A| = 0 0 0 asis 0 0 0 0 . . . . . . 0 0 0
m, x n, al escalonarlo
a1n . . . . . . asn 0 . . . 0 1 b . . . . . . s . b s+1 b . . . m b
donde los elementos a11 , a2i2 , . . . , asis son no nulos. Claramente, si existe un ndice j s + 1 tal que j = 0, el sistema no tiene solucin, ya que se b o j = 0. tendr una ecuacin incompatible: 0 = b a o Luego, el sistema tiene solucin si y solo si k = 0 k s + 1. En efecto, si o b k = 0, k s + 1, se obtiene la(s) solucin(es) despejando desde la s-sima b o e ecuacin hasta la primera en funcin de las variables independientes. En este o o caso diremos que el sistema es compatible. Cada una de las diferencias en el n mero de columnas que son cero bajo las las sucesivas, las llamaremos u pelda os o escalones . As el pelda o que se produce entre la la k y k+1 n n es ik+1 ik . Notar que el ultimo pelda o es: n + 1 is , es decir los pelda os n n se miden en la matriz aumentada. La importancia de estos pelda os es la n siguiente: Proposicin 1.10. Si existe solucin para el sistema Ax = b y en la mao o triz A hay algn peldao de largo mayor o igual a dos, entonces existe ms u n a de una solucin. o
Demostracion. En efecto. Como por cada la no nula de la matriz escalonada podemos despejar a lo ms una variable, tendremos entonces que a dejar libres tantas variables como n mero de pelda os, menos uno. u n Un corolario directo del resultado anterior es Corolario 1.2. Si el sistema Ax = b es tal que n > m (nmero de incgniu o tas mayor que el nmero de ecuaciones), entonces tiene innitas soluciones, u si es compatible. Demostracion. En efecto, como n > m siempre existe en la matriz es un pelda o de largo superior o igual a dos. De no ser as se calonada, A, n
25
SEMANA 3: MATRICES
escalones
de donde m = n.
a11 0 . A= . . . . . 0
a12 a22 0 . . . 0
. . . 0
Un caso particular importante es cuando el lado derecho del sistema es nulo, b = 0. Hablamos entonces de un sistema homogneo , Ax = 0. e Vemos que, en este caso, siempre existe al menos una solucin, la trivial o x = 0 n . En otras palabras sabemos de antemano que todo sistema homogneo es compatible. e Podemos resumir nuestro estudio de sistemas en el cuadro siguiente:
sistema homogneo e
x1 1 1 1 1 x2 0 1 0 0 x = 1 0 1 3 0 x4 1 1 0 1 x5
1 1 1 1 1 1 1 1 1 0 1 1 0 3 1 0 1 1 2 1 0 1 0 0 0 2 0 3 3 3 2 0 0 2 0 1 3 0 1 0 3 3 1 1 1 1 1 1 0 3 1 0 1 1 2 0 0 3 0 2 1 3 3 0 0 0 0 1 1 Obtenemos que los pelda os medidos desda la la 1 son sucesivamente: n 1,1,2,1. De la ultima ecuacin despejamos x5 = 1. o Con esta informacin en la tercera ecuacin dejamos libre x4 y deso o pejamos x3 . En la segunda ecuacin despejamos x2 y nalmente de la o primera despejamos x1 , para obtener. x5 = 1 x4 : libre 3 1 2 1 1 1 x3 = ( x5 ) = x5 = + 1 = 2 3 3 2 2 2 1 1 1 1 x2 = (1 x3 x5 ) = (1 + 1) = 3 3 2 2 1 1 x1 = 1 x2 x3 x4 x5 = 1 x4 + 1 = 1 x4 2 2 26
tendr a
1.7.
Supongamos que el n mero de ecuaciones es igual al n mero de incgnitas u u o (n = m), en este caso el sistema se escribe: Ax = b, A Mnn ( ), x, b
donde entre los elementos de la diagonal, aii , podr haber algunos nulos. a Se alemos que en el caso de matrices cuadradas el proceso de escalonan miento se denomina Algoritmo de Gauss. Un resultado importante, que relaciona matrices invertibles, solucin de sistemas y el algoritmo de Gauss, es el siguiente: o
Escalonemos el sistema y sea A la matriz escalonada, sin considerar el nuevo lado derecho b: a11 a1n . .. . A= . . 0 ann
Algoritmo de Gauss
Teorema 1.1. Sea A Mnn ( ), entonces las proposiciones siguientes son equivalentes: 1. A es invertible. 2. b
n
3.
i=1
aii = 0.
Demostracion. Utilizamos un argumento de transitividad para probar solamente que: (1 2). Si A es invertible consideremos entonces A1 . As (A1 A)x = A1 b y luego x = A1 b, por ende el sistema tiene solucin y claramente o esta es la unica. En efecto si x1 , x2 n son soluciones, entonces Ax1 = Ax2 = b y se tendr multiplicando por A1 que (A1 A)x1 = (A1 A)x2 , pero entonces a x1 = x2 .
(2 3). Sea A la matriz escalonada asociada a A y supongamos que para alg n i: aii = 0. Esto quiere decir que alguno de los escalones tiene largo u mayor o igual que 2 y por lo tanto el sistema homogneo Ax = 0 tiene e innitas soluciones (por Proposicin 1.10) lo que es una contradiccin. Por o o n lo tanto para todo i = 1, . . . , n aii = 0 o equivalentemente i=1 aii = 0.
27
1 La solucin general es: x1 = 1 x4 , x2 = 1 , x3 = 2 , x4 = x4 , x5 = 1 o 2 Existen entonces innitas soluciones, una por cada valor de la variable independiente x4 .
donde las matrices Fk son del mismo estilo que las matrices elementales que hemos usado. Sabemos entonces que las matrices D, E = j Ej y F = 1 DF 1 concluimos que A tambin es e k Fk son invertibles y como A = E invertible. Como corolario importante de lo demostrado en esta parte es que:
gonales de A son todos no nulos. Notemos que A = ( j Ej )A, donde las matrices Ej son elementales y por lo tanto invertibles. Podr amos ahora escalonar hacia arriba la matriz A para obtener de manera similar una matriz diagonal D. Esto lo podemos hacer de manera que D tenga por diagonal la misma que A. Es decir a11 0 . . .. . D= . Ej A = Fk , . . . j k 0 ann
i=1
Corolario 1.3. Una matriz triangular superior es invertible si y slo si o todos sus elementos diagonales son distintos de cero. Observacin: Notemos que pasando por la traspuesta se deduce que o si A es triangular inferior entonces es invertible si y solo si todos sus elementos diagonales son distintos de cero. Ms a n la inversa de una a u triangular inferior es triangular inferior. En efecto, si aplicamos el algoritmo de escalonamiento sin permutar obtendremos: a11 0 r . . .. . Ej )A, =( A= . . . . j=1 0 ann donde r es el n mero de pasos tomados por el algoritmo y las matrices u elementales Ej son del tipo Epq (, 1). Notar que los pivotes son los elementos de la diagonal de A. Como la inversa de cada Ej es del mismo tipo se deduce que
1
A=(
j=r
(Ej )1 )A.
r
A1 = (A)1 (
Ej ),
j=1
y por lo tanto la inversa de A es triangular inferior y adems sus elea mentos diagonales son 1/aii i = 1, .., n. Notar que el producto de las inversas en la expresin anterior est tomado en sentido opuesto: o a
r 1
(
j=1
Ej )1 =
j=r
(Ej )1 .
28
(3 1). Supongamos
Pasando por la traspuesta podemos deducir que la inversa de una triangular superior tambin es triangular superior. e
1.8.
Calculo de la inversa
Supongamos que dada una matriz cuadrada A de tama o n, buscamos una n matriz Z de n n tal que AZ = I. Si describimos Z por sus columnas, esto es Z = (Z1 Zn ) entonces la ecuacin AZ = I es equivalente a los o n sistemas AZi = ei , con i {1, . . . , n}, y ei la i-sima columna de I. e
Probemos ahora que, Proposicin 1.11. Si los n sistemas anteriores tienen solucin, entonces o o A es invertible y adems A1 = Z. a Demostracion. Para ello probemos primero que b b tiene solucin. o
n el sistema Ax =
En efecto sea b = (b1 bn )t un elemento de n , y consideremos a = b1 Z1 + bn Zn n . Utilizando las propiedades de la suma, multiplicacin y ponderacin de matrices se obtiene que o o
n1
bn
= b,
Si A no fuese invertible esto quiere decir que al escalonar A, se tendr que a alg n aii = 0. Consideremos las las i e i + 1 de A: u . . . Ai A= = Ai+1 . . . . . . aii = 0 aii+1 0 ai+1i+1 . . . .
0 0
0 0
ain ai+1n
Si aii+1 = 0, ai+1i+1 = 0 habr amos permutados las las y por lo tanto la matriz escalonada tendr un 0 en la posicin (i + 1, i + 1), lo que es a o una contradiccin. Si aii+1 = 0 entonces podemos utilizar este elemento o para escalonar hacia abajo y por lo tanto ai+1i+1 = 0. En cualquier caso se deduce que ai+1i+1 = 0, y por un argumento de induccin que ann = 0, o 29
de A a A. Denamos
1 Si consideramos el sistema Ax = b tendremos que al escalonar la matriz aumentada (A|b) se obtendr una matriz escalonada (usando las mismas a operciones elemementales) b) (A| = C(A|b) = . . . 0 . . . 1 ,
0 0 . b = C 1 . . . 0
lo que representa un sistema incompatible y por lo tanto Ax = b no puede tener solucin. Hemos obtenido una contradiccin y por lo tanto la unica o o posibilidad es que i = 1, .., n aii = 0, y por lo tanto A es invertible. Ahora de AZ = I se obtiene premultiplicando por A1 que Z = A1 . Notemos que de paso se ha probado el siguiente resultado interesante o Corolario 1.4. Una matriz A Mnn ( ) es invertible si y slo si todo sistema Ax = b tiene solucin. o Lo que a su vez es equivalente a todo sistema Ax = b tiene solucin o unica, por lo probado anteriormente.
Ejercicio
Ejercicio 1.4: Qu puede decir de una matriz cuadrada A para la e cual todo sistema Ax = b tiene a lo ms una solucin?. Debe ser A a o invertible?. Prubelo. e
Para saber si una matriz es invertible hemos entonces probado que basta estudiar n sistemas lineales. Para el clculo de la inversa podemos ir un a poco ms lejos. Consideremos el siguiente ejemplo: a Ejemplo: 0 1 1 A = 1 1 2 1 1 0 0 1 1 (A|I) = 1 1 2 1 1 0 30 1 0 0 1 0 0
luego:
0 0 1
esto es toda la ultima la de A debe ser 0. Consideremos ahora la matriz invertible C = Ej , donde A = CA, es decir la matriz que permite pasar
En este paso ya estamos en condiciones de resolver los tres sistemas. Pero podemos a n pivotear, ahora sobre la diagonal; sin alterar la solucin u o (ya que multiplicamos por matrices invertibles): 1 1 1 0 0 0 1 1 0 1 0 2 1 2 0 2 2 0 1 1 0 2 2 0 1 1 1 0 0 2 1 1 1 0 0 2 1 2 1 2 2 2 1 1 0 0 2 1 3 1 0 1 0 1 1 2 2 4 4 1 1 1 0 2 0 1 2 2 0 2 0 1 2 1 2 1 1 1 0 0 2 1 2 2 0 0 2 1 2 1 2 Finalmente, premultiplicando por la matriz invertible: 1 0 0 1 D = 0 2 0 0 0 1 2 1 0 (I|I) = 0 1 0 0 1 3 0 1 4 4 2 1 0 1 1 4 2 4 1 1 1 1 2 4 4
1 1 0 0 0 1 1 1 0 0 (A|I) 1 1 2 0 1 0 0 2 2 0 0 1 1 1 0 0 0 1 1 1 1 1 0 0 0 1 0 2 2 0 1 1 1 0 0 2 1 2 1 2
0 1 1 1 0 0
Se tiene:
de donde:
Obteniendo los sistemas de solucin trivial: o 1 1 3 x11 2 x12 x13 4 4 I x21 = 1 , I x22 = 1 , I x23 = 1 , 4 2 4 1 1 x31 1 x32 x33 2 4 4 X = A1 En efecto: AA1 1 1 2 4 1 = 1 4 2
1 2 3 4 1 4 1 1 4 4
0 0 1 0 0 1
1 1 3 0 1 1 2 4 4 1 1 = 1 1 2 1 4 1 = 0 2 4 1 1 1 1 1 0 0 2 4 4
Luego para calcular la inversa de A Mnn ( ) basta aplicar el Algoritmo de Gauss sobre la matriz (A|I). Una vez que se ha obtenido la matriz 31
Escalonando:
Qu sucede si una matriz A no es invertible? e Sabemos que necesariamente aparecer, al escalonar, un pivote nulo irrea parable. Ejemplo: 0 2 1 0 0 1 1 2 0 1 0 y 0 0 2 0 0 1 0 1 0 y los sistemas Ax = 1 , Ax = 0 son 1 1 1 (A|I) = 1 1 0 2 1 0 1 0 1 1 0 0 1 0 0 0 1
incompatibles.
Ac el elemento a22 = 0, pero podemos, premultiplicando por la matriz a de permutacin I23 , intercambiar las las 2 y 3 obteniendo: o 1 1 1 1 0 0 1 0 0 0 0 1 1 0 0 0 0 1 0 1 1 1 0 1 0 1 1 1 0 1 0 1 0 0 1 1 0 0 1 1 1 0 0 0 1 1 1 0 0 0 1 1 1 0 1 0 0 0 0 1 0 0 1 0 1 0 0 1 1 A1 = 0 1 1 . 0 0 1 1 1 0 1 1 0 Ejemplo y ejercicio importante: Descomposicin LDU . o Supongamos que al escalonar A Mnn ( ) no encontramos pivotes nulos (no permutamos las!). Se obtiene entonces a11 a1p .. = ( Ej )A .
Ejercicio LU , LDU
ann
triangular superior A, realizar el mismo procedimiento para los elementos sobre la diagonal. Finalmente, se premultiplica por una matriz diagonal para obtener la identidad en el lugar de A.
0 . . . . . . 1
A=(
j
1. Concluya que si al escalonar A no se realizan permutaciones, A puede factorizarse como el producto de una matriz L, triangular inferior con unos en la diagonal, y una matriz U , triangular superior, donde los pivotes guran en la diagonal. Esta factorizacin o se llama descomposicin LU . o 2. Recordando que 21 A= . . . n1 1 ..
n i=1
0 .. . nn1
..
..
. . .
(1.4) Es decir, A admite una factorizacin A = LDU , en donde L es o triangular inferior con unos en la diagonal, D es diagonal (formada por los pivotes del escalonamiento) y U es triangular superior con diagonal de unos. Esta factorizacin se llama descomposicin o o LDU . 3. Demuestre que si A admite la descomposicin LDU de (1.5), eno tonces la descomposicin es unica. o 4. Demuestre adems que si A es simtrica, entonces L = U t . a e 5. Encuentre la descomposicin LDU de o 1 1 1 A = 0 1 1 . 1 2 0
ann
33
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 3
Ejercicio 1.4
1. Qu puede decir de una matriz cuadrada A para la cual todo sistema e Ax = b tiene a lo ms una solucin?. Debe ser A invertible?. Prubelo. a o e 2. Supongamos que al escalonar A Mnn ( ) no encontramos pivotes nulos (no permutamos las!). Se obtiene entonces a11 a1p .. = ( Ej )A . 0 ann
j
donde cada una de las matrices Ej es de la forma Epq (, 1), con a) Pruebe que la matriz
j
0 . . . . . . 1
A=(
j
a) Concluya que si al escalonar A no se realizan permutaciones, A puede factorizarse como el producto de una matriz L, triangular inferior con unos en la diagonal, y una matriz U , triangular superior, donde los pivotes guran en la diagonal. Esta factorizacin o se llama descomposicin LU . o b) Recordando que 21 A= . . . 1 ..
n i=1
0 .. . nn1
..
. . .
n1
(1.5) Es decir, A admite una factorizacin A = LDU , en donde L es o triangular inferior con unos en la diagonal, D es diagonal (formada por los pivotes del escalonamiento) y U es triangular superior con diagonal de unos. Esta factorizacin se llama descomposicin LDU . o o
34
Ejercicios
LU, LDU
Problemas
1 1 1 P1. (a) Sea la matriz de coecientes reales A = a b c . Demueste a 2 b 2 c2 que si la ecuacin Ax = 0 tiene una unica solucin entonces (a = o o b) (a = c) (b = c). (b) Considere el sistema lineal a coecientes reales siguiente x1 x1 x1 + + x2 x2 x2 + + + x3 x3 x3 + x4 + x4 = = = = 0, 0, 0, 0.
Determine las condiciones sobre los parmetros reales y que a garanticen que el sistema tenga una unica solucin. o P2. (a) Considere las matrices cuadradas A, B Mnn ( ). Demuestre que 1) A es invertible si y slo si AAt es invertible. o 2 2) Si A = A y B = I A entonces B 3 = B.
(b) Considere los vectores u, v Mn1 ( ) \ {0}. Se dene la matriz A Mnn ( ) por A = uv t .
1) Pruebe que x Mn1 ( ), Ax = 0 v t x = 0. Indicacin: Observe que v t x . o 2) Encuentre el n mero de variables libres en la resolucin del u o sistema Ax = 0. Es A invertible?
P3. Considere
Estudiaremos las soluciones del sistema Ax = b, con x M41 ( ). Encuentre los valores de y de manera que: 35
1 1 A= 0 2
2 1 3 1
3 1 0 1 3 3 2
2 b = . 0 2
c) Demuestre que si A admite la descomposicin LDU de (1.5), eno tonces la descomposicin es unica. o d ) Demuestre adems que si A es simtrica, entonces L = U t . a e
El sistema tenga una unica solucin. Encuentre la matriz inversa o de A y calcule la unica solucin del sistema. o El sistema tenga innitas soluciones y encuentre sus soluciones. Determine adems el n mero de variables independientes. a u
36
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
2.
2.1.
Sea
Geometra lineal en
Deniciones basicas
x1 . n = Mn,1 ( ) = { . | xi , i = 1, . . . , n } .1 . xn Recordar que en n = Mn,1 ( ) tenemos una suma (de matrices columna) denida por: y1 x1 x1 + y1 . . . . si x = . , y = . , entonces x + y = ,y . . .
n = Mn,1 ()
xn
yn
n , +) es un
x1 . y opuestos x = . = . xn xn Agregamos ahora la operacin Multiplicacin por Escalar denida como o o sigue: x1 . o Denicin 2.1. Si x = . y , entonces se dene una funcin o .
xn + yn
Ponderacin o
xn
Observacin: Llamaremos vectores columna, o simplemente vectores, o a los elementos de n , y escalares a los elementos de . De aqu el nombre de esta operacin. o
1 Para jar ideas puede pensar en lo que sigue en = y n = 2 o 3, que con seguridad le sern familiares de sus cursos de Clculo. Sin embargo, salvo cuando se diga a a puede ser cualquier cuerpo, y n un natural mayor o igual expl citamente lo contrario, a 1.
37
SEMANA 4: GEOMETRA I
1. (x 2. 3. 4. 5.
n ) 1 x = x (1 , 2 ) (x n ) 1 (2 x) = (1 2 )x (1 , 2 ) (x n ) (1 + 2 )x = 1 x + 2 x ( ) (x, y n ) (x + y) = x + y. ( ) (x n ) x = 0 = 0 x = 0.
Demostracion. Las demostraciones de estos hechos son clculos elemena tales y quedan como un ejercicio muy simple para el alumnos. Queda adems el lector encargado de vericar que esta ultima propiedad se a puede tambin obtener como consecuencia de las propiedades 1. a 4. , ms e a un cuerpo. los hechos de que ( n , +) es un grupo Abeliano y
Ejercicio
Ejemplos: Caso
= .
n = 1: El conjunto de vectores es 1 = , la recta real, el + es la suma usual en y la multiplicacin por escalar es el producto en o .
n = 2: El conjunto de vectores es
2 = 2, el plano x1 x2.
x= x x
1 2
Un vector x representar ambos, un punto del plano y una echa a partiendo del origen que termina en dicho punto. La suma de elementos de 2 corresponde entonces a la suma usual de echas en el plano:
y x
x+y
2x x 1/2 x x
x 0 x=0 (-1) x
3 se hace en el espacio
x x= x x
1 2 3
La ponderacin se represeno ta de modo similar al caso plano, y la suma de vectores tambin corresponde a la diae gonal del paralelgramo deo nido por los sumandos:
x+y
39
y v y-x 0 x
2.2.
Rectas en
A partir de nuestra intuicin geomtrica rescatamos del concepto de recta o e (en el plano o en el espacio) dos elementos importantes: que una recta dene una direccin de movimiento y que pasa por algn lugar. o u
p
Pasa por p Direccion
L2
La misma direcccion No pasa por p
L1 q
Las rectas L1 y L2 del dibujo llevan la misma direccin, y lo que las dio ferencia es que pasan por distintos puntos. De hecho L2 es L1 desplazada. Intentamos entonces denir una recta en n como sigue: Denicin 2.2 (Recta). Sean d n \ {0} un vector y p n un o punto dado. La recta L que pasa por p y va en la direccin de d es el o siguiente subconjunto de n :
Observacin: A veces conviene (por ejemplo, para mayor claridad de o una gura) dibujar un vector como una echa que parte de algn otro u punto distinto del origen. A modo de ejemplo consideremos x, y 2 y sea v = y x. Se ve fcilmente que v ser una echa partiendo en a a el origen que tiene el mismo tama o y apunta hacia el mismo lado que n una echa que parta en x y termine en y. Dado sto, muchas veces e no nos molestamos en dibujar v partiendo del origen, sino que slo o dibujamos la echa de x a y.
Recta
L = Lp,d = {v
n | v = p + td, t }.
40
p +t d
L
d
td
Ejercicio 2.1: Un par de observaciones importantes: 1. Muchas posiciones denen la misma recta. Probar que, dado d n \ {0} jo, se tendr q Lp,d Lq,d = Lp,d . (Las posiciones a de una recta L son sus puntos.)
2. Muchos vectores directores denen una misma recta. Probar que, dado p n jo, se tendr Lp,d = Lp,d ( \ {0}) d = a d. (Los vectores directores de una misma recta son los m ltiplos u no nulos de un vector director dado.)
El Ejercicio 2.1.2 motiva la siguiente denicin: o Denicin 2.3 (Vectores paralelos). Sean v, w n . El vector v se o dice paralelo a w (lo que se anota v w) ssi ( \ {0}) w = v.
Usando esta denicin, el Ejercicio 2.1.2 puede ser replanteado como o d es un vector director de Lp,d d d.
Ejercicio
Ejercicio 2.2: 1. Si A n y p n , denimos la traslacin de o A en el vector p por p + A = {p + x | x A}. Mostrar que las rectas que pasan por p n son exactamente las traslaciones en p de las rectas que pasan por el origen 0.
41
paralelo
2. Sean p, q n , con p = q. Mostrar que la recta de posicin p y o vector director d = q p es la unica recta que pasa por ambos puntos, p y q.
q p
q-p
Observacin: La ecuacin o o v = p + d,
que describe los puntos (vectores) de la recta Lp,d a medida que se var se llama ecuacin vectorial de la recta Lp,d. a o
2.3.
Planos en
Sean p n y d1 , d2 n \ {0} vectores no paralelos. Apelando a nuestra intuicin en el espacio tridimensional, vemos que por p pasan las dos rectas o a distintas L1 = Lp,d1 y L2 = Lp,d2 , y ambas estn contenidas en un mismo plano .
42
L p+sd + td
1 1
p sd d
2 1
Observando la forma como los puntos de este plano se obtienen a partir de p, d1 y d2 podemos dar la siguiente denicin en n : o
Denicin 2.4 (Plano). El plano que pasa por p y tiene vectores direco tores d1 y d2 es el subconjunto de n : p,d1 ,d2 = {v Observacin: o 1. v = p + sd1 + td2 , s, t p,d1 ,d2 .
n | v = p + sd1 + td2 , s, t }
Plano
2. Sea E = d1 | d2 la matriz que tiene por columnas a los vectores directores d1 y d2 . Entonces juntando los parmetros s a s 2 y t en el vector r = , la ecuacin vectorial queda o t v = p + Er = p+ d1 | d2 s t ,r
2 , s, t
3. Notar la similitud con la ecuacin de una recta v = p+td, t . o En la recta hay un parmetro libre: t a (dimensin 1, esto se o o formalizar mas adelante) y en el plano dos: s, t (dimensin a 2 ).
Ejercicio
Ejercicio 2.3: Se deja como ejercicio para el lector probar las siguientes propiedades: 1. q p,d1 ,d2 q,d1 ,d2 = p,d1 ,d2 . (Cualquier punto de un plano sirve como su posicin.) o
43
2. Si p n , y d1 , d2 , d1 , d2 d1 no paralelo a d2 , entonces
d1
| d2
d1
| d2
3. Dado p n , todo plano que pasa por p es la traslacin en p de o un plano que pasa por el origen, y si trasladamos en p un plano cualquiera que pasa por el origen, obtenemos un plano que pasa por p. 4. Sean p, q, r tres puntos no colineales en n . Probar que si d1 = q p y d2 = r p, entonces p,d1 ,d2 es el unico plano que pasa por p, q y r.
2.4.
2.4.1.
Rectas p1 d1 . . Sean p = . n y d = . n \ {0}. Sea L = Lp,d . . . pn dn Recordemos que la ecuacin vectorial de L es v = p + td , t . Si o x1 . anotamos v = . el punto que recorre L cuando t recorre , resulta: .
xn x1 x2
= = . . .
p1 + td1 p2 + td2
xn
pn + tdn
Estas son las llamadas ecuaciones paramtricas de la recta L. (Notar que e o p1 , . . . , pn , d1 , . . . , dn son constantes en , las coordenadas de la posicin y de la direccin de L.) o Supongamos, para simplicar la notacin, que las primeras k componentes o d1 , . . . , dk de d son no nulas, y el resto todas nulas: dk+1 = dk+2 = . . . = d1 . . d.k e dn = 0, es decir d = 0 . Entonces las ecuaciones paramtricas de la . . . 0 recta L son
ecuaciones paramtricas e
44
x1
= . . .
p1 + td1
xn de L. Las ecuaciones se llaman ecuaciones Cartesianas de la recta L. Cmo o quedan las ecuaciones cuando k = 1? Ejemplos: n = 2: La ecuacin Cartesiana (notar que en este caso queda una o sola) de L = L p1 , d1 queda: ( p2 ) d2 x2 p2 x1 p1 = , si d1 , d2 = 0, d1 d2 x2 = p2 , si d2 = 0, y x1 = p1 , si d1 = 0.
Este es un sistema de n 1 ecuaciones lineales para las n incgnitas o x1 . x1 , . . . , xn , que son las componentes de un punto cualquiera v = . .
Despejando t en cada una de las primeras k ecuaciones, e igualando: x1 p1 x p x p d1 = 2d2 2 = = kdk k (= t) xk+1 = pk+1 . . . xn = pn
Constantes.
ecuaciones Cartesianas de L
d,d =0
1 2
d =0
2
d =0
1
n = 3: Una recta queda descrita por dos ecuaciones Cartesianas: x2 p2 x3 p3 x1 p1 = = d1 d2 d3 (en caso que d1 , d2 , d3 = 0. Escribir las otras posibilidades.)
45
Para simplicar el anlisis veremos slo el caso n = 3 para las ecuaa o ciones Cartesianas de planos. Sea = p,d1 ,d2 un plano en 3 , donde p1 p = p2 3 es una posicin de , y los vectores directores son los o p3 d11 d12 vectores no paralelos en 3 \ {0}, d1 = d21 y d2 = d22 . La d31 d32 ecuacin vectorial de est dada por v = p + sd1 + td2 , s, t , y deso a componindola en sus 3 componentes resultan las ecuaciones paramtricas e e de : x1 = p1 + sd11 + td12 x2 = p2 + sd21 + td22 , s, t . x3 = p3 + sd31 + td32
Pivoteando, es posible eliminar el parmetro s de dos de estas ecuaciones, a y luego tambin t de una de ellas, de modo que nos quedamos con una e ecuacin nal con slo x1 , x2 , x3 (sin s y t) de la forma Ax1 +Bx2 +Cx3 = D, o o o donde A, B, C, D , con A, B o C = 0. Esta es la llamada ecuacin Cartesiana del plano .
Observacin: Si el plano hubiese estado en n , con n 3, habr o amos obtenido un sistema de n 2 ecuaciones cartesianas para el plano. Qu pasa en el caso n = 2? Y qu puede decir de n = 1? e e Sabemos del cap tulo de Sistemas Lineales que, rec procamente, un sistema de una ecuacin y tres incgnitas, como la ecuacin Cartesiana de , tiene o o o dos variables libres (digamos x2 y x3 ) y sus soluciones son de la forma: 1 1 x1 1 x2 = 0 + x2 1 + x3 0 , x2 , x3 , 1 0 0 x3 1 1 con 1 y 0 claramente no paralelos (por qu?), as el e 0 1 conjunto de soluciones representa un plano en 3 . Tenemos entonces que o los planos en 3 son exactamente los conjuntos solucin de ecuaciones cartesianas como la que escribimos arriba para .
1 El plano 3 que pasa por el punto p = 0 y con vectores direc0 1 1 tores d1 = 1 y d2 = 0 tiene por ecuaciones paramtrie 0 1
Ejemplo:
46
2.4.2.
Planos (caso n = 3)
-1 0 1
x+x+x=1 1 2 3
1 0 0
1 -1 0
2.5.
2.5.1.
Geometra metrica en
Incorporaremos ahora a nuestro estudio conceptos como distancia entre puntos, ngulos, perpendicularidad, etc. Para ello debemos perder un poco a de generalidad y restringirnos al cuerpo = de los n meros reales. u = , los n meros complejos, u (Tambin se puede hacer todo esto con e pero esto lo postergaremos para mas adelante.)
). Sean x, y
n ,
con x =
. . .
, y=
yn n
. . .
producto punto x, y , x y
x y) como el real x, y =
i=1
xi yi = xt y = yt x 47
x1 = 1 + s t x2 = s cas , s, t de las que se puede fcilmente a x3 = t eliminar s y t para obtener la ecuacin Cartesiana x1 + x2 + x3 = 1. o Por otra parte, si partimos de esta ecuacin, despejando x1 en trmio e nos de x2 y 3 resulta x1 = 1 x2 x3 , por lo que un punto cualx x1 quiera v = x2 3 que satisfaga esta ecuacin tendr la forma o a x3 1 1 1 1 x2 x3 x1 = 0 + x2 1 + x3 0 , x2 = x2 0 0 1 x3 x3 tomando valores arbitrarios. El lector reconocer esto a con x2 , x3 como una ecuacin vectorial del mismo plano . o
n )
x, y = y, x (Simetra).
n )
n )
x, y = x, y = x, y (Bihomogeneidad). x, x = 0 x = 0 (Positividad).
x, x 0
Demostracion. La demostracin de estas propiedades quedan como ejercicioo . El n umero x1 . x = . . x, x que aparece en la propiedad 4. es x, x =
n i=1
Ejercicio
x2 , si i
x1 + x2
+ x3
x1
+x2
x2 x1 x1 + x2
2 2
x3 x2
x1 n=2
n=3
Aprovechando estos hechos, y con la esperanza de reobtener el Teorema de Pitgoras en n , para todo n, denimos a
xn
. . .
n como
x =
n i=1
x2 = i
48
n n
norma
n
x
x =
x, x
Desigualdad Triangular
Demostracion. Las demostraciones de 1 y 2 son elementales y se dejan como un ejercicio fcil para el lector. La prueba de la Desigualdad Triana gular depender del siguiente importante Lema: a Lema 1 (Desigualdad de CauchySchwartz). (x, y
n) | x, y |
Desigualdad de CauchySchwartz
y .
Demostracion. (Desigualdad de CS) Notar que si x = 0 y = 0, la desigualdad se verica trivialmente (0 0). Supondremos entonces que ambos vectores x e y son no nulos. Para x, y n \ {0} jos, consideremos 2 ahora la funcin : o denida por (t) = tx y . Claramente a u (t) 0 para todo t (y adems, si y no es un m ltiplo de x, (t) > 0 2 para todo t ). Por otra parte, (t) = tx y, tx y = x t2 2 2 x, y t + y . As es una funcin polinomial de segundo grado en t, , o 2 2 con coecientes a = x , b = 2 x, y , c = y (notar que como x = 0, la funcin es efectivamente de segundo grado, y no de un grado menor). o Como (t) 0 para todo t , sabemos que el discriminante b2 4ac ser menor o igual a 0 (a lo ms una ra real de multiplicidad 2), es decir a a z 2 2 2 4 x, y 4 x y 0, de donde x, y 2 x 2 y 2 , lo que implica la desigualdad deseada.
Observacin: Notar que si y no es m ltiplo de x, (t) > 0 para todo o u t , luego b2 4ac < 0, de donde se desprende que | x, y | < x y . De aqu que (a n en el caso x = 0 y = 0) se verica la igualdad en u CauchySchwartz ssi alguno de los dos vectores es m ltiplo del otro. u De modo similar se tiene que x, y = x y ssi alguno de los dos vectores es un mltiplo no negativo del otro. u
49
x+y
= C.Sch. =
x + y, x + y = x + 2 x, y + y 2 2 x + 2 | x, y | + y x 2+2 x y + y ( x + y )2
2
Observacin: De la observacin bajo la demostracin de la desigualo o o dad de CauchySchwartz podemos concluir que en la desigualdad triangular vale la igualdad ssi alguno de los dos vectores es m ltiplo no u negativo del otro. Usaremos ahora la norma de puntos de este conjunto.
Denicin 2.7. Sean p, q dos puntos en n . La distancia entre p y q es o el nmero real no negativo d(p, q) = q p . u Observacin: o 1. Recordando que q p se puede visualizar como el vector (echa) que va de p hasta q, resulta que d(p, q) es la longitud de esta echa, es decir, como esperar amos, la longitud del trazo recto entre p y q. 2. Podemos usar la distancia entre puntos para interpretar la desigualdad triangular. Sean p, q, r n tres puntos que forman un tringulo en n . Entonces: q p = (q r) + (r p) a q r + r p , es decir d(p, q) d(r, q) + d(p, r). En el tringulo pqr esto signica que la longitud del lado pq es infea rior o igual a la suma de los otros dos lados ( rq + pr), lo que es un viejo teorema de geometr plana. a
q p r-p q-p p
r q-r q q-p
50
n. Tenemos:
distancia d(p, q)
x-y y
x+y 0 -y
Los vectores x e y son no nulos en n , y los hemos dibujado en el plano que pasa por el origen y que los contiene. Supongamos que x es perpendicular a y (vamos a suponer que esto tiene sentido en n , y que en el plano de x, y y 0 se cumplen las propiedades usuales que conocemos de la geometr plana a del colegio). Esperamos entonces que el tringulo que tiene por vrtices x, a e y y y sea issceles en x (la altura es la echa x), y as o
xy = x+y
x y, x y = x + y, x + y x 2 2 x, y + y 2 = x 2 + 2 x, y + y 4 x, y = 0 x, y = 0.
n :
Denicin 2.8 (Perpendicularidad). Dos vectores x, y n se dicen o perpendiculares u ortogonales ssi x, y = 0. Lo anotaremos como x y.
perpendicularidad xy
Ejercicio
Ejercicio 2.4: Probar el Teorema de Pitgoras en a : Sean A, B, C n , con (BC) (CA). Si a = d(C, B) = B C , b = d(A, C) = C A y c = d(B, A) = A B son los tres lados del tringulo a ABC (tringulo rectngulo en C, con a, b los catetos y c la hipotenusa), a a entonces a2 + b2 = c2 .
c A b C a
51
El producto punto est a ntimamente ligado a la nocin de angulo entre o vectores. Recurramos nuevamente a nuestra intuicin geomtrica para ver o e algunos hechos que indican que esta armacin no es gratuita. o
Queremos usar nuestra intuicin geomtrica para descubrir una relacin o e o que nos permita denir el ngulo entre dos vectores de n . Consideremos a el diagrama siguiente:
y 0
Todo transcurre en el plano que pasa por 0 y tiene a x e y como vectores directores. El punto y es la proyeccin ortogonal del punto x sobre la o recta que pasa por 0 y tiene a y como vector director, ser el ngulo de a a la echa y a la x (si todo esto tiene sentido en n ). La cantidad y x es la distancia de x a su proyeccin. Las relaciones trigonomtricas que o e esperar amos que se cumplan dicen: cos = y = ||xy . x Nos gustar eliminar de esta frmula. Para ello notemos que como a o 2 (y x) y, entonces y x, y = 0, de donde y x, y = 0, x,y y as || = = y 2 . (El dibujo sugiere que y apunta hacia el mismo lado que y. Analizar lo que pasa si no. Notar que > en dicho caso.) Luego 2 a cos = xx,yy . Usamos esto para denir el ngulo entre vectores de n :
Denicin 2.9 (Angulo entre vectores). Sean x, y n \ {0}. Deo nimos el angulo entre x e y como aquel nmero [0, ] tal que u cos = x, y . x y
Observacin: o 1. Notar que la desigualdad de CauchySchwartz asegura que 1 x,y o x y 1, as la denicin anterior tiene sentido. 2. Esta denicin entrega de manera trivial la famosa frmula o o x, y = x y cos .
52
Situacion 2:
angulo
2.6.1.
Rectas en
2.6.
Aplicacion a Rectas en
y Planos en
.
3
2. d es ortogonal a d. 3. d
= d.
4. Si d = 0, entonces 5. Si d = 0, entonces
(v
2) [v d ( ) v = d ]. (v 2 ) [v d (t ) v = td].
2 y L = Lp,d =
vL
| v = p + td, t
. Tenemos
v = p + td, t (t ) v p = td v p d v p, d = 0.
Si llamamos n = d (o cualquier otro vector paralelo a ste), hemos concluie do que v L v p, n = 0, es decir, L = v 2 | v p, n = 0 . La ecuacin o v p, n = 0
se llama ecuacin normal de L. El vector n (es decir, d o cualquier otro o paralelo a l) se dice vector normal a L. e
53
v-p L n d p
De la ecuacin normal de L sale fcilmente una ecuacin Cartesiana. Sean o a o x1 p1 n1 . Desarrollando: yv= ,p= n= x2 p2 n2 v p, n = 0 v, n p, n = 0 n1 x1 + n2 x2 + (n1 p1 n2 p2 ) = 0, es decir ax1 + bx2 + c = 0, con a = n1 , b = n2 y c = p, n . (2.1)
Ejercicio
Ejercicio 2.5: Concluya que si (2.1) es una ecuacin Cartesiana de o b una recta de 2 , entonces un vector director de esta recta es d = a .
2.6.2.
Planos en
3 .
a Sean d1 , d2 vectores no nulos y no paralelos en 3 . Ms adelante se prueba que existe un vector n = d1 d2 3 con las propiedades: 1. n = d1 d2 |sen | = 0, con el ngulo entre d1 y d2 . a 2. n d1 n d2 . 3. (v
3) [v d1 v d2 ( ) v = n]. 4. (v 3 ) [v n (s, t ) v = sd1 + td2 ]. Con estas propiedades, sea = p,d ,d el plano en 3 que pasa por un punto p 3 y de vectores directores d1 y d2 . Entonces el lector puede demostrar fcilmente que para cualquier v 3 , v v p, n = 0. a
1 2
p,d1 ,d2
vector normal a
v p, n = 0 se llamar ecuacin normal de . a o o De modo similar al caso de rectas en 2 , la ecuacin normal conduce directamente a la ecuacin Cartesiana Ax1 + Bx2 + Cx3 + D = 0 para . o A (Donde n = B y D = p, n .)
ecuacin normal de o
d2 d1 v v-p
55
y la ecuacin o
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 4
Proposicin 2.1 o
(b)
) (x n) 1 (2 x) = (1 2 )x. ( ) (x, y n ) (x + y) = x + y. ( ) (x n ) x = 0 = 0 x = 0.
2. Pruebe que: (a) Dado d n \ {0} jo, se tendr q Lp,d Lq,d = Lp,d . (Las a posiciones de una recta L son sus puntos.) a (b) Dado p n jo, se tendr Lp,d = Lp,d ( \ {0}) d = d. (Los vectores directores de una misma recta son los m ltiplos no u nulos de un vector director dado.) (c) Si A n y p n , denimos la traslacin de A en el vector p o por p + A = {p + x | x A}. Las rectas que pasan por p n son exactamente las traslaciones en p de las rectas que pasan por el origen 0.
(d) Sean p, q n , con p = q. La recta Lp,qp es la unica recta que pasa por ambos puntos, p y q. 3. Pruebe que: (a) q p,d1 ,d2 q,d1 ,d2 = p,d1 ,d2 . (Cualquier punto de un plano sirve como su posicin.) o (b) Dado p n , todo plano que pasa por p es la traslacin en p de o un plano que pasa por el origen, y si trasladamos en p un plano cualquiera que pasa por el origen, obtenemos un plano que pasa por p. (c) Sean p, q, r tres puntos no colineales en n . Probar que si d1 = q p y d2 = r p, entonces p,d1 ,d2 es el unico plano que pasa por p, q y r. 4. Pruebe las siguientes propiedades del producto punto: (a) (x, y, x, y n ) x + x, y = x, y + x, y x, y + x, y (Biaditividad). (b) ( R) (x, y (c) (x
Ejercicio 2.3
Proposicin 2.2 o
x, y + y =
n )
x, y = x, y = x, y (Bihomogeneidad). x, x = 0 x = 0 (Positividad). = 0 x = 0.
) x, x 0
Proposicin 2.3 o
(b)
n ) x 0 x ( ) (x n ) x
= || x .
56
Ejercicios
traslacin o
2 1 2
,Q =
0 1 1
yR=
1 1 5
Verique que son puntos no colineales y encuentre la ecuacin o vectorial (o paramtrica) y Cartesiana del plano 1 que los cone tiene. (b) Dadas las rectas L1 y L2 denidas por 1 1 3x + y + 4 = 0 y L2 : . L1 : 1 + t 3 , t z+5=0 1 0
Verique que L1 y L2 son paralelas y distintas y ecuentre la ecuacin vectorial (o paramtrica) y Cartesiana del plano 2 que las o e contiene. (c) Encuentre la ecuacin vectorial de la recta L que se obtiene como o la interseccin de los plano 1 y 2 (L = 1 2 ). o (d) Encuentre el punto S de interseccin de las rectas L1 y L, y verio que que S satisface la ecuacin Cartesiana del plano 1 . o 2 2 L2 : 4 + s 1 , s 6 5
1 2 3
4 0 4
(b) Sea el plano con vectores directores d1 = que pasa por el punto P =
1 b 0 a
y d2 =
director d = que pasa por el punto Q = 0 , donde a, b 0 Encuentre los valores de los parmetros a, b tales que a L est contenida en (L ), e L y no tengan puntos en com n (L = ). y u L contenga exactamente un solo punto.
1
P3. Sean 1 el plano de ecuacin x + y + 2z = 1, 2 el plano de ecuacin o o 0 x + y = 2 y L1 la recta que pasa por el punto P1 = 1 y cuya direccin es D1 = o
1 0 0
(a) Encuentre la ecuacin de la recta L2 , que se obtiene como la o interseccin de los planos 1 y 2 . Entregue un vector director o de dicha recta. (b) Encuentre el punto P2 de interseccin de la recta L1 y 1 . o (c) Calcular el punto P3 de interseccin de L2 con el plano perpendio cular a L2 que pasa por el punto P2 . (d) Encuentre la ecuacin paramtrica o vectorial de la recta conteo e nida en 2 que pasa por el punto P3 y es perpendicular a L2 .
57
Problemas
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
SEMANA 5: GEOMETRA I
2.7.
Utilizaremos la siguiente notacin, ya tradicional en las aplicaciones de la o geometr vectorial. Sean i, j, k 3 los siguientes vectores: a 1 0 0 i = 0 , j = 1 , k = 0 . 0 0 1
Las siguientes armaciones son evidentes: 1. i = j = k =1 (Estos vectores se dicen unitarios.) (Son ortogonales entre s .)
2. i j j k k i 3. x =
x1 x2 x3
decir, si x1 i + x2 j + x3 k = y1 i + y2 j + y3 k, entonces x1 = y1 x2 = y2 x3 = y3 . Observacin: Las propiedades 1. y 2. se abrevian diciendo que o i, j, k es un conjunto ortonormal en 3 .
xk
3
k i xi
1
x x= x x j xj
2
1 2 3
Mas adelante en el curso deniremos la nocin de determinante, pero ahora o consideraremos la siguiente a b Notacin: Si a, b, c, d , anotamos o = ad bc . c d Con esto podemos dar la denicin: o
b b k i, j, b
b d
58
xy =
i x1 y1
j x2 y2
k x3 y3
x2 y2
x3 y3
x1 y1
x3 y3
j+
x1 y1
x2 y2
k.
(Obviamente, esta ultima frmula no es muy fcil de recordar, y es preferible o a usar la notacin de la denicin dada primero, cuya operatoria est ah miso o a mo denida, para memorizar y calcular x y.) Hemos as denido una ley de composicin interna en 3 : o :
x2 y3 x3 y2 x y = x3 y1 x1 y3 x1 y2 x2 y1
3 :
Denicin 2.10 (Producto cruz). Si x = x2 , y = y2 3 , o y3 x3 denimos el producto cruz o producto vectorial de x e y como el siguiente vector de 3 :
x1
y1
Producto cruz
xy
3.
3 3
(x, y)
3 . x y
3 x y x x y y. x, y 3 x y = y x ( es anticonmutativo). x, y, z 3 x (y + z) = x y + x z (x+ y) z = x z+ y z 3 3
(
x x = 0.
Demostracion. La demostracin de estas propiedades bsicas quedan o a propuestas como ejercicio. Notemos que con 2, 3, 4 y 5, ms el simple clculo de a a i j = k, j k = i, k i = j, se puede recuperar la frmula con que denimos originalmente el producto o cruz: xy = = = = (x1 i + x2 j + x3 k) (y1 i + y2 i + y3 k) x1 y1 i i+x1 y2 i j+x1 y3 i k+x2 y1 j i+x2 y2 j j+x2 y3 j k +x3 y1 k i+x3 y2 k j+x3 y3 k k 0 + x1 y2 k + x1 y3 (j) + x2 y1 (k) + 0 + x2 y3 i + x3 y1 j + x3 y2 (i) + 0 (x2 y3 x3 y2 )i + (x3 y1 x1 y3 )j + (x1 y2 x2 y1 )k. 59
Ejercicio
(x y) z = x, z y y, z x
(2.2)
Notar que el producto cruz no es conmutativo (pero tiene la propiedad parecida 2) y que desgraciadamente tampoco es asociativo. Para ilustrar cun lejos est de serlo, est la llamada Identidad de Jacobi, que se puede a a a probar fcilmente a partir de la propiedad anterior: a x, y, z
Identidad de Jacobi
x (y z) + y (z x) + z (x y) = 0
(2.3)
Notemos que usando 2.3 y las propiedades anteriores resulta: x (y z) (x y) z = y (x z), lo que indica que x (y z) no tiene por qu ser igual a (x y) z. e Veamos mas propiedades de : Proposicin 2.5. o x, y
3 \ {0}
xy = x
y |sen | ,
donde es el angulo entre x e y. Demostracion. Esto saldr de la siguiente identidad, la que pedimos al a lector que tenga la paciencia de vericar (es un clculo simple pero tedioso): a x, y
x, y
+ xy
= x
. y cos(),
Una vez establecida esta identidad, y recordando que x, y = x resulta: 2 2 2 2 xy = x y x, y 2 2 = x y ( x y cos())2 = x 2 y 2 (1 cos2 ()) = x 2 y 2 sen2 ().
La siguiente propiedad muestra que el producto cruz representa a la direccin ortogonal a los vectores participantes. o Proposicin 2.6. Sean x, y o Entonces
1. z x z y = ( 2. z x y = (s, t
) z = sx + ty.
60
La siguiente es una frmula para el producto cruz de 3 vectores. Su demoso tracin es un simple clculo que omitimos. o a
Ejercicio
Ejercicio 2.6: El objetivo de este ejercicio es probar la Proposicin 2. o 1. Sean x, y, z 3 tres vectores no coplanares con el origen, es decir, que no existe un plano que pasa por el origen y que contiene a los tres vectores x, y y z. Pruebe que esto equivale a: (s, t
x y z
= 0 + sy + tz = 0 + sx + tz = 0 + sx + ty
) x + y + z = 0 = = = = 0.
(2.4)
3. Sea A M33 ( ) la matriz descrita por columnas como A = x | y | z . Pruebe que la propiedad 2.9 equivale a que el sistema homogneo A = 0 tiene como solucin unica e o 0, es decir, A es invertible.
4. Concluya que tres vectores x, y, z 3 no son coplanares con el origen ssi la matriz A = x | y | z es invertible. 5. Considere ahora x e y no nulos y no paralelos. Pruebe que los vectores x, y y x y = 0 son no coplanares con el origen. Indicacin: Verique la condicin 2.9. o o 6. Use la conclusin de la parte 2c para probar que o z
(s, t,
) z = sx + ty + x y.
(2.5)
Observacin: La interpretacin geomtrica del resultado anterior es: o o e Si x, y son vectores no nulos y no paralelos en 3 , x y dene la lnea recta (que pasa por 0) de vectores perpendiculares a x y a y. Por otra parte los vectores perpendiculares a x y son exactamente aquellos del plano que pasa por el origen y tiene a x e y como vectores directores.
61
x y y
0,x,y
L 0,x
Un par de propiedades geomtricas ms de : e a Proposicin 2.7. o 1. Sean x, y 3 \ {0} vectores no paralelos. Entonces el area del paralelgramo que denen es x y . o 2. Sean x, y, z 3 \ {0} vectores no coplanares con 0. Entonces el volumen del paraleleppedo que denen es | x y, z |. Demostracion. (Deberemos conar en los conceptos intuitivos de area y volumen que traemos de la geometr escolar). a
y h 0 x
x y
z H y
1. El rea del paralelgramo es dos veces el rea del tringulo cuyos a o a a 1 1 vrtices son x, y y 0. As Area = 2 2 base altura = 2 2 e , 1 x h, con h = y sen . De aqu que Area = 2 2 x y sen = x y sen = x y . 2. De la geometr de colegio, el volumen del paralelep a pedo se calcula como el producto del rea de su base y su altura. De la parte (a), el a a rea de la base es x y . Por otra parte la altura H es la proyeccin o de z sobre la direccin perpendicular al plano de x e y, con lo que o H = z cos(), donde es el ngulo entre x y y z. Se obtiene a nalmente entonces que Vol = x y z cos() = | x y, z |. 62
Una ultima propiedad del producto cruz que es necesario indicar es la lla mada regla de la mano derecha. De x y conocemos que apunta en la l nea perpendicular al plano de x e y, y que tiene por norma x y sen , con el ngulo entre x e y. a Estos datos nos dejan a n dos opciones posibles para x y: hacia un lado u del plano de x e y o hacia el otro. La verdad es que hacia cul de estos a dos lados se dibuja depende de cmo dibujamos los vectores ortonormales o i, j, k (es decir, de cmo dibujamos los tres ejes de coordenadas de 3 ). o Generalmente se conviene en dibujarlos de modo que si en el plano de i, j (el plano x1 x2 ) hacemos los dedos de la mano derecha girar rotando de i hacia j, k apunta en la misma direccin del pulgar. o
Con esta convencin resulta tambin que, si x, y 3 \{0} son no paralelos o e y hacemos girar los dedos de la mano derecha en el plano denido por x e y, desde x hacia y, el pulgar apunta en la direccin de x y. o
x x y y y
x y
Hay que indicar, sin embargo, que si alguien preriese dibujar los ejes como:
x1 x2
i k
x3
entonces los productos cruz cumplir una regla de la mano izquierda. an Nosotros seguiremos la convencin universalmente aceptada, dibujando los o ejes del primer modo que mencionamos, y nuestros productos cruz se dibujarn siempre seg n la regla de la mano derecha. a u
63
Denicin 2.11 (Distancia puntoconjunto). Sea A n un subcono junto no vaco de n , y sea q n un punto. Denimos la distancia de q al conjunto A como:
d(q, A) = nf {d(q, x) | x A} .
x y
d(q,x) d(q,y)
A
z
d(q,A)
d(q,z)
Ejercicio
Cabe notar que no tiene por qu existir un punto r A tal que d(q, A) = e d(q, r), y si tal r llega a existir, no tiene por qu ser unico (Construir e ejemplos de estas armaciones!).
Supongamos que existe un punto r L tal que q r es perpendicular a L. Armamos (como nuestra intuicin geomtrica lo indica) que d(q, L) = o e d(q, r). Probemos algo mejor: (z L) z = r q z > q r ,
de donde la distancia de q a L se alcanza en un unico punto r. En efecto, si z L, como qr es normal a L, el tringulo cuyos vrtices son a e z, r y q es rectngulo en r, y por Pitgoras (recuerde que usted demostr en a a o 2 2 2 el Ejercicio 2.4 que es vlido en n ) q z = q r + r z . Como a 2 z = r, entonces r z > 0, y eso prueba la desigualdad.
r z q
64
2.8.
d(q, A)
w = | y, x | x = y
|cos()| = y cos(),
donde es el ngulo entre x e y (que lo supondremos en 0, para no a 2 preocuparnos del signo de cos(). Si este no es el caso, podemos usar x en lugar de x como vector director de L.) Este vector w es lo que llamaremos proyeccin del vector y sobre la direco cin denida por el vector x. Notar que si en vez de x usamos otro vector o director x de L, resulta exactamente el mismo vector w. x r w u p q y = q-p Sea u = y w = y y, x x. Nuestra intuicin nos har esperar que o a u x. Veriquemos que eso es correcto: u, x = y y, x x, x = y, x y, x x, x = y, x y, de donde u x. Basta tomar ahora r = p + w =p + y, x x, es decir r = p + q p, x x, que tiene la propiedad deseada pues q r = q p w = y w = u x, luego q r L. Denicin 2.12 (Proyeccin ortogonal sobre una recta). Llamamos o o proyeccin ortogonal del punto q n sobre la recta L n , al punto o r L tal que q r L. 1 x x x = 0,
Acabamos de probar que dicha proyeccin r existe y es el unico punto de L o que minimiza la distancia a q, y dimos adems una frmula para calcular a o esta proyeccin en trminos de q, la posicin p de L y su vector director x. o e o Como segundo ejemplo, vamos a estudiar ahora en detalle el caso en que n = 3 y A es un plano 3 .
Ejercicio
Ejercicio 2.8: Desarrollar de manera similar, en paralelo, el caso en que n = 2 y A es una recta en 2 . Notar que ese problema es un caso particular del que se resolvi antes, pero la solucin va por otro camino, o o usando ecuaciones normales en vez de vectores directores.
65
Veremos ahora que tal r L efectivamente existe. 1 o Sea x = x x (vector unitario en la direccin de x: claramente x = 1). Sea y = q p el vector que conecta p con q, y sea w = y, x x. Notar que w apunta en la misma l nea que x, y que
Denicin 2.13 (Proyeccin ortogonal sobre un plano). Llamamos o o proyeccin ortogonal del punto q 3 sobre el plano 3 , al punto o r tal que q r .
Sabemos que dicho r es el unico punto de que minimiza la distancia a q. Lo que no hemos probado a n es que tal punto r realmente existe, y a eso u nos dedicaremos ahora. Sea n un vector normal a (por ejemplo, si = p,d1 ,d2 , n se puede tomar como d1 d2 , o si tenemos una ecuacin Cartesiana Ax1 +Bx2 +Cx3 +D = 0 o A para , n se puede tomar como B ). La recta L que pasa por q y es C perpendicular a tiene entonces por ecuacin vectorial: o v = q + tn, t
(2.6)
Buscamos L , es decir, los v 3 que satisfacen simultaneamente (2.6) y (2.7). Pero esto es fcil de resolver. En efecto, (2.7) equivale a v, n = a p, n , y usando (2.6), obtenemos q + tn, n = p, n q, n + t n
2
Sea p un punto (jo) cualquiera de . Podemos entonces escribir la ecuacin o normal de : v p, n = 0. (2.7)
= p, n t =
p q, n n
2
Una vez que tenemos la incgnita real t despejada, en (2.6) resulta o r=v=q+ p q, n n
2
(2.8)
66
Sea L la recta que pasa por q y que es perpendicular a (es decir, que tiene por vector director un vector normal a ). Veremos en un momento que la interseccin entre y L consiste en un solo punto r. Nuestra ino tuicin geomtrica indica que d(q, ) = d(q, r), y la demostracin de este o e o hecho sigue exactamente las mismas lineas de lo que hicimos al estudiar la proyeccin de un punto sobre una recta en n . (Se prueba la desigualdad o (z ) z = r q z > q r , etc.)
recorre . Manipulando esta ecuacin normal se obtiene v, n p, n = o 0, Ax1 + Bx2 + Cx3 p, n = 0, y por comparacin con la ecuacin o o o cartesiana de , deber tenerse que p, n = D. a Como q, n = Aq1 + Bq2 + Cq3 , entonces | p q, n | = | q, n p, n | = |Aq1 + Bq2 + Cq3 + D| . El resultado se sigue del clculo de n . a Cabe notar que hay otra manera, tal vez un poco menos eciente, de calcular la proyeccin de q sobre , usando una ecuacin vectorial para en vez o o de la normal: v = p + d1 + d2 , , . Esto, junto a v = p + td1 d2 que es la ecuacin vectorial de L, entrega el sistema lineal p + d1 + d2 = o = q p. Como d1 y q + td1 d2 , o mejor d1 | d2 | d1 d2 t d2 son no nulos y no paralelos, d1 , d2 y d1 d2 no son coplanares con el origen, y entonces esta ecuacin tiene una solucin unica para , y t, lo o o que entrega la proyeccin r = v. o
es un punto que
Una tercera manera de proceder, tambin algo mas larga que la primera, e es utilizar la frmula r = p + d1 + d2 (que no dice ms que el hecho de o a que la proyeccin r satisface la ecuacin vectorial de pues es un elemento o o de este plano) y recordar que r q , es decir, r q d1 r q d2 . d1 , p q + d1 + d2 = 0 , o, Se obtiene el sistema de ecuaciones d2 , p q + d1 + d2 = 0 en su forma matricial: d1 , d1 d2 , d1 d1 , d2 d2 , d2 = d1 , q p d2 , q p .
d1 , d1 d1 , d2 d2 , d1 d2 , d2 es invertible, luego el sistema anterior tiene una solucin unica para y , o lo que entrega la proyeccin r. o Se puede probar que d1 no es paralelo a d2 ssi la matriz
67
como unica solucin de (2.6) y (2.7). o Hemos de paso encontrado una frmula (2.8) para la calcular la proyeccin o o de q sobre en trminos de un punto p de y un vector normal n a e . Podemos tambin calcular la distancia de q a : d(q, ) = d(q, r) = e | pq,n | . De aqu sale una famosa frmula para la distancia de o rq = n a o un punto a un plano en 3 . Supongamos que est descrito por la ecuacin q1 q2 . Entonces Cartesiana Ax1 + Bx2 + Cx3 + D = 0, y q = q
Observacin: o 1. Notemos que la frmula (2.8) era fcil de adivinar, pues si n = o a 1 n es el vector unitario en la direccin de n, (2.8) se puede o n escribir como r = q + p q, n n
q p-q n r p <p-q,n>n
y recordando que p q, n n es la proyeccin (como vector) de o p q en la direccin de n, el punto q + p q, n n deber ser o a el lugar donde la recta que parte de q y va en la direccin de n o encuentra al plano . 2. En muchos problemas se puede argumentar de manera similar a la observacin 1) (es decir, proyectando sobre una recta vectores que o conectan un par de puntos dados, etc.) para llegar rpidamente a a una respuesta.
68
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 5
(b) x, y (c)
es decir, si x1 i + x2 j + x3 k = y1 i + y2 j + y3 k, entonces x1 = y1 x2 = y2 x3 = y3 .
(e) x, y, z
(x y) z = x, z y y, z x.
Ejercicio 2.6
Para ello: (a) Sean x, y, z 3 tres vectores no coplanares con el origen, es decir, que no existe un plano que pasa por el origen y que contiene a los tres vectores x, y y z. Pruebe que esto equivale a: (s, t
x y z
= 0 + sy + tz = 0 + sx + tz = 0 + sx + ty
) x + y + z = 0 = = = = 0.
(2.9) | z .
(c) Sea A M33 ( ) la matriz descrita por columnas como A = x | y Pruebe que la propiedad 2.9 equivale a que el sistema homogneo e A = 0 tiene como solucin unica = 0, es decir, A es invero tible. (d) Concluya que tres vectores x, y, z origen ssi la matriz A = x | y |
(e) Considere ahora x e y no nulos y no paralelos. Pruebe que los vectores x, y y x y = 0 son no coplanares con el origen. Indicacin: Verique la condicin 2.9. o o
69
Ejercicios
(s, t,
) z = sx + ty + x y.
(2.10)
(g) Pruebe, usando la propiedad 2.10, la proposicin original. o 3. Estudiar la proyeccin ortogonal de un punto q o L 2 , usando ecuaciones normales.
Ejercicio 2.8
Problemas
P1. Se denen las rectas 1 1 L1 : 2 + t 2 , t 1 2
3 0 L2 : 1 + s 1 , s 1 2
(b) Encuentre laecuacin normal del plano que contiene a la recta o L1 y es paralelo a L2 . 3 (c) El punto P = 1 pertenece a L2 . Encuentre la proyeccin o 1 ortogonal de P sobre el plano de la parte (b). (d) D la ecuacin del plano paralelo a que est a la misma distancia e o a de L1 y L2 ( es el plano de la parte (b)). P2. (a) Sean P y Q puntos distintos en 3 . Demuestre que el conjunto A = {x 3 : ||x P || = ||x Q||} es un plano. Encuentre un punto que pertenezca a A y encuentre un vector normal al plano A.
(b) En
(1) Demuestre que L1 y L2 se intersectan y encuentre la interseccin. o (2) Encuentre el sistema de ecuaciones cartesianas que represen 1 tan a la recta L que pasa por P = 1 y que es perpendi1 cular al plano que contiene a L1 y L2 . (3) Determine las ecuaciones de los planos que son paralelos al plano que contiene a L1 y L2 , y que se encuentra a distancia 1 del punto en que L1 y L2 se intersectan.
0 1 L1 : 5 + t 3 , t 1 2
1 2 L2 : 2 + s 4 , s 3 1
70
o (b) Sea el plano de 3 de ecuacin cartesiana x + z + y = 1 y sea P e el origen en 3 . Calcular el punto Q 3 simtrico de P , con respecto a .
71
P3. (a) Sean L1 3 el eje las x y L2 3 larecta que pasa por los de 1 1 puntos 2 y 3 . Encuentre una tercera recta L3 3 que 0 1 sea perpendicular a L1 y a L2 , y que adems intersecte estas dos a rectas.
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
3.
3.1.
Espacios vectoriales
Denicion
Las estructuras que hasta ahora se han estudiado estn dotadas de operaa ciones que actuan internamente sobre el conjunto donde estn denidas. Es a decir, a un par de elementos del conjunto, se le asocia otro elemento del mismo conjunto. Veremos ahora un tipo diferente de estructura algebraica, donde la multiplicacin actua sobre un par de elementos de conjuntos o distintos. Esta estructura que estudiaremos est inspirada en la estructura a lineal de n . Para ello consideremos (V, +) un grupo Abeliano, es decir
+ es ley de composicin interna o + es asociativa y conmutativa. Existe un neutro, 0 V , tal que: x V, x + 0 = 0 + x = x. x V , existe un inverso aditivo, x V , tal que x + (x) = (x) + x = 0. Sea
Denicin 3.1 (Espacio vectorial). Dado un grupo abeliano (V, +) y o un cuerpo ( , +, ), con una ley de composicin externa. Diremos que V es o un espacio vectorial sobre si y slo si la ley de composicin externa o o satisface , K, x, y V :
Espacio vectorial
. En tal caso, los elementos de V se denominan vectores y los de , escalares.(EV4) 1 x = x, donde 1 es el neutro multiplicativo del cuerpo Observacin: Se alemos que en la denicin anterior participan dos o n o estructuras algebraicas diferentes; un grupo Abeliano, (V, +), y un cuero po, . En tal sentido, dos espacios vectoriales son iguales si y slo si ambos estn denidos sobre los mismos grupos y cuerpos y, adems a a con una ley de composicin externa idntica. o e
72
vectores
escalares
n es un espacio vectorial
2. Sea (Mmn ( ), +) el grupo Abeliano de las matrices de m las y n columnas con elementos en . Denamos la ley de composicin o externa: Mmn ( ) Mmn ( )
(, A) A = (aij )
Es fcil vericar que se cumplen las propiedades (EV1) a (EV4). a Por ejemplo: b11 . . . b1n a11 . . . a1n . + . . . (A + B) = . . am1 . . . amn bm1 . . . bmn
(a + b ) . . . (a + b ) a11 + b11 . . . a1n + b1n 11 11 1n 1n . . . . = . . . . = . . . . am1 + bm1 . . . amn + bmn (am1 + bm1 ) . . . (amn + bmn )
3. Sea Pn ( ) el conjunto de los polinomios de grado menor o igual a n, con la suma de funciones reales y la multiplicacin por escalar o denida por: p, q Pn ( ), (p + q)(x) = p(x) + q(x)
o bien, si p(x) =
(p)(x) = p(x)
n i=0
n i=0
ai xi , q(x) =
n
bi xi
n
(p + q)(x) =
i=0
(ai + bi )xi ,
(p)(x) =
i=0
(ai )xi .
Es directo vericar que Pn ( ) es espacio vectorial sobre . Adems, a a a Pn ( ) F( , ), lo cual, nos llevar ms adelante, a denir la nocin de subespacio vectorial. o
73
Ejemplos:
(, v) v
donde es la multiplicacin en el cuerpo . Como es cuerpo, o se verican las propiedades . Conclu mos entonces que todo cuerpo, , es espacio vectorial sobre si mismo. Dos ejemplos importantes son y .
5. Sea el grupo Abeliano ( , +) con la ley de composicin externa: o (, a + bi) (a + bi) = a + bi Es claro que es un espacio vectorial sobre pero no es el mismo espacio vectorial denido sobre . Es decir, el espacio vectorial sobre es distinto al espacio vectorial sobre , pues los cuerpos sobre los cuales estn denidos son diferentes. a
Ejercicio
. Probar que:
3.2.
Subespacios vectoriales
Denicin 3.2 (Subespacio vectorial). Sea un espacio vectorial V soo bre un cuerpo . Diremos que U = , es un subespacio vectorial (s.e.v) de V si y slo si: o
1. u, v U, u + v U Es decir, ambas operaciones, la interna y la externa, son cerradas en U . La siguiente proposicin nos entrega una forma ms compacta de caracteo a rizar a un s.e.v. Proposicin 3.1. Sea un espacio vectorial V sobre un cuerpo o es subespacio vectorial (s.e.v) de V si y slo si: o 1 , 2 2.
, u U,
u U.
. U = ,
, u1, u2 U,
74
1 u1 + 2 u2 U.
4. Tomemos ahora un cuerpo ( , +, ) arbitrario. Claramente ( , +) es un grupo Abeliano. Adems, denamos la ley de composicin: a o
Observacin: Si U es un s.e.v. de V entonces 0 U (basta tomar o = 0). Luego el subespacio vectorial ms peque o de V es {0}. El ms a n a grande es, obviamente, V . Ejemplos: 1. El conjunto de los polinomios de grado menor o igual a n, Pn ( ), es subespacio de F( , ).
2. En
1 (x1 , y1 ) + 2 (x2 , y2 ) = (1 x1 + 2 x2 , 1 y1 + 2 y2 ) Adems, a(1 x1 +2 x2 )+b(1 y1 +2 y2 ) = 1 (ax1 +by1 )+2 (ax2 + a by2 ) = 1 0 + 2 0 = 0. Es decir, 1 (x1 , y1 ) + 2 (x2 , y2 ) U . El subespacio vectorial U est compuesto de todos los vectores de a 2 contenidos en la recta ax+by = 0. Es claro que, dado un vector (x, y) de dicha recta, (x, y), est en la misma recta as como la a suma de dos vectores sobre ella. De esto conclu mos que cualquiera recta que pasa por el origen es un s.e.v. de 2 .
Supongamos ahora que, dado un espacio vectorial V sobre un cuerpo tienen U, W s.e.v. de V . Es directo que U W es tambin s.e.v de V. e
, se
En efecto, si x, y U W, 1 , 2 K, entonces como U, W son s.e.v. de V , 1 x + 2 y U y 1 x + 2 y W . Sin embargo, la unin no es necesariamente un s.e.v de V . o Ejemplo: Tomemos U = {(x, y) 2 /x y = 0}, W = {(x, y) 2 /y 2x = 0}. Es claro que ambos son s.e.v de 2 . Sin embargo, (1, 1) U, (1, 2) W pero (1, 1) + (1, 2) = (2, 3) U W , luego no es s.e.v. (graque para / cerciorarse).
U W es s.e.v.
75
Demostracion. En efecto, si se verica la primera denicin entonces, o de la propiedad 2, 1 u1 U y 2 u2 U . De la propiedad 1 se concluye 1 u1 + 2 u2 U . En el otro sentido, basta tomar 1 = 2 = 1 para vericar la primera propiedad y 2 = 0 para vericar la segunda.
3.3.
Combinaciones lineales
Sea V un espacio vectorial sobre un cuerpo , y una coleccin de vectores o v1 , v2 , ..., vn V , y de escalares 1 , ..., n K. Denominamos combinacin lineal a la suma ponderada de estos vectores: o
n
combinacin lineal o
i vi = 1 v1 + ... + n vn
i=1 n
i vi V .
Dado un conjunto jo, v1 , ..., vn V de vectores, denimos el conjunto de todas sus combinaciones lineales como sigue:
n
{v1 , ..., vn }
{v1 , ..., vn } = {v V /v =
i=1
i vi , i
}.
Proposicin 3.2. Sean V e.v. y v1 , ..., vn V . Entonces {v1 , . . . , vn } es o un subespacio vectorial de V . Adems es el s.e.v. ms pequeo que contiea a n ne los vectores v1 , . . . , vn . Es decir, si otro s.e.v U los contiene, entonces {v1 , . . . , vn } U . Por ende, {v1 , . . . , vn } es llamado subespacio vectorial generado por {vi }n . i=1 Demostracion. Para probar que es un subespacio vectorial de V , sean
n n
i vi , v =
i=1 i=1
vi , i
Para probar que es el ms peque o, basta notar que como U es s.e.v. de V a n y contiene el conjunto {vi }n , entonces contiene todas sus combinaciones i=1 lineales. Ejemplo:
Tomemos v = (1, 1) 2 , el subespacio {v} = {(1, 1)/ } corresponde a la recta que pasa por el or gen con direccin dada por el vector o (1,1). Sean v1 = (1, 0), v2 = (0, 1), {v1 , v2 } = {(0, 1) + (1, 0) | , En efecto, dado un vector arbitrario (a, b) como (a, b) = a(1, 0) + b(0, 1). 76
} = 2.
Esta constatacin nos llevar, ms adelante, a denir una operacin eno a a o tre espacios vectoriales (la suma) tal que podamos hablar de uniones compatibles con la estructura de espacio vectorial.
Denicin 3.3. Sea {vi }n V , diremos que estos vectores son linealo i=1 mente dependientes (.d.) si y solo si: existen escalares {1 , ..., n }, no
n n
i vi =
0 i = 0 i = 1, ..., n, diremos que el conjunto de vectores {vi }n es i=1 linealmente independiente (.i.). Ejemplos: {(1, 1), (2, 2)} es un conjunto linealmente dependiente: 2(1, 1) + (2, 2) = (0, 0). Dado un espacio vectorial arbitrario V sobre dependiente pues: 0 = 0.
i=1
i=1
, {0} es linealmente
En general, cualquier conjunto de vectores, {vi }n que contenga i=1 0 V es linealmente dependiente. Basta tomar la combinacin o 0v1 + 0v2 + . + 0vn + 1 0 = 0, con escalares no todos nulos. De manera similar a lo anterior es fcil vericar que un conjunto depena diente sigue manteniendo esta propiedad al agregarle vectores. Adems, a un conjunto independiente, mantiene la independencia al extraerle vectores. En efecto, sea {vi }p V un conjunto de vectores .d, entonces existe una i=1 combinacin lineal nula con escalares no todos nulos: o
p
i vi = 0.
i=1
o Luego v V, {v} {vi }p es .d., ya que basta tomar la combinacin i=1 lineal:
n
0v +
i=1
i vi = 0.
Supongamos, ahora que el conjunto {vi }p es .i., es directo de la de la i=1 denicin que al sacar un vector, vk , el conjunto {vi }p \ {vk } es .i. o i=1 Ejemplos: 1. El conjunto {(1, 1, 1), (0, 1, 1), (1, 0, 0)} 3 es .d. En efecto, (1, 1, 1) = (0, 1, 1) + (1, 0, 0), es decir (1, 1, 1) (0, 1, 1) (1, 0, 0) = (0, 0, 0) donde 1 = 1, 2 = 1, 3 = 1. 2. En el espacio vectorial 4 ( ), los polinomios 1, x son .i En efecto, tomemos una combinacin lineal nula 1+x = 0, pero si = 0 se o tendr que + x es un polinomio de grado 1, luego tiene a lo ms a a una ra y el polinomio 0 tiene innitas ra z ces, luego = = 0. 77
3.4.
1 (1, 1, 0, 1)+2 (1, 0, 1, 0)+3 (0, 0, 1, 1)+4 (0, 1, 1, 0) = (0, 0, 0, 0) es equivalente al sistema de 4 4: 1 + 2 = 0 1 + 4 = 0 2 + 3 + 4 = 0 1 + 3 = 0 en trminos matriciales e 1 1 1 0 0 1 1 0 1 1 0 1 1 0 1 0 0 0 1 1 0 1 1 0 0 1 0 1 2 0 = 1 3 0 0 4 0 0 1 1 0 0 1 1 0 0 0 0 1 0 1 0 0 0 1 2 0 0 0 1 1 0 0 0 0
0 0 1 1
1 1 0 0 0 1 0 1 0 0 1 2 0 0 0 3
0 0 1 = 2 = 3 = 4 = 0. 0 0
En general en n , dado un conjunto de m vectores {v1 , ..., vm }, donde vi = (v1i , ..., vni ), i = 1, ..., m, podemos estudiar su dependencia o independencia lineal a travs de un sistema de n ecuaciones y m incgnitas. En efecto: e o 1 v1 + ... + m vm = 0 0 v11 v12 v1m . v21 v v . . + 2 22 + ... + m 2m = . 1 . . . . . . . . . . . vn1 vn2 vnm 0 v11 v21 . . . v12 v22 . . . vn2 v1m v2m . . . 78 0 1 . 2 . . . =. . . . . m 0
m.
vn1
vnm
Deniendo M = (vij ) Mnm ( ) (es decir poniendo los vectores originales o como columnas) y m como el vector de incgnitas, se tiene que para analizar la dependencia o independencia lineal basta estudiar las soluciones del sistema M = 0. Si existe = 0 que satisface el sistema, entonces el conjunto de vectores {vi }m es .d., en caso contrario es .i.. Ms a n, sabemos que si m > n el a u i=1 sistema tiene ms de una solucin, en particular una no nula luego {vi }m a o i=1 es .d.. As se ha probado:
Observacin: Conviene se alar que en n siempre es posible detero n minar n vectores independientes. Basta tomar el conjunto {ei }n , ei = i=1 (0, ..., 1, ..., 0), donde la componente no nula es la i-sima. e
79
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 6
Ejercicio 3.1
2. Determinar cules de las siguientes estructuras son espacios vectoriales: a (a) (b) (c) (d) (e)
3. Sea Pn ( ) el conjunto de los polinomios de grado menor o igual a n, con la suma de funciones reales y la multiplicacin por escalar denida o por: p, q Pn ( ), (p + q)(x) = p(x) + q(x) , (p)(x) = p(x). Pruebe que Pn ( ) es espacio vectorial sobre
4. Indique cules de los siguientes conjuntos son s.e.v. de P2 ( ) (considea rado como en la parte anterior) y cules no lo son. Pruebe su respuesta. a (a) (b) (c) (d) (e) U U U U U = {p(x) = a(x2 + x + 1) | a }. = {p(x) = ax2 + bx + b) | a, b }. = {p(x) = x2 + ax + b | a, b }. = {p(x) = ax2 + b | a, b }. = {p(x) = ax2 + b2 x + x + c | a, b, c
\ {0}}.
5. Determine la dependencia o independencia lineal de cada uno de los siguientes conjuntos de vectores: (a)
3 1 0 2
(b) x + 1, x 1, x + x + 1 P2 ( ). (c) {( 1 0 ) , ( 1 1 ) , ( 1 1 ) , ( 1 1 )} M22 ( ) 00 00 1 0 11 6. (a) Sean a, b, c tres vectores de un espacio vectorial V . Determine si el conjunto {a + b, b + c, c + a} es un conjunto l.i. (b) Sea {u1 , u2 , . . . , uk } un subconjunto l.i. de un espacio vectorial V . Pruebe que escalar, el conjunto: {u1 + u2 , u3 , . . . , uk } es l.i. 80
4 6 5 2
7 5 5 2
3.
Ejercicios
P1. Sea P3 ( ) el conjunto de polinomios de grado menor o igual a 3 con coecientes reales. Sean p1 , p2 , p3 P3 ( ) tales que
p1 (x) = 1 + 6x2 ,
p2 (x) = 4x,
p3 (x) = 1 + 3 + 5x2 .
(1) T (0E ) = 0F . En donde 0E y 0F son los neutros aditivos en cada e.v. (2) x E, Considere T (E) = {y F | y = T (x), x E}. (a) Muestre que T (E) es un s.e.v. de F . (b) Suponga adems que T satisface que: a x E, T (x) = 0 x = 0. Muestre que si {u1 , . . . , un } E es l.i., entonces {T (u1), . . . , T (un )} F es l.i. P3. Sean E y F espacios vectoriales sobre el mismo cuerpo
: T (x) = T (x).
(b) Pruebe que E {0F } y {0E } F son subespacios vectoriales de E F . Determine 0EF y pruebe que (E {0F }) ({0E } F ) = {0EF }.
(c) Sea {e1 , e2 , . . . , en } E un conjunto l.i. en E y {f1 , f2 , . . . , fm } F un conjunto l.i. en F . Determine un conjunto l.i. en E F , de tama o n + m. n
es funcin}. o
81
Problemas
n , f (n) + a1 f (n 1) + a2 f (n 2) = 0. (b) Sea ahora F1 el conjunto de las funciones f E que verican la condicin: o n , f (n) + a1 f (n 1) + a2 f (n 2) = 1. Pruebe que F1 no es un s.e.v. de E. Pruebe que F0 es un s.e.v. de E.
82
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
3.5.
Sea V un espacio vectorial sobre un cuerpo {v1 , ..., vn } V , generan V si y slo s o : {v1 , ..., vn } = V o de manera equivalente: v V, {i }n i=1 Ejemplo:
tal que
v=
i=1
i vi .
Tomemos el conjunto {(1, 0), (0, 1), (1, 1)}. Este genera 2 . En efecto, (x, y) = x(1, 0) + y(0, 1) + 0(1, 1). Es decir {(1, 0), (0, 1), (1, 1)} = 2 . Pero, en este caso, la forma de escribir (x, y) no es unica:
(x, y) = (x y)(1, 0) + y(1, 1) + 0(0, 1). En ambas combinaciones lineales sobra un vector. Ms an, constataa u mos que los tres vectores son l.d.: (1, 1) (1, 0) (0, 1) = (0, 0)
u Esto nos lleva a la nocin de conjunto generador de 2 con un n meo ro m nimo de vectores linealmente independientes. En nuestro ejemplo anterior {(1, 0), (0, 1)} {(1, 1), (1, 0)}. o Hay alguno ms?. a Denicin 3.4 (Base). Dado un espacio vectorial V sobre , diremos o que el conjunto de vectores {vi }n es una base de V si y slo s: o i=1 (1) {vi }n es un conjunto l.i. i=1 (2) V = {v1 , ..., vn } . Ejemplos: 1. En n , el conjunto {ei }n , donde ei = (0, ..., 1, 0..,0) es base. En i=1 efecto, ya probamos que son l.i., adems, dado x = (x1 , ..., xn ) a
base
n , x =
xi ei . Esta base de
i=1
83
Es decir,
(b1 , b2 , b3 ) = Luego
b1 + b3 b2 b2 + b3 b1 b1 + b2 b3 (1, 1, 0)+ (1, 0, 1)+ (0, 1, 1). 2 2 2 B . Para determinar que el conjunto B es l.i. (y por
3 =
lo tanto base) basta resolver el sistema anterior para b = (0, 0, 0). En este caso se concluye 1 = 3 = 3 = 0, y por lo tanto son l.i. 3. En el espacio vectorial Pn ( ), el conjunto B = {1, x, x2 , ..., xn } es base. En efecto. Es claro que cualquier polinomio, q de grado n se escribe como combinacin lineal de los vectores en B: o
n
q(x) =
i=0
ai xi .
i xi = 0.
i=0
Se tiene que, si el polinomio de la izquierda tiene alg n coeciente u no nulo, entonces es un polinomio de grado entre 0 y n luego posee, a lo ms, n ra a ces. Pero el polinomio de la derecha (polinomio nulo) tiene innitas ra ces. De esto se desprende que i = 0, i = 0, ..., n. Otra manera de vericar la independencia lineal es mediante derivacin: o d i xi ) = 1 + 22 x + ... + nn xn1 = 0 ( dx i=0 84
n
3 2. Estudiemos, en , si el conjunto de vectores, B = {(1, 1, 0), (1, 0, 1), (0, 1, 1)}, es base. Veamos primero si B es generador. Sea b = (b1 , b2 , b3 ) 3 y determinemos si existen escalares, {1 , 2 , 3 }, tales que: (b1 , b2 , b3 ) = 1 (1, 1, 0) + 2 (1, 0, 1) + 3 (0, 1, 1). Esto es equivalente a estudiar el sistema de 3 3: 1 1 0 1 b1 1 0 1 2 = b2 . 0 1 1 3 b3
4. Existen espacios vectoriales en los cuales ning n conjunto nito de u vectores es base, por ejemplo, sea S el conjunto de las sucesiones, es decir: S = {(un )/un , n }.
Claramente, con la suma (un )+(vn ) = (un +vn ) y la multiplicacin o (un ) = (un ), , S es un espacio vectorial sobre .
Vemos que el conjunto nito de sucesiones Bn = {x , . . . , x(n) }, (i) o donde xj = 1 si y slo si i = j (0 en otro caso), es linealmente independiente. En efecto:
n i=0
(1)
Pero, siempre es posible agrandar este conjunto. Basta tomar Bn+1 = Bn {x(n+1) }. Adems n , Bn no es generador pues a dado n jo, el vector x(n+1) es linealmente independiente de los vectores de Bn . Es decir, extendiendo adecuadamente las deniciones de l.i. y generador a conjuntos innitos (lo cual se puede hacer, pero no lo haremos aqu la base ser B = n1 Bn , ), a que es un conjunto innito. Sin embargo, es posible probar que B tampoco puede generar a todas las sucesiones de S, es slo un o conjunto l.i.
5. Observemos que el conjunto de las progresiones aritmticas, P A e es un s.e.v. de S, y este tiene una base nita. En efecto = 1 (1, . . . , 1, . . . ), e = (1, 2, 3, . . . , n, . . . ) P A y adems son l.i.: a 1 + e = ( + , + 2, + 3, ..., + u, ...) = (0, ..., 0, ...) ( + = 0) ( + 2 = 0) = = 0. Adems son generadores: Sea (xn )n una progresin de diferencia a o d entonces se tiene xn = x0 + nd y por lo tanto: 1 (xn ) = x0 + de.
85
Proposicin 3.3. Dado un espacio vectorial V , B = {vi }n V es una o i=1 base si y slo s v V, v se escribe de manera unica como combinacin o o lineal de los vectores del conjunto B.
Demostracion. Demostremos esta propiedad: ) Como B es base, B = V , luego v se escribe como combinacin lineal o de los vectores en B. Supongamos que esto puede hacerse de dos maneras:
n n
v=
i=1 n
i vi , v =
i=1
i vi .
Se tiene entonces
i=1
que i = i para todo i. ) Por hiptesis, cualquier vector v V es combinacin lineal del conjunto o o B, luego B es generador. Supongamos que B es l.d., entonces i vi = 0 con escalares no todos nulos. Adems 0v1 + 0v + ... + 0vn = 0 luego el a vector 0 se escribe de dos maneras distintas, lo cual es una contradiccin. o Conclu mos entonces que B es base.
i=1
Observacin: Por convencin el conjunto vac es la base del espacio o o o vectorial {0}. Esto pues por denicin diremos que es l.i. y adems o a el subespacio ms peque o que lo contiene es {0}. a n Otra propiedad importante es la siguiente:
Teorema 3.2. Si X = {v1 , . . . , vn } V es un conjunto generador, entonces es posible extraer un subconjunto B = {vi1 , . . . , vis } que es base de V.
Demostracion. Procederemos de manera recursiva e 1. Elijamos vi1 B, el primer vector no nulo que encontremos ( Qu pasa si todos son cero?). Hagamos B1 = {vi1 }. Claramente B1 es linealmente independiente. 2. Preguntamos X \ B1 B1 ?
j = i1 , vj = j vi1 . Como V = X v V, v =
k vk =
86
k=i1
En el k-simo paso se habr generado, a partir de Bk1 = {vi1 , ..., vik1 }, e a (que es linealmente independiente), el nuevo conjunto: Bk = Bk1 {vik }, vik Bk1 . /
j vij = 0.
j=1 k1 j=1
1 Si k = 0 entonces vik = k
diccin. Luego k = 0 y, como Bk1 es linealmente independiente, o j = 0 j = 1...k 1. Finalmente, como el conjunto de vectores X es nito, en un n mero u nito de pasos determinamos un conjunto linealmente independiente Bs = a {vi1 , ..., vis }, tal que X \ Bs Bs y de manera anloga a lo ya hecho se prueba que es generador y por lo tanto base de V . En la demostracin anterior, elegimos el prximo vector, vik , para eno o trar al conjunto Bk1 , exigiendo solamente: vik Bk1 . Obviamente / pueden existir varios vectores con tal propiedad. Esto permite armar que, en general, a partir de B podemos determinar varias bases (a menos claro que B mismo sea una base). Ejemplo: Si B = {(1, 0), (0, 1), (1, 1)}, los subconjuntos {(1, 0), (0, 1)}, {(1, 0), (1, 1)} y {(0, 1), (1, 1)} son todos bases de 2 .
Daremos ahora una generalizacin del Teorema 3.1. o Teorema 3.3. Supongamos que tenemos B = {vi }n , base de V y un i=1 conjunto arbitrario X = {wi }m V . Si m > n, entonces el conjunto X i=1 es l.d.
Demostracion. En efecto, como B es base: wi = 1i v1 + ... + ni vn i m. Tomemos una combinacin lineal de los vectores de X: o 1 1 + ... + m m = 0, 87
1 (3.1)
i [1i v1 + ... + ni vn ] = 0
i=1 m n
i
i=1 n j=1 j=1 m
ji vj = 0 i ji ) = 0
i=1
vj (
ji i = 0
i=1
1jn
Del cap tulo anterior sabemos que para m > n el sistema anterior tiene ms de una solucin (innitas), luego al menos una no nula. Es decir existen a o escalares 1 , ..., m , no todos nulos, solucin de la ecuacin 3.1. De donde o o conclu mos que X es l.d. De este resultado se desprende directamente el corolario siguiente que es suma importancia: Corolario 3.1. Si {vi }n , y {ui }m son bases de V , entonces n = m. i=1 i=1 Demostracion. En efecto, si n > m, de la propiedad anterior conclu mos o {vi }n es l.d., lo cual es una contradiccin. i=1 As si existe una base nita, de cardinal n, entonces cualquier otra base , contiene exactamente n vectores. Esto nos lleva a denir la dimensin de un espacio vectorial. o
que no exista una base nita, hablaremos de espacio vectorial de dimensin o innita. Notaremos dim V al cardinal de una base (dim V = , si V no posee una base nita). En particular dim{0}=0. Ejemplos: 1. dim
dimensin innita o
n = n.
88
dimensin o
3. dim P A = 2. 4. dim Mmn = m n. Veriquemos esta ultima. Tomemos el conjunto de matrices de 0 y 1: B = {E[, ] = (e ), e = 1 (, ) = (i, j) {1, ..., m}, {1, ..., n}}. ij ij Este conjunto corresponde a la base cannica del espacio de las matrices. o Por ejemplo, para m = 2 y n = 3, el conjunto B est formado por las a matrices: 1 0 0 0 0 0 , 0 0 1 0 0 0 , 0 0 0 1 0 0 , 0 0 1 0 0 0 , 0 0 1 0 0 0 , 0 0 0 0 0 1 .
... 0
... 0 . . .
= 0
, .
A=
=1 =1
a E[, ].
Luego, el conjunto {E[, ]}, es base. Es decir dim Mmn (K) = mn. Algunas propiedades de los espacios de dimensin nita son las siguientes: o
Teorema 3.4. 1. Sea dim V = n. Si {vi }n es l.i. entonces {vi }n es base. i=1 i=1 2. Sea U un s.e.v de V , luego dim U dim V ms an se tiene que a u dim U = dim V U = V . Demostracion. 1. Basta probar que V = {v1 , ..., vn } . Supongamos u {v1 , .., vn } , / luego B = {u, v1 , ..., vn } es l.i. y |B| = n + 1 > n. Lo que es una contradiccin, pues todo conjunto de cardinal mayor que la dimensin debe o o ser l.d.
89
2. dim S = .
Para probar la ultima parte supongamos U = V . Sea {ui }n una i=1 base de U . Como U = V y {u1 , ..., un } = U, v V \ U B = {v} {ui }n es l.i. en V y |B| > dim V , que al i=1 igual que antes da una contradiccin. o Un resultado importante es la posibilidad de que, en un espacio vectorial V, dim V = n, un conjunto de vectores linealmente independiente, pueda completarse hasta formar una base de V .
Teorema 3.5 (Completacin de base). Dado V espacio vectorial soo bre con dim V = n, y un conjunto de vectores l.i.; X = {v1 , . . . , vr }, r < n, entonces existen vectores vr+1 , . . . , vn , tales que el conjunto {v1 , . . . , vn } es base de V .
Completacin de base o
Demostracion. Sea U = {v1 , . . . , vr } , claramente U = V (justique). Luego v V \ U . Deniendo vr+1 = v, el conjunto {v1 , ..., vr , vr+1 } es l.i. En efecto
r+1
i vi = 0
i=1 1 Si r+1 = 0 entonces, se concluye que vr+1 = r+1 r i=1
i vi {v1 , ..., vr }
lo cul es una contradiccin ya que vr+1 U . Si r+1 = 0 i = 0 i = a o / 1, ..., r pues los vectores de X son l.i. Si {v1 , ..., vr+1 } = V hemos terminado, sino repetimos el procedimiento. Ejemplo: Consideremos, en
4 el conjunto
X = {(1, 1, 0, 0), (0, 1, 0, 0)}.
Claramente este conjunto es l.i. y adems (0, 0, 1, 0) a / {(1, 1, 0, 0), (0, 1, 0, 0)} . Luego {(1, 1, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)} es l.i. Anlogamente, el vector (0, 0, 0, 1) {(1, 1, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)} a / luego el conjunto B = {(1, 1, 0, 0)(0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} es l.i. y como contiene tantos vectores como dim 4 = 4, es base.
90
2. Supongamos m = dim U > n = dim V , entonces existe {ui }m base i=1 de U , pero {ui }m V es l.i., de cardinal mayor que la dimensin, o i=1 lo cual contradice el hecho que el mximo conjunto de vectores l.i. es a de cardinalidad n.
3.6.
Recordemos que la unin de subespacios de un espacio vectorial V , no es o necesariamente un espacio vectorial. Denamos una operacin entre subeso pacios que nos permita determinar uno nuevo, que contenga a ambos. Sean U, W subespacios de V , denimos la suma de subespacios vectoriales como sigue: U + W = {v V /v = u + w, u U, w W }. Es directo que U + W es un s.e.v de V . En efecto, sean x, y U + W, , K, luego x = u1 + w1 , y = u2 + w2 . Adems, x + y = (u1 + u2 ) + a (w1 + w2 ) U + W ya que U y W son s.e.v. Ejemplo: Tomemos en
2, los subespacios U =
} = 2
En efecto, (x, y) = y(1, 1) + (x y)(1, 0) Sean, en 3 , los subespacios U = {(1, 0, 0)} , W = {(0, 1, 0)}
U + W = {(x, y, 0) | x, y
} = 3.
En general, es directo que U U + W y W U + W . Basta tomar los elementos de la forma u + 0 y 0 + w, respectivamente. Dado V = U + W , un vector no necesariamente admite una escritura unica en trminos de U y W . e Ejemplo: Si luego U =< {(1, 0), (0, 1)} >, W =< {(1, 1)} > (1, 1) = (1, 1) + 0 donde (1, 1) U y 0 W , pero adems a (1, 1) = 0 + (1, 1) donde esta vez 0 U y (1, 1) W . En el caso particular, en que la descomposicin de un vector de V sea unica o en trminos de los subespacios, diremos que V es suma directa de U y e W, Denicin 3.6 (Suma directa). Sea un espacio vectorial V y dos subo espacios vectoriales U, W de V . Diremos que el subespacio Z = U + W es suma directa de U y W , notado U W = Z, si v Z, v se escribe de 91
suma directa U W = Z
U +W
v = u + w,
u U, w W.
En el caso en que V sea suma directa de U y W , diremos que estos ultimos son suplementarios. Ejemplo:
Sean, por ejemplo, los subespacios de 2 , V =< {(1, 0)} >, W =< {(0, 1)} > 2 = U W, pues (x, y) = x(1, 0) + y(0, 1) es unica.
Una caracterizacin util de la suma directa es la siguiente: o Proposicin 3.4. Dado V e.v. y U, W, Z s.e.v. de V , entonces o Z = U W (Z = U + W ) (U W = {0}) Demostracion. En efecto: ) Como Z es suma directa de U y W , v Z, ! u U, w W tal que v = u + w v U + W , luego Z = U + W .
) Como Z = U + W, v Z, v = u + w, u U, w W . Veamos que esta descomposicin es unica. Supongamos v = u + w y v = u + w , o entonces u u = w w, donde u u U y w w W , luego u u U W u u = 0 u = u w = w . Una propiedad interesante de la suma directa es:
dim U W
Demostracion. En efecto, si U o W corresponde al subespacio nulo, {0}, el resultado es directo. Supongamos entonces U = {0} = W . Sea {ui }k base de U, {wi }m base i=1 i=1 de W . Armamos que el conjunto B = {u1 , ..., uk , w1 , ..., wm } es base de V: 1. B es linealmente independiente:
k m
i ui +
i=1 i=1
i wi = 0
92
m i=1
i=1
i ui =
i=1 i=1
i wi = 0
y por independencia lineal de {ui }k , {wi }m conclu mos 1 = ... = i=1 i=1 k = 1 = ... = k = 0. 2. B es generador del e.v. V : Como V = U W, v V, v = u + w, u U, w W . Pero u U, w
k
i ui ,
w=
i=1 k
i wi , de donde,
m
v=
i=1
i wi +
i=1
i wi , luego B = V .
De (1) y (2) es directo que dim V = k + m = dim U + dim W . Una pregunta importante es la siguiente: dado un s.e.v U de V , existe un suplementario de U ?, es decir un s.e.v W tal que V = U W ? La respuesta es armativa, si U = V , basta tomar como suplementario W = {0}. Si dim U < dim V , tomemos una base de U : X = {ui }k . Por i=1 el teorema de completacin de base, existen vectores {uk+1 , ..., un } tales o que B = X {uk+1 , ..., un } es base de V . Sea ahora W = {uk+1 , ..., un } . Armamos que V = U W . En efecto, como {u1 , ..., un } es base de V , todo v V puede escribirse, de manera unica, como combi nacin lineal de esta base: o
k n
v=
i=1 k n
i ui +
i=k+1
i ui
Como u =
i=1
i ui U, w =
i=k+1
3 y los subespacios
U = {(1, 0, 0), (0, 1, 0)} , W = {(0, 1, 0), (0, 0, 1)} U W = {(0, 1, 0)} . En efecto, si v U W, v = (1, 0, 0)+(0, 1, 0) = (0, 1, 0) + (0, 0, 1). De donde, = = 0, = . Luego v = (0, 1, 0). Es decir U W = {(0, 1, 0)} , De esto conclu mos que U +W no es suma directa, 93
Como
i ui U,
En 2 , cualquier par de rectas no colineales, que pasen por el origen, estn asociados a subespacios suplementarios. Luego el suplementario de a un s.e.v. U no es unico. El siguiente resultado, propuesto como ejercicio, extiende el Teorema 3.6 al caso en que la suma no es necesariamente directa.
Teorema 3.7. Supongamos que V = U + W , entonces dim V = dim U + dim W dim U W . Demostracion. Propuesta como ejercicio. Ver la gu para indicaciones. a
dim U + W
Ejercicio
94
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 7
1. Averigue si el conjunto de polinomios {1 + x3 , 1 x3 , x x3 , x + x3 } constituye una base de F = {p P( ) | gr(p) < 4}. Donde P( ) el es espacio de los polinomios a coecientes reales.
2. Sea W es subespacio vectorial de 4 generado por el conjunto 2 1 1 1 1 3 , , . 2 1 1 3 1 1 (a) Determine una base de W y su dimensin. o (b) Extienda la base encontrada antes a una base de 3. Se desea probar el siguiente resultado: Supongamos que V = U + W , entonces dim V = dim U + dim W dim U W . Para ello: Considere U W como subespacio de U y W . Si se toma {z1 , ..., zk } base de U W , se puede extender a BW = {z1 , ..., zk , w1 , ..., wp } base de W. Se probar que B = {z1 , ..., zk , u1 , ..., ul , w1 , ..., wp } es base de V . a (a) Pruebe que B genera a V . Es decir, tome v V y pruebe que es combinacin lineal de los vectores de B. Use que V = U + W . o (b) Para probar que B es l.i., tome una combinacin lineal de B igual o a cero: 0 = 1 z1 + ... + k zk + 1 u1 + ... + l ul + 1 w1 + ... + p wp de donde (1 w1 + ... + p wp ) = 1 z1 + ... + k zk + 1 u1 + ... + l ul . (3.2) Pruebe que existen 1 , . . . , k BU = {z1 , ..., zk , u1 , ..., ul } base de U y
4 .
Teorema 3.7
tales que
(1 w1 + ... + p wp ) = 1 z1 + ... + k zk . (d) Reemplace lo anterior en 3.2 y use que BU es base para probar que 1 = = k = 1 = = l = 0. (e) Concluya que B es l.i. y por ende base de V . (f ) Concluya el resultado buscado. 95 (c) Demuestre que 1 = = p = 1 = = k = 0.
Ejercicios
(a) Demuestre que W y U son subespacios vectoriales de M33 ( ). (b) Encuentre bases y dimensiones para los subespacios U, W, U W y U + W , y decida (justicando) si la suma U + W es directa. Cuntos vectores es preciso agregar a una base de U +W para oba tener una base de S = {M M33 (R) | M simtrica}? Justique e encontrando una base de S. P2. Sea m = 2n con n > 0 y considere el conjunto Pm ( ) de los polinomios reales de grado menor o igual a m. Si cada p Pm ( ) se escribe p(x) = a0 + a1 x + + am xm , se dene el conjunto
}.
Probar que V es subespacio vectorial de Pm ( ) sobre los reales. Encontrar una base de V y deducir que su dimensin es n + 1. o Probar que Pm ( ) = V Pn1 ( ). Se dene
V = {p(x) =
i=0
Probar que Pm ( ) = V V (asuma que V es un subespacio vectorial de Pm ( )). P3. Si A Mnn ( ) y V es un subespacio vectorial de A(V ) = {Ax | x V }.
n, se dene:
(a) (1) Pruebe que si A Mnn ( ) y V es s.e.v. de n entonces A(V ) tambin es s.e.v. de n . e (2) Sean V, W s.e.v. de n tales que V W = n . Pruebe que si A Mnn ( ) es invertible entonces A(V ) A(W ) = n . (3) Sean V, W s.e.v. de n tales que V W = n . Pruebe que si A(V ) A(W ) = n , entonces A es invertible. Indicacin: Pruebe que para todo z n el sistema Ax = z o tiene solucin. o (b) (1) Sea W un s.e.v. de n y denamos E = {A Mnn ( ) | A( n ) W }. Muestre que E es un s.e.v. de Mnn ( ). o (2) Sea W = {(t, t) | t }. Calcule la dimensin de E = {A M22 ( ) | A( 2 ) W }.
96
Problemas
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
4.
4.1.
Transformaciones lineales
Introduccion
Sea la matriz A = ( 0 1 ) y multipliquemos los vectores de 2 por esta 10 matriz. Sea v = ( x1 ), se tiene entonces Av = ( x2 ), es decir el vector que se x1 x2 obtiene de intercambiar las coordenadas de v. 0 Si tomamos A = 1 1 , al multiplicar por el vector v obtenemos Av = 0 x1 e gen. ( x2 ) , que es el vector simtrico con respecto al or Estos dos ejemplos nos dan funciones completamente distintas pero ellas comparten propiedades que son fundamentales: la imagen de la suma de dos vectores es la suma de las imagenes y la imagen de un vector ponderado por un real es la imagen del vector ponderada por el mismo escalar. Funciones que verican estas propiedades son llamadas lineales y son el objeto de este cap tulo. Veamos un caso ms general. a En n consideremos T como la funcin: o
T :
n m
v Av
donde A Mmn ( ) Este tipo de transformaciones tiene dos propiedades fundamentales: 1. T (u + v) = T (u) + T (v) 2. T (v) = T (v)
, v n
u, v
En efecto, T (u + v) = A(u + v). Como la multiplicacin matricial distribuye o con respecto a la suma: T (u + v) = Au + Av = T (u) + T (v) Por otra parte, T (v) = A(v) = Av = T (v)
4.2.
Tranformaciones lineales
Denicin 4.1 (Tansformacin lineal). Sean U, V dos espacios vectoo o riales sobre el mismo cuerpo . Diremos que una funcin T : U V es o una transformacin (o funcin) lineal si y slo si satisface: o o o
Transformacin lineal o
2. u U, K, T (u) = T (u)
(4.1)
Sealemos que la propiedad 4.1 establece un homomorsmo entre los grupos n (U, +) y (V, +).
97
f (x + y) = a(x + y) = ax + ay = f (x) + f (y). Adems, f (x) = a a(x) = ax = f (x). Esta transformacin corresponde a una o recta (l nea) que pasa por el or gen con pendiente a.
3. f : , x x2 , no es lineal. En efecto: f (x + y) = (x + y)2 = x2 + 2xy + y 2 = f (x) + f (y) + 2xy, luego no es lineal. En general cualquier funcin real de grado superior a uno , trigonomtrica, o e etctera, no es lineal. e 4. f : P3 ( ) 4 , p(x) = a0 + a1 x + a2 x2 + a3 x3 f (p) = (a0 , a1 , a2 , a3 ), es lineal. En efecto; si q(x) = b0 + b1 x + b2 x2 + b3 x3 , obtenemos f (p + q) = f ((a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + (a3 + b3 )x3 ) = = (a0 + b0 , a1 + b1 , a2 + b2 , a3 + b3 ) = (a0 , a1 , a2 , a3 ) + (b0 , b1 , b2 , b3 ) = f (p) + f (q) f (p) = f (a0 + a1 x + a2 x2 + a3 x3 ) = (a0 , a1 , a2 , a3 ) = (a0 , a1 , a2 , a3 ) = f (p). 5. Sea Fd ( , ) el conjunto de las funciones reales derivables. Es directo vericar que este conjunto es un s.e.v. de F( , ). Consideremos la transformacin: o
T : Fd ( ,
) F(, )
f T (f )
df o donde T (f )(x) = dx (x) es la funcin derivada. Es directo, de las propiedades de derivacin que T es lineal. o
S ea V e.v sobre
, V
= V1 V2 y sean: P2 : V V2 v = v1 + v2 P2 (v) = v2
P1 : V V1 , v = v1 + v2 P1 (v) = v1
Ambas funciones (porqu son funciones?) son lineales. Veriquee mos para P1 : sean , v = v1 + v2 , u = u1 + u2 , vi , ui Vi , i = 1, 2. P1 (v + u) = P1 (v1 + u1 ) + (v2 + u2 )) = = v1 + u1 = P1 (v) + P1 (u)
98
Proposicin 4.1. Sea T : U V una transformacin lineal. Se tiene o o entonces: 1. T (0) = 0 V . 2. T (u) = T (u). 3. T es lineal si y slo si 1 , 2 K, u1 , u2 U o T (1 u1 + 2 u2 ) = 1 T (u1 ) + 2 T (u2 ). Demostracion. Demostremos estas propiedades: 1. T (u) = T (u + 0) = T (u) + T (0) como V es espacio vectorial (V, +) es un grupo Abeliano, luego podemos cancelar T (u); de donde 0 = T (0). 2. T (u) = T (1u) = 1T (u) = T (u). 3. ) T (1 u1 + 2 u2 ) = T (1 u1 ) + T (2 u2 ) = 1 T (u1 ) + 2 T (u2 ). ) Tomando 1 = 2 = 1 se verica la propiedad (1) de linealidad. Considerando 2 = 0, se obtiene la propiedad (2).
Observacin: Note que las demostraciones de las propiedades 1 y 2 o podr haber sido omitidas, ya que dichas propiedades son consecuenan cias de que T sea morsmo entre los grupos (U, +) y (V, +).
n
Dada una combinacin lineal de vectores o lineal, T : U V . Se tiene, por induccin, que: o
n i=1
i xi U y la transformacin o
T(
i=1
i xi ) =
i=1 n
i T (xi )
Si dim U = n y = {ui }n es una base de U , sabemos que u U se escribe, i=1 de manera unica, como u =
i=1
corresponden a las coordenadas de u con respecto a la base . Aplicando a este vector u la transformacin lineal T : o
n n
T (u) = T (
i=1
i ui ) =
i=1
i T (ui )
(4.2)
De este clculo se desprende que: basta denir la transformacin T sobre a o una base de U , es decir calcular slo {T (vi )}n . Para determinar el efecto o i=1 de T sobre un vector u V arbitrario, basta aplicar la ecuacin 4.2. o 99
Ejercicio
4.3.
Ejercicio 4.1: Pruebe que entonces dada una base = {ui }n de U i=1 y n vectores X = {vi }n no necesariamente .i. de V existe una unica i=1 transformacin lineal T o T :U V u T (u) tal que T (ui ) = vi i = 1, ..., n.
Consideremos ahora la transformacin: o f :U n u f (u) = = (1 , ..., n ) que a cada vector u le asocia las coordenadas con respecto a una base ja = {ui }n . i=1 Es claro que f es funcin (representacin unica de un vector con respecto o o a una base). Adems, es lineal. Ms a n f es biyectiva (verif a a u quelo). Esto nos lleva a la siguiente denicin. o Denicin 4.2 (Isomorsmo). Sea T : U V una transformacin o o lineal, diremos que es un isomorf smo si T es biyectiva. Adems diremos que U y V son isomorfos si existe un isomorfsmo entre a U y V , en cuyo caso lo denotaremos como U V . = En nuestro ejemplo anterior f es un isomorf smo y U n . Esto quiere = decir que si U tiene dimensin nita n se comporta como si fuera n . Esta o isomorf no es unica, depende de la base elegida. Por el momento esto no a debe preocuparnos. Calculemos adems la imagen, a travs del isomorsmo a e
Ejercicio
Isomorsmo
{ui }n i=1
es la base cannica de o
n .
4.4.
Consideremos U, V, W espacios vectoriales sobre el mismo cuerpo. Sean T : U V y L : V W dos transformaciones lineales, la composicin L T : o U W es fcil ver que es una funcin lineal. Si adems L y T son biyectivas a o a (isomorf smos) entonces tambin lo es L T . e Otra propiedad importante es que si T : U V es un isomorf smo tendremos que la funcin inversa, que existe pues T es biyectiva, tambin o e 100
T (u1 + u2 )) = T (u1 ) + T (u2 ) = v1 + v2 , esto quiere decir que T 1 (v1 + v2 ) = u1 + u2 = T 1 (v1 ) + T 1 (v2 ), entonces T 1 es lineal. Una transformacin lineal importante es idU : U U que es la transforo macin identidad. Como sabemos que es biyectiva se tiene que idU es un o isomorf smo. Con todos estos ingredientes se puede concluir que la relacin entre espacios o vectoriales de ser isomorfos es una relacin de equivalencia. o
4.5.
Denicin 4.3 (N cleo). Sea una transformacin lineal T : U V . o u o Denimos el n cleo de T como el conjunto: u KerT = {x U/T (x) = 0}. Claramente, KerT = ya que como T (0) = 0 tenemos que siempre 0 KerT . Ms a n, KerT es un s.e.v. de U . En efecto, sean x, y KerT, , a u ; T (x + y) = T (x) + T (y) = 0 + 0 = 0
luego, x + y KerT . Otro conjunto importante en el estudio de transformaciones lineales es la imagen: Denicin 4.4 (Imagen). Sea una transformacin lineal T : U V . o o Denimos la imagen de T como el conjunto: ImT = T (U ) = {v V /u U : v = f (u)} ImT es un s.e.v de V . En efecto, sean v1 , v2 ImT , existen entonces u1 , u2 U tales que vi = T (ui ), i = 1, 2. Dados , se tiene:
v1 + v2 = T (u1 ) + T (u2 ) = T (u1 + u2 ) de donde conclu mos v1 + v2 ImT . Denicin 4.5 (Rango y nulidad). La dimensin de ImT se denomio o na el rango de la transformacin T y se nota r. La dimensin del KerT se o o llama nulidad y se suele denotar por la letra griega .
Rango y nulidad
101
es un isomorf smo. En efecto slo resta probar que T 1 es lineal, pues es o claro que es biyectiva (por qu?). Tomemos v1 , v2 V, , . Sean e T 1 (v1 ) = u1 , T 1 (v2 ) = u2 por lo tanto
Ncleo u
Imagen
x1 x2 x3 x4
4 3
x1 +x2 x2 x3 x1 +x3
Determinemos los subespacios KerT y ImT . Tenemos que x KerT T (x) = 0, lo que es equivalente a determinar la solucin general del o sistema homogneo: e 1 1 0 1 1 0 x1 0 0 0 x 1 0 2 = 0 x3 1 0 0 x4 0 0 1 0 (4.3) 0 0
De donde:
Escalonando: 1 1 0 0 1 1 0 0 1 1 0 1 1 0 0 1 1 0 0 1 1 0 1 0 0 1 1 0 0 0 x1 + x2 = 0 x2 x3 = 0 x1 = x2 x2 = x3 x3 = x3
x4 = x4 1 0 x1 1 0 x2 = x3 + x4 1 x3 0 0 1 x4
102
Ejemplo:
Luego, KerT =
es un s.e.v de
y1 y2 y3
ImT , es decir:
y1 1 y2 = 0 y3 1
1 1
x1 1 0 0 x 1 1 0 2 x3 0 1 0 x4 1 1 0 = x1 0 + x2 1 + x3 1 1 0 1
0
0 , 1 , 1 . Luego ImT = 1 0 1 Pero del resultado de escalonar la matriz que tiene como columnas a 0 0 1 1 los vectores 0 , 1 , 1 y 0 , en 4.3 podemos extraer una ba0 , 1 , 1 0 , 1 , 1 , 0 , tomando = se de 0 1 0 1 0 1 1 aquellos vectores asociados a columnas con pivotes de la matriz escalonada (Importante: ver gu de ejercicios y problemas). Es decir, a 1 0 1 1 1 1 0 0 1 0 0 1 1 0
1 1 0
.
1 0 1
Ejercicio
1 1 0
es un s.e.v. de
3 de
Observemos en este ejemplo que 4 = dim 4 = dim KerT + dim ImT . Adems T no es inyectiva ya que KerT contiene ms de un vector, es a a 0 decir el vector 0 tiene ms de una pre-imagen. Tampoco es epiyectiva a
0
3 .
103
1 1 1 0
0 0 0 1
4 de dimensin dos. o
Teorema 4.1. Sea T : U V una transformacin lineal entonces o T es inyectiva KerT = {0} Demostracion. ) Dado u KerT, T (u) = 0 = T (0). Como T es inyectiva, se tiene u = 0. ) Sea T (u1 ) = T (u2 ) T (u1 u2 ) = 0 luego u1 u2 KerT = {0}, de donde u1 = u2 . De este resultado obtenemos el siguiente Corolario Corolario 4.1. Una transformacin lineal T : U V , es un isomorsmo o si y slo si KerT = {0} ImT = V , o equivalentemente dim ImT = dim V o y dim KerT = 0. Demostracion. Para probar la biyectividad de T , basta notar que KerT = {0} (inyectividad) y ImT = V (epiyectividad). La otra equivalencia sale de que ImT = V dim ImT = dim V y KerT = {0} dim KerT = 0. La inyectividad de aplicaciones lineales (KerT = {0}) tiene una consecuencia muy importante sobre los conjuntos linealmente independientes. Teorema 4.2. Si T : U V es inyectiva, entonces {ui }k es .i. en i=1 U {T (ui )}k es l.i. en V . i=1 Demostracion. Sea la combinacin lineal nula: o
n i=1 n n
i T (ui ) = 0 T (
i ui ) = 0
i=1 n
i=1
i ui KerT = {0}
i ui = 0
i=1
Como {ui }n es .i., i = 0, i = 1, ..., n. i=1 Se puede probar que en efcto esta propiedad caracteriza las aplicaciones lineales inyectivas (hacerlo!). Finalizamos est seccin mencionando un ejemplo interesante: a o Pn ( ). En efecto, sea T : n+1 Pn ( ) tal que: a0 n a1 ai xi Pn ( ) . . .
n+1
i=0
an
104
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 8
1. El objetivo de este ejercicio es formalizar la tcnica mencionada en la e tutor para extraer, de un conjunto generador de un cierto subespacio a vectorial, una base. Esto en el contexto de n . y U = {v1 , . . . , vm } . Sea adems la matriz a Considere v1 , . . . , vm A, escrita por columnas como A = (v1 , . . . , vm ) Mnm ( ). Denotamos por vij a la coordenada i del vector j y, por ende, a la componente (i, j) de A.
Ejercicios
vkjk 0
vk(jk +1)
0 0
v(k+1)jk+1 0 .. . 0 0 . . .
vljl 0
vlm 0 . . .
vkjk
la matriz escalonada. Notamos por vj a la columna j de la matriz A. (a) Demuestre que el conjunto de vectores {v1 , vj2 , . . . , vjl }, es decir las columnas correspondientes a los pivotes, es un conjunto l.i. Indicacin: Estudie qu sucede si en la matriz original A slo huo e o biese puesto los vectores v1 , vj2 , . . . , vjl . (b) Pruebe que las columnas de A que no contienen pivotes, que estn a entre la del pivote k y la del k + 1 (es decir vjk +1 , . . . , vjk+1 1 ), son combinacin lineal de los vectores v1 , vj2 , . . . , vjk . o Indicacin: Use induccin en k. o o (c) Dado un conjunto de vectores {u1 , . . . , um } invertible E Mnn ( ), demuestre que:
y una matriz
Eu
(d) Use el resultado anterior para probar que, las columnas de A que no estn asociadas a pivotes, entre la columna del pivote k y la del a k + 1 (es decir vjk +1 , . . . , vjk+1 1 ), son combinacin lineal de los o vectores v1 , vj2 , . . . , vjk . (e) Concluya que {v1 , vj2 , . . . , vjl } es base de U . 105
Extraer una base de U , desde {v1 , . . . , vm }. Extender dicha base a una base de 3. Sea U el subespacio vetorial de
n .
1 0 1
1 1 2
1 1 0
Problemas
P1. Sea P3 ( ) el conjunto de los polinomios de grado menor o igual a 3 con coecientes reales. Se dene la transformacin T : P3 ( ) P3 ( ) o por:
T (a0 + a1 x + a2 x2 a3 x3 ) = a0 + (2a1 + a2 )x + (2a2 + a3 )x2 + 2a3 x3 . (a) Probar que T es una transformacin lineal. o (b) Probar que T es una transformacin biyectiva. o (c) Si id es la transformacin identidad del espacio vectorial P3 ( ) o pruebe que T 2 id, (T 2 id)2 , (T 2 id)3 y T id son transformaciones lineales. Indicacin: Recuerde que dada una funcin f , f k = f f f . o o
k veces
(d) Encontrar bases y dimensin de Ker(T 2 id), Ker(T 2 id)2 y o Ker(T 2 id)3 . (e) Probar que P3 ( ) = Ker(T 2 id)2 Ker(T id).
x y z w
x 2x + 2y + z + w
(1) Demuestre que T es funcin lineal. o (2) Determine bases y dimensiones para Ker(T ) e Im(T ). (b) Dada la transformacin lineal L : o 1 1 0 , 1 Ker(L) = 0 0
3
3 2 se sabe que:
y 1 L 1 = 1
1 . 1
106
2. Sea un conjunto de vectores v1 , . . . , vm n , con U = {v1 , . . . , vm } y dim(U ) < n. Muestre que, construyendo la matriz A del Ejercicio 1, aumentndola con la identidad en Mnn ( ) (es decir (A|I)) y aplicando a el mismo procedimiento, se consigue:
(v, w) + (v , w ) = (v, w) =
(v + v , w + w ) , (v, w) ,
(v, w), (v , w ) V W ,
(b) Pruebe que {0V } W es subespacio vectorial de V W . Nota: 0V denota el neutro aditivo de V .
107
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
4.6.
Teorema 4.3 (N cleo-Imagen). Sean U, V espacios vectoriales sobre u o un cuerpo , T : U V una transformacin lineal, dim U < . Entonces:
dim U = dim KerT + dim ImT. Demostracion. Daremos una demostracin constructiva de este teorema. o Sea {u1 , ..., u } una base de KerT . Completemos esta base a una base de U U = {u1 , ..., u , u+1 , ..., un }.
Probaremos que = {T (u+1 ), ..., T (un )} es base de ImT . Sea v ImT es decir v V y existe u U T (u) = v. Como U es base de U se tendr que a u = 1 u1 + .... + u + +1 u+1 + .... + n un , de donde v = T (u) = +1 T (u+1 ) + .... + n T (un ),
pues T (u1 ) = ... = T (u ) = 0. Es decir v es combinacin de los elementos o de . Probemos ahora que son l.i., para ello consideremos +1 T (u+1 ) + .... + n T (un ) = 0. Como T (+1 u+1 + .... + n un ) = +1 T (u+1 ) + .... + n un T (un ) = 0 se deduce que el vector +1 u+1 + .... + n KerT pero entonces existen escalares 1 , ..., tal que +1 u+1 + .... + n un = 1 u1 + .... + u , o equivalentemente 1 u1 + .... + u +1 u+1 ... n un = 0 Como los vectores u1 , ..., un son .i. se deduce en particular que +1 = ... = n = 0, y por lo tanto = {T (u+1), ..., T (un )} es base de ImT . Pero entonces tenemos dim U = n = + (n ) = dim KerT + dim ImT.
108
Teorema 4.4. Sea T : U V aplicacin lineal. o 1. Si dim U = dim V entonces T inyectiva T epiyectiva T biyectiva. 2. Si dim U > dim V T no puede ser inyectiva. 3. Si dim U < dim V T no puede ser epiyectiva. 4. Como conclusin de (2) y (3) o U isomorfo a V dim U = dim V.
Demostracion. Probemos slo (2), el resto queda de ejercicio. Del TNI o se tiene que dim U = dim KerT + dim ImT < dim V, como dim KerT 0 se concluye que dim ImT < dim V, y por lo tanto ImT es un s.e.v. estrictamente ms peque o que V , es decir a n T no puede ser epiyectiva. Es importante se alar que en (1c), la implicancia es consecuencia de (2) n y (3), mientras que se obtiene del hecho de que todo espacio de dimensin o o nita n es isomorfo a n (ver ejemplo anterior a la Denicin 4.2).
Ejercicio
Ejercicio 4.2: Probar que si T : U V es lineal y W es un subespacio de U entonces 1. T (W ) es subespacio de V. 2. dim T (W ) dim U . 3. Si T es inyectiva dim T (W ) = dim W .
109
Es directo del TNI que: si dim U = n, y el rango de T es n se tiene dim KerT = 0, es decir T es inyectiva. Otra aplicacin directa es o
a Vimos anteriormente que, dado un e.v V sobre , dimV = n, se ten V n . Esto nos permite llevar el trabajo de cualquier espacio de di= mensin nita a un espacio de n-tuplas. Trataremos de extender esto para o transformaciones lineales, reemplazando estas (en un sentido que precisaremos) por matrices.
Sean U, V espacios vectoriales sobre un cuerpo , dim U = p, dim V = q. Sean U = {u1 , ..., up }, V = {v1 , ..., vq } bases de U y V respectivamente. Consideremos nalmente una transformacin lineal T : U V . o Sabemos que T queda completamente determinada por su accin sobre la o base U
q
T (uj ) =
i=1
aij vi
1jp
o bien, T (u1 ) = a11 v1 + a21 v2 + ... + aq1 vq T (u2 ) = a12 v1 + a22 v2 + ... + aq2 vq . . . T (up ) = a1p v1 + a2p v2 + ... + aqp vq Es claro que la informacin importante que dene T est contenida en las o a coordenadas, (a1j , a2j , ..., aqj ) de cada vector T (uj ), con respecto a la base V , en el espacio de llegada. Esta informacin la guardamos en una matriz o de q las y p columnas, denominada matriz representante de T , con respecto a las bases U y V : a12 ... a21 a22 ... MU V (T ) = . . . . . . aq1 aq2 ...
11
Matriz representante de T MU V (T )
donde, q = dim U, p = dim V . En la columna j-sima de esta matriz, aparecen las coordenadas del vector e T (uj ) con respecto a la base V : a2j = . T (uj ) = . . aqj a
1j q
Aj
aij vi
i=1
110
4.7.
Observacin: Una pregunta interesante es: Qu sucede con esta o e matriz si cambiamos las bases?. Esto lo responderemos en breve. Ejemplo: Sea T :
4 3, denida por
1 1 T (x) = 0 1 0 0
x1 0 0 x 1 0 2 . x3 1 1 x4
1 0 1
0 1 1
base de = 1 2
3. Se tiene entonces:
1 1 0 1 1 0
4 ,
0 1 1
1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1
= = = =
1 0 0 1 1 0 0 1 1 0 0 1 1 2 1 2 1 2
1 2
1 0 1 1 0 1
1 0 1
+0 +1
1 2
0 1 1 0 1 1
=1 =0 = 1 2
+0 +0
1 1 0 1 2 1 2 1 2
1 1 0
1 2
1 0 1
1 2
0 1 1
1 0 0 0 0 1
Tomemos ahora, en
M (T ) =
3, la base cannica, = o
1 0 0 1 1 0 0 1 1 0 0 1
M34 ( )
1 0 0
0 1 0
0 0 1
= 1e + 0e + 0e 1 2 3 = 1e + 1e + 0e 1 2 3 = 0e + 1e + 1e 1 2 3 = 0e + 0e + 1e 1 2 3 1 0 1 1 0 1 0 0 1
Sorpresa!, esta matriz representante no slo es distinta de la anterior, o sino que corresponde a la matriz que dene T en forma natural. Conclu mos entonces que: la matriz representante depende de las bases elegidas y que la matriz representante con respecto a las bases cannicas o 111
1 M (T ) = 0 0
Consideremos
TA :
p q
x Ax, A Mqp ( )
Se tiene entonces: a11 ... . . . aq1 ... a1j ... . . . aqj ... 0 a 1j . a1p . . . 1 = a2j . . . . . . aqp . . aqj 0
q
aij e i
de donde conclu mos M (TA ) = A. Veamos ahora como interactuan T y M = M (T ). Sea u U , entonces u = 1 u1 + ... + p up , y por lo tanto T (u) = tanto T (u) =
j=1 p j=1 p q i=1
mij vi y por lo
j
i=1
mij vi =
(
i=1 j=1
j mij )vi .
j m1j , . . . ,
j=1 j=1
j mqj ,
y por lo tanto si = (1 , ..., p ) son las coordenadas de u entonces M son las de T (u). Esto permite trabajar con M en vez de T . Ya tenemos una matriz que representa T , ahora deseamos olvidarnos de T y trabajar slo con un representante matricial. Para hacer esto, en algeo bra acostumbramos establecer una isomorf en este caso, entre el espacio a, vectorial de todas estas matrices, Mqp ( ), y aqul de todas las transformae ciones lineales. Para ello denamos primero este ultimo espacio.
Denicin 4.6. Sea U, V espacios vectoriales sobre o dim U = p y dim V = q respectivamente. Denimos
de dimensiones
(T )(x) = T (x), , T L (U, V ) (T + T )(x) = T (x) + T (x), T, T L (U, V ) es un espacio vectorial sobre el cuerpo
Tenemos entonces la propiedad buscada: L (U, V ) Mqp ( ) = En efecto, sean U , V bases de U y V respectivamente y denamos la funcin. o : L (U, V ) Mqp ( )
T (T ) = MU V (T )
Es decir, a una transformacin lineal arbitraria le asociamos su matriz o representante con respecto a las bases U y V . 1. es una transformacin lineal. Sean U = {u1 , ..., up }, V = {v1 , ..., vq }, o T, L LK (U, V ), A = MU V (T ), B = MU V (L). Calculemos (T + L) = MU V (T + L). (T + L)(uj ) = T (uj ) + L(uj ) =
q q q
=
i=1
aij vi +
i=1
bij vi =
i=1
Luego, la j-sima columna de MU V es el vector: e Se concluye entonces: a1j + b1j . . = Aj + Bj . aqj + bqj
a11 + b11 ...a1j + b1j ...a1p + b1p . . . . . (T + L) = MU V (T + L) = . . . . aq1 + bq1 ...aqj + bqj ...aqp + bqp = A + B = MU V (T ) + MU V (L) = (T ) + (L) De manera anloga se prueba que a (T ) = MU V (T ).
113
L (U, V )
j=1
j uj , de donde u U, T (u) =
j T (uj ) =
j=1 j=1
j 0 = 0, concluyendo T 0, la transformacin o
nula. Luego, es inyectiva. Veamos la epiyectividad. Dada una matriz o A = (aij ) Mqp ( ), le asociamos la transformacin lineal T , que
q
Mqp (T ) = A, luego es epiyectiva. De (1) y (2) conclu mos que es un isomorsmo. Directamente, de este resultado se tiene: dim L (U, V ) = dim Mqp ( ) = pq = dim U dim V . Es decir, la dimensin del espacio de transformaciones o lineales es nita y corresponde al producto de las dimensiones de U y V . En el contexto del resultado anterior que relacin existe entre la multiplio cacin de matrices y la composicin de funciones lineales?. o o Veamos que sucede al componer dos transformaciones lineales. Sean T : U V, L : V W transformaciones lineales, luego L T : U W es tambin lineal. Ahora bien, sean dimU = p, dimV = q, dimW = r con e bases U = {ui }p , V = {vi }q , W = {wi }r , respectivamente. Suponi=1 i=1 i=1 gamos adems que MU V (T ) = B Mqp ( ), a a o MU V (L) = A Mpr ( ). La pregunta es cul es la expresin de MU W (L T )? Los datos del problema son:
T (uk ) =
j=1 r
bjk vj aij wi
i=1
1kp 1jq
q
bjk vj ) =
j=1 q r
=
j=1 r
bjk L(vj ) =
j=1 q
bjk (
i=1
aij wi )
(
i=1 j=1
1kp
114
j=1
j=1
= A B = MV W (L) MU V (T ) Hemos probado que la matriz representante de la composicin de dos funo ciones lineales L T , es el producto de las matrices representantes.
115
obteniendo
Ejercicio
Ejercicio 4.3: T : U V es una transformacin lineal y , son o bases de U y V respectivamente entonces 1. T es invertible ssi M (T ) es una matriz invertible. 2. Si T es invertible, (M (T ))1 = M (T 1 ).
Esto nos permite, cuando se estudian transformaciones lineales sobre espacios vectoriales de dimensin nita, trabajar directamente en la estructura o matricial correspondiente, sumando o multiplicando matrices. En base a lo anterior se tiene el resultado siguiente: Teorema 4.5. Para toda matriz A Mnn ( ), las propiedades siguientes son equivalentes 1. A es invertible. 2. TA : 3.
Demostracion. Demostremos primero (2)(3). Para ello recordemos que A es la matriz representante de TA con respecto a las bases cannicas: o TA (ej ) = Aej = Aj. 2 3) Como TA es isomorsmo, es en particular inyectiva, luego {TA (ej )}n j=1 es .i {Aj }n es .i en n . Como dim n = n, este conjunto es base. j=1
3 2) Sabemos Aj = TA (ej ) para 1 j n, luego {Aj }n base, es j=1 decir {TA (ej )}n es base de n , luego ImTA =< {TA (ej )} >= n . Del j=1 TNI se tiene:
dim
entonces dim KerTA = 0 y por lo tanto KerTA = {0}. Adems las dimensiones de los espacios de partida y llegada son iguales, a luego TA es isomorrmo. (1)(2) es consecuencia del Ejercicio 4.3, usando el hecho de que TA tiene a A como matriz representante con respecto a las bases cannicas. o
116
Cuando denimos la matriz representante vimos que esta depend de las a bases elegidas. De esto surge el problema de la no unicidad de la representacin: una misma transformacin lineal tiene asociada ms de una matriz, o o a dependiendo de las bases escogidas. Sea entonces V un espacio vectorial sobre K, dimV = n, sean = {vi }i=1 y = {vi }n dos bases de V . Claramente, los vectores de tienen una i=1 representacin unica en la base : o
v1 = p11 v1 + p21 v2 + ... + pn1 vn . . . . . . . . . vj = p1j v1 + p2j v2 + ... + pnj vn . . . . . . . . . vn = p1n v1 + p2n v2 + ... + pnn vn
Denominamos matriz de pasaje o de cambio de base de a a la matriz: p11 ... p1j ... p1n . . . . . P = P = (pij ) = . . . . pn1 ... pnj ... pnn
cuya columna j-sima corresponde a las coordenadas del vector vj , de e la nueva base , con respecto a la antigua base . Es fcil ver que a est matriz es exactamente a
M (idV ), es decir la matriz representante de la identidad de V, colocando como base de partida y de llegada . Por otra parte, sabemos que a un vector x V podemos asociarle de manera biunivoca un vector = (1 , ..., n ) n , correspondiente a sus coordenadas con respecto a la base . De manera anloga le podemos asociar a = ( , ..., ) n , sus coordenadas con respecto a la base . 1 n Se tiene entonces:
n vj = j
v=
j=1
( j
j=1 i=1
pij vi ) =
(
i=1 j=1
pij )vi j
Pero, adems, v = a
i=1
i vi .
i =
j=1
pij j
1in
matricialmente: = P . 117
4.8.
Es posible despejar ?. S lo es, y esto es equivalente a probar que P es invertible. Pero por ser la matriz representante de un isomorf smo es entonces invertible. Adems P 1 es la matriz de cambio de base de a : a M (idV ). Observacin: Cabe hacer notar que la notacin no es muy afortunada, o o pues la matriz de cambio de base de a es M (idV ) es decir hay que expresar los vectores de en funcin de los de . o
Estudiaremos ahora la relacin que existe entre las distintas matrices reo presentantes de una misma transformacin lineal. Esto lo deduciremos de o la regla que tenemos para la matriz representante de una composicin de o aplicaciones lineales. Sea T : U V lineal y consideremos cuatro bases: , bases de U , bases de V. La pregunta es cmo se relacionan M (T ) y M (T )?. o Todo sale de la observacin o idV T idU = T, y por lo tanto M (T ) = M (idV T idU ) = M (idV )M (T )M (idU ). (4.4)
Es decir la nueva matriz representante de T es la antigua multiplicada por matrices de cambio de base. La mejor forma de recordar esto es con un diagrama T U, V, T idV idU U, V, Recorremos este diagrama de dos maneras distintas. para obtener la frmuo la 4.4. Notemos que cuando hacemos el recorrido por abajo el orden que aparecen las matrices es reverso: la matriz ms a la derecha en 4.4 es la que a actua primero y as sucesivamente. a Las matrices A = M (T ) y B = M (T ) estn relacionadas por un par de matrices invertibles que denotaremos por P, Q: C = P AQ. Diremos que entonces A y C son semejantes. Como ejercicio, probar que esta es una relacin de equivalencia. Un caso importante es cuando Q = o P 1 , es decir C = P AP 1 . 118
Esta ecuacin establece la relacin entre las coordenadas de un mismo veco o tor v V con respecto a ambas bases.
119
En este caso especial diremos que A y C son similares. Esta tambin es e una relacin de equivalencia. o Se tiene que a diferencia de la semejanza no es fcil saber cundo dos a a matrices son similares. Parte de este problema la estudiaremos en el prxima o seccin. o
matrices similares
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 9
Teorema 4.4
1. Sea T : U V una transformacin lineal. Pruebe que o (a) Si dim U = dim V entonces T inyectiva T epiyectiva T biyectiva. (b) Si dim U < dim V T no puede ser epiyectiva. (c) U isomorfo a V dim U = dim V. 2. Probar que si T : U V es lineal y W es un subespacio de U entonces (a) T (W ) es subespacio de V. (b) dim T (W ) dim U . (c) Si T es inyectiva dim T (W ) = dim W .
Ejercicio 4.2
3. T : U V es una transformacin lineal y , son bases de U y V o respectivamente entonces (a) T es invertible ssi M (T ) es una matriz invertible. (b) Si T es invertible, (M (T ))1 = M (T 1 ).
Ejercicio 4.3
Problemas
P1. Sean M22 ( ) el espacio vectorial de las matrices de 22 a coecientes reales sobre el cuerpo . Sea P2 ( ) el espacio vectorial de los polinomios de grado menor o igual a 2 a coecientes reales sobre el cuerpo . Sea
T:
(a) Demuestre que T es una transformacin lineal. o (b) Sean la bases de M22 ( ) y P2 ( ) siguientes: M = {( 1 0 ) , ( 0 1 ) , ( 0 0 ) , ( 0 0 )} , 00 00 10 01 P = {1, x, x2 }.
Encuentre la matriz representante de T con respecto a las bases M y P . (c) Sean la bases de M22 ( ) y P2 ( ) siguientes:
M = ( 1 0 ) , 0 1 1 0 0 1
,(0 1), 10
0 1 1 0
P = {1 + x, x + x2 , 1 + x2 }.
Encuentre la matriz representante de T con respecto a las bases M y P . (d) Calule la dimensin del N cleo y la dimensin de la Imagen de T . o u o 120
Ejercicios
g:
2 x g(x) =
2 1 0 0 3 2 5 , , , 4 1 2 0 1 2 4 0 1 2 B2 = 1 , 1 , 2 de 1 3 1
de M22 ( )
Sea A =
1 11 1 2 0 0 1 2 1 1 1
3.
(a) Encuentre la matriz representante de B de la funcin g con reso pecto a las bases cannicas de 3 y 2 respectivamente. o
(b) Obtenga la matriz representante de g f con respecto a la base o B1 en M22 ( ) y a la base cannica de 2 .
P3. Sea T : V V una aplicacin lineal con V espacio vectorial de dimeno sin nita. Demuestre que o V = Ker(T ) Im(T ) Ker(T 2 ) = Ker(T ). P4. Sea = {1, x, x2 } la base cannica o 0 Q = 1 1 del espacio P2 ( ). Considere 1 3 0 0 . 0 1
(a) Encuentre la base de P2 ( ) tal que Q sea representante de la identidad de P2 ( ) con en P2 ( )con . Si le sirve, si denotamos por [p] el vector de coordenadas de p con respecto a la base ,
[p] = Q[p]
(b) Sea T : P2 ( ) 3 la transformacin lineal cuya matriz repreo o sentante con respecto a las bases en P2 ( ) y cannica en 3 es la matriz 0 1 0 A = 0 0 2 . 0 0 0
p P2 ( ).
Calcule la matriz representante de T con respecto a las bases o en P2 ( ) y cannica en 3 , donde es la base encontrada en (a).
121
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
4.9.
Dada una matriz A Mqp ( ) denimos el rango de A, como el rango de la transformacin lineal T (x) = Ax. Denotaremos por r(A) el rango de A. o As r(A) es la dimensin de la imagen de A. o Como Ax = x1 A1 + ... + xp Ap si x = (x1 , ..., xp ), entonces la imagen de A es generada por las columnas de A esto es: ImA = {A1 , ..., Ap } , por lo tanto el rango de una matriz es el n mero mximo de columnas l.i. u a
Rango de A
Ejercicio
Ejercicio 4.4: Supongamos que A, B son semejantes es decir existen matrices invertibles P, Q tal que A = P BQ. Probar que entonces que A y B tienen el mismo rango: r(A) = r(B).
Nuestro propsito es probar la rec o proca de lo anterior, esto es si dos matrices de igual dimensin tienen el mismo rango entonces son semejantes. o Para ello necesitaremos lo que se llama la forma normal de Hermitte. Consideremos A Mqp ( ), ella induce de forma natural una aplicacin o lineal T mediante: T (x) = Ax. Es claro que A = M (T ) donde , son las bases cannicas de p y q respectivamente. Construiremos ahoo ra dos nuevas bases. Comencemos por una base de KerA: {u1 , ..., u }, y extendmosla a una base de p a
= {w1 , ..., wr u1 , ..., u }. Notemos dos cosas: primero que hemos dado un orden especial a esta base donde los vectores que agregamos van al principio; y segundo que del teorema del n cleo imagen p = dim p = dim ImA + dim KerA y por lo tanto u necesitamos agregar tanto vectores como rango de A es decir r = r(A). Tomemos ahora X = {v1 , ..., vr } donde vi = Awi , i = 1, ...r. Probaremos que X es un conjunto l.i.. En efecto si
122
1 w1 + ... + r wr = 1 u1 + ... + u , lo que implica que 1 w1 + ... + r wr 1 u1 ... u = 0, y como los vectores son l.i. se tiene que 1 = ... = r = 0. Extendamos ahora X a una base de q
= {v1 , ..., vr , vr+1 , ..., vq }, y calculemos la matriz representante de T con respecto a estas nuevas bases: Aw1 = v1 = 1v1 + 0v2 + ... + 0vr + 0vr+1 + ... + 0vq Aw2 = v2 = 0v1 + 1v2 + ... + 0vr + 0vr+1 + ... + 0vq . . . Awr = vr = 0v1 + 0v2 + ... + 1vr + 0vr+1 + ... + 0vq , Au1 = 0 = 0v1 + 0v2 + ... + 0vr + 0vr+1 + ... + 0vq . . . Au = 0 = 0v1 + 0v2 + ... + 0vr + 0vr+1 + ... + 0vq por lo tanto la matriz representante es: M (T ) = Ir 0 0 0 ,
donde Ir es una identidad de tama o r y el resto son matrices de ceros de n las dimensiones apropiadas. Usualmente esta matriz se denota por H y se le conoce como la forma normal de Hermitte. Usando el teorema de cambio de base se encuentra que existen matrices invertibles P, Q tal que A = P HQ. Por otro lado si A, B Mqp ( ) tienen el mismo rango entonces se demuestra que existen matrices invertibles P, Q, R, S tal que A = P HQ, B = RHS, y por lo tanto A = P R1 BS 1 Q, como P R1 , S 1 Q son invertibles se deduce que A, B son semejantes. El rango de una matriz es el n mero mximo de columnas l.i., pero que u a hay del n mero mximo de las l.i., o lo que es lo mismo, el rango de At . u a Veremos acontinuacin que o r(A) = r(At ). 123
es decir el vector 1 w1 + ... + r wr est en el KerA. Como lo hemos hecho a ya varias veces de aqu se deduce que los coecientes deben ser cero. En efecto, por estar en el KerA se debe tener que
que es la forma normal de Hermite para At . Adems es claro que r(H) = a r(H t ), pero entonces r(A) = r(H) = r(H t ) = r(At ). En particular se concluye que r(A) m nimo (p, q). Un problema que se nos presenta es saber si hay una forma fcilde calcular a el rango de una matriz. La respuesta es si, y se obtiene mediante escalonamiento. Notemos que la matriz escalonada de A que usualmente se denota A, tiene el mismo rango que A pues estas dos matrices son semejantes. En efecto A se obtiene por premultiplicacin de A por matrices elementales que o son invertibles. Pero el rango de A es fcil de calcular, pues tiene tantas a las l.i. como las no nulas tenga, y esto debido a la forma triangular de A. Por lo tanto el rango de A es el n mero de las no nulas en A. u Tomemos, por ejemplo, el escalonamiento siguiente: 1 1 1 1 1 0 0 1 1 1 1 1 0 0 1 1 1 1 1 0 1 0 2 0 2 2 0 1 A = 0 1 1 1 1 0 1 A = 0 0 1 0 2 0 1 , 2 0 1 1 1 1 1 0 0 0 0 0 0 1 1 1 1 1 1 1 0 1 0 0 0 0 0 0 0
Ejercicio
Ejercicio 4.5: Probar que r(AB) r(A) y por lo tanto r(AB) m nimo (r(A), r(B)).
5.
En esta seccin abordaremos el problema de saber cundo para una aplio a cacin lineal L : n n , es posible encontrar una base B con respecto o a la cual la matriz representante de L sea diagonal. En forma equivalente, cundo una matriz A de n n puede descomponerse de la forma a
A = P DP 1 con D diagonal ?
(5.1)
Este problema de naturaleza puramente algebraica, tiene muchas aplicaciones en otras ramas de la Matemtica, por ejemplo en Ecuaciones Diferena ciales, Estad stica, etc. Tal vez el teorema ms importante de este cap a tulo es el que dice que toda matriz simtrica puede representarse en la forma (5.1). e Comenzamos con las nociones de valores y vectores propios de una aplicacin lineal L : V V donde V es un espacio vectorial sobre ( = o o ).
124
Usando la forma normal de Hermite, se deduce que existen matrices invertibles P, Q tal que A = P HQ. At = Qt H t P t ,
(i) x = 0
tal que L(x) = x. En este caso el valor que satisface (ii) se denomina valor propio
(ii) asociado a x. Diremos que x V \ {0} es un vector propio de A Mnn si es vector propio de la aplicacin lineal L dada por L(x) = Ax. Es decir o
Ax = x.
De la misma manera decimos que es valor propio de A. Para la transformacin lineal asociada a una matriz A mencionada anteo riormente, se tiene: Proposicin 5.1. Dada A Mnn ( ), son equivalentes: o (i) x = 0 Ax = x. (ii) x solucin no trivial del sistema (A I)x = 0. o (iii) Ker(A I) = {0} (iv) A I no es invertible. Necesitamos una forma fcil de determinar qu valores de son valores a e propios. Para ello ser util que la condicin (iv) pudiera expresarse como a o una ecuacin en . Veremos que el clculo de los valores propios se reduce a o a estudiar un polinomio de grado n cuyos coecientes dependen de la matriz A. Con este objetivo introduciremos una aplicacin llamada determinante, o le asigna un elemento que a cada matriz cuadrada A con coecientes en de . Para ello primero deniremos Aij la submatriz de A que se obtiene a partir de A eliminado la la i y la columna j.
Ejemplo:
Con esto podemos denir el determinante de una matriz por un procedimiento inductivo de la siguiente forma. Denicin 5.2 (Determinante). Denimos el determinante de A como o (i) Si A es de 1 1 |A| = a donde A = a. 125
1 A = 4 7
2 5 8
3 6 9
A11 =
5 6 . 8 9
Determinante
Diremos que x V es un
i=1
As, si A =
a c
b d
Ejercicio
Ejercicio 5.1: Obtener la frmula para una matriz de 3 3. o A continuacin daremos las propiedades ms importantes de la funcin o a o determinante, sin dar demostraciones, las cuales se presentan (por completitud) en el Apndice. e
126
(ii) Si A es de n n |A| =
Proposicin 5.2. Se tienen las siguiente propiedades: o 1. El determinante es una funcin lineal de las las de A es decir o A1 . . . : tx + y = t . . . An A1 A1 . . . . . . x + y . . . . . . An An
t K, x, y
2. Si B se obtiene de A permutando dos las entonces |A| = |B|. 3. Si A tiene dos las iguales |A| = 0. 4. |I| = 1 donde I es la identidad.Si A es triangular superior entonces
n
|A| =
aii .
i=1
5. Si a la la i de la matriz A le sumamos la la j ponderada por t entonces el determinante no cambia. Es decir A1 A1 . . . . . . A Ai1 i1 Si B = donde i = j y A = entonces Ai + tAj Ai . . . . . . An An |B| = |A|. 6. Si A = (ij ) es una versin escalonada de A y N , el nmero de a o u permutaciones de las realizadas para escalonar A. Entonces:
n
aii .
i=1
8. Una permutacin del conjunto {1, 2, ..., n} es una funcin : {1, 2, ..., n} o o 1 2 ... n {1, 2, ..., n}, biyectiva. Se suele usar la notacin = (1) (2) ... (n) . o Dada permutacin del conjunto {1, 2, ..., n}, se dene signo() = o e(1) una
e(2)
permutacin o
signo() a1(1) a2(2) ...an(n) donde la suma se extiende sobre todas las n! permutaciones de {1, ..., n}. 9. |AB| = |A||B|. 127
aii .
i=1
|A| =
i=1
|A| =
j=1
La propiedad (7) nos dice que es valor propio de A si y slo si |AI| = 0. o Esta ecuacin es un polinomio de grado n en . o En efecto, usando la formula (8) se tiene
n
|A I| =
signo ()
i=1
(A I)i(i)
signo ()
i=1
(A I)i(i) =
i=1
donde q() es un polinomio de grado n 1. Si es distinta de la permutacin identidad se tendr que existe un o a ndice
n
i=1
(A I)i(i) =
(aii )
i:(i)=i
(este ultimo producto debe contener por lo menos dos trminos por qu?) e e y por lo tanto |A I| = (1)n n + n1 n1 + ... + 1 + 0 , donde n1 , . . . , 0 dependen de A. Por ejemplo evaluando en = 0 se tiene |A| = 0 . Cunto vale el coeciente de n1 ?. a Denicin 5.3 (Polinomio caracter o stico). P () = |A I| es llamado el polinomio caracter stico de A. Ejemplo: A= 4 2 5 3
128
A I =
4 2
5 3
4 5 2 3
pero entonces 0 = |AI| = (4)(3+)+10 = (12+2 )+10 = 2 2. Los valores propios son 1 = 2, 2 = 1. Ejemplo: A= 0 1 1 0 |A I| = 1 1 = 2 + 1 = 0
no tiene solucin en , y por tanto A no tiene valores propios reales. o Sin embargo si el cuerpo donde estamos trabajando es entonces A tiene dos valores propios. Ejemplo: Sea D( ) = { espacio de funciones innitamente diferenciables de } se prueba fcilmente que D( ) es un espacio vectorial sobre . a Consideremos L : D( ) D( ) df , f Lf = dt es decir Lf es la funcin derivada de f . o
As por ejemplo si f (t) = tn , g(t) = cos(t) se tendr Lf = ntn1 ; Lg = a sen(t). Estudiemos si L tiene vectores propios: Lf = f es decir df = f . Esta es una ecuacin diferencial y una o dt solucin es: f (t) = cet . o Luego todo es valor propio y un vector propio es cet , c = 0.
, De la denicin v es vector propio si v = 0 y tal que Av = v. As o es valor propio si y slo si existe una solucin no nula de la ecuacin o o o (A I)v = 0 Cualquier solucin no nula de esta ecuacin es entonces un vector propio o o de A con valor propio . Notemos que si v es vector propio tambin lo es 10v y en general v para e cualquier , = 0. Adems, si v es vector propio, el valor propio asociado es unico. Supongamos a que L(v) = 1 v = 2 v entonces (1 2 )v = 0 . Como v = 0 se tendr 1 a 2 = 0 y por lo tanto 1 = 2 .
Para cada valor propio de A, introduciremos el subespacio propio W que corresponde a W = Ker(A I). Notar que este subespacio debe contener vectores no nulos, pues es valor propio.
Subespacio propio
129
luego A y B tienen el mismo polinomio caracter stico, por lo tanto tienen los mismos valores propios. Ejemplo: Sea A = 4 5 Sabemos que los valores propios son 1 = 2, 2 = 2 3 1. Calculemos los vectores propios asociados. 1 = 2 La ecuacin de vectores propios es o (A 2I) x1 x2 = 2 5 2 5 x1 x2 = 0 0
W2 = Ker(A 2I) = {
x1 x2
/x1 =
5 x2 } = 2
1 1
5 2
5 2
= 0.
5 5 5 5 , luego la solucin general o 2 2 0 0 de la ecuacin (A + I)x = 0 es: x1 = x2 , y su espacio propio es o W1 = Ker(A (1)I) = Ker(A + I) = 1 1 .
130
Si A y B son similares es decir si existe P invertible tal que A = P BP 1 , entonces los valores propios de A y B son los mismos y ms a n, el polinomio a u caracter stico es el mismo. En efecto:
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Apendice
Hemos denido el determinante de una matriz A de nn en forma recursiva de la siguiente manera | A |= (1)j+1 aj1 | Aj1 |, donde Ak es la matriz
j
de n 1 n 1, que se obtiene de A eliminndole la la k y la columna a . Probaremos ahora las propiedades fundamentales de esta funcin. Varias o de las propiedades pueden probarse por induccin, dejaremos al lector la o tarea de completar estas demostraciones. 1. Si a11 . . . a1n
= |A| + |B|.
Por hiptesis de induccin (sobre el tama o de la matriz) se tiene o o n | Aj1 |=| Aj1 | + | B j1 | . Adems, | Ak1 |=| Ak1 |, luego a
n n
| A |=
j=1
j=1 j=k
(1)k+1 (ak+1 + bk+1 ) | Ak1 |=| A | + | B | Anlogamente se prueba que si a a11 . . . A = tak1 . . . an1 a1n . . . takn , ann
131
a1n
ann
akn .
As visto como funcin de las las de A el determinante tiene la propie o dad lineal siguiente A1 A2 . . . A1 A1 A2 A2 . . . . . . =t . + y x . . . . . . An An
x, y
n ,t K : tx + y . . . An
Es decir el determinante es lineal en cada una de las las de la matriz. Si estamos considerando matrices de dimensin n entonces diremos que o el determinante es n-lineal. Probaremos simultneamente por induccin las propiedades (2) y (3): a o 2. Si B se obtiene de A permutando dos las entonces |B| = |A|. Se dice que el determinante es una funcin alternada. o 3. Si A tiene dos las iguales entonces |A| = 0. Supongamos que A tiene las las i y j iguales, es decir: A1 . . . X i . A= . . . j X . . . An
Cada matriz Ak1 tiene dos las iguales a menos que k = i o k = j de donde | Ak1 |= 0 si k = i k = j. Por lo tanto | A |= (1)i+1 ai1 | Ai1 | +(1)j+1 aj1 | Aj1 |. Las matrices Ai1 y Aj1 de dimensin n1n1 son iguales excepto que o la la X esta en distinta posicin. En Ai1 esta en la la j 1. En Aj1 esta o en la la i. As podemos llegar de la matriz Ai1 a la matriz Aj1 mediante 132
entonces
| A | = ai1 {(1)i+1 (1)j1i | Aj1 | +(1)j+1 | Aj1 |} Supongamos que A se obtiene de A permutando las las i y j: A1 . . . Aj i . A= . . . j Ai . . . An Ai + Aj i . . B= , . Ai + Aj j . . . An A1 A1 . . . . . . Ai Ai . . . + . + . . Ai Aj . . . . . . An An A1 . . . = {(1)j (1)j }ai1 | Aj1 |= 0
Tomemos
j 1i permutaciones. Por cada permutacin hay un cambio de signo en o el determinante (de dimensin n 1). Luego | Ai1 |= (1)j1i | Aj1 |. o Adems ai1 = aj1 a
| A |= | A | 4. Sea In la identidad de n n entonces |In | = 1. En efecto |In | = 1|In1 | = 1. De manera ms general se prueba que si A es triangular superior entona
n
ces |A| =
lo probaremos ms tarde. a 5. Si a la la i le sumamos la la j(i = j) amplicada por alg n factor, u entonces el determinante no cambia. Sea Aj j . . A= , . Ai + tAj i . . . An A1 . . .
entonces
A1 . . . Aj j |=| A | +t . |A =| A | . . Aj i . . . An
6. Las las de A son l.d. | A |= 0. Supongamos que las las de A son l.d. es decir 1 , ..., n no todos nulos tal que 1 A1 +2 A2 +...+n An = 0 podemos suponer sin prdida de generalidad que 1 = 0 e 1 A1 + 2 A2 + ... + n An A2 = A= . . . An
n j=2
y por lo tanto
An A2 . = 1 |A|, . . An
Si las las son l.i. probaremos que |A| = 0. En efecto, mediante operaciones elementales sobre las las de A (suma de las y permutacin de o las) se llega a a11 0 . A= . . . . . 0 a12 a22 0 . . . 0 .. 0 . 0 a1n a2n
n
ann
Falta probar que |A| = |At |. Esta proposicin no es fcil, para ello o a necesitamos la siguiente frmula: o 7. |A| =
todas las permutaciones de {1, ..., n} y signo() se dene como e(1) . signo () = . , . e(n)
n n
135
pero para j 2 la primera la de Aj1 es cero luego las las de Aj1 son l.d., por tanto | Aj1 |= 0. As | A |= 0. Adems a
() = 1
El trmino asociado a esta permutacin en la frmula (7) es: e o o 1 a12 a21 a33 a44 ...ann Notemos que cada trmino de la frmula (7) es el producto de una elee o mento por la y columna. Demostremos la frmula. Dado que A1 = a11 e1 + a12 e2 + ... + a1n en se o tendr a ek n A2 | A |= a1k . . . .
k=1
An
Anlogamente A2 = a
=1
a2 e , luego ek e A3 = . . . An ek e A3 . . . . An e
ek A2 . = . . An Por lo tanto
a2
=1
a2
=k
|A| =
a1k a2
k=
k1
todos distintos
k1 ,...,kn
Esta suma es la suma sobre todas las permutaciones ek1 1 2 n . y . = signo (), = . k1 k2 kn ekn
lo que prueba la frmula deseada. Notemos que lo que se uso en probar o esta frmula es que el determinante es n-lineal y alternada. Por esto o estudiaremos un poco como son este tipo de funciones.
136
0 1 1 0 signo() = 0 0 . . .
0 0 1 .. .
n donde F (I) es el valor que toma para la identidad de tama o n. Este resultado dice que toda funcin n-lineal alternada debe ser un m ltiplo o u del determinante. De igual forma como lo hicimos para el determinante se prueba que e(1) . F (A) = a1(1) ...an(n) F . . . e(n) Pero por ser F alternada se tendr a e(1) . F . = F (I) . e(n)
es exactamente 1 dependiendo de la paridad del n mero de intercamu bios necesarios para llegar a la identidad. Luego, F (A) = F (I) signo ()a1(1) ...an(n) =
j
el signo depende de si se necesitan un n mero par o impar de permutau ciones para llegar a la identidad pero e(1) . . . e(n)
A |AB|
A1 A1 . . . . . . C1 = X C2 = Y . . . . . . An An A1 B A1 . . . . . . = XB + Y B , = X +Y AB A . . . . . . An B An 137
Supongamos que tenemos una funcin F que asigna a cada matriz cuao drada de n n un n mero de , de manera que es n-lineal y alternada u en las las de la matriz, entonces necesariamente:
se tendr |AB| = |AB| por lo tanto F (A) = F (A). Del resultado a anterior concluimos que F (A) = |A|F (I) pero F (I) = |IB| = |B| por lo tanto |AB| = |A||B| 9. Si A es invertible entonces |A1 | = 1 |A|
1 |A| .
Proposicin 5.3. Sean y dos permutaciones entonces signo( o ) = signo() signo( ). Demostracion. Sean e(1) . A= . . e(n) 138 e (1) . B= . . e (n)
y por lo tanto
Si escribimos A en trminos de sus columnas, tendremos que el 1 de la e primera columna se ubica en la posicin k (la k) que hace que (k) = 1, o pero entonces k = 1 (1), por lo tanto A descrita por sus columnas es: A = (e1 (1) e1 (2) ...e1 (n) ). Como 0 j=k et ek = , se tiene que la primera la de BA tendr la forma: a j 1 j=k (BA)1j = et (1) e1 (j) = 1 0 (1) = 1 (j) , sino
es decir (BA)1 es un vector de la base cannica, lo que debemos aveo riguar es en que posicin tiene el 1, pero esto se deduce de la ecuao cin (1) = 1 (j) pues entonces j = ( (1)) = (1), luego o (B A)1 = eo (1) . As se obtiene: e (1) e (2) BA = . . . e (n) signo( )= signo() signo( ). En particular signo( 1 )= signo() pues signo( 1 ) = signo(id) = 1 = signo() signo( 1 ), donde id es la permutacin identidad. o 10. Probemos ahora que |A| = |At |. En efecto: |At | = =
n n
pero
i=1
a(i)i =
de acuerdo a la primera coordenada. Luego |At | = ( signo())a11 (1) a21 (2) ...an1 (n) .
i=1
Como signo() = signo( 1 ) y la aplicacin 1 es una biyeccin o o se tiene: |At | = ( signo())a1(1) ...a2(2) = |A|
139
Sea F : Mnn ( )
F (A) =
n i=1
desarrollar el determinante de A por la columna j. Se puede probar al igual que hicimos para el determinante que F es n-lineal y alternada luego F (A) = |A| F (I) pero F (I) = 1, por tanto F (A) = |A|. Adems si se usa |A| = |At | se prueba que se puede calcular a
n
j=1
(AB)ij =
k=1
aik bkj =
k=1
2. j = i (AB)ij =
k=1
(1)k+j aik |Ajk |, que corresponde al determinante |A| a11 . . . ai1 . . . ai1 |A| . . . an1 . . . . . . . . . a1n . . . ain i . . . ain j |A| . . . ann
Como las las de esta matriz son l.d. se tiene y por tanto AB = I lo que implica que B = A1 . Ejemplo: Sea A= a c b d
k=1
140
Formula para A1
|A| = ad bc
141
Se tendr que a
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 10
1. Suponga que A, B son semejantes, es decir, existen matrices invertibles P, Q tal que A = P BQ. Pruebe que A y B tienen el mismo rango: r(A) = r(B). 2. Probar que r(AB) r(A) y por lo tanto r(AB) m nimo (r(A), r(B)). 3. Obtener la frmula del determinante de una matriz de 33. o 4. Demuestre que si A, B Mnxn ( ), entonces P (A B) = P (B A) si A es invertible, y donde P (A) denota el polinomio caracter stico de A 5. Determinar los valores y los vectores propios correspondientes a las matrices siguientes: 2 0 0 3 1 0 0 2 0 0 0 3 0 0 3 2 2 3 2 1 0 2 1 6 2 1 1 0 1 1 4 2 6 4 3
0 3 1 0
1 0 3 0
Problemas
P1. (a) Pruebe que una matriz A Mmn ( ) tiene rango 1 si y slo si o existen u m , v n , ambos no nulos tales que A = uv t .
y n
0 0
k k + n ).
, 0 < < 1.
1 .
a) Sea PA1 B () el polinomio caracter stico de A1 B. Pruebe que |(A + (1 )B)| = (1 )n |A|PA1 B
b) Demueste que existe 0 < < 1 tal que (A+(1)B) es invertible. 142
Ejercicios
a) Pruebe que si Bv = 0 y v es vector propio de A asociado a entonces Bv tambin lo es. e b) Muestre que si v es vector propio de A perteneciente a un espacio propio de dimensin 1, entonces v es vector propio de B. o
143
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Sea L : n n lineal y sea A la matriz representante de L con respecto a la base cannica B. Supongamos que existe B = {v1 , . . . , vn } base de o vectores propios, es decir B es una base de n y
i i
Avi = i vi .
MB B (L) =
Adems se tiene el diagrama a B B Por lo tanto A = P DP 1 Algunas ventajas de conocer D: (1) r(A) = r(D) = n mero de valores propios no nulos. u (2) |A| = |P DP 1 | = |P ||D||P 1 | = |D| =
n
P 1
D B
P.
i .
i=1
En efecto,
A1 = (P DP 1 )1 = (P 1 )1 D1 P 1 = P D1 P 1 ,
144
pero D1 = (4)
.. 0
.
1 n
Como hemos visto A = P DP 1 donde P = MB B (idn ) es decir tenemos que expresar los vectores propios en trminos de la base cannica, y por lo e o tanto P = (v1 , v2 , . . . , vn ), donde los vectores vi son las columnas de P . Denicin 5.4 (Matriz diagonalizable). Diremos que A Mnn ( ) es o diagonalizable si n admite una base de vectores propios de A.
Am = (P DP 1 )m = (P DP 1 )(P DP 1 ) (P DP 1 ) m 1 0 1 .. = P Dm P 1 = P P . 0 m n
Matriz diagonalizable
Teorema 5.1. A es diagonalizable si y slo si A es similar a una matriz o diagonal. Demostracion. () Hemos visto que si A es diagonalizable entonces 1 0 .. A = P DP 1 donde D = .
() Supongamos que A es similar a una diagonal, es decir existe P invertible tal que A = P DP 1 . De manera equivalente: AP = P D.
d1 0
Si suponemos que P = (v1 , . . . , vn ) (notacin por columnas) y D = o entoces la igualdad anterior se escribe:
d1 0 0
..
,
dn
A(v1 , . . . , vn ) = (v1 , . . . , vn )
0
..
.
dn
Y por propiedades de la multiplcacin de matrices esto equivale a: o (Av1 , . . . , Avn ) = (d1 v1 , . . . , dn vn ). Finalmente, la igualdad vista por columnas nos dice que i {1, . . . , n} Avi = di vi . Es decir, los vectores v1 , . . . , vn son vectores propios de A (son no nulos pues P es invertibles), con valores propios respectivos d1 . . . , dn . Adems, son claramente una base de n , pues son las columnas de P que a es invertible.
145
1 1
Teorema 5.2. Sea A Mnn ( ) si {i }i=1,...,k son valores propios de A distintos y {vi }i=1...,k son vectores propios de A tal que Avi = i vi , entonces {vi }i=1,...,k es un conjunto l.i. Demostracion. Por induccin sobre k. Para k = 1, la propiedad es obo viamente cierta. Supongamos 1 v1 + + k vk = 0, donde Avi = i vi y i i = 1, . . . , k son todos distintos. Entonces 1 1 v1 + + k k vk = A(1 v1 + + k vk ) = A0 = 0. Multiplicado (5.2) por k se tiene 1 k v1 + + k k vk = 0. Luego 1 (1 k )v1 + + k1 (k1 k )vk1 = 0 como {v1 . . . , vk1 } son l.i. se tiene i (i k ) = 0 i = 1, . . . ., k 1. Como i = k se debe tener que i = 0 i = 1, . . . , k 1 y de (5.2) se concluye que k = 0. Antes de seguir, veremos la extensin natural del concepto de suma dio recta de ms de dos subespacios vectoriales. Denamos primero, dados a U1 , U2 , . . . , Uk s.e.v. de un espacio vectorial V , la suma de ellos como:
k i=1 k
(5.2)
+ Ui i=1
+ Ui = U1 + U2 + + Uk
v=
i=1
ui | i {1, . . . , k}, ui Ui
Esto es claramente un s.e.v. de V . Denicin 5.5 (Suma directa m ltiple). Sea V espacio vectorial y U1 , . . . , Uk o u k subespacios vectoriales de V . Decimos que el subespacio Z = +i=1 Ui es suma directa de U1 , . . . , Uk , notado Z = k Ui = U1 U2 Uk , i=1 si para todo v Z, v se escribe de manera unica como
k
k L
Ui
i=1
v=
i=1
ui ,
Las siguientes propiedades se tienen de manera anloga al caso de dos a subespacios: Proposicin 5.4. Sea V espacio vectorial y Z, U1 , . . . , Uk subespacios veco toriales de V , entonces:
k
1. Z =
i=1
Ui Z =
i=1
+ Ui
i=1 i=j
+ Ui = {0}.
k i=1
(a) Z =
i=1
Ui .
(d) dim(Z) =
i=1
dim(Ui ).
Demostracion. Probaremos (a) (b) en la parte 2. El resto de las demostraciones, quedan propuestas como ejercicio. (b) (a) Sea v Z y dos formas distintas de escribirlo:
k k
Ejercicio
v=
i=1
wi =
i=1
wi ,
con wi , wi Ui .
lo cual es una combinacin lineal nula, con escalares no nulos (todos 1), de o los vectores ui = wi wi Ui \ {0}. Pero esto es una contradiccin con el o hecho de que dichos vectores son l.i, por hiptesis. o As se tiene que la escritura es unica y por ende la suma es directa (a) (b) Supongamos ahora que Z = ui Ui , i {1, . . . , k}. Estudiemos
k k i=1
i ui = 0.
i=1
Como para cada i {1, . . . , k}, Ui es un s.e.v., luego i ui Ui . As hemos , encontrado una forma de escribir al vector nulo como suma de elementos de los subespacios Ui . Por unicidad de dicha escritura, i {1, . . . , k}, i ui = 0. Y esto implica, ya que ui = 0, que i = 0, i {1, . . . , k}. Es decir, {u1 , . . . , uk } es l.i.
147
2. Si Z =
Teorema 5.3. Sea A Mnn ( ), 1 , . . . , k los valores propios (distintos) de A y Wi = Ker(Ai I), i {1, . . . , k}. Si W = W1 +W2 + +Wk , se tiene que W = W1 W2 Wk . En particular, A es diagonalizable si y slo si o
n = W
W2 Wk .
Demostracion. Directa de la Proposicin 5.4. o Corolario 5.1. Supongamos que A Mnn ( ) y que p() = |A I|, el polinomio caracterstico de A, tiene n races distintas en : 1 , . . . , n , entonces
o 1. Wi = Ker(A i I) es de dimensin 1. 2. Sea vi Wi con vi = 0 entonces {v1 , . . . , vn } es una base de vectores propios. Este teorema da un criterio simple para que A Mnn ( ) sea diagonizable, ste es que A tenga n valores propios distintos. e Ejemplo: Sea 1 1 1 A= 1 1 1 1 1 1 1 1 1 p() = |A I| = 1 1 1 1 1 1
= (1 )3 (1 ) (1 ) 1 1 (1 ) = 32 3 4 = (1 3 + 32 3 ) 3 + 3 2
= (1 ){(1 )2 1} 1{(1 ) + 1} {1 + (1 )}
Ahora = 2 es una ra de p(). Por otro lado p()2 = 2 ++2 z As las otras ra ces de p son = 1 y = 2. Por lo tanto p() = ( 2)( + 1)( 2) Se puede probar que A tiene una base de vectores propios por lo que no es necesario que todos los valores propios sean distintos para que A sea diagonalizable.
148
Denicin 5.6 (Multiplicidad geomtrica). Sean A Mnn ( ) y o e un valor propio de A. Denimos la multiplicidad geomtrica de , e A (), como la dimensin del espacio propio W = Ker(A I). o
Multiplicidad geomtrica, A () e
Teorema 5.4. Una matriz A Mnn ( ) es diagonalizable ssi la suma de las multiplicidades geomtricas de sus valores propios es n. e
Demostracion. Basta usar el Teorema 5.3 y el hecho de que si 1 , . . . , k son los v.p.s de A,
k
dim(W1 Wk ) =
A (i ).
k=1
Denicin 5.7 (Multiplicidad algebraica). Sean A Mnn ( ) y un o valor propio de A. Denimos la multiplicidad algebraica de , A (), como la mxima potencia de (x ) que divide al polinomio caracterstico a de A, pA (x) = |A xI|. Proposicin 5.5. Sean A Mnn ( ) y 0 un valor propio de A, entonces: o 1 A (0 ) A (0 ) n.
Multiplicidad algebraica, A ()
Ejercicio
Ejercicio 5.2: Demuestre la Proposicin 5.5. Para ello proceda de la o siguiente manera: 1. Pruebe las desigualdades 1 A (0 ) y A (0 ) n.
149
Ejemplo:
2. Sea = A (0 ). Considere una base 0 = {v1 , . . . , v } de W0 = Ker(A 0 I). 3. Extienda dicha base a una base = {v1 , . . . , v , v+1 , . . . , vn } de n .
4. Calcule la matriz representante de T (x) = Ax, con respecto a la base . Es decir, M (T ). 5. Pruebe que pA () = |A I| = ( 0 ) q(). En donde q() es un polinomio de grado n . Indicacin: Pruebe y use que A y M (T ) son similares. o 6. Concluya el resultado.
Corolario 5.2. Sea A Mnn ( ) y pA () su polinomio caracterstico. Se tiene entonces que A es diagonalizable si y slo si pA () se factoriza como en factores lineales. Es decir: pletamente en
pA () = cA ( 1 )A (1 ) ( 2 )A (2 ) . . . ( k )A (k ) , y adems, para todo valor propio de A, se tiene que A () = A (). a Demostracion. Supongamos que A es diagonalizable y sean 1 , . . . , k sus valores propios. Entonces, gracias al Teorema 5.3 tenemos que n = k i=1 Wi . del polinomio caracter stico de A: Sea entonces la fatorizacin en o
pA () = cA ( 1 )A (1 ) ( 2 )A (2 ) . . . ( k )A (k ) q(), con q() un polinomio. Pero, gracias a la Proposicin 5.5, o n = dim( De donde Ahora n = gr(pA ()) = gr(cA ( 1 )A (1 ) ( 2 )A (2 ) . . . ( k )A (k ) ) + gr(q())
k k i=1
n) = dim(
Wi ) =
i=1 i=1
A (i )
A (i ).
i=1
A (i ) = n.
=
i=1
A (i ) + gr(q()).
n
150
de la si-
dim(
i=1
Wi ) =
i=1
A (i ) < n =
i=1
A (i ).
Lo cual contradice la hiptesis de igualdad de las multiplicidades. o Corolario 5.3. A Mnn ( ) es diagonalizable si y slo si para todo valor o propio de A, se tiene que A () = A ().
151
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 11
Proposicin 5.4 o
(a) Z =
i=1
Ui Z =
k
i=1
+ Ui
j {1, . . . , k}, Uj
i=1 i=j
+ Ui = {0}.
(b) Si Z =
i=1
(1) Z =
(2) (i {1, . . . , k})(ui Ui \ {0}) {u1 , . . . , uk } es l.i. (3) La yuxtaposicin de bases de los subespacios Ui es una base (y o no slo un generador) de Z. o
k
(4) dim(Z) =
i=1
dim(Ui ).
2. Pruebe que, dados A Mnn ( ) y 0 un valor propio de A, entonces: 1 A (0 ) A (0 ) n. Para ello (a) Pruebe las desigualdades 1 A (0 ) y A (0 ) n.
Proposicin 5.5 o
(d) Calcule la matriz representante de T (x) = Ax, con respecto a la base . Es decir, M (T ). (e) Pruebe que pA () = |A I| = ( 0 ) q(). En donde q() es un polinomio de grado n . Indicacin: Pruebe y use que A y M (T ) son similares. o (f ) Concluya el resultado.
Problemas
P1. (a) Sea P2 ( ) el espacio vectorial de los polinomios a coecientes reales de grado menor o igual a 2, y sea T : P2 ( ) P2 ( ) la transformacin lineal denida por o
152
Ejercicios
(2) Calcule A2n para cada n 1 natural, diagonalizando A. (3) Calcule T 2n (1 + x + x2 ), donde T 2n = T T T .
2n
Indicacin: Recuerde que la matriz representante de T 2n es o A2n . (b) Encuentre los valores reales de 2 0 2 0 0 0 0 0 0 sea diagonalizable. y de modo que la matriz 0 0 0 0 0 2 0 0 0 1 0 0 1
P2. Sea a . Se dene una sucesin de n meros reales (un )n de la o u siguiente manera: u0 = 1, u1 = a, (n 2) un = aun1 un2 . Sean x0 = ( 1 ), (n 1) xn = ( uun ). n1 0 (a) Demuestre que para todo n 0 se tiene que xn = An x0 con A = a 1 . 1 0 (b) Demuestre que si |a| = 2 entonces A no es diagonalizable. (d) Asuma que |a| > 2 y denote 1 , 2 los valores propios de A. Demuestre que (1) y ( 2 ) son vectores propios asociados a 1 y 2 , respec1 tivamente. n+1 n+1 2 (2) Para todo n se tiene que un = 1 1 2 .
1 1
P3. Sean R, S Mnn ( ), con S invertible. Considere A = RS y B = SR. (a) Pruebe que v n es vector propio de A asociado al valor propio R ssi Sv es vector propio de B asociado al mismo valor propio . Concluya que A y B tienen los mismos valores propios. (b) Sean W (A) = Ker(A I) el subespacio propio de A asociado al valor propio y W (B) el subespacio propio de B asociado a . Pruebe que dim(W (A)) = dim(W (B)).
153
(1) Verique que la matriz representante de T con respecto a la base cannica {1, x, x2 } de P2 ( ) (en dominio y recorrido) o es 1 0 2 A = 0 1 0 . 2 0 1
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
6.
6.1.
Ortogonalidad
Conjuntos ortogonales y ortonormales
Recordemos que la proyeccin de u sobre v = 0 est denida por w = u,v v. o a v,v Este vector w es el que est ms cerca de u en el espacio {v} . Es decir a a m u v = u w . n
uv
Denicin 6.1 (Conjunto ortogonal/ortonormal). Un conjunto {v1 , . . . , vk } o Conjunto 1 ortogonal/ortonormal n 2 se dice ortogonal si vi , vj = 0 i = j. Si adems vi = vi , vi = a de 1, diremos que el conjunto es ortonormal. En el caso en que {v1 , . . . , vk } es adems base de un subespacio vectorial a W , diremos que se trata de una base ortonormal de W . Base
ortogonal/ortonormal
Veamos una propiedad util de los conjuntos ortogonales: Proposicin 6.1. Sea {v1 , . . . , vk } o es l.i.
k
o Demostracion. Sea i=1 i vi una combinacin lineal nula de los elementos de {v1 , . . . , vk }. Sea j {1, . . . , k}, luego por propiedades del producto interno:
k k
i vi , vj
i=1
=0
i vi , vj = 0.
i=1
Pero dado que el conjunto es ortogonal, luego vi , vj = 0 para i = j, de manera que 2 j vj , vj = j vj = 0. Y como vj = 0, se deduce que j = 0. Como este procedimiento es vlido para todo j {1, . . . , k}, se concluye a que {v1 , . . . , vk } es l.i. Ahora, en el caso de conjuntos ortonormales, hay propiedades importantes que motivan su b squeda. u Proposicin 6.2. Sea W un subespacio vectorial de o base ortonormal de W , entonces:
n y {u1, . . . , uk } una
154
x= 2. Si x
x, ui ui .
i=1
n y denimos
k
z=
i=1
x, ui ui W,
entonces (xz)w, w W . Y en particular d(x, z) = m wW d(x, w), n de hecho w W \ {z}, d(x, z) < d(x, w). Demostracion. 1. Como {u1 , . . . , uk } es una base de W y x W , luego
k
x=
i=0
i ui .
x, uj =
i=0 k
i ui , uj i ui , uj .
i=0
Como el conjunto {u1 , . . . , uk } es ortogonal, se tiene que ui , uj = 0, i = j, de donde x, uj = j uj , uj = i 1. Repitiendo este procedimiento para todo j {1, . . . , k}, se concluye que j = x, uj
k
x=
i=1
x, ui ui .
2. Sea x
n , z =
k i=1
x, ui ui y w W , veamos:
k k
x z, w = x, w z, w = x, w
x, ui ui ,
i=1 j=1
w, uj uj
la ultima igualdad gracias a que w W . As usando las propiedades , del producto interno:
k k
x z, w = x, w
x, ui w, uj
i=1 j=1
ui , uj
155
1. Si x W ,
x z, w = x, w = x, w = x, w
x, ui w, ui ui , ui
i=1 k
x, ui w, ui
i=1 k
x,
i=1
w, ui ui
w
= 0.
Para probar que d(x, z) = m wW d(x, w), sea w W distinto de z, n luego por el Teorema de Pitgoras en n , probado en el Ejercicio 2.4: a
xz Pero como w z
2
+ wz
= xw
> 0, luego xz
2
< xw
6.2.
Proyecciones Ortogonales
La Proposicin 6.2 motiva la denicin proyeccin ortogonal sobre un subo o o espacio vectorial de n . Asumiremos por ahora el siguiente resultado, el cual demostraremos en la Seccin 6.4, que asegura la existencia de una o base ortonormal de cualquier subespacio vectorial de n .
Denicin 6.2 (Proyeccin ortogonal sobre un s.e.v.). Sea W un o o subespacio vectorial n y {u1 , . . . , uk } una base ortonormal de W . Denimos la proyeccin ortogonal sobre W como la funcin o o
Proyeccin ortogonal o
P:
k i=1
x P (x) =
x, ui ui W.
156
Observacin: Notemos que esta denicin es correcta, es decir que o o P no depende de la base ortonormal considerada y que es funcin. o Gracias a la Proposicin 6.2.2, sabemos que independiente de la base o ortonormal considerada para denirla, la proyeccin es aquella que mio nimiza la distancia de x a W . As si hubiese dos proyecciones z1 , z2 , , asociadas a bases distintas y fuesen distintas, luego: d(x, z1 ) < d(x, z2 ), lo cual contradice la propiedad que satisface z2 . De la misma manera se prueba que P es funcin. o Veamos ahora las propiedades de la proyeccin ortogonal: o Proposicin 6.4. Sea W un subespacio vectorial de o ortogonal asociada, entonces: 1. P es una transformacin lineal. o 2. x
n y P su proyeccin o
n, w W,
(x P (x))w.
3. d(x, P (x)) = m wW d(x, w). n Demostracion. 2 y 3 se deducen de la Proposicin 6.2. La demostracin o o de 1 queda de ejercicio.
Ejercicio
6.3.
Subespacio Ortogonal
Denicin 6.3 (Subespacio ortogonal). Sea W un subespacio de o denamos el ortogonal de W como: W = {u Proposicin 6.5. o (i) W es un subespacio de (ii)
Subespacio ortogonal W
n | w W n .
w, u = 0}.
n = W W .
n = W W
(iii) dim(W ) = n dim(W ). Demostracion. (i) Sea u, v W y , debemos probar que u + v W . Sea w W: w, u + v = w, u + w, v = 0 lo que es vlido para todo w W . Luego u + v W por lo tanto a W es un subespacio vectorial de n .
157
Nos basta entonces probar que W W = {0}. En efecto si x W W , en particular es ortogonal a s mismo, es decir x, x = 0, de donde x = 0. Se concluye entonces que
En donde P es la proyeccin ortogonal sobre W . As P (x) W y o , x P (x) W (gracias a la Proposicin 6.4), de donde x W + W . o
n = W W .
6.4.
Metodo de Gram-Schmidt
El objetivo de esta parte es asociar de forma cannica a un conjunto dado o de n , una base ortonormal del subespacio generado por l. Este mtodo e e es conocido con el nombre de Mtodo de Gram-Schmidt. e Probaremos el siguiente teorema:
Teorema 6.1 (Gram-Schmidt). Dado un conjunto {v0 , . . . , vm } existe un conjunto ortonormal {u0 , . . . , uk } tal que {v0 , . . . , vm } = {u0 , . . . , uk } .
n ,
Demostracion. La demostracin de este teorema es precisamente el mtoo e do Gram-Schmidt, que entrega un procedimiento algor tmico para construir el conjunto buscado. Sea entonces {v0 , . . . , vm } un conjunto de vectores y denimos el conjunto {u0 , . . . , uk } mediante el Algoritmo 1. Probemos que esta denicin del {u0 , . . . , uk } cumple lo pedido. Lo haremos o por induccin en m. o Caso base. Para m = 0, si v0 = 0 luego w0 = 0 y el algoritmo termina sin generar vectores uj . Esto es consistente con que la unica base de {0} es el conjunto vac o. Si v0 = 0, por ende w0 = 0, se tiene el resultado ya que u0 = v0 , v0
Mtodo Gram-Schimdt e
que es claramente de norma 1 y adems, como es ponderacin de v0 , a o se tiene que {u0 } = {v0 } . Paso inductivo. Supongamos que dado el conjunto {v0 , . . . , vm1 }, el conjunto {u0 , . . . , uk1 } es ortonormal y tal que {v0 , . . . , vm1 } = {u0 , . . . , uk1 } . 158
(ii) Es claro que W + W n . Para la otra inclusin, dado x o basta notar que x = P (x) + (x P (x)).
n ,
Algoritmo 1 Mtodo Gram-Schmidt e v 1: Partamos con w1 = v1 . 1 2: Luego, proyectamos v2 sobre el subespacio generado por u1 : z2 = v2 , v1 u1 y restamos esta proyeccin a v2 : o w2 = v2 z2
3:
w2 w2
z3 = v3 , u1 u1 + v3 , u1 u2 w3 = v3 z3 ,
4:
w perpendicular a {u1 , u2 } y normalizamos, u3 = w3 . 3 se sigue del mismo modo: una vez obtenidos {u1 , . . . , uk }, proyectamos vk+1 sobre {u1 , . . . , uk } y denimos k
zk+1 =
i=0
vk+1 , ui ui
159
vm
vm , ul ul
l=0 k1
, ui
vk , ui
vm , ul ul , ui
l=0
Es decir, el conjunto {u0 , . . . , uk } es ortogonal, y como es claro que i {0, . . . , k} ui = 1, es adems ortonormal. a Ahora, por construccin de uk se tiene o vm = wk uk +
l=0 k1
vm , ul ul
es decir, vm es combinacin lineal de {u0 , . . . , uk }, lo que equivale a o vm {u0 , . . . , uk } . As gracias a la hiptesis inductiva, se tiene que , o Por otra parte, uk es combinacin lineal de vm y u0 , . . . , uk1 , ya que o 1 vm uk = wk
k1
{v0 , . . . , vm } {u0 , . . . , uk } . vm , ul ul . wk
(6.1)
l=0
tales que
k1 l=0
vm ,ul wk
ul =
Luego, por Principio de Induccin, se tiene el teorema. o Observacin: o Notemos que como corolario del Teorema 6.1, se obtiene la Proposicin 6.3. o Adems, el Teorema 6.1 puede ser aplicado en particular a una a base {v0 , . . . , vn1 } de n .
Observacin: o Observar que si alguno de los vectores a normalizar, v1 o los wi , vale 0, signica que el vi correspondiente no aportar un nuevo vector a la a base, y simplemente se descarta, pasndose a trabajar con vi+1 . a Esto trae como consecuencia que el n mero de vectores ui sea menor u que el de los vj si estos ultimos son l.d. En general, esto har que al procesar el k-simo vk , estemos produciena e do un ui , con i < k, pero no hemos introducido esto en la descripcin o del algoritmo para no confundir la notacin. o Ejemplo: 1 1 1 0 0 , 1 , 1 , 0 en 1 0 1 1
1 2
3 .
0 u0 = v0 / v0 , v0 , como v0 , v0 = 1 se tiene u0 = 0 1 1 1 0 0 1 w1 = 1 1 , 0 0 = 1 . 0 0 1 1 0 1 1 1 w1 , w1 = 2 u1 = w1 = 1 2 2 0
1 1 1 0 0 1 1 1 w2 = 1 1 , 0 0 1 , 2 0 1 1 1 1 1 1 0 1 0 1 1 = 1 0 21 = 0 2 2 0 0 1 1 161
1 1 1 2 0
Obteniendo lo buscado.
1 1 1 0 0 1 1 1 1 w2 = 0 0 , 0 0 0 , 1 1 2 0 2 0 1 1 1 1 1 1 1 1 1 0 1 0 1 1 1 1 1 = 0 0 1 = 1 . = 0 0 2 2 2 2 0 0 0 1 1 1 1 Como w2 , w2 =
1 4
1 4
1 = 2 , luego
1 1 u2 = . 1 2 0
6.5.
Producto Hermtico
n n a
u1 un
:
v1
. . .
,v =
vn
. . .
,
n
u, v
=
j=1
uj vj .
Ejercicio
= v, u
H
H. H
2. u + v, w 3. u, u
H
= u, w
+ v, w
H
, ms an a u
u, v + w
H. H
u, u
0 y u, u
= 0 u = 0. .
= u, v
+ u, w
Observacin: Los conceptos de ortogonalidad, proyeccin ortogonal, o o subespacio ortogonal y el mtodo de Gram-Schmidt, pueden desarroe llarse tambin en n , como espacio vectorial sobre . e
162
1 1 1
y redenimos w2 .
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 12
Proposicin 6.4 o
2. Demuestre las siguientes propiedades del producto herm tico: (a) u, v (c) u, u
H
Ejercicio 6.1
= v, u
H
H. H
(b) u + v, w
H
, ms an a u
= u, w
+ v, w
H
H. H
u, u
0 y u, u
= 0 u = 0.
Problemas
P1. Sea W el subespacio vectorial de 4 generado por: 2 1 1 1 1 1 3 3 , , . 2 1 1 1 3 1 1 3 (b) Encuentre la descomposicin de v = o
1 2 3 4
P2. Sea A Mnn ( ) una matriz invertible y U un s.e.v. de sin 0 < k < n. Se dene o W = {y
n de simen-
(a) (b)
n | u U, Ax, Ay = 0}. Probar que W es s.e.v. de n y probar que W U = {0}. Sea V = {v n | u U, v = Au}. Pruebe que V es s.e.v. de n.
(c) Sea {v1 , . . . , vk } una base ortonormal de V . Probar que {u1 , . . . , uk } donde ui = A1 vi , i {1, . . . , k}, es una base de U que verica la propiedad: Aui , Auj = 0 si i = j y Aui , Auj = 1 si i = j. (d) Probar que w W i {1, . . . , k}, Aw, Aui = 0. Donde {u1 . . . . , uk } es la base del punto anterior. (e) Probar que si v v z W.
n entonces z =
i=1
Ejercicios
o donde T : 4 4 es una transformacin lineal para la cual Ker(T ) = W y, para todo x W , T (x) = x.
x1 x2 x3 x4
y1 y2 y3 y4
n. Demuestre que
n.
164
(a.1) Encuentre una base ortonormal de W . e (a.2) Sean x1 , x2 , x3 , x4 . Encuentre (en trminos de x1 , x2 , x3 , x4 )
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
6.6.
e Sea A Mnn ( ) una matriz simtrica entonces En efecto, Au, v = (Au) v = u A v = u Av = u, Av Probemos ahora que si A Mnn ( ) satisface 6.2 entonces A es simtrica. e Esto se deduce del siguiente hecho fcil de probar: si {e1 , . . . , en } la base a cannica de n y A es una matriz de n n entonces o u, v
t
n
t
Au, v = u, Av .
(6.2)
Aei , ej = aji . Utlizando esta propiedad y 6.2 se obtiene que aij = Aej , ei = ej , Aei = Aei , ej = aji , donde adems se usa el hecho que el producto interno en a
(6.3)
n es simtrico. e
Adjunta, A
Decimos que A es herm tica si A = A , notar que si A Mnn ( ) entonces t A=A A=A. De forma anloga al caso simtrico se prueba que a e u, v
n
Au, v
= u, Av
H n
Au, v
stico p() = |A I| es Sea A Mnn ( ) entonces el polinomio caracter un polinomio de grado n con coecientes complejos y por lo tanto tiene n ra en (con posibles repeticiones). Denotaremos por ces (A) = { /|A I| = 0}
al conjunto de las raices del polinomio caracter stico. Este conjunto lo llamaremos el espectro de A. Como Mnn ( ) Mnn ( ) podemos denir de igual manera el espectro de A, para A Mnn ( ). En general el espectro de A es un subconjunto de , a n cuando A u o Mnn ( ), como lo muestra el prximo ejemplo.
espectro, (A)
165
Herm tica
Ejemplo: 0 1 0 B= 1 0 0 0 0 1 1 0 B I = 1 0 |B I| = (1 ){2 + 1} 0 0 1
Las ra ces son = 1 = i. Si B es considerada como matriz de o coecientes reales (es decir estamos trabajando en n ) B tiene un slo entonces B tiene valor propio que es 1. Si el cuerpo considerado es 3 valores propios 1, i, i. En cualquier caso el espectro de B es (B) = {1, i, i}.
Demostracion. Sea (A) (en general ser complejo) entonces, |A a I| = 0, es decir A I no es invertible, luego debe existir v n , v = 0 tal que (A I)v = 0. Por lo tanto Av, v pero Av, v
H H
= v, v
= v, v
= v, Av
= v, v
= v, v
como v = 0 v, v H = 0 entonces = es decir . Se tiene que para A herm tica el polinomio caracter stico p() = |A I| tiene todas sus ra ces reales. Corolario 6.1. Si A Mnn ( ) es simtrica entonces (A) e
Teorema 6.3. Si A Mnn ( ) es hermtica y 1 = 2 son valores propios y v1 , v2 son vectores propios asociados a 1 y 2 respectivamente entonces v1 , v2 H = 0.
Demostracion. Consideremos Av1 , v2 H = 1 v1 , v2 H = 1 v1 , v2 pero Av1 , v2 H = v1 , Av2 H = v1 , 2 v2 H = 2 v1 , v2 H pero 2 y por tanto (1 2 ) v1 , v2 H = 0, como 1 = 2 , v1 , v2 H = 0.
H,
166
Corolario 6.2. Vectores propios de A Mnn ( ), simtrica, asociados a e valores propios distintos son ortogonales.
n y L : W
Denicin 6.5 (Transformacin simtrica). Sea W un subespacio de o o e W una aplicacin lineal, diremos que L es simtrica (en o e W ) si u, v W L(u), v = u, L(v)
Transformacin o simtrica e
Lema 2. L : n n es simtrica si y slo si la matriz representante e o con respecto a la base cannica de n es simtrica. o e
Demostracion. Si A es la matriz representante de L con respecto a la base cannica entonces L(u) = Au de donde o L(u), v = Au, v u, L(v) = u, Av ,
Ejercicio
n y L : W W lineal,
1. Si B = {u1 , . . . , un } es una base ortonormal de W , entonces L simtrica MBB (L) simtrica. e e 2. Si B = {u1 , . . . , un } es una base de W y : W x=
k i=0
1 k
i ui
(x) =
. . .
Entonces x es vector propio de L asociado al v.p. si y slo si o (x) es vector propio de MBB (L) asociado al v.p. .
Ahora estamos en posicin de probar uno de los teoremas ms importantes o a de la seccin. o Teorema 6.4. Sea W subespacio de n , dim W 1 y L : W W lineal, simtrica, entonces existe una base ortonormal de W de vectores propios e de L.
167
= u, v , por lo tanto se
Demostracion. Por induccin sobre la dimensin de W . Si dim W = 1. o o Entonces W = {v} , con v = 0. Notemos que luego existe tal que L(v) = v. Es decir, es un valor propio de L y v vector propio de L. Deniendo 1 v, v= v se tendr L = y adems {} es una base ortonormal de W . Esto prueba a v v a v el caso en que la dimensin sea 1. o Supongamos que la propiedad es cierta para espacios de dimensin k1, por o demostrar que es cierta para espacios de dimensin k. Sea W subespacio o de dimensin k y L : W W lineal simtrica. Sea B = {w1 , . . . , wk } o e base ortonormal de W , gracias al Ejercicio 6.2 la matriz MBB (L) k es simtrica, por lo que tiene todos sus valores propios reales. e Sea 0 un valor propio cualquiera, por lo tanto existe un vector z = (z1 , . . . , zk )t = 0, tal que MBB (L)z = 0 z.
L(v) W = {v} ,
Sea v = z1 w1 + z2 w2 + + zk wk W . Como v = 0 (pues z = 0 y {w1 , . . . , wk } es l.i.), luego gracias a la parte 2 del Ejercicio 6.2, es vector propio de L (ya que (v) = z). Sea W = {u W | u, v = 0} el ortogonal de {v} con respecto a W . Se tiene que k = dim W = 1 + dim W lo que implica que dim W = k 1 L(u), v = u, L(v) = u, 0 v = 0 u, v = 0, luego Sea u W L(W ) W . Tomemos L:W W (la restriccin de L a W ), o u Lu = Lu entonces L es lineal y simtrica. Veriquemos que L es simtrica. Consie e deremos u, w W L(u), w = L(u), w = u, L(w) = u, L(w) , es decir L es simtrica en W . Como dim W = k 1 se tiene por hiptesis e o de induccin que existe una base ortonormal de W de vectores propios de o L: {w1 , . . . , wk1 }, es decir L(wi ) = L(wi ) = i wi luego w1 , . . . , wk1 son vectores propios de L. Finalmente, consideremos B = v , w1 , . . . ., wk1 v
es una base ortonormal de W , de vectores propios de L, y por lo tanto el resultado queda demostrado.
168
A = P DP t
Demostracion. Sea L(x) = Ax, entonces L es simtrica. Por el teorema e anterior existe una base ortonormal B = {v1 , . . . , vn } de vectores propios. Luego A es diagonizable y ms a n A = P DP 1 donde P = (v1 , v2 , . . . , vn ) a u 1 0 . Resta por demostrar que P 1 = P t . Calculemos y D= 0 n
t (P t P )ij = vi vj = vi , vj =
1 0
i=j , i=j
P u, P v = u, v .
Entonces si P es ortogonal P u 2 = P u, P u = u, u = u 2, es decir, P preserva la norma. Notemos que no hay unicidad en la base de vectores propios y por lo tanto una matriz diagonalizable A puede descomponerse de la forma P DP 1 de muchas maneras. Lo que probamos para una matriz simtrica es que se e puede tomar una base ortonormal de vectores propios y que para esta base se tiene la descomposicin P DP t . o
Ejercicio
cos sen
sen cos
es unitaria en
2 .
Ejemplo: 2 A = 0 0 0 0 2 0 0 1
169
Corolario 6.3. Sea A Mnn ( ), simtrica, entonces A es diagonalizable e y ms an, A = P DP t donde P = (v1 , . . . , vn ) y B = {v1 , . . . , vn } es una a u base ortonormal de vectores propios de A. D es la matriz diagonal de los valores propios correspondientes.
Observacin: Cabe se alar que en el caso de que si no hubiese sido o n sencillo obtener a simple vista una base ortonormal del subespacio propio asociado a = 2, podemos utilizar el mtodo de Gram-Schmidt en dicho e subespacio. En general, la base ortonormal de vectores propios de n (que sabemos existe en el caso de A simtrica) puede obtenerse utilizando e Gram-Schmidt en cada subespacio propio.
Calculemos el espacio propio de = 2. 0 0 0 x 0 = (A 2I)u = 0 0 0 y , 0 0 1 z x luego W2 = y | z = 0 . Determinemos W1 : z 1 0 0 x 0 = (A I)u = 0 1 0 y , 0 0 0 z x es decir W1 = y | x = y = 0 . Por lo tanto una base de vectores z propios es: 1 0 1 B = 0 , 1 , 0 0 0 1 1 1 0 1 1 0 P = 0 1 0 P 1 = 0 1 0 0 0 1 0 0 1 1 1 0 2 0 0 1 1 0 A = 0 1 00 2 00 1 0 0 0 1 0 0 1 0 0 1
170
2 |A I| = 0 0
0 0 2 0 = (2 )2 (1 ). 0 1
Ejemplo: Veamos el caso de las proyecciones ortogonales. Dado W subespacio de n consideremos W el ortogonal de W . Entona o ces n = W W . Sea adems P : n n , la proyeccin ortogonal sobre W . Esta funcion P verica
1. P 2 = P . En efecto: P (u) = w W luego w = w + 0 es la unica descompo sicin, de donde o P P (u) = P (w) = w. Se tiene adems P (I P ) = 0. a 2. Im(P ) = W y Ker(P ) = W . En efecto, es claro que Im(P ) W . Por otro lado, si w W P (w) = w, luego Im(P ) = W . Ahora si v W v = 0 + v es la descomposicin unica y por tanto P (v) = 0, as W Ker(P ). o Sea v Ker(P ), luego P (v) = 0 y por tanto v = 0 + v es decir v W . 3. P es simtrica. e En efecto sean u1 = w1 + v1 , u2 = w2 + v2 , luego P (u1 ), u2 = w1 , w2 + v2 = w1 , w2 + w1 , v2 = w1 , w2 = w1 + v1 , w2 = u1 , P (u2 ) 4. Los valores propios de P son 0 1. o Sea P (u) = u, u = 0, entonces como P 2 = P se tiene P (u) = P 2 (u) = P (P (u)) = P (u) = P (u) = 2 u. De donde (2 )u = 0. Como u = 0 2 = 0 entonces = es 0 1. o Identicaremos P con su matriz representante respecto a la base cannio ca. Dado que P es simtrica P = Dt con ortogonal y D satisface: e 1 .. . Ir 0 1 D= = 0 0 0 .. . 0 Como P y D son similares tienen el mismo rango, as r = r(P ) = dim(Im(P )) = dim(W ). puede construirse de la siguiente forma: = 171
El Teorema 6.4 tambin es cierto para L(x) = Ax, con A herm e tica, y la demostracin es anloga. o a
172
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 13
Ejercicio 6.2
(a) Si B = {u1 , . . . , un } es una base ortonormal de W , entonces L simtrica MBB (L) simtrica. e e (b) Si B = {u1 , . . . , un } es una base de W y : W x=
k i=0
1 k
i ui
(x) =
. . .
Entonces x es vector propio de L asociado al v.p. si y slo si (x) o es vector propio de MBB (L) asociado al v.p. . 2. Vericar que P es ortogonal si y slo si o u, v 3. Probar que P =
Ejercicio 6.3
n
sen cos
P u, P v = u, v . es ortogonal en
cos sen
2 .
Ejercicio 6.4
Problemas
P1. Considere la matriz A M33 ( ) 2 A = 1 1
siguiente, 1 1 2 1 . 1 2
(c) Encontrar una matriz P M33 ( ) y D M33 ( ), D diagonal, tal que A = P DP t . (d) Es A una matriz invertible?, justique su respuesta. P2. (a) Sea A M33 ( ). Se sabe que A es simtrica y que 0 es vector e 1 propio de A asociado al valor propio 2, y adems la dimensin del a o Ker(T ) es igual a 2. Calcular A. (b) Sea A = 0 1 a , donde a es un parmetro real. Calcule los valores a 0 0 3 de a para los cuales la matriz A es diagonalizable.
1a 0
t t A = 1 v1 v1 + + k vk vk Mnn ( ).
173
Ejercicios
(b) Sea {w1 , . . . wnk } base ortonormal del Ker(A). Demuestre que {v1 , . . . , vk , w1 , . . . wnk } es una base de n de vectores propios de A. Especique cul es el valor propio correspondiente a cada a uno de estos vectores propios.
(c) Sea A = 3/4 5/4 . Determine {v1 , v2 } base ortonormal de y 1 , 2 tales que
5/4 3/4
t t A = 1 v1 v1 + 2 v2 v2 .
174
(a) Pruebe que Im(A) = {v1 , . . . , vk } , que Ker(A) = {v1 , . . . , vk } y determine r(A), es decir el rango de A.
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
7.
7.1.
Formas cuadraticas
Formas cuadraticas y matrices denidas positivas
En esta seccin estudiaremos las formas cuadrticas inducidas por una mao a triz simtrica. Las formas cuadrticas aparecen en varias aplicaciones en e a matemticas. Una de ellas es la caracterizacin de m a o nimos o mximos a para funciones de varias variables. Nosotros nos interesaremos en la caracterizacin de matrices denidas positivas. Al nal del cap o tulo estudiaremos las cnicas en 2 . o
Forma cuadrtica, a xt Ax
x q(x) = xt Ax.
n .
e Notemos que una forma cuadrtica en n es homognea de grado 2, a es decir, x n q(x) = 2 q(x). En efecto, q(x) = (x)t A(x) = xt Ax = 2 xt Ax = 2 q(x).
Ejemplo: q:
2 ,
1 1 1 1
x1 . x2
Denicin 7.2 ((Semi)Denida positiva/negativa). Sea A Mnn ( ), o simtrica diremos que e A es denida positiva si x = 0 xt Ax > 0.
A es semidenida positiva si x xt Ax 0. A es denida negativa x = 0 xt Ax < 0. A es semidenida negativa x xt Ax 0. Notar que A es denida (semidenida) positiva ssi A es denida (semidenida) negativa.
175
Teorema 7.1. Supongamos que A Mnn ( ) es simtrica. Entonces las e siguientes proposiciones son equivalentes. 1. x = 0 x t Ax > 0 (A es denida positiva)
2. Los valores propios de A son positivos. 3. Sea a11 a21 A= . . . A(2) = a11 a21 a12 a22 an2 a1n a2n a12 a22 a32 a13 a23 . . . A33
an1
ann
A(1) = [a11 ]
a12 a22
A(3)
. . . A(n) = A entonces |A(1) | = a11 > 0 |A| > 0 , |A(2) | > 0, |A(i) | > 0 |A(n) | =
4. El mtodo de Gauss utilizando slo operaciones elementales del tie o po Epq (, 1); p < q permite escalonar A y adems los pivotes son a siempre positivos.
Demostracion. (1) (2). Sea un valor propio de A y v = 0 un vector propio correspondiente al valor propio . 0 < v t Av = v t (v) = v t v = v
2
>0
176
Ejemplo:
xt Ax = xt P DP t x = (P t x)t DP t x, entonces si denimos z = P t x se tendr que en trminos de estas nuevas a e variables la forma cuadrtica queda a
2 2 xt Ax = z t Dz = 1 z1 + + n zn 0,
pues los valores propios son positivos. Ms a n la unica forma en que esta a u suma de cuadrados sea cero es que z1 = = zn = 0 es decir z = 0, pero entonces P t x = 0 x = P 0 = 0 (recordemos que P 1 = P t ). (1) (3). Sea a = 0 y denamos x =
n a 0 0 n n
. . .
, entonces
0 < xt Ax =
i=1 2
xi (Ax)i =
i=1
xi
j=1
aij xj
xi xj aij =
i,j=1
vi vj aij = v t A(k) v
si v = 0 se tiene x = 0, luego v t A(k) v = xt Ax > 0 es decir A(k) es denida positiva. De donde A(1) , A(2) , . . . , A(n) = A son todas denidas positivas. Pero una matriz denida positiva tiene todos sus valores propios positivos (por lo ya demostrado). Como el determinante es el producto de los valores propios entonces el determinante es positivo. Luego |A(1) | > 0, . . . , |A(n) | > 0. (3) (4). Por induccin sobre i o a11 a12 0 a22 . . . i = A 0 0 . . . 0 a11 > 0 es el primer pivote. En la etapa i tendremos a1i a1n . . . . . . . .. . . ai1i1 . B1 B2 . . . = 0 aii . B3 B4 . . . 0 aii+1 . . . .. . . . . . . . 0 ain ann 177
(2) (1). Sabemos que por ser A simtrica tiene la descomposicin A = e o P DP t , donde las columnas de P son una base ortonormal de vectores propios y D es la diagonal de los valores propios respectivos. As
son invertibles y triangulares inferiores con diagonal 1. Por tanto A = C Ai donde C = ( Ek )1 es tambin triangular inferior con unos en la diagonal. e As si C = C1 C2 donde C1 : ii, C2 : ini, C3 : nii, C4 : nini, C3 C4 se tendr C2 = 0 y adems C1 es triangular inferior con diagonal 1, y por a a lo tanto |C1 | = 1. Luego: A= C1 C2 0 C3 B1 B3 B2 B4 = C1 B1 C2 B1 + C3 B3 C1 B2 C2 B2 + C3 B4
i k
Por lo tanto A(i) = C1 B1 , de donde 0 < |A(i) | = |C1 B1 | = |C1 ||B1 | = |B1 |. Por otro lado B1 es triangular superior, luego |B1 | = ajj , pero
j=1
a11 , a22 , . . . , ai1i1 > 0 se concluye, aii > 0. As el mtodo de Gauss no e necesita intercambiar las y adems todos los pivotes son > 0. a (4) (1). Como todos los pivotes son positivos y no hay que hacer intercambios de las se tendra que A = LDU , con L triangular inferior D diagonal y U triangular superior. U y L tienen 1 en la diagonal y dii = aii . Como A es simtrica U = Lt entonces e A = LDLt = (L D) ( DLt ) = RRt , con R = L D y a11 D= 0 0 a22 .. . ann
Dado que |A| = |A| = a11 a22 , . . . , ann > 0 entonces 0 < |A| = |RRt | = |R|2 luego |R| = 0, y por lo tanto R es invertible y as su traspuesta. xt Ax = xt (RRt )x = (Rt x)t Rt x = Rt x 2 . Si x = 0 Rt x = 0 pues Rt es invertible luego Rt x xt Ax > 0 si x = 0 es decir A es denida positiva.
2
> 0 de donde
Hemos probado de paso la que toda matriz denida positiva tiene la siguiente descomposicin. o
Denicin 7.3 (Descomposicin de Cholesky). Decimos que A Mnn ( ) Descomposicin de o o o Cholesky admite una descomposicin de Cholesky si existe R matriz triangular infeo rior, con diagonal estrictamente positiva tal que A = RRt . 178
Donde B1 : i i, B2 : i n i, B3 : n i i, B4 : n i n i. Por hiptesis o de induccin, se obtuvo Ai mediante el algoritmo de Gauss, sin utilizar o permutaciones de las pues todos los pivotes a11 , . . . , ai1i1 son positivos. As Ai = ( Ek )A donde Ek son matrices simples del tipo Ep,q (, 1) que ,
Observacin: Hay que hacer una precisin sobre la propiedad 4 del o o teorema anterior. Es fcil ver que la matriz a A= 2 1 1 2 ,
es denida positiva, pero si al escalonar utilizamos E12 ( 1 , 1) obte2 nemos la matriz escalonada 2 1 0 3 2 ,
y los pivotes no son todos positivos!. Sin embargo si utilizamos 1 E12 ( 2 , 1) obtenemos 2 1 A= . 3 0 2 Por lo tanto es importante recordar que para estudiar si una matriz es denida positiva las operaciones elementales permitidas son Epq (, 1).
7.2.
Formas canonicas
Sea q(x) = xt Ax una forma cuadrtica. Como A es simtrica, entonces a e A = P DP t donde P = (v1 , , vn ) con {v1 , , vn } una base ortonormal de vectores propios de A y 1 0 2 , D= .. . 0 n siendo 1 , . . . , n los valores propios de A. Sea y = P t x entonces
xt Ax = xt P DP t x = y t Dy =
i=1
2 i yi
q(x) =
3 2
x.
179
Notemos que A es denida positiva ssi R triangular inferior con diagonal no nula tal que: A = RRt .
A=
3 2
3 2
2 2 3 +
= (1 )(2 )
3 = 0. 4
3 2 5 2
3 2 3 2
3 2 1 2
1 2
1 3
1 A I = 2 y por lo tanto
1 2 3 2
3 2 3 2
3 1 1 (A I)v = 0 v1 + v2 = 0 v1 = 3v2 . 2 2 2 Un vector propio de largo uno es: 1 3 , w2 = 1 2 y una base de ortonormal de vectores propios est formada por {w1 , w2 }. a Se tiene que A = P DP =
t
1
3 2
3 2
1 2 3 2
3 2 1 2
5 2
0
1 2
1 2 23
3 2 1 2
180
y=
y1 y2
=P x=
1 2 23
3 2 1 2
x1 x2
1 2 2 La forma cuadrtica en trminos de y es q (y) = 5 y1 + 2 y2 . El cambio a e 2 de coordenadas de x a y corresponde a una rotacin (en qu ngulo?). o ea
r+1 = = n = 0.
zi = es decir, 1 z= 0
i = p + 1, . . . , r i = r + 1, . . . , n 0 y = Qy. 1
2 .. . p p+1 .. .
..
donde r corresponde al rango de A. El n mero 2p r = n mero de valores u u propios positivos menos el n mero de valores propios negativos, es llamada u la signatura. El cambio de coordenadas y = P t x corresponde a una rotacin de sistemas o de coordenadas. El cambio z = Qy corresponde a dilatar y contraer ciertas direcciones (homotecia). En nuestro ejemplo z1 =
5 2 y1
z2 = 181
1 2 y2
2 2 z1 + z2 = (
5 2 y1 ) + ( 2
5 2 1 2 1 2 y2 ) = y1 + y2 2 2 2
la primera columma de P que corresponde al primer vector propio. De igual forma el i-simo eje del sistema de coordenadas y es el i-simo vector e e propio vi . De igual forma el sistema de coordenadas z tiene sus ejes en las direcciones v1 , . . . , vn , solamente que algunos ejes se han contra y do otros expandido. Hemos probado el siguiente resultado Teorema 7.2. Sea xt Ax una forma cuadrtica, existe L invertible tal que a si z = Lx, entonces en trminos de las variables z la forma cuadrtica se e a 2 2 2 2 expresa como q (z) = z1 + + zp (zp+1 + + zr ), donde r=rango A = nmero de valores propios = 0, p = nmero de valores propios > 0. u u
Para ubicar el nuevo sistema, con respecto al inicial, consideremos el problema en dos etapas. En el cambio y = P t x, el eje correspondiente a y1 est en la direccin x tal que a o 1 1 0 0 P t x = . luego x = P . = v1 , . . . . 0 0
7.3.
Conicas en
Una cnica en o
c b
, v=
, g= 0 2
d f y P = (v1 v2 ). Entonces
e = v t P DP t v + g t v = v t P DP t v + gP P t v.
182
La expresin que toma la cnica es entonces o o e = 1 u2 + 2 u2 + f u1 + du2 1 2 1. 1 = 2 = 0 ( a = b = c = 0) El conjunto solucin es {(x, y)/dy + f x = e} que en general es una o recta (pudiendo ser vac si d = f = 0 y e = 0). o 2. El caso interesante es cuando 1 = 0 o 2 = 0, llamemos u = u1 1 u = u2 2 1 (u + )2 + 2 (u + )2 + f (u + ) + d(u + ) = e 1 2 2 1 1 (u )2 + 2 (u )2 + u {21 + f } + u {22 + d} = e 1 2 1 2
con e = e (1 2 + 2 2 + f + d)
e 2
e (u )2
1 (u )2 + 2 (u )2 = e 1 2 3. 1 > 0, 2 > 0, e 0; o 1 < 0, 2 < 0, e 0 la solucin es una elipse o (una circunferencia si 1 = 2 ) en el sistema u , u Si 1 > 0, 2 > 1 2 0, e < 0; o 1 < 0, 2 < 0, e > 0 no hay solucin. o
183
1 (u )2 |2 |(u )2 = e, que corresponde a una hiprbola con eje de e 1 2 simetr el eje u . El caso 1 < 0, 2 > 0, e 0 el conjunto solucin a o 1 es una hiprbola con eje de simetr u . e a 2 Notemos que en general el sistema (u1 , u2 ) corresponde a una rotacin con o respecto al eje (x, y) y sus ejes estn en la direccin de los vectores propio. a o El sistema (u , u ) corresponde a una traslacin o cambio de origen del o 1 2 sistema (u1 , u2 ).
184
4. 1 > 0 y 2 < 0 podemos suponer que e 0 de otra manera multi plicamos por 1
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 14
2. Se ale si las matrices siguientes son denidas positivas/negativas, o ninn guna de las dos: 1 1 1 0 (b) 0 0 0 (a) 1 . 1 (c) 0 0 0 1 0 0 0 0. 0 4 3 1 . 1 1 2 1 1 1 1 1 0 1 1 1 . 1 1
0 2 0 0 0
0 0 1/2 0 0
3. Sea A Mnn ( ) una matriz simtrica. e (a) Probar que v n es vector propio de A si y slo si es vector propio o a de I A. Si es el valor propio de A asociado a v, cul es el valor propio de I A asociado a v?
1 2 (d) 1 1
(b) Probar que la matriz I A es denida positiva si y slo si todos los o valores propios de A son menores estrictos que uno.
Problemas
P1. Considere la cnica de ecuacin 5x2 + 5y 2 + 6xy + 16x + 16y = 15. o o Realice el cambio de variables que permite escribir la cnica de mao nera centrada y escriba la nueva expresin (escribir expl o citamente el cambio de variables). Identique la cnica resultante y dib jela. o u e P2. Sea A M22 ( ) simtrica denida postiva, b tal que f (x) = xt Ax bt x + c.
2 , c y f : 2
Se quiere minimizar f .
1 (a) Sea x0 = 2 A1 b. Pruebe que f (x) = (xx0 )t A(xx0 )xt Ax0 +c. 0
(b) Concluya que el unico m nimo de f se alcanza en x0 , i.e., que f (x) f (x0 ) para todo x 2 y que la igualdad se alcanza solamente cuando x = x0 -
185
Ejercicios
x2 + y 2 + 2( 1)xy
2x + 2y = 0.
Determine todos los valores de tales que la ecuacin corresponde a: o (a) Circunferencia. (b) Elipse. (c) Recta o rectas. (d) Parbola. a (g) Un punto. (e) Hiprbola. e (f ) Conjunto vac o.
186
P3. Sea
y considere la ecuacin o
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
8.
8.1.
Forma de Jordan
Denicion
Estudiaremos aqu un procedimiento que permite obtener, a partir de una matriz A, otra similar con gran cantidad de ceros. Obviamente, el ideal es obtener una matriz diagonal, pero esto no siempre es posible. Nos conformaremos con una forma algo ms compleja que la matriz diagonal, pero a con la ventaja de que sta puede obtenerse para matrices arbitarias. e La idea general de reducir una matriz consiste en determinar una base de modo que la transformacin lineal asociada a la matriz inicial tenga una o representacin simple en la nueva base. o Partamos con un ejemplo. Consideremos la transformacin lineal TA : 9 o 9 dada por x Ax, cuya matriz representante J, con respecto a una base J es: 2 1 0 0 2 1 0 0 2 2 1 J = 0 2 (2) 5 1 0 5 (6) Es claro que (A) = {2, 5, 6}, con multiplicidades algebraicas 6, 2, 1 respectivamente. La base J la notaremos como sigue:
1 1 1 1 1 1 2 2 3 J = {v11 , v12 , v13 , v21 , v22 , v31 , v11 , v12 , v11 }
187
1 .. .
1 1
.. . 1 0 1 .. . .. . r 1 .. . .. .
p1 pr
1 Vemos que v11 es vector propio (cabeza de serie) asociado al valor propio 1 1 1 1 1 = 2, v12 es una cola asociada a v11 y v13 es cola asociada a v12 . Posteriormente obtenemos otro vector propio asociado a 1 = 2 con una cola y nalmente un tercer vector propio asociado a 1 = 2. Luego se repite el mismo esquema: un vector propio y una cola asociados a 2 = 5 y nalmente un vector propio asociado a 3 = 6. En general la matriz J que nos interesa en este prrafo tiene la forma: a
1 1
1 r
1 .. .
1 r
donde los bloques son de tama o s(1, 1), . . . , s(1, p1 ), . . . , s(r, 1), . . . , s(r, pr ), n y el espectro es (A) = {1 , . . . , r }, con multiplicidades respectivamente. La base se escribe:
r r 1 1 1 1 1 1 J = {v11 , . . . , v1s(1,1) , v21 , . . . , v2s(1,2) , . . . , vp1 1 , . . . , vp1 s(1,p1 ) , . . . , vpr 1 , . . . , vpr s(r,pr ) }
s(1, j), . . . ,
j=1 j=1
s(r, j),
1 v11 1 v12
1 vp1 1
1 vp1 2
r v11
r v12
r v21
r v22
r vpr 1
r vpr 2
. . .
1 v1s(1,1)
. . .
1 v2s(2,1)
. . .
1 vp1 s(1,p1 )
. . .
r v1s(r,1)
. . .
r v2s(r,2)
. . .
r vpr s(r,pr )
(8.1)
188
las echas indican el encadenamiento de los vectores de base. Por ejemplo 1 1 al vector v1s(1,1) le sigue v21 . El primer elemento de cada columna corresponde a un vector propio. Bajo un vector propio guran las colas asociadas. Adems: a
k k TA (vij ) = Avij = k k vij k k vij1 + k vij
Una base J , con estas caracter sticas se denomina base de Jordan asociada a la transformacin lineal T y su matriz representante es justamente J. o Tambin es claro que los subespacios propios son: e V1 = V2 = . . . Vr = Los bloques se notan: Ji = i 1 .. . .. .. 1 i
1 1 v11 , . . . , vp1 1 2 2 v11 , . . . , vp2 1
Base de Jordan
, dim V1 = p1 , dim V2 = p2
r r v11 , . . . , vpr 1
, dim Vr = pr
. .
Forma de Jordan
se reduce a la forma de Jordan si y slo si es posible determinar una o base J con las caractersticas denidas en (8.1) y (8.2). Veamos otro ejemplo. Sea la matriz: 8 0 J = 0 0 0 1 8 1 8 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 1 0 0 0 J1 0 = 0 0 , J3 = (0).
J2 J3
donde J1 =
8 0
, J2 =
189
2 v11 2 v12
asociados a V1
asociados a V2
Estudiemos el esquema de similitud entre la matriz A (representante de T con respecto a la base cannica) y J : o T : P
5
A J
Luego J = P 1 AP o equivalentemente AP = P J. Pero P es la matriz de 1 1 2 2 2 pasaje de la base cannica a J = {v11 , v12 , v11 , v21 , v21 }. Es directo que: o
1 1 2 2 2 P = (v11 , v12 , v11 , v12 , v21 )
1 Av11 = P J1
1 Av12 = P J2
2 Av11 = P J3
2 Av12 = P J4
2 Av21 = P J5
recuperndose la relacin (8.2). a o Simpliquemos por un momento la notacin. Si escribimos P = (v 1 , . . . , v n ) o tal que = {v 1 , . . . , v n } es base de Jordan, se verica: i = 1, . . . , n Av i = i v i o bien Av i = v i1 + v i . 190
Teorema 8.1. Una transformacin lineal arbitraria, TA = n o Ax, es reductible a la forma de Jordan, o de manera equivalente: A Mnn ( ), J Mnn ( ) matriz de Jordan, similar a la matriz A: A = P JP 1 donde las columnas de P son los vectores de la base asociada a J .
, x
Demostracion. La demostracin la omitimos aqu y no se cubrir en o a clases, sin embargo se presenta en el apndice de la semana, slo por e o completitud.
8.2.
8.2.1.
Vimos anteriormente que la diagonalizacin de matrices nos entregaba una o forma fcil de calcular las potencias de una matriz. Sin embargo, esto slo a o es aplicable a matrices que admitan una diagonalizacin. o A continuacin veremos que la forma de Jordan tiene tambin utilidad para o e el clculo de potencias, con la ventaja que cualquier matriz cuadrada admite a una forma de Jordan. Veamos primero que la forma de Jordan nos da una descomposicin especial, para cualquier matriz cuadrada. o Si J es la matriz de Jordan de A, cada bloque de J es 0 1 i 1 0 .. .. .. . . . = i Ii + Ji = .. . 1 0 0 i de la forma: 0 .. . , .. . 1 0
en donde Ii es la identidad de la dimensin correspondiente. Llamemos Ni o a la segunda matriz de la suma. Esta matriz tiene la siguiente propiedad, propuesta como ejercicio: Ejercicio 8.1: Suponga que Ni Mss ( ), pruebe entonces por induccin que m , p, q {1, . . . , s}, o 1 si q = p + m, m (Ni )pq = 0 si q = p + m.
Ejercicio
191
En el primer caso v i es un vector propio y en el segundo lo denominaremos vector propio generalizado (existe una cola). En estas condiciones se tiene el teorema siguiente:
Adems deduzca que Nis = 0. Una matriz con esta propiedad, se dice a nilpotente.
Notar que los valores propios 1 , . . . , r son los valores propios de A con posible repeticin. o Se tiene que la matriz N es nilpotente, gracias al siguiente ejercicio:
0 N2 . . . 0
N
1 P . Nr 0 0 . . .
Ejercicio
en donde B1 , . . . , Br son matrices cuadradas y el resto son matrices cero. Sea m , pruebe que entonces m B1 0 ... 0 m 0 B2 . . . 0 Bm = . . . . .. . . . . . . .
...
m Br
Hemos probado entonces la siguiente propiedad: Proposicin 8.1. Dada A Mnn ( ), existen una matriz invertible P , o una matriz diagonal D y una matriz nilpotente N , tales que A = P (D + N )P 1 .
192
Debemos entonces estudiar (D + N )m , que gracias al Ejercicio 8.2 es equivalente a estudiar (i Ii + Ni )m , es decir cada bloque de la forma de Jordan. Se puede probar que el Teorema del Binomio de Newton es tambin vlido e a para matrices, si la multiplicacin de stas conmuta. Este es precisao e mente el caso de i Ii y Ni , que conmutan pues i Ii es ponderacin de la o identidad. Luego
m
(i Ii + Ni )m =
k=0
m (i Ii )mk Nik . k
mk i .. .
m k
m (i Ii )mk Nik = k
m mk k i Ni = k
.. 0
mk i . . . 0
En donde los trminos m mk estn ubicados desde la posicin (1, k) e a o i k hasta la (k, n). Notar adems que, si i + Ni Mss ( ), la matriz anterior a es nula para k s. Finalmente, sumando sobre k, se obtiene: m i 0 = . . . . . . 0
m 1
m1 i m i .. . ... ...
m 2 m 1
m2 i m1 i .. . 0 ...
m 2
... m2 i .. . m i 0
m s1
i .. ..
m(s1)
(i Ii + Ni )m
m 1
m1 i m i
1 P ,
193
Usaremos lo anterior para calcular potencias de una matriz. Sea A Mnn ( ) y m . Queremos calcular Am . Por lo visto en la parte de diagonalizacin: o Am = P (D + N )m P t .
Otra aplicacin importante est relacionada con calcular la exponencial de o a una matrix, la generalizacin de la funcin exponencial real para matrices. o o Dicha matriz exponencial tiene utilidad en ciertos mtodos de resolucin e o de ecuaciones diferenciales (que vers en cursos ms adelante). a a Veamos primero la denicin de la matriz exponencial. o Denicin 8.2 (Matriz exponencial). Sea A Mnn ( ). La expoo nencial de A, denotada por eA , es la matriz en Mnn ( ) dada por la serie de potencias 1 k A . eA = k!
k=0
Matriz exponencial
Esta serie siempre converge, por lo que eA est bien denida. a Observacin: El ultimo punto tratado en la denicin, acerca de la o o convergencia, lo aceptaremos aqu Esto sale de los tpicos a tratar en . o el curso. Veamos primero algunas propiedades de la exponencial, las cuales no probaremos aqu : Proposicin 8.2. Dadas matrices B, C Mnn ( ), se tiene o 1. Si C es invertible, eCBC
1
= CeB C 1 .
2. Si BC = CB, entonces eB+C = eB eC = eC eB . 3. Si B es diagonal, B = diag(b1 , . . . , bn ), entonces eB = diag(eb1 , . . . , ebn ). o Sea entonces A Mnn ( ), que gracias a la Proposicin 8.1 se escribe como A = P (D + N )P 1 , con D matriz diagonal con los vectores propios de A y N una matriz nilpotente. Calculamos entonces la exponencial de A, utilizando la Proposicin 8.2 y o el hecho de que D y N conmutan (ya se sus bloques conmutan): eA = P e(D+N ) P 1 = P (eD eN )P 1 . Veamos eN , eN =
k=0
1 k N . k!
Gracias al Ejercicio 8.2 y sumando en k, se tiene que (este paso se puede formalizar, pero no lo haremos aqu ) N1 0 ... 0 e 0 eN 2 . . . 0 eN = . . . . .. . . . . . . . 0 0 . . . eN r 194
8.2.2.
Matriz exponencial
0 0 . . . er Ir
ei Ii eNi = ei
k=0
1 k N = ei k! i
s1 k=0
1 k N . k! i
Ya que si suponemos Ni Mss ( ), como Ni es nilpotente, para k s se tiene Nik = 0. As : i 1 i 1 i 1 i ... e 1! e 2! e (s1)! e .. 1 i 1 i 0 . ei 1! e 2! e .. .. .. .. (8.4) . ei eNi = . . . . . . . 1 i . . ... 0 ei 1! e 0 ... ... 0 ei Finalmente e1 eN1 0 eA = P . . . 0 0 e2 eN2 . . . 0 ... ... .. . ... 0 0 . . . er eNr
1 P ,
El Teorema de Cayley-Hamilton se ala que una matriz es siempre raiz de n su polinomio caracter stico. Para comprender a qu nos referimos con esto, e notemos que dado un polinomio p(x) = a0 + a1 x + a2 x2 + + an xn Pn ( ), podemos asociarle naturalmente una funcin de Mnn ( ) a Mnn ( ). Dada o X Mnn ( ): p(X) = a0 I + a1 X + a2 X 2 + + an X n . Enunciemos entonces el teorema: Teorema 8.2 (Cayley-Hamilton). Dada una matriz A Mnn ( ) y pA (x) su polinomio caracterstico, entonces pA (A) = 0. 195
Cayley-Hamilton
Demostracion. Consideremos A = P JP 1 , la forma de Jordan de A. Sabemos que dos matrices similares tienen el mismo polinomio caracter stico, luego pA (x) = pJ (x). Ahora, como J es triangular superior, pJ (x) puede ser calculado como: pJ (x) = |J xI| = (x 1 )s1 (x 2 )s2 . . . (x r )sr , en donde cada trmino (x i )si corresponde al bloque de Jordan Ji . e Calculemos entonces pA (A). Gracias a lo visto en la parte de diagonalizacin, no es dif probar que: o cil pA (A) = pJ (A) = P pJ (J)P 1 = P (J1 I)s1 (J2 I)s2 . . . (Jr I)sr P 1 . Ahora, mirando el bloque i-simo del trmino i de este producto (de die e mensiones s s), tenemos que: (Ji i Ii )s = Nis = 0, ya que gracias al Ejercicio 8.1, la matriz Ni es nilpotente. Luego, usando el Ejercicio 8.2, se concluye. 8.2.4. Traza de una matriz
Una ultima utilidad de la forma de Jordan, que veremos, es permitir carac terizar la traza de una matriz. Denicin 8.3 (Traza). La traza es la funcin tr : Mnn ( ) o o nida por:
n
, de-
Traza
A = (aij ) Mnn ( ),
tr(A) =
k=0
aii .
Es decir, es la suma de los elementos de la diagonal de la matriz. Las siguientes propiedades quedan de ejercicio: Proposicin 8.3. Se tienen las siguientes propiedades: o 1. La funcin tr es lineal. o 2. A, B Mnn ( ), tr(AB) = tr(BA). Demostracion. Propuesta como ejercicio. As podemos probar el siguiente resultado: ,
Ejercicio
196
tr(A) =
i=1
A (i ) i .
En donde recordemos que A (i ) es la multiplicidad algebraica de i . Demostracion. Sea A = P JP 1 , la forma de Jordan de A, luego tr(A) = tr(P JP 1 ) = tr(P 1 P J) = tr(J). En donde ocupamos la Proposicin 8.3, con P J y P 1 . o Ahora, en la diagonal de J estn precisamente los valores propios de A, a repetidos tantas veces como su mutiplicidad algebraica. As ,
r
tr(A) = tr(J) =
i=1
A (i ) i .
197
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Probaremos el siguiente teorema: Teorema 8.3. Una transformacin lineal arbitraria, TA = n o Ax, es reductible a la forma de Jordan, o de manera equivalente: A Mnn ( ), J Mnn ( ) matriz de Jordan, similar a la matriz A: A = P JP 1 donde las columnas de P son los vectores de la base asociada a J . Demostracion. Por induccin sobre la dimensin, n, del espacio. Es trio o vialmente cierto para n = 1 (verique). Supongamos que el resultado se cumple k n 1. Veremos primero: Caso 1: La matriz A es singular (detA = 0). En este caso r(A) = r < n, es decir dim Im(TA ) = r(A) = r < n. Sea: T = T |ImTA : ImTA ImTA Por hiptesis, como dim ImTA < n, existe la descomposicin de Jordan. o o Existe entonces una base de ImTA que verica las hiptesis. Ms expl o a citamente: Si (T ) = {1 , . . . , m } y adems los subespacios propios: a
1 1 V1 = {v11 , . . . , vp1 1 } , . . . , Vm = m m v11 , . . . , vpm 1 n
, x
vectores propios de V1
colas asociadas
s(i, j) y se verica:
k k vij k k vij1 + k vij
k T (vij ) =
si j = 1 si j > 1
198
J =
J11
..
k k es de dimensin s(k, i)s(k, i), asociado a los vectores de base vi1 , . . . , vis(k,i) . o
.. ..
. .
1 k
Subcaso 1: KerTA ImTA = {0}. De acuerdo al Teorema del N cleo-Imagen (TNI), dim KerTA +dim ImTA = u a n, luego n = KerTA ImTA , de donde la base de Jordan ser: J = {w1 , . . . , wr } {z 1 , . . . , z nr }
nr donde {wi }r es base de Jordan de ImTA y {z i }i=1 es una base del n cleo u i=1 de TA .
Jpm m 0
.. n r bloques
. 0
TA wi = wi1 + i wi
1ir
1 i n r. u1 , . . . , up , subespacio de dimensin o
199
Donde:
1 vp1 . . . . . . 1 vps(1,p)
(8.5)
. . .
Para completar la base de Jordan asociada a ImTA a una base de elegimos el conjunto de vectores 2 = {y j }p tal que: j=1
1 Ay 1 = v1s(1,1) 1 Ay 2 = v2s(1,2)
. . .
1 Ay p = vps(1,p)
Es decir, los vectores {y j }p son soluciones de los sistemas asociados al j=1 ultimo vector de cada bloque del vector 1 = 0. Estos sistemas tienen 1 solucin ya que, por hiptesis, vjs(1,j) ImTA , j = 1, . . . , p. o o
p
cj y j = 0
entonces
cj T A y =
j=1 j=1
cj Ay =
j=1 1 {vjs(1,j) }p j=1
1 cj vjs(1,j) = 0
es linealmente independiente,
Es decir ui KerTA y ui ImTA . Estos vectores son propios TA (ui ) = 0ui . Adems, como ui ImTA estos son vectores propios de T = T |ImTA . a Por hiptesis de Jordan existen, para cada uno de los vectores ui , un bloque o (eventualmente de 11). Sin prdida de generalidad, supongamos que en la e base de Jordan asociada a T , se tiene 1 = 0. Luego obtenemos los bloques siguientes:
TA (y j ) = Ay j = vjs(1,j) + 0y j
1 j p.
luego podemos redenir el orden de los vectores en el conjunto 2 J para obtener una descomposicin en bloques de Jordan. Por ejemplo, veamos la o inclusin del vector y 1 . o Ten amos (ver Ecuacin (8.5)): o
1 1 TA v11 = 0v11 . . . 1 1 1 TA v1s(1,1) = v1s(1,1)1 + 0v1s(1,1) 1 deniendo v1s(1,1)+1 = y 1 , se tiene que 1 1 1 TA v1s(1,1)+1 = v1s(1,1) + 0v1s(1,1)+1
(8.6) + ...
+ 1 y +
+ 1 Ay 1 + + p Ay p = 0 201
1 1 1 A = [1 v11 + 1 v12 + + 1 12 13 1s(1,1) v1s(1,1)1 ] + . . . k k k + [k k v11 + + k 11 1s(k,1) (k vpt s(k,1) + v1s(k,1)1 )] 1 1 1 + [1 vp1 + 1 vp2 + + 1 p2 p3 ps(1,p) v1s(1,p)1 ] + . . .
k k k + [kk 1 k vpk 1 + + kk s(k,pk ) (k vpk s(k,pk ) + vpk s(k,pk )1 )] + . . . p p 1 1 1 + 1 v1s(1,1) + 2 v2s(1,2) + + p vps(1,p) = 0
como los vectores son .i se tiene que 1 = 1 = = 1 13 12 1s(1,1) = 1 = 0 . . . 1 = 1 = = 1 p2 p3 ps(1,p) = p = 0 y k 1 (bloques asociados a k ): k k + k = 0 11 12 k k + k = 0 12 13 . . .
k k 1s(k,1)1 k + 1s(k,1) = 0
k 1s(k,1) k = 0 como k = 0, reemplazando desde la ultima a la primera ecuacin, con o clu mos k = 0 k, i, j. Recordemos que, al aplicar TA , desaparecieron los coeij cientes 1 , . . . , 1 , pero, como el resto de los coecientes k , j , es nulo se tiene p1 11 ij en (8.6): 1 1 1 v11 + + 1 vp1 = 0 11 p1
1 Como {vj1 }p es .i, conclu mos 1 = = 1 = 0, luego el conjunto 11 p1 j=1 2 o J es .i. El conjunto anterior 2 J tiene r + p vectores, donde r = dim ImTA , es decir | 2 J |= p + r n. Nos falta entonces considerar KerTA \ ImTA KerTA . Pero esto es fcil, sea: a
KerTA =
u1 , . . . , up 202
{z1 , . . . , zq }
J = J 2 3 ,
3 = {zi }q . i=1
q
j wj +
j=1 j=1
j y j +
j=1
j zj = 0
j TA wj +
j=1 j=1
j T A y j = 0
j zj = 0 de donde
j = 0 pus {zj } es .i. e La matriz de Jordan, agregando los {zi }q al nal de la base, es la siguiente: i=1 J11 J = .. J12 ..
donde J11 , . . . , Jp1 son los bloques asociados a 1 = 0 con la cola agregada {yi }. El ultimo grupo de q bloques de 0s corresponde a la base del suplementario de ImTA KerTA en KerTA . Con esto hemos demostrado que, si A es regular (no invertible), esta es reductible a la forma de Jordan. Veamos ahora el caso invertible: Como A Mnn ( ), valor propio asociado a A. Consideremos la matriz singular A = A I. Por el procedimiento desarrollado anteriormente existen matrices J y P invertible tal 203
donde {u1 , . . . , up } = ImTA KerTA y {z1 , . . . , zq } es un suplementario en KerTA . a Armamos que la base de Jordan de n est dada por:
P J P 1 = A I
J = P 1 A P J = P 1 (A I)P
A = P J P 1 + I =
= P J P 1 + P P 1 = P (J + I)P 1
Ejercicio
Ejercicio 8.3: La forma de Jordan es unica, salvo permutacin del o orden de la base.
204
que:
Ingeniera Matematica
FACULTAD DE CIENCIAS FSICAS Y MATEMATICAS I UNIVERSIDAD DE CHILE Algebra Lineal 08-2
Gua Semana 15
0 .. .. . .
. 1 0
Adems deduzca que Nis = 0. Una matriz con esta propiedad, se dice a nilpotente.
0 m B2 . . . 0
0 0 . . .
m Br
(b) A Mmn ( ), B Mnm ( ), tr(AB) = tr(BA). 4. A Mnn ( ), una matriz no necesariamente diagonalizable tal que (A) . Pruebe que |eA | = etr(A) .
matrices: 0 0 2 0 0 0 (c) 0 0. 0 4 1 0 0 4
1 2 0 0
0 1 2 0
0 0 . 0 1
Ejercicios
P1. Se dene la siguiente recurrencia de n meros reales u xn+1 = 2xn xn1 , n 1 x1 = 1, x0 = 0. (a) Para n tal que
, dena vn = ( xx
n n1
2. Encuentre A M22()
(c) Use lo anterior para resolver la recurrencia, obteniendo un valor expl cito para xn . Indicacin: Use la forma de Jordan. o
n 0
nn1 n 3 1 . 2
n 1.
(b) Considere
Encuentre P invertible y J en forma de Jordan tal que A = P JP 1 . (c) Para la matriz A de la parte anterior y n 1 cualquiera calcule An expl citamente, encontrando expresiones para los coecientes de An en funcin de n. o
4 1 0 4 0 0
206
Problemas