Está en la página 1de 65

lica de Chile Pontificia Universidad Cato Facultad de Matematicas tica Departamento de Matema Algebra Lineal (mat1203)

Apuntes-Resumen del Curso


Por Sebasti an Soto Rojas (spsoto@uc.cl) Probablemente sea extra no que un resumen tenga aproximadamente 65 p aginas, pero Algebra Lineal es un curso muy denso en contenidos, deniciones y teoremas. Como dir a un profesor de la Facultad, podr a resultar incluso m as denso conceptualmente que cursos tan temidos como los C alculos en F sica e Ingenier a. Sin embargo, hist oricamente ha habido un dejo de mecanizaci on en los problemas y ejercicios t picos de este curso, y esto ha llevado a una poca valoraci on del contenido conceptual y de la amplia visi on que puede dar este curso de toda la Matem atica y su lenguaje. Esto est a cambiando en los semestres pr oximos, y se est a intentando que el curso tenga un enfoque cada vez m as conceptual, lo que ha incrementado su dicultad. Por esta raz on, urge cada vez m as la comprensi on de los conceptos y contenidos explicados, los cuales no siempre, por no decir nunca, suelen ser entendibles a la primera, y luego se puede proceder a su sistematizaci on, sin nunca abandonar el concepto y el razonamiento detr as. Estos apuntes-resumen son el reejo de una buena cantidad de horas invertidas (y no dormidas) en compendiar de forma lo mejor posible todos los apuntes de todos los profesores que hacen y han hecho Algebra Lineal alguna vez, se nalando adem as, los razonamientos fundamentales, cuando estos sean necesarios. En ning un caso estos apuntes reemplazan a los de un profesor del curso, y menos a los que debieran ser tomados en clase, sin embargo, son una referencia r apida a los contenidos del curso una vez asimilados los conceptos, o cuando haya algo particular que recordar. No s olo suceder a esto durante el transcurso del semestre, si no que durante el transcurso de toda la carrera, donde en casi todas las especialidades requerir an el uso de ciertos conceptos fundamentales vistos en el curso. Exito a todos en el curso, y en el examen. Es posible pasarlo con buena nota, pero requiere el esfuerzo de comprender cada concepto, por muy tedioso que pueda lucir a veces. Cualquier feedback, comentario, aporte, sugerencia y/o error detectado en este documento es siempre bien recibido. Muchas gracias por las colaboraciones de: Pilar Jadue A. (pijadue@uc.cl) y Francisco Carrasco C. (ftcarrasco@uc.cl) en el desarrollo y/o revisi on de estos apuntes. Basado en los apuntes de los profesores: 1. Carla Barrios 2. Carolina Becerra 3. Iv an Huerta

Indice
1. Vectores en Rn 1.1. Denici on de vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Operaciones vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 6 6 7 7 7 8 8 9 10 10 11 11 12 12 12 13 14 15 16 16 16 16

1.2.1. Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2. Ponderaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.3. Propiedades de la suma y la ponderaci on . . . . . . . . . . . . . . . . . . . . . 1.3. Combinaciones lineales y conjunto generado . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Geometr a en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1. Producto punto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.2. Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.3. Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Rectas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.1. Ecuaciones de la recta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6. Hiperplanos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Sistemas de Ecuaciones 2.1. Conceptos b asicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Operaciones elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Notaci on matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4. Algoritmo de eliminaci on de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5. Soluci on general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2.6. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1. Sistemas simult aneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.2. El producto Ax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.3. Sistemas homog eneos e independencia lineal . . . . . . . . . . . . . . . . . . . . 2.6.4. Ecuaciones cartesianas a conjunto generado, obtenci on de la soluci on de un sistema de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

17

3. Matrices 3.1. Transformaciones lineales en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Matrices can onicas de una transformaci on lineal . . . . . . . . . . . . . . . . . . . . . . 3.3. Operaciones matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1. Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2. Ponderaci on por escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.3. Multiplicaci on de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.4. Transposici on: La matriz transpuesta . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Transformaciones lineales inyectivas y sobreyectivas . . . . . . . . . . . . . . . . . . . . 3.4.1. Conceptos b asicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.2. Relaci on con la matriz can onica . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5. Matrices inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.1. Inversa por la derecha . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.2. Inversa por la izquierda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6. Inversa de matrices cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1. Propiedades de las matrices invertibles . . . . . . . . . . . . . . . . . . . . . . . 4. Factorizaciones matriciales 4.1. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Inversas y transpuestas de matrices elementales . . . . . . . . . . . . . . . . . . . . . . 4.3. Factorizaci on A = LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Factorizaci on PA = LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5. Aplicaciones de la factorizaci on PA = LU . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.1. Resoluci on de Ax = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.2. Encontrar A1 b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.3. Resolver AX = B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.4. Resolver AT x = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6. Factorizaci on de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.1. Factorizaci on LU de matrices sim etricas . . . . . . . . . . . . . . . . . . . . . . 4.6.2. Formas cuadr aticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.3. Segunda factorizaci on de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . 3

18 18 18 20 20 20 21 22 22 22 23 23 24 24 24 25 25 25 26 27 28 29 29 29 30 30 30 30 31 32

5. Determinantes 5.1. Propiedades b asicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. C alculo de determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3. Clasicaci on de formas cuadr aticas con determinantes . . . . . . . . . . . . . . . . . . 5.4. Cofactores y matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6. Espacios vectoriales 6.1. Cuerpos nitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2. Concepto de espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. Subespacios vectoriales 7.1. Denici on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.1. Para demostrar s.e.v. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2. Operaciones con s.e.v. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8. Bases y dimensi on 8.1. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33 33 34 34 34 35 35 37 38 38 38 39 39 41 41 41 42 42 42 43 44 44 45 46 47 48

8.2. Dimensi on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3. Completaci on de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9. Sistema de coordenadas y cambio de base 9.1. Sistemas de coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2. Matrices de cambio de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.Transformaciones lineales 10.1. Conceptos b asicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2. Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3. Matriz de una transformaci on lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.4. Algebra de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.5. Anexo: resoluci on de problemas tipo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

11.Valores y vectores propios 11.1. Valores y vectores propios de una matriz cuadrada . . . . . . . . . . . . . . . . . . . . 11.2. C alculo de valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3. C alculo de vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.4. Diagonalizaci on de una matriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . 11.4.1. Aplicaciones de matrices diagonalizables . . . . . . . . . . . . . . . . . . . . . . 12.Ortogonalidad 12.1. Espacios vectoriales con producto interno . . . . . . . . . . . . . . . . . . . . . . . . . 12.1.1. Matriz de un producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.1.2. Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.1.3. Concepto de ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.1.4. Bases ortogonales y proceso de Gram-Schmidt . . . . . . . . . . . . . . . . . . 12.1.5. Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.1.6. El operador proyecci on PW . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.1.7. El operador reexi on RW . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2. Producto punto en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2.1. Factorizaci on QR y matrices ortogonales . . . . . . . . . . . . . . . . . . . . . . 12.2.2. Matrices de proyecci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2.3. M nimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3. Valores y vectores propios de matrices sim etricas . . . . . . . . . . . . . . . . . . . . .

49 49 50 50 51 52 53 53 53 54 54 55 56 57 58 58 58 61 63 64

1.

Vectores en Rn

Cabe preguntarse, qu e es Rn ? Es una pregunta para la que se requieren elementos te oricos antes de poder responder, pero por ahora, se puede responder diciendo que es un espacio vectorial. Es decir, un espacio donde est an contenidos vectores, y se verican algunas operaciones y axiomas b asicos. Por ahora, basta con conformarse con la pertenencia de un vector a Rn .

1.1.

Denici on de vector
N, un vector en Rn es conjunto ordenado de n elementos en R. La notaci on es = (1 , . . . , n ) = 1 . . . n
T

Denici on: Sea n la siguiente: 1 . v= . .

donde cada i R y v Rn

n A veces se anota v , pero no es condici on necesaria. Los vectores se pueden escribir usando simplemente letras min usculas.

Observaci on: Para R2 y R3 se tienen representaciones en el plano cartesiano. A partir de estas se pueden hacer comprensiones de fen omenos de la geometr a en general de Rn . Sin embargo, para n 4, vectores que s seran necesarios, ya se carece de representaciones gr acas, por lo que todo el trabajo con vectores es puramente algebraico, esa es una de las ventajas del algebra lineal.

1.2.

Operaciones vectoriales

Existen much simas operaciones en Algebra Lineal, sin embargo, las m as b asicas, y a partir de las que se pueden construir las dem as, son la suma y la ponderaci on por escalar. Algo se dice lineal, si verica los axiomas de estas dos operaciones, que ser an denidas a continuaci on. (Se puede hacer alguna referencia de lineal a l nea, recta?)

1.2.1.

Suma Rn Rn Rn dos vectores de 1 . . . + n 1 1 + 1 . . . . . = . n n + n


Rn

Denici on: Sean x, y Rn , entonces se dene la suma vectorial como + :

:
R

1.2.2.

Ponderaci on

Denici on: Sea x Rn y R, entonces se dene la ponderaci on como una operaci on R Rn Rn tal que: x1 x1 . . . . . = . xn xn No confundir: cada xi es un n umero real que dene una coordenada del vector, y x es el vector completo, que pertenece a Rn . Nota: Prescindiremos de los signos y , pues estos ser an representaciones de otras dos operaciones particulares en el algebra lineal. Todos las dem as operaciones, adem as de estas, deben evitar usar esta notaci on.

1.2.3.

Propiedades de la suma y la ponderaci on

Propiedades: Para todo x, y, z Rn y , R se tiene que: 1. Conmutatividad : x + y = y + x 2. Asociatividad : (x + y ) + z = x + (y + z ) 3. Elemento neutro : x + 0 = x. Cero ahora es un vector, y no un escalar. 4. Inverso aditivo : x + (x) = 0 . De esta forma, se puede denir la resta vectorial a partir del inverso aditivo. 5. ( ) x = (x). 6. ( + )x = x + x. 7. (x + y ) = x + y . 8. 1x = x. 1 9. x = x, con = 0. Notar que 0x = 0 .

1.3.

Combinaciones lineales y conjunto generado

Denici on: Un vector x Rn se dice combinaci on lineal (c.l.) de un conjunto S = {x1 , . . . , xk } si existen escalares 1 , . . . , k R (pudiendo ser uno, e incluso todos cero) tales que: x = 1 x1 + . . . + k xk
k

Adem as, una combinaci on lineal se dice convexa si


i=1

k = 1.

Denici on: Sea S = {x1 , . . . , xk } un conjunto de vectores en los que cada xi Rn . Entonces el conjunto generado de S , anotado como S es aquel conjunto que satisface: S = {x Rn : x es cl. de S } = 1 x1 + . . . + k xk i Rn

Evidentemente, para Rn y con un conjunto no vac o distinto de {0}, la cardinalidad (cantidad de elementos) de este conjunto es innita. Sin embargo, este innito tiene condiciones seg un la cantidad de vectores y los vectores determinados. Observaci on: 0 S para cualquier conjunto S no vac o.

1.4.

Geometr a en Rn

Incluso para n 4 (e incluso para espacios vectoriales m as extra nos a un) se puede desarrollar una geometr a en que se incluyan los dos conceptos fundamentales: angulo y distancia, con la denici on adecuada de ciertas operaciones, convirtiendo todo el proceso geom etrico en uno algebraico.

1.4.1.

Producto punto

Denici on: Sean x, y Rn , entonces se dene el producto punto como aquella operaci on : Rn n R R (convierte dos vectores a un escalar) tal que: x1 y1 . . . . . . = x 1 y1 + . . . + x n yn xn yn Es decir, se multiplica componente a componente y se suma. Propiedades: Sean x, y, z Rn y R, entonces: 1. x y = y x. 2. x (y + z ) = x y + x z . 3. (x y ) = (x) y = x (y ). 4. 0 x = 0 . 5. x x 0. 6. x x = 0 x = 0. Notar que x y = 0 no implica que x = 0 o y = 0 necesariamente, basta notar que: 1 1 1 1

=0

Observaci on: Esta observaci on es importante, pues tiene implicancia en los desarrollos posteriores: z1 y1 x1 x2 = y2 + z2 z3 y3 x3 Se tiene que: y1 z1

x1 =

Y as simult aneamente. Se tiene o mismo de forma an aloga para cualquier c.l.

1.4.2.

Norma

Denici on: Sea x Rn . Se dene la norma o longitud (distancia al origen) de un vector como: x = De aqu se desprende que: xx

x =

x1 . . . xn

x1 . . . = xn

x2 i
i=1

Para R2 y R3 se puede hacer la comprobaci on. Para espacios de orden superior, basta con hacer uso de la denici on. Propiedades: Sea x, y Rn y R, entonces: 1. x
2

= x x 0.

2. x = 0 x = 0. 3. x = || x . 4. x + y
2

= x

+ y

+ 2x y .

Teorema: (Desigualdad de Cauchy-Schwarz) Sean x, y Rn , entonces: |x y | x Y |x y | = x

y si y s olo si x = y para alg un R.

Corolario: (Desigualdad Triangular) Sean x, y Rn , entonces: 9

x+y x + y Denici on: Para x, y Rn se dene el angulo entre vectores como: xy x y

= arc cos Observaciones: 1. x y x = y para = 0.

2. xy x y = 0. Denici on: x Rn se dice unitario si x = 1. Observaci on: Para todo vector x Rn se puede obtener su forma unitaria x considerando: x= x x

1.4.3.

Distancia

Denici on: 1. Un punto P en Rn est a representado por su vector posici on, el cual parte desde el or gen y llega hasta el punto P . 2. Sean x, y Rn , estos representan puntos del espacio. Luego, la distancia est a determinada por: d(x, y ) = y x

1.5.

Rectas

Denici on: Una recta L en Rn est a denida como: L : p+ d con p, d Rn

Donde p representa el vector posici on, un vector contenido en la recta que indica su posici on con respecto al origen, y d representa el vector direcci on, el cual se ve determinado por la resta de dos puntos pertenecientes a esta. Observaci on: Sean: L1 : p1 + d1 L2 : p2 + d2 Se tiene que: 10

L1

L2 d1 = d2 .

L1 L2 d1 d2 d1 d2 = 0. L1 = L2 si y s olo si d1 d2 y p1 p2 d1 .

1.5.1.

Ecuaciones de la recta

Denici on: Sea L1 una recta en Rn , entonces: La ecuaci on vectorial de L1 se representa como: p + d con R

La ecuaci on param etrica de L1 se representa como: x1 = p1 + d1 . . . con R x = p + d


n n n

Las ecuaciones cartesianas de L1 se representan como: 1 x1 + . . . + n xn 1 x 1 + . . . + n x n El n umero de ecuaciones necesario depende de varios par ametros, pero deben permitir llegar a los otros tipos de ecuaciones.

1.6.

Hiperplanos

Denici on: Para Rn y dados un vector jo n Rn y un escalar b Rn se dene un hiperplano H como un subconjunto de Rn para el que: x H n x = b Un plano es un caso particular de hiperplano. La diferencia fundamental es la imposibilidad de ser gracado de este u ltimo. El hiperplano es una generalizaci on de plano para Rn . Para poder hacer un estudio m as exhaustivo de los hiperplanos, se requiere el uso de sistemas de ecuaciones.

11

2.
2.1.

Sistemas de Ecuaciones
Conceptos b asicos

Denici on: Una ecuaci on lineal con n inc ognitas es una expresi on de la forma: 1 x1 + . . . + n xn = b con ai , xi , b R Cada i corresponde a un coeciente, xi a una inc ognita y b se conoce como coeciente libre. Observaci on: Toda ecuaci on lineal de n inc ognitas representa a un hiperplano de Rn . En particular, 1 . . . n
n

x1 . . . =b xn
x

Denici on: Se dene un sistema de ecuaciones de m ecuaciones y n incognitas como un conjunto de ecuaciones lineales que se cumplen simult aneamente: 11 x1 + . . . + 1n xn = b1 . . . x + . . . + x = b n1 1 nn n n La primera interpretaci on es una intersecci on de interplanos, es decir, se buscan los vectores x que perT tenezcan simultaneamente a varios hiperplanos dados. Se buscar an los vectores x = x1 . . . xn que pertenezcan a todos los hiperplanos dados simult aneamente. Denici on: Dos sistemas de ecuaciones se dicen equivalentes si las soluciones de cada sistema coinciden.

2.2.

Operaciones elementales

Denici on: Se conocen como operaciones elementales a aquellas operaciones que aplicadas a un sistema de ecuaciones, obtienen uno equivalente. Estas son: 1. Permutaci on : Se cambia intercambia el orden en que se muestran los sistemas de ecuaciones. Se representa como Ei Ej 2. Escalamiento : Se amplica toda una ecuaci on lineal de un sistema de ecuaciones por un escalar R distinto de 0. Ei Ei 3. Eliminaci on : Se suma un m ultiplo distinto de 0 de una ecuaci on lineal a otra: Ei + Ej Ei 12

2.3.

Notaci on matricial

La notaci on matricial permite simplicar la resoluci on de un sistema de ecuaciones, pues s olo se consideran sus coecientes num ericos. Denici on: Una matriz A de m n es un conjunto a11 . . . . . . . A= . . am1 Una forma de notar la matriz es: A = [aij ]mn Donde: 1. m representa el n umero de las. 2. n representa el n umero de columnas. 3. i representa el indicador de la la. 4. j representa el indicador de la columna. Proceso: Se tiene un sistema de ecuaciones dado por: 11 x1 + . . . + 1n xn = b1 m1 x1 + . . . + mn xn = bn La notaci on es directamente: 11 . . . 1n . . .. . . . . . m1 . . . mn Denici on: Todo el sistema de ecuaciones puede resumirse en: ordenado de m las y n columnas. a1n la 1 . . . . . . . . . amn

Ax = b Donde se considerar a: La matriz de los coecientes, que es aquella que contiene los coecientes dependientes del sistema de ecuaciones. La columna de resultados, que contiene los coecientes libres. Es un vector de Rm . b1 . b= . . bm 13

El vector soluci on, que contiene los xi que ser an soluci on del sistema. Pertenece a Rn . x1 . x= . . xn La matriz ampliada, [A|b], que contiene toda la informaci on esencial del sistema. Es decir, se toma: 11 . . . 1n b1 . . . .. . . . . . . . m1 . . . mn bm En esta u ltima notaci on, es posible hacer el uso r apido de las operaciones elementales.

2.4.

Algoritmo de eliminaci on de Gauss

Denici on: Una matriz est a en forma escalonada (F.E.) si: 1. Las las que contienen u nicamente ceros (nulas) est an bajo las las no nulas. 2. En cada la no nula, avanzando de izquierda a derecha hay un primer elemento distinto de 0 que se llama pivote. El pivote de cada la siempre est a como menos una columna m as a la derecha que el pivote de la la anterior. 3. Cada columna que contiene un pivote tiene ceros abajo de el. Denici on: Una matriz est a en forma escalonada reducida (F.E.R.) si: 1. Est a en forma escalonada. 2. Todos los pivotes son iguales a 1. 3. En cada columna con pivote, el u nico elemento distinto de cero es el pivote. Algoritmo: Para una matriz de Amn , el algoritmo de eliminaci on Gaussiana lleva a la matriz A a su F.E. en primera instancia: 1. Se asume que la primera columna no es nula. Si lo fuera, el proceso comienza en la primera que no sea nula. 2. Buscar el primer elemento de la columna distinto de 0. Si no est a en la primera la, se hace una permutaci on. Este ser a el pivote de la primera la. 3. Eliminar hacia abajo la columna, dejando ceros bajo el pivote. Para la la i- esima y la columna je sima se realiza considerando la operaci on de eliminaci on: Fi aij Fj Fi ajj

14

4. Se obtiene la matriz con el pivote. Se considera la submatriz comenzando desde la siguiente la y la siguiente columna y se sigue repitiendo el proceso. Este proceso se conoce como pivotear la matriz. No es necesario que todas las columnas tengan pivote. Para llevarla a su F.E.R, se toma cada pivote y se aplica la operaci on: aij Fj Fj aii

Fi

Donde i es una la superior al pivote, por lo que i < j .

2.5.

Soluci on general

Denici on: Sea A una matriz de m n y FE(A) su forma escalonada, equivalente a la matriz A. Se dene el rango gaussiano, r(A), como el n umero de pivotes de FE(A). Teorema: Si S es el conjunto de soluciones de un sistema de ecuaciones lineales, entonces:

S=

#S = 1

#S =

En el tercer caso, la soluci on se puede expresar como un conjunto generado. Denici on: Para un sistema lineal de ecuaciones de m ecuaciones y n inc ognitas Un sistema lineal sin soluci on se dir a incompatible o inconsistente. En este caso, r(A) = r(A|b). Aparece un pivote en la columna de resultados. Un sistema lineal con soluci on u nica se dir a compatible determinado. Se tiene que r(A) = r(A|b) = n. Un sistema lineal con innitas soluciones se dir a compatible indeterminado. Algunas variables no quedar an determinadas por las ecuaciones, estas se dir an variables libres. Se cumple que r(A) = r(A|b) < n. Adem as: n umero de variables libres = n umero de variables r(A) Las variables libres satisfacen el sistema para cualquier valor que se les de, y siempre se corresponden (no exclusivamente) con las las con pivotes. Por lo tanto, estas pueden formar parte de un conjunto generado en la soluci on.

15

2.6.
2.6.1.

Aplicaciones
Sistemas simult aneos

Se pueden resolver varios sistemas simult aneos de la forma: [A|b1 ] . . . [A|b2 ] Pivoteando una sola vez la matriz: [A|b1 | . . . |bk ] El sistema ser a equivalente, y los resultados los mismos.

2.6.2.

El producto Ax

Denici on: Sea x Rn y sea A una matriz de n columnas, las cuales son {v1 , . . . , vn }, entonces se dene el producto de una matriz por un vector: x1 . [v1 | . . . |vn ] . . = x1 v1 + . . . + xn vn b xn A
x

Es decir, al resolver el sistema Ax = b uno tambi en puede responder a la pregunta de cu ales son los coecientes que acompa nan a v1 , . . . , vn y que determinan al vector b. Teorema: Un sistema de ecuaciones [A|b] es compatible si y solo si el vector b es c.l. de las columnas de A. Propiedades: 1. A(x + y ) = Ax + Ay . 2. Ax = A (x), con R. 2.6.3. Sistemas homog eneos e independencia lineal

Denici on: Un sistema se dir a homog eneo si su columna de resultados es el vector 0. Teorema: Para x Rn , el sistema homogeneo Ax es compatible si y solo si r(A) = n. Teorema: Si S0 es el conjunto de soluciones del sistema Ax = 0 y xp es soluci on particular conocida del sistema Ax = b, entonces el conjunto de soluciones de este u ltimo esta dado por: S = x0 + S0 Denici on: 16

El conjunto de vectores {u1 , . . . , un } ser a linealmente independiente (l.i.) cuando la u nica forma de escribir 0 como combinaci on lineal de ellos sea la trivial, es decir, multiplicando cada vector por cero. 1 u1 + . . . + n un = 0 = i = 0 i n El conjunto de vectores {u1 , . . . , un } ser a linealmente dependiente (l.d.) cuando haya otra forma distinta de la trivial para escribir el 0 como c.l. de ellos. Esto implica que al menos uno de ellos se puede escribir como c.l. del resto de los vectores. Teorema: Para el conjunto {v1 , . . . , vm } donde cada vi Rn . Si m > n, entonces el conjunto es l.d.

2.6.4.

Ecuaciones cartesianas a conjunto generado, obtenci on de la soluci on de un sistema de ecuaciones lineales

Las ecuaciones lineales y cartesianas que representan a un hiperplano pueden llevar a su transcripci on a la ecuaci on como conjunto generado, y de igual forma la ecuaci on derivada de su denici on. Dado el sistema, este se resuelve pivoteando la matriz respectiva y se obtendr an ecuaciones de la forma. Se revisar a un caso concreto. Por ejemplo, se tiene el sistema ya resuelto: x1 + 0 + x3 + x2 + x3 + 0 + 0 = b1 0 + x5 = b2 x4 + x5 = b3

Luego, las variables libres siempre (pero no exclusivamente) corresponden a las columnas sin pivote. Se despejan las columnas con pivote, es decir, se despeja en t erminos de x1 , x2 , x4 : x1 = b1 x3 x2 = b2 x3 x5 x4 = b3 x5 Es decir, nuestro conjunto generado tendr a 5 3 = 2 vectores. Sabemos que un vector soluci on es de la forma x = x1 x2 x3 x4 x5 .

Reemplazando con las igualdades anteriormente obtenidas, se tiene que: x= b1 x3 b2 x3 x5 x3 b3 x5 x5 b1 b2 0 b3 0 1 0 0 0 0 1

+ x3

+ x5

17

Como x3 y x5 son variables libres, e independientes una de otra, pueden ser cualquier valor real. Por lo tanto, la soluci on, o el hiperplano seg un corresponda a la interpretaci on, queda expreado como: S= b1 b2 0 b3 0 + 1 0 0 , 0 0 1

posici on Con la pr actica adecuada, este m etodo es generalizable a cualquier soluci on de sistema de ecuaciones, e incluso puede ser desprendido el conjunto generado directamente de la matriz.

3.
3.1.

Matrices
Transformaciones lineales en Rn

Denici on: Una transformaci on lineal (t.l.) de Rn en Rm es una funci on T : Rn Rm que cumple: 1. T (x + y ) = T (x) + T (y ). 2. T (x) = T (x). Donde, R y x, y Rn . Teorema: Sean T1 : Rn Rm y T2 : Rn Rm dos t.l., entonces T1 + T2 tambi en es una t.l. de Rn en Rm . Teorema: Sea T : Rn Rm una t.l. y R, entonces T tambi en es una t.l. de Rn en Rm . Teorema: Sean: T : Rn Rm , S : Rm Rp dos t.l. Entonces, S T es una t.l. de Rn en Rp .

3.2.

Matrices can onicas de una transformaci on lineal

Denici on: Sea n N jo, entonces se denen los vectores can onicos como: e1 = 1 0 ... 0 0 . . . ei = ( 0 . . . 1 . . . 0 )T
1 T

en la posici on i- esima . . .

en =

0 0 ... 0 1 18

Todos estos vectores ei pertenencen al Rn que se est e usando. Notar que ei = 1 y ei ej = 0 para i = j . Observaci on: Entonces, para todo x Rn se tiene que: x1 . x = x1 e1 + . . . + xn en = [e1 | . . . |en ] . . = xn x1 . . . xn

con xi R

Es decir todo vector se puede escribir como combinaci on lineal de sus vectores can onicos. M etodo: Toda transformaci on lineal de Rn en Rm puede ser representada por una matriz can onica. Es decir, se tiene que:

T (x) = Ax Con Amn , y x Rn . Notar que con la observaci on anterior, se tiene que:

T (x) = T (x1 e1 + . . . + xn en )

T (x) = =

T (x1 e1 + . . . + xn en ) x1 T (e1 ) + . . . + x ) n T (en x1 . = [T (e1 )| . . . |T (en )] . . xn

Sabiendo la denici on de la transformaci on, se puede calcular f acilmente cada T (ei ). Por lo tanto, la obtenci on de la matriz es directa. Se tiene que:

A = [T (e1 )| . . . |T (en )] Denici on: Dada una t.l. de T : Rn Rm , la matriz de m n: A = [T (e1 )| . . . |T (en )] es la matriz can onica de la transformaci on lineal T.

19

3.3.
3.3.1.

Operaciones matriciales
Suma

Denici on: Sean A, B matrices de m n, se sabe por teorema que su suma tambi en es una transformaci on lineal, considerando que:

A = [a1 | . . . |an ]

y B = [b1 | . . . |bn ]

Donde cada ai y bi es la columna respectiva de A o B. A + B = [a1 + b1 | . . . |an + bn ] Propiedades: Sean A y B matrices de m n: 1. A + B = B + A. 2. A + (B + C ) = (A + B ) + C . 3. Existe un neutro aditivo, la matriz de m n denominada O y que est a compuesta u nicamente por ceros. 4. Existe el inverso aditivo, A, que cumple que: A + (A) = O

3.3.2.

Ponderaci on por escalar

Denici on: Sea A una matriz de m n y R, entonces si A est a denida como: A = [a1 | . . . |an ] Entonces, la ponderaci on de una matriz por un escalar est a denida por:

A = [a1 | . . . |an ] Propiedades: Sean A y B matrices de m n y , R, entonces: 1. ( + )A = A + B . 2. (A + B ) = A + B . 3. ( + )(A + B ) = A + A + B + B . 4. ( )A = (A) = (A). 5. 1A = A, (1)A = A y 0A = O. 20

3.3.3.

Multiplicaci on de matrices

Denici on: Sean A una matriz de m n y B una matriz de n p, entonces la matriz AB es una matriz de m p es la multiplicaci on de ambas matrices y representa a la composici on de las transformaciones lineales respectivas asociadas a ellas. Si B = [b1 | . . . |bn ] Entonces: AB = A [b1 | . . . |bn ] = [Ab1 | . . . |Abn ] Es decir, si se considera a A por las: aT 1 . A= . . aT n Entonces, se tiene que: T aT a1 b1 . . . a1 bn 1 b1 . . . a1 bn . . . . .. .. . . . AB = . . . . . = . . Tb a b . . . a b b . . . a aT n 1 n n n n n 1 Esta es la denici on que puede resultar m as r apida: producto punto de las por columnas. Para que dos matrices Amn y Bnp puedan multiplicarse. Debe cumplirse que las dimensiones de los extremos interiores coincidan. Denici on: Sea n N, la matriz In de n n se conoce como matriz de identidad de orden matriz de identidad de orden n, y est a denida como: In = [e1 | . . . |en ] = 1 0 ... 0 . . 0 1 . . .. . . 0 . 0 0 ... 1

Es decir, es una matriz con unos en la diagonal y ceros en cualquier otra posici on. Propiedades: Asumiendo que A, B y C son matrices que s pueden ser operadas entre s , se tiene que: 1. (AB )C = A(BC ). 2. A(B + C ) = AB + AC , y (A + B )C = AC + BC . Mucho cuidado con multiplicar por la izquierda o la derecha. 3. (AB ) = (A)B = A(B ). 4. OA = AO = O con la dimensi on que le corresponda. 5. Amn In = A, Im A = A. 21

Tenga cuidado: 1. AB = BA en general. 2. NO hay leyes de cancelaci on. AB = AC no implica que A = C . 3. AB = O no implica que A = O o B = O.

3.3.4.

Transposici on: La matriz transpuesta

Denici on: Sea Amn , entonces se dene la matriz transpuesta de A, que se anota como AT , como una matriz de n m que se obtiene de intercambiar la la como columna. A = [aij ]mn = AT = [aji ]nm Observaciones: 1. (x Rn ) (y Rm ) 2. x y = xT y . Propiedades: Para matrices A, B las cuales s pueden ser multiplicadas y/o sumadas entre ellas seg un corresponda: 1. (AT )T = A. 2. (A + B )T = AT + B T . 3. (A)T = AT , donde R. 4. (AB )T = B T AT . (Ax) y = x (AT y ).

3.4.
3.4.1.

Transformaciones lineales inyectivas y sobreyectivas


Conceptos b asicos

Denici on: Sea T : Rn Rm una transformaci on lineal. Se denen los conjuntos: 1. El n ucleo o kernel de T como el conjunto: Ker(T ) = {x Rn : T (x) = 0} 2. La imagen de T como el conjunto: Im(T ) = {y Rm : x Rn : T (x) = y } Teorema: Sea Amn la matriz de una t.l. T : Rn Rm , se tiene que si A = [a1 | . . . |an ] con cada ai Rm 22

1. Ker(T ) = {x Rn : Ax = 0}. 2. Im(T ) = a1 , . . . , an = b1 , . . . , bk con k n y donde el conjunto {b1 , . . . , bk } es l.i. Denici on: Sea T : Rn Rm una t.l. y Amn la matriz can onica asociada. Entonces: 1. T y su matriz A se dicen inyectivas si y solo si (x Rn ) (y Rn ) T (x) = T (y ) = x = y

2. T y su matriz A se dicen sobreyectivas si y solo si Rec(T ) = Rm 3.4.2. Relaci on con la matriz can onica

Teorema: Sea Amn , entonces todas las siguientes armaciones son equivalentes entre s . Si se cumple una, se cumplen todas. A es sobre. Las las de A son l.i. Los sistemas Ax = e1 , . . . , Ax = em son compatibles. Im(A) = Rm . El sistema Ax = b tiene soluci on para todo b Rm . r ( A) = m m n . Teorema: An alogamente, para la matriz Bmn las siguientes armaciones son equivalentes: B es 1-1. Las columnas de B son l.i. Ker(B ) = { 0 } o Bx = 0 tiene soluci on u nica. Si b Im(B ), entonces Bx = b tiene soluci on u nica. r (B ) = n m n.

3.5.

Matrices inversas

Denici on: Sea Amn , entonces se dir a que: 1. A tiene inversa por la izquierda si existe una matriz X de n m tal qu XA = In 2. A tiene inversa por la derecha si existe una matriz X de n m tal que: AX = Im Siempre que se cumpla esta condici on X ser a la inversa por la izquierda o la derecha seg un corresponda. En general, estas matrices no son u nicas. 23

3.5.1.

Inversa por la derecha

Teorema: A tiene inversa por la derecha si y solo si A es sobre. M etodo: S olo en caso de que no se cumpla la particularidad, existir an inntias matrices que cumplen esta condici on. 1. Se toma [A|I] y se lleva a su FER. 2. Se resuelve la soluci on general para cada sistema. 3. Cada sistema es una columna de la matriz inversa por la derecha. Se asigna cualquier valor a la parte generada, si es que existe, o se deja expresado en t erminos de variables. Evidentemente, si las columnas no son l.i., no ser au nica.

3.5.2.

Inversa por la izquierda

Teorema: A tiene inversa por la izquierda si y solo si A es 1-1. M etodo: Se aprovecha el hecho de que ya sabemos c omo calcular la inversa por la derecha: 1. XB = I B T X T = I. 2. Se encuentra la matriz por el m etodo de b usqueda de inversas por la derecha. (Se pivotea [B T |I]). 3. Cada columna de X T pasar a a ser la la respectiva de X . Corolario: Sea Amn , entonces: 1. Si A tiene inversa por la derecha, entonces m n. 2. Si A tiene inversa por la izquierda, entonces n m. 3. Si A tiene inversa por la izqueirda y por la derecha, entonces m = n.

3.6.

Inversa de matrices cuadradas

Teorema: Ann tiene inversa por la izquierda si y solo si A tiene inversa por la derecha. Corolario: 1. En este caso, la inversa es u nica. 2. Se verican simult aneamente todos los teoremas de sobreyectividad e inyectividad para esta matriz: es biyectiva.

24

Denici on: Sea Ann con r(A) = n, entonces la u nica matriz que es inversa por la derecha e izquierda se llama matriz inversa de A y u nicamente en este caso se anota A1 . Entonces, A es la u nica matriz que cumple que: AA1 = A1 A = In Adem as, si A tiene inversa, se dice invertible. M etodo de calculo: Notar que como la matriz ser a 1-1 y a la vez cuadrada, cada columna tendr a un pivote, por lo tanto al pivotear [A|I] se tendr a una soluci on unica para cada sistema. Por lo tanto, F ER(C |I) = [I|A1 ]. 3.6.1. Propiedades de las matrices invertibles

Todas las demostraciones de invertibilidad se realizan bajo el siguiente principio: Si B es una matriz inversa de A, entonces AB = I y BA = I. (A1 )1 = A. ( R\{0}) (A)1 = 1 1 A .

Si A y B son invertibles, entonces AB tambi en lo es, y (AB )1 = B 1 A1 . A es invertible AT es invertible. Se sigue que (AT )1 = (A1 )T .

4.
4.1.

Factorizaciones matriciales
Matrices elementales

Denici on: Son matrices cuadradas que se obtienen al realizar una operaci on elemental (permutaci on, escalamiento, eliminaci on) a la matriz identidad I. Permutaci on: Pij representa la matriz elemental de permutaci on, intercambiando la la i con la la j , o bien la columa i con la columna j . Ejemplo de (P35 )55 : 1 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 1 0 0 Escalamiento: Ei () representa la matriz elemental de escalamiento, donde se multiplica la la i (o columna i) por R. Ejemplo de E3 (4)55 : 1 0 0 0 0 0 1 0 0 0 0 0 4 0 0 0 0 0 1 0 0 0 0 0 1 25

Eliminaci on: Eij (c) con c R representa la matriz elemental de eliminaci on, donde se suma a la la i c veces la la j . En eliminaci on gaussiana, tenemos que siempre se cumple que i > j . Ejemplo de E23 (4): 1 0 0 0 0 0 1 4 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1 Notar que es simplemente ubicar c en la posici on (i, j ) de la matriz elemental. Se puede pensar haciendo tambi en la misma operaci on elemental en la matriz que nos piden.

4.2.

Inversas y transpuestas de matrices elementales

Matriz Elemental Pij Ei () Eij (c)

Matriz Inversa Pij (1) 1 Ei ( ) = 0 Eij (c) (4)

Matriz Transpuesta Pji = Pij (2) Ei () (3) Eji (c) (5)

(1) Notar que la operaci on inversa de intercambiar una la con otra es volver a intercambiar la misma la de nuevo. (2) Notar que lo apropiado seria pensar que se intercambian columnas con columnas, pero esto es exactamente lo mismo que intercambiar las con las en una matriz de permutaci on. (3) Aplicarle la transformaci on a la la i o a la columna i es exactamente lo mismo, por eso en la transposici on no se altera. (4) Es lo mismo que restarle lo que anteriormente se habia sumado. (5) Ver la matriz de ejemplo: el n umero agregado se traslada a la posici on (j, i). Teorema: Sea Amn una matriz cualquiera y Mmm una matriz elemental, entonces A = MA es la matriz obtenida al aplicar a A la operaci on elemental que representa la matriz M . Las operaciones elementales se aplican por la izquierda a la matriz. Importante: Las operaciones elementales por columnas se realizan de la siguiente forma: A = AM T , considerando que M es la operaci on aplicada a una la. Notar tambi en que debe coincidir con la multiplicaci on de la matriz por la derecha. Recordar: Toda matriz A cuadrada e invertible se puede llevar a su F ER(A) = I, por medio de operaciones elementales. Por lo tanto, Ok . . . O1 A = I. Luego A = (Ok . . . O1 )1 , donde Oi representa una operaci on elemental.

26

4.3.

Factorizaci on A = LU

Denici on: 1. A = (aij )mn es triangular superior si aij = 0 con i > j , es decir, si todos los elementos bajo la diagonal son ceros. Esto no quiere decir que los elementos en la diagonal o sobre la diagonal tengan que ser distintos de 0. 2. De forma an aloga, B = (bij )mn es triangular inferior si bij = 0 con i < j , es decir, si todos los elementos sobre la diagonal son ceros, sin decir nada sobre los elementos en la diagonal o bajo ella. 3. C = (cij )mn es diagonal si cij = 0 si i = j . Tambi en pueden aparecer ceros en la diagonal! Teoremas: Considerando las deniciones anteriores: Si A y B son triangulares superiores, entonces AB es triangular superior. Si A y B son triangulares inferiores, entonces AB es triangular inferior. Si A y B son ambas triangulares superiores o inferiores con 1s en la diagonal, entonces AB es triangular superior o inferior seg un corresponda, y con 1s en la diagonal. Si A es triangular inferior y triangular superior, entonces A es diagonal. Por ejemplo, la matriz 0 es diagonal. Si A es triangular superior AT es triangular inferior. La expresi on rec proca tambi en se verica. Si A es triangular superior e invertible A1 es triangular superior. Basta con notar que los pivotes ya estar an determinados en este caso. Si presenta unos en la diagonal, la matriz inversa tambi en los presentar a. Denici on: Sea Amn una matriz que no requiera operaciones de permutaci on para ser llevada a su FE, es decir, basta con usar operaciones elementales de eliminaci on, entonces A = LU donde: L es una matriz triangular inferior cuadrada de m m. U es una matriz triangular superior que corresponde a una forma escalonada de A. Obtenci on de U: Simplemente se lleva A a su F.E. registrando las operaciones elementales efectuadas. Obtenci on de L: A F E (A) = Ek . . . E1 A. Donde Ei representa una operaci on elemental de eliminaci on. Notar que todas las Ei son triangulares inferiores con unos en la diagonal (pues en la eliminaci on gaussiana i > j ). U = Ek . . . Ei A
L1

1 1 L = (Ek . . . E1 )1 = E1 . . . Ek

27

Importante: Recordemos que para las matrices de eliminaci on se cumple que Eij (c)1 = Eij (c) en L, luego, y s olo en el caso de la obtenci on de L operaciones consecutivas de eliminaci on verican que se ubicar an en su respectivo casillero en la matriz nal. Por ejemplo: 1 0 0 1 0 0 1 0 0 1 0 0 3 1 0 0 1 0 0 1 0 = 3 1 0 0 0 1 1 0 1 0 2 1 1 2 1 Esto s olo se verica debido al orden en que se multiplican las matrices de eliminaci on debido a la factorizaci on LU , por lo que no es una generalidad para el producto de matrices elementales de eliminaci on. Observaci on: Si describimos Amn = LU mediante las, se tiene que: Ak = O U1 . . . 1 Um
m i=1

lk,i Ui .

A1 1 . . .. . . = . . . lm1 Am A1 = 1 U1 . . . A4 = l41 U1 + l42 U2 + l43 U3 + U4 . . .

olo el ultimo termino va acompa nado de un 1. Am = lm1 U1 + lm2 U2 + . . . + 1 Um s


m te rminos

Se concluye que la la i- esima de A es una c.l. de todas las las de U con la la i- esima de L como coecientes.

4.4.

Factorizaci on PA = LU

Extiende la factorizaci on A = LU a matrices que requieran operaciones de permutaci on para ser llevadas a su F.E. Denici on: Sea Amn una matriz que requiera una cantidad m nima de k operaciones de permutaci on para poder ser llevada a su F.E., entonces: P A = LU donde: P es una matriz de permutaci on con el producto de las k operaciones. Es cuadrada e invertible, por ser producto de matrices elementales. L y U son las matrices inferior cuadrada y superior respectivas. Observaciones: Si bien en general la conmutaci on del producto de matrices no se cumple, si se cumplen las siguientes propiedades: 28

Pij Ekl (c) = Ekl (c) Pij , donde i, j = k e i, j = l. Pij Eij (c) = Eji (c) Pij . En la eliminaci on se intercambian los coecientes. Pij Ejk (c) = Eik (c) Pij . Pij Eki (c) = Ekj (c) Pij . Concluimos que en estos dos u ltimos casos se intercambia la letra coincidente con la otra de la permutaci on. M etodo: Con estas observaciones, se puede realizar la factorizaci on. Notemos que: A F E (A) = U = Eij (c1 ) . . . Puv Emn (ci ) . . . Ejk (cg )A. Se pueden efectuar las conmutaciones para que U quede como:
L1

U = Ei . . . E1 Pk . . . P1 A
P

Y de esta forma se puede nalmente efectuar la factorizaci on P A = LU .

4.5.

Aplicaciones de la factorizaci on PA = LU

Sabiendo P , L y U se pueden resolver todos estos tipos de problemas sin la necesidad de encontrar A.

4.5.1.

Resoluci on de Ax = b

Ax P Ax L Ux
y

= b = Pb = Pb

(1) Se resuelve Ly = P b. P b se obtiene r apidamente, pues b es multiplicado por una matriz de permutaci on. El sistema se obtiene por sustituci on directa, pues L es triangular y ya est a pivoteada. (2) Se resuelve U x = y . Tambi en se obtiene r apidamente, pues U ya est a pivoteada.

4.5.2.

Encontrar A1 b

A 1 b = x b = Ax Este sistema se resuelve como en el caso anterior.

29

4.5.3.

Resolver AX = B

P \

AX P AX L UX
Y

= B = PB = PB

(1) Se resuelve LY = P B L[y1 | . . . |ym ] = [P b1 | . . . |P bm ]. Entonces, se resuelve pivoteando [L|P B ], pero L es invertible! Entonces F ER(L|P B ) = [I|Y ]. (2) Se resuelve U X = Y . Se resuelve de forma an aloga: se obtiene F ER(U |Y ) y se obtiene el valor de cada columna de X .

4.5.4.

Resolver AT x = b

P A = LU /( )T AT P T = U T LT AT = U T LT P Entonces: AT x = b U T LT P x = b
y z

(1) Se resuelve U T z = b. U T es triangular inferior, luego bastar a pivotear hacia abajo. (2) Se resuelve LT y = z . LT es triangular superior y 1-1, luego se resuelve r apidamente. (3) Se resuelve P x = y x = P 1 y = P T y .

4.6.
4.6.1.

Factorizaci on de Cholesky
Factorizaci on LU de matrices sim etricas

Denici on: Ann es sim etrica si y s olo si A = AT , lo que viene a signicar que cada t ermino se ve reejado por la diagonal de la matriz. Primera Factorizaci on de Cholesky: Si A es sim etrica y factorizable como A = LU , es decir, no se requieren operaciones de permutaci on para factorizarla, entonces: A = LDLT donde: L ya lo conocemos. D es una matriz diagonal, que contiene a la diagonal de U . 30

4.6.2.

Formas cuadr aticas

x1 . Denici on: Una forma cuadr atica es una funci on Q : Rn R si para todo x = . . se cumple que xn todo t ermino no nulo del recorrido es de grado 2. Formalmente: Q( x)=
n n i1

mi x2 i +
i=1 i=1 j =1

rij xi xj .

Denici on: La matriz A representa a una forma cuadr atica si y s olo si: (x Rn ) Q(x) = xT Ax Existen, eso s , innitas matrices que representan a una f.c. Q(x). Teorema: Existe una u nica matriz sim etrica S que representa a Q(x). Notar: Q( 0 ) = 0 R. Clasicaci on de Formas Cuadr aticas: Denida positiva : (x = 0 ) Q(x) > 0. Semidenida positiva : (x Rn ) Q(x) 0. Denida negativa : (x = 0 ) Q(x) < 0. Semidenida negativa : (x Rn ) Q(x) 0. No denida : (x1 , x2 Rn ) Q(x1 ) > 0 Q(x2 ) < 0. Recordar: Para hacer demostraciones armando este tipo de expresiones, es aconsejable siempre evaluar xT Ax y hacer la demostraci on. Para matrices D diagonales, quiere decir que s olo apareceran t erminos del tipo xii en la forma cuadr atica. Son los m as f aciles de clasicar: d11 O dnn

O .. .

Q y su matriz D son denidas positivas si dii > 0. Q y su matriz D son semidenidas positivas si dii 0. Ocurre de forma an aloga para denido negativo y semidenido negativo. Teorema: Sea Q(x) = xT Sx una f.c. y sea S una matriz sim etrica tal que S = LDLT tal que D = (dij )nn . Entonces: 31

Q y su matriz S son denidas positivas si dii > 0. Q y su matriz S son semidenidas positivas si dii 0. Q y su matriz S son denidas negativas si dii < 0. Q y su matriz S son semidenidas positivas si dii 0. En caso contrario, son no denidas. Denici on: Se dene como diagonalizaci on de una matriz cuadrada al proceso por en el que una matriz S sim etrica se lleva a su forma LDLT , de modo que Q(x) se escribe como la exclusiva suma de t erminos al cuadrado. Notar que: Q(x) = xT Sx = xT L D LT x
uT u

4.6.3.

Segunda factorizaci on de Cholesky

Importante: Las siguientes demostraciones tambi en se extienden a denidas negativas. Denici on: Sea A = (aij )nn , denimos se dene como submatriz Ak con k = {1, . . . , n} de la forma Ak = (aij )kk donde el elemento (i, j ) de Ak concide con el mismo elemento de A. Teoremas: 1. Si una matriz A es denida positiva, entonces A es invertible. 2. Si A es denida positiva, entonces Ak es denida positiva para todo k < n. 3. Si A es denida positiva, entonces A tiene factorizaci on LU . 4. Una matriz cuadrada A admite descomposici on A = LU si sus n 1 submatrices principales son invertibles, pues as se garantiza que no se deben efectuar operaciones de permutaci on. Corolario: Todas las submatrices de una matriz denida positiva son invertibles. M etodo de factorizaci on: Sea A denida positiva, tenemos que A = LDLT . Se sigue que: d11 O .. D= . O Se tiene que (i n) dii > 0. Por lo tanto, T D= D = T Luego A = L D DLT = ( DLT )T DLT .
RT R

dnn

d11 .. .

O dnn

32

5.

Determinantes

Denici on: Un determinante es una funci on: det : Mn (R) R que tiene la particularidad de entregar 0 para una matriz no invertible. Se denota det(A) o |A|a . Es la u nica funci on que satisface las siguientes tres propiedades fundamentales: 1. det(I) = 1. 2. Propiedad alternante : Siendo A una matriz obtenida al intercambiar dos las de A, entonces det(A) = det(A). 3. Propiedad multilineal :
T f1 . . . T f1 . . . T f1 . . .

uT

fiT fiT 1 1 T + v = uT + fiT fiT +1 +1 . . . . . . T T fn fn

fiT 1 vT fiT +1 . . .
T fn

No confundir con valor absoluto!

5.1.

Propiedades b asicas
det(P A) = (1)r det(A). Donde P es una matriz producto de r operaciones elementales de permutaci on. Si A tiene dos las iguales, entonces det(A) = 0. De forma an aloga si A tiene una la con ceros. Respecto a matrices elementales:
det(Pij ) = 1 det(Ei ()) = det(Eij (c)) = 1

det(M A) = det(M ) det(A), donde M es una matriz elemental. det(Ann ) = n |A|.


n

Sea D matriz diagonal, det(D) =


i=1

dii , para todo dii R y i n.

Si P Ann = LU , entonces det(A) = (1)r det(U ).


n

Si A es triangular, det(A) =
i=1

lii .

A es invertible det(A) = 0. det(AB ) = det(A) det(B ). det(A1 ) = 1 . det(A)

det(AT ) = det(A). 33

5.2.

C alculo de determinantes

Recursi on a b = ad bc. c d a1 a2 a3 b b b b b b b1 b2 b3 = a1 2 3 a2 1 3 + a3 1 2 . c2 c3 c1 c3 c1 c2 c1 c2 c3 Denici on: Para Ann se dene Aij como la matriz de (n 1) (n 1) que se obtiene al eliminar la la i- esima y la columna j- esima.
n

Por la i- esima la: det(Ann ) =


j =1

(1)i+j aij det(Aij ). De preferencia se desarrolla por la la 1,

es decir, i = 1.
n

Por la j- esima columna: det(Ann ) =


i=1

(1)i+j aij det(Aij ).

5.3.

Clasicaci on de formas cuadr aticas con determinantes

Teorema: Sea A una matriz sim etrica y Ai con i = 1, . . . .n las submatrices principales de A, se tiene que: 1. A es denida positiva si y s olo si det(Ai ) > 0 i. 2. A es denida negativa si y s olo si (1)i det(Ai ) > 0 i.

5.4.

Cofactores y matriz adjunta

Denici on: Se dene el cofactor del elemento aij como: Co(aij ) = (1)i+j det(Aij )
n n

Entonces, det(A) =
j =1

aij Co(aij ) =
i=1

aij Co(aij ).

Denici on: Se dene la matriz adjunta de A como: Adj (A) = (Co(aij ))T nn Teorema: Sea Ann , se tiene que: A Adj (A) = Adj (A) A = det(A) In Consecuencias: Del teorema anterior se sigue que: 34

A es invertible det(A) = 0. Entonces,

1 1 Adj (A) A = Inn . A1 = Adj (A). det(A) det(A)


A1 !

Adj (A) = det(A) A1 , entonces si A es invertible: det(Adj (A)) = det(A)n1 . Adj (A) Adj (Ajd(A)) = det(Adj (A)) In . Entonces, det(Adj (Adj (A))) = det(A)(n1) . Adj (AT ) = Adj (A)T . Adj (Adj (A)) = det(A)n2 A. Adj (I) = I.
2

6.
6.1.

Espacios vectoriales
Cuerpos nitos

Denici on: Un cuerpo K es un conjunto de elementos que satisfacen los siguientes axiomas b asicos para la suma y el producto: Suma: Operaci on cerrada: K K K. 1. Conmutatividad : x + y = y + x. 2. Asociatividad : x + (y + z ) = (x + y ) + z . 3. Existencia de neutro aditivo : Existe un 0k tal que x + 0k = x. 4. Existencia de inverso aditivo : de modo que el elemento sumado a su inverso den el elemento neutro. x + (x) = 0k Producto: Operaci on cerrada: K K K. 1. Conmutatividad : x y = y x. 2. Asociatividad : x (y z ) = (x y ) z . 3. Existencia de inverso aditivo : Existe un 1k tal que x 1k = x. 4. Existencia de un inverso aditivo : Para todo x = 0k existe un x1 tal que x x1 = 1. Distributividad: x (y + z ) = x y + x z . Teorema: Zn es un cuerpo si y s olo si Zn = Zp con p primo. Denici on: Para n Z se dene: n m od p = i n = k p + i, i {1, . . . , p 1} Observaciones: m n = (m + n) m od p. 35

m n = (m + n) m od p. Para las operaciones de suma y multiplicaci on basta realizar la operatoria real y luego aplicar m odulo. a = x a = b x. Esta forma optimiza el c alculo de fracciones. S olo es v alido si b m od p = 0. b Se pueden hacer todas las operaciones en R y luego convertir a Zp cuidando de no efectuar una divisi on por un m ultiplo de p.
n #Zn p =p .

v1 Zn p # < v1 >= p. Proposiciones: 1. m m od p + n m od p = m n. 2. m m od p n m od p = m n. : 1. Asociatividad: (x y ) z = x (y z ). 2. Conmutatividad: x y = y x. 3. Inverso aditivo: x (p x) = 0. : 1. Asociatividad: (x y ) z = x (y z ). 2. Conmutatividad: x y = y x. Propiedad distributiva: (x y ) z = (x z ) (y z ).

36

6.2.

Concepto de espacio vectorial

Denici on: Un conjunto no vac o E (con sus vectores) es un espacio vectorial (e.v.) sobre un cuerpo K (con sus escalares) si tiene denidas dos operaciones binarias y cerradas: Suma : E E E. Ponderaci on : E K E.

que cumplen los siguientes axiomas: Axiomas de la Suma: 1. Conmutatividad. (x, y E) x + y = y + x 2. Asociatividad. (x, y, z E) x + (y + z ) = (x + y ) + z . 3. Existencia de elemento neutro aditivo 0E . 0E := neutro aditivo de E. 4. A cada x E le corresponde su inverso aditivo. (x E)(x E) x (x) = 0E . Axiomas de la Ponderaci on: 1. Existencia de un neutro multiplicativo 1K : (x E) x 2. Asociatividad. (, K)(x E) ( ) 3. Distributiva respecto a la suma escalar. 4. Distributiva respecto a la suma vectorial. Ejemplos: Los siguientes ejemplos se asumen inmediatamente como espacios vectoriales: E = Rn . E = Mmn (R). Matrices de m n. E = F (R). Todas las funciones reales f : R R. E = C 1 (R). E = P (R). Conjunto de todos los polinomios con coecientes reales. E = Pn (R). Conjunto de todos los polinomios con grado menor o igual a 3. Ojo: Un e.v. con todos los polinomios de grado exactamente igual a 3 no es un cuerpo. Se puede sustituir R por cualquier otro cuerpo K y obtener resultados. Teorema: Sea E un e.v. sobre un cuerpo K, entonces: El elemento neutro aditivo 0E es u nico. Para cada elemento x E, su inverso aditivo (x) es u nico. 0K x = 0E . 0E = 0E . 37 x= ( 1K = x. x) = ( x).

(1)

x = (x).

x = 0 = = 0 x = 0E .

Existe un u nico vector x que es soluci on para u x = v .

6.3.

Combinaciones lineales

Denici on: Sea E un e.v. sobre K y S = {v1 , . . . , vn } un conjuunto donde todo vi E entonces: 1. Una combinaci on lineal (c.l.) es una expresi on de la forma: 1 v1 + . . . + n vn i K, 1 i n

2. Se dene el conjunto generado por S como el conjunto de todas las c.l. de los vectores de S . S = {x : x es c.l. de S } 3. El conjunto S es linealmente independiente (l.i.) si la u nica forma de escribir 0E como c.l. de vectores de S es la trivial. Es decir, 1 v1 + . . . + n vn = 0E (i) i = 0 4. El conjunto S es linealmente dependiente (l.d.) si existen i no todos nulos de modo que: 1 v1 + . . . + n vn = 0E En general: A E es l.i. si cualquier subconjunto nito Ai es l.i. A E es l.d. si alg un subconjunto nito Ai es l.d.

7.
7.1.

Subespacios vectoriales
Denici on

Sea E un e.v. sobre K, S es un subespacio vectorial (s.e.v.) si: S E y S = . S verica los axiomas para las operaciones heredadas de E. Notaci on: S E.

Teorema: Sea S un subconjunto no vac o de E, e.v. sobre K. S es s.e.v. si y s olo si se cumple que: 1. S es cerrado bajo la suma: x, y S = x + y S . 2. S es cerrado bajo la ponderaci on por escalar: x S, K = x S.

Teorema: S es un s.e.v. de E si existe alg un conjunto A tal que S = A . 38

7.1.1.

Para demostrar s.e.v.

Con los dos teoremas anteriores se tienen dos m etodos para demostrar que S es un s.e.v. de E: M etodo 1: Para demostrar que S es un s.e.v. de E, basta demostrar que:1 1. S E y S = . En particular, demostrar que 0E S . 2. S es cerrado bajo suma. 3. S es cerrado bajo ponderaci on. M etodo 2: Expresar como conjunto generado. Evidentemente, algo no del estilo , pero por ejemplo 0E s es un s.e.v.

7.2.

Operaciones con s.e.v.

No olvidar: 1. x A B x A x B . 2. x A B x A x B . 3. A B = {0E } 1 a1 + ... + n an = 1 b1 + . . . + n bn tiene soluci on trivial. Teorema: Si S1 y S2 son s.e.v. de E, entonces S1 S2 tambi en es s.e.v. de E. Importante: S1 S2 E, pero no necesariamente es s.e.v., pues puede no ser cerrado bajo la suma o la multiplicaci on. Teorema: Sean S1 y S2 s.e.v. sobre E, entonces S1 S2 es s.e.v. de E si y s olo si S1 S2 o S2 S1 . Demostraci on : 2 Recordar que para demostrar una equivalencia (si y s olo si) se debe demostrar la implicancia para ambos lados, es decir:

(p q ) (p q ) (q p) (=) Lo haremos para S1 S2 . La otra demostraci on es an aloga. Observacion es: 1. A A B y B A B . 2. S1 S2 (x S1 = x S2 )


1 2

Y en estos casos, siempre revisar la denici on que se nos da de E Se dej o propuesta en clases. Aqu est a desarrollada, como ejercicio.

39

1) Cerrado bajo la suma. x S1 , y S2 . Se sigue que x S2 . Luego, es evidente que x + y S1 S2 , pues x + y S2 S1 . 2) Cerrado bajo la ponderaci on. Como S1 es s.e.v., entonces si x S1 se tiene quex S1 S1 S2 . De forma an aloga ocurre para alg un y S2 . Por lo tanto, siendo S1 S2 o S2 S1 , se tiene que S1 S2 o S2 S1 es s.e.v. de E. (=) En el sentido de la l ogica, tenemos que: p = q r por demostrar (p q ) = r expr. equivalente S2 . Tenemos que demostrar que S2 S1 .

Entonces, supongamos que S1 S2 es s.e.v. y que S1

Sea s1 S1 s1 S1 S2 y s2 S2 s2 S1 S2 , como es cerrado bajo la suma, entonces s 1 + s 2 S1 S2 . Pero, s1 + s2 S1 S2 = s1 + s2 S1 s1 + s2 S2 . Pero, como S1 es s.e.v. por hip otesis, tambi en es cerrado bajo la suma. Luego, si restamos s1 S1 , debe cumplirse que:

s1 + s2 s1 = s2 S1 Hemos demostrado que s2 S2 = s2 S1 S2 S1 . Por lo tanto, se cumple tambi en esto. Como se han vericado ambas implicancias, queda entonces demostrado. Denici on: Sean S1 y S2 dos s.e.v. de E, se dene: S1 + S2 = {x E : x = s1 + s2 con s1 S1 y s2 S2 } Teorema: Si S1 y S2 son s.e.v. de E, entonces S1 + S2 es s.e.v. de E. Teorema: Si S1 = A y S2 = B , entonces S1 + S2 = A B . Denici on: Sean S1 y S2 subespacios vectoriales de E, entonces S1 + S2 es suma directa si: i) S1 + S2 = E. ii) S1 S2 = {0E }. Se anota entonces S1 S2 = E. Notar que: v1 , . . . , vn = v1 , . . . , vi1 vi , . . . , vn . Nota: Razonamiento para la intersecci on de s.e.v. Para probar que U V = {0E }, tomamos dos bases: BU = {u1 , . . . , um } y BV = {v1 , . . . , vn }. Luego, por denici on de intersecci on: 40

U V = {x : x = 1 u1 + . . . + m um x = 1 v1 + . . . + n vn }. Por lo que: 1 u1 + . . . + m um = 1 v1 + . . . + n vn Es decir,

i ui
i=1 k=1

k vk = 0E

O, en otras palabras, demostrar que la u nica forma de generar 0E es la trivial: i = 0 y i = 0, porque de esta forma, el u nico elemento que satisfacer a esta condici on ser a exactamente 0E . Es decir:
n

i ui
i=1

= 0E , pues i = 0
U

vector de
m

i vi
i=1

= 0E , pues i = 0
V

vector de

8.
8.1.

Bases y dimensi on
Bases

Denici on: Sea E un e.v. sobre K y S un s.e.v. de E. Un conjunto B es una base de S si: 1. B E. 2. B es l.i. 3. S = B . Notar que {0E } es el u nico conjunto que es s.e.v. de todo e.v. y a la vez no tiene base, pues {0E } = 0E , que no es un conjunto l.i.

8.2.

Dimensi on

Teorema: Sea S E sobre K cuya base tiene n vectores. Todo conjunto de vectores l.i. de S tiene a lo m as n vectores. Teorema: Sea S E sobre K cuya base tiene n vectores. Toda base de S tiene exactamente n vectores.

41

Denici on: Sea S un s.e.v. de E, entonces se dene la dimensi on de S como el n umero de vectores que tiene cualquier base de S . Se anota dim S , y se tiene que: Si S tiene n elementos3 , entonces: dim S = n Si S = {0E }, entonces: dim S = 0 Si S tiene innitos elementos, entonces: dim S = Teorema: Sea S E sobre K con dim S = n. Si A S tiene n vectores, entonces:

1. A es base de S si y s olo si A es l.i. 2. A es base de S si y s olo si S = A . Notar que una implica a la otra.

8.3.

Completaci on de bases
E sobre K. Sea A un conjunto l.i. de vectores en S , entonces A est a contenido en E y S2 E, ambos con dimensi on nita. Entonces:

Teorema: Sea S alguna base de S . Teorema: Sea S1

dim(S1 + S2 ) = dim(S1 ) + dim(S2 ) dim(S1 S2 ) Corolario: Si E = S1 S2 , entonces dim E = dim S1 + dim S2 .

9.
9.1.

Sistema de coordenadas y cambio de base


Sistemas de coordenadas

Observaci on: En una base el orden de los vectores s importa. Se habla de bases ordenadas de E. Teorema: Sea B = {b1 , . . . , b2 } una base de E. Entonces existe una u nica c.l. de x E con esa base. Denici on: Sea B = {b1 , . . . , bn } una base de E. Para x E se dene su vector coordenada como 1 . n [x]B = . . K x = 1 b1 + . . . + n bn n De preferencia se puede entender que b1 , . . . , bn est an en t erminos de la base can onica. () Ejemplo de base can onica: R3 = e1 , . . . , e 3 base can onica 42 . El conjunto es la base, y no el generado!

Teoremas: Sea B = {b1 , . . . , bn } una base de E y x, y vectores de E. Entonces: 1. El vector [x]B es u nico. [x]B es un biyecci on. 2. [x + y ]B = [x1 ]B + [x2 ]B . 3. [x]B = [x]B . 4. {x1 , . . . , xn } es l.i. {[x1 ]B , . . . , [xn ]B } Kn .

9.2.

Matrices de cambio de bases

2 nica matriz de cambio de base que cambia las coordeDenici on: Sea S E sobre K. [Id]B B1 es la u nadas en base B1 a coordenadas en base B2 para un vector t S y B1 y B2 bases de S . Esto implica que:

(x S )

B2

= Id

B2 B1

B1

C omo determinarla? (Razonamiento): Verlo de la forma lo m as gr aca posible. Pensar primero en las bases: B1 = {x1 , . . . , xn } B2 = {y1 , . . . , yn } Considerar que B1 y B2 son conjuntos l.i. Es decir, cada elemento de cada conjunto se puede expresar como combinaci on lineal del otro. En particular, cada xi se puede expresar en t erminos de {y1 , . . . , yn }. Siempre pensar que xi e yk son vectores, pero no de la forma Kn , si no que vectores propios de su conjunto. Es decir, pueden ser matrices, polinomios, etc.
B2 2 Considerar [Id]B as que los vectores coorB1 por columnas. Es decir, [Id]B1 = [c1 | . . . |c2 ]. Se sabe adem n denadas son especicamente de la forma K . 1 B2 . C omo se obtiene la columna 1? Por operaci on de matrices se sabe que es [Id]B . e es . . Pero, qu
1

0 () 1 . ()? Es un vector coordenada de B1 . En particular, es tomar [x1 | . . . |xn ] . . = x1 . La pregunta 0 que falta es, a qu e se puede igualar esto? La idea detr as de la matriz de cambio de base es convertir un vector expresado en ciertas coordenadas a otra base. Por lo tanto, se debe buscar 1 , ..., n de modo que x1 = 1 y1 + . . . + n yn . De esta forma, se tiene que: 1 . B2 = . . = [Id]B1 n 1 . . . = c1 0

[1 y1 + . . . + n yn ]B2

[x 1 ]B 1

43

1 . . . = c1 n C omo se obtienen las dem as columnas? De la misma forma! Por lo tanto, el proceso de determinaci on de la matriz de cambio de bases se puede resumir en lo siguiente: Algoritmo: Considerar una base can onica Be , tomar la siguiente matriz [y1 ]Be | . . . |[yn ]Be |[x1 ]Be |...|[xn ]Be y pivotearla. Es evidente, dado que ambos conjuntos son l.i., que los pivotes aparecer an en y1 . Incluso, como es base, y es un conjunto l.i., se pivotear a hasta llegar a I. Luego, se puede resolver cada sistema [B2 ]xi individualmente. Sea ui cada soluci on, se resume que:

F ER

[y1 ]Be | . . . |[yn ]Be |[x1 ]Be |...|[xn ]Be

= [In | u1 | . . . |un ]
[Id]B2
1 B

2 [Id]B B1

= [u1 | . . . |un ]

El m etodo general es resolver cada sistema, pero para operaciones no tan evidentes, este m etodo puede simplicar mucho la tarea. Sin embargo, este m etodo es v alido, pues se sustenta en el hecho de que el cambio de coordenadas es una operaci on lineal.
2 Observaci on: La matriz de cambio de base [Id]B B1 es:

1. Cuadrada, pues son n las para n vectores de la base y n columnas para tener congruencia en el producto de matriz por vector. 2. Con columnas y las l.i., pues la multiplicaci on por la matriz debe ser una operaci on biyectiva (a cada vector coordenada en B1 le corresponde un u nico vector coordenada en B2 y viceversa).
2 1 3. Por lo tanto, invertible y [Id]B = [Id]B on inversa a un B1 B2 . Algo esperable, pues la operaci cambio de base es regresar a la base original.

10.
10.1.

Transformaciones lineales
Conceptos b asicos

Denici on: Sean U y V e.v. sobre un mismo cuerpo K. Una funci on T : U V es una transformaci on lineal (t.l.) si y s olo si: 1. T (u1 + u2 ) = T (u1 ) + T (u2 ) 2. T (u1 ) = T (u1 ). En ambos casos, la operaci on se hace primero en U y en el segundo lado de la igualdad en V . Propiedades: Considerando nuevamente U y V . 44 con u1 , u2 U .

1. T (0U ) = 0W . 2. Siendo A U , entonces T ( A ) = T (A) . 3. S es s.e.v. de U = T (S ) es s.e.v. de V . (Como cada s.e.v. se puede expresar como conjunto generado, es consecuencia de 2) Denici on: Sea T : U V una t.l. Se dene: 1. el kernel o n ucleo como Ker(T ) = {u U : T (u) = 0V }. 2. la imagen como Im(T ) = {v V : u U : T (u) = v }. Teorema: Sea T : U V una t.l., entonces: 1. Ker(T ) es un s.e.v. de U . 2. Im(T ) es un s.e.v. de V . Teorema: (del N ucleo-Imagen) Sean U y V e.v. sobre K y de dimensi on nita y T : U V una t.l. Entonces: dim U = dim(Ker T ) + dim(Im T ) Este teorema es clave para la determinaci on de n ucleo e im agenes de transformaciones lineales, pues indica f acilmente la dimensi on y el n umero de vectores de un conjunto generado conociendo el otro. Para el caso de matrices, simplemente se puede resumir en: n umero de columnas = n umero de columas no l.i. + cantidad de vectores del Ker n umero de columnas l.i N de vectores que generan Im(A)

10.2.

Isomorsmos

Denici on: Sea T : U V una t.l. Entonces T es: 1. un monomorsmo si T es 1-1 o inyectiva. 2. un epiformismo si T es sobre o epiyectiva. 3. un isomorsmo si T es 1-1 y sobre, es decir, una biyecci on. Denici on: Dos espacios U y V son isomorfos (U on T que sea = V ) si existe una transformaci isom orca. Teoremas: Sea T : U V una t.l. Entonces: 1. T es monomorsmo si y s olo si dim(Ker(T )) = {0}. 45

2. T es epimorsmo si y s olo si dim(Im(T )) = dim(V ). 3. T es monomorsmo si y s olo si transforma conjuntos l.i. de U en conjuntos l.i. de V . 4. T es epimorsmo si y s olo si transforma conjuntos generadores de U en conjuntos generadores de V . 5. T es isomorsmo si y solo si transforma bases de U en bases de V . Teorema: U = V dim U = dim V .

10.3.

Matriz de una transformaci on lineal

Denici on: Sean U y V espacios vectoriales sobre K con dimensiones n y m respectivamente y sus respectivas bases BU y BV . Sea adem as T : U V una t.l., entonces se dene la matriz Amn de dicha transformaci on lineal como aquella que cumple que para u U : T (u)
BV

= Amn [u]BU

C omo determinarla? 1. Decidir o considerar las bases pertinentes. Para el caso de la denici on se puede tomar: BU = {u1 , . . . , un } BV = {v1 , . . . , vm } 2. Considerar A por columnas: A = [a1 | . . . |an ] 3. Se quiere sacar cada columna de A, luego, lo prudente ser a ir multiplic andola por cada ei correspondiente, como se hac a anteriormente. Recordar aqu que: 1 . A . . = A[u1 ]BU = a1 0 4. A priori se conoce la transformaci on lineal. Por lo tanto, se conoce T (ui ). Conociendo la base, es tambi en posible determinar T (ui ) .
BV

5. Qu e falta por hacer? Igualar! T (ui )


BV

= ai columna i- esima de A

Concluimos bajo este razonamiento que: A= T(u1 ) . . . T(un )

BV

BV

46

Denici on: La matriz A se llama formalmente matriz de la transformaci on T de la base BU a la base BV . Se anota: T
BV BU

Teoremas: Sean T : U V , BU = {u1 , . . . , un } y BV = {v1 , . . . , vn } las bases respectivas de los V e.v. U y V y [T ]B on T en las bases respectivas. Entonces, los siguientes BU la matriz de la transformaci teoremas muestran un comportamiento similar de las t.l. al comportamiento ya conocido de matrices:
V 1. u Ker(T ) [u]BU es soluci on del sistema [T ]B BU x = 0. V 2. v Im(T ) el sistema [T ]B BU x = v es compatible. V 3. T es un monomorsmo si y solo si [T ]B a 1-1). BU tiene inversa por la izquierda (la matriz ser V 4. T es un epimorsmo si y solo si [T ]B a sobre). BU tiene inversa por la derecha (la matriz ser

5. T es un isomorsmo si y solo si
BV BU BV BU 1

BV BU

existe.

Corolario:

T 1

10.4.

Algebra de transformaciones lineales

Propiedades: Las propiedades de las matrices de transformaci on son las mismas que las de las matrices ya estudiadas: 1. T1 + T2 2. T1
BV BU BV BU

= T1

BV BU

+ T2

BV BU

= T1
BW BU

BV BU

. T1
BV BU

3. T3 T1

= T3

BW BV

Para todos los c alculos, el algebra de matrices puede ser aplicada, por lo que se verican las mismas propiedades para todas las transformaciones lineales. Observaci on: Sean
1 y B 2 bases de U . BU U 1 y B 2 bases de V . BV V

T : U V una t.l. T
1 BV 1 BU

y T

2 BV 2 BU

matrices de la transformaci on T con respecto a las bases indicadas.

Entonces:
2 BV 2 BU 2 BV 1 BV 1 BV 1 BU 1 BU 2 BU

= Id

Id

47

10.5.

Anexo: resoluci on de problemas tipo

Problema tipo 1: Sea T : U V una transformaci on lineal de modo que para x U existe alg un y V tal que:

T (x) = y (Es decir, se entrega la denici on de la transformaci on lineal como se estime pertinente) Determinar bases A y B para U y V respectivamente de modo que la matriz de la transformaci on sea ci Km

T = [c1 | . . . |cn ]

(Se entrega la matriz completa, pero nosotros la consideramos por columnas) Resoluci on: Este problema se resuelve considerando la siguiente secuencia: 1. Determinar base para el conjunto de partida. 2. Determinar base para el conjunto de llegada. Considerar que la matriz es de m n. Entonces, buscamos bases que cumplan que: A = {a1 , . . . , an } B = {b1 , . . . , bm } Sabemos, por denici on que: c1 = T (a1 ) . . . cn = T (an )
B

0 . Si aparece una columna de la forma ci = . . quiere decir que ai Ker(A). 0 En dichos casos, ser a necesario determinar los elementos del Ker de la matriz a partir de la denici on entregada. En la posici on i- esima de la base deber a aparecer un elemento del n ucleo de la matriz. Los dem as elementos de la base se seleccionan de modo que el conjunto quede l.i. (lo m as sencillo, por lo tanto, es elegir elemento de la base can onica o la base que simplique lo m as posible los c alculos). La base del conjunto de partida debiera estar determinada. Ahora importa la base del conjunto de llegada. Como sabemos cada elemento ai , podemos determinar sin complicaci on cada T (ai ), pues 48

sabemos la denici on de la trasnformaci on que se nos entrega, adem as de la matriz. En caso contrario, el ejercicio no tendr a soluci on. Pensemos de nuevo en la base. Esta est a determinada por B = {b1 , . . . , bm } Cada bi es lo que se desea determinar. Sabemos que: i1 . = ci = . . im

T (ai )

Por la denici on, esto es:

T (ai ) = i1 b1 + . . . + im bm Donde conocemos T (ai ) y cada ik . Tomando una base can onica D, el problema se reduce a determinar una matriz [b1 | . . . |bn ] conociendo soluciones al sistema b1
D

| . . . | bn

ci = T (ai )

. El problema

ser a que pueden aparecer vectores que no son l.i., o que el conjunto quede con una dimensi on menor que el conjunto de llegada. Como se soluciona? Se completan bases, de modo que el conjunto quede l.i., y s olo los primeros t erminos representen a la imagen del conjunto.

11.
11.1.

Valores y vectores propios


Valores y vectores propios de una matriz cuadrada

Denici on: Sea A Mnn (R). Se dene: El valor propio como aquel R para el que existe un x Rn distinto de 0 tal que: A x = x El vector propio es aquel x que satisface la condici on del valor propio. Observaciones: 1. Los vectores propios no pueden ser nulos. 2. Ker(A) son los vectores propios para = 0, si y solo si es no trivial. 3. Un vector propio genera lo que se denomina una direcci on ja en A, pues Ax = x, pero tambi en x es un vector propio para ese , pues A(x) = Ax = x = (x) Es decir, se tiene que una recta, o direcci on ja, satisface la condici on para ese valor propio. 49

Observaci on: La forma pertinente de calcular es primero el valor propio, y luego los vectores propios asociados a ese valor.

11.2.

C alculo de valores propios

Teorema: Sea A Mnn (R), entonces: es valor propio de A det(A In ) = 0 Denici on: Para la matriz A det(A In ) origina un polinomio que se denomina polinomio caracter stico y se anota: pA () = det(A In ) Este polinomio es de grado n, y por Teorema Fundamental del Algebra, se sabe que tiene n ra ces complejas (no necesariamente distintas). Denici on: Sea i ra z de pA () (y por lo tanto, un valor propio de A). Entonces, se entiende por multiplicidad algebraica de i al n umero de veces que i es ra z de pA (). Es decir, el polinomio caracter stico puede factorizarse como: pA () = ( i )ai qA () ai N C omo calcular valores propios?: Sacar ra ces de pA () seg un se necesiten las reales y/o las complejas.

11.3.

C alculo de vectores propios

M etodo: Para Ann . 1. Calcular valores propios, seleccionar los valores reales si es que se requieren solo estos. Considerar el conjunto {1 , . . . , n }. 2. Se busca resolver: Ax1 = 1 x1 (A 1 In ) x1 = 0 Ker! . . . . . . = n xn (A n In )xn = 0

Axn

3. Con lo anterior, se ve que simplemente hay que calcular individualmente el Ker de cada matriz A x1 por pivoteo o el m etodo que se estime conveniente (i.e. Regla de Cramer). 4. Vericar que ninguna soluci on al Ker sea trivial, pues en ese caso i no corresponde a un valor propio (det(A i In ) = 0). Denici on: Sea A Mnn (R), entonces: 50

1. Para cada i el Ker(A i In ) es un s.e.v. (pues es un conjunto generado) y se conoce como subespacio propio de i . 2. Se dene la multiplicidad geom etrica (gi ) de i como: gi = dim Ker(A In ) Teorema: Sea i valor propio de A Mnn (R) con multiplicidad algebraica ai y multiplicidad geom etrica gi , entonces: 1 gi ai Propiedades: 1. Si existe x = 0 tal que Ax = x con R, entonces Ak x = k x. 1 2. Si A es invertible y tiene a = 0 como valor propio, entonces es valor propio de A1 . Ambos tienen asociados los mismos vectores propios. 3. = 0 es valor propio de A si y solo si Ker(A) = 0. Es decir, si A es no invertible. 4. Las matrices A y B son similares si A = C 1 BC . Las matrices similares tienen el mismo polinomio caracter stico: pA () = pB (). 5. Si 1 , . . . , n son los valores propios de una matriz A, entonces p (0) = determinante es igual al producto de los valores propios de A. (?) i . Es decir, el

Denici on: Se dene la traza de una matriz cuadrada A como la suma de los elementos de la diagonal principal. Es decir, a11 . .. Si A = . . . an1
n

a1n . . . , entonces tr(A) = ann

aii
i=1

Teorema: Se tiene que tr(A) =


i=1

i donde {1 , . . . , n } es el conjunto de los valores propios de A

(sin ser necesariamente distintos).

11.4.

Diagonalizaci on de una matriz cuadrada

Denici on: Una matriz A Mnn se dice diagonalizable si las bases de los subespacios propios correspondientes a los distintos valores propios de A forman una base de Rn . Teorema: Sea 1 = 2 valores propios de una matriz A. Si x1 es vector propio correspondiente a 1 y x2 es vector propio correspondiente a 2 , entonces el conjunto {x1 , x2 } es l.i. Corolario: Ker(A 1 I) Ker(A 2 I) = { 0 }. 51

Corolario: Sea {U1 , . . . , Um } el conjunto de los subespacios propios de A. Entonces, A es diagonalim

zable si dim(Rn ) =
i=1

dim(Ui ) = n.

Denici on: Sea A Mnn . Diremos que A es diagonalizable si y solo si A es similar a una matriz diagonal. Es decir, si existen dos matrices Pnn invertible y Dnn en Mnn tales que: A = P DP 1 Donde P = [x1 | . . . |xn ] y xi es un vector propio de 1 . D= . . 0 Teorema: A Mnn es diagonalizable si y solo si: 1. existe una base de Rn compuesta por vectores propios de A. 2. ai = gi para todo i valor propio de A. Ay .. . 0 . . . n

11.4.1.

Aplicaciones de matrices diagonalizables

1. Sea A diagonalizable, entonces A = P DP 1 . Luego, Ak = (P DP 1 ) . . . (P DP 1 ) = P Dk P 1


k

veces

2. Sea Ann y sea q (x) un polinomio con coecientes reales. Si q (x) = a0 + a1 x + . . . + ak xk , se dene q (A) como: q (A) = a0 I + a1 A + . . . + ak Ak Teorema: Si v es un vector propio de A correspondiente al valor propio , entonces: q (A)v = q ()v

Teorema: Si A es diagonalizable, entonces: q (A) = P q (D)P 1 3. Teorema (de Cayley-Hamilton ): Sea Ann diagonalizable y pA () si polinomio caracter stico, entonces pA (A) = .

52

12.
12.1.

Ortogonalidad
Espacios vectoriales con producto interno

Denici on: Sea V un espacio vectorial cualquiera. Una funci on : V V R, ser a un produto interno (p.i.) de V si (x, y, z V )( R) se cumple que: 1. Sim etrica: (x, y ) = (y, x). 2. Lineal en su primer argumento: (x + y, z ) = (x, z ) + (y, z ). (x, y ) = (x, y ). 3. Denida positiva: (x, x) 0 y (x, x) = 0 x = 0. Denici on: El par de objetos V (e.v.) y (p.i.) se llama espacio con producto interno o espacio eucl deo. Propiedad: El p.i. tambi en es lineal en su segundo argumento.

(x, y + z ) = (x, y ) + (x, z ) Notaci on: El producto interno tambi en se nota como , . Es decir, x, y = (x, y ).

12.1.1.

Matriz de un producto interno

Denici on: Sea Bi = {v1 , . . . , vn } base de V y un p.i. de V , y x e y dos vectores de V . Entonces la matriz []B es la matriz del producto interno y esta representada por: (v1 , v1 ) . . . (v1 , vn ) . . .. . . []B = . . . (vn , v1 ) . . . (vn , vn ) Y si (x, y ) = , entonces [x]T B []B [y ]B = . Propiedades: 1. []B es sim etrica. 2. (x, x) es una forma cuadr atica positiva denida. 3. Teorema: Sea V un e.v. sobre R con dim(V ) = n y B una base de V . Entonces una funci on : V V R es un producto interno si y solo si existe una matriz Mnn sim etrica y positiva denida tal que: (x, y V ) (x, y ) = [x]T B M [y ]B

53

12.1.2.

Norma

Denici on: Sea (V, ) un espacio eucl deo. Se dene la longitud o norma de un vector x V como:

x =

(x, x)

Propiedades: Son las mismas indicadas para el producto punto en Rn . 1. x = || x . 2. x + y


2

= x

+ y

+ 2(x, y ).

3. x 0 y x = 0 x = 0. 4. Desigualdad de Cauchy-Schwartz : |(x, y )| x 5. Desigualdad triangular : x + y leq x + y Denici on: Se dene el angulo entre dos vectores x e y en el espacio eucl deo (V, ) como: (x, y ) x y y

(x, y ) = arc cos

12.1.3.

Concepto de ortogonalidad

Denici on: Sea (V, ) un espacio eucl deo y x e y V . Entonces: 1. x e y son ortogonales si (x, y ) = 0 y se anota xy . 2. x es ortogonal al conjunto C (no vac o!) si (c C ) xc. Se anota xC .

3. Se dene el complemento ortogonal C al conjunto no vac o C V como C = {x V : xC }. Notar que {0} = V y a su vez V = {0}. Observaci on importante: Un espacio eucl deo genera una geometr a propia en dicho espacio, ya que se pueden denir la distancia y el angulo entre vectores, por esta raz on se pueden demostrar propiedades como el teorema de Pit agoras o similares. Propiedades: Sea (V, ) un espacio eucl deo, entonces: 1. C V.

2. Para x V se tiene que x s1 , . . . , sm xs1 , . . . , xsm . 3. Si B es una base de S V , entonces B = S .

C . 4. Si C1 C2 , entonces C2 1

54

12.1.4.

Bases ortogonales y proceso de Gram-Schmidt

Denici on: Sea (V, ) un espacio eucl deo de dimensi on n. Entonces, el conjunto {u1 , . . . , un } es una base ortogonal si (ui , uj ) = 0 para todo i = j . Ser a una base ortonormal si adem as (ui , ui ) = 1 para todo i = 1, . . . , n. Teorema (Proceso de Gram-Schmidt ): La demostraci on es an aloga al procedimiento para tener una base ortogonal. Sea (V, ) un espacio eucl deo, entonces V tiene una base ortonormal. Demostraci on y Procedimiento: Todo e.v. tiene al menos una base. Sea esta base llamada B = {b1 , . . . , bn }, y esta siempre debe ser conocida. Parte 1: Determinaci on de la base ortogonal. Es evidente que la base a obtener debe tener n elementos. Supongamos que estos son {v1 , . . . , vn }. 1. Partimos tomando v1 = b1 . 2. v2 = b2 21 v1 . El escalar 21 se debe elegir de modo que v1 v2 . (v1 , v2 ) = (v1 , b2 21 v1 ) = 0 (v1 , b2 ) 21 (v1 , v1 ) = 0 21 = (v1 , b2 ) (v1 , b2 ) v2 = b2 v1 (v1 , v1 ) (v1 , v1 )

3. v3 = b3 31 v1 32 v2 . Nuevamente, 31 y 32 se eligen de modo que v3 v1 y v3 v2 . Por este procedimiento an alogo, tenemos que: 31 = 4. Se sigue an alogamente que:
k1

(v1 , b3 ) (v1 , v1 )

y a32 =

(v2 , b3 ) (v2 , v2 )

vk = bk
j =1

(vj , bk ) vj (vj , vj )

C omo garantizamos que el conjunto es l.i.? Porque al ser ortogonales, por teorema, son l.i. No hace falta, por lo tanto, demostrar que sean l.i., si no m as bien se nalar esta condici on. De esta forma, obtenemos cada vk . Parte 2: Determinaci on de la base ortonormal. Supongamos que la base a buscar es V = {v1 , . . . , vn }. Tenemos que: vk vk

vk = vk vk vk = 1. vk 55

Pues de esta forma vk =

12.1.5.

Proyecciones ortogonales V . Entonces para x V se

Denici on: Sea (V, ) un espacio eucl deo de dimensi on nita y W dene la proyecci on ortogonal como aquel vector w que satisface que: w W. b wW .

Teorema: La proyecci on ortogonal es u nica. Sea (V, ) un espacio eucl deo de dimensi on nita y W V . Para cada b V existe un u nico vector w V tal que b wW . Obtenci on de la proyecci on ortogonal: Razonamiento: Tomemos la base B = {w1 , . . . , wk } de W . Tomemos el b jo que buscamos. Tenemos que:

w = 1 w1 + . . . + k wk Entonces: b wW (b w, wi ) = 0 para cada wi (b 1 w1 . . . k wk , wi ) = 0 (b, wi ) = 1 (w1 , wi ) + . . . + k (wk , wi )

Es decir, para cada elemento de la base B nos queda:

(b, w1 ) = 1 (w1 , w1 ) + . . . k (wk , w1 ) . . . (b, wk ) = 1 (w1 , wk ) + . . . k (wk , wk ) Estas ecuaciones se conocen como ecuaciones normales de proyecci on. Esto se resume matricialmente en el sistema: (w1 , w1 ) . . . (w1 , wk ) 1 (b, w1 ) . . . . .. . . . . . . . . = . (wk , w1 ) . . . (wk , wk ) k (b, wk )
[W ]B

Ambas partes del sistema son calculables. Este sistema siempre tiene soluci on u nica, ya que: [W ]B , la matriz que representa al producto interno de W , es positiva denida, como todo producto interno. Como es positiva denida, es necesariamente invertible, ya que det([W ]B ) = 0. 56

Una vez obtenidos 1 , . . . , k se evalua la combinaci on lineal para obtener w. Ojo: se pide w, no los i . Forma mec anica: Para un vector dado b W se busca la proyecci on ortogonal w. Sea B = {w1 , . . . , wk }, se resuelve el sistema: (b, w1 ) . . []B [w]B = . (b, wk ) Luego, [w]B se convierte a lo que corresponda seg un el s.e.v. y su base dada. Teorema: Sea W V , donde V es un espacio eucl deo con producto interno . Entonces: V = W W Corolario: Para b V existen u nicos vectores w W y w W tales que b = w + w . Corolario: Si (V, ) es un e.v. de dimensi on nita y W (W ) = W V , entonces:

12.1.6.

El operador proyecci on PW V , entonces se dene el operador proyecci on

Denici on: Sea (V, ) un espacio eucl deo y W PW : V V por:

PW (b) = w Donde w es la proyecci on ortogonal de b sobre W . Teoremas: PW es una transformaci on lineal. Im(PW ) = W y Ker(PW ) = W = Im (PW ). PW PW = PW . PW + PW = Id. PW tiene valores propios = 0 con W como subespacio asociado y = 1 con W como subespacio asociado (PW (b) = b).

57

12.1.7.

El operador reexi on RW

Denici on: El operador reexi on Rw busca entregar el vector sim etrico a B en torno a W . RW (b) = b + 2 (w b) = 2w b RW (b) = 2PW (b) b

12.2.

Producto punto en Rn

Se considera el espacio eucl deo (V, ) donde V = Rn y es el producto punto. Teorema: Im(A) = Ker(AT ). Corolario: Como consecuencia de lo anterior, se tiene que: 1. Ker(A) = Im(AT ). 2. Im(A) Ker(AT ) = Rm y Im(AT ) + Ker(A) = Rn . 3. Sea W Rn , con una base B y una matriz A cuyas columnas son cada elemento de la base respectivo, entonces W = Ker(AT ). Denici on: Sea A la matriz cuyas columnas son base del espacio eucl deo (Rn , ), entonces la matriz del producto punto est a determinada por AT A. Esto es f acil verlo, pues para: cT c1 c1 . . . cn c1 1 . . . T .. . . A = [c1 | . . . |cn ] AT = . . . A A = . . T cn c1 cn . . . cn cn

12.2.1.

Factorizaci on QR y matrices ortogonales

Denici on: Se entiende por factorizaci on QR aquella factorizaci on matricial para matrices A Mmn cuyas columnas son l.i. A = QR aumentar Donde Q = [v1 | . . . |vn ] y R = v1 0 . . . 0 Razonamiento de la factorizaci on: Sea Amn con columnas l.i. A = [u1 | . . . |un ] 58
ui

v1 u2 . . . v1 un v2 . . . v2 un . . .. . . . . . 0 ... vn

Entonces {u1 , . . . , un } es una base Rm . Se le puede aplicar el proceso de Gram-Schmidt para obtener la base ortogonal {v1 , . . . , vn }.
k 1

Sabemos que: vk = uk como:


i=1

vi uk vi = uk = vk + vi vi

k 1 i=1

vi uk vi . Esto se puede escribir matricialmente vi vi

uk = [v1 | . . . |vn ]

v1 uk v1 v1 . . . vk1 uk vk1 vk1 1 0 . . . 0

posici on k - esima

A = [v1 | . . . |vn ] (1)

1 21 31 41 . . . . . . 0 . . . . . . . . . . . . 0 1 32 42 1 43 1 .. ... ... ... . ..

n1 . . . . . . . . . . . .


nn

. n(n1) ... ... 1


(2)

vi uk vi 2 . Considerando que vi = v , podemos hacer uso de operaciones matriciales vi i elementales. Tenemos que: Donde ki = 1 A = (1) Ei ( )Ei ()(2)
In T , a la matriz (1) se Donde Ei es la matriz de la operaci on elemental de escalamiento. Como Ei = Ei le aplica la operaci on por columnas, y a A se le aplica la operaci on por las. Luego, podemos hacer esto para cada columna de (1) y obtener los vectores normales. Es decir,

A = [v1 | . . . |vn ]

v1 0 . . . 0

21 v1 v2

... ..

n1 v1 . . .

. n(n1) vn1 ... vn

59

Pero ki vi =

vi uk = vi uk . Entonces: vi A = [v1 | . . . |vn ]


Q

v1 0 . . . 0

v1 u2 . . . v2 0

.. . vn1 un ... vn
R

v1 un . . .

R es de n n, triangular superior e invertible. Teorema: Sea A Mmn y A = QR. Entonces, QT Q = I. Es f acil de notar, pues: T v1 . . . T vk Tv T v1 1 . . . v1 vk . . .. . = . . . . T Tv vk 1 . . . vk vk
2 Tv = v v = 0 = 1 y que vi j i j

v1 . . . vk

Tv = v Como {v1 , . . . , vk } es una base ortonormal, tenemos que v1 1 1 para i = j . Entonces,

1 ... 0 . .. . QT Q = . . . . . =I 0 ... 1 Denici on: Una matriz A es ortogonal si: es cuadrada (A Mnn ). AT A = I n . Entonces, si Ann es invertible |A| = 0, tiene factorizaci on QR, y por lo tanto Q es ortogonal. Ojo: No toda matriz Q de QR es ortogonal, porque no es necesario que Q sea cuadrada. Teorema: Sea Q Mnn , entonces las siguientes proposiciones son equivalentes entre s : 1. Q es ortogonal. 2. QT Q = QQT = In = Q1 = QT . 3. Las columnas de Q forman una base ortonormal de Rn . 4. Qx = x . Ojo, es la norma, y no el vector. 5. Qx Qy = x y . 6. Si {x1 , . . . , xn } es una base ortonormal, entonces {Qx1 , . . . , Qxn } tambi en es base ortonormal. 60

Observaciones importantes: Las matrices ortogonales adquiere especial importancia por las siguientes razones: 1. Las transformaciones lineales representadas por matrices ortogonales respetan los angulos y distencias entre los vectores de los espacios de partida y de llegada. 2. Si las columnas de A forman una base ortogonal de Im(A), entonces AT A ser a una matriz diagonal. Si forman una base ortonormal, entonces AT A = I. Observaci on: AT A es denida positiva A tiene columnas l.i = A = QR. Por lo tanto, AT A = RT QT QR = RT R Es decir, tiene una factorizaci on de Cholesky con ra ces. Adem as AT A representa la matriz del producto punto en la base formada por las columnas de A y el e.v. Im(A).

12.2.2.

Matrices de proyecci on

El c alculo de proyecciones se vuelve matricial en el espacio eucl deo can onico Rn . El proceso para determinar la matriz es el siguiente: Razonamiento: Sea W = w1 , . . . , w k base Para w W , w = x1 w1 + . . . + xk wk = Cx Donde C = [w1 | . . . |wk ] y x = (x1 , . . . , xk )T . Para b Rn se debe cumplir que: b w = b CxW Debemos buscar el x, pues este nos entrega la informaci on de la combinaci on lineal para determinar w. Por lo tanto, se debe cumplir que:
T wi (b Cx) = wi (b Cx) = 0

Rn . Se tiene que:

Las matrices se usan para aglomerar informaci on simult aneamente, como sistemas de ecuaciones, por ejemplo. Por lo tanto, esto se puede resumir en: T w1 . C T (b Cx) = 0, donde C T = . . T wk Lo que, reescrito, signica que C T b = C T Cx. Donde C T b es un vector calculable y C T C es una matriz tambi en calculable con la informaci on entregada. Por lo tanto, es f acil resolver x por los m etodos ya conocidos. 61

Observaci on: Este sistema tiene soluci on u nica, ya que C T C representa al producto punto interno de W y es denida positiva, por lo tanto invertible. Es decir, x = (C T C )1 Cb Como w = Pw (b) = Cx, entonces Pw (b) = C (C T C )1 Cb. Hemos encontrado la matriz de la proyecci on. Ojo: C T C es por s invertible, pero no quiere decir que C T y C lo sean. Recordar que es una implicancia y no una equivalencia este teorema. Denici on: Sea C Mkn una matriz con columnas l.i., entonces C (C T C )1 C T es una matriz de proyecci on, y representa a la operaci on de proyecci on sobre Im(C ). Propiedades: 1. Si C y D pertenecen a Mkn , tienen columnas l.i. e Im(C ) = Im(D). Entonces, C (C T C )1 C T = D(DT D)1 DT 2. Si A = C (C T C )1 C T , entonces Im(A) = Im(C ) y Ker(A) = Ker(C T ). 3. Si A es la matriz de proyecci on sobre W , entonces la matriz de proyecci on sobre W es I A. 4. Si A es la matriz de proyecci on sobre W , entonces la matriz de reexi on sobre W es 2A I y sobre W es I 2A. 5. P es matriz de proyecci on sobre W si y solo si P 2 = P y P T = P . Luego, W = Im(P ). 6. Si W tiene una base B ortonormal, entonces C es ortogonal, y la matriz de proyecci on viene a ser CC T . Observaci on importante: Sea P la matriz de proyecci on sobre un s.e.v. W proyecci on sobre W . Como: dim(W ) + dim(W ) = n Entonces, se puede elegir calcular la matriz de proyecci on que corresponda al s.e.v. de menor dimensi on, T 1 pues se simplican dr asticamente los c alculos efectuados sobre C (C C ) C . Luego de haber calculado, basta recordar que: Rn y Q la matriz de

P +Q=I

62

12.2.3.

M nimos cuadrados

Denici on: Sea Amn , entonces todo vector x0 que es soluci on del sistema Ax = PW (b) es una soluci on por m nimos cuadrados del sistema Ax = b. Si b Im(A), entonces las soluci on por m nimos cuadrados coinciden con las soluciones del sistema. Es decir,
xRn

m n Ax b

= Ax0 b

Razonamientos: La distancia m nima de Ax a b cuando no tiene soluci on esta dada por w = Ax b, T T que pertenece a Im(A) = Ker(A ). Luego, como w Ker(A ), se tiene que: AT w = 0 AT (Ax b) = 0 AT Ax = AT b Calcular m nimos cuadrados: 1. Consideramos el sistema Ax = b. Tiene soluciones? S : Solucionamos este sistema. Esa es la soluci on No: Continue. 2. Se multiplica por la izquierda AT . Entonces se tiene AT Ax = AT b. Tiene columnas l.i.? S : Entonces AT A es positiva denida, ya que representa al producto punto con la base dada por las columnas de A, y por lo tanto invertible. Luego, tiene soluci on u nica el sistema. Por T 1 T lo tanto, x = (A A) A b. No: Las soluciones son innitas. Simplemente se resuelve el sistema. Todos los datos son conocidos. Casos concretos / Problemas tipo: nimos de formas cuadr aticas: Una expresi on de la forma: 1. Buscar m
x,y R

m n (x + y + 0 )2 + (x y + 1 )2 + (x + y + 2 )2

O similares, se pueden calcular de esta forma. Esta expresi on se corresponde con la norma al cuadrado de un vector u. En particular, con: x + y + 0 1 1 0 u = x y + 1 = x 1 + y 1 + 1 x + y + 2 1 1 2 1 1 0 x u = 1 1 + 1 y 1 1 2
A v b

63

Osea, buscamos:
x,y R

m n u

= m n Av b n
v R

Desde aqu , ya es posible resolver. nimos 2. Distancia punto-hiperplano: Una forma es con proyecciones ortogonales, otra es con m cuadr aticos. Tenemos un hiperplano H : x0 + v1 , . . . , vk en Rn y un punto c en Rn determinado por sus coordenadas respectivas. Tenemos que cualquier punto del hiperplano es de la forma: x H x = x0 + 1 v1 + . . . k vk con i R 1 . x = x0 + [v1 | . . . |vk ] . . k Por lo tanto, la distancia del punto al hiperplano es la m nima que se pueda dar, ajustando los i para que se cumpla esto. Es decir, buscamos tambi en aquel punto del hiperplano con aquel que la distancia al punto sea m nima. Sabemos que este punto es la proyecci on ortogonal (se puede ver gr acamente), y buscamos por lo tanto:
2

1 . m n x0 + [v1 | . . . |vk ] . c . i R k

1 . = m n [v1 | . . . |vk ] . c + x0 . i R b k A
x

El problema se reduce a:
xRn

m n Ax b

Esto es algo que ya sabemos hacer. Una vez obtenido el x, que tiene los coecientes de nuestra combinaci on lineal, simplemente calculamos el valor de la norma, y tendremos la distancia. Respecto a hiperplanos: Para un hiperplano de ecuaci on H : nx = 0 se tiene la ecuaci on cartesiana aproximada n1 x1 + . . . + nm xm = 0. Luego, se tiene que H = n , ya que este representa al vector normal al plano.

12.3.

Valores y vectores propios de matrices sim etricas

Teorema: Sea A Mnn (R) y tal que AT = A, entonces: 1. Todos los valores propios de A son reales. 2. Si 1 = 2 son valores propios de A, entonces Ker(A 1 I)Ker(A 2 I).

64

Observaci on: Entonces, para cada valor propio, podemos tomar una base y, mediante el proceso de Gram-Schmidt, obtener una base normal para cada una. Por el teorema anterior, juntar todos los vectores de todas las bases obtenidas generar a en efecto una base ortonormal. Teorema: Sea A Mnn (R) y tal que AT = A, entonces A es diagonalizable. Entonces, para una matriz sim etrica, se puede hacer la factorizaci on A = P DP 1 . Considerando la base ortonormal para esta factorizaci on, se tiene que:
2

P = [v1 | . . . |vn ] Entonces, es una matriz ortogonal, y P 1 = P T .

con v1

=1

Denici on: Se dir a que A Mnn y AT = A fue diagonalizada ortogonalmente si: A = P DP T Donde, A es diagonalizable, y en este caso en particular, P es ortogonal.

65