Está en la página 1de 10

VALORES CARACTERISTICOS, FORMAS CUADRATICAS Y VECTORES CARACTERISTICOS. VALORES Y VECTORES Sean T: V V una transformacin lineal.

. En muchas aplicaciones es til encontrar un vector v y un escalar V tal que Tv y v son paralelos. Es decir, se busca un vector v y un escalar tal que Tv =v (1) Si v " 0 y satisface (1), entonces se llama un eigenvalor de T y v se llama un eigenvector de T correspondiente al eigenvalor . Si V tiene una dimensin finita, entonces T se puede representar por una matriz AT. Definicin . Eigenvalor y eigenvector. Sea A una matriz de n * n con componentes reales.El nmero (real o complejo) se llama eigenvalor de A si existe un vector diferente de cero v en Cn tal que Av = v. (2) El vector v " 0 se llama eigenvector de A correspondiente al eigenvalor . Esta definicin es vlida si A tiene componentes complejas; pero como las matrices que se manejarn tienen, en su mayora, componentes reales, la definicin es suficiente para nuestros propsitos. Nota. La palabra eigen es la palabra alemana para propio. Los eigenvalores tambin se llaman valores propios o valores caractersticos y los eigenvectores reciben el nombre de vectores propios o vectores caractersticos. Ejemplo 1. Eigenvalores y eigenvectores de una matriz de 2 * 2. Sea A = 10 18 11 Entonces A 2 = 10 18 2 = 2 1 6 11 1 1 As, = 1 es un valor propio de A con el correspondiente vector propio v1 = 2 1 De manera similar, A 3 = 10 18 3 = 6 = 2 3 2 6 11 2 4 2 de manera que = 2 es un valor propio de A con el correspondiente vector propio v2 = 3 2 Ejemplo 2. Eigenvalores y eigenvectores de la matriz identidad. Sea A = I, entonces para cualquier v " Cn, Av = Iv = v. As, 1 es el nico valor propio de A y todo v " 0 " Cn es un vector propio de I. 1

Suponga que es un valor propio de A. Entonces existe un vector diferente de cero x1 V = x2 " 0 tal que Av = v = Iv. Rescribiendo esto se tiene (A I)v = 0 (3) : xn Sea A una matriz de n * n, la ecuacin (3) corresponde a un sistema homogneo de n ecuaciones con las incgnitas x1, x2, ..., xn. Como se ha supuesto que el sistema tiene soluciones no triviales, se concluye que det (A I) = 0. Inversamente, si det (A I) = 0, entonces la ecuacin (3) tiene soluciones no triviales y es el valor propio de A. Por otro lado, si det (A I) " 0, entonces la nica solucin a (3) es v = 0 de manera que no es un eigenvalor de A. Procedimiento para calcular valores propios y vectores propios Se encuentra p() = det (A I). Se encuentran las races , , . . . , m de p( ) = 0. Se resuelve el sistema homogneo (A iI)v = 0, correspondiente a cada valor propio i. Observacin 1. Por lo general el paso ii) es el ms dificil. Ejemplo 3. Clculo de valores y vectores propios. Sea A = 4 2 33 4 2 Entonces det (A I) = 3 3 = (4 )(3 ) 6 = 7 + 6 = ( 1)( 6) = 0. Entonces los valores propios de A son = 1 y = 6. Para = 1 se resuelve (A I)v = 0 o 3 2 x1 = 0 3 2 x2 0 Es claro que cualquier vector propio correspondiente a = 1 satisface 3x1 + 2x2 = 0. Un vector propio de este tipo es v1 = 2 3 As, E1 = gen 2 3 2 2 x1 = 0 De manera similar, la ecuacin (A 6I)v = 0 significa que 3 3 x2 0 o x1 = x2. Entonces v2 = 1 es un vector propio correspondiente a = 6 y E6 = gen 1 . 2

1 Observe que v1 y v2 son linealmente independientes ya que uno no es mltiplo del otro. Nota. No importa si se establece = 1 y = 6 o = 6 y = 1. POLINOMIO CARACTERISTICO Y ECUACION CARACTERISTICA Teorema 1. Sea A una matriz de n * n. Entonces es un valor propio de A s y slo s (4) Definicin. Ecuacin y polinomio caractersticos. La ecuacin (4) se llama la ecuacin caracterstica de A; p() se llama el polinomio caracterstico de A. Como ser evidente p() es un polinomio de grado n en . Por ejemplo, si A = a b cd Entonces, A I = a b 0 = a b cd0 cd y p() = det ( A I) = ( a )(d ) bc = (a + b) + (ad bc). Segn el teorema fundamental del lgebra, cualquier polinomio de grado n con coeficientes reales o complejos tiene exactamente n races (contando multiplicidades). Esto significa, por ejemplo, que el polinomio ( I)5 tiene cinco races, todas iguales al nmero 1. Como cualquier eigenvalor de A es una raz de la ecuacin caracterstica de A, se concluye que Teorema 2. Sea un valor propio de la matriz AQ de n * n y sea E = {v: Av = v}. Entonces E es un subespacio de Cn. Demostracin. Si Av = v, entonces (A I)v = 0. As E es el espacio nulo de la matriz A I, que es un subespacio de Cn. Definicin. Espacio propio. Sea un valor propio de A. El subespacio E se llama espacio propio&de A correspondiente al valor propio . Observe que 0 " E ya que E es un subespacio. Sin embargo, o no es un vector propio. Teorema 3. Si A y B son matrices semejantes de n * n, entonces A y B tienen el mismo polinomio caracterstico y, por lo tanto, tiene los mismos valores propios. Demostracin. Como A y B son semejantes, B = C1AC y Det (B I) = det (C1AC I) = det [C1AC C1( I)C] = det [C1(A I)C] = det (C1) det(A I) det (C) = det (C1) det (C) det (A I) = det (C 1C) det (A I)

= det I det (A I) = det (A I) Esto significa que A y B tiene la misma ecuacin caracterstica, y como los valores propios son races de la ecuacin caracterstica, tiene los mismos valores propios. DIAGONALIZACION DE UNA MATRIZ DE N * N Definicin 1. Matrices semejantes. Se dice que dos matrices A y B de n * n son semejantes si existe una matriz invertible C de n * n tal que (1) La funcin definida por (1) que lleva la matriz A en la matriz B se llama transformacin de semejanza. Se puede escribir esta transformacin lineal como T(A) = C1AC Nota. C1 (A1 + A2)C = C1A1C + C1A2C y C1("A)C = "C1AC de manera que la funcin definida por (1) es, de hecho, una transformacin lineal. Nota. Suponga que B = C1 AC. Entonces al multiplicar por la izquierda por C, se obtiene CB = CC1 AC, o sea CB = AC (2) La ecuacin (2) con frecuencia se toma como una definicin alternativa de semejanza: Definicin 2. Matriz diagonalizable. Una matriz A de n * n es diagonalizable si existe una matriz diagonal D tal que A es semejante a D . Observacin. Si D es una matriz diagonal, entonces los valores propios son sus componentes en la diagonal. Si A es semejante a D, entonces A y D tienen los mismos valores propios. Uniendo estos dos hechos se observa que si A es diagonalizable, entonces A es semejante a una matriz diagonal cuyas componentes en la diagonal son los valores propios de A. Teorema 1. Una matriz A de n * n es diagonalizable si y slo si tiene n vectores propios linealmente independientes. En tal caso, la matriz diagonal D semejante a A est dada por Donde , , . . ., n son los valores propios de A. Si C es una matriz cuyas columnas son vectores propios linealmente independientes de A, entonces (3) Ejemplo 1. Diagonalizacin de una matriz de 2 * 2. Sea A = 4 2 33 21 v1 = 3 y v2 = 1 Despus, haciendo C = 2 1 , se encuentra que 4

3 1 C1AC = 1 1 1 4 2 2 1 5 3 2 3 3 3 1 = 1 1 1 2 6 = 1 5 0 = 1 0 5 3 2 3 6 5 0 30 0 6 que es la matriz cuyas componentes en la diagonal son los valores propios de A. FORMAS CUADRATICAS Y CANONICAS Se pueden usar formas cuadrticas para obtener informacin sobre las secciones cnicas en R2 (crculos, parbolas, elipses, hiprbolas) y extender est teora para describir ciertas superficies, llamadas superficies cuadrticas, en R3. Las formas cuadrticas surgen en una gran variedad de aplicaciones que van de la descripcin de las funciones de costo en economa al anlisis del control del recorrido de un cohete en el espacio. Definicin 1. Ecuacin cuadrtica y forma cuadrtica. Una ecuacin cuadrtica en dos variables sin trminos lineales es una ecuacin de la forma: Donde |a| + |b| + |c| " 0. Esto es, al menos uno de los nmeros a, b, c y c es diferente de cero. Una forma cuadrtica en dos variables es una expresin de la forma Donde |a| + |b| + |c| " 0. Es evidente que las ecuaciones y las formas cuadrticas tiene una fuerte relacin. Definicin 2. x1 Forma cuadrtica. Sea v = x2 y sea A una matriz simtrica de n * n. : xn Entonces una Forma cuadrtica en x1, x2, ..., xn es una expresin de la forma F(x1, x2, ..., xn) = Av * v Ejemplo 1. Una forma cuadrtica en cuatro variables. Sea 2 1 2 2 x1 A = 1 4 6 5 y v = x2

2 6 7 1 x3 2 5 1 3 x4 2 1 2 2 x1 x1 Av * v = 1 4 6 5 x2 x2 = 2 6 7 1 x3 x3 2 5 1 3 x4 x4 = 2x21 + 2x1x2 4x22 + 4x1x3 + 12x2x3 + 7x23 4 x1x4 + 10x2x4 2x3x4 + 3x24 (despus de simplificar). Ejemplo 2. Una matriz simtrica que corresponde a una forma cuadrtica en cuatro variables. Encuentre la matriz simtrica A que corresponde a la forma cuadrtica 5x21 3x1x2 + 4x22 + 8x1x3 9x2x3 + 2x23 x1x4 + 7x2x4 + 6x3x4 + 9x24 Solucin. Si A = (aij), entonces se ve que aij es el coeficiente del trmino x21 y aij + aji es el coeficiente del trmino xixj. Como A es simtrica, aij = aji; as, aij = aji = . (coeficientes del trmino xixj). Uniendo todo esto se obtiene 54 A = 4 9/2 7/2 4 9/2 2 3 7/2 3 9 Forma cannica de jordan. Las matrices de n * n con n vectores propios linealmente independientes se pueden expresar en una forma especialmente sencilla mediante una transformacin de semejanza. Por fortuna, como la mayor parte de los polinomios tiene races distintas, la mayor parte de las matrices tendrn valores propios distintos. Las matrices que no son diagonalizables (es decir, que no tiene n vectores propios literalmente independientes)surgen en la prctica. En este caso, todava es posible demostrar que la matriz es semejante a otra, una matriz ms sencilla, pero la nueva matriz no es diagonal y es ms difcil obtener la matriz de transformacin C. Se define la matriz de Nk como la matriz de k * k Observe que Nk es la matriz con unos arriba de la diagonal principal y ceros en otra parte. Para un escalar dado se define la matriz de bloques de Jordan &B() por Es decir, B() es la matriz de k * k con el escalar en la diagonal, unos arriba de la diagonal y ceros en otra parte.

Nota. Se puede (y con frecuencia se har) tener una matriz de bloques de Jordan de 1 * 1. Esa matriz toma la forma B() = (). Una matriz de jordan J tiene la forma B1() 0 ... 0 J = 0 B2() ... 0 ::: 0 0 ... Br(r) donde cada Bj(j) es una matriz de bloques de Jordan. Entonces una matriz de Jordan es una matriz que tiene en la diagonal matrices de bloques de Jordan y ceros en otra parte. Llamada as en honor del matemtico francs Camile Jordan (1838 1922). Los resultados aparecieron por primera vez en el brillante trabajo de Jordan Trait des substitutions et des quations algebriques (tratado sobre sustituciones y ecuaciones algebraicas), publicado en 1870. Ejemplo 1. Matrices de Jordan de 2 * 2. Las nicas matrices de Jordan de 2 * 2 son En la primera matriz los nmeros y pueden ser iguales. Ejemplo 2. Matrices de Jordan de 3 * 3. Las nicas matrices de Jordan de 3 * 3 son Donde no es necesario que , , sean distintos. TEOREMA DE CAYLEY HAMILTON Teorema 2. Teorema de cayleyhamilton.Toda matriz cuadrada satisface su propia ecuacin caracterstica. Es decir, si p() = 0 es la ecuacin caracterstica de A, entonces p(A) = 0. Demostracin. Se tiene a11 a12 . . . a1n P() = det (A I) = a21 a22 . . . a2n ::: an1 an2 . . . anm Es claro que cualquier cofactor de (A I) en un polinomio en . As, la adjunta de A I es una matriz de n * n en la que cada componente es un polinomio en . Es decir, p11() p12() . . . p1n() Adj (A I) = p21() p22() . . . p2n() :::

pn1() pn2() . . . pnm() Esto significa que se puede pensar en adj (A I) como en un polinomio, Q(), en cuyos coeficientes son matrices de n * n. Para entender esto, se ve lo siguiente: En algunas situaciones el teorema de CayleyHamilton es til para calcular la inversa de una matriz. Si existe A1 y p(A) = 0, entonces A1 p(A) = 0. Para ilustrar esto, si p() = n + an1n1 + ... + a1 + a0, entonces P(A) = An + an1An1 + ... + a1A + a0I = 0 y A1p(A) = An1 + an1An2 + ... + a2A + a1I + a0A1 = 0 As Observe que a0 " 0 porque a0 = det A y se supuso que A era invertible. Ejemplo . Aplicacin del teorema de CayleyHamilton para calcular A1. Sea 1 1 4 A = 3 2 1 Entonces p() = 2 5 + 6. 2 1 1 Aqu n = 3, a2 = 2, a1 = 5, a0 = 6 y A1 = (A2 + 2A + 5I) 6 1 1 2 2 8 5 0 0 = 7 0 11 + 6 4 2 + 0 5 0 3 1 8 4 2 2 0 0 5 1 3 7 = 1 9 13 1 3 5 Observe que se calcul A1 haciendo slo una divisin y calculando slo un determinante (al encontrar p() = det (A I)). Este mtodo en ocasiones es muy eficiente en una computadora. Recibe el nombre en honor de Sir William Rowan Hamilton y Arthur Cayley (18211895). Cayley public el primer anlisis de este famoso teorema en 1858. Por su parte, Hamilton descubri (pero no demostr) el resultado de su trabajo sobre cuaterniones. P() = det (A I) = 0 Contando multiplicidades, toda matriz de n * n tiene exactamente n eigenvalores 8

B = C1 AC Definicin alternativa de semejanza A y B son semejantes si y slo si existe una matriz invertible C tal que CB = AC 00...0 0 0...0 D=00 ...0 :::: 000...n D = C1 AC ax2 + bxy + cy2 = d F(x,y) = ax2 + bxy + cy2 2x1 + x2 + 2x3 2x4 x1 x1 4x2 + 6x3 + 5x4 x2 2x1 + 6x2 + 7x3 x4 x3 2x1 + 5x2 x3 + 3x4 x4 0 1 0 ... 0 0 0 1 ... 0 Nk = : : : : 0 0 0 ... 1 0 0 0 ... 0 1 0 ... 0 0 0 1 ... 0 0 B() = I + Nk = : : : : : 0 0 0 ... 1 0 0 0 ... 0 0y 1

0 0 10 0 0 00 00 0 1 00 10 0 1 00 00 0 0 00 2 + 1 2 7 4 = 1 2 + 2 7 + 1 4 4 + 5 2 3 + 3 4 3 5 1 2 3 A1 = 1/a0(An1 an1An2 ... a2A a1I)

10

También podría gustarte