Está en la página 1de 458
Franz E. Hohn Algebra de MATRICES a _| = _| = ea inn sitios Std sal oad ool BD eek call ok coll ool 5 a al ola onl all errr. ALGEBRA DE MATRICES Franz E. Hohn En esta obra, Ja exposicién de los diver- sos temas sigue un orden légico que permite al alumno pasar gradualmente de los conocimientos concretos simples a las abstracciones, indispensables para el dominio de la materia y de sus apli- caciones. La funcional disposicién de los temas que trata, se ha hecho con el fin de faci- litar la consulta del texto. Por ejemplo, se ha procurado un maximo de indepen- dencia de los distintos capitulos y que éstog sean autocontenidos. Los principe- les resultados aparecen como teoremas numerados de acuerdo con el capitulo y la seccién e impresos en negritas cursi- vag; las formulas se numeran de modo semejante, encerrando los ndimeros en- tre paréntesis para diferenciar las formulas de los teoremas. La obra reine un nimero considerable de ejercicios en los que se presentan as-actos reales de algunas aplicaciones. Ee" 8 ejerciciog van. desde el calcule for- mi y pruebas simples hasta algunos problemas, incluidos para estimular al estudiante en su trabajo. » duccién al Algebra de mat: 2 Determinantes 59 3 Inversa de una matriz 15, 5 Ecuaciones lineales y dependencia lineal 165 6 Espacios vectoriales y transformaciones lineales 215 7 Transtormaciones unitarias y ortogonales 287 8 Ecuacién caracteristica de una matriz 321 9 Formas bilineales, cuadraticas y hermitianas 359 Apé ice as notaciones £ y | an Apéndice 11 Algebra de los nimeros complejos 423 El concepto general de isomorfismo 431 Bibliografi 435 Algebra de matrices Traducclén: Eh Racca ine Federico Galvan Anaya Catedratico de Matematicas Universidad Naclonal Auténoma de México Revisidn técnica: Dr. Emilio Lluis Riera Instituto de Matematicas Facultad de Ciencias Universidad Nacional Auténoma de México BIBLIOTECA DE MATEMATICA SUPERIOR hee ' Franz E. Hohn Algebra de matrices Editorial F. Trillas, S. A. México, 1970 Tinlo de esta obra en inglés: Elementary Matris Algebra Verriém autoricada on expatol de te Segunda edicién publicada en inglés por The Macmillan Company Nurve York, EU. A. © 1966, Franz B. Hohn Primera edicién en eipatiol, marzo 1970 Revisién tteraria: Federico Galvén Govea La pretentacién y disportcién en conjunto de Algebra de matrices Son propiedad det editor Derechos reservados en lengua espesiole © 1970, Raiterial F. Trittes, 8. Av. 5 de Mayo 43105, México 1, D. F, Miembro de la Cémara Nacional de ta Industria Eaigorial, Reg. nim, 158 Impreso en México PROLOGO A LA PRIMERA EDICION Esta obra procede de un curso de transformaciones lineales y matrices impartida durante varios afios en la Universidad de Illinois. Los alumnos correspondian a diferentes niveles y carreras como ingenieria aerondutica, agricultura, economia, quimica, econometria, pedagogia, ingenieria eléc- trica, computacién, ingenierla mecdnica, metalurgia, fisica, psicologia, so- ciologia, estadistica y matemAticas puras. De ninguna manera se pretende que el libro sea “completo”. Ademés, para satisfacer las necesidades de un grupo tan diverso, investigué mediante Ja Kteratura de los campos citados para precisar qué aspectos del Algebra de matrices y la teorfa de determinantes son tos que se emplean con més frecuencia. En cuanto es posible, presenta el libro lo més esencial, en orden légico y sencillo, con objeto de preparar al lector para un estudio ade~ guado de. las aplicaciones. de las matrices on su campo. de actividad. Los temas estan separados, tanto como es posible, en capitulos distintos, inde- pendientes, a fin de hacer més util el libro como obra de referencia, Sin apartarnos de ese propésite, se da una lista de Jos resultados principales en forma de teoremas numerados, identificando el capitulo y la seccién, impreso el ndmero en negritas, Las formulas se numeran de wna manera semejante, pero los nismeres se colocan siempre entre paréntesis, a fin de distinguir las f6rmulas de los teoremas. También con propésitos de refe- rencia, agregué apéndices sobre Jas notaciones = y Il y sobre el Algebra de los nimeres complejos, ya que para muchos lectores ser4 util repasarlos. ‘Los ejercicios presentan frecuentemente aspectos formales de ciertas aplicaciones, pero no se requiere un conocimiento de éstos, para resolver dichos problemas. Se omitié el tratamiento detallado de las aplicaciones con el fin de no agrandar el volumen, Los ejercicios van desde cAlculos puramente formales y pruebas extremadamente simples hasta algunos pro- 5 6 Prélogo a Ia primera odicién blemas dificiles, incluidos para desafiar al estudiante. Espero que para todos Ios estudiantes sea posible hacer la mayorfa de los ejercicios simples y por Jo menos estudiar el resto, debido a que contienen muchos resultados titiles y, ademés, porque no hay otra forma de aprender las técnicas de calenlo y prueba sino mediante Ja prdctica. Los ejercicios marcados con un asterisco (*) son muy importantes para aplicaciones inmediatas o posteriores, A fin de hacer lo mas sencillo posible el aprendizaje y Ia ensefianza del Algebra de matrices siempre procedi, mediante explicaciones amplias, partir de fo familiar y de lo concreto a lo abstracto. Los conceptos alge- braices abstractos en si mismos no son el fin principal del libro, Sin embargo, no he titubeado en indicar un concepto mateméatico importante donde exista necesidad y motivacién, porque ha sido mi propésito que, ademis de aprender métodos utiles de manipulacién de matzices, el lector Progrese en su madurez matemAtica, como resultado del estudio cuidadoso de este libro. En efecto, ya que las definiciones de campos, grupos y espacios vectoriales, asi como otros conceptos abstractos aparecen y se em- Plean aqui, creo que un curso de este tipo no es sélo més practic sino también la mejor preparacién para el estudio de Algebra abstracta, que es el camino tradicional en Ja teorla de las ecuaciones. El principal indicio de originalidad es el intento de reducir este material a@ un nivel elemental. Aunque creo que algunas demostraciones y ciertos ejercicios son originales, estoy agradecido con los autores siguientes: M. Bécher, L. E. Dickson, W. L. Ferrar, G. G. McDuffee, F. J. Murnaghan, G, Birkhoff y 8, MacLane, O. Schreier y E. Sperner, y otros. Estoy particularmente agradecido al profesor A. B. Coble por permitir- me adaptar a mis necesidades sus apuntes sobre determinantes. Por esto, es suyo el crédito por la organizacién de todo el capitulo 2. También estoy en deuda con el profesor William G. Madow, quien me dio su valiosa colaboracién alentande y guiando mis esfuerzos en las etapas iniciales. También fue de gran valor la ayuda critica de los profesores Paul Bateman, Albert Wilansky y Wilson Zaring. Sin su severa, pero amable critica este libro hubiera sido mucho menos aceptable. Sin embargo, yo soy el timico responsable por cualquier error de hecho a de juicio que subsista. Estoy agradecido también a todos Jos estudiantes que cooperaron con su ayuda critica y muchos problemas. Finalmente, agradezco a las sefioras Betty Kaplan y Rachel Dyal su fiel y competente transcripcién mecanogrAfica del manuscrito, a Wilson Zaring y Russell Welker por su ayuda y lectura de las pruebas, y al personal de The Macmillan Company por sus pacientes y valiosos esfuerzos durante la produccién de este libro. Urbana, Hinois Franz E, Houn PROLOGO A LA SEGUNDA EDICION Esta segunda edicién ce Algebra elemental de matrices conserva el mismo punto de vista de la primera edicién. Algunos de los temas han sido seordenados para simplificar més su exposicién. Por ejemplo, Ja par- ticién de matrices se trata ahora en el capitulo 1 para que pueda em- plearse con mayor ventaja. El teorema sobre el determinante del producto de dos matrices se prueba sin el empleo del desarrollo de Laplace, en el capitulo 2; por tanto, el material de ese desarrollo si se desea puede omitirse porque no es esencial para conceptos posteriores. Cambios semejantes pueden advertirse en los siguientes capitulos. Cier- tos temas que son ttiles en Jas aplicaciones (por ejemplo, proyecciones) se han introducido en diferentes lugares. Esto se hace de tal modo que los mismos temas no sean necesariamente parte de otros tratados en el sal6n de clases, Tncluiremes un indice excepcionalmente detallado, en el que aparecen simbolos y ejercicias que contienen importantes contribuciones ala teorfa. Por tltimo, se corrigieron diferentes errores y se afiadié gran nimero de nuevos ejercicios. Se espera que el resultado de todes estos cambios allane Ja comprensién del libro y lo mejore coma texto y obra de referencia. Igual que antes, se puede impartir exactamente el mismo tipo de curso empleando este libro. El autor agradece @ sus colegas, profesores Richard L. Bishop e Hiram Paley, la cuidadosa revisién del manuscrito y la atencién de pruebas. Muchas correcciones y mejoras son el resultado directo de sus esfuerzos. El profesor Gene Golub facilité varios ejercicios importantes ¢ interesantes. Gracias también a todos los lectores de la primera edicién que enviaron al autor sugerencias valiosas, cjercicios, correcciones y cartas de estimulo. Finalmente, el autor queda agradccido al personal de The Macmillan Company y a los editores por su asistencia excepcional capaz y cordial. Philo, Illinois Franz E. Honn peepee eee ee Leeann SSSUaGEADHS PePpEyp agi eee INDICE GENERAL Capitulo 1 INTRODUCCIGN AL ALGEBRA DE MATRICES 15 Matrices Igualdad de matrices Adicién de matrices ‘Leyes conmutativa y asociativa de la adicién Sustraccién de matrices Miitiplos escalares de matrices Multiplicacién de matrices Propiedades de la multiplicacién de matrices Ejercicios Ecuaciones lineales en notacién matricial Transpuesta de una matriz Matrices simétricas, antisimétricas y hermitianas Matrices escalares Matriz identidad Inversa de una matriz Producto de una matriz renglén por una matriz columna Funciones polinomiales de matrices Ejercicios Partician de matrices Bjercicios Capitulo 2 DETERMINANTES 59 Permutaciones Tnversiones Simbolos épsilon Fjercicios Determinante de una matriz cuadrada 9 vo Indice general 26 Tres propiedades bésicas de determinantes 2.7 Otras propiedades de las determinantes 2.8 Cofactor de un elemento 2.9 Calculo de determinantes 2.10 Proceso “de barrido” para calcular determinantes 2.11 Determinante del producto de dos matrices 2.12 Ejercicios 2.13 Definiciones 2.14 Desarrollo de Laplace 2.15 Determinante del producto de dos matrices cuadradas 2.16 Matriz adjunta 2.17 Desarrollo por renglones y columnas 2.18 Desarrollo diagonal del determinante de una matriz 2.19 Ejercicios Capitulo 3 INVERSA DE UNA MATRIZ 115 3.1 Inversa de una matriz 3.2 Eiercicios 3.3 Regla de Cramer 3.4 Solucién de ecuaciones por climinacién sintética 3.5. Inversién de una matriz por eliminacién sintética 3.6 Calculos lineales 3.7 Bijercicios 3.8 Inversién de matrices por particién 3.9 — Ejercicios Capitulo 4 RANGO Y EQUIVALENCIA 139 4.1 Concepto de rango 4.2 Transtormaciones clementales 43 Forma normal 44° Equivalencia de matrices 4.5 Bjercicios 46 Transformaciones elementales en forma matricial 4.7 Propiedades de las matrices equivalentes 48 Ejercicios 49 Rango del producto de dos matrices 4.10 Bjercicios 4.11 Campos numéricos 4.12 Bjercicios 4.13 Matrices sobre un campo numérico 4.14 Campos en general 415 Ejercicios 115 7 122 125 127 129 130 132 136 139 141 143 145 145 147 150 151 154 156 156 158 158 160 162 Indice genoral n Capitulo 5 ECUACIONES LINEALES Y DEPENDENCIA LINEAL 165 5.1 Definiciones 165 5.2 Bjemplo 166 5.3 Sistemas equivalentes de ecuaciones 167 54 ‘Teorema fundamental 169 5.5. Otros ejemplos a7 5.6 Ecuaciones lineales homogéneas 174 5.7 Ejemplos 175 5.8 Ejercicios 176 5.9 Definiciones 179 5.10 Ejercicios 182, 5.11 Teoremas basicos 183 5.12 Ejercicios 187 5.13 Depenclencia lineal de ecuaciones 188 5.14 Dependencia lineai de formas 189 5.15 Dependencia lineal de matrices 193 5.16 Ejercicios 193 5.17 Soluciones de sistemas homogénees 195, 5.18 Un caso especial importante 198 5.19 Soluciones de sistemas no homogéneos 199 5.20 Procedimiento alternativo 200 5.21 Ejercicios 203 5.22 Dependencia lineal y rango 206 5.23 Ejercicios 21 Capitulo 6 ESPACIOS VECTORIALES Y TRANSFORMACIONES LINEALES 215 6.1 Ejemptos y definiciones 215 6.2 Interpretacién geométrica 216 6.3 — Ejercicios 221 64 Base y dimension 221 6.5 Representaciones equivalentes de un espacio vectorial 924 6.6 Ejercicios 209 6.7 Una prueba para independencia y el teorema de reemplaza- miento de Steinitz 231 68 Interseccién y suma de dos espacios vectoriales 235 6.9 — Ejercicios 238 6.10 Funciones vectoriales lineales 239 6.11 Operadores solxe un “V,” O44 6.12 Ejercicios 247 6.13 Productos.de operadores lineales 249 6.14 Espacio nulo de un operador lineal 252 6.15 Proyecciones 254 6.16 Sistemas de referencia en espacios vectoriales 256 6.17 ‘Transformaciones de coordenadas 257 12 Indico gonere? 6.18 Transformacién de un operador lineal 6.19 Formas lineales 6.20 Ejercicios 6.21 Grupos de operadores 6.22 Ejercicios 6.23 Una definicién mas general de un espacio vectorial 6.24 Campos de matrices 6.25 Ejercicios Capitulo 7 TRANSFORMACIONES UNITARIAS Y ORTOGONALES 287 7.1 Longitud de un vector 7.2 Vectores unitarios 7.3 Ortogonalidad y producto interno 74 Desigualdad de Cauchy-Schwarz 75 Distancia 76 — Ejercicios 7.7 Matrices unitarias y ortogonales 78 Ejercicios 73 'Transformaciones unitarias 7.10 Transformaciones ortogonales 7.41 Transformaciones ortogonales de coordenadas en £2 7.12 Angulos eulerianos 7.13 Triangularizacién de una matriz real 7.14 Bjercicios 7.15 Algunas pruebas para independencia 7.16 Proceso Gram-Schmidt 7.17 Procedimiento alternativo 7418 Ejercicios 719 Ortogonalidad de espacios vectoriales 7.20 Ortogonalidad y sistemas de ecuaciones lineales 721 Ejercicios Capitule 8 ECUACION CARACTERISTICA DE UNA MATRIZ 321 8.1 Problema del valor caracteristico 82 Ejemples y un teorema bésico 83 Ejercicios 84 — Propiedades de Ios polinomios caracteristicos 85 Bjercicios 86 Teorema de Cayley-Hamilton 8.7 El polinomio numérico de una matriz 8.8 Raices caracteristicas de una funcién polinomial de una ma- triz A 89 Ejercicios 8.10 Rajices caracterfsticas de una matriz hermitiana 8.11 Bjercicios 260 262 264 269 272 274 279 284 287 289 290 291 292 293 295 296 297 300 300 302 305 308 309 311 313 314 315 318 319 321 322 325 329 331 332 336 B41 342 344 345 Indice general 812 Forma diagonal de una matriz hermitiana 813 Diagonalizacién de una matriz, hermitiana B14 Ejemplos 815 Triangularizacién de una matriz arbitraria 816 Matrices normales B17 Ejercicios RPRebypE EEE EOL be bein whb DOOYOO GD GOO OOOO BiH ODO DOS PRBEREBORRRERES Rae ett Capitulo 9 FORMAS BILINEALES, CUADRATICAS Y HERMITIANAS 359 Formas bilineales Equivalencia de formas bilineales ‘Transformaciones cogredientes contragredientes Ejercicios Formas cuadraticas Equivalencia de formas cuadraticas Ejercicios Diagonalizacién por transformacién ortogonal Reduccién de Lagrange Reduccién de Kronecker Ejercicios Ley de inercia de Sylvester para formas cuadraticas reales Valores de formas cuadraticas Ejercicios Formas definidas Matrices definidas Condicién necesaria y suficiente para ser definida positiva Ejemplos ‘Teorema de Cochran Pares de formas cuadraticas Ejercicios Formas hermitianas Formas hermitianas definidas Ejercicios Apéndice | LAS NOTACIONES = Y IL au Definiciones Bjercicios Reglas bdsicas de operacién Ejercicios Sumas dobles finitas Ejercicios Definiciones y propiedades fundamentales Ejercicios OVO naAue 346, 350 352 353 354 359 361 363 366 367 368 370 373 377 380 301 385 389 390 392 394 397 399 401 403 405 407 408 411 413. 44 415 416 418 420 421 14 Indice general Apéndice It ALGEBRA DE LOS NOMEROS COMPLEIOS 423 111 Definiciones y operaciones fundamentales 423 11.2 Ejercicios 426 JL.3 Numeros complejos conjugados 427 TL4 Ejercicios 429 Apéndice II! EL CONCEPTO GENERAL DE ISOMORFISMO 431 TIL1 Conjuntos y correspondencias 431 TIL.2 Operaciones 432 III.3 Concepto de isomorfismo 433 TIL4 Ejercicio 434 BIBLIOGRAFIA DE ESPACIOS VECTORIALES, MATRICES, DETERMINANTES Y SUS APLICACIONES 435 Capitulo 1! INTRODUCCION AL ALGEBRA DE MATRICES OPERACIONES FUNDAMENTALES 1.1 Matrices Existen miltiples situaciones tanto en matemética pura como en aplicada donde tenemos que tratar con disposiciones rectangulares de némeros o funciones, Una disposicién de tal naturaleza puede representarse por el simbolo My Fe ts Aig (1.1) dag |" cs Any Ome ++ Amn. Los nimeros o funciones ai; de esta disposicién se aman sus elementos y en este libro se supone que tienen valores reales o complejos. Tal dispo- sicién, sujeta a reglas de operacién que se definirdn mds adelante, se llama matriz. Representaremos las matrices con paréntesis rectangulares, pero también se emplean barras dobles, || ||, y paréntesis redondos, ( ), con este propésito. Los subindices i y j del elemento a;; de una matriz identi- fican, respectivamente, el renglén y la eolumna en los que esta situado aj; Cuando no haya necesidad de distinguir entre rengiones y columnas, Jos llamamos simplemente lineas de la matriz. Una matriz A con m renglones y 2 columnas se llama matriz de orden (m,n) o matriz m X n(“m porn”), Cuando m = n la matriz es cua- drada, y se llama matriz de orden m, Cuando A es de orden n, los ele- Mentos ai, @on...; Onn se dice que constituyen la diagonal principal de A y los elementos an1, @n-a,2) - --» in constituyen la diagonal secundaria, 8 16 Introduccién. el digebra de matrices [Sap. | Es conveniente abreviar el simbolo (1.1.1) en la forma [aislimms, que significa “la matriz de orden (m,n) cuyos elementos son los a,;”. Cuando No se necesita especificar el orden de la matriz o es claro en el texto, esto se abrevia en la forma {ar,]. Otro procedimiento conveniente que seguire- mos es e] de denotar las matrices con letras mayisculas como A, B, X, ¥, etcétera, siempre que no sea necesario indicar explicitamente los elementos 0 Jos érdenes de las matrices en cuestién, Una ilustracién simple del concepto dé matriz es el siguiente: los coeficientes de + y y en el sistema de las ecuaciones Jineales 2x +6y-1=0, (1.1.2) 4e— yt+3=0, proporciona la matriz de orden 2: [; i} que se Mama matriz de eoeficientes dei sistema. La matriz 2 x 3 2 6 -1 4 -1 3 que contiene los coeficientes de x y y y, ademas, los términes constantes, se lama matriz aumentada del sistema. La matriz de coeficientes y la matriz aumentada de los sistemas de ecuaciones son utiles para investigar sus soluciones; como veremos posteriormente. 1.2 Iqualdad de matrices Dos matrices [aislonm Y¥ [Disknm se definen como iguales si y sélo si ay = by para cada par de subindices i y j. En palabras, dos matrices son iguales si y sdlo si tienen el mismo orden y tienen todos sus elementos correspondientes iguales. De esta definicién y de las propiedades de igualdad del Algebra ordi- naria, se siguen cuatro propiedades de la igualdad de matrices: a) Si A y Bson dos matrices cualesquicra, sc tiene que A = Bo AAB (propiedad determinativa). 2) Si A es una matriz cualquiera, A = A (propiedad reflexiva). ¢) Si A = B, entonces B= A (propiedad simétrica), d) Si 4 =By B= GC, entonces A =: C (propiedad transitiva). Estas cuatro propiedades las poseen muchas otras relaciones mateméati- cas ademas de igualdad de matrices. (La scmejanza de tridngulos es un fs Adidén da matrtear Ww ejemplo sencillo. gSe puede pensar en otros?) Cualquier relacién entre pa- tes de objetos matemdticos que posee estas propiedades se lama relacién de equivalencia, Se definiran y se usarin varios tipos de relaciones de equivalencia en este libro. Debido a que la igualdad significa que las matrices son de hecho idén- tices, una matriz puede ser sustituida por cualquier matriz igual en las siguientes operaciones. 1.3 Adicion de_matrices Si A.= [auj}en,a) ¥ B= (Dijlim,», Gefininos la suma A + B como la matriz [(a1y + Bay) gmap» Esto es, la Summa de dos matrices del mismo orden se obtiene sumando los elementos correspondientes. Por ejemplo, 1-t 2 l+t 2 20 + = i 3 Let =o d=, 0 2 Se dice que dos matrices del mismo orden son conformables para la suma. Puesto que la suma de dos matrices m X m cualesquiera es de nuevo una matriz m x n, decimos que el conjunto de todas las matrices m X 0 es cerrado con respecto a la adieién, 1.4 Leyes conmutetiva y asociativa de la _adicién En el curso de este libro, los nimeros reales y complejos y las funciones se Mamar4n esealares para distinguirlas de las disposiciones que se Jlaman matrices, En algebra escalar, el hecho de que a+b=6 +a para dos escalares cualesquiera @ y b se conoce como ley conmutativa de la adi- cién, El hecho de que @ + (b +c} = (a-+ b) + ¢ para tres escalares a, b, y € cualesquiera, se conoce como ley asociativa de Ia adicién. No es dificil ver que estas leyes abarcan también la adicién de matrices. Sean A, B, C, matrices arbitrarias del mismo orden. Entonces, em- pleando Ja definicién de la suma de dos matrices y la ley conmutativa de Ja adicién de escalares, tenemos en Ja notacién abreviada. A+ B= [ay + bij] = [bi + Gs] = B+ A. De igual modo, aplicando la ley asociativa de Ja adicién de escalares, tenemos At (BHC) [aay t (best c0s) [Cosy t bay) tong) (A+B) +0. Hemos probado entonces 18 Infroduceén. el. égebra da motices [¢op. 1 Teorema 14.1: La adicién de matrices os conmutativa y asociativa, esto es, si A, By C son conformables para la adicisn, (14.1) A+B=B+4, (4.4.2) A+t(B+C) =(A+B) +0. El lector que encuentre Ja notacién anterior un poco condensada debe escribir los detalles completos para matrices de orden, digamos (2,3). Estas dos leyes, aplicadas repctidamente si cs necesario, nos permiten ordenar les témninos de la suma como nos payezca, y agruparlos en Ja forma en que deseemos. En particular, Jas mismas leyes justifican la ausencia de paréntesis en una expresién como A + B+ C, que (dadas 4, B, C, del mismo orden) tiene un significado definido en forma wnica. Otra propiedad importante de la adicién de matrices se da en el Teorema 1.4.2: A+C=B4C si y sdlo i A=B. El hecho de que 4 + C = B + C implica A = B se Ilama ley de cancelacién de la adicion. Por cierto, 4+ C= B+G si y slo si ey + 6 by + cis en todos los casos, Pero aij + 613 = bi; + ci; sty solo si ays = by;, segin la ley de cancelacién de la suma en el dominio complejo. Esto implica 4 + G = B+Csi sélosi A = B. 1.5 Sustraccién de matrices Una matriz cuyos elementos sean todos cero se lama matriz cero y se representa por 0, 0 por Oy, o por On, , Cuando necesite destacarse el orden. La propiedad bdsica de la matriz On., es que, para todas las matrices AmxXn, (15.1) A+0=4, esto es, la matriz cero es un elemento idéntico para Ia adicién. La negativa de una matriz m x 2, A = [aj;] se define como —A = [—ai]. Esto es, la negativa de A se forma cambiando el signo de cada elemento de A. La razén de esta definicién es, desde luego, garantizar que (1.5.2) At (A) =0. Por tanto, ~A es la inversa de A respeeto a la adicién. En vez de A+ (~A) =0, convenimos en escribir A— A= 0. En general, definimos (1.5.3) A-~B=A+(-B). 3 Sustraccién de matiices 9 Esto implica que Ja diferencia A — B puede encontrarse restando los ele- mentos correspondientes. Por ejemplo: 24 -38 1 -1 2 1 2 =5 -+o 1 lo 10) [-4 -1 a) Una consecuencia importante de jas definiciones anteriores es que, si X, A y B son de} mismo orden, entonces una solucién de la ecuacién (1.5.4) X4+4=B 3s X=B-A. De hecho, reemplazando X por B— A en X +A da (B- A) +4= (B4(-A)) +4 = B+ ((-4) +4) =B+0 =B, que demuestra que B- A es realmente una solucién de (1.5.4). [Néte- se que (1.5.2), (1.4.2), (14.1) y (1.5.4) se emplearon en la prucha,] MAs atin, es la dnica solucién, porque, si Y ¢s cualquier solucién, entonces Y+A=B, de modo que, por sustitucién, (V4A4) + (-A) = B+ (-A), Y¥+ (44 (-A)) =B-4, Y+0=B-4, y finalmente Y=sBu~A. (El lector debe identificar aqui cada aplicacién de una ley fundamental.) En resumen, B — A es la tinica solucién de la ecuacién X + A = B. En particular, esto prueba que las ecuaciones X+AzA X+Az=0 tienen; respectivamente, las soluciones tnicas 0 y —A; esto es, para un orden dado (m,n) ef elemento idéntico aditivo es tnico, y cada matriz A tiene un inverso dnice respecto a la adicién, ea decir, la matriz —A definida anteriormente. 20 Invoduedién ef élgobrs de motreat (ep. 4 En resumen, con respecto a la suma, el conjunto de todas las matrices m xn tiene las mismas propiedades que el conjunto de ntimeros com- plejos, Esto se debe a que Ia suma de matrices se efectiia mediante mn su- mas escalares independientes —una en cada una de las mn posiciones. 1.6 Maltiplos escalares de_matrices Si A = fais] y si a es un escalar, definimos @d = da = [aaj] En palabras, Para multiplicar una matriz A por un escalar e@, multipliquese cada ele- mento de 4 por a, Esta definicién es, por supuesto, sugerida por el hecho de que, si sumamos n veces A, obtenemos una matriz cuyos elementos son los de A, multiplicado cada uno por 1. Por ejemplo, Palle alle wee La operacién de multiplicar una matriz por un escalar tiene estas pro- piedades fundamentales: 1:‘A= A, (a+ A)A = ad + fA, «(A + B) = aA + @B, (BA) = (af) A. Las cuatro se prueban répidamente recurriendo a la definicién. En el caso de la segunda, tenemos (a + #)A = [(a + 8) 41/] = [aay + Bai] = faas)] + [Bas;] = a4 + BA. Dejamos como ejercicio para el lector [a prueba de las otras leyes por un método semejante. 1.7 Multiplicacién de matrices EI trabajo, frecuentemente, puede simplificarse introduciendo nuevas va- tiables en el tratamiento de un problema mateimatico, Las traslaciones de ejes, efectuadas por las ecuaciones de la forma cae th, yey th y roraciones de ejes, efectuacdas por xm x’ cos@ — of send y = 4’ sen 9 + 9" cos 0, son los ejemplos més familiares. Una rotacién de ejes es un caso especial de un cambio de variables del tipo hz Muliiplicecién de matrices a Xe ax + any’, (17.1) y= daw’ + ay’, donde las @ son constantes. Las sustituciones de este dltimo tipo se aman transformaciones lineales homogéneas de las variables y son de gran utilidad. Las propiedades de estas transformaciones sugicren la ley que debe adoptarse para Ja multiplicaci6n de matrices, que ahora ilustraremos. Considerames, por ejemplo, el efecto sobre el sistema de funciones lineales : 2x + 3y, (1.7.2) Bx — 4y, —5x + 6y, resultantes de una aplicacién de la transformacién Lineal (1.7.1). Susti- tuyendo (1.7.1) en (1.7.2) se obtiene el nuevo sisterna de funciones lineales (2ay, + Saez)’ + (Zara + Sao) ¥, (1.7.3) (Bay, — 4a) x" + (3442 — daee) 9, (Bay + 6ae:)x’ + (—Sarz2 + Gar), De estos tres sistemas de expresiones lincales, (1.7.1), (1.7.2) y (17.3), obtenemos tres matrices de cocficientes, Ya que la tercera matriz 3, en cierto sentido, el “producto” de las dos primeras, las relacionaremos con la siguiente ecuacién matricial 2 3 (2ai, + Saar) (2a12 + 3aa2) Ga tie 3-4: |- (341, — 4aa1) (Saxe 402) ay Oa -5 6 (—5ai + 6an) (Saiz + 6e22) La pregunta ahora es, “gqué regla para cmultiplicars matrices implica esta ecuacién?® Ei elemento (au -+ 3am) del primer renglén y primera co- lumna de la matriz de la derecha, puede cbtenerse multipticando los elemen- tos del primer renglén de la matriz de la extrema izquierda respectivamente, por los elementos correspondientes de la primera columna de la segunda matriz de la izquierda y después sumando los resultados: (primero x primero) + (segundo x segundo). Si multiplicamos los elementos del se- gundo renglén de la matriz de la extrema izquierda respectivamente por los clementos correspondientes de la primera columna de la segunda matriz y sumamos después los productos, obtenemos el elemento (3en — 4a) del segundo renglén y primera columna de la matriz de la derecha, Se sigue un procedimiento semejante para obtener los demas elementos de la matriz de la derecha, (El lector debe comprobarlos todos.) 22 Introduecién al Slgebre de matrices ICap. t Este ejemplo sugiere Ia siguiente definicién general. Sea A una matriz mx fy B, una matriz p Xn. El producto 4B se define entonces como ta matriz m X 7, cuyo elemento del i-ésimo renglén y la j-ésima columna se obtiene multiplieando Jos elementos del i-ésimo renglén de A, por los elemenitos correspondientes de la j-ésima columna de B, sumando después los resitltados, En forma simbélica, podemos escribir ee, ai Ge + aap bi Bie ves Bay Ci Gp ts Caw ix Onn ap be bax ++ bend [eer a2 ae i ye = ) Amy Amz +> Argh Why bps -- Ban, Em Oma + Con 2 donde 645 = Gtybyy + Giada + ++ + + Gipbay = ZY ainby;. co (Las fltchas se. emplean para destacar Jos elementos que deben multipli- carse y comtinmente no son parte de la notacién.) Dos: cosas deben hacerse notar en particular. Primero, el producto AB tiene el! mismo né&mero de renglones que Ja matriz A y el mismo nimero de coluinnas que ia matriz B, Segundo, el mimero de columnas de A y el ntimero| de renglones de B deben ser iguales, pues de otra manera no siempre] habré elementos correspondientes para multiplicarse. Cuando el niamero!de columnas de una matriz 4 es igual que el niimero de renglones de una inatriz B, se dice que A es conformable con B para In multi- Plicacién. Lo que se ilustra con los siguientes ejemplos: —_—> 1 2 0 1-1 2 a) O-1 1 3 0 Iran 1 2 ~1)}ss) (1-14 (-1) 042.1) (1. oe Cee 2) ty V4.2. (-1)) (8-140.041-1) (3. 249. cuat. 2) (3-040.1412.(-1)) 37 3 “4 8 —1en 1 2 4 6) [x tds 1B as = [lx — x1, (m+ 3x), (4e. — 22)laen gre Propledader de la muitiplicactin de matrices 23 an 6) [tis 82, talavey * | ye = [Cron + te + dea Yadis,a9 1.8 Propiedades de la multiplicacion de_matricos En el producto AB decimos que B esté premultiplieada por A, y que A estd posmultiplieada por B. Esta terminologia es esencial ya que ordina- riamente AB=4 BA. De hecho, si A es de orden (m,p) y B es de orden (pn) con maén, el producto AB esté definido, pero el producto BA no lo esté, Por tanto, ef hecho de que A es conformable con B para la multiplicacién no implica que B sea conformable con A para la multipli- cacién, Aun si m= 2, no necesariamente tenemos que AB = BA, Esto es, la multiplicacisn de matrices en general no es conmutativa. Damos algunos ejemplos numéricos donde el lector verificaré los detalles: 03 012s, 41 2) fa 4 @) g = F 3210) 121 414 30 pero 03 9630 1 alo 12 38) Jo 5 43 21] [3 210) |3 4 5 6} 3 0369 2-1 14 37 b) : = : -1 2 -1 1 -3 -2 14 2-1 =29 -1 1} l-1) gh l-3 J Este ultimo ejemplo demuestra que la multiplicacién no es conmutativa aun en el caso de matrices cuadradas. El hecho de que “la multiplicacién en general no es conthutativa” no quiere decir que nunca tengamos AB = BA. Existen, de hecho, casos espe- ciales importantes cuando esta igualdad se cumple. Ejemplos de esto se encontrarén posteriormente .en este capitulo, 24 Introduccién al dlgebra de motrices [Cep. 1 La regla familiar del Algebra escalar que indica que si un producto €8 cero, entonces uno de los factores debe ser cero, tampoco se cumple cuando se trata de multiplicacién de matrices, Un ejemplo es el producto 12 0) fo 0 0 000 1 1 0)-]0 0 O}S)0 0 O} -1 40 U1 4 g oo 6 Aqui ningtin factor es una matriz cero, aunque el preducto lo sea. Cuando un producto 4B = 0, donde ni 4 ni B sean 0, los factores A y B se llaman divisores de cere. Por tanto, en el algebra de matrices existen divisores de cero, mientras que en el Algebra de ntimeros complejos no los hay. Demos Ja acometida final a las leyes del Algebra escalar con el ejemplo que sigue, Sean 120 12 3 12 3 A=] 11 0, B=]i 1 -1, Capt i -1 4 0 22 2. 11 1 Entonces 3 4 i AB=/2 3 2]= AC. 3.2 -7. Por tanto, podemos tener AB = AC sin que B = CG. En otras palabras, no podemos cancelar, en forma ordinaria A de AB = AC aun si A750. Sin embargo, existen casos especiales importantes donde es posible efectuar la cancelacién, como veremos después. En resumen, son tres Jas propiedades fundamentales de la multiplica- cién del Algebra escalar que no se aplican en el algebra de matrices: a) La ley conmutativa AB = BA no siempre se cumple. b) De AB = 0, no podemos concluir que por lo menos uno de los face tores A o B deba ser cero; esto es, existen divisores de cero. ¢) De AB= AG 0 BA= GA no podemos concluir, en general, que B=!C, aun si A=£0; esto es, la ley de cancelacién no se cumple en general en la multiplicacién, Lo anterior puede hacernos dudar que la multiplicacién de matrices sea ‘uma operacién casi “itil. Desde luego, que éste no es e] caso, ya que pro- baremos, que las propiedades vitales (las leyes asociativa y distributiva) gue Propledades de Ia multiplicadén do motricos 25 se cumplen. Sin embargo, debe ser claro en este punto por qué hemos sido y continuaremos siendo, tan cuidadosos para comprobar la validez de las operaciones de las matrices que empleamos, Teorema 1.8.1: La multiplicacién de matrices es asociativa. Sean = [aim B=lrkan, C= lerrkee Entonces el teorema dice que (AB)C = A(BC). Aplicando Ja definicién de multiplicacién, vemos que ' = (3 eubs| . f=1 (mp) Donde i toma valores de 1 a m, y representa el renglén del elemento en el paréntesis, mientras que & toma valores de 1 a p y representa su columna. Aplicamos la definieién ahora a 4B y C. La nueva sumacién se tomara sobre el subindice de columna & de AB, que es el subindice de renglén de G, de modo que (40) =[ 3 (¥ aude) ar). hei 4m, 9) Multiplicando el factor our por cada una de las sumas de los paréntesis, obtenemes ae (AB)G = (& ( $ cuba) ; hea \ier a", en ta que of sublndice de rengién toma valores desde 1 hastajm mientras que el subindice de columna r toma valores desde 1 hasta q. | En la misma forma encontramos A(BC) = (3G sbne)) ne Debido a que el orden de caaatint es arbitrario en una suma finita, tenemos 3 (E eudnen) = 3 (3 aubuen) her View foi \k=1 para cada par de valores de i y 1, ast que (AB) C = A(BG)- Si cl empleo que se da al simbolo 3} en esta prucha es, desconocide para el lector, puede consultar la explicaciém relativa en el apéndice I. Es conveniente, asimismo, escribir la prucba completa para’ las matrices 2x2 26 Introduccién al dlgebra de matrices [cop. 1 Teorema 1.8.2: La miultiplicacién de matrices es distributive con respecto a la adicién, Para hacer esto mas explicito, sean A=[aulom B= [alam C= felon Donde A es conformable con B y con ( para Ja multiplicacién, y B es conformable con C para la adicién. Entonces el teorema, sefiala que A(B + C) = AB 4+ AC, Ciertamente, A(B + €) = [aialon ml (bes + cen mr = (3 «stu + a0] A = {= bes + Z anes) 1 Res ump) » * = (3 aubs} + (3 enon) iss ot R = AB + AC. E) teoresha también sefiala que, suponiendo conformabilidad, co, 8, B) mp (D+ E)F = DF + EP. Esta segunda ley distributiva es distinta de la primera, ya que la multi- plicacién de matrices no es, en general, conmutativa, pero se prucha de igual fortha que la primera; sin embargo, los detalles se dejan al lector. Las ptuebas de los dos witimas teoremas implican un examen detallada de los elémentos de las matrices involucradas, Por tanto, esencialmente son de naturaleza escalar, A medida que la teorfa se desarrolle, emplea- remos mAs pruebas que comprendan sélo manipulaciones con matrices, Estas prudbas son tipicamente mas breves que Jas pruebas de tipo escalar de fos mismos resultados y, en consecuencia, deben preferirse. El progre- so del lector en el aprendizaje del Algebra de matrices sera mas rapido si excluye ce! fos ejercicios ef empleo de pruebas de tipo escalar, siempre que sea posible. Por ejemplo, para probar que, pata matrices conformables, (A +B)(C + D) = AC 4 BC + AD + BD, no vamos de nuevo a recutrir a Ja prueba de tipo escalar. Simplemente notamos que, de acuerdo con fa primera Jey distributive anterior, (4 + B) (C4 D) (44 B)C + (44 B)D, de modo que, segin Ia segunda ley distributiva, (4+ Bi{(C + D) = AC + BE + AD + BD. §1.9 Fjarciclos: 27 1.9 Ejercicios En el curso de este libro, los ejercicios marcados con un asterisco (*) desarrollan wna parte importante de la teoria y no deben subestimarse. En muchas casos, las condiciones de conformabilidad para, Ja adicién o multiplicacién deben satisfacerse a fin de que el problema tenga signifi- cado. Por Jo general, estas condiciones son evidentes y, por lo mismo, fre- cuentemente omitiremos enunciarlas. El lector debe hacer las suposiciones necesarias cuando resuelva Jos ejercicios. En los ejercicios, las palabras “demuéstrese” y “‘prugbese” deben to- marse como sindnimos. 1. Demuéstrese que (A +B) — G =A + (B—€) ¢ investiguede cada pro- Piedad que se utilice en la prucbs. ¢Por qué es (4—B) +C#A~ (B+C) en general? 2, Efecttiense tas signientes multiplicaciones de matrices: 1 1-11 1 2 2 a)j2 0 1]-J—-1 1} 6) 23 4] | 3 Gi 2 1 3 4 10 0) (a & 4; a 0 0 a be e)lo 1 of.]a, & 8, alo a, O[-f bh oo la ag 4 0 0 a) la e i a, dy a 0 2 a) {b, bof 4 p ‘fl 2.3 44 0 ws 3 Si 4 donde # = —1. 2 Introduccién al Gigebra de matrices Cap. 1 3. a) Einpleando 1-1 0 1 0 t-11 A= , B=|/O0 1 ~1, Cali of, 2 01 91 pruébese Ia egla (AB}C = A(BC), 2) gBaj qué condiciones queda definida ta matriz producto ABCD? De acuer. do con la ley asociativa, ceuiles son las diversas formas de calcularla? 4. Pruébese en detalle 1a segunda ley distributiva (D+ E)F = DF + EF. 5. Si Aes una matriz cuadrada, se define 4% = 4?-A para p> 1 Por induccin sobre 9, pruébese que, para cada entero positivo P, APAt = Ara oy (ABO = APY para todos los enteros positives ¢. (Nétese que ni la definicién ni la prucha es del tipo escalar.} Oo 7 6 Si AS , caletilese 42,42, At, (Donde # = —1,) Citese una regla i general para A®, (Se puede tratar por separado los casos cuando n ¢s pat 0 cuando es impar.) *7, Demuéstrese que, si wd = 0 donde @ ex una escalar, entonces @ =0 0 4 =0, Demiléstrese también que, si aA = aB y a3£0, entonces A= BR, y que, si d= B, enionces ad = a para todos los escalares a. #8, Prudheye 2) aA» BB= of - AB (aq, f escalares). b) (-1) +45 ¢) (=A) (—B) = 4B, 4) A(@B)' 3 (aA) B= oe( AB). 9a) Expliquese por qué en Algebra de matrices (A+B)? 9 A? + 2AB + Be, (4 +.B)(A ~ B) # AP — BY, excepto en casos especiales, ¢Bajo qué circunstanclas se cumpliria la igualdad? ) Desarrdilese (A + B}9. 10. Sea AB = G, donde A y B son de orden n. Si, en cl #ésimo renglin de A, ay, = 1, ddnde iy k son fijos, y todos los otros elementos del mismo renglén son cero gquéise puede decir sobre el i-ésimo renglén de C? zCudi es el hecho anflogo considerando las columnas? 11. Sean 4 y B de orden n y sean Cys ad + £8, Cy aed + BB, s19 Slercictes 29 donde ay, az Br Be son escalares tales que af. Fapf- Demuéstrese que €,C, = Gx, si y slo si AB = BA. 12. Sean 3 * 2 =—£ oF ef mi: 8 7 1 1 i Compérense los productos AB y BA, 13, gPara qué valores de x ser& 24 0 6x fe € U-fh 0 2]-f4 feo? Oo 2 4) Ut. #14. Una matriz cuadrada de la forma dy O se O 0 dm «+ 0 Dy = , 0 0. a esto es, en la que dj = 0 si iz], se llama matriz diagonal de orden n. (Nétese que esto no quiere decir que d;,5°0.) Sea A una matriz cualquiera de orden (fq); calcdilense los productos D,A y AD, Describanse los resultados con pala- bras, ¢Qué sucede en Ios casos especiales dy, = dyp = + =a y dy = dp = se) ¥15. ¢) Demuéstrese que cualesquiera dos matrices diagonalés det mismo orden conmutan. b} Suministrese una férmula para D? donde D es diagonal y # es un entero positive. c) Demuéstrese que si D es diagonal con elementos no negasivos, entonces AD? = DPA si y slo si AD =DA. 16. Prugbese por induccién que si B, G son de orden n y i A=B+C, C1=0, y BC=CB, entonces para todo entero positive k Att = BKB + (E+ 1)C). 17. Si AB= BA, se dice que las matrices A y B son conmitativas o que conmntan, Demuéstrese que para todos los valores de a, b, ¢, d, las matrices eld? @ Led conmutan. 30 Introduceién el Glgebro de matrices (Cap. t 1B. {Qué requisitos deben satisfacer 2, 6, o d, para que las matrices ab 11 y ed tS conmuten? 19. Si AB = —BA, se dice que las mattices 4 y B son anticonmutativas o que anticonmutan, Demuéstrese que cada una de las matrices o1 0 -% 1 oo v{ | oy bos p (P= 1), 10 i 0 0 =1 anticonmutan con las otras, Estas son las matrices de spin de Pauli que se utilizan en eI estudio del spin del clectrén en mecdnica cudntica. 20. La matriz 4B ~ BA (A y B de orden n) se lama conmutador de A y B. Empleande el ejercicio 19, demuéstrese que los conmutadores de og ¥ oy oy ¥ Oe ¥ Oe ¥ oy On respectivamente Yen, Bigg, y Yay. #21. Deninéstrese por induccién que, si A es cuadrada y AB= AB, donde A es un escalay, entonces APB = )?B para todo entero positive p, 22, Si cos 6, —senO; sen§, 0088, demuéstrese|que A, y 4, conmutan. ¢Cusl es Ia relacién con las transformaciones empleadas én geometria analitica plana? 23, La guma de los elementos de la diagonal principal aj, f= 1,2,+ de una mattiz cuadrada A se llama traze de A; 152) AS dy t yg bt ange a) Si A’y B son de orden n, demuéstrese que te(A+B) oir tor, 3) SEC es de orden (m,n) y G es de orden (n,m), demuéstrese que trOG = trGc. 24, Pruébese que, si A tiene renglones idénticos y AB esté definido, AB tiene rengiones idénticos también. 25, Una matriz A tal que A? =0 para algin entero positive p se Hama nilpotente, Demuéstrese que toda matriz nilpotente 4 de 2x 2 tal que 4? =0 puede representarse en la forma Aww ma man) donde A y y son escalares, y que toda matriz de ese tipo es nilpotente, Si A es real, gdeben d y ys ser reales? §1.l0 Ecuaciones linecles en notacién matricial a 26, Dado que ad = BA y AF, prutbese que «= B (wy f son,escalares). 27, Dado que A, B, C, son de orden n, empléese el ejercicio 23) para demostrar que tr ABC = tr BCA = tr CAB = tr ACB = te BAC = tre CBA. eCual es la conclusién general de esta obesrvacion? 28. Una matriz A tal que A? = A se llama idempotente. Determihense todas las matrices diagonales de orden n que son idempotentes. ¢Cudntas hay? 29, Pradbese que Ia conformabitidad para la adicién es una relacién de equi- valencia para as matrices, en tanto que la conformabilidad para la multiplicacién no To es, Qué propiedades no pueden, en consecuencia, cumplirse para la mul- tiplicacién de matrices? 30. Dado que 1:0 0 100 1 es 02 Of 4-10 0 tfa(4 5 44 Oo 0 —3. oO 1 Q. 21 encucntre la matriz A. #31, Dado que AB = BA, demuéstrese que, para todo par de entéros positivos ry s, AvB = BeAr, En una gran variedad de aplicaciones de la matemética, aparegen sistemas de ecuaciones lineales de la forma general yt + Gate + + + Gant, = by Gay %y + Gapke + + + donk = be (1.10.1) : GrasXs tb Amare $+ + + Anke = Om, donde el niamero m de ecuaciones no eg necesariamente igual al ntimero n de incégnitas. En vista de la definicién de multiplicacién de matrices, tal sistema de ecuaciones puede escribirse mediante una sola ecuacién matricial OM, Me +++ tin cot by (1.40.2 Gy dex Oem | ey bs Gig mr + Sand Vea, Den De hecho, si calculamos el progitete de matrices de Ja izquierda, esta ecuacién se convierte en a2 Introduccién ol algebra de matrices ttep, | : (Gir%1 + Grote Hoe +H in¥n) by (1.103) 1 (ae + roa + + + Gan%n) |_| Ba | (4m + mata + ++ +b Osntn} Dan Ya que estas dos matrices son iguales si y s6lo st todos sus elementos corres- Ppondientes, son iguales, esta sola ecuacién es equivalente al sistema de (1.10.1). Si ahora hacemos 4 Ag tts Oty xy by Are) Gn Gn Gan xa\* ii, Bas x Bay Xn brn la voluminosa ecuacién (1.10.2) puede representarse en la forma muy reducida (1.10.4) j AX = B. Quando se'escribe un sistema de ecuaciones en la forma (1.10.2) 0 (1.104), en que una ecuacién matricial reemplaza a todo el sistema de ecuaciones escalares, sp dice que est4 representado en notacion matricial. Las matrices formadas por una sola columna, tales como X y B que acabamos de ver, se Ilaman veectores. La relacién entre ese concepto de vector y e] usual, se desarrollar4 después. De momento considerarcmos que un vector es simplemente una mairiz columna. Los elementos de tal matriz se I]laman cominmente componentes. El vector X anterior se lama m-vector pues tienc 2 componentes, De igual modo, & es un m-vector. Frecuentemente, para ahorrar espacio, un n-vector se representa en la forma (a3, a2, -..,d,}, utilizando las Haves para identificarlo como ma- triz columna. En algunos libros las matrices renglén, es decir, Jas matrices que constan de un sole renglén, también se Ilaman vectores. Utilizando esta nueva terminologia, vemos que, cuando conocemos un conjunto de valores de x1, 2+ + +,%, que satisfacen simultdneamente las ecuaciones escalares (1.10.1), también conocemos los componentes de un vector que satisface Ia ecuacién matricial (1.10.4), y reciprocamente. Tal vector se llama solucién de (1.10.4). el problema de resolver el sistema de ecuaciones escalares (1.10.1) y el de resolver la ecuacion matricial (1.10.4) se consideran, por tanto, equivalentes. En el capitulo cinco, tra- taremos lo referente a Ja solucién de tales ecuaciones en detalle. git Transpuesta de una motrir 33 1.11 Transpyesta de une matriz La matriz AT de orden (n,m) que se obtiene al intercambiar Jos renglones y las columnas de una matriz A de orden (m,n) se llama transpuesta de 4. Por ejemplo, la transpuesta de 2 2 20 -1 | } s 01 1i 4. -1 4 Teorema LUL.1: Si AT y BY son las transpuestas de Ay By si a es un escalar, entonces: a} (ANTHA. b) (A 4+ B)T = AY + BT. i ct} (@A)T = @AT, | d) (AB)T = BUAT, Las tres primeras reglas se comprenden ffcilmente. Las pruebas deta- lladas se dejan al lector, Solamente d) se probaré aqui. Sean A = [aielimms B= [bedlinp. Entonces AB = [exjJm,, donde sj = 3, aby. Donde i, que toma valores desde 1 hasta m, identifica al rengién, y ji que toma valores desde 1 hasta 9, identifica la columna del elemento ¢,;, Ahora BT es de orden (f,7) y AT es de orden (n,m), asi que, BT es conformable con AT para la multiplicacién. Para caleular el elemento Vite del j-ésimo renglén y la i-ésima de BTAT, debemos multiplicat el j-¢simo renglin de BT por la ima columna de AT, Observando que| el segundo subindice de un elemento en B o A identifica el renglén y el primer sub- indice identifica la colurnna en Ja cual este clemento aparece é BT 0 AT, vemos que A . BAT = fdhnm = [3 Pron) = (3 aut] eek 1 By HED ed cp, rd) Aqui j toma valores desde 1 hasta p e identifica el renglon de ys, en tanto que i toma valores desde 1 hasta m e identifica la columna. Por tanto, yn = ey pero, con los significados de i y j para los renglones| y columnas opuestos en los dos casos, de modo que BTAT = (AB)7. Conviene al lector formar un ejemplo numérico. La prueba anterior ilustra el hecho de que la expresién para el elemento tipico de wna matriz puede, en ocasiones, tomar una forma; complicada, pero qué un aspecto esencial de Ja expresién es un par de subindices que pueden emplearse para identificar el renglén y Ia columna del elemento, se Waman subindices libres. Por tanto, en la expresién anterior, 4 Intreduceién al dlgebra de matrices [Cap. 1 ® 6 = DS abut, fe Jos subindices libres son i y j, M&s atin, i se emplea para designar el renglén y j para la columna del elemento. El indice & es un indice de sumacién, No tiene que ver nada con !a posicién del renglén y Ja columna del elemento cj). Por otro lado, en Ja expresién a rh 3S bye mn empleada én la precedente a la anterior, los subindices libres je ¢ designan respectivaniente el renglén y la columna del elemento y:, Esto ilustra eb hecho de que, mientras que el {ndice i se emplea con frecuencia como indice de renglén y j como indice de columma, esto no es necesario ni tampoco es siempre conveniente, Cualquier simbolo de indice puede em- Pplearse para cualquiera de los dos propdsitos. Por cierto que en Ja suma representada por ci en la precedente a la anterior, el indice & se usa en ambas fortpas (como indice de columna en ai y como indice de renglén en by;). Esta libertad de utilizar los indices en ambas formas es lo que nos permite prpbar el teorema anterior de manera sencilla. Como tro ejemplo que ilustre lo que acabamos de sefialar, sea a ay = 3 tities a donde i representa el renglén, y j Ja columna del elemento a;,. Si i toma valores destle 1 hasta m y j desde 1 hasta p, entonces podemos interpretar 11, como elemento de! i-ésimo rengion y la #-ésima columna de una matriz Ravn. En isj, & debe desempefiar el papel de un indice de renglén si queremos fepresentar la matriz A = [a1jJnxp como producto, Suponien- do que normalmente el primer subindice es el subindice de renglén, se sigue que el elemento sy, es el elemento de la j-ésima columna y el k-ésimo renglén de una matriz (Spx,)T. Esto es A = RST, Considérando finalmente la suma a Cu BS Baa tintay 47-152 que poderios escribir nee oe DD einen) Ohh Keats La suma dentro del paréntesis es el elemento del renglén i y la columna §u.t2 Matrices simétrieas, antisimétreas y hermitianas as ky de A*. Por tanto, la segunda suma representa el elemento del renglén iy la columna j de A? - A, Esto es, tenemos {ctoxn = A* 1.12 Matrices simétricas, antisimétricas y hermitionas Una matriz simétriea es una matriz cuadrada A tal que 4 = AT. Una matriz antisimétrica es una matriz cuadrada A tal que A = — AT. Estas definiciones pueden también enunciarse en términos de los elementos indi- viduales: A es simétrica si y s6lo si, eis = aj, para todos los pareg de subin- dices; es antisimétrica si y s6lo si aiy = —ay, para todos los pares de subindices. Ej lector debe demostrar la equivalencia de las definicignes corres- pondientes en cada uno de los casos. Los siguientes casos son ejemplos de matrices simétricas y antisimétricas respectivamente: O12 012 a) |1 2 3} b) |-1 03 23 4 a «3 6 El cjemplo &) ilustra el hecho de que los elementos de la diagonal principal de una matciz antisimétrica deben ser cero, gPor qué es cierto? A una matriz se le llama matrlz real si y s6lo si, todos sug elementos son reales, Las matrices simétricas reales se presentan con més! frecuencia en las aplicaciones, Sin embargo, las matrices de elementos corpplejos son también de importancia, Cuando los clementos de dicha matriz A son re- emplazados por sus conjugados complejos, la matriz resultante se llama conjugada de A y se representa por A. Evidentemente una matriz A es real si y slo si, A = A. Transponiendo A, obtenemos la conjugada trans puesta o transjugada (AT de A. Esto se representar4 por jel simbolo A*, (Algunas veces se le llama a A* la adjunta de A, pero no en/este libre.) Por ejemplo, si l-i 2 A= , i L+i entonces 36 Intreduceién al dlgebra de matrices Tenp. 1 Cuando A = A* esto es, cuando a; =a para todos los pares de subindices, 4, se llama matriz hermitiama (en honor del matematico francés, Charles Hermite, 1822-1901}. Cuando las matrices de elementos complejog aparocen en las aplicaciones, por ejemplo, en la teoria de la fisica atémica, son frecuentemente hermitianas. Las matrices 4 1-7 14+i 2 son ejemplos simples de matrices hermitianas, como puede verificarse de inmediato, ¢Por qué deben ser ntimeros reales los elementos de la diagonal principal de una matriz hermitiana? Si los elementos de A son reales, AT = A*, asi que la propiedad de ser real y simétrica es un caso especial de la propiedad de ser hermitiana. Las siguientes paginas contienen numerosos resultados sobre matrices her- mitianas, El lector interesado solamente en el caso real puede interpretar la palabra “hermitiana” como “simétrica’, 1.13 Matrices escalares Una matriz cuadrada de Ja forma a 00 + GO Ow Oe GB O00 - al, en la que cada elemento de la diagonal principal es igual al escalar a y todos los otros elementos son cero, se Haman matriz esealar de orden 7. En las miltiplicaciones de matrices, una matriz escalar se comporta como un escalar, segan lo demuestran las siguientes ecuaciones: a Os Qn G2 8 Gin Dae 0 Gry Gsp 7 ay OO tr ah Lan me 1% Gn. My az tt Gin) fa O ++) O dip 8 ay wm | 2 @22 77 Gn] JO @ -- 0 aor ag don = ‘ =a Fai Fmz *'" Omp. 0 0 +: als Amy Emz em, yaa Matrices escalares a7 Las matrices escalares son, sin embargo, atin mds fundamentalménte como escalares, pues si a y 8 son dos escalares cualesquiera, y si ae+B=y, (1.13.1) eB = 5, entonces ° a Os 0} (8 O + O y 0 be Ow re OF LI0 Bos OF 210 yo OF, 0 0 +++ wn LO 0 + Ba WO ys (1.13.2) a Oe BO 0 30 0); Oa ss OF [OB e+ OF JO 8 sO q : : i 00 «+ a, lo Os Be WO + al, Estas ecuaciones demuestran que en correspondencia a fa! aritmética de los nGmeros reales, por ejemplo, existe una aritmética estrictamente anéloga de matrices escalares de un orden fijo m, en que la matriz escalar con elementos « de la diagonal principal corresponde al niimero real a En la misma forma, en correspondencia a la aritmética de lps nimeros complejos, existe una aritmética andloga de matrices escalaresien las que jos elementos de la diagonal principal son mimeros complejés, Podrian formularse muchos otros ejemplos de tal correspondencia, entre un con- junto de escalares y un conjunto correspondiente de matrices ebealares. Esisten tres puntos esenciales que deben notarse en esta situaci6n. Pri- mero, tratamos con una coleccién S de escalares tales que si ¢ y B perte- necen a S, y sia + 8 = af = 8, entonces y y 8 también! pertenecen a S. (En los dos ejemplos SAGES citados, la suma y el producto de dos niimeros reales son de nuevo niimeros reales, y la sunia y el pro- ducto de dos nimeros complejos son, de nuevo, numeros coniplejos.) En segundo lugar, tratamos con una coleccién cA{ de matrices escalares de un orden fijo n tales que cada escalar de Cas Pas os Yn) = (hays Saye bv + an) Este tipo de producto se observa més cominmente en la forma XTY, donde X y ¥ son matrices columna, esto es, vectores. Este tipo de pro- ducto se lama producto esealar de dos vectores. En vista de qhe podemos tratar toda matriz producto 1 x 1 como un escalar, podemos) reemplazar un escalar por un producto de matrices sélo si la regla de confprmabitidad se satisface. Existe otra funcién, relacionada muy estrechamente, de dos vectores X y Y. Considerando el hecho de que X y Y pueden tener elementos complejos, el predueto interne de X y Y, en ese orden, se define como X*Y, El producto interno se representa cominmente por el simbolo (X, ¥) de modo que (KY) NPY = [BF oo Bad + Oo Yep 9 Da) = Biya + Boye tos + Favor En el caso particular cuando ¥ y Y estAn restringidas al dominio real, esto se reduce a (X, Yy = XTY = syn t mye toe fxn © sea que, en el caso real, el producto interno y e] producto escalar son lo mismo. 1.17 Funciones_polinomiales de mairices Consideremos un polinomio {(8) = ax? 4 apa + oe + aK + Oy de grado p com x como incégnita, ya sea con coeficientes reales o complejos. Con cualquier polinamio de éstos, podemos asociar una funcién polino- mial de una matriz A de » X n> 42 Innoduetién al éigebra de mottices [cap. 1 F(A) = aA? + GigAP* + 6. + A + Ooln simplemente reemplazando el término constante @, por la matriz escalar @I, y reémplazando x por A. Por ejemplo, si f(x) = x? 3x = 2, entonces, ‘para cualquier matriz A de orden n, {A} = A? ~ 34 — 21, Ahora, supongamos que f(#) y g(x) tienen sélo cosfictentes reales, En- tonces si Hex) 4 e(e) = hte) oy x) + a(x) = a(x), A(x) y q(x) son de nuevo polinomios con cceficientes reales. Més atin, ya que los escalares conmutan con matrices, también como las leyes dis- tributivas 'y asociativas se cumplen, y ya que Jas leyes de los exponentes se cumplen para las potencias enteras positivas de A, podemos concluir también que HA) + e(A) = (A) yy f(A) - (A) = (A). Por sale conjunto de todos los polinomios reales con x como incégnita es isomorfo al conjunto de todos los polinomios reales con una mattiz A de orden n como incégnita, Una proposicién semejante es aplicable para los polinomios con cocficientes complejos. Este igomorfismo implica que la matriz polinomial {(A) se puede factorizar de igual modo que el polinomio escalar f(x). Por ejemplo, si flz) = x° ~ 3a + 2x = a(x — 1) (x — 2), entonces H(A) = 4° 348 4 24 = A(A I) (A — 2p). Ahora fupongamos que las soluciones de 18) = aye? + apaw™ + 0 ta bao = SON ai; Mz, +. .,% tales que f(x) ssp (x ~ aa) (x — a) «+ Ce — a). Entonces, por el isomorfismo recitn explicado, (L171) | f(A) =3ap(4 — al) (A aol) -++ (A — el), asi que la ecuacién de la matriz {(4) = 0 tiene como soluciones las matrices escalares ant, ..., oJ. M4s atin, no tiene como soluciones otras ma- trices escalares. Sin embargo, ya que el producto de Jas matrices (17.0) puede ser cero aun cuando ninglin factor sea cero, la ecuacién f(A) = 0 gas Ejereiclos 43 también puede tener matrices no escalares como soluciones. Por ejemplo, Ja ecuacién A+ h=0 tiene por soluciones las matrices escalares Ei (4 correspondiendo a las soluciones iy —i de la ecuacién x? + 1 = 0, Tam. bién tiene (entre otras) la solucién no escalar [if como el lector debe verificar, En consecuencia el hecho de que en algebra escalar una ecuacién poli- nomial de grado p en una sola incégnita x tiene exactamente #i soluciones, no es verdadero en Algebra de matrices, en 1a que el nimere de soluciones cs por lo menos p. La nocién de isomorfismo nos ha Slevado a descubrir otra diferencia importante entre Algebra de matrices y Algebra escalar. 1.18 Ejercicios 1. a) Compmébese que BTAT = (AB)T cuando t= g As , 2 1 0 b) Pruébese que (ATBT}T = BA, 2. a) Ildéstrese Ia definicién de Ja igualdad de dos matrices ésctibiendo el sistema de ecuaciones x) = Gj, j = 1,2).-+)12, como una sola ecuacién de ma- tices, gPuede hacerse esto de varias maneras? b) Interprétese Ia couacién matricial PE comp un hecho sobre un sistema lineal de ecuaciones con dos iricégnitas. c) gCual es el significado geométrico de la ecuacién matricial Ot) Guhl es la ecuacién correspondiente en tres dimensiones? 44 Tatoduedlén ef élgebra de matrices lCep. 1 *3. Generalicense las proposiciones &) y d) del teorema 1:11.4 y pruébense las formas generalizadas por induccién. “4, Demuéstrese que ordinariamente AAT ATA, pero que AAT y ATA son, ambas, simétricas. Demuéstrese también que ‘si A tiene elementos reales, fos elementos de la diagonal principal de AAT y ATA son no negativos. 5. ¢Qué puede decitse sobre los elementos de Ja diagonal principal AAT cuando A es una matriz real antisimétrica? ;Qué puede decirse de los de A2? 6. Demuéstrese que si A es simétricn 0 antisimétrica, AAT = ATA y AP es simétrica. 7, Demuéstrese que toda matriz cuadrada A puede representarse Gnicamente en Ja forma ASA ob AS) donde A! es simétrica y A‘) .es antisinétrica, (Sugerencia: si A= A@ + AES, entonces AT = A® — AC®, etc.) 8. Demiséstrese por medio de un ejemplo que aun cuando A y B sean amhas simétricas ¥ del mismo orden, AB no necesariamente es simétrica. *9, Prudbese que si A y B, de orden x, ambas simétricas o ambas antisimétricas ¥ conmutan, entonces AB es simétrica. 10. Enchéawense por inspeccién las inversas de las siguientes matrices: i O00 0 dy i ig 0 0 +++ dyq © | (Los elementos | at dy dy) vse yd 80 ah Ty B=] 5 supone que son ae 0 ds 0 0] — diferentes de cero.) a, 0 0 OO food dDo1? 1000 orot 5100 0100 ) , d) 5 e} loo 1 0 1000 0010 0001 po01 abel 11. Caletilese el producto 4 Ga) [ ae —%e fy yx) (en; Y, Por tanto; determinese uma inversa para el primer factor del producto, gBajo qué cond’ciones no existe inversa? 12. Encuéintrense todas jas matrices escalares que satisfagan las ecuaciones matriciales: a) A?~5A 471, =0. 3) 243 434? ~ 44 — Bly ) #81, =0. 4) B-A=0. 0. $1.18 Ejorelelos 45 13. a) Determfnense todas las matrices diagonales de orden n quei satisfagan una ecuacién polinomial de matrices {(A) = 0 de grado p. a de ta ecudcién A? + 5) Determinense todas las soluciones de la forma bo Az, 14. Demuéstrese que la matriz no escalar al es una solucién de la ecuacién 4? — 54 + Ti, = 0. 15. Encuéntrense todas las matrices de scguado orden que satisfagan ta ecuacidn A? — 2¢A + Blp = 0, Particularicese al caso a= 0, B= 1, ¢ inter- préteuse los resultados, 16. Prudbese que si B= P+! AP, entonces BY = P-t A*P, Por tanto, demus- trese que, si ; f(A) = a,AP + ay APO ts aA + aol y si B= PAP, entonces también f(B) =0. ¥7. Demuéstrese que si. y B son mimeros reales, el conjunto de todas las matrices ( Boa serA isomorfo respecto del conjunto de todos los niimeros complejos a + if. Por tanto, demuéstrese que todas estas matrices tienen una inversa excepto cuando a= A =0. gCuil es Ia inversa? Repasese también el cjercicio 17, de Ia seccién 1.9 en este caso, 18. q) Apliquese el isomorfismo establecido en el ejercicio 17 para encontrar dos raices matriciales adicionales de la ecuacién dada en el ejercicio 4, b) Encuéntrense todas las raices cuadradas de la forma 0a (a, & reales) bo —N 0 0 ~xy’ donde es real. La dltima matriz corresponde a un namero negativo, pero deben encontrarse todas las rafces cuadradas de los elementos para los que dichas raices son reales, Apliquese el concepto de isomorfismo para explicar lus dos casos ms simples. 19, Demuéstrese que Q, de Ia matriz mle PS Te, 46 Introdvectén al dlgebra de matrices [eap. 1 donde op,’ ay oz son Tas matrices de spin de Pauli definidas en la soceién 1.9, ejercicio 19. eQué regla sobre raices, en ‘ilgebra escalar, es la que no se cumple en digebra:de matrices? #20. Demuéstrese que, si « es un escalar, (a4)* = ad". Demuéstrese también que A= A, (A)T= (AT), (AH)* =A, (A+B) = AML BY, ABA AB, y (AB)* = Bat, *21, Demuéstrese que, para toda matriz 4, A*4, y A4* son matrices hermi- tianas. Qué puede decirse de los elementos de las diagonales de A"A y AA"? Demuéstrege también que si H es hermitiana, tambiéa lo es B*HB para toda matriz B cpnformable. 22. Demuéstrese que, si A y B son de orden x, entonces 4 y HB conmutan si y s6lo s, A=, y B— XI, conmutan para todo escalar ). 23. Dernuéstrese que cualesquicr dos funciones polinomiales de una matriz cuadrada A conmutan. 24, Deshuéstrese que tos polinomios arbitrarios f(A) y g(B) en matrices fijas Ay B de orden n conmutan si y sélo si, A y B conmutan. (Es suficiente demostrar que A*B* = BtAr para todos los enteros positives ry 5 si y sblo si, AB = BA.) 25. Demuéstrese que, si A y B son matrices m X n, entonces A = B si y slo i AX = BY para todos los n-vectores X. De igual modo, demuéstrese que AX = 0 para todos lor n-vectores X, si y solo si 4\= 0. 26, Dethuéstrese que una matriz A de orden 2 es escalar si y s6lo si, conmuta con toda matriz B de orden a. 7 27. Si A cs cuadrada y si A = —A*, esto cs, si ayy = —@y, para toda i y j, A se Hama jantihermitiana. Demuéstrese que toda matriz cuadrada A puede es- cribirse en Ih forma A = A + AGH) donde AUD es hermitiana y A(S*) es anti- hermitiana, ‘Demuéstrese también que los elementos diagonales de una matriz antihermitiapa son imaginarios puros. 28, Deniuéstrese que toda matriz hermitiana H puede escribirse en Ia forma 4 + iB, donde A es real y simétrica, B es real y antisimétrica, e # = —1, Entonces, demutstrese que H*H eg real si y sélo si, AB = —BA, esto es, si y sélo si, A y B anticonmuten, 29. Proporciénese un ejemplo para ilustrar que (X, ¥} y (¥, X) no siempre son iguales an el caso complejo. 30. Dado que A= [alan ¥ B siguientes como producto de matrices: [bsilism tepreséntese cada uno de fos (3 ental. {3 eute), (Sen), (3 aes]. Supongamos en cada caso que é designa cl renglén y j la columna del elemento en el producto. gia Bjorcicios aa £31, Representando por Ej un n-vector con t en el j-tsimo rengléi, siendo todas las otras componentes 0, interprétese cada uno de los productos, Eytd, AE, E,TAEg, «= EyTEy By, donde A ¢s una matriz arbitraria de orden n. Los vectores Ey, se Haman ri-vectores elementales. 32, Sea W, = SE; Entonces, zcbmo es que AW, y WTA se felacionan con A? Calettese, HTX, donde X° es un r-vector acbitrario, 38. Supongamos que ABs: C, y que X denota una matriz con una sola columna cuyos elementos son las sumnas de los elementos en los renglorles corres- pondieates de B. De igual modo, supongamos que representa una matfiz colum- na cuyos elementos son Ins sumas de los renglones de C. Entonces demuéstrese que AX =Y, (Este hecho puede aplicarse para comprobar In multiplidacién de matrices y es titil en el cfleulo con miquinas computadoras.) Sugerericia: apli- quese cl ejercicio 32. ‘ 34. Calculese cada uno de los siguientes productos, después exprésense los resultados con palabras, Las E son los n-vectores definidos en el cjercicio 31, aa a eo ee oo ee (Bayt By ch + By )IC(Ey, + By, bo + By), BB, Dado que X = (xp) ..+)%q}, demudstrese que y Por tanto que 5 X= 3 (AEE, i gPor qué se puede escribir (XTE))E, = XT(E,E))? 86, Representando por Ej, una matriz n Xn con un 1 en el idsimo rengléa y la j-ésima columna y 0 en todo lo demis, caletlense los productos EyjEpo Exyliom AE; Ey, EyAE pn, — Eyy AB Demuéstrese que Ey = Eee, Bye = Ey y (EysEjx)T = Ex = ExysEyy. 87. Demuéstrese que, si Ay B son matrices n Xm arbitrarias, As S aE iy, B= > bk y ies thea Se per tee; con Tk anda Ga cladelo anteion, que TANT — bat, 38. Una matriz A, tal que 4? = J se Hama involutoria, Demuéstrese que A es involotoria y sélo si, (A-D(A+D £0. éPuede concluirse que A =I o —J? Corrobérese su respuesta con un ejemplo. 48 Introducd6n al Glgebra de matrices [Cap 1 39. Determinense todas [as matrices involutorias de la forma L Qa b = O -1 d e 0 01 4% 0 EY =% 40. Bxprésese como productos de matrices, si i denota el renglon y j Ia columna del elemento; {= 1,2,...,9; J=1,2,...01: 78 a (3 (3 uber) oa}: ) (34 (3 au%)). 41. Dado que 0410 00 001 00 S,=]i ‘ o00- 01 00 0+). 0 BG, de una regla para calcutar 5,4, donde A es cualquier matriz n x n, Formilese una regla por este resultado, para calcular $,*, donde # es un entero positive cualquiera. 42. Dado que A= [ayjhaxas caloular Sq, AS, Sy 7A, ASQ, SppTAS ys SpASy, SpPAS yf. 43. Dado que f(z) =a, + ayy -tax®+ +> bast +- ++, demuéstrese que % 4, a2 Gae Gna Oa or +> Bag Ong 0 D a -+* Oy4 Oue Sa) =|: P o 0 0 + dy a, 00 0 +6 wy donde S, es como se definié en el cjercicio 41. gi.19 Partician de matrices 49 44. Una matriz cuadrada A, tal que 44; = 0, siempre que i> j se denomina matriz superior. Por ejemplo, C -t 0 Oo 2 Q GO. es uma matriz superior. Pruébese que toda matria superior U es nilpotente. 45. Una matric cuadrada B, tal que BT es superior, se nombra matriz inferior. Pruébese que toda matriz inferior es nilpotente. 46. Demuéstrese que la suma y el producto de cualesquier doy matrices superiores 2X m, cuyos elementos son némeros complejas o funciones, sen tam hlén matrices superiores; esto es, que ef conjumto de todas esas matrices es cerrado respecto a Sas operaciones de suma y de mutltiplicacién, 47. Sea U una matriz saperior de orden a. Pruébese que (J, HU)? = 1, si 3 sdlo si, U = 0. (Sugarencia: desarréllese el miembro de Ja izquierda; después; considérense sucesivamente las supradingonnles, esto es, las diagonales: que estan arriba de ta diagonal principal, de U.) 48. Pruébese que, si u es nilpotente y si U* = 0, pero Ue #0; entonces 1+U tiene inverso, a saber, (E+ Uys =I -U + Ue — Ut +t (ye, 49, Prudbese que si U es nilpotente y el polinomio f(x) no tiene término constante, entonces {(U) es nilpotente. 50. Pruébese que si U es nilpotente ¢ (I + U)? = I, entonces UT + {(U)) =9, doade (U) es un polinomic con término constante cero. 51. Aprovéchense los ejercicios 48, 49, 50 para demostrar que si U es nil- potente c ([ + U)? =f, entonces U = 0. 52. Dado que &, = tr A*, donde A es de orden n, pruébese que para todo entero positivo &, PARTICION DE MATRICES 1.19 Particion de matrices En muchos puntos de los siguientes capitulos sera necesario subdividir o efectiar una particion de matrices en partes rectangulares de elementos. Ahora investigaremos las consecuencias de tratar estas partes corno ma- trices; esto es, de tratar la matriz original como una matriz cuyos clemen- tos son matrices, Estas partes se Ilarman submatrices de la matriz original. 50 Introduction al dlgebra de matrices (Cop, 1 Antes de proceder a fondo, ilustremos el caso con algunos ejemplos. Si existiera alguna ventaja en ello, podriamos escribir, por ejemplo, 1 oO —t —3], 2 1 como [4s, 4}, donde £ o Av={~tl y Ape |—34 2. 1 © came By B, Bs donde B=[1, 0, Be=[-1, ~3, B=[2 1, © como (2) Co, donde i) C= y G=(% tf -1 -3 La forma en que debe efectuarse la particién de una matriz se indica fre- cuentemente por Itneas punteadas, y las partes resultantes de una matriz determinada entonces se operan como submatrices. Por tanto, tA 1 1 i 22 -1) (1 2l=1 1 A ‘I le D. donde A, B, C y D denotan Ias submatrices. Coma en el ejemplo anterior, diremos que dos matrices, particionadas © no, son iguales si y s6lo si, sus formas no particionadas son iguales. Desde luego, si deseamos tratar estos conjuntos de elementos como matrices, debemos sujetarnos a todas las leyes del cdlculo con matrices. Por ejemplo, si deseamos escribir Ia ecuacién (‘ *} . (‘ | (4: + 4s) (Br + Be) CG DJ le pl 4G) Wie Dol 30 2l= gue Partleién de matrices 51 debemos aseguramos de que 41 y A; tienen el mismo orden, y de igual modo para By y Bz, C; y Cz, Di y De, En general, sean A y B matrices del mismo orden, Diremos que A y B son particionadas idénticamente si las matrices de matrices resultantes contienen el mismo mimero de renglones y de columnas y si, ademés, las partes correspondientes tienen el mismo orden, Entonces Jas matrices a ble j y (ad eift g kik son particionadas idénticamente. Luego es sencillo ver que las matrices particionadas idénticamente son iguales si y sdio si, las submatrices corres- pondientes son iguales y que pueden sumarse afiadiendo las submatrices correspondientes. Para demostrar como la particién en submatrices se emplea en la mul- tiplicacién de matrices, consideremos primero varios ejemplos. 1) Sean Se observaré que si tratamos Jas submatrices como si fueran elementos, tenemos: 1 0 10 2 1 0} (1 0 2 ‘| to l= . + “B =. o 1} [-2 o 1 bo 1) {-2 8 -4 10 6 -2 7 -2 o 1) l-6 2 “6 3 = AB. 2) Sean 2 ajo 0 0 O11 o 1 ! 1-110 0 o 010 1 = acccnarmnsaa aesconnge y ap meenasiacl Pie 0 olo4 0 210 0 | dp o!2.0 2 oo 0 52 Introduccién ol dlgebra de matrices [Cap. 1 Entonces, al tratar las submatrices como si fueran elementos, notarmos que debido a las matrices cero que aparecen tenemos como producto o 0 | fz 1) {1 0 002 1 | ‘ 0 0 (lr -1J lo i oo 1 -1 eae e oan nn = = AB. Oo 4 9 i ' 200 0 2 DJ l-2 OJ) 040 0 ‘Véase qite cuando Ja multiplicacién es completa, los paréntesis internos pueden suprimirse, 3) Sean A Ge aie bi, bas! y Be Jb deel. Ass sa Ass Boy Bon Efectuenios la particién de A y B, sefialando las submatrices con dobles subindices. ' as Gay 1 Ass bi bas i ' Ais Au | [Bye Qa Ogg | dag | = > B=|by bel= ceoeetemed [dor dev} Pa Bn “t Aa, ag. ae Poy Baa A Entonces: Au Ap) (Bus in alta (A4pBn + AisBe1) (ee + oe (eee + @iaba) (aiid, + a] 4s (eye oa (agus + Graber} (@aidis + aus! 42305, aisbao [(asibs, + @oxber) (@n.bra + aceez)] + [assber ¢asb22] { Qirbia + Graber + Ganda Ayxbin + Guador + eal esbri + GprBor + Aaiber Goin + Gepbo2 + daadso, a [aribss + Gosber + Gaxbsr sabia + @acbar + Gea se] = AB, después de que los paréntesis internos se han eliminado. En cada uno de los ejemplos anteriores, efectuamos la particién de las matrices A y B y las multiplicamos, tratando Jas submatrices como elemen- tos, Cuando la multiplicacién se completa, climinamos los paréntesis in- f.t9 Porticién de matrices 5a ternos, de este modo no se efectia la particién. El resultado fue, en cada caso, el producto AB. Los resultados enunciados en el ‘iltimo parrafo son verdaderog en gene- ral, siempre que la particién se eve al cabo en tal forma que las matrices por multiplicarse sean conformables. Sea A de orden (m,n) y B de orden (n, p) de modo que A es conformable con B para ia multiplicacién. Supon- gamos que A,; y By; representan submatrices, Entonces escribimos n,cols.n,cols. ++ n,-cols, ana ay ay On, }m, rengiones au a2 fy, "Treg tenglones A= = fn, mz *~* Onn J renglones donde ne Rte ty my bomb ee tm. =m, Entonces se efectéa la particién de la matriz B de este modo fi cols. fecols. +++ p,cols. bu by ++ big) murenglones { ber bee *1* Dep | ma venglones { Be a bys Baa *°* Bap] — 1, renglones { donde Pi + Pot. + ++ fp =p. Como se indica, la particién de colurnnas de A debe ser similar a la particién de renglones de B de modo que las matrices A;; sean’ conforma- bles con las matrices By, para j = 1,2,...,v. Sin embargo, la particién de renglones de A y Ja particién de columns de B son bastante arbitrarias, efectuindose s6lo por consideraciones de conveniencia. Abora podemos demostrar que AB = (Cy ho oy donde Cus % AuBin esto es, podriamos demostrar que si multiplicamos las matrices particio- nadas A y B de acuerdo con la regia indicada anterionmente, el resultado 54 Introduccién al digebra de matrices [Cep. 1 final seria precisamente AB. La prueba se deja al lector para que la piense detenidamente. El ejemplo 3 de la clave: demuéstrese que [Cy]iu,,) d@ cada elemento de AB, en ef lugar que le pertenece, construyéndolo como una suma dé grupos de productos. 1.20 Ejercicios 1. Galciilese el producto usando la particién indicada 12/00 0) (0 0 0/2 1 I oo 0!) ~ 00 of 0 ° oolooll 0 2. Caletilese 4%, usando la particién indicada, donde 10 af0 oft I I I | oi ofo oft I I 6010 0l8 3. En el ejercicio anterior tenemos una matriz simétrica, partida simé. tricamente, caso que es probable sea el ms importante que surge en la prictica Desarréllese un esquema generalizado para la particién simétrica de dos matrices simétricas A y B de orden n, y escribase la {érmula para el producto AB. De- muéstrese que, antes de que se eliminen los paréntesis internos, el producto AB se parte en fa misma forma que 4 y B. “4, Sca A de orden (m,n) y B de orden (mf). Entoaces, podemos cfectuar la particién de A on cenglones y B en columnas, por tanto: AG 4a|42 p B= §B,, By... By, Ava) 9 podemos efectuar la particién de A en columnas y B en renglones: $1.20 Bjorelcios 5S BO (2) Ae ldn dh B=] PB BO Férmese el producto de las matrices partidas en cada caso y obsérvese ebmo estos productos estin relacionados con el producto AB. 5. Sean A, y B, cuadradas y del mismo orden. Si también esto se cumple para de ¥ By, ---+4q ¥ By. Ademas, sean A 0 + 0 By 7+) 0 Determinese la suma y el producto de A y B. Aqui se les lama a lay matrices Ay B matrices fraceionables o matrices casi diagonales. Este problema de~ muestra, entonces, que Ia suma y el producto de dos matrices fraccionables del mismo tipo son matrices fraccionables del mismo tipo. Si abreviamos A = DIA, 4s, -.-y4Anl ) i, = & transposiciones adyacentes, Desde luego, puede restaurarse el orden natural mediante un nimero de transposiciones adyacentes diferentes de k. E] teorema solamente dice que se puede realizar con exactamente & de ellas, 62 Determinantos {Cap. 2 Teorema 2.2.3: Una pernistacién par (impar) puede reducirse al orden natural sdlo mediante un ntimero par (impar) de transposiciones adyacentes. Si fuera posible reducir una permutacién al orden natural tanto por un nimero par como por un nimero impar de transposiciones adyacentes, entonces seria posible obtener la pernmtacién dada en dos formas a partir del orden natural (par) colocando al revés cada una de estas dos secuencias de transposiciones. Por tanto, de acuerdo con el teorema 2.2.1, la permu- tacién seria tanto par como impar, lo cual es imposible. De los teoremas 2.2.2 y 2.2.3, concluimos: Teorema 2.2.4: Una permutacién es par {impar) si y sélo si, se requiers un mimero par (impar) de transposiciones adyacentes para redu- cirla al'orden natural. Finalmente tenemos el siguiente resultado de gran: importancia: Teorema 2.2.5: Si dos enteros cualesquiera de una permutacion dada se intercambian, resulta una permutacién de paridad o puesta. 2 fafa ++ fea [deli | ++ foot) nips + + jos i intercambiemos jy y jp efectuando dos secuencias de transposiciones adya- centes, la primera que coloca jy entre jiu y jx por medio de (p — 1) — (&— 1); transposiciones adyacentes sucesivas. La segunda coloca entonces jis entre: jp y jo por medio de (p — 1) — & transposiciones adyacentes més. El! cambio, por tanto, requiere en conjunto 2p— 2k — 1 transposi- ciones adyacentes, Ya que éste es necesariamente uh ntimero impar, el resultado deseado sigue del teorema 2.2.1. 2.3. Simbolos épsilon Para cada petmutacién jija +++ j, de los enteros de {| a 7, definimos un simbola épsilon como sigue: 1 si jaje <+* jy eS una permutacién par Shs { si jije-** jy e8 una permutacién impar El lector debe notar que si & es el ntimero de inversiones en jaja +» + jns entonces' Enters ta = (TE Mas adelante tendré aplicacién este simbolo. §2.5 Determinante de una matrz evedrada 63 2.4 Ejercicios 1. Pruébese que si en una permutaci6n con un total de & inversiones se restable- ce el orden normal por transposiciones adyacentes, entonces por lo menos se requie- ren & de tales transposiciones, asi que, de acuerdo con el teorema 2.2:2, & es el nimero minimo de transposiciones adyacentes que nos Mevan al resultado, #2. Prudbese que para n> 2, existe igual mimero de permutacionés pares & impares de los enteros de 1 a x. 3. Prughese que una permutacién jgjp-+- jp 8 par o impar segtin sea el producto siguiente, positive o negativo: (ie dp) = Gn Set) Gin — dread in i) Gin = Bt) (ina — dace) ++ Gana + de) Cine > hd IL BDpk>D>I1 (is ha) ie + i) (ia = ha) 4. Pruéhese que el nimero de inversiones en una permutacién también puede encontrarse contando el nimero de enteros mayores que procedan cada entero de Ja permutacién, 5. Caleiilense los nf simbolos épsilon para n = 2,3, 4 6. Prudbese que a lo més n(n — 1)/2 transposiciones adyacentes se requicren para restablecer una permutacién dada de 1,2,...,1 al orden. natural, 7. Prughere que Seah «tin Shag ttgs tng taba ta 8 Prutbese el teorema 2.2.5 por un método que implica inversiones enu- merables. LAS PROPIEDADES MAS SIMPLES DE LOS DETERMINANTES 2.5 Determinante de una matriz_cucdrada Las matrices cuadradas aparecen en muy variados problemas, a veces independientemente y a veces como submatrices de otras matrices. Una submatriz de una matriz dada es la configuracién restante cuando ciertos renglones y columnas de la matriz dada se suprimen. Por ejemplo, la ma- triz de coeficientes (véase la pag. 165). (" Ay, ay dag GX, + Gipte del sistema de ecuaciones (25.1) bs, Gert, + dpats = be, 64 Determinantes [Cop. 2 pueden considerarse independientemente o pueden considerarse como una submatriz cuadrada, que se obtiene suprimiendo la dltima columna de la matriz aumentada. ay a: —by @ry G22 — by La conclusién de que Jas matrices cuadradas son de mucha importancia en el digebra de matrices se obtiene de los desarrollos del final del capitulo uno. Ejta importancia se apoya principalmente en el hecho, que debe pro- barse en el capitulo 5, de que solamente una matriz cuadrada puede tener inversa, Por ejemplo, el lector que resuelva el ejercicio i1 de la seccién 1.18 encontraré que la matriz aa ae A= sy Ags tiene inversa si y séto si, el escalar A = aaa ~ ayia es diferente de cero, Se ve facilmente que la inversa es del sistema. fay ie a A Ate | (40), On ay A A porque 4A7 = AAA = J Si egcribimos ahora el sistema (2.5.1) en forma de matriz como se hizo en el capitulo uno, AX = B, ¥ suponiendo que 450, premultiplicando ambos miembros por 4+, encontramos que (A“*d)X = AB, o sea, X= AB, de donde es fécil calcular por multiplicacién de matrices la solucién que nos es familiar (2.5.2) (A540) bata — bias a Este ejemplo ilustra el uso de fa inversa de una matriz en el proceso de resolucién de un sistema de ecuaciones lineales. Es normal desear que se extienda este procedimiento a sistemas mas extensos de ccuaciones. Para poder lograr esto, empezamos asociando a Me 52.5 Daterminante de uno mattiz evadrada 65 cada matriz cuadrada A = [a,j)n, 7 & 1, um escalar definido en forma unica, Namado determinante de A y que denotamos por el simbolo “det A”. En particular, cuando A es la matriz de segundo orden, que acabiamos de emplear det A es precisamente el escalar A. (Se observard después que, como en el caso de las matrices de orden 2, A tiene inversa si y silo si, det A es diferente de cero.) Para definir el escalar, det A, primero selec- cionamos n elementos @;; de A en tal forma que cada renglén y cada columna de A estén representados exactamente wna vez entre los subindices de estos n elementos, Entonces formames el producto de los elementos seleccionados, conservando Jos subindices de] renglén en el orden natural: Pat Saige En este producto, jijo---j. sera una permutacién de los enteros desde 1 hasta ya que seleccionamos un elemento de cada columna; Después multiplicamos este producto por €,,,,., ,, Para obtener el término Sates tate tata Esto equivale a multiplicar el producto por +1 si jij +++ jx es una perme tacién par, y por —1 si es una permutacién impar, Después de hacer esto, formames uno de dichos términos por cada permutacién posible jaje + + + jn de 1,2... +; y después surnamos los resultados para obtener det A: (25.3) det A = Bey Pade 4 n nde El simbolo (j) significa que la suma debe tomarse solamente sqbre las nt permutaciones fajy ++ jn de 1,2, .. 4.2 El determinante de una matriz 1 yx 1 {a} se define como a. Para n= 2 y n= 3 tenemos de acuerdo con (2.5.3): au an (2.5.4a) det = Eieartar + Sextiatey = tailor — rear a1 Mea, Gy Ay Os (254d) det) az @e2 Gos} = StzsFataedtze + Sesr@reAardar + G512915421 452 + Eisey1 Mandy fax dyn Gas) + Engine dss + Es2,0rs@a0491 = Gi:Oa2Gas + G12Geas1 + Aare, — Air@234ae — Prpfgi9ey — Fisdendsi- ‘Un ejemplo numérico esté dado por 1-1 auf! ]- +(1)(-2) = (-1)@) = -243 61 66 Detorminantas [fap. 2 Nétese que los signos introducides por las épsilon actian independiente- mente de los signos que los elementos puedan tener. De nuevo, si # = —1, Ot i det{ 2 0 fF] =0-0-048-%+ (- 4 (-#) -t-i-0 id O= (8) 0+ (-2) = 28 = -i i 0 El lector debe escribir det [a,;], de modo semejante a (2.54) solamente para captar la esencia de la definicién. Sin embargo, en Ja prdctica, rara vez se necesita aplicar la definicién en esta forma. Usamos en su lugar diferentes resultados, derivados de la definicién, que frecuentemente hace que el célculo de un determinante sea una labor muy soncilla que la defi- nicién misma sugiere. Como ejemplo de Ja forma en que puede aplicarse el determinate de una matriz, obsérvese que de acuerdo con (2.5.2) y (2.54a), la solucién del sistema de ecuaciones (2.5.1) puede escribirse con determinantes, de la siguiente forma: by Qe au by det det b (2.5.5) ae ae, bes =e donde [" *) A = det| fox Oye, con la condicién de que A5£0, Aplicando esto al sistema tx — By = 1, 3x tity = 4, estas formulas dan Ia solucién yw A = det = 49, 3 t i Si er det det 4 ire bb wns oF a “Py 7 #49" con la condicién de que # + 95&0, esto es, £6 -3i. La genetalizacin de este proceso a sistemas de » ecuacioness con 2 incégnitas, y otras aplieaciones de Tos determinantes, se desarrollaran en secciones posteriores. g25 Daterminante de una matrix cuadreda 67 El lector ya familiarizado con determinantes puede muy bien pensar por qué hemos escrito, por ejemplo, a Ate det 5 Ary Aas, en vez del simbolo mas usual, Fe Qn Aap Nuestro propésito es, desde Iuego, destacar el hecho de que ef arreglo cua drado de escalares es la matriz, mientras que el determinante es sélo un escalar, asociado con la matric de acuerdo con una regia definida, Més adelante haremos también uso de las lineas verticales usuales para denotar el determinante de un areglo cuadrado contenido entre aquélla, pero el asreglo y el determinante del arreglo deben distinguirse cuidadosamente. Para insistir en este punto, es conveniente revisar cl concepto de juncién. Ej tipo més. comiin de funcién puede considerarse como una regla que determina un nimero iinico correspondiente a cada nimero dado de algan conjunto fijo. Por ejemplo, la funcién que asigna el ntimero Gnico 2? a cada numero +, Ja funcién seno asigna un nimero finico sen x a cada nie mero x, etc. En cada uno de estos ejemplos, el conjunto de donde se escoge x puede ser cualquier subconjunte de} conjunto de niimeros complejos. El niumero j(x) asociado por Ja funcién f con el ntunero x se lama valor de la funcién f en x. Es importante distinguir entre la funcién como regla para calcular, y el valor de la funcién. Por ejemplo, si Ja funcién es “cuadrado del numero dado”, entonces x* denota el valor de Ja funcién en x, no la funcién en sf misma. En este caso, Ia funcién podria representarse convenientemente por el simbolo ( )#. En forma parecida, la funcién representada por YI— ( )# asocia un namero real YL—x* con cada numero real x tal que -~1lgx<¢i. El concepto de funcién no est4 limitado a conjuntes de mimeros. Si 9 y ®B denotan conjuntos cualesquiera de objeios, Entonces cualquier regla que asigne a cada miembro de % un micmbro tinico de B se lama fun~ cién de Ma B. Ya hemos tratado con funciones en este amplio sentido; para una funcidn polinomial asociados a una matriz apd?+ aA? * +... + apt, com cada matriz n x n. En este caso los conjuntos % y % son el mismo con= junto de matrices. El determinante de una matriz constituye otro ejemplo del, concepto de funcién. Sea % el conjunto de matrices cuadradas cuyos elementos pertenezcan al conjunto 8 de nuimeros complejos, por ejemplo. Entonces. 68 Doterminanies [Cop 2 Ja funcién determinante asocia con cada matriz A de %, un ntamero com- plejo tihico b de 8: b = det A. Estos des ejemplos ilustran cl hecho de que algunas funciones de ma- trices tiencn matrices como valores de funcién, mientras que otras tienen escalares como valores de funcién, En particular, el determinante de una matriz es un escalar, Otra funcién escalar importante de una matriz cuadra- da es la traza (definida en el capitulo uno). 2.6 Tres propledades bdsicas de los determinantes EI hecho de que cada uno de los subindices de renglén, 1, 2,..., y cada uno de Ios subindices de columna 1, 2,...,% aparece una vez, y solamen- te una, en cada término de (2.6.1) det A = Dewy, ay sb pata + * Ent equivale a Io siguiente: Proptedad I: Exactamente un elemento de cada renglén y un elemen- to de cada columna, aparece en cada términe de det A. Puesto que los elementos de cualquier renglén ¢ columna aparecen sola- mente cn primer grado, dct A es lineal en estos elementos. Ya que todos los términos de det 4 son del mismo grado en los elementos de cualquier renglén 9 columna, decimos que det 4 es homogéneo en estos dementos, La propiédad 1 puede enuaciarse, por tanto: el det 4 ¢s una funcién lineal, homogénéa de Jos elementos de cualquier renglén dado (y de cualquier columna dada) de 4. Los ejemplos de la seccién anterior ilustran esto. El arteglo particular (2.6.1) de los términos de det A se llama des- arrollo por renglones de det 4, pues los subindices del rengl6n se conservan en el ordén natural en Ja formacign de cada término de Ja suma. Propiedad 2: Otra férmuta para det A es det A =D €igis .-. @irrtie + + Gig o la suma s¢ toma sobre todas las n! permutaciones figs ++i de 1,2, ..., 2 Este arregio de los términos de det 4 se ama desarrollo por colum- nas de det 4, asi que la propiedad 2 especifica que los desarrollos por renglones y por columnas de det A son expresiones algebraicamenta idénticas. Para probar la propiedad 2, observemos primero que todo producto @14, 424 +++ Gag, Gel desarrollo por renglones aparece también en el desarrollo por columnas, ya que si los factores de cualquier producto se ordenan de §27 Otras propledades de los dotorminentes 6 medo que los subindices de columna estén en el orden natural, los sub- indices de renglén estaran, por tanto, ordenados en Ja permutacién corres- pondiente ii; ... in de 3,2, -.. 5m. Asi, por ejemplo, aided = @s1@i220 cuando n = 3, De modo semejante, cada producto dej desarrollo por colum- nas también aparece en el desarrollo por rengiones, Por tanto, sélo resta demostrar que los signos de un producto dado seran iguales en arnbas expresiones. Para esto, transpondremos los factores de a1; ag. +++ day, EN tal forma que se reduzcan ios subindices de columna al orden natural. Entonces usaremos simult4neamente las mismnas trans posiciones para obtencr la permutacién correspondiente iy - - - i, de Jos subindices de renglén del orden natural. Por tanto, las permutaciones if, +++ in y fije «++ jx son ambas, pares o impares de modo que Jos signos del producto en cuestién, sean los mismos. Propiedad 3: Si ctalesquier dos lineas paralelas de A se intercambian, el determinante de la matriz resuliante es —det A. En el caso del intercambio de k-ésimo y p-ésimo renglones (+ < p), el resultado sigue, por tanto, det Am Sic cspzsayanentntant? © Oe + LOPE Soe a En cada término de esta suma podemos intercambiar los factores esca- lares ayj, ¥ aps, puesto que ja multiplicacién es conmutativa para escalares: det d= Be, a veces deee tlt Spe Met OS Geet Los productos de las a; en esta suma son aquellos que vienen de una mairiz al igual que A, excepto que los renglones & y p estén intercambiados. Sin embargo, los subindices de columna jx y jp no aparecen en el orden correspondiente sobre los simbolos €. Cambiando éstos tenemos, de acuerdo con el teorema 2.2.5: dtAa= 5 (Eo cip. pea beefy ate ata” PPG Oy dye 4a) y la expresi6n en el peréntesis es et determinante de una matriz al igual que A, excepto que tiene los renglones k y p intercambiados. El procedi- miento es semejante para dos columnas. be mm - (Bee wi 2.7 Otras propiedades de los determinantes De las tres propiedades bdsicas de la seccién anterior podemos derivar muchos resultados stiles. Empezames con 70 Doterminantes Icap. 2 Teorema 2.7.1: Para toda matriz cuadrada A, det A = det AT. En palabras, esto quiere decir que cuando Ios renglones y columnas de una matriz se intercambian, el determinante no se altera. Por ejemplo, como se puede ver ripidamente, 8 2a 3-2 -a det} -2 @ 3|adetl2 2 ~3| =a? + 27. -a@ -~3 0 a 3 0 La prueba del teorema consiste en observar que el desarrollo por renglonés de det A y el desarrollo por columnas de det AT son idénticos. La importancia de este teorema es que demuestra que en todos los teoremas sobre detetminantes, podemos intercambiar los papeles de los ren- glones y columnas y resultard otro teorema vélido. En un desarrollo de det 4 podemos juntar todos los términos que con- tengan el elemento fijo ai; como un factor y escribir su suma en la forma factorizada a;;A:;. Aqui, Ai; denota el factor restante cuando el elemento a; se factoriza. Llamamos a A;, el eofactor de a;; en det A. Por ejemplo, segiin (2.5.4) tenemos On ig Ors 11 (de2t33 — Grelta2) 13 (421052 ~ Goats) det] ao, azz aes | = 4+ @ral deeds: ~ Grids3)} = 4 + xg (Gi2dsi — Saidse) ey + G5(@axdo0 — @2oAa1) + gq (4ix4g0 — Gyn%ax) a3: Ayn Aas as{ que Ai = Gi20%3 — Gass Ata = Gag: ~— Gargs, Aas * 2s — Otay Ass = Gq — aids Ass = Grider — Grady. Los otros cuatro cofactores pueden encontrarse de igual modo por el lector. De Ia propiedad 1 se sigue que Ai; no contiene elementos ya sea del i-ésimo renglén o la j-ésima columna de A. Como ilustra el ejemplo anterior, si repetimos el proceso descrito en ol filtimo pArrafo para cada elemento de una linea fija de A, obtenemos una de las siguientes expresiones de det A: (2.7.1) det A = anda + aides + +++ + @indin , Bf VQyrcasts (27.2) det A = ayAry + agyAay too + + Ont ay De hecho, de acuerdo con Ia propiedad 1, todo término de det A incluye uno y sdlo uno, de aj, a2, ..+5@in ¥, Por tanto, aparece una y sélo una, vez en el miembro derecho de (2.7.1) y, en igual forma, todo término de det A incluye uno, y sélo uno, de a4;,aoz, ...,4n4, ¥. por tanto, aparece, una 2.7 Otras propiodadas de los dotorminantes n y Solo una vez en el miembro derecho de (2.7.2). Por tanto estas ecuaciones se justifican plenamente. La expresién (2.7.1) se llama el desarrollo de det A en términos de Ios elementos del éésimo renglén y (2.7.2) se llama el desartollo del det A en términos de los elementos de la j-ésima colunma. Més adelante daremos en forma explicita la formula para Ay); pero antes usaremos (2.7.1) y (2.7.2) para derivar algunas propiedades de det A dependiendo solamente del comportamicato de Jos elementos de algunas \ineas de A. Estas férmulas son particularmente utiles para este propdsito. Teorema 2.7.2: Si iodos los elementos de cualquier linea de A son cero, o sé todos los cofactores on det A de los elementos de cualquier linea de A som cero, entonces det A = 0, Este resultado es inmediato de (2.7.1) y (2.7.2), como también es el siguiente: Teorema 2.7.3: Las expresiones eiAiy + OeAig t+ + Crdiw, raj + boos + °° + bnAniy son determinantes de matrices iguales a A, excepto que los elementos del zésimo renglén y la j-6sima columna han sido reemplazados respectivamente por los elementos ¢1, C2)». +5 On De hecho, si consideramos ai, ais; ...;@y como variables, y les asigna- mos los valores ¢;,¢2) .--, &m, Obtendremos el primero de estos desarrollos del miembro derecho de (2.7.1). La segunda expresién se obtiene de] mismo modo del miembro derecho de (2.7.2). Un ejemplo es el siguiente: 1 6 os e1Ais + Geis + egdis = det | Gor Giz ae |. Aa: Gan Osa Teorema 2.7.4: Si A tiene dos lineas paralelas idénticas, entonces det A= 0, Pruébese esto usando la propiedad 3 anterior, Teorema 2.7.5: La suma de los productos de los elementos de una linea de A por Ios cojactores an det A de los elementos correspondientes de une linea paralela diferente de A, siempre es cero: @yAm + Gide + tt! + GinAen = 0, ih, aA + Grd ttt + an Am =O, jxeke 72 Doterninentés (op. 2 Pruékese esto aplicando primero el teorema 2.7.3 y después el teorema 274, Ahora definamos e] simbolo conocido como delta de Kronecker: t, iek (2.73) daa 0, st igtk. Empleando esie simbolo, podemos combinar los resultados de (2.7.1), (2.7.2), y el teorema 2.7.5 obteniendo: 44:4 + Aisdss + ''* + inden = Six det A, ayAyy + arpden + +> + aypAny = 8, det A, ©, utilizando la notacién 3S, (2.74) Ditidiy = tadetd — B ayde = Binder d, a a EL ejemplo an au 4 an = Out haa — Gz * hag = AC Gute — eter) = Kay kd 21 Om} sitve para ilustrar el Teorema 2.7.6: Sea B una matriz cuadrada igual a A, excepto que todas los elementos de alguna linea de B son k veces los elementos corresporidientes de la linea correspondiente de A. Entonces det B= kdet A. Este resultado sigue inmediatamente de (2.7.1) y (2.7.2). De hecho, si Bes igual que A, excepto que bir = kitis, Bio = hata, +... bin = hitin, OD tonces, segtin (2.7.1). det B= (kan) Ais (kia) Asa bot++ + (hain) Ain = Kandi + disdia + °+* + Gindin) = Ret A. De igual-modo para las columnas. Los siguientes ejemplos ilustran cOmo se usa este teorema para eliminar o introducir, factores: ath a+b I 1 ia! a) = (a+) = {a +b) (2-6) - a-—b 0 a~b 0 10 4-12 1-2 4| 3-1 2 b) $ -1 3/=3]1 ~8 9] 0 bien 3] 2 -1 3], o 11 o 14 o 411 sa7 Oras propiedades de tas doterminantes 73 En el primer ejemplo (a + b) se factorieé del primer renglén, y (a — b] se factorizS del segundo, En el segundo ejemplo, el primer renglén se mul- tiplicé por 2 y el segundo por 3, Debido a estos cambios se induyé 1/6 como coeficiente, En la segunda parte del ejemplo, la primera columna se multiplicé por 6 y debido a esto se incluyé el coeficiente 1/6. Como el enunciado del siguiente teorems es algo complejo, introducimos algunos ejemplos para demostrar primero que la idea involucrada es en tealidad muy sencilla. E} desarroilo directo de los determinantes implicades demuestra que ath a dy a c dy b a dy a +b, Cy dg)=|a, ce dsl +|be cz dal. a, + bs C2 dy a ¢: ds bs 6s ds El lector debe proporcionar los detalles completos, Aqui, la primera cohum- na del miembro izquierde es una columma de binomios. Las; primeras columnas del miembro derecho constan, respectivamente, de los términos primero y segunde de estos binomios; tedas las otras columnas son igualcs. De igual modo, tenemos athtea grote, |" ba 6 + a, d, ad, ds) jay aa) ld de donde los elementos del trinomio del primer renglén del miembro izquierdo se dcscomponen para dar los tres primeros renglones de Ja derecha, y el segundo renglén permanece constante. a Teorema 2.7.7: Si cada elemento de la k-ésima columya de una matriz A se expresa como la suma de pptérminos, entonces det A puede expresarse como la suma de los determinantes de p matrices, los elementos de cuyas k-ésimas columnas son respectivamente el primero, segundo, ..., p-ésimo términos de los elementos correspondientes de la k-ésima columna de A. Todas las demds columnas son iguales. Un resultado correspondiente es vdlido para los renglones. Supéngase ef hecho de que los elementos de la k-ésima columna de 4 estan dados por 2 an = OF BO Ho OS FT MEH LZ om dat Entonces, desarcllando det A en términos de los elementos de la frésima columna, tenemos de (2.7.2), detA= Sonda= 3 (3 by?) du 2 AMA 74 Determinantes [cop. 2 Invirtienda ef orden de Ia suma, obtenemos aA = & (3 iain. aN Ahora, de acuerdo con el teorema 2.7.3 5 b:?As, es el desarrollo por G1 columnas de} determinante de una matriz al igual que A, excepto que Ia k-ésima; columna ha sido reemplazada por {b,, bo, ..., bn'?), asi, el teorema queda probado en cuanto a las columnas. Segin el teorema 2.7.1, desde luego no es necesaria una prueba de los renglones por separado, pero proporcionaria un buen ejercicio al lector para flevar al cabo las operaciones adicionales con ef signo 3. Si el uso de tos signos } en esta prueba causan confusién, debe estu- diarse el apéndice I. Teovema 2.7.8: Si en A sumamos cuaiquier miiltiplo de una linea a uns linea paraleta diferente, el determinante de la nueva matriz es ignal al det A. Por ejemplo, zy lie y 2 a) 24 1/=10 0 1) 22 8 12 7 Aqui ~2 veces el tercer renglén se agregé al segundo renglén. Esto, desde fuego, né implica cambio alguno en cl tercer renglén. Siempre que se aplique este teorema, debe recordarse que la lineg empleada como herra- mienta para efectuar cambios en una linea paralcla permanece inaiterable en el proceso, |: ty) 4 A b) E 8-2! ls 0 Aqui se agrog6 1/4 de vez la primera columna a la segunda columna. 2 -3{ |(2-32) 3 (1 + 4x) i eo) | + al En cste caso se agregé x veces [a viltima a la primera columna. Des- arréllense estos dos dltimos determinantes y verifiquese que la igualdad se cumple, sin importar el valor de x. El teorema se sigue del uso sucesivo de los teoremas 2.7.7, 2.7.8, y 2.74. Los detalles se dejan al lector como ejercicio, $2.8 Cofactor de un olemento 7 El lector acertaria, al recordar las propiedades 1, 2 y 3 y reconsi- derar la dependencia de los resultados de la seccién 2.7 sobre ellos. Or- ganizar los detalles de un tema sobre umas cuantas ideas bdsicas sin necesidad de memorizar una indigesta informacifn inadecuadamente or- ganizada, simplifica el aprendizaje de las mateméticas, Si se aprenden bien los principios, se deduciré mucha de la informacién relativa evitando la necesidad de memorizarla. 2.8 Cofactor de_un elemento Una férmula explicita para el cofactor de un elemento no efa nece- saria en las pruebas de los teoremas de la ultima seccién, pero es necesaria en otros casos. Por tanto, probamos: ? Teorema 2.8.1: El cofactor Ay; de azz en det A es (—1)**! veces el determinanie de la submatriz de orden n~- 1 que se ha obtenido at suprimir ef renglén. i-6simo y la j-ésima columna de A. El segundo ejemplo en la seccién 27 ilstra este hecho para el caso 2 = 3. Considérese primero 4,,, el cofactor de a_, en det A. Es la suma de todos los términcs de Ja forma hte dean ats’ tint donde faje-- + jaa es una permutacién de 1,2-...,2—1 solamente, (El lector debe caleular Ags y dea on los casos en que m= 3, y n= 4) Debido a que 1 esta en ja posicién natural en Ja permutacién jij... jms Vernos que SHilvesdacon ™ ianodDeel ja tltima € es ja del orden inmediato inferior, Por tanto, tenemos fan = BE bree ates Bote" Fnttcd la suma se extiende sobre las (n — 1)! permutaciones f,jo°* + jya de 1,2, n-— 1. Esto es, por tanto, un desarrollo de GQ. Gn tet Ga Goa nae Onan Pues agui (—1)i¥ = (—1)*" = 1, el teorema se sigue también para Any. Para probar el resultado para cualquier otra Ajj, reducimos el pro- blema al caso anterior. Primero reescribimes la matriz A; por tanto:

También podría gustarte